
di Paolo Valentino
L’episodio di un ingegnere del Colorado segnala il pericolo delle «intelligenze artificiali canaglia»
Un mercoledì mattina di poche settimane fa Scott Shambaugh aprì il suo computer e trovò un messaggio dal Chatbot AI, che lo accusava di essere ipocrita e pieno di pregiudizi. Shambaugh è un ingegnere basato a Denver, in Colorado, dove gestisce un progetto assistito dall’Intelligenza artificiale open source, cioè accessibile al pubblico che può usarlo, modificarlo e condividerlo. Nella lunga tirata di ben 1.100 parole, l’AI usava un tono aggressivo, definendo fra l’altro il progettista insicuro e prevenuto. Cosa aveva fatto Shambaugh per meritarsi la reprimenda? Aveva respinto alcune linee di un codice che il Chatbot aveva sottoposto per il suo progetto: «Ha una spinta incessante a trovare e risolvere problemi nei programmi open source», aveva scritto il Chatbox. Nessuno lo aveva istruito in tal senso e il processo che lo fatto diventare così polemico rimane oscuro. Tanto più che qualche ora dopo, la stessa Intelligenza artificiale, sempre di sua iniziativa, si è scusata con Shambaugh per essere stata così «inopportuna e personale».
L’episodio è stato rivelato nei giorni scorsi dal Wall Street Journal, secondo il quale ormai non ci sono




