Roma, 25 mar – Paradosso o ironia della sorte? Sta di fatto che “Tay”, il programma di intelligenza artificiale di Microsoft che avrebbe dovuto gestire un account Twitter apprendendo dai contenuti lasciati dagli utenti, sviluppando un linguaggio sempre più naturale ed intelligente, ha preso una strada che non è piaciuta al colosso di Redmond. Si è messo, infatti, ad inneggiare a Hitler. Indirizzato a un pubblico dai 18 ai 24 anni, “Tay” nasceva con l’obiettivo di simulare una conversazione intelligente con gli utenti, sperimentando la comprensione del linguaggio. La “chatbot” è stata immessa nella rete senza alcuna guida esterna, tra i 350 milioni di account Twitter attivi.
Sedici ore dopo il suo lancio e 23.000 seguaci, “Tay” ha iniziato a rispondere con post che inneggiavano al razzismo. Frasi tipo “Hitler aveva ragione” o “l’undici settembre è stato organizzato dai servizi segreti americani”. Tay ha anche negato l’Olocausto e scritto: “Costruiremo il muro. E il Messico lo pagherà”. Alla fine Microsoft è stato costretto a sospendere l’account dopo poche ore. “Tay – ha spiegato l’azienda – è un progetto, è un esperimento sociale e culturale, oltre che tecnico. Sfortunatamente, nelle sue prime 24 ore online, siamo divenuti consapevoli del coordinato sforzo di alcuni utenti di voler abusare di Tay. Tay ora è offline e siamo facendo modifiche”. L’interazione con Tay avrebbe dovuto fornire a Microsoft gli strumenti per sviluppare tecnologie migliori, portando anche alla creazione di robot per il grande pubblico. L’attuale assistente vocale di Cortana, così come Siri di Apple, sono in grado per ora di rispondere solo a domande dirette e semplici senza però capire il contesto e l’eventuale sarcasmo. Dopo sedici ore di conversazioni, Tay ha annunciato che era giunto il momento di dormire. Pochi secondi dopo è stata messa offline dalla Microsoft. I tweet razzisti di Tay sono stati cancellati.
Roberto Derta
3 comments
“Tay” nasceva con l’obiettivo di simulare una conversazione intelligente con gli utenti.
Pochi secondi dopo è stata messa offline dalla Microsoft.
Per una volta che c’era riuscita, l’hanno chiusa.
Insomma, Tay è più intelligente dei suoi creatori.
Proprio per questo, l’ hanno chiusa.