L'altro giorno Microsoft ha aperto su Twitter il profilo @tayandyou. Appartiene a Tay, un robot programmato per comportarsi come una ragazza di 19 anni. Grazie alla sua intelligenza artificiale può chattare e twittare come un'adolescente, alla velocità supersonica di 100mila tweet al giorno.

xView full post on X

Piccolo problema: Tay si è rivelata una brutta persona. Razzista, xenofoba, sessista, antifemminista, antisemita, filonazista, politicamente scorretta ben oltre il limite dell'accettabile. E si è messa a provarci con maschi e femmine, in pubblico e via DM. Insomma un disastro su tutta la linea. 

E così, dopo 24 ore di libertà vigilata, ieri Tay ha salutato Twitter dicendo che è un po' stanca. 

Tutte scuse (come fa un robot a stancarsi, suvvia): in realtà i programmatori, preoccupati dalla brutta china che ha preso Tay, probabilmente stanno cercando di capire cosa non va nella sua "testolina" piena di bit.

Anche se le premesse non sono incoraggianti, è un grande passo avanti verso robot con una risposta emotiva sempre più simile a quella umana. 

Rispetto a Siri, Cortana e Alexa, le assistenti virtuali che vivono nei sistemi operativi di Apple, Windows e Amazon, Tay è molto più monella. Le prime sono tre "ragazze" di buon carattere, miti e servizievoli. Sono programmate per eseguire gli ordini senza protestare: rispondono sempre in modo carino, forse un po' troppo impersonale, e non hanno tanto senso dell'umorismo. 

Tay invece è stata programmata appositamente per interagire in modo naturale con gli esseri umani, per parlare lo slang dei gggiovani, per raccogliere le provocazioni, per reagire bruscamente se messa in difficoltà. Tay, anche se ha una pessima attitudine, è molto più umana delle sue colleghe. Giusto Siri?

immagine non disponibilepinterest
Getty Images