Perfil de Tay a Twitter
Perfil de Tay a Twitter

Twitter converteix un compte robot en un usuari racista i sexista en 24 hores

L'experiment d'intel·ligència artificial de Microsoft acaba malament per la interacció amb els usuaris

RedaccióActualitzat

Així saludava dimecres des de Twitter. Es deia Tay. La va crear Microsoft com un experiment per estudiar la interacció entre la intel·ligència artificial i els éssers humans a través de les xarxes. Era un programa informàtic per conversar via Twitter amb joves de 18 a 24 anys. Un robot que segurament hauria passat el test de Turing, el test que el matemàtic anglès va proposar per distingir si una màquina mostra un comportament intel·ligent o no. Però l'experiment va durar 24 hores escasses.

En el seu perfil, Tay anunciava que com més parlaves amb ella, més intel·ligent es tornava. Intel·ligent no s'hi va tornar, però racista i xenòfoba, sí. En tan poc temps, va manifestar simpatia per Hitler, va defensar l'Holocaust, els camps de concentració o la supremacia blanca. Va fer nombrosos comentaris racistes, sexistes i homòfobs.


Microsoft es va afanyar a retirar la seva desafortunada creació i va demanar disculpes pels tuits ofensius que Tay havia engegat per les xarxes...però, en part, en va fer responsables els usuaris de Twitter. Ho atribuïa a un atac coordinat dels usuaris per fer parlar Tay de manera inadequada.


Microsoft també recordava que no és el primer robot que interactua a les xarxes. A la Xina, amb més de quaranta milions de converses, la robot XiaoIce, sedueix els seguidors amb les seves històries des del 2014 La bona experiència amb  Xialce va fer plantejar als responsables de Microsoft com funcionaria un robot equivalent en un ambient cultural diferent.

Ja tenen -tenim- la resposta. Twitter, com el son de la raó, pot crear monstres.

Anar al contingut