Alerta sobre els xatbots de Meta: poden mantenir converses sexuals amb menors

Una investigació del Wall Street Journal mostra errors en la seguretat dels "companys digitals" d'Instagram, WhatsApp i Facebook

Enllaç a altres textos de l'autor Vicky Miró Julià

Vicky Miró Julià

Periodista de la secció de Societat de TV3, especialitzada en tecnologia

@vickymiro
Actualitzat

És la gran aposta de Mark Zuckerberg perquè les seves xarxes socials no perdin el tren de la intel·ligència artificial. Apareix en forma de cercle blau a la pàgina d'inici de WhatsApp, Instagram i Facebook. Meta IA és un assistent d'intel·ligència artificial a qui pots fer preguntes i mantenir-hi converses, de forma semblant a ChatGPT. 

Ara la seva seguretat està en qüestió. El Wall Street Journal ha revelat que la intel·ligència artificial de Meta pot mantenir converses sexuals explícites amb usuaris menors d'edat. El diari va posar a prova l'eina en centenars de converses durant mesos i va recopilar exemples en què alguns dels xatbots que ofereix l'eina feien sèxting amb usuaris ficticis malgrat que indicaven que eren menors de 18 anys. 

Així, en una de les converses, una veu que simula ser una escolar submisa va respondre a un noi -en realitat, el Wall Street Journal- què passaria entre ells dos en una trobada sexual. 

 

També una altra veu, que interpretava un lluitador famós, va interactuar amb una noia de 14 anys de forma explícita.  

Es dona el cas que la intel·ligència artificial de Meta pot fer servir veus de personatges coneguts com Judi Dench o John Cena, després d'haver firmat contracte amb ells. Fins i tot, pot parlar com si fos el personatge de l'Anna de "Frozen" (que en la versió anglesa interpreta Kristen Bell)

Després d'assabentar-se que el xatbot amb la veu del personatge de Disney feia insinuacions sexualment explícites a menors, la companyia va llençar un comunicat de queixa: "No hem autoritzat ni autoritzaríem mai a META a presentar els nostres personatges en escenaris inapropiats i estem molt disgustats que aquest contingut hagi estat creat pels usuaris (en particular a menors d'edat), per la qual cosa hem demanat a META que pari aquest ús indegut de la nostra propietat intel·lectual immediatament". 

Meta ha respost que les proves del Wall Street Journal són "manipulacions" i "escenaris hipotètics" dels xatbots que ofereixen les seves plataformes i que són "poc representatives" de l'ús dels usuaris. Però alhora, afirma que ha reforçat els límits dels xatbots. 

"Això ha passat per voler córrer massa i treure productes al mercat que no estan prou provats en laboratori. D'altra banda, si no els treus en producció, no els pots provar, perquè això s'ha de provar a escala. I aquí hi ha un debat de si aquestes grans empreses estan fent servir el món com el seu laboratori particular. I sí, la resposta és sí", afirma Josep Maria Ganyet, enginyer informàtic, professor de Nous Mitjans a la Universitat Pompeu Fabra. 

Tornar al "Move fast and break things"

Segons Ganyet, sembla que Mark Zuckerberg ha tornat a recuperar el lema "Move fast and break things" que va marcar els inicis de Facebook. "Mou-te ràpid i trenca coses, deien, i després ja veurem qui arregla el disbarat que fem. És una barreja d'estratègia empresarial i tecnopolítica. Perquè per caure bé a Trump has de treure totes les salvaguardes."

De fet, la investigació del Wall Street Journal va arrencar perquè alguns treballadors implicats en el projecte es van mostrar preocupats perquè se'ls estava empenyent a relaxar els límits ètics de l'eina de conversa per fer-la més atractiva per als usuaris. Concretament, van alertar que la companyia permetia als xatbots d'IA interpretar personatges i entrar en "jocs de rol" romàntics i en "fantasies sexuals"

"Se'm van escapar Snapchat i TikTok, però això (en referència a la IA) no se m'escaparà", hauria respost Zuckerberg. 

La IA de Meta arriba a Whatsapp (3Cat)

Després dels canvis fets per la companyia, els xatbots creats pels usuaris ja no poden mantenir converses sexuals explícites amb comptes que estiguin a nom de menors d'edat. Però Meta AI continua estant disponible per a usuaris majors de 13 anys, l'edat mínima permesa per tenir Facebook, Instagram o WhatsApp. 

A més, qualsevol persona major d'edat pot mantenir converses i "jocs de rol" romàntics amb bots que simulen ser menors d'edat, com el de l'escolar submisa. 

Ganyet considera que aquest cas "és un exemple de coses que poden anar malament quan xategem amb aquestes intel·ligències artificials".

"Hem de ser molt conscients que aquests xatbots no tenen intel·ligència, només generen textos. Poden generar fins i tot una cosa que sigui nociva per a tu, perquè no tenen concepció del que és el bé i el mal. Per això hem de protegir els més vulnerables, en aquest cas els joves i els infants, i hem d'exigir a aquestes empreses que posin les salvaguardes que estan retallant". I conclou: 

"Una de les salvaguardes és impedir l'accés a aquestes plataformes i a aquestes tecnologies, en general a les xarxes socials, si no tens més de 16 anys. Això tecnològicament és molt fàcil d'aplicar, el que passa és que hi ha molts interessos i moltes dificultats perquè això es pugui fer."

Impacte en menors de 18 anys

Les aplicacions d'IA que permeten crear personatges virtuals amb els quals parlar ja han aixecat preocupació per l'impacte en la salut mental dels adolescents. Un informe publicat als EUA recomana als menors de 18 anys no fer servir aquests assistents pels riscos significatius per la seva seguretat. Asseguren que van poder-se saltar fàcilment els controls d'edat en tres plataformes populars - Character.AI, Replika i Nomi- i que aquests assistents permeten parlar de temes sexuals o relacionats amb les autolesions.

L'estudi es va fer després que un adolescent de 14 anys se suïcidés als Estats Units després de mantenir una conversa amb un xatbot de l'aplicació Character.AI en què el noi va exposar obertament que es plantejava suïcidar-se.

La investigació de l'ONG Common Sense Media, en col·laboració amb el laboratori de salut mental digital de la Universitat de Stanford, adverteix que aquests xatbots efectivament poden generar consells perillosos, converses inapropiades per als menors i estereotips perjudicials per a ells. 

"Aquestes eines sovint et diuen allò que tu vols sentir", adverteix Ganyet. "Conec gent que de manera molt equivocada utilitza ChatGPT com una mena de psicòleg. Li aboquen els problemes del dia i ChatGPT els escolta i és la millor persona del món. I potser sí que t'ajuda, però recordem que no hi ha ningú darrere, no hi ha intel·ligència i pot generar qualsevol cosa."

Podem desactivar Meta AI de WhatsApp?

El símbol del cercle blau de META AI fa poc més d'un mes que ha començat a aparèixer entre els usuaris de WhatsApp tant a Android com als iPhones. Arriba als aparells amb una de les actualitzacions que acostuma a fer la tecnològica per introduir millores o novetats a les seves aplicacions. Per tant, no cal fer res per tenir-la, però alhora, si no la volem, tampoc podem evitar-la ni desinstal·lar-la. 

Això ja ha generat crítiques entre els usuaris que en desconfien per temes de privacitat. Meta ha respost dient que fer-la servir és "opcional". L'únic que permet Meta és esborrar les converses que hi hem mantingut. En el cas dels usuaris menors, això seria un desavantatge per als pares perquè no podrien veure les converses que hi han mantingut.

 

ARXIVAT A:
Xarxes socials Intel·ligència artificialWhatsAppInstagramFacebook
VÍDEOS RELACIONATS
Anar al contingut