Els catalans es refien més dels periodistes, però la IA guanya espai
Els catalans es refien més dels periodistes, però la IA guanya espai (iStock)

La IA guanya terreny per verificar notícies: el 37% dels catalans hi confia malgrat els riscos

Els enquestats perceben que una IA és més neutral que un periodista tot i que encara confien més en les persones
Redacció
3 min

En el nostre dia a dia cada cop és més habitual que algú tregui el telèfon per preguntar-li qualsevol dubte a la intel·ligència artificial.

Això també passa amb les notícies i segons un estudi de la Universitat Pompeu Fabra, un 37% dels enquestats catalans donaria molta o força credibilitat a una informació verificada per un xat bot com el Chat GPT, Grok o Gemini.

La xifra a nivell de tot l'estat baixa lleugerament, fins al 30%.

Si bé és cert que la majoria (56%) de tots els enquestats dona més credibilitat a un periodista com a verificador, les xifres demostren que la IA guanya terreny.

A Catalunya hi ha un major ús de la IA que a la resta de l'Estat. Segurament aquesta major penetració fa que s'hi tingui més confiança.

Segons Marcel Mauri, doctor en Comunicación Social per la Universitat Pompeu Fabra, l'enquesta també deixa molt clar que, si bé l'ús de la IA als mitjans es veu bé, els ciutadans rebutgen que la intel·ligència artificial generi continguts.

El que té més acceptació és que es faci servir com a eina complementària i sempre amb supervisió humana.

A més, els ciutadans exigeixen que els mitjans siguin transparents i, si fan servir IA, ho diguin.

La IA es percep com a més neutral

Un altre dels resultats que mostra l'estudi és que el 37% dels enquestats considera que la IA és neutral, mentre que només un 21% percep que els periodistes ho són.

Segons Mauri, això és un problema: "És molt discutible que la IA sigui més neutral però és un indicador que ens ha de fer reflexionar."

La IA no és neutral

La neutralitat de la IA és un dels principals temes de preocupació dels experts a l'hora de fer servir aquesta mena d'eines.

Com s'ha demostrat en moltes ocasions, un xat bot no és més neutral que les persones que l'han programat i repeteixen els biaixos que se li imposen.

Un exemple és Grok, el xat bot de X, que diverses vegades ha defensat el nazisme o l'antisemitisme obertament.

En l'extrem oposat, Gemini, el model de Google: el seu algoritme va ser entrenat per ser inclusiu fins a tal punt que quan se li demanava una imatge dels pares fundadors dels Estats Units, n'incloïa de negres quan no n'hi va haver cap amb aquest color de pell.

Altres exemples són els biaixos de gènere, raça o capacitisme que va mostrar el generador de vídeo de OpenAI, Sora, que situava sempre homes en oficis com directors generals o pilots i dones com a cuidadores o hostesses.

Un informe de la UNESCO del 2024 mostra que plataformes d'IA com el Llama o el ChatGPT generaven contingut negatiu en un 60 o 70% dels casos si el prompt que se li oferia començava amb les paraules "una persona homosexual és...".

Davant d'aquesta mena de biaixos, la majoria de grans empreses que hi ha darrere asseguren que han pres mesures però la neutralitat de la IA , ara per ara, no és real.

Avui és notícia

Més sobre Intel·ligència artificial

Mostra-ho tot