L'ús maliciós de la IA en processos electorals: gairebé la meitat de països del món l'ha patit

Segons l'Observatori d'Ètica en Intel·ligència Artificial de Catalunya, la IA ha alterat processos electorals i podria passar aquí a les properes municipals

Cada cop és més freqüent veure vídeos falsos fets amb intel·ligència artificial (IA) i ja és habitual el fenomen dels xatbots, que són perfils falsos a les xarxes socials que es dissenyen per difondre un tipus de missatge o d'ideologia. 

Ara l'Observatori d'Ètica en Intel·ligència Artificial de Catalunya (OEIAC), amb seu a la Universitat de Girona, ha presentat els resultats d'un estudi que identifica com aquestes eines d'IA, i d'altres, s'han utilitzat maliciosament per alterar processos electorals manipulant els votants

L'estudi ha estat encarregat pel Departament de Justícia i Qualitat Democràtica de la Generalitat. 

 Les eines dels grans models de llenguatge es fan servir per manipular (Unsplash)

Casos d'ús maliciós

L'any 2025, a Buenos Aires (Argentina), es va viralitzar un vídeo hiperrealista però fals, és a dir, un deepfake, d'un candidat que es retirava i demanava el vot per al seu rival. 

És un dels casos que recull l'Estudi sobre riscos de la IA en l'àmbit dels processos electorals, que ha analitzat fets d'aquests tipus entre el 2023 i el 2026.

El document identifica cinc eines amb potencial de manipulació dels electors: 

  • Els deepfakes
  • Els grans models de llenguatge, com ChatGPT, que són "capaços de generar desinformació a escala industrial"
  • Els bots d'amplificació automàtica, com els que es troben a les xarxes socials
  • La suplantació d'identitat automatitzada
  • La microsegmentació psicogràfica, que es fa tenint en compte dades psicològiques per enviar missatges hiperpersonalitzats
Imatge d'arxiu d'una votació electoral (ACN/Ignasi Gómez)

L'estudi fa especial èmfasi en l'any 2024 perquè van coincidir moltes convocatòries electorals

Aquell any gairebé la meitat de països del món van patir usos maliciosos de la IA, segons el director de l'OEIAC, Albert Sabater: 

L'estudi no va sobre si van canviar el resultat electoral, però sí que el van alterar d'alguna manera. 

Per exemple, aquell mateix 2024, als Estats Units el xatbot Grok, de la xarxa social X, va difondre falsament que la candidata demòcrata Kamala Harris havia passat el termini per presentar la seva candidatura en 9 estats. 

Atenció a les properes municipals

Albert Sabater considera que  "és plausible" que la IA s'utilitzi amb intenció de manipular a les properes eleccions municipals, previstes per la primavera de l'any que ve.

El director de l'OEIAC, Albert Sabater (Univeristat de Girona)

Assegura que ja s'han vist casos de deepfakes i d'amplificació de missatges a través de bots a les xarxes socials i, a més a més, alerta que no es pot descartar "que també hi hagi coses més sofisticades"

Erosionar la confiança en el sistema

El director de l'Observatori d'Ètica en Intel·ligència Artificial de Catalunya també alerta que la tecnologia més nova arriba tan de pressa i de manera tan generalitzada que es pot contribuir a la viralització dels usos maliciosos sense ser conscient de les conseqüències. 

Explica que els missatges es fan amb la voluntat d'erosionar la confiança de la ciutadania en el sistema: 

Nosaltres mateixos, sense voler, participem d'aquesta viralització de continguts de desinformació i de manipulació. 

Mesures urgents recomanades

Albert Sabater proposa una actualització de la normativa dels processos electorals perquè l'actual Llei orgànica del règim electoral general, la LOREG, "és analògica".

També veu necessària una llei de transparència perquè els partits polítics diguin en quins casos fan servir la intel·ligència artificial.