
L'ús maliciós de la IA en processos electorals: gairebé la meitat de països del món l'ha patit

Cada cop és més freqüent veure vídeos falsos fets amb intel·ligència artificial (IA) i ja és habitual el fenomen dels xatbots, que són perfils falsos a les xarxes socials que es dissenyen per difondre un tipus de missatge o d'ideologia.
Ara l'Observatori d'Ètica en Intel·ligència Artificial de Catalunya (OEIAC), amb seu a la Universitat de Girona, ha presentat els resultats d'un estudi que identifica com aquestes eines d'IA, i d'altres, s'han utilitzat maliciosament per alterar processos electorals manipulant els votants.
L'estudi ha estat encarregat pel Departament de Justícia i Qualitat Democràtica de la Generalitat.

Casos d'ús maliciós
L'any 2025, a Buenos Aires (Argentina), es va viralitzar un vídeo hiperrealista però fals, és a dir, un deepfake, d'un candidat que es retirava i demanava el vot per al seu rival.
És un dels casos que recull l'Estudi sobre riscos de la IA en l'àmbit dels processos electorals, que ha analitzat fets d'aquests tipus entre el 2023 i el 2026.
El document identifica cinc eines amb potencial de manipulació dels electors:
- Els deepfakes
- Els grans models de llenguatge, com ChatGPT, que són "capaços de generar desinformació a escala industrial"
- Els bots d'amplificació automàtica, com els que es troben a les xarxes socials
- La suplantació d'identitat automatitzada
- La microsegmentació psicogràfica, que es fa tenint en compte dades psicològiques per enviar missatges hiperpersonalitzats

L'estudi fa especial èmfasi en l'any 2024 perquè van coincidir moltes convocatòries electorals.
Aquell any gairebé la meitat de països del món van patir usos maliciosos de la IA, segons el director de l'OEIAC, Albert Sabater:
L'estudi no va sobre si van canviar el resultat electoral, però sí que el van alterar d'alguna manera.
Per exemple, aquell mateix 2024, als Estats Units el xatbot Grok, de la xarxa social X, va difondre falsament que la candidata demòcrata Kamala Harris havia passat el termini per presentar la seva candidatura en 9 estats.
Atenció a les properes municipals
Albert Sabater considera que "és plausible" que la IA s'utilitzi amb intenció de manipular a les properes eleccions municipals, previstes per la primavera de l'any que ve.

Assegura que ja s'han vist casos de deepfakes i d'amplificació de missatges a través de bots a les xarxes socials i, a més a més, alerta que no es pot descartar "que també hi hagi coses més sofisticades".
Erosionar la confiança en el sistema
El director de l'Observatori d'Ètica en Intel·ligència Artificial de Catalunya també alerta que la tecnologia més nova arriba tan de pressa i de manera tan generalitzada que es pot contribuir a la viralització dels usos maliciosos sense ser conscient de les conseqüències.
Explica que els missatges es fan amb la voluntat d'erosionar la confiança de la ciutadania en el sistema:
Nosaltres mateixos, sense voler, participem d'aquesta viralització de continguts de desinformació i de manipulació.
Mesures urgents recomanades
Albert Sabater proposa una actualització de la normativa dels processos electorals perquè l'actual Llei orgànica del règim electoral general, la LOREG, "és analògica".
També veu necessària una llei de transparència perquè els partits polítics diguin en quins casos fan servir la intel·ligència artificial.









