Tel-Aviv en ruïnes o el Burj Khalifa en flames: imatges fetes amb IA desinformen de la guerra a l'Orient Mitjà
Tot i que ja fa temps que ens estem acostumant a les imatges generades amb IA, la guerra entre els Estats Units, Israel i l'Iran està sent, de llarg, la que ha generat més imatges falses fetes amb aquesta tecnologia.
En poca estona i sense gastar ni un euro, qualsevol pot buscar una aplicació de generació de vídeos, registrar-se, escriure el que vol que surti en un vídeo (el prompt) i obtindrà una imatge força realista, en moviment, de qualsevol cosa.
Aquest vídeo, per exemple, l'hem fet amb una eina gratuïta i hem trigat 15 minuts a tenir-lo, basat en una crònica real del Jordi Brescó, corresponsal de 3CatInfo a Israel.
Això és el que han fet centenars de persones els últims dies.
Fins i tot X, la plataforma que es vanta de no censurar res, ha pres la decisió de suspendre la monetització durant 90 dies als usuaris verificats que pengin vídeos de conflictes armats fets amb IA sense indicar que és IA.
No podeu intentar enganyar la gent sobre l'origen de cap representació de conflictes armats, ni tan sols afirmant que provenen d'un conflicte armat diferent o d'un període de temps diferent.
El cap de producte d'X ho va explicar en un tuit.
Meta (Instagram, WhatsApp) o Tiktok no han dit res en aquest sentit a dia d'avui, tot i que Instagram t'obliga a activar una pestanya on indiques que un reel conté IA.
La quantitat d'imatges generades amb IA és tan gran que rivalitza amb la gran quantitat d'imatges reals.
La censura militar a Israel
La narrativa que Israel pateix molts més bombardejos dels que veiem està guanyant presència a les xarxes, atiada pel fet que Israel censura o atura la difusió d'imatges que mostren llocs atacats.
El fet que existeix un aparell de censura militar és real.
Poc després del començament de la guerra l'exèrcit va enviar una actualització a la premsa internacional recordant quina mena d'imatges no es poden publicar.
Entre altres coses, prohibeix que es mostrin llocs d'impactes, infraestructures o edificis militars, d'intel·ligència o defensa, així com llocs de llançament de míssils o operatius de combat.
De tota manera, segons els corresponsals de 3CatInfo que han treballat a la zona durant la guerra dels 12 dies i ara mateix, Roser Oliver Olivella i Jordi Brescó, aquesta censura no suposa que calgui enviar cada vídeo que es vol publicar, sinó més aviat en ser conscient que si es publica informació sensible hi podria haver conseqüències.
Dit això, els llocs dels impactes al centre de ciutats com Tel-Aviv o Jerusalem serien impossibles d'amagar.
Un altre rumor sense proves que circula a les xarxes és que el primer ministre d'Israel, Benjamin Netanyahu, és mort. Netanyahu va comparèixer, però, aquest dimarts dia 10.
Vídeos i fotos generades amb IA
A partir d'aquest punt, tots els vídeos i fotos que veureu han estat generats amb IA. Els enllaços poden contenir contingut real.
Com dèiem, la narrativa que Israel pateix molts atacs de l'Iran sobre ciutats com Tel-Aviv malgrat que els mitjans no n'informem, s'escampa.
Això sí, la majoria d'usuaris que difonen aquesta narrativa falsa ho fan amb imatges generades amb IA com aquestes:
Totes aquestes imatges estan generades amb IA amb una probabilitat per sobre del 95% segons eines com Hive, Undetectable AI o Sight Engine.
Pel que fa als vídeos, alguns dels més virals han estat els que mostren la mateixa ciutat sota una pluja de foc.
En aquest cas, l'skyline no és el de Tel-Aviv, s'hi veuen edificis idèntics i cotxes barrejats en estructures estranyes. A banda, un bombardeig d'aquestes característiques no s'ha produït ni hi ha altres imatges que el certifiquin.
Una altra imatge que ha circulat molt i que està generada amb IA mostra un bombardeig cinematogràfic també sobre Tel-Aviv.
En el cas d'aquesta foto, l'expert en verificació digital Tal Hagin va rastrejar-ne l'origen fins a un compte de Facebook on, el juny passat, l'usuari Mhmad Yusif va penjar-la amb la seva marca d'aigua.
També s'han fet vídeos amb IA intentant demostrar que Israel està completament destruït:
En les primeres hores de bombardejos, els continguts fets amb IA més compartits tenien com a protagonistes els edificis emblemàtics que hi ha als diversos emirats del golf, que també han estat objectius dels bombardejos i els drons iranians.
Per exemple, el vídeo fals de dos avions sobrevolant el Burj Khalifa de Dubai va fer fortuna.
Aquesta mena de vídeos falsos han afegit confusió perquè alguns edificis emblemàtics sí que han patit impactes durant els atacs.
Per exemple, el Burj al-Arab, també de Dubai, sí que va rebre l'impacte de les restes d'un dron i un incendi va cremar part de la façana.
De la mateixa manera, un edifici d'apartaments de Bahrain també va rebre, en aquest cas, l'impacte directe d'un dron.
Per acabar de complicar-ho, hi ha qui s'ha inspirat en imatges reals per generar-ne de falses amb els mateixos edificis com a protagonistes. És el cas d'aquest vídeo fet amb IA del Burj Khalifa en flames.
Si continuem amb les imatges generades amb IA, també se n'han fet amb infraestructures crítiques israelianes importants, com és el cas d'aquesta de l'aeroport Ben Gurion de Tel-Aviv:
En aquesta guerra, fins i tot hem vist manipulacions d'imatges per satèl·lit com aquesta, que suposadament mostra la destrucció d'un radar nord-americà a Qatar o Bahrain (les dues ubicacions s'han mencionat).
El cas és que la imatge de la dreta està manipulada amb eines de IA de Google, que ara ja pot detectar tothom fent servir Gemini.
Tot i que la imatge anterior sigui falsa, és cert que un dron va impactar contra aquesta instal·lació i la va destruir en bona part, tal com es veu en aquestes imatges de Planet Lab i Boeing publicades pel New York Times.
Per tant, també veiem que durant aquesta guerra s'estan generant imatges falses perquè sembli que estan passant coses que no estan passant, però també per il·lustrar ràpidament (més ràpid del que és possible obtenir informació verificada) el que sí que ha passat.
Aquí es poden consultar vídeos falsos o generats amb IA verificats per Tal Hagin i aquí vídeos i imatges verificades per BBC Verify.
En el conflicte actual, Israel xifra en 12 persones les víctimes mortals provocades per l'Iran des que va començar aquesta guerra. Aquest és el balanç el dia 11 de març.
A l'Iran, el Ministeri de Salut del règim xifra el nombre de víctimes en més de 1.200. Aquest balanç és del 9 de març.
Per què?
Una de les preguntes que ens fem davant d'aquesta inundació de vídeos fets amb IA és "per què algú els crea?".
Hi ha dues respostes possibles davant d'aquesta pregunta.
La primera és que els creïn els bàndols en conflicte amb un interès evident d'impulsar la seva pròpia propaganda i instal·lar el relat que el seu costat està guanyant.
La segona és el funcionament que hi ha darrere les xarxes socials.
Molts dels perfils que generen vídeos d'IA de manera sistemàtica ho fan buscant que els vídeos siguin espectaculars i, per tant, molt vistos i compartits.
Com més visualitzacions, reaccions, comparticions tinguin (més engagement), més premiarà la plataforma aquell usuari, que acabarà podent monetitzar-ho (podrà guanyar-hi diners).
Com detectar-les?
Avui dia existeixen diverses eines gratuïtes per tenir una pista sobre si una imatge pot ser generada amb IA.
Algunes d'aquestes eines són Hive, Search Engine, Undetectable AI o Google Gemini, que detecta només les imatges generades amb les eines d'IA de Google.
Aquestes eines ens donen un percentatge de probabilitat que les imatges que hi carreguem estiguin fetes amb IA.
Però, sovint, altres elements també hi entren en joc, com explica Tal Hagin a 3CatInfo:
La lògica és molt útil. Si veus un vídeo d'una explosió massiva però no ho veus enlloc més, és molt probable que sigui fals. Si fos molt grossa, no es podria amagar.
Hagin apunta que, ara per ara, els vídeos fets amb IA encara tenen inexactituds, sobretot en el rerefons i els elements que apareixen en segon pla.
Estructures mal fetes, cotxes amb formes estranyes o edificis amb massa o massa pocs pisos poden indicar que les imatges són d'origen sintètic.
