Una imatge retocada amb IA pot convertir-se en històrica? La foto de l'Iran que vam creure falsa
Tot i l'apagada d'internet que el règim iranià ha imposat sobre el país, centenars de vídeos i fotos han aconseguit esquivar la censura i fer-se visibles arreu del món.
Una de les imatges icòniques i més compartides en els darrers dies obre el debat sobre fins a quin punt una imatge millorada amb IA pot passar o no a la història.
La imatge en qüestió és la que mostra un jove a sobre d'una estàtua, posant-hi la bandera iraniana del lleó i el sol, la que feia servir el país abans de la Revolució Islàmica del 1979.
Quan aquesta imatge es va fer viral, el cap de setmana del 10 i 11 de gener, equips de verificadors d'arreu del món van creure que era massa perfecta per ser real i van mirar de verificar-la.
El que es fa en aquests casos és passar-la per detectors d'IA com Wasitai.com, que assegurava que era real, o Iluminarty, que mostrava un 24% de possibilitats que fos IA.
L'eina definitiva va ser SynthID, l'eina que Google ha creat per detectar imatges fetes amb les eines d'IA de la mateixa Google. En aquest cas, el veredicte era claríssim: la imatge havia estat generada per IA.
El problema és que la imatge mostrava una escena real. Una plaça de la població iraniana de Khorramabad, molt probablement la nit del 8 al 9 de gener.
Enmig dels centenars de vídeos apareguts, n'hi havia un que semblava mostrar una escena molt semblant en moviment (en el segon 48 es produeix l'escena en qüestió).
La imatge que segons l'eina de Google era generada amb IA es feia realitat.
S'equivoquen les eines de detecció?
La pregunta que immediatament s'han fet els periodistes que havien donat per bona aquesta imatge generada amb IA, inclòs el que escriu aquestes paraules, és clara: s'havia equivocat l'eina de Google que detecta imatges generades amb les seves eines?
La resposta és no.
El problema és que algú havia fet servir les eines de Google per millorar tant la imatge que resultava indestriable per la mateixa IA.
Com és evident, la foto retocada té una llum millor, hi apareix fum i a la part de sota hi ha unes mans, un mòbil i una bandera que no hi eren en realitat. A més, desapareix un cable elèctric que sí que hi era originalment.
L'eina de Google, SynthID, col·loca una "marca d'aigua" digital a les fotos que es fan amb les eines de Google.
La IA generativa, quan rep una imatge i li demanes que la modifiqui o la millori, no retoca la imatge original, com passaria amb Photoshop.
El que fa és generar una imatge totalment nova amb els retocs que li has demanat. És a dir, pot convertir qualsevol foto real en una foto que doni positiu en IA.
Aquest fet obre més dubtes encara sobre la possibilitat de destriar què és real i què no, i afegeix la possibilitat que una foto mostri una situació real però molt millorada amb IA.
En paral·lel, existeix un altre debat. En el cas que aquestes protestes acabin derrocant el règim i aquesta imatge esdevingui històrica, haurà passat a la història una imatge que mostra la realitat... però millorada.
