Drons autònoms en guerra: algoritmes que decideixen qui viu i qui mor
L'ús de la intel·ligència artificial està canviant la manera de fer la guerra. La capacitat d'aquests sistemes de filtrar torrents de dades infinits captats des de drons, satèl·lits i altres sensors ha accelerat la presa de decisions a ritmes sense precedents.
Al començament de la guerra contra l'Iran, els EUA van informar que havien atacat més de 2.000 objectius en només quatre dies. És difícil imaginar una selecció d'atacs com aquesta en una planificació dirigida per humans.
Armes letals sense supervisió humana
Les guerres a Ucraïna, a Gaza i, des del 28 de febrer, a l'Orient Mitjà, són el camp de prova de l'ús creixent de drons letals autònoms amb capacitat de triar objectius i atacar-los sense intervenció de cap ésser humà.
Els experts alerten del risc que algoritmes capaços d'aprendre i coordinar-se entre ells puguin decidir qui viu i qui mor.
Roser Martínez-Quirante, professora de la càtedra Manuel Ballbé de Seguretat Humana i Dret Global de la UAB i delegada del Comitè Internacional pel Control de les Armes Robòtiques (ICRAC), creu que "ha de ser sempre l'humà qui tingui la responsabilitat de decidir l'atac".
Tu no pots demanar a un dron que tingui compassió, no pots demanar-li que apliqui el sentit comú.
"Els estats han de ser responsables dels genocidis que poden comportar les armes autònomes i no escudar-se dient que és l'algoritme que s'ha equivocat", assegura l'experta que afegeix que la no regulació "pot augmentar les accions bèl·liques perquè és molt més fàcil utilitzar la IA que moure tot un exèrcit".
Les al·lucinacions en la IA
S'anomena "al·lucinació" a la resposta coherent que genera la IA, però que ve donada sense respondre a dades verificables, és a dir, que s'ha creat a partir d'informacions que poden ser falses o errònies.
Imagineu-vos si ho traslladem al camp de batalla i la IA al·lucina quan ha de decidir si l'objectiu és un soldat o una escola.
Les al·lucinacions artificials són un dels motius pels quals l'ICRAC intenta prohibir o limitar l'ús d'aquests sistemes que, segons Roser Martínez-Quijante, "ara es fan servir amb total impunitat".
Acord a dues velocitats
Les negociacions per regular aquestes armes autònomes són en un punt d'impàs. La delegada catalana vaticina un acord a més d'una velocitat entre grups de països com pot ser el cas de la Unió Europea. "Europa ha posat les bases per liderar aquesta regulació global amb el primer tractat internacional sobre IA, però també és veritat que no s'aplica per temes militars", explica Martínez-Quijante i afegeix:
Si acaba el 2026 sense reunió, jo crec que l'esforç quedarà en l'oblit.
Els EUA, Israel, la Xina, Rússia o el Regne Unit consideren que ja n'hi ha prou amb el marc jurídic actual i afirmen que tota restricció a desenvolupar la IA militar frenaria la seva competitivitat estratègica.
El cas d'Anthropic i Trump
L'start up nord-americana Anthropic és a la llista negra de la Casa Blanca des que va negar-se a cedir els seus sistemes d'IA per a usos bèl·lics, tot i que el Pentàgon ja els tenia integrats als seus programes d'anàlisi i logística militar.
De fet, segons fonts pròximes al departament de guerra, els EUA van servir el model Claude d'Anthropic en la incursió militar per derrocar el president veneçolà, Nicolás Maduro, el 3 de gener.
Armes letals en mans civils
Els experts alerten del risc que aquestes armes letals autònomes acabin en mans civils, sobretot en països com els EUA, on el principi legal "Doctrina del Castell", vigent en una quarantena d'estats, permet l'ús de la força, fins i tot letal, per protegir-se d'un intrús que vulgui entrar a casa teva.
"En pocs anys", diu Martínez-Quirante, "s'hauran abaratit costos i es vendran com a armes per vigilar el perímetre de la finca, i evidentment hi haurà accidents i errades, i si ara hi ha 35.000 morts anuals per arma de foc als EUA, la xifra augmentarà exponencialment".
Per primera vegada, la humanitat està deixant que sistemes computacionals decideixin sobre la seva vida, des de la concessió d'un crèdit fins a la pròpia existència, en una fe cega en la fiabilitat superior de les màquines.
Els experts de l'ICRAC alerten d'una transformació històrica comparable a altres revolucions tecnològiques, però amb riscos ètics i socials molt més grans.
