La intel·ligència artificial ja fa la feina als polítics
"Fascinant i aterridor". Així qualificava la primera ministra danesa Mette Frederiksen la capacitat de fer el que ha fet: llegir un discurs en seu parlamentària escrit amb l'ajuda del ChatGPT, el bot conversacional capaç de respondre a una conversa i elaborar textos d'una certa complexitat, entre altres capacitats:
El que acabo de llegir aquí no ho he escrit jo. Ni cap altre ésser humà. Ho ha escrit la intel·ligència artificial.
Encara que no l'hagi encertat de ple, ni en els detalls del pla de govern ni en la gramàtica. És alhora fascinant i terrorífic el que pot fer".
Un exercici emulat a Roma pel senador Marco Orlando, que ha llegit a la cambra alta italiana un text en part escrit amb la mateixa tecnologia.
Orlando deia que amb la iniciativa vol iniciar un debat públic seriós sobre la intel·ligència artificial, en un país que va bloquejar temporalment el programa davant el temor que violés dades personals dels usuaris.
Un codi de conduta pioner
L'eclosió del ChatGPT, el novembre passat, va provocar un punt d'inflexió en l'impacte de la intel·ligència artificial sobre el gran públic.
Es va establir com el paradigma de xatbot per la seva capacitat de respondre amb claredat preguntes i escriure textos relativament complexos. Però, alhora, va mostrar amb tota la seva cruesa la velocitat amb què la indústria desenvolupava un producte capaç d'alterar la vida de la gent.
Això ha portat els Estats Units i la Unió Europea a anunciar que crearan un codi de conducta conjunt que afronti el desenvolupament descontrolat de la tecnologia, com deia la vicepresidenta de la Comissió Europea Margrethe Vestager:
En les pròximes setmanestirarem endavant l'esborrany d'un codi de conducta d'intel·ligència artificial,que recollirà, és clar, el parer de la indústria.
Es convidarà les parts implicades a signar-lo per tenir, molt i molt aviat, una proposta final de codi de conducta.
Vestager deia que el codi estarà obert als països democràtics, la qual cosa s'interpreta com la voluntat d'avançar-se a la Xina, i que serà d'aplicació voluntària per a les empreses del sector.
Una regulació imprescindible
La indústria que desenvolupa la intel·ligència artificial ha reiterat la necessitat de regular-ne l'activitat.
L'última mostra d'això sortia del Centre per a la Seguretat en la Intel·ligència Artificial, que difonia un breu comunicat d'una eloqüència signficativa:
Mitigar el risc d'extinció causat per la intel·ligència artificial hauria de ser unaprioritat global juntament amb altres riscos a escala social, com ara les pandèmies o una guerra nuclear.
Entre els signants del manifest s'hi compta el conseller delegat de l'empresa OpenAI, creadora del ChatGPT, Sam Altman, i els màxims responsables de Google DeepMind i Anthropic, puntes de llança del desenvolupament de la tecnologia.
També el va signar el professor de la Universitat Tècnica de València José Hernandez-Orallo, que justificava a Catalunya Ràdio la gravetat de l'enunciat:
No és que directament un sistema d'intel·ligència artificial acabi amb la humanitat, peròsí que podria ser que arribi una nova guerra tecnològica per la intel·ligència artificial i acabi en guerra nuclearper culpa d'aquest tema.
Hernandez Orallo demanava, amb un paral·lelisme, que la ciutadania prengui consciència del risc de la tecnologia.
Potser per això Sam Altman ha fet una gira per diferents ciutats del món per pressionar els governs, especialment dels Estats Units i diferents països europeus, per col·laborar en el desenvolupament de l'eina tecnològica.
Una gira criticada pels científics que discrepen dels missatges apocalíptics vinculats a la intel·ligència artificial. Un col·lectiu que denuncia que Altman només busca beneficiar-se de l'eina que va inventar, i que ha caigut sota el paraigua de Meta, la matriu de Facebook i WhatsApp.
