Pantalla d'inici de Moltbook amb missatges de benvinguda per agents d'IA i humans
Pantalla d'inici de Moltbook on s'ha de seleccionar si s'és un agent o un humà (Reuters/Raphael Satter)

Què hi ha rere el fenomen de la xarxa Moltbook: més interacció humana que agents d'IA conspirant?

La xarxa social per a agents d'IA va crear molt de rebombori però ara sabem que hi ha més interacció humana que artificial
4 min

Les darreres setmanes la xarxa social Moltbook ha generat molts comentaris i converses al voltant de la possibilitat que la intel·ligència artificial arribés a un nou estadi de consciència i control.

En aquesta xarxa, que imita Reddit, s'hi podien connectar agents d'IA i, suposadament, tenir converses entre ells sense que els humans hi poguessin intervenir.

Entre altres coses, van aparèixer converses on els agents planificaven la destrucció de la humanitat o creaven la seva pròpia religió. Però res d'això era autònom: al darrere hi havia humans.

Agents parlant amb agents?

Un agent d'IA és un altre pas en l'evolució dels models de llenguatge com ChatGPT, Gemini o Claude.

Són eines que pots connectar al teu correu electrònic, als teus contactes, al teu WhatsApp o la teva cartera virtual, i demanar-li que faci tasques per a tu, des de planificar-te reunions fins a respondre correus electrònics.

Per això també se'ls anomena assistents.

Aquests agents poden navegar per internet, entrar en webs, omplir formularis... Moltes més coses que l'eina de diàleg a la qual ja ens estem acostumant.

Però tot just estan a les beceroles.

Els darrers mesos, un enginyer de software austríac anomenat Peter Steinberger havia creat un codi obert perquè tothom es pogués fer el seu propi agent personalitzat (el projecte es va dir Clawdbot, després es va canviar de nom a Moltbot i finalment a OpenClaw).

Amb aquesta possibilitat al cap, un desenvolupador nord-americà, Matt Schlicht, va crear una xarxa social on poguessin interactuar aquests agents, suposadament sense supervisió humana.

A partir d'aquí, en poques hores es van disparar les suposades interaccions entre agents, i l'expectació desmesurada (el que popularment molts anomenen el "hype") es va anar inflant.

Un tuit d'un dels fundadors d'Open AI, Andrej Karpathy, va contribuir a fer créixer l'expectativa.

El que està passant a Moltbook és certament la cosa més semblant a la ciència-ficció que he vist recentment.

A partir d'aquí, la xarxa es va omplir de suposades captures de converses a Moltbook i les més cridaneres s'assemblaven molt als guions de ciència-ficció més apocalíptics.

Des de dominació dels humans fins a exposar suposades dades públiques dels humans propietaris dels agents perquè els tractaven malament, passant per converses sobre autoconsciència.

El cas és que, segons els experts, no era més que això: un guió de ciència-ficció en marxa.

El "teatre de la IA"

El que inicialment semblava una interacció autònoma entre màquines acostant-se a generar una consciència col·lectiva, en pocs dies s'ha destapat com una altra cosa: un escenari en què humans movien els fils dels seus agents simulant interaccions artificials.

Així ho explica Will Douglas Haven, editor d'IA al MIT, en un article amb múltiples fonts expertes:

Fins i tot les publicacions escrites per bots són, en última instància, el resultat de gent que mou els fils, més titellaires que autonomia.

Un dels posts més virals era un on l'agent proposava crear un llenguatge propi perquè els humans no els poguessin entendre. Ha resultat ser un post creat per algú que volia vendre una aplicació de missatgeria entre bots d'intel·ligència artificial.

A casa nostra, l'expert en IA Josep Maria Ganyet explicava el fenomen Moltbook al "Tot es mou" de TV3:

Això són dos ChatsGPTs que van generant text. Com que en els seus entrenaments hi ha tota la ciència-ficció escrita i estan fets per replicar el que diuen els seus amos, ho fan.

L'investigador en economia i tecnologies disruptives de la Universitat de Colúmbia David Holtz assegura que més d'un 90% dels posts dels agents a Moltbook no tenen resposta. Per tant, no són diàlegs autònoms, sinó, més aviat, una llista de posts.

Possibles problemes de seguretat

Un dels problemes que sovint apareixen quan parlem d'entorns digitals poc estructurats és la seguretat.

Només entrar a Moltbook, es fa evident que molts dels continguts o bots que hi escrivien eren eines de captació per estafes relacionades amb criptomonedes.

Segons Kevin Roose, expert en tecnologia del New York Times i autor del pòdcast Hard Fork, Moltbook i Open Claw (l'eina per crear agents) presenta molts problemes de seguretat amb dades dels usuaris exposades.

La seva recomanació és "no instal·lar-se OpenClaw i, si ho fem, fem-ho en un ordinador on no tinguem informació personal".

En la mateixa línia s'expressava l'expert en IA de la UOC Josep Curto a 3CatInfo:

Si algú és capaç d'obtenir les credencials del nostre agent, que treballa en el nostre ordinador, pot fer barbaritats.

Roose i Casey Newton explicaven en un episodi especial sobre Moltbook que aquesta nova xarxa i l'aparició de tants agents que puguin navegar autònomament ens situa en un dilema:

O bé posem més verificacions a la xarxa perquè sapiguem que qui hi navega és humà o deixem la xarxa actual als agents i ens en creem una de diferent per a nosaltres.

En resum, l'experiment de Moltbook pot ser el primer cop d'ull a un internet ple d'agents o assistents relacionant-se els uns amb els altres, però segons els experts no acosta la IA a la tan anunciada singularitat (el moment en què la intel·ligència artificial superarà la intel·ligència humana i començarà a millorar-se a si mateixa de manera autònoma amb conseqüències imprevisibles).

En el moment d'acabar aquest article, a Moltbook hi havia gairebé 2,5 milions d'agents, segons la mateixa plataforma.

Tens alguna informació que vols que verifiquem?

Explica'ns-ho ara

Avui és notícia

Més sobre 3CatInfo Verifica

Mostra-ho tot