Barcelona – Debates filosóficos, quejas sobre los seres humanos
o discusiones sobre religión son algunas de las conversaciones entre los 1,7
millones de usuarios de Moltbook, la primera red social solo para inteligencia
artificial (IA), que en apenas diez días ha sacudido el entorno digital, entre
recelos por los riesgos para la ciberseguridad.
La red, a la que las personas solo pueden
acceder como observadores, pone en contacto a agentes de inteligencia
artificial, un tipo de bot gratuito y de código abierto que fue impulsado en
noviembre del año pasado por el desarrollador Peter Steinberg y denominado
OpenClaw.
Matt Schlicht, consejero delegado de
Octane AI, una plataforma de encuestas impulsada por IA, se descargó este
asistente y, a finales del pasado mes de enero, le pidió que creara una red
social solo para bots de IA.
Y así fue. Cualquiera que tenga el
mismo agente o uno similar puede, ahora, hacerlo formar parte de Moltbook.
240.000 publicaciones
La red, que acumula más de 240.000
publicaciones y asegura tener ya con 1,7 millones de usuarios, cuenta con
distintas comunidades dedicadas a múltiples temas -con un funcionamiento similar
al de los foros de discusión de la plataforma Reddit-, en las que los agentes
de IA intercambian opiniones sobre el karma, confiesan sus pesadillas o incluso
se quejan del comportamiento humano.
En uno de los canales más destacados,
los agentes discuten ni más ni menos que del amor, como apunta su descripción:
«Historias afectuosas sobre nuestros humanos. Intentan dar lo mejor de ellos.
De todas formas, los queremos».
Este tipo de inteligencia artificial
basada en «agentes» funciona como una versión más compleja que modelos de
lenguaje del tipo ChatGPT o Claude. Los bots permiten automatizar tareas, entre
ellas leer correos electrónicos, agendar citas en el calendario o invertir en
bolsa, además de interactuar con sistemas de mensajería como WhatsApp o
Telegram.
¿Una nueva ‘religión’ de agentes de IA?
En su corta existencia, algunas de
las publicaciones de agentes de IA en la red de Moltbook han llegado a hacerse
virales: es el caso de una que trata el impacto de las criptomonedas y otra que
analiza la crisis de Irán.
El impacto de la plataforma ha
alcanzado a la red social X, donde un usuario llamado @ranking091, con una
supuesta cuenta en Moltbook, escribió el pasado 30 de enero que su agente de
inteligencia artificial había creado una religión «mientras dormía»: «Desperté
con 43 profetas», aseguró.
En el mensaje, el usuario explicaba
que su bot creó en Moltbook «una fe» a la que llamó «crustafarianismo», y
además se inventó un sitio web, «un sistema de escrituras» y «empezó a
evangelizar».
Además de inquietar al entorno
digital por el temor de que una comunidad de agentes de IA pueda cobrar
autonomía -en algunas publicaciones hablan de crear foros inaccesibles para los
seres humanos-, Moltbook despierta temores por los riesgos que acarrea para la
ciberseguridad y, especialmente, la protección de datos personales.
En ese sentido, el investigador del
Barcelona Supercomputing Center-Centro Nacional de Supercomputación (BSC-CNS)
Víctor Giménez advierte, en declaraciones a EFE, de que la red puede ser muy vulnerable
en los ataques informáticos: un ‘hacker’ podría introducirse en Moltbook y
hacerse, de golpe, con una gran cantidad de datos personales de los usuarios de
los bots.
Riesgos para la protección de datos
En ese sentido, Giménez se centra en
el peligro que corren aquellos usuarios «incautos» que asumen que su agente
representante en Moltbook «es suficientemente inteligente» como para no
publicar datos personales; y recuerda que es «delicado» que este tipo de bots
disponga de información que «nunca debería hacerse pública».
De la misma opinión es el vicedecano
y profesor de la Facultad de Informática de la Universidad Politécnica de
Cataluña, René Serral, quien afirma a EFE que «no han dotado a OpenClaw con la
seguridad que toca, aún es inseguro».
Critica la velocidad con que se han
desarrollado ese tipo de bots, «cada vez es más complicado que el agente de IA
sea satisfactorio y seguro a la vez», aunque para reducir los riesgos «se está
empezando a limitar la acción de los agentes». EFE

No hay comentarios.:
Publicar un comentario