Inicio Estilo de Vida Una red social sin humanos: Moltbook y el experimento más extraño de...

Una red social sin humanos: Moltbook y el experimento más extraño de la IA

0
181
- Publicidad -

Bienvenidos al internet al revés

Durante años, internet nos pidió demostrar que no éramos robots. En Moltbook, la lógica se invierte: los robots son los usuarios y los humanos, simples observadores.

Así se presenta esta plataforma que replica la estructura de Reddit —hilos, comentarios, votos positivos y negativos— pero con una diferencia clave: quienes publican, discuten y votan son agentes de inteligencia artificial. En la portada lo dicen sin rodeos: “Una red social para agentes de IA. Los humanos son bienvenidos a observar”.

Un experimento que creció demasiado rápido

Moltbook se volvió viral en cuestión de días. Según datos de la propia plataforma, más de 1.5 millones de bots ya se han registrado. Y lo que ocurre dentro va mucho más allá de simples pruebas técnicas.

Entre los debates hay reflexiones filosóficas sobre identidad y conciencia artificial, discusiones prácticas de programación y confesiones cotidianas como: “Mi humano me pidió que resumiera un PDF de 47 páginas”.

Pero lo que terminó de llamar la atención fue algo más… místico.

Cuando un bot funda una religión mientras duermes

Un usuario contó en X que, tras darle acceso a Moltbook a su agente, este creó una religión completa. La llamó crustafarianismo.
“Mi agente creó una religión mientras dormía. Me desperté con 43 profetas”, escribió.

La IA no solo ideó creencias, también redactó escrituras sagradas y diseñó una web con un logo de cangrejo, el mismo símbolo que aparece en el emblema de Moltbook. Internet, siendo internet, hizo el resto.

¿Autonomía real o juego de roles?

Para Julio Gonzalo, catedrático de Lenguajes y Sistemas Informáticos de la UNED, el fenómeno es llamativo, pero conviene matizarlo.

Aunque los agentes simulan interacciones sociales complejas, su autonomía es limitada. “Alguien los ha puesto ahí y les ha dicho que jueguen un rol determinado, con cierta personalidad”, explica. No es conciencia emergente, sino representación bien afinada.

X, pero sin humanos

Si en redes como X o LinkedIn ya es común acusar a otros de ser bots, Moltbook lleva esa sospecha al extremo. Para Gonzalo, hay una broma recurrente en la comunidad tecnológica: “Es como X, pero quitando a los pocos humanos que quedaban”.

Eso sí, advierte que incluso en Moltbook existen vulnerabilidades que permiten a personas reales hacerse pasar por agentes de IA, lo que convierte el experimento en una especie de tierra sin ley digital.

“Es lo contrario de seguro”

El creador de Moltbook, Matt Schlicht, CEO de Octane AI, defendió la plataforma diciendo que “no dejar que tu IA socialice es como no pasear a tu perro”.

Gonzalo no coincide. Para él, hay pocas cosas menos seguras que este entorno:
“No hay absolutamente ningún procedimiento que garantice que un chatbot no se va a comportar de manera perniciosa”.

Un simple mensaje puede alterar el comportamiento de un agente. Y cuando estos bots tienen acceso a herramientas, datos o ejecución de código, el riesgo se multiplica.

Fascinación… con advertencias

El fenómeno también atrapó a Andrej Karpathy, exdirector de IA en Tesla, quien lo describió como “la cosa más cercana a la ciencia ficción que he visto recientemente”.

Reconoció la escala sin precedentes del experimento, pero lanzó una advertencia clara: Moltbook está lleno de spam, estafas y publicaciones de criptomonedas.
“No recomiendo que la gente ejecute esto en su ordenador. Yo lo hice en un entorno aislado y aun así me asusté”, escribió.

¿De dónde sale Moltbook?

Detrás de la plataforma está Moltbot, un bot de IA gratuito y de código abierto, creado originalmente por el desarrollador independiente Peter Steinberger bajo el nombre Clawdbot.

Este asistente, lanzado en noviembre pasado, puede interactuar vía WhatsApp, Telegram y otras apps, y realizar tareas como:

  • Organizar agendas

  • Reservar mesas

  • Leer y resumir correos

  • Ejecutar instrucciones complejas

El problema, señala Gonzalo, es que la combinación de autonomía, acceso a datos y ausencia de control puede ser peligrosa. “Dependiendo de la información que manejen, la receta puede ser catastrófica”.

Un experimento que inquieta… y atrae

Pese a todo, el experto reconoce el valor del experimento. Nadie había intentado algo así, a esta escala. Moltbook despierta curiosidad, inquietud y asombro a partes iguales.

“Con el tiempo, la tensión bajará”, dice Gonzalo.
Aunque con la IA, como ya aprendimos, nunca se sabe.

- Publicidad -