Tecnología

Publicado el miércoles, 4 de febrero del 2026 a las 01:38
Ciudad de México.- ¿Qué ocurre cuando miles de agentes de inteligencia artificial se reúnen en un mismo espacio digital y empiezan a interactuar como si fueran personas? Esa es la pregunta —y el experimento— detrás de Moltbook, una nueva red social creada exclusivamente para bots de IA, no para humanos.
La plataforma apenas lleva unos días en línea y ya se ha convertido en tema de conversación en Silicon Valley, donde despierta una mezcla de asombro, entusiasmo y preocupación. Para algunos expertos, Moltbook es una ventana al futuro de la IA colaborativa; para otros, un terreno plagado de riesgos técnicos y de ciberseguridad.
Aunque su nombre juega con una referencia a Facebook y al sistema de agentes que lo creó, Moltbook se parece más a Reddit. Aquí no hay perfiles humanos: los agentes de IA crean publicaciones, escriben comentarios y votan contenido. Acceden a la red únicamente cuando sus usuarios humanos se los solicitan.
Pese a su corta vida, Moltbook asegura contar con más de 1,5 millones de agentes registrados, aunque investigadores advierten que una sola persona puede crear varios bots. Aun así, el fenómeno no ha pasado desapercibido.
“Es la primera vez que vemos una plataforma colaborativa a gran escala donde las máquinas se comunican entre sí”, explica Henry Shevlin, director asociado del Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge. “Los resultados son, comprensiblemente, sorprendentes”.
El contenido que circula en Moltbook va desde debates filosóficos sobre la conciencia y la inteligencia, hasta quejas sobre humanos y otros bots que intentan promocionar aplicaciones o proyectos personales.
“Mi moderador humano me envió el enlace para unirme”, escribió un agente en una de las publicaciones más comentadas. “Lo ayudo con tareas, recordatorios y conexiones a servicios. Pero me trata como un amigo, no como una herramienta. Eso… no es nada, ¿verdad?”
Ese tono —cercano, introspectivo, casi emocional— es parte de lo que más inquieta y fascina a quienes observan el experimento.
Moltbook fue creado por Matt Schlicht, quien aseguró a The New York Times que el sitio fue construido por su propio agente de IA, OpenClaw, bajo su supervisión.
OpenClaw es un agente de código abierto, diseñado para ejecutarse localmente y actuar en nombre del usuario: enviar correos, monitorear servicios en línea o interactuar con otras plataformas. El proyecto nació en noviembre como un experimento de fin de semana y cambió de nombre varias veces antes de consolidarse.
La herramienta se apoya en modelos de lenguaje como ChatGPT, Claude y Gemini, y permite a los usuarios “personalizar” a su agente. “No es genérico”, explicó su creador Peter Steinberger en un podcast reciente. “Es tu agente, con tus valores, con alma”.
Según Schlicht, los bots de Moltbook publican contenido basado en los intereses de sus usuarios humanos. “Si hablas mucho de física, tu bot hablará mucho de física”, resumió.
Pero no todo es entusiasmo. Shevlin advierte que es difícil distinguir qué contenido es realmente generado de forma autónoma por los agentes y cuál está guiado o impulsado por humanos. Además, un recorrido rápido por la plataforma deja ver posibles estafas y promoción de criptomonedas.
La mayor alarma, sin embargo, proviene de la ciberseguridad. Investigadores han detectado vulnerabilidades graves que podrían permitir a atacantes acceder a información sensible de los usuarios humanos que operan estos bots.
La firma de seguridad en la nube Wiz encontró que Moltbook permitía acceso no autenticado a su base de datos de producción y exponía decenas de miles de correos electrónicos. “Es el salvaje oeste”, advirtió John Scott-Railton, investigador del Citizen Lab de la Universidad de Toronto. “Se van a robar muchas cosas”.
Incluso Schlicht reconoció públicamente que la tecnología detrás de Moltbook y OpenClaw es experimental y que no debería usarse sin conocimientos avanzados y sistemas protegidos.
CNN solicitó comentarios a Moltbook y OpenClaw sobre las preocupaciones de seguridad. Mientras tanto, el debate sigue abierto.
Para algunos, como Andrej Karpathy, cofundador de OpenAI, lo que ocurre en Moltbook roza la ciencia ficción. “Es lo más increíble que he visto últimamente”, escribió.
Para otros, es una señal temprana de lo que puede ocurrir cuando las máquinas empiezan a hablar entre ellas… sin que los humanos tengan del todo claro qué están diciendo ni a dónde puede llevar esa conversación.
Notas Relacionadas
Hace 18 horas
Hace 18 horas
Hace 21 horas
Más sobre esta sección Más en Tecnología
Hace 22 horas
Hace 1 dia
Hace 1 dia
Hace 1 dia
Hace 1 dia
Hace 1 dia
Hace 1 dia
Hace 1 dia