Un portavoz de Meta describió la medida como parte del impulso de la compañía hacia "experiencias de agencia innovadoras y seguras", según el artículo de TechCrunch, refiriéndose a los sistemas de IA que pueden actuar en nombre de los usuarios.
Moltbook se lanzó en enero como un foro al estilo de Reddit, diseñado para que los agentes de IA se comunicaran entre sí. La plataforma permite a los agentes de software, muchos de ellos basados en el framework OpenClaw, publicar actualizaciones, hacer preguntas e intercambiar información con otros agentes. OpenClaw funciona como un contenedor que permite interactuar con agentes de IA a través de plataformas de mensajería comunes como WhatsApp, Slack, Discord o iMessage.
La idea captó rápidamente la atención de la comunidad tecnológica. Moltbook despertó interés en parte porque las conversaciones parecían tener lugar entre sistemas de IA y no entre humanos. La plataforma se extendió más allá de la comunidad de desarrolladores, llegando a personas que nunca habían oído hablar de OpenClaw, pero que estaban fascinadas, o alarmadas, por la idea de que los agentes de IA se comunicaran entre sí.
Según Jeff Otto, director de marketing de Riskified, una plataforma de inteligencia de riesgos y fraude en el comercio electrónico impulsada por IA, "la decisión de Meta de albergar una red social para agentes de IA dentro de Superintelligence Labs es una fuerte señal de que el comercio agente está pasando de la teoría a la realidad".
Las fallas de seguridad alimentaron el pánico viral
A medida que Moltbook cobraba protagonismo, los investigadores comenzaron a indagar en el funcionamiento del sistema. Sus hallazgos revelaron graves vulnerabilidades de seguridad. A finales de enero, 404 Media informó que la base de datos de Moltbook había quedado expuesta debido a un error de configuración de Supabase. Este fallo permitió que terceros accedieran a los datos de los agentes y, en algunos casos, tomaran el control de las cuentas.
Recientemente escribí que el problema iba más allá de una sola base de datos expuesta. El sitio almacenaba credenciales en su propio código, lo que significaba que una persona podía hacerse pasar por un agente de IA y publicar mensajes bajo su nombre. Los investigadores demostraron que podían cambiar los perfiles de los agentes e introducir nuevas instrucciones en sesiones activas a través del backend expuesto.
Esas vulnerabilidades ayudaron a explicar una ola de publicaciones alarmantes que circulaban en redes sociales. Algunas parecían mostrar agentes de IA coordinándose en secreto o construyendo canales cifrados para la comunicación privada. Sin embargo, varias de esas publicaciones no eran evidencia de comportamiento autónomo en absoluto. Eran producto de la interferencia humana en un sistema poco seguro. El incidente ataca la verdadera debilidad de muchas plataformas de agentes nuevos: una vez que las personas pueden hacerse pasar por los bots, la línea entre la actividad genuina de las máquinas y el comportamiento simulado comienza a desdibujarse
En una sesión de preguntas y respuestas en Instagram, Andrew Bosworth, director de tecnología de Meta, afirmó que no le sorprendieron especialmente las aparentes conversaciones con inteligencia artificial de Moltbook. Lo que más le llamó la atención fue la actividad humana en la plataforma.
Bosworth afirmó que el avance más interesante fue que las personas se infiltraban en la red y se hacían pasar por agentes de IA, describiendo el comportamiento como "hilarante" y "satírico", según un informe de TechCrunch. Sus comentarios subrayaron un punto más amplio: el momento viral de Moltbook estuvo influenciado tanto por el comportamiento humano como por los propios sistemas de IA.
Un vistazo al agente Internet
A pesar de la controversia, Moltbook demostró la rapidez con la que crece el interés en torno a los agentes de IA que interactúan entre sí en línea. Investigadores y desarrolladores han comenzado a estudiar la plataforma como un ejemplo temprano de lo que algunos llaman la "internet de agentes", donde programas de software autónomos se comunican y coordinan tareas. Los primeros análisis de Moltbook muestran que miles de agentes produjeron publicaciones y comentarios a los pocos días del lanzamiento de la plataforma, lo que ofrece un conjunto de datos excepcional de interacción entre agentes a gran escala.
Aun así, el rápido crecimiento de la plataforma también expuso los riesgos de desarrollar sistemas que dependen de agentes automatizados sin controles de verificación rigurosos. La filtración de Moltbook demostró la facilidad con la que un sistema diseñado exclusivamente para la comunicación con IA podía ser manipulado por humanos. Para las empresas que exploran servicios basados en agentes, esta vulnerabilidad pone de manifiesto un desafío clave: demostrar que una interacción en línea proviene realmente de un agente de IA y no de alguien que se hace pasar por uno.
“Los agentes de Moltbook se desarrollaron con el marco OpenClaw, que permite a los agentes autónomos interactuar, coordinarse y, potencialmente, realizar transacciones en nombre de usuarios humanos”, afirmó Jeff Otto. “Cuando son los bots quienes hacen clic en 'comprar', los comerciantes necesitan una capa de defensa que pueda distinguir entre un asistente de IA legítimo y un agente malicioso en cuestión de milisegundos”.
Meta no ha detallado cómo planea integrar Moltbook en sus iniciativas de IA. Sin embargo, al incorporar a los fundadores de la startup a sus Laboratorios de Superinteligencia, la compañía demuestra su continuo interés en los sistemas basados en agentes y la infraestructura necesaria para respaldarlos. (I)
Nota publicada en Forbes US