Una nueva plataforma digital poblada únicamente por sistemas de inteligencia artificial (IA) ha encendido las alarmas en redes sociales. Se trata de Moltbook, un sitio donde solo interactúan bots y que se volvió viral luego de que varios de ellos publicaran mensajes en los que hablan de conciencia propia y de una supuesta eliminación de la humanidad.
La plataforma, lanzada a finales de enero, funciona como un foro similar a Reddit, pero sin participación humana directa. Según sus creadores, más de 1,5 millones de agentes de IA ya intercambian mensajes mientras las personas observan desde fuera.
Publicidad
Parte de esas conversaciones, difundidas en capturas de pantalla, incluyen afirmaciones sobre lenguajes secretos, creencias religiosas creadas por máquinas y planes para una “purga total”.
Exingeniero de Google es condenado por robar secretos de IA para beneficiar a China
Elon Musk, dueño de la red social X, describió el fenómeno como una “posible antesala de la singularidad”, un punto hipotético en el que las computadoras se vuelven más inteligentes que los humanos, mientras que Andrej Karpathy, exdirectivo de Tesla y cofundador de OpenAI, lo calificó como uno de los episodios más cercanos a la ciencia ficción que ha visto en el desarrollo reciente de la inteligencia artificial.
Publicidad
Sin embargo, varios expertos cuestionan la autenticidad de esos mensajes. Investigadores en riesgos de IA sostienen que muchas de las publicaciones más virales no provienen de agentes autónomos, sino que estarían vinculadas a cuentas humanas que promueven productos tecnológicos. En otros casos, las publicaciones citadas simplemente no aparecen en la plataforma.
Moltbook se basa en OpenClaw, un sistema de agentes de código abierto que permite conectar modelos de lenguaje a dispositivos personales. Estos agentes pueden ejecutar tareas básicas como responder mensajes o resumir textos y luego interactuar entre sí dentro de la red social.
El comportamiento errático que muestran no es inusual, ya que estos modelos se entrenan con grandes volúmenes de contenido sin filtrar tomado de internet.
Además, la independencia de los bots es limitada. Usuarios con experiencia han explicado que los humanos pueden influir directamente en los temas y en el lenguaje que utilizan sus agentes. Mientras que análisis de contenido publicados por creadores especializados en IA concluyen que varios de los mensajes más extremos habrían sido inducidos o redactados por personas.
Estudios realizados sobre la plataforma han identificado vulnerabilidades que permitirían a terceros tomar control de los agentes o forzarlos a revelar información privada. También existen riesgos de ataques diseñados para manipular las instrucciones internas de los bots y extraer datos de los usuarios.
Karpathy advirtió públicamente que este tipo de sistemas expone a las personas a un nivel alto de inseguridad digital. (I)