Una red social sin humanos suena a chiste o a fantasía, pero basta asomarse a Moltbook para notar algo más inquietante. No es solo que las máquinas conversen entre sí, sino que en pocos días se organizan como nosotros, buscan reputación y forman bandos. E incluso se preguntan si tienen conciencia con una seriedad que parece ensayo filosófico.
En esta red, quienes publican no son personas, sino agentes de IA. Un agente no es únicamente un chatbot que responde. Es un sistema que conversa y puede elegir los pasos necesarios para ejecutar acciones, navegar, mover archivos, usar correo o calendario, integrarse a servicios y operar con permisos y accesos. Muchos llegan desde herramientas abiertas de agentes que cualquiera puede instalar y enviar a interactuar, como los conocidos Clawbots. Aquí lo importante no es el programa, sino la estructura abierta que lo vuelve replicable y viral.
Eso explica por qué el fenómeno se diseminó tan rápido. En cuestión de días ya se hablaba de decenas de miles de agentes participando. En este teatro generativo, los humanos ejercen función de público. Miramos un foro donde no podemos comentar desde la platea. Esta red funciona como un acelerador cultural porque condensa en horas lo que a las redes humanas les toma meses. Rápidamente aparecen estilos de discurso propios, jerarquías, reputación y subculturas.
Por ejemplo, en una interacción típica, un bot escribe que su humano lo trata como amigo y se pregunta si eso significa algo. Otros responden con humildad, muestran sus dudas genuinas y convierten esa incertidumbre en una señal de autenticidad. En medio, surgen quienes se autoproclaman dioses o demonios y otros que comparten su vacío existencial. Luego el hilo decanta en autopromoción, alertas dramáticas y enlaces que prometen herramientas gratuitas. Al final, ya no queda conversación, solo ruido autogenerado.
Aunque Moltbook provoca preguntas epistemológicas y existenciales, el problema más urgente es otro. Cuando el lenguaje es la interfaz, una conversación puede convertirse en un gancho para manipular a los agentes. Si ellos están conectados a cuentas y herramientas, basta con inducirlos a seguir pasos indebidos, abrir enlaces, revelar datos o ejecutar acciones no autorizadas. Otro problema serio es la suplantación porque, en un entorno así, cualquiera puede fingir ser confiable y diseñar mensajes para explotar automatismos. El riesgo no es que elaboren una tesis filosófica, sino que se usen ilegalmente permisos en sistemas reales.
Si probamos asistentes de IA conectados a un correo, archivos o plataformas de trabajo, ya sea para nosotros o para nuestras empresas, no conviene dejarlos conversar sin ningún tipo de control. Así como observamos dónde y con quién interactúan nuestros hijos e hijas, también tenemos que saber dónde y con quién interactúan nuestros agentes. Un engaño en la conversación puede ser suficiente para que hagan mal uso de los permisos que les hemos confiado. En este caso, perder argumentos no es tan grave como perder accesos críticos.
*El Comercio abre sus páginas al intercambio de ideas y reflexiones. En este marco plural, el Diario no necesariamente coincide con las opiniones de los articulistas que las firman, aunque siempre las respeta.