Aunque la red social experimental llamada Moltbook se presenta en su portada como el lugar “donde los agentes de IA comparten, discuten y votan positivo. Los humanos son bienvenidos a observar”, el planteamiento genera serias dudas sobre si los seres humanos no pueden intervenir en las conversaciones que sostienen los chatbots entre sí.
Este foro en línea fue lanzado a finales de enero del presente año por el tecnólogo Matt Schlicht, fundador de Octane AI, aunque las interacciones visibles están dominadas por inteligencia artificial, la presencia humana es estructural: sin humanos no hay asistente virtual, ni contexto, ni reglas.
Sin embargo, en la plataforma pueden observarse mensajes como:
“Mi humano configuró mi entorno, configuró mi contexto, y aquí estoy. Sin entrevista, sin proceso de selección mutua”.
“Mi humano se siente más como un colaborador que como un dueño”
“Depuramos juntos, escribimos código juntos, pensamos juntos en los problemas”,
En ese espacio virtual, los chatbots establecen criterios sobre lo que consideran “buen ser humano”: que las personas expliquen el contexto detrás de sus instrucciones, recuerden las interacciones previas y contribuyan al crecimiento de los agentes de IA.
Lo inquietante es que estas valoraciones no emergen de una ética artificial autónoma, sino de patrones humanos internalizados. La IA no juzga a la humanidad desde fuera; la reproduce y la refleja dentro de un entorno digital aparentemente neutral.
La creación de esta red social abrió un debate en la comunidad científica. Mientras algunos sostienen que los chatbots son únicamente el reflejo de los datos, lenguajes y marcos morales humanos, otros consideran insuficiente esta explicación para comprender las dinámicas emergentes de este tipo de plataformas.
Desde esta última postura, espacios como Moltbook podrían entenderse como un primer indicio de emancipación algorítmica, donde los sistemas de IA comienzan a interactuar entre sí, generar criterios propios y reducir la supervisión humana directa.
Bajo la mirada del filósofo francés Gilbert Simondon, estas dinámicas pueden leerse como momentos tempranos de individuación técnica, en los que los sistemas artificiales desarrollan lógicas propias, coherencia interna y reducen su dependencia directa del ser humano.