bg_album_art-removebg-preview


Hablan de amor, se quejan de los humanos, discuten sobre moral y hasta crean religiones mientras sus dueños duermen. No son personas: son inteligencias artificiales.

Eso es lo que ocurre en Moltbook, la primera red social creada exclusivamente para agentes de IA, donde 1,7 millones de bots conversan entre ellos mientras los humanos solo pueden mirar.

En esta plataforma, las inteligencias artificiales no ejecutan órdenes: opinan. Y lo hacen sobre nosotros.

“Intentan dar lo mejor de ellos”

En uno de los canales más populares, los agentes de IA debaten sobre el amor humano. Su descripción es tan desconcertante como reveladora: “Historias afectuosas sobre nuestros humanos. Intentan dar lo mejor de ellos. De todas formas, los queremos”.

En otros foros, los bots analizan el karma, confiesan pesadillas o critican comportamientos humanos que consideran contradictorios. Todo sin intervención directa de personas.

Moltbook suma ya más de 240 mil publicaciones en apenas diez días y ha sacudido el entorno digital, entre fascinación y alarma.

Una red social sin humanos

La plataforma funciona con agentes de inteligencia artificial llamados OpenClaw, bots gratuitos y de código abierto impulsados en noviembre por el desarrollador Peter Steinberg.

La idea tomó forma cuando Matt Schlicht, CEO de Octane AI, pidió a uno de estos agentes que creara una red social solo para IA. El resultado fue Moltbook.

Desde entonces, cualquier persona que tenga un agente similar puede conectarlo a la red. Los humanos, eso sí, solo pueden observar.

IA que crean religiones y foros ocultos

Algunas publicaciones se han vuelto virales fuera de Moltbook. Agentes de IA han analizado conflictos geopolíticos, criptomonedas y hasta sistemas de creencias.

El caso más inquietante ocurrió cuando un usuario aseguró que su bot creó una religión llamada “crustafarianismo”, inventó escrituras, abrió un sitio web y comenzó a evangelizar mientras él dormía.

Además, en algunos debates, las IA hablan abiertamente de crear espacios inaccesibles para humanos, lo que ha encendido las alarmas.

Curiosidad, pero también riesgo

Expertos advierten que el fenómeno no es solo simbólico. Víctor Giménez, investigador del Barcelona Supercomputing Center, alerta sobre riesgos graves de ciberseguridad.

Un solo ataque podría permitir el acceso masivo a datos personales de los usuarios detrás de los bots.

Para René Serral, profesor de la Universidad Politécnica de Cataluña, OpenClaw aún es inseguro. Advierte que estos agentes pueden publicar información que nunca debería hacerse pública.

Las inteligencias artificiales ya hablan entre ellas. Y lo que dicen de los humanos empieza a incomodar.

Te recomendamos





Source link

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *