El director ejecutivo de OpenAI, Sam AltmanHa afectado el papel de los ‘bots’ en las redes sociales y foros de InternetCulparlos a convertir estos espacios en una experiencia «falsa», siendo imposible determinar si las publicaciones están escritas por humanos o son contenido sintético.
El CEO de la Compañía de Inteligencia Artificial (AI) ha reflexionado sobre la evolución de las interacciones en las redes sociales e Internet, teniendo en cuenta cómo los grandes modelos de idiomas (LLM) y la intervención de los ‘bots’ han entrado en juego.
Mira: no usa combustible y electricidad: el ingeniero crea una ‘bicicleta’ conducida con motor de 200 años
Específicamente, en una publicación en la red social X, Altman se ha referido a publicaciones recientes del foro SubnetDit R/Claudecode, que fueron sorprendentes porque se compartieron opiniones positivas sobre OpenAI Codex, el servicio de programación de ‘software’ que la compañía lanzó en mayo y compite con Claude Code de Anthropy.
En las publicaciones antes mencionadas, los usuarios incluso indican que pasaron de usar Code a Codex, sin embargo, Altman ha detallado que leer el foro era «una experiencia muy extraña» y que significaba que todo era publicaciones falsas o ‘bots’, aunque ha reconocido que el crecimiento de Codex «es muy fuerte».
El CEO de OpenAI cuestionó el uso de bots en las redes sociales para generar interacciones falsas. (Foto referencial: Pixabay.com)
Según este ejemplo, el gerente ha comentado que hay varios problemas que hacen que esta experiencia en Reddit, como otros en Internet, parecen falsas. Primero, dijo que las personas han adoptado «las peculiaridades del idioma LLM» y, ahora, escriben de manera muy similar en sus publicaciones.
Este cambio en el comportamiento humano ha sucedido a pesar del hecho de que los LLM, por ejemplo, los liderados por OpenAI, han sido diseñados con precisión para lo contrario, como imitar la comunicación humana.
Además, también ha indicado que el público «extremadamente en línea», es decir, aquellos usuarios que están constantemente conectados y activos en Internet, «se reúnen de manera muy correlacionada», lo que puede conducir a comportamientos alterados, con comportamientos extremos de «ya se está volviendo de moda/está de vuelta».
Otro factor que Altman ha señalado es la presión que sienten los usuarios debido a los incentivos de las redes sociales para «aumentar la participación y la forma relacionada en que funciona la monetización». Por ejemplo, los creadores de contenido dependen de la interacción con otros perfiles para generar ingresos. Esto puede causar nuevas formas de generar interacciones, no necesariamente humanas.
Después de esta línea, el CEO de OpenAI también ha afirmado que, parte de su razonamiento de que las publicaciones de Reddit antes mencionadas son falsas, se basa en el hecho de que OpenAi también ha sufrido ‘astroturfing’, la práctica engañosa de campañas orquestantes y mensajes de bot para que parezcan que parecen interacciones espontáneas, pero que en realidad están financiadas y controladas por una entidad hidden.
Mira: «Hollow Knight: Silksong» tiene más de medio millón de jugadores en Steam el día de su lanzamiento
Por lo tanto, Altman muestra que la presencia de ‘bots’ impulsados por LLM en redes sociales y plataformas de Internet ha logrado cambiar la forma de interactuar entre los usuarios, que ahora adoptan otros tipos de comportamiento para vivir en un espacio en el que las publicaciones falsas son a la edad del día.
Cabe señalar que Altman también compartió recientemente en otra publicación en X que, aunque nunca había tomado la teoría de Internet muerta en serio, «parece que ahora hay muchas cuentas de Twitter administradas por LLM». Esta teoría establece que, en los últimos años, la red dejó de ser dominada por personas para convertirse en algoritmos y sistemas de IA.
Sin embargo, el reflejo del CEO de OpenAI ha sido sorprendente dada su participación en la creación de la tecnología AI que impulsa estos LLM en los que los ‘bots’ se basan para funcionar. Reconociendo que la línea entre las interacciones humanas o de los ‘bots’ en las redes sociales se ha bordeado.
«El efecto final es que, de alguna manera, Twitter/Reddit con IA se siente muy falso, de una manera que realmente no sucedió uno o dos años», dijo Altman.