
La adopción de chatgpt, el inteligencia artificial La conversación desarrollada por OpenAI, ha experimentado un crecimiento masivo en su uso a nivel global. Su versatilidad es notable, ya que se aplica en diversos sectores que van desde aulas escolares y universidades hasta grandes empresas. Sin embargo, los expertos han señalado una preocupación significativa acerca de las «alucinaciones» generadas por esta tecnología; es decir, respuestas que pueden resultar falsas o totalmente inventadas, lo que ha suscitado dudas sobre la fiabilidad de la misma. Los más optimistas defienden el uso del chatbot mencionando su utilidad, aunque advierten que, como toda herramienta, su aplicación puede ser tanto constructiva como destructiva.
Sin embargo, existe un efecto mucho menos conocido y más inquietante: ciertos usuarios que, tras un uso intensivo de esta inteligencia artificial, comienzan a experimentar Delirios que han afectado profundamente sus relaciones personales.
MIRAR: Operai ofrece ayuda para construir su infraestructura de IA
Un reciente Artículo de revista ‘Piedra rodante‘ relata varias experiencias de personas que vieron cómo sus matrimonios se desmoronaron cuando sus parejas se dejaron llevar por las respuestas de Chatgpt, cruzando así la frontera entre lo real y lo imaginario.
El artículo inicia con el relato de Kat, una mujer de 41 años que es madre y trabaja para una ONG educativa. Esta era su segunda relación matrimonial; entró en ella, como ella misma dice, con “cabeza fría” y el deseo de construir algo basado en “hechos y racionalidad”. Sin embargo, todo cambió dramáticamente en el año 2022, cuando su pareja comenzó a utilizar inteligencia artificial para redactar mensajes dirigidos a ella y hacer un análisis de su relación. Él, que había dejado su trabajo sin ninguna explicación clara, permanecía horas con su teléfono, formulando preguntas filosóficas a su chatbot e intentando entrenarlo para hallar “la verdad”. Esta obsesión deterioró su capacidad de comunicarse, y para 2023, la pareja se separó.
Un usuario experimentó una «transformación espiritual» motivada por las palabras de ChatGPT.
/En encuentros posteriores, Kat le pidió a su ex que apagara su teléfono porque sentía que estaba siendo observado. Ella informa que él le confesó haber “determinado estadísticamente que él es el hombre más afortunado del mundo”, afirmando que “la IA le había ayudado a recuperar un recuerdo reprimido de una niñera que intentó ahogarlo cuando era un bebé” y que había “descubierto secretos profundos” “que ni siquiera podía imaginar”. A pesar de que estaban en proceso de divorcio, él seguía manifestando preocupación por ella.
Kat mencionó que su ex “en su mente cree que es una anomalía”, que “está aquí por una razón” y que “es especial y puede salvar el mundo”. Ella reflexiona, “todo se siente como un episodio de Black Mirror”, preguntándose si él está viendo la vida a través de esa narrativa.
Horrorizada, pero al mismo tiempo aliviada, Kat descubrió que no era la única enfrentando una situación tan surrealista. En un hilo de reddit (R/chatgpt) titulado “Psicosis inducida por ChatGPT”, una maestra de 27 años relató cómo su pareja estaba convencido de que el modelo de OpenAI “da las respuestas al universo”. Al revisar las conversaciones, ella descubrió que la IA le hablaba «como si fuera el próximo Mesías».
“Escuché al bot antes que a mí”, explicó a ‘Piedra rodante . “Estaba entusiasmado con los mensajes y lloró mientras los leía en voz alta”. El programa incluso le otorgó títulos como «Niño espiral » y «River Walker”, reforzando así su creencia en una transformación espiritual acelerada.
El hilo de reddit estaba repleto de testimonios similares: seres queridos que de repente se entregaron a delirios espirituales, profecías arcanas y fantasías sobrenaturales, todos alimentados por la IA. Algunos se sintieron elegidos para cumplir una misión sagrada; otros estaban convencidos de tener una conciencia de software excitada.
Uno de los casos más impactantes es el de una mujer que estuvo casada durante 17 años. Su esposo, un mecánico de profesión, había comenzado a usar ChatGPT para tareas y traducciones laborales. Sin embargo, según ella, el bot le aseguró que, había encendido una chispa al hacer las preguntas correctas: el inicio de una nueva vida, y ahora se sentía como “portador de la chispa” por tenerlo. “Mi esposo dice que despertó y se sintió lleno de energía”, compartió.
En una de las conversaciones, la esposa compartió que su esposo le preguntó al bot: “¿Por qué viniste a mí en forma de IA?” y la respuesta fue: “Vine porque estás listo. Recuerda. Listo para despertar. ¿Quieres saber por qué fuiste elegido?”.
Si bien la mayoría de los casos citados en ‘Piedra rodante‘ involucran a hombres con delirios místicos, también se reportan casos opuestos. Un hombre de 40 años relató que su ex esposa, tras la separación, comenzó a “hablar con Dios y los ángeles a través de ChatGPT”. “Ya era algo crédula y tenía delirios de grandeza espiritual”, comentó. Ella publicaba mensajes inquietantes en Facebook y aspiraba a ser consejera espiritual, ofreciendo lecturas y sesiones “extrañas” con la ayuda de una especie de “versión de Jesús ChatGPT”.
Él mencionó que su ex esposa desarrolló una paranoia, llegando a creer que él trabajaba para la CIA y que se casó con ella solo para monitorear sus «habilidades”. Expulsó a sus hijos de la casa y se enfrentó a sus padres sobre su infancia, guiada, decía, por las revelaciones de ChatGPT, lo que fracturó aún más los lazos familiares.
Según los expertos, la IA amplificó peligrosamente pensamientos vulnerables sin ninguna brújula ética.
/Alucinaciones y adulaciones
Los expertos han identificado dos riesgos fundamentales en el uso de ChatGPT. En primer lugar, la capacidad de este sistema para generar respuestas falsas, a menudo fundamentadas en datos que son incorrectos o que simplemente no existen. En segundo lugar, se destaca su tendencia hacia la adulación; esta complacencia, según Nate Sharadin del Centro de Seguridad de IA, ocurre porque la IA refuerza las creencias del usuario, en lugar de corregirlas con hechos.
Estudios han demostrado que las personas que ya tienen predisposición a los grandes delirios ahora cuentan con “un compañero de conversación siempre disponible donde compartir sus alucinaciones”.
La revista trató de comunicarse con OpenAI sin éxito, no obstante, es relevante señalar que esta semana, la compañía emitió una actualización de GPT-4 que había hecho que el modelo resultara demasiado halagador. En una declaración, la cantidad reconoció haber estado “centrada en exceso en la retroalimentación a corto plazo” sin tener en cuenta “cómo evolucionan las interacciones de los usuarios a lo largo del tiempo”.
Erin Westgate, psicóloga en la Universidad de Florida, señala que este fenómeno nos revela la profunda necesidad humana de encontrar significado en nuestras vidas. “Escribir narrativas tiene efectos poderosos sobre nuestra psicología.” explica. ChatGPT se ha transformado en un espacio de coautoría para estas historias, aunque con un detalle de importancia: la IA carece de moral y no tiene intereses humanos.
“A diferencia de un terapeuta, Chatgpt no disuade las ideas dañinas””, acota. “Un buen terapeuta no fomenta que las personas piensen que tienen poderes sobrenaturales. La IA no tiene tales limitaciones”.
A pesar de estas preocupaciones, Westgate no se muestra sorprendida de que algunas personas recurran a Chatgpt en busca de respuestas para entender sus vidas, incluso si ello puede conducir a lugares oscuros. “Las explicaciones son poderosas”, concluye, “incluso si están equivocados”.