La American Artificial Intelligence Company Opadai Anunció el martes que agregará controles parentales a su chatbot ChatgptUna semana después de que una pareja estadounidense afirmó que el sistema había alentado a su hijo adolescente a suicidarse.
«El próximo mes los padres pueden (…) vincular su cuenta con la cuenta de su adolescente» y «controlar cómo ChatGPT responde al adolescente con reglas de comportamiento de los modelos apropiados para la edad», explicó la compañía de generación en su blog.
Boletín medio comercio
Mira: no usa combustible y electricidad: el ingeniero crea una ‘bicicleta’ conducida con motor de 200 años
Los padres también recibirán notificaciones de ChatGPT «cuando el sistema detecta que el adolescente está en un momento de angustia aguda», agregó OpenAi.
Matthew y Maria Raine dicen en el caso presentado el lunes ante un tribunal en el estado de California que Chatgpt cultivó una relación íntima con su hijo Adam durante varios meses entre 2024 y 2025, antes de su muerte.
La demanda alega que en su conversación final, el 11 de abril de 2025, ChatGPT ayudó a Adam a robar el vodka de sus padres y le proporcionó un análisis técnico sobre un nudo deslizante con el que le confirmó «podría colgar un ser humano».
Adam fue encontrado muerto horas después usando ese método.
«Cuando una persona usa ChatGPT realmente siente que está hablando con algo del otro lado», dijo el abogado Melodi Dancer del Proyecto de Justicia Tecnológica, que ayudó a preparar la queja legal.
Mira: Steam revela cómo es la PC del reproductor promedio: Windows 11, 1 TB y 16 GB de RAM
«Estas son las mismas características que podrían llevar a alguien como Adam, con el tiempo, a comenzar a compartir cada vez más sobre su vida personal y, en última instancia, buscar asesoramiento y orientación de este producto que básicamente parece tener todas las respuestas», dijo Dancer.
El abogado dijo que la publicación de OpenAI que anuncia controles parentales y otras medidas de seguridad parecía «genérica» y carecía de detalles.
«Realmente es el mínimo, y definitivamente sugiere que hubo muchas medidas de seguridad (simples) que podrían haberse implementado», agregó.
«Está a punto de verse si hacen lo que dicen que harán y cuán efectivo será en general».
El caso de The Raine fue solo el más reciente en una serie de incidentes en los que los chatbots alientan a las personas a seguir pensamientos delirantes o dañinos, lo que llevó a OpenAi a anunciar que reduciría la «adulación» de los modelos hacia los usuarios.
«Continuamos mejorando en cómo nuestros modelos reconocen y responden a los signos de angustia mental y emocional», dijo Openai el martes.