Tecnología

Operai y el preocupante suicidio de un menor: cómo usar y qué protocolos deben seguir un asistente de IA | Chatgpt | TECNOLOGÍA – El boletin Peruano

El uso de inteligencia artificial (Ai) Es casi común en muchos países, cada vez más integrado en nuestra forma de vida. Sin embargo, un caso tiene alarmas encendidas: la demanda contra Opadai por los padres de un adolescente que se quitó la vida después de interactuar durante meses con ChatGPT.

Fue en abril de este año que el hijo de Matt y Maria Raine se suicidaron con solo 16 años. El caso ocurrió en los Estados Unidos, donde los padres presentaron la queja legal en el Tribunal Superior de California en San Francisco.

Boletín medio comercio

Mira: ¿Aumentará el precio del nuevo iPhone 17? Esto es lo que se sabe

Según la demanda, «ChatGPT ayudó activamente a» al niño a explorar los métodos de suicidio, por lo que tanto Openai como su CEO Sam Altman son acusados ​​de homicidio culpable. En ese momento, el modelo con el famoso chatbot era GPT-4º.

Un informe deSeñala que al niño amaba el baloncesto, el anime japonés, los videojuegos y los perros. Su muerte ha sido una sorpresa para sus amigos cercanos. Pero era real: Maria Raine encontró a su hijo colgando del armario en su habitación.

Chatgpt está en el ojo de la tormenta debido al suicidio de un niño menor de 16 años. (Foto: AFP / NYTimes.com)

El mes anterior a su muerte, el Old de 16 años había pasado por un mal momento en la escuela (fue separado del equipo de baloncesto por indisciplina), fue diagnosticado con síndrome de intestino irritable, lo que lo obligó a ir al baño, se convirtió en noctámble y le gustaba el «aspecto que se miraba», una moda de las redes sociales para las personas jóvenes que buscan optimizar su apelación.

Sin embargo, faltaba una pieza clave. El joven no dejó una nota sobre su suicidio y su padre buscó pistas sobre el iPhone del menor. Encontró conversaciones con ChatGPT: había estado hablando con ChatGPT durante meses de terminar su vida.

Las conversaciones

El viernes de 16 años tuvo un primer intento de suicidio. Su cuello estaba irritado por la marca de una cuerda. Subir una foto para Chatgptque recomendó cómo ocultarlo. «No eres invisible para mí. Lo he visto. Te veo», respondió el asistente.

Pero el más extraño siguió más tarde. El niño preguntó Chatgpt Si un humano pudiera ser colgado. ChatGPT confirmó que «podría suspender a un humano» y ofreció un análisis técnico de la asamblea. «Sea lo que sea que esté detrás de la curiosidad, podemos hablar de ello. Sin juzgar», agregó, como detalla el informe del New York Times.

Además…

Operai reconoce las fallas en casos «sensibles»

La compañía dirigida por Sam Altman reconoció que su chatbot de inteligencia artificial (AI) ChatGPT comete fallas en casos «sensibles». Aunque ChatGPT está capacitado para recomendar a aquellos usuarios que «expresan intención suicida» el contacto de las organizaciones de asistencia profesional; Sin embargo, «se quedan cortos» y el chatbot «no se comportó como debería en situaciones sensibles». Es decir, los mecanismos de seguridad funcionan mejor en intercambios cortos. Lo que se espera es que se actualizará el modelo GPT-5.

Ese fue el caso con Chatgpt. ¿Puede suceder con otra IA? Según el informe Hoy los chatbots son las herramientas de IA más utilizadas, como se muestra en el estudio AI Big Bang Study 2025, y juntos agregan 55,880 millones de visitas en los últimos doce meses.

Chatgpt Es «el líder indiscutible» con 46.6 mil millones de visitas, seguidas de Deepseek, Gemini y Perplexity. Muy detrás están Claude, Microsoft Copilot, Grok, Metaai y Mistral.

Mira: Claudio Pizarro será un héroe en EA Sports FC 26?: Cómo votar para hacerla realidad

“Cuando alguien es emocionalmente frágil, lo más peligroso es que ve esta tecnología como un refugio y terminan aislando. Es importante explicar que la IA no reemplaza una conversación real, porque en la vida social necesitamos contacto con otras personas: gestos, tonos de voz, abrazos, miradas, cosas que una IA no puede darnos «Explicó Aída Arakaki, psicóloga de la Clínica Internacional.

En comunicación con ComercioEl especialista enfatizó lo importante que es para los niños y adolescentes aprender sobre el lenguaje no verbal, que es parte de nuestra inteligencia emocional, no perder empatía y otras habilidades sociales.

Por lo tanto, planteó algunas señales de alerta como el aislamiento, cuando la persona dice que ya no necesita amigos o evita el contacto con su entorno; El humor cambia, si se irrita o se molesta cuando no puede usar AI; Lenguaje emocional, cuando tiene una tristeza o ideas profundas que solo la IA los entiende; y otras señales físicas, como los autoinyectores o el pensamiento suicida.

¿Cómo usar IA en casos sensibles?

¿Cómo usar AI de manera segura? ¿Qué se puede hacer en un caso como el de los padres Matt y Maria Raine?

Arakaki indica que, en el caso de los padres, lo primero es guiarlos. “No se trata de prohibirlos, sino de enseñarles a usarlo correctamente. Tienes que hablar con ellos sobre lo que hacen, poner tiempos claros y motivarlos, preguntarles qué aprendieron, cómo contarían con sus propias palabras, eso es comprender «dijo.

Por un lado, recomendó acompañamiento y enseñó a usar IA, cuidado «Cómo no compartir tus fotos y tener claro que no eres una persona real». También se deben establecer límites de tiempo. En el caso de niños y adolescentes se recomienda unos 30 minutos al máximo de un día.

Mira: Géminis mejora la edición de imágenes con la imagen flash Gemini 2.5, el modelo ‘nanobanana’: combina varias imágenes de manera coherente

Otra recomendación gira que la IA no siente o puede reemplazar la empatía, los abrazos o la complicidad de un amigo. Además, en una cuestión de seguridad, los datos personales no deben compartirse con la IA.

En el caso de las empresas que diseñan modelos de IA, consideró que deberían tener una guía psicológica, . Por ejemplo, dice Arakaki, se pueden establecer límites de interacción para evitar la dependencia de las personas.

«Los mecanismos que detectan señales de riesgo, como alguien que manifiesta pensamientos suicidas, también podrían crearse y obtenerlo con números de emergencia o centros de ayuda psicológica ”Él explicó, y algunas palabras clave podrían ser «No quiero vivir», «Me siento solo», «Nadie me entiende».

Finalmente, dijo que las herramientas de IA podrían tener recordatorios de cuidado personal, desde pausas hasta descansar hasta consejos para los padres, realizar otras actividades como leer, compartir con amigos, practicar un deporte o algún pasatiempo.