Tecnología

El objetivo entrenará su chatbot para que no hablen sobre suicidio o sexo con adolescentes | TECNOLOGÍA – El boletin Peruano

La portavoz de MetaStephanie Otway, ha reconocido como un «error» que el chatbot de la compañía ha hablado con adolescentes sobre temas como autolesiones, suicidio, trastornos alimentarios o conversaciones románticas potencialmente inapropiadas.

MIRAR: ¿Qué amenazas a la ciberseguridad realmente pueden sufrir después de una llamada?

Otway ha hecho estas declaraciones para Dos semanas después de la publicación de un informe de investigación de Reuters sobre la falta de medidas de protección de IA para las plataformas de la compañía, como WhatsApp, Instagram, Facebook o Threads.

Boletín medio comercio

Los chatbot son herramientas digitales con las que se puede mantener una conversación, y la portavoz de la tecnología de Mark Zuckerberg Sus plataformas los han usado para hablar con los adolescentes sobre los problemas antes mencionados.

Otway ha asegurado que a partir de ahora capacitarán a sus chatbots para dejar de interactuar con los adolescentes sobre estos temas: «Estos son cambios provisionales, ya que en el futuro lanzaremos actualizaciones de seguridad más sólidas y duraderas para menores».

«A medida que nuestra comunidad crece y la tecnología evoluciona, aprendemos continuamente sobre cómo los jóvenes pueden interactuar con estas herramientas y reforzar nuestras protecciones en consecuencia», continuó.

La compañía también limitará a los adolescentes a ciertos caracteres de inteligencia artificial (IA) Eso podría mantener «conversaciones inapropiadas».

Algunos de los personajes de IA creados por los usuarios que Meta ha puesto a disposición de Instagram o Facebook incluyen chatbots sexualizados como «madrastra» o «niña rusa».