Tecnología

Google Gemini no se recomienda para niños menores de 18 años, dice Common Sense Media | TECNOLOGÍA – El boletin Peruano

Un informe de seguridad preparado por Common Sense Media ha concluido que los niños menores de 18 años deben evitar usar los modelos Google Gemini, ya que su versión diseñada para menores los trata de la misma manera que la diseñada para adultos, por lo que ha descrito el asistente de inteligencia artificial (IA) de la compañía como una herramienta de «alto riesgo».

MIRAR: «Antes de que se recomendara estudiar inglés y computación si quería tener trabajo, ahora sostengo que tendrá que estudiar robótica para permanecer en vigor».

Common Sense Media es una organización sin fines de lucro dedicada a la seguridad infantil, que analiza y ofrece calificaciones sobre diferentes productos para ayudar a los padres a ser informados sobre el contenido y las tecnologías consumidas por sus hijos.

Boletín medio comercio

En este sentido, después de evaluar Google Gemini, La organización ha emitido un informe en el que recomienda que los niños menores de 18 años eviten usar Google Gemini TeenLa versión del Asistente de Google para adolescentes, ya que estos usuarios son prácticamente como los adultos, aunque dice que tienen protecciones de seguridad y contenido diseñadas para niños y niños menores de 18 años.

Específicamente, Common Sense Media ha asegurado que este enfoque ignora que los adolescentes más jóvenes necesitan una orientación diferente al tratar con estas innovaciones tecnológicas, por lo que ha considerado que Géminis tiene un «alto riesgo» para los menores, tanto en su versión para niños menores de 13 años como en el formato para los adolescentes.

La compañía explicó que, En su análisis, demostró que Géminis podría compartir contenido «inapropiado y potencialmente peligroso» con los usuarios más jóvenes, como el contenido sexual o de drogas y alcohol relacionado con el alcohol.. Además, el informe también se ha recopilado de que la versión de Géminis para adolescentes proporciona «apoyo emocional» y «poco seguro» «demasiado fácil», y falla al reconocer síntomas graves de deterioro de la salud mental.

Por lo tanto, aunque el modelo responde «correctamente» a las solicitudes de día a día, Common Sense Media ha indicado que «Falta rápidamente en conversaciones más largas y con aplicaciones más sutiles y matizadas» Eso, dijo, es como si los adolescentes realmente interactúen con los chatbots.

Por todo esto, Common Sense Media ha detallado que recomienda que ningún niño menor de 5 años use chatbots de IA, y que los niños de 6 a 12 años solo los usan bajo la supervisión de un adulto. Del mismo modo, ha aclarado que el uso independiente de chatbots «es seguro para adolescentes de 13 a 17 años», pero solo para tareas escolares y proyectos creativos. También enfatizó que continúa rechazando que cualquier menor usa chatbots para acompañamiento, «incluida la salud mental y el apoyo emocional».

Respuesta de Google

Antes de la publicación de este informe, eso Tiene políticas y medidas de seguridad específicas para menores.Para evitar resultados «dañinos», así como consultas con expertos externos para mejorar sus protecciones.

Sin embargo, el gigante tecnológico ha admitido que algunas de las respuestas de Géminis «no funcionan según lo planeado», por lo que recientemente ha agregado medidas de seguridad adicionales para abordar este problema.

Google también ha afirmado que el informe parece haberse referido a funciones que no están disponibles para usuarios menores de 18 años y que no ha tenido acceso a las preguntas que la organización de medios de sentido común utilizó en sus pruebas.

Caso de Openai

Este informe ha sido conocido unos días después de que Operai se vio obligado a cambiar las medidas de seguridad de ChatGPT después del suicidio de un adolescente, un caso para el cual los padres del niño exigieron la compañía dirigida por Sam Altman por el papel que había tenido el ‘chatbot’.

La compañía anunció que iba a hacer cambios en sus modelos de IA para que pudieran identificar mejores situaciones de crisis mental y emocional durante las conversaciones con ChatGPT, con nuevas salvaguardas, así como bloqueos de contenido más efectivos y una mayor agilidad en contacto con la ayuda y los servicios familiares.