Tecnología

«Los datos filtrados se pueden usar para alimentar algoritmos con fines criminales» | Inteligencia artificial | IA | TECNOLOGÍA

Sure! Here’s a rewritten version of the content with more than 400 words while maintaining the HTML tags and proper names:

El surgimiento de inteligencia artificial generativa ha abierto un amplio abanico de oportunidades, pero también ha introducido desafíos sin precedentes relacionados con la privacidad, la seguridad digital y la identificación de sesgos que perpetúan las desigualdades existentes. Según Marushka Chocobar, consejera de inclusión digital para Latam generativo, este aspecto no solo implica un compromiso con nuestra propia seguridad digital, sino que también resalta la importancia de ser usuarios proactivos y críticos ante el uso de herramientas de IA.

Además, Chocobar enfatiza que los usuarios, a menudo sin darse cuenta, participan en el entrenamiento de algoritmos a través de sus interacciones y el contenido que comparten en redes sociales. Este proceso, advierte, puede facilitar la creación de personificaciones cada vez más realistas y sofisticadas, lo que requiere una cautela adicional.

MIRAR: JNE y Reniec solicitan al ejecutivo que promulga la digitalización de las partes «en el corto plazo»

– ¿Cuáles son los principales ejemplos de sesgos de género que se han identificado en los sistemas de inteligencia artificial, especialmente en el contexto de Perú?

La inteligencia artificial se desarrolla en dos fases fundamentales. Primero, está el diseño de algoritmos, donde es imprescindible asegurar que no se incorporen sesgos en esta etapa inicial. La segunda fase es el proceso de capacitación de sistemas ya desarrollados, el cual se lleva a cabo con frecuencia utilizando fuentes abiertas o datos que están disponibles en Internet. Un caso notorio proviene de un investigador del MIT, quien comprobó que un sistema de reconocimiento facial no podía identificar su rostro a menos que él usara una máscara blanca. Otro ejemplo común se encuentra en la práctica de asignar nombres femeninos a asistentes digitales, que resalta un sesgo de género. En el Perú, es habitual encontrar asistentes digitales con nombres femeninos, lo que refuerza estereotipos de género asociados a tareas que suelen estar relacionadas con roles de soporte o de menor remuneración. Los sistemas de reclutamiento automatizados también presentan prejuicios, ya que algunos algoritmos, entrenados con datos históricos sesgados, tienden a favorecer perfiles masculinos en sectores digitales y margina las aplicaciones de las mujeres. Esto evidencia la necesidad de que tanto el diseño como la alimentación de los sistemas de IA adopten mecanismos robustos que prevengan y mitiguen tales sesgos.

—Los sistemas de IA están reproduciendo la realidad tal como se presenta fuera de línea. De hecho, existe una tendencia clara hacia la reproducción y amplificación de desigualdades. La calidad de los datos que utilizamos para entrenar estas inteligencias artificiales es crucial.

En el entorno digital, esta complejidad se incrementa, pero se pueden implementar campañas de entrenamiento masivo que generen un contrapeso. Se trata de llenar los espacios de Internet con información que promueva la equidad. Aunque es un gran desafío, es esencial concretar esta labor, porque de lo contrario, la amplificación de las desigualdades continuará.

– ¿Qué estrategias y buenas prácticas recomendaría para reducir estos sesgos, especialmente de género, durante el desarrollo e implementación de sistemas de IA en Perú?

Debemos hacer visible esta problemática y generar conciencia. En el ámbito del periodismo, esta responsabilidad es aún mayor. Los medios de comunicación actúan como entrenadores de algoritmos a través de las noticias, informes y documentales que publican frecuentemente. Desde el punto de vista técnico, es esencial garantizar la equidad en los equipos que diseñan y desarrollan algoritmos. Necesitamos fomentar la inclusión de más mujeres en el sector digital, garantizar oportunidades reales para personas con discapacidades y asegurar que los adultos mayores puedan participar de forma efectiva. Estos equipos deben ser diversos y multidisciplinarios. Por último, es fundamental promover la transparencia algorítmica.

– ¿Qué implica esto?

En el ámbito del sector público, se necesita que una normativa como la ley de transparencia y acceso a la información pública incluya la transparencia algorítmica. Esto significaría que las personas puedan conocer el destino de sus datos y cómo se utilizarán. Antes, el simple otorgamiento de consentimiento para el uso de datos era suficiente; hoy, debemos ir más allá: consentir y entender cómo se manejarán por los sistemas algorítmicos.

«Esto afectaría, por ejemplo, en casos de filtración de datos, o no hay enlace?»

Los problemas de filtración de datos se relacionan con la seguridad digital. Creo que, hoy en día, tanto el sector público como el privado necesitan fortalecer sus sistemas de seguridad, ya que los datos filtrados podrían ser utilizados para alimentar algoritmos con fines malintencionados. Así mismo, es crucial revisar los conjuntos de datos (datasets) para asegurar que representen una diversidad justa, evitando así la perpetuación de sesgos. Además, necesitamos adoptar un enfoque más proactivo en la corrección de algoritmos, especialmente en aquellos donde podamos intervenir. Por ejemplo, en el uso de inteligencias artificiales generativas: si detectamos errores o sesgos, debemos actuar de inmediato para corregirlos. También se podrían diseñar otras aplicaciones de IA con la función de corregir sesgos automáticamente.

«¿Cómo prevenir situaciones de creación de Deepfake?» dentro de los límites éticos.

Históricamente, identificar estos riesgos era complejo. Hoy en día, sabemos que es posible clonar a una persona solo con una imagen, sin necesidad de un video. Existen softwares extremadamente rápidos que pueden tomar una fotografía o un clip de video publicado en nuestras redes sociales para recrear nuestra voz y apariencia. Recientemente, ha surgido una tendencia en la que se intenta replicar el estilo visual de Studio Ghibli, y muchas personas han contribuido a alimentar estos algoritmos con sus imágenes sin darse cuenta. Estamos formando inteligencia artificial sin ser plenamente conscientes de ello. En la actualidad, es posible que recibamos una llamada con nuestra propia voz y rostro, creados a partir del contenido que hemos compartido previamente en redes sociales, generando mensajes que parecen haber sido pronunciados por nosotros.

«Has mencionado a Studio Ghibli». La gente se mostró muy entusiasmada al generar estas imágenes. Aparte del debate sobre los derechos de autor, ¿qué consecuencias debemos considerar como usuarios frente a estas vulnerabilidades?

Todo esto es complicado. Sin embargo, siempre se puede encontrar un equilibrio. Cuando se presentan ciertas tendencias que requieren que entregue mis datos sin un servicio proporcionado proporcionalmente, debo cuestionar la situación. Debo reflexionar: ¿cuánto valen realmente mis datos?

– ¿De qué manera puede la inteligencia artificial convertirse en un aliado para identificar estas desigualdades en lugar de perpetuarlas y cómo podemos asumir un papel activo?

Al igual que los algoritmos han sido diseñados sin mecanismos claros para evitar sesgos, tenemos la responsabilidad de involucrarnos más en su desarrollo, a fin de incluir desde el principio posibles indicadores de sesgo. Igualmente, se pueden crear algoritmos específicos dirigidos a la detección de estos sesgos antes de que se finalicen el diseño y el entrenamiento. Es igualmente clave monitorear las brechas que persisten en la participación y la creación de información relacionada a estos temas.

—En el plano regulatorio, ¿qué desafíos enfrenta nuestra regulación sobre IA en relación a los sesgos de género?

Nuestro país ha tenido un papel destacado en decisiones sobre transformación digital. En el ámbito de la inteligencia artificial, Perú fue pionero al promulgar una ley específica en julio de 2023, incluso antes que la Unión Europea. Se trata de una ley habilitadora que reconoce la IA como una tecnología con potencial para fomentar el desarrollo social y económico. Sin embargo, lamentablemente, hemos perdido impulso desde entonces. Actualmente, se discuten varias propuestas regulatorias en el Congreso, pero aún falta articulación. Existen vacíos en la regulación de auditorías algorítmicas, lo que no se ha consolidado como un principio esencial en la utilización de sistemas y aplicaciones de inteligencia artificial. Además, se perciben carencias en directrices claras para prevenir los sesgos en general, durante la adopción de esta tecnología.

—La IA también está presente en espacios para niños y adolescentes, ¿qué aspectos debemos considerar cuando hablamos de diversidad e inclusión en su uso?

Estamos en riesgo de perder nuestra capacidad de análisis crítico, ya que, en muchos casos, se recurre a la copia y pega. Una preocupación más grave es que muchos educadores no están preparados para distinguir cuándo un contenido ha sido generado por inteligencia artificial, lo que complica la labor de guiar a sus alumnos. Esto crea un círculo vicioso. Es vital mostrar tanto los riesgos como los beneficios de estas aplicaciones, tanto para los niños y adolescentes como para sus educadores y familias. Es necesario mejorar la formación de maestros, dado que la inteligencia artificial generativa no debe ser algo prohibido en las aulas. En cambio, debemos enfocarnos en desarrollar habilidades blandas como el pensamiento crítico, estratégico, empatía, diversidad e inclusión.