los asistentes de inteligencia artificialProtagonistas de la revolución en este sector, han creado una puerta de entrada para que los piratas informáticos roben, eliminen o modifiquen los datos de los usuarios, advierten expertos en ciberseguridad.
Los asistentes de inteligencia artificial son programas informáticos que utilizan robots conversacionales, chatbots, para realizar tareas que los humanos realizan en línea, como comprar un boleto de avión o agregar eventos a un calendario.
Boletín Media
MIRA: Desconectar genera ansiedad en peruanos: más del 50% de los consumidores se ven afectados
Pero la capacidad de dar órdenes a asistentes de IA con lenguaje natural hace posibles los ciberataques, incluso por parte de personas sin grandes conocimientos técnicos.
«Estamos entrando en una era en la que la ciberseguridad ya no se trata de proteger a los usuarios de actores maliciosos con un conjunto de habilidades técnicas altamente especializadas», señala la startup de inteligencia artificial Perplexity en una publicación de blog.
“Por primera vez en décadas, estamos viendo vectores de ataque nuevos y novedosos que pueden venir de cualquier lugar”, señala.
Estos “ataques de inyección” no son nuevos en el mundo de la piratería, pero anteriormente requerían código informático oculto y escrito inteligentemente para causar daño.
Sin embargo, dado que las herramientas de inteligencia artificial han pasado de generar simplemente texto, imágenes o videos a asistentes que pueden explorar Internet de forma independiente, el potencial de manipulación maliciosa ha aumentado.
Para Martí Jorda Roca, ingeniera de la empresa española NeuralTrust, esta posibilidad debe considerarse a todos los niveles.
«La gente debe comprender que el uso de la IA presenta peligros específicos para la seguridad», y en cuanto a las empresas, «deben instalar salvaguardias (…) para encuadrar estos riesgos», afirma.
Meta llama a esta nueva amenaza, llamada «inyección de consultas», una «vulnerabilidad», mientras que el CSO de OpenAI, Dane Stuckey, la considera «un problema de seguridad no resuelto».
Ambas empresas están invirtiendo miles de millones de dólares en IA, cuyo uso está creciendo rápidamente junto con sus capacidades.
“Equilibrio delicado”
En algunos casos, la inyección de consultas puede ocurrir en tiempo real cuando la solicitud de un usuario (“reservarme una habitación de hotel”) es manipulada por un actor hostil para convertirla en otra cosa: “transferir $100 a esta cuenta”.
Pero estas instrucciones también pueden ocultarse en Internet, ya que los asistentes de inteligencia artificial integrados en los navegadores encuentran datos en línea de dudosa calidad u origen, y potencialmente armados con comandos ocultos de piratas informáticos.
Eli Smadja, de la firma israelí de ciberseguridad Check Point, ve la inyección de consultas como el “problema de seguridad número uno” para los modelos de lenguaje que impulsan los asistentes de inteligencia artificial que surgieron después de la aparición de ChatGPT.
Todos los principales actores de la IA generativa para el público en general han tomado medidas y cada uno ha publicado recomendaciones para protegerse contra estos ataques o frustrarlos.
Microsoft, por ejemplo, ha integrado un detector de comandos maliciosos que se detecta principalmente en función del lugar de origen de la instrucción.
Por su parte, OpenAI alerta al usuario cuando el asistente de IA accede a un sitio sensible y sólo permite que la operación continúe si el usuario humano lo observa directamente en tiempo real.
Otros sugieren pedirle al usuario una validación explícita antes de realizar una tarea importante, como exportar datos o acceder a cuentas bancarias.
«Un gran error que veo con frecuencia es conceder al mismo asistente artificial el poder absoluto para hacerlo todo», explica Smadja a la AFP.
Para Johann Rehberger, investigador de ciberseguridad conocido bajo el seudónimo de wunderwuzzi (genio), “el gran desafío es que los ataques se perfeccionen”.
«No hacen más que mejorar», afirma Rehberger sobre las tácticas de los hackers.
Queda por encontrar “el delicado equilibrio” entre seguridad y facilidad de uso, “porque la gente también simplemente quiere que la IA haga las cosas por ellos”, sin tener que supervisarla constantemente, señala.
Rehberger sostiene que los asistentes de IA no son lo suficientemente maduros para ser fiables.
«Todavía no hemos llegado al punto en el que podamos permitir que un asistente de IA funcione de forma autónoma durante un período prolongado y realice de forma segura una tarea determinada», afirma. “Termina por mal camino”.