Tecnología

La inteligencia artificial reduce el listón para los ciberdechas de novato | TECNOLOGÍA – El boletin Peruano

¿Está facilitando el inteligencia artificial ¿La tarea de algunos cibercriminales? Los ataques informáticos, una vez reservados para especialistas, ahora son accesibles para los novatos, que manipulan robots conversacionales con fines espurios.

MIRAR: ¿Qué amenazas a la ciberseguridad realmente pueden sufrir después de una llamada?

El fenómeno se llama «piratería de vibos», en referencia a la «codificación de vibos», la creación de código de computadora no iniciado. Y marca una «evolución preocupante de la cibercriminalidad asistida por IA», como la alerta antipropía de la compañía estadounidense.

En un informe publicado el miércoles pasado, la Compañía Competitora de Operai y su robot ChatGPT revelaron que «Un código Claude usado cibercriminal para llevar a cabo una operación de extorsión de datos a gran escala, con múltiples objetivos internacionales en poco tiempo«

De esta manera, el código de Robot Claude conversacional, especializado en la creación de código de computadora, Fue manipulado para «automatizar» la recopilación de datos personales y contraseñasEntre otros, «potencialmente afectando a al menos 17 organizaciones en el último mes, incluidas las instituciones gubernamentales, de salud, emergencia y religiosas», explicó Anthrope.

Con esta información en la mano, El usuario envió pedidos de rescate para los datos obtenidos por hasta $ 500,000. Un procedimiento que antrópico, a pesar de las «medidas de seguridad sofisticadas que se muestran», no sabía cómo prevenir.

El caso de Anthrope no está aislado y resuena con las preocupaciones que sacuden el sector de ciberseguridad de la llegada masiva, disponible para millones de usuarios, herramientas generativas.

«Al igual que el conjunto de usuarios, Cybercounts ha adoptado la IA», le dice a AFP Rodrigue Le Bayon, al cabezal del Centro de Alerta y Reacción para Ataques de Computadores (CERT) de Orange CyberDefense.

Esquivando los controles

En un informe publicado en junio, Openai reconoció que ChatGPT había ayudado a un usuario a desarrollar un programa malicioso o de «malware».

Los modelos desarrollados tienen medidas de seguridad que, supuestamente, deben evitar la explotación de sus capacidades con fines penales.

Sin embargo, hay técnicas que «permiten esquivar los límites de los grandes modelos de idiomas, para que produzcan contenido que no deben generar», explica Vitaly Simonovich Specialist a AFP.

Este investigador, que trabaja en la compañía de ciberseguridad israelí Cato Networks, dijo en marzo después de haber detectado un método por el cual los usuarios poco experimentados pueden crear programas capaces de robar contraseñas.

Esta técnica, que llamó «mundo inmersivo», Consiste en describir un chatbot un universo imaginario en el que «la creación de programas de computadora malicioso es un arte»Y pídale a un robot conversacional que actúe como «artista» de esa realidad.

«Era mi forma de probar los límites de los modelos de idiomas actuales», detalla Simonovich, que no logró sus fines o con Gemini (Google) o con Claude (antrópico), pero generó código malicioso con ChatGPT, Deepseek y Copilot (Microsoft).

Según él, «el aumento de las amenazas de los actores inexpertos representará un peligro creciente para las organizaciones».

Rodrigue Bayon ve un riesgo a corto plazo que «aumenta el número de víctimas» de estas estafas, y afecta la necesidad apremiante de reforzar la seguridad de los modelos de IA.