El Grupo de Inteligencia contra Amenazas de Google (GTIG) advirtió sobre una nueva tendencia en el mundo de la ciberseguridad: el uso de la inteligencia artificial (IA) para desarrollar virus informáticos y malware autorreprogramables. Según el informe, los atacantes están integrando modelos de lenguaje avanzados en sus programas, lo que les permite generar código malicioso de manera dinámica y ocultar su actividad frente a los antivirus.
Uno de los casos más preocupantes es el del software experimental PROMPTFLUX, que utiliza el modelo Gemini para consultar y reescribir partes de su propio código mientras se ejecuta, adaptándose a los intentos de detección. Google explicó que este sistema aún está en fase de pruebas, pero representa “un indicador temprano de cómo los atacantes podrían aprovechar la IA para futuros ataques”.
El GTIG también identificó otro programa, PROMPTSTEAL, utilizado en operaciones de espionaje vinculadas a Rusia y Ucrania. Este malware genera comandos mediante modelos de IA alojados en la plataforma Hugging Face, disfrazándose como una aplicación legítima para crear imágenes con inteligencia artificial.
Publicidad
El informe detalla además que los hackers están usando ingeniería social para manipular modelos de IA, haciéndose pasar por investigadores o estudiantes para obtener información sensible o vulnerabilidades de sistemas.
Ante este escenario, Google ha reforzado los filtros de seguridad de Gemini y de sus herramientas de detección para evitar que los modelos colaboren, incluso de forma involuntaria, en actividades maliciosas. La compañía advierte que el uso de la inteligencia artificial en la creación de virus informáticos marca una nueva etapa en la evolución del malware y exige estrategias de defensa más avanzadas. (I)



























