
Google alerta sobre una nueva ola de ciberataques impulsados por IA: malware que se reescribe solo y burla los sistemas de seguridad
Una revolución peligrosa en el ecosistema del cibercrimen
La inteligencia artificial dejó de ser solo una herramienta para automatizar tareas o generar contenido: también se convirtió en un recurso clave para los ciberdelincuentes.
Un reciente informe del Grupo de Inteligencia contra Amenazas de Google (GTIG) reveló la existencia de una nueva generación de ataques informáticos basados en IA capaz de modificarse en tiempo real para evadir antivirus, firewalls y otros mecanismos de defensa.
Según Google, los atacantes ya no usan la IA únicamente para redactar correos falsos o crear malware básico. Ahora la incorporan como parte activa del código malicioso, delegando en la IA la generación de instrucciones, funciones y fragmentos de código mientras el ataque está en curso.
Malware que cambia su forma en tiempo real
Esta técnica emergente —denominada IA Just-in-Time— marca un antes y un después en el desarrollo de virus informáticos.
A diferencia de los programas maliciosos tradicionales, cuyo código se mantiene estable, estos nuevos malware reescriben sus rutinas a medida que avanzan dentro del sistema, generando un comportamiento impredecible y extremadamente difícil de detectar.
Uno de los ejemplos más avanzados identificados por Google es PROMPTFLUX, un software experimental cuyo módulo interno, llamado Thinking Robot, consulta de manera periódica al modelo Gemini para solicitar versiones actualizadas de su propio código. Con cada actualización, PROMPTFLUX puede modificar funciones, crear nuevas rutinas o camuflar patrones de comportamiento que los antivirus suelen rastrear.
Aunque este malware aún no se utilizó en ataques reales, el GTIG considera que es un indicador claro de la evolución futura del cibercrimen.
El nuevo frente: hackers que manipulan a las propias IA
El informe también reveló una tendencia preocupante: los atacantes están aprendiendo a engañar a los modelos de inteligencia artificial mediante técnicas de ingeniería social.
En varios casos, los hackers se hacen pasar por investigadores o estudiantes para convencer a sistemas como Gemini, Claude o Grok de que generen fragmentos de código, scripts de prueba o instrucciones que normalmente estarían bloqueadas por motivos de seguridad.
Esto llevó a Google a reforzar sus filtros internos, los clasificadores de seguridad y los mecanismos de verificación para impedir que los modelos colaboren —incluso de manera indirecta— con la creación de malware.
Estados involucrados: espionaje, criptomonedas y sabotaje
El GTIG también confirmó que grupos patrocinados por gobiernos están usando IA para operaciones de espionaje, robo de datos y ataques estratégicos.
Entre los actores más activos se encuentran grupos de Irán, China, Corea del Norte y Rusia, que integran modelos de IA para automatizar fases críticas de sus operaciones.
Uno de los casos señalados es PROMPTSTEAL, empleado por hackers vinculados al gobierno ruso en ataques contra Ucrania. Este malware usa la API de modelos como Qwen2.5-Coder para generar comandos en tiempo real, evitando incluirlos en el código del ataque y dificultando su rastreo.
En paralelo, un grupo norcoreano conocido como MASAN habría utilizado IA para estudiar tecnologías de criptomonedas, ubicar billeteras digitales y crear mensajes de phishing más convincentes, combinando IA, ingeniería social y fraude financiero.
Una amenaza que redefine la ciberseguridad mundial
Para Google, la incorporación de modelos de IA en el desarrollo de malware marca el inicio de una nueva era en la seguridad informática.
Los antivirus tradicionales, basados en firmas o patrones estáticos, pierden eficacia frente a programas que se regeneran, mutan y aprenden.
Aunque muchas de estas herramientas están, por ahora, en fase experimental, los expertos advierten que es solo cuestión de tiempo antes de que aparezcan servicios completos de “malware con IA integrada”, accesibles incluso para atacantes con poca experiencia técnica.
La IA ya alteró el equilibrio entre ataque y defensa. Por primera vez, la ciberseguridad deberá protegerse de sistemas que también aprenden, razonan y se adaptan.
Fuentes consultadas
- Google Threat Intelligence (GTIG) – Informe 2025
- The Hacker News – https://thehackernews.com
- MIT Technology Review – https://www.technologyreview.com
- Wired – https://www.wired.com
- Ars Technica – https://arstechnica.com
- Reuters Tecnología – https://www.reuters.com/technology
- CISA (Cybersecurity and Infrastructure Security Agency) – https://www.cisa.gov