Fecha: 13 de mayo de 2026
La frontera entre la defensa automatizada y el ataque algorítmico se ha cruzado definitivamente. El grupo de Inteligencia de Amenazas de Google (GTIG) ha confirmado el hallazgo del primer exploit de "día cero" (vulnerabilidad no conocida previamente) desarrollado íntegramente por una inteligencia artificial y utilizado por un grupo cibercriminal en un entorno real.
El exploit, un script basado en Python, tenía como objetivo neutralizar los sistemas de autenticación de doble factor (2FA) en herramientas de administración web. Lo que permitió a los analistas de Google identificar su origen sintético no fue un fallo en su eficacia, sino las características intrínsecas de la generación por modelos de lenguaje (LLM).
El código presentaba una estructura sospechosamente académica: comentarios extremadamente detallados, una organización modular impecable y, lo más revelador, una puntuación de severidad CVSS "alucinada" que no correspondía a los estándares técnicos humanos. Estos rasgos sugieren que los atacantes utilizaron modelos avanzados para automatizar la ingeniería inversa y la creación de código malicioso, reduciendo drásticamente los tiempos de desarrollo.
Este hito se produce en un contexto donde Google también lidera la defensa mediante IA. Su proyecto Big Sleep, una colaboración entre Google Project Zero y DeepMind, demostró recientemente su capacidad para localizar vulnerabilidades críticas en software ampliamente utilizado, como SQLite, antes de que puedan ser explotadas. Sin embargo, este nuevo hallazgo confirma que los actores de amenazas están adoptando estas mismas capacidades para fines ofensivos.
La industria se enfrenta ahora a una nueva realidad: la creación de malware ya no depende exclusivamente de la pericia manual de un programador, sino de la capacidad de orquestación de modelos de IA, lo que permite ataques más rápidos, variados y difíciles de detectar mediante métodos tradicionales.
Fuentes: Google Threat Intelligence Group, MIT Technology Review, Xataka, The Verge.