El equipo de Inteligencia de Amenazas de Google (Threat Intelligence Group, GTIG) reveló el 11 de mayo el primer caso de explotación de una vulnerabilidad “día cero” “ayudada por un modelo de IA”: un grupo de hackers planeaba lanzar una “explotación a gran escala” contra una herramienta popular de administración de código abierto basada en la web, con el objetivo de eludir el mecanismo de inicio de sesión con doble factor de autenticación (2FA) de dicha herramienta. De acuerdo con el reporte de CNBC, Google colaboró con el proveedor de la herramienta para completar el parche de la vulnerabilidad antes de que se iniciara formalmente el ataque.
El incidente en sí: cómo un día cero fue “fabricado” por IA
Tras analizar el script de explotación de una vulnerabilidad en Python dejado por los hackers, GTIG, con “alta certeza”, determinó que dicho script fue generado con ayuda de un modelo de IA. Los indicios incluyen varias señales típicas de LLM presentes en el script:
Gran cantidad de docstrings estilo tutorial y comentarios (contrario al estilo de código normalmente más conciso de un hacker real)
Incluye “puntuaciones CVSS alucinadas” (conducta inventada frecuente en modelos de IA)
Estilo de programación estructurado y enciclopédico de Python, con un menú de explicaciones detalladas
Rastros de plantillas “típicas del entrenamiento de datos LLM”, como clases de color ANSI _C ordenadas y similares
La propia vulnerabilidad pertenece a “defectos lógicos de alto nivel”, derivados de una suposición de confianza codificada de forma fija (hard-coded trust assumption). Google describe que este es el tipo de vulnerabilidad que los LLM son “mejor capaces de desenterrar” en el análisis de código. Ruta de ataque real: una vez que el hacker obtiene las credenciales de cuenta legítimas de la víctima, elude directamente el 2FA mediante esa vulnerabilidad para iniciar sesión.
Respuesta de Google: parche silencioso con el fabricante, sin que el ataque se formalice
Google no publicó el nombre de la herramienta de código abierto de la que sería la víctima, ni tampoco el nombre del proveedor de modelos de IA. Tras detectarlo, GTIG coordinó con el proveedor de mantenimiento de esa herramienta el proceso de “divulgación responsable”, aplicó un parche silencioso a la vulnerabilidad y Google evaluó que este manejo podría haber desbaratado el impulso de la acción antes de que el grupo de hackers iniciara formalmente una explotación a gran escala.
Google tampoco señaló concretamente a los atacantes: solo los describió como “actores de amenazas de ciberdelincuencia” (cybercrime threat actors) y no identificó el trasfondo de actores estatales.
Significado para la industria: AI x ciberseguridad entra en una nueva etapa
Observación de este medio: este caso es el primero en que Google registra públicamente “la incorporación en el mundo real de modelos de IA armados para generar programas de descubrimiento y explotación de vulnerabilidades”. En los últimos seis meses, el mercado debatió si “las capacidades de hackers de IA se están exagerando”: ambas partes tienen argumentos. Los afirmativos señalan que los LLM de código abierto más un conjunto de datos especializado son suficientes para ayudar a encontrar vulnerabilidades; los escépticos, por su parte, dicen que los scripts de explotación escritos por LLM casi nunca funcionan en entornos reales.
El veredicto de GTIG aporta un punto de datos concreto: el LLM no solo puede encontrar vulnerabilidades, también puede escribir un programa operativo “capaz de desencadenar una explotación a gran escala”. El investigador de seguridad Ryan Dewhurst comentó: “La IA ya está acelerando el descubrimiento de vulnerabilidades y reduciendo el esfuerzo necesario para identificar, verificar y, finalmente, weaponizar defectos”.
Los eventos que se pueden rastrear a continuación incluyen: si Google publicará gradualmente más casos de “hackers con IA”, si otros proveedores de ciberseguridad (Microsoft Defender, CrowdStrike, Mandiant, etc.) presentarán observaciones similares, y si los proveedores de LLM (OpenAI, Anthropic, el propio Google) implementarán mecanismos de detección más estrictos para solicitudes de análisis de vulnerabilidades.
Este artículo de Google que revela el primer día cero fabricado con IA: los hackers buscan una explotación a gran escala para eludir la 2FA apareció por primera vez en 鏈新聞 ABMedia.
Artículos relacionados
¡Transformers en versión humana! Tech de Youshu presenta el primer vehículo robótico de producción masiva del mundo, con un precio de 570 mil dólares.
Thinking Machines Model T empata a GPT-Realtime-2 por el primer puesto en el benchmark de audio de hoy con una puntuación APR del 43,4%
Arthur Hayes predice que Bitcoin volverá a $126.000 en medio de la carrera armamentística de IA entre EE. UU. y China y la inflación de guerra
HrdWyr recauda $13M Serie A para el desarrollo de chips de IA
Los empleos en IA en India aumentan 15-20%, afirma el ministro en la cumbre de CII
Se proyecta que el proyecto de OpenAI ahorre 97 mil millones de dólares en pagos a Microsoft para 2030 bajo un nuevo acuerdo