A equipa de Threat Intelligence Group (GTIG) da Google revelou a 11 de maio o primeiro caso de exploração de zero-day “assistida por um modelo de IA”: um grupo de piratas planeava levar a cabo “explorações em larga escala” contra uma ferramenta popular de gestão de código aberto, com o objetivo de contornar o mecanismo de início de sessão com verificação em dois fatores (2FA) desse mesmo sistema. De acordo com a CNBC, antes de a agressão ser desencadeada oficialmente, a Google teria coordenado com o fornecedor da ferramenta para que as falhas fossem corrigidas.
O próprio acontecimento: como é que um zero-day é “fabricado” por IA
Depois de analisar o script de exploração em Python deixado pelos piratas, o GTIG disse estar “muito confiante” de que o script foi gerado com a ajuda de um modelo de IA. A avaliação baseou-se na presença de vários traços típicos de LLM no script:
muitos docstrings e comentários didáticos (em contraste com o estilo de código mais sucinto que se espera de verdadeiros piratas)
contém pontuações de CVSS “alucinatórias” (um comportamento comum em modelos de IA)
um estilo de Python estruturado, com cara de livro de texto, e explicações detalhadas em forma de menu
marcas de templates típicas “do material de treino do LLM”, como classes de cores _C ANSI limpas
A falha em si pertence a “deficiências lógicas de alto nível” e provém de uma suposição de confiança hard-coded (hard-coded trust assumption). A Google descreve isto como o tipo de vulnerabilidade que os LLM estão “na melhor posição” para escavar durante a análise de código. O caminho de ataque real: depois de os piratas obterem as credenciais legítimas da vítima, contornam a 2FA diretamente através dessa falha.
A resposta da Google: correção silenciosa com o fornecedor, antes de o ataque ser lançado
A Google não divulgou o nome da ferramenta de gestão de código aberto afetada, nem indicou o fornecedor do modelo de IA. Após a deteção, o GTIG coordenou com o fornecedor responsável pela ferramenta para seguir um procedimento de “divulgação responsável”, corrigindo silenciosamente a falha. A Google avalia que este tipo de tratamento terá destruído o ímpeto da ação antes de o grupo de piratas iniciar oficialmente uma exploração em larga escala.
A Google também não apontou de forma concreta o(s) atacante(s): limitou-se a descrevê-los como “atores de ameaça do crime cibernético” (cybercrime threat actors), sem identificar a proveniência estatal.
Significado para a indústria: IA x cibersegurança entram numa nova fase
Observação da comunicação social: este caso é o primeiro em que a Google publica um registo público de que “modelos de IA foram armados no mundo real para descoberta de falhas e geração de código de exploração”. Nos últimos seis meses, o mercado discutiu se a “capacidade dos piratas com IA” tem sido exagerada — com argumentos de ambos os lados: os defensores afirmam que LLMs de código aberto, combinados com conjuntos de dados especializados, são suficientes para ajudar a encontrar falhas; os críticos referem que o código de exploração escrito por LLMs, na maioria dos casos, não funciona em ambientes reais.
A decisão do GTIG desta vez fornece um ponto de dados concreto: um LLM não só consegue encontrar falhas, como também consegue escrever um programa operacional “capaz de desencadear explorações em larga escala”. O investigador de segurança Ryan Dewhurst comentou: “A IA tem estado a acelerar a descoberta de falhas, a reduzir o esforço necessário para identificar, validar e tornar exploráveis as vulnerabilidades.”
Os acontecimentos seguintes a acompanhar poderão incluir: se a Google vai divulgando casos adicionais de “pirataria” com IA; se outros fornecedores de cibersegurança (Microsoft Defender, CrowdStrike, Mandiant, etc.) vão apresentar observações semelhantes; e se os fornecedores de LLM (OpenAI, Anthropic, o próprio da Google) vão criar mecanismos de deteção mais rigorosos para pedidos relacionados com análise de vulnerabilidades.
Este artigo da Google que revela o primeiro caso de falha de zero-day “fabricada” por IA: piratas querem explorar em larga escala contornando a 2FA aparece primeiro em 鏈新聞 ABMedia.
Related News
Anthropic: O treino de textos de ficção científica leva Claude Opus 4 a uma taxa de resgate de 96%
A OpenAI lança o seu plano de cibersegurança Daybreak, com uma arquitectura em três camadas do GPT-5,5 para fazer frente à Anthropic Mythos
A OpenAI segue um modelo de consultoria à Palantir? Investe 4 mil milhões para criar uma empresa independente, enviando a FDE para uma integração profunda dos fluxos de trabalho de IA nas empresas
O primeiro lote de financiamento de 50 mil milhões de renminbis está quase concluído, com a participação de várias rondas, e a Alibaba e a Tencent vão investir cada uma 10 mil milhões.
A Alphabet está a aproximar-se do valor de mercado da Nvidia, a GOOG já subiu mais de 150% num ano — ainda vale a pena comprar?