Hackers usaram IA para criar uma exploração de dia zero que contorna a autenticação de dois fatores: Google

Resumo

  • O Grupo de Inteligência de Ameaças do Google confirmou que cibercriminosos usaram IA para desenvolver uma exploração zero-day direcionada a uma ferramenta de administração web de código aberto popular.
  • O Google afirmou que esta é a primeira vez que a empresa identificou o desenvolvimento de zero-day assistido por IA na natureza.
  • O Google trabalhou com o fornecedor afetado para corrigir a vulnerabilidade antes que a campanha se ampliasse, mas disse que atores de ameaça ligados à China e Coreia do Norte também estão usando ativamente IA para pesquisa de vulnerabilidades e desenvolvimento de exploits.

Cibercriminosos usaram um modelo de IA para descobrir e transformar uma vulnerabilidade zero-day em uma ferramenta, de acordo com o Grupo de Inteligência de Ameaças do Google. Em um relatório publicado na segunda-feira, o Google afirmou que a falha permitia que atacantes burlassem a autenticação de dois fatores, e alertou que os atacantes estavam preparando uma campanha de exploração em massa antes que a empresa interviesse. É a primeira vez que o Google confirma o desenvolvimento de zero-day assistido por IA na natureza. “À medida que as capacidades de codificação dos modelos de IA avançam, continuamos a observar adversários cada vez mais aproveitando essas ferramentas como multiplicadores de força de nível de especialista para pesquisa de vulnerabilidades e desenvolvimento de exploits, incluindo para vulnerabilidades zero-day,” escreveu o Google. “Embora essas ferramentas capacitem a pesquisa defensiva, também reduzem a barreira para adversários reverterem aplicações e desenvolverem exploits sofisticados gerados por IA.”

O relatório surge à medida que pesquisadores e governos alertam que modelos de IA estão acelerando ataques cibernéticos ao ajudar hackers a encontrar vulnerabilidades, gerar malware e automatizar o desenvolvimento de exploits. “Embora os LLMs de fronteira tenham dificuldades em navegar por lógica complexa de autorização empresarial, eles têm uma capacidade crescente de realizar raciocínio contextual, efetivamente interpretando a intenção do desenvolvedor para correlacionar a lógica de aplicação do 2FA com as contradições de suas exceções codificadas,” disse o relatório. “Essa capacidade pode permitir que os modelos identifiquem erros de lógica inativos que parecem corretos funcionalmente para scanners tradicionais, mas que estão estrategicamente quebrados do ponto de vista de segurança.”  Segundo o Google, os atacantes não identificados usaram IA para detectar uma falha lógica onde o software confiava em uma condição que burlava suas proteções de autenticação de dois fatores. Diferentemente de scanners tradicionais que procuram por código quebrado ou falhas, a IA analisou como o software deveria funcionar e detectou a contradição, permitindo que os atacantes burlassem a verificação de segurança sem quebrar a criptografia em si.

“A codificação impulsionada por IA acelerou o desenvolvimento de suítes de infraestrutura e malware polimórfico por adversários,” escreveu o Google. “Esses ciclos de desenvolvimento habilitados por IA facilitam a evasão de defesa ao permitir a criação de redes de ofuscação e a integração de lógica de isca gerada por IA em malware que vinculamos a suspeitos atores de ameaça com ligação à Rússia.” O relatório afirma que atores de ameaça da China e Coreia do Norte estão usando IA para encontrar fraquezas de software, enquanto grupos russos a utilizam para esconder seu malware. “Estes atores têm aproveitado abordagens sofisticadas para descoberta e exploração de vulnerabilidades aumentadas por IA, começando com tentativas de jailbreak orientadas por personas e a integração de conjuntos de dados de segurança de alta fidelidade para aprimorar seus fluxos de trabalho de descoberta e exploração de vulnerabilidades,” escreveu o Google. Embora o relatório do Google tenha como objetivo alertar sobre o risco crescente de ataques cibernéticos alimentados por IA, alguns pesquisadores argumentam que o medo é exagerado. Um estudo separado liderado pela Universidade de Cambridge, com mais de 90.000 tópicos em fóruns de cybercrime, descobriu que a maioria dos criminosos usava IA para spam e phishing, e não para codificação sofisticada de cyberataques. “O papel dos LLMs jailbreakados (Dark AI) como instrutores também é exagerado, dado o destaque da subcultura e do aprendizado social na iniciação — novos usuários valorizam as conexões sociais e a identidade comunitária envolvidas no aprendizado de habilidades de hacking e cybercrime tanto quanto o conhecimento em si,” disse o estudo. “Nossos resultados iniciais, portanto, sugerem que até mesmo lamentar o aumento do Vibercriminal pode estar superestimando o nível de disrupção até agora.” Apesar das descobertas de Cambridge, o relatório do Grupo de Inteligência de Ameaças também surge enquanto o Google enfrentou preocupações de segurança relacionadas a ferramentas alimentadas por IA. Em abril, a empresa corrigiu uma falha de injeção de prompt em sua plataforma de codificação AI Antigravity, que pesquisadores disseram poder permitir que atacantes executassem comandos na máquina de um desenvolvedor por meio de prompts manipulados. “Embora não acreditamos que o Gemini tenha sido usado, com base na estrutura e conteúdo dessas explorações, temos alta confiança de que o ator provavelmente utilizou um modelo de IA para apoiar a descoberta e a transformação dessa vulnerabilidade,” escreveram os pesquisadores do Google. No início deste ano, a Anthropic restringiu o acesso ao seu modelo Claude Mythos após testes mostrarem que ele poderia identificar milhares de falhas de software anteriormente desconhecidas. As descobertas também aumentam as preocupações crescentes de que modelos de IA estão remodelando a cibersegurança ao ajudar tanto defensores quanto atacantes a encontrar vulnerabilidades mais rapidamente.

“À medida que essas capacidades chegam às mãos de mais defensores, muitas outras equipes estão agora experimentando o mesmo vertigem que sentimos quando as descobertas começaram a se tornar claras,” escreveu a Mozilla em um post no blog em abril. “Para um alvo reforçado, apenas um bug assim teria sido um alerta vermelho em 2025, e tantos de uma vez fazem você parar para pensar se é até mesmo possível acompanhar.”

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar