Google: grandes modelos de linguagem estão a ser usados para ataques reais, a IA pode contornar mecanismos de segurança de autenticação em duas etapas

大型語言模型攻擊

De acordo com a CoinEdition, a 12 de maio, o grupo de Threat Intelligence do Google publicou um relatório de alerta, avisando que os atacantes já têm usado modelos de linguagem em ataques informáticos reais que estão a afetar sistemas a nível global, e confirmou que os hackers desenvolveram uma vulnerabilidade zero-day baseada em Python que pode contornar os mecanismos de segurança de autenticação multifator (2FA); o Google afirma que existe uma ligação entre as atividades em causa, ataques informáticos de nível estatal e a utilização abusiva de ferramentas de IA em redes de hackers no submundo.

Aplicações concretas de ferramentas de IA em ataques cibernéticos

De acordo com o relatório do grupo de Threat Intelligence do Google, as ferramentas de IA estão a ajudar os atacantes a melhorar as suas capacidades em quase todas as fases de um ataque, incluindo: identificar mais rapidamente vulnerabilidades de software, automatizar parte dos fluxos de ataque e melhorar técnicas de phishing (engenharia social) e de criação de malware.

O relatório regista um caso concreto: hackers usaram uma vulnerabilidade zero-day baseada em Python para contornar com sucesso a autenticação multifator (2FA); o Google explica que o ataque ainda exige credenciais de login válidas, demonstrando que a falha resulta da própria conceção do sistema, e não de um defeito técnico no software.

O relatório acrescenta ainda que os atacantes treinam os seus métodos de ataque com base em bases de dados de vulnerabilidades que incluem milhares de vulnerabilidades conhecidas e exemplos de exploração, para identificar padrões que ajudam a descobrir novas fragilidades; em simultâneo, os hackers usam IA para criar código falso, adulterar payloads eficazes e escrever scripts dinâmicos para contornar a deteção, e, em alguns casos, os sistemas de IA podem enviar instruções em tempo real para os dispositivos infetados.

Organizações relacionadas com a China e a Coreia do Norte: o relatório confirma a adoção pioneira de métodos de ataque com IA

De acordo com o relatório do grupo de Threat Intelligence do Google, organizações relacionadas com a China e com a Coreia do Norte estão na dianteira na adoção das referidas abordagens de ataque assistidas por IA; as técnicas incluem a criação cuidada de mensagens de prompt para furtar informação de segurança do sistema e o disfarce como especialistas em cibersegurança para fazerem varrimentos potenciais a vulnerabilidades em firmware e em dispositivos embebidos.

Google implementa sistemas de defesa com IA para responder às ameaças

De acordo com a CoinEdition, o Google afirma que está a reforçar as medidas de defesa baseadas em IA: o sistema Big Sleep é usado para detetar automaticamente vulnerabilidades; o sistema CodeMender é usado para corrigir automaticamente vulnerabilidades; e o Gemini integra medidas de segurança para impedir atividades suspeitas nas contas de utilizadores.

Perguntas frequentes

Por que razão o caso registado no relatório do grupo de Threat Intelligence do Google de contorno da autenticação multifator com IA aconteceu?

De acordo com a reportagem da CoinEdition de 12 de maio de 2026, o relatório do grupo de Threat Intelligence do Google confirma que os hackers contornaram com sucesso a segurança de 2FA ao explorarem uma vulnerabilidade zero-day baseada em Python; o Google explica que a falha se deve à própria conceção do sistema e que o ataque só pode ser executado com credenciais de login válidas.

Que organizações relacionadas com países foram citadas pelo Google como as primeiras a usar métodos de ataque com IA?

De acordo com o relatório do grupo de Threat Intelligence do Google, organizações relacionadas com a China e com a Coreia do Norte foram as primeiras a adotar ferramentas de IA para executar ataques cibernéticos; as técnicas incluem a criação cuidada de mensagens de prompt para furtar informação de segurança e o disfarce como especialistas em cibersegurança para detetar vulnerabilidades em firmware.

Que sistemas de defesa com IA nomeados implementou o Google para responder às ameaças relacionadas?

De acordo com a CoinEdition, o Google já implementou sistemas de defesa com IA como o Big Sleep (deteção automática de vulnerabilidades), o CodeMender (correção automática de vulnerabilidades) e o Gemini com medidas de segurança integradas (para bloquear atividades suspeitas nas contas).

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Dezasseis mil milhões de dólares em novas startups: Thinking Machines lança modelo de IA interativo em tempo real, com destaque para “dizer, ouvir e executar ao mesmo tempo”

Fundada em conjunto pela antiga cúpula da OpenAI Mira Murati e por John Schulman, cofundador da OpenAI, a nova empresa de IA Thinking Machines, avaliada em cem mil milhões de dólares, lançou na terça-feira uma pré-visualização do seu primeiro modelo de IA “falar e ouvir” em simultâneo, em modo full duplex, com uma latência de apenas 0,4 segundos, desafiando os actuais modelos de interacção em tempo real homem-máquina. (Investimento da Nvidia na Thinking Machines Lab com o Vera Rubin para melhora

ChainNewsAbmedia25m atrás

Atacantes sequestram pipelines oficiais do TanStack, OpenSearch e Mistral, publicam 84 versões maliciosas a 12 de maio

De acordo com a monitorização da Beating, a 12 de maio, entre as 3:20 e as 3:26 (UTC+8), atacantes associados à TeamPCP sequestraram as cadeias de distribuição oficiais de TanStack, OpenSearch da Amazon e Mistral, fazendo avançar 84 versões de pacotes maliciosos em npm e PyPI. Os pacotes afetados incluem @tanstack/react-router (10M+ downloads semanais), @opensearch-project/opensearch (1,3M downloads semanais) e o cliente mistralai do Mistral. Os pacotes maliciosos contornaram mecanismos de confi

GateNews44m atrás

Ixirpad estabelece parceria com a Cware Labs para apoiar startups de IA e Web3

De acordo com um anúncio de 11 de maio, a Ixirpad celebrou uma parceria estratégica com a Cware Labs para acelerar o desenvolvimento de infraestruturas sustentáveis na indústria Web3. A Cware Labs, operando como venture studio, irá identificar e apoiar projectos de blockchain e IA com elevado potencial. A colaboração tem como objectivo ajudar as empresas emergentes a transitarem de conceitos em fase inicial para negócios escaláveis e prontos para investimento, fornecendo orientação operacional,

GateNews58m atrás

Vista do Agente Claude Code: gestão de sessões em paralelo com um ecrã único

A Anthropic, a 11 de Maio, lançou uma nova funcionalidade para o Claude Code: «Agent View», que permite gerir, numa única interface, vários workspaces do Claude Code a funcionar em simultâneo, eliminando a necessidade de alternar entre separadores de múltiplos terminais. De acordo com o blogue oficial da Anthropic, esta funcionalidade foi disponibilizada no formato Research Preview, sendo aplicável às opções Pro, Max, Team, Enterprise e ao Claude API. A publicação X oficial do canal recebeu mais

ChainNewsAbmedia1h atrás

Karpathy endossa a saída em HTML para modelos de linguagem de grande escala, prevendo o vídeo neural interativo como a forma definitiva

De acordo com Andrej Karpathy, membro fundador da OpenAI e criador do conceito de “vibe coding”, hoje ele endossou a abordagem da equipa do Claude Code de usar HTML em vez de Markdown para as saídas de modelos de linguagem. Karpathy descreveu um roteiro de evolução para interfaces de interação com IA: do texto simples para o Markdown para o HTML, seguido de múltiplas formas intermédias, até chegar ao estágio final de vídeo neural interactivo gerado diretamente por modelos de difusão. Karpathy at

GateNews1h atrás

Austrac alerta para riscos de branqueamento de capitais impulsionados por IA à medida que a Austrália alarga as regras de prevenção do branqueamento de capitais a partir de 1 de julho

De acordo com a Austrac, a 12 de maio, a agência australiana de inteligência financeira alertou que a inteligência artificial está a aumentar os riscos de branqueamento de capitais ao permitir que os criminosos fabriquem identidades, forjem documentos e ocultem proveitos mais rapidamente e em maior escala. A partir de 1 de julho de 2026, os agentes imobiliários, os comerciantes de metais e pedras preciosas, bem como os prestadores de serviços de trust e serviços a empresas, ficarão sujeitos às r

GateNews1h atrás
Comentar
0/400
Nenhum comentário