Futuros
Aceda a centenas de contratos perpétuos
CFD
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Hackers usaram IA para criar uma exploração de dia zero que contorna a autenticação de dois fatores: Google
Resumo
Cibercriminosos usaram um modelo de IA para descobrir e transformar uma vulnerabilidade zero-day em uma ferramenta, de acordo com o Grupo de Inteligência de Ameaças do Google. Em um relatório publicado na segunda-feira, o Google afirmou que a falha permitia que atacantes burlassem a autenticação de dois fatores, e alertou que os atacantes estavam preparando uma campanha de exploração em massa antes que a empresa interviesse. É a primeira vez que o Google confirma o desenvolvimento de zero-day assistido por IA na natureza. “À medida que as capacidades de codificação dos modelos de IA avançam, continuamos a observar adversários cada vez mais aproveitando essas ferramentas como multiplicadores de força de nível de especialista para pesquisa de vulnerabilidades e desenvolvimento de exploits, incluindo para vulnerabilidades zero-day,” escreveu o Google. “Embora essas ferramentas capacitem a pesquisa defensiva, também reduzem a barreira para adversários reverterem aplicações e desenvolverem exploits sofisticados gerados por IA.”
O relatório surge à medida que pesquisadores e governos alertam que modelos de IA estão acelerando ataques cibernéticos ao ajudar hackers a encontrar vulnerabilidades, gerar malware e automatizar o desenvolvimento de exploits. “Embora os LLMs de fronteira tenham dificuldades em navegar por lógica complexa de autorização empresarial, eles têm uma capacidade crescente de realizar raciocínio contextual, efetivamente interpretando a intenção do desenvolvedor para correlacionar a lógica de aplicação do 2FA com as contradições de suas exceções codificadas,” disse o relatório. “Essa capacidade pode permitir que os modelos identifiquem erros de lógica inativos que parecem corretos funcionalmente para scanners tradicionais, mas que estão estrategicamente quebrados do ponto de vista de segurança.” Segundo o Google, os atacantes não identificados usaram IA para detectar uma falha lógica onde o software confiava em uma condição que burlava suas proteções de autenticação de dois fatores. Diferentemente de scanners tradicionais que procuram por código quebrado ou falhas, a IA analisou como o software deveria funcionar e detectou a contradição, permitindo que os atacantes burlassem a verificação de segurança sem quebrar a criptografia em si.
“A codificação impulsionada por IA acelerou o desenvolvimento de suítes de infraestrutura e malware polimórfico por adversários,” escreveu o Google. “Esses ciclos de desenvolvimento habilitados por IA facilitam a evasão de defesa ao permitir a criação de redes de ofuscação e a integração de lógica de isca gerada por IA em malware que vinculamos a suspeitos atores de ameaça com ligação à Rússia.” O relatório afirma que atores de ameaça da China e Coreia do Norte estão usando IA para encontrar fraquezas de software, enquanto grupos russos a utilizam para esconder seu malware. “Estes atores têm aproveitado abordagens sofisticadas para descoberta e exploração de vulnerabilidades aumentadas por IA, começando com tentativas de jailbreak orientadas por personas e a integração de conjuntos de dados de segurança de alta fidelidade para aprimorar seus fluxos de trabalho de descoberta e exploração de vulnerabilidades,” escreveu o Google. Embora o relatório do Google tenha como objetivo alertar sobre o risco crescente de ataques cibernéticos alimentados por IA, alguns pesquisadores argumentam que o medo é exagerado. Um estudo separado liderado pela Universidade de Cambridge, com mais de 90.000 tópicos em fóruns de cybercrime, descobriu que a maioria dos criminosos usava IA para spam e phishing, e não para codificação sofisticada de cyberataques. “O papel dos LLMs jailbreakados (Dark AI) como instrutores também é exagerado, dado o destaque da subcultura e do aprendizado social na iniciação — novos usuários valorizam as conexões sociais e a identidade comunitária envolvidas no aprendizado de habilidades de hacking e cybercrime tanto quanto o conhecimento em si,” disse o estudo. “Nossos resultados iniciais, portanto, sugerem que até mesmo lamentar o aumento do Vibercriminal pode estar superestimando o nível de disrupção até agora.” Apesar das descobertas de Cambridge, o relatório do Grupo de Inteligência de Ameaças também surge enquanto o Google enfrentou preocupações de segurança relacionadas a ferramentas alimentadas por IA. Em abril, a empresa corrigiu uma falha de injeção de prompt em sua plataforma de codificação AI Antigravity, que pesquisadores disseram poder permitir que atacantes executassem comandos na máquina de um desenvolvedor por meio de prompts manipulados. “Embora não acreditamos que o Gemini tenha sido usado, com base na estrutura e conteúdo dessas explorações, temos alta confiança de que o ator provavelmente utilizou um modelo de IA para apoiar a descoberta e a transformação dessa vulnerabilidade,” escreveram os pesquisadores do Google. No início deste ano, a Anthropic restringiu o acesso ao seu modelo Claude Mythos após testes mostrarem que ele poderia identificar milhares de falhas de software anteriormente desconhecidas. As descobertas também aumentam as preocupações crescentes de que modelos de IA estão remodelando a cibersegurança ao ajudar tanto defensores quanto atacantes a encontrar vulnerabilidades mais rapidamente.
“À medida que essas capacidades chegam às mãos de mais defensores, muitas outras equipes estão agora experimentando o mesmo vertigem que sentimos quando as descobertas começaram a se tornar claras,” escreveu a Mozilla em um post no blog em abril. “Para um alvo reforçado, apenas um bug assim teria sido um alerta vermelho em 2025, e tantos de uma vez fazem você parar para pensar se é até mesmo possível acompanhar.”