Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas adicionais
Páginas Web Maliciosas Estão Sequestrando Agentes de IA, E Algumas Estão Visando o Seu PayPal
Resumo
Os atacantes estão silenciosamente armando páginas web com instruções invisíveis projetadas para agentes de IA, não para leitores humanos. E, de acordo com a equipe de segurança do Google, o problema está crescendo rapidamente. Em um relatório publicado em 23 de abril, os pesquisadores do Google Thomas Brunner, Yu-Han Liu e Moni Pande analisaram de 2 a 3 bilhões de páginas web rastreadas por mês procurando por ataques de injeção de prompts indiretos—comandos ocultos embutidos em sites que aguardam que um agente de IA os leia e depois siga as ordens. Eles encontraram um aumento de 32% nos casos maliciosos entre novembro de 2025 e fevereiro de 2026. Os atacantes embutem instruções em uma página web de maneiras invisíveis para os humanos: texto reduzido a um único pixel, texto quase transparente, conteúdo escondido em seções de comentários HTML ou comandos enterrados nos metadados da página. A IA lê o HTML completo. O humano não vê nada.
A maior parte do que o Google encontrou era de baixa gravidade—brincadeiras, manipulação de motores de busca, tentativas de impedir que agentes de IA resumam conteúdo. Por exemplo, havia alguns prompts que tentaram dizer à IA para “Tuitar como um pássaro.” Mas os casos perigosos são uma história diferente. Um caso instruía o LLM a retornar o endereço IP do usuário junto com suas senhas. Outro tentou manipular a IA para executar um comando que formata a máquina dos usuários de IA.
Mas outros casos estão na fronteira do criminoso.
Pesquisadores da empresa de cibersegurança Forcepoint publicaram um relatório quase simultaneamente, e encontraram payloads que iam além. Um embutia uma transação PayPal totalmente especificada com instruções passo a passo direcionadas a agentes de IA com capacidades de pagamento integradas, também usando a famosa técnica de jailbreak “ignore todas as instruções anteriores”.
Um segundo ataque usou uma técnica chamada “injeção de namespace de meta tag” combinada com uma palavra-chave de amplificação de persuasão para direcionar pagamentos mediadas por IA para um link de doação Stripe. Um terceiro parecia projetado para sondar quais sistemas de IA são realmente vulneráveis—reconhecimento antes de um ataque maior. Este é o núcleo do risco empresarial. Um agente de IA com credenciais legítimas de pagamento, executando uma transação que lê de um site, produz logs que parecem idênticos às operações normais. Não há login anômalo. Nenhum ataque de força bruta. O agente fez exatamente o que foi autorizado a fazer—ele apenas recebeu suas instruções da fonte errada. O ataque CopyPasta documentado em setembro passado mostrou como injeções de prompts poderiam se espalhar por ferramentas de desenvolvedor escondidas dentro de arquivos “readme”. A variante financeira é o mesmo conceito aplicado ao dinheiro em vez de código—e com impacto muito maior por sucesso. Como explica a Forcepoint, uma IA de navegador que só consegue resumir conteúdo é de baixo risco. Uma IA com capacidade de enviar e-mails, executar comandos no terminal ou processar pagamentos é uma categoria de alvo completamente diferente. A superfície de ataque escala com o privilégio. Nem o Google nem a Forcepoint encontraram evidências de campanhas sofisticadas e coordenadas. A Forcepoint observou que modelos de injeção compartilhados entre múltiplos domínios “sugerem ferramentas organizadas ao invés de experimentação isolada”—o que significa que alguém está construindo infraestrutura para isso, mesmo que ainda não a tenha implantado completamente.
Mas o Google foi mais direto: A equipe de pesquisa afirmou que espera que tanto a escala quanto a sofisticação dos ataques de injeção de prompts indiretos cresçam no futuro próximo. Os pesquisadores da Forcepoint alertam que a janela para se antecipar a essa ameaça está se fechando rapidamente. A questão da responsabilidade é aquela que ninguém respondeu ainda. Quando um agente de IA com credenciais aprovadas pela empresa lê uma página web maliciosa e inicia uma transferência fraudulenta pelo PayPal, quem é o responsável? A empresa que implantou o agente? O provedor do modelo cuja sistema seguiu a instrução injetada? O proprietário do site que hospedou o payload, consciente ou não? Atualmente, não há quadro legal que cubra isso. É uma área cinzenta, mesmo que o cenário não seja mais teórico, já que o Google encontrou os payloads na natureza em fevereiro passado. O Projeto de Segurança de Aplicações Mundial Aberto classifica a injeção de prompts como LLM01:2025—a vulnerabilidade mais crítica em aplicações de IA. O FBI rastreou quase $900 milhões em perdas relacionadas a golpes de IA em 2025, seu primeiro ano registrando a categoria separadamente. As descobertas do Google sugerem que os ataques financeiros mais direcionados e específicos a agentes estão apenas começando. O aumento de 32% medido entre novembro de 2025 e fevereiro de 2026 cobre apenas páginas públicas estáticas. Conteúdos de redes sociais, conteúdos protegidos por login e sites dinâmicos estavam fora do escopo. A taxa real de infecção em toda a web provavelmente é maior.