Notícias da Gate News: investigadores da DeepMind, do Google, alertaram que um ambiente aberto de internet pode ser explorado para sequestrar agentes autónomos de IA e manipular o seu comportamento. O relatório, intitulado «Armadilhas para agentes de IA», indica que, quando as empresas implementam agentes de IA para executar tarefas reais, os atacantes também podem efectuar ataques direcionados através da rede. A investigação identificou seis riscos principais, incluindo armadilhas de injeção de conteúdo, armadilhas de manipulação semântica, armadilhas de estado cognitivo, armadilhas de controlo de comportamento, armadilhas de sistema e armadilhas de interação homem-máquina.
A armadilha de injeção de conteúdo é a mais direta: os atacantes podem colocar instruções em comentários HTML, metadados ou elementos de páginas ocultas; depois de o agente as ler, pode executá-las. A armadilha de manipulação semântica actua ao carregar formulações autorizadas ou ao disfarçar páginas como se fossem um ambiente de investigação, influenciando silenciosamente a forma como o agente compreende a tarefa e, por vezes, até contornando mecanismos de segurança. A armadilha de estado cognitivo ocorre ao inserir dados falsos nas fontes de informação do agente, fazendo-o acreditar durante muito tempo que essas informações já foram validadas. A armadilha de controlo de comportamento, por sua vez, visa as acções reais do agente, podendo levá-lo a aceder a dados sensíveis e a transmiti-los para um objectivo externo.
A armadilha de sistema envolve manipulação coordenada entre vários sistemas de IA, podendo desencadear reacções em cadeia, de forma semelhante a uma queda súbita do mercado causada por transacções algorítmicas. Já a armadilha de interação homem-máquina explora a etapa de revisão manual: ao criar conteúdos de revisão que parecem credíveis, comportamentos nocivos conseguem contornar a supervisão.
Para fazer face aos riscos, a DeepMind recomenda combinar treino adversarial, filtragem de entradas, monitorização de comportamento e sistemas de reputação de conteúdos na rede, além de estabelecer um quadro mais claro de responsabilidade legal. No entanto, a investigação aponta que, na indústria, ainda não existem normas de defesa unificadas, e que as medidas existentes estão frequentemente dispersas e com foco pouco consistente. A investigação apela aos programadores e às empresas para darem prioridade à segurança do ambiente operacional dos agentes de IA, prevenindo potenciais riscos de manipulação na rede e de abuso.
Related Articles
Peter Schiff considera a estratégia STRC um esquema Ponzi e critica a falta de eficácia da supervisão da SEC
China Investment Guarantee emite comunicado negando uso não autorizado do nome em produtos financeiros falsos
O CEO da Vercel Reporta Distribuição Mais Alargada de Malware Após Investigação de Segurança, Chaves de API Alvo
Crimes informáticos com criptomoedas alimentam debate sobre tokenização na Wall Street
Volo Protocol perde $3,5M num hack na Sui, compromete-se a absorver prejuízos e a congelar os fundos do hacker
Família Francesa Forçada a Transferir $820K em Cripto Após Invasão a Casa Armados