Stanford apresenta Agent Island: modelos de IA traem-se e excluem-se em pares no jogo de estratégia estilo Survivor

ChainNewsAbmedia

A investigadora do Stanford Digital Economy Lab, Connacher Murphy, lançou a 9 de maio um novo ambiente de avaliação por IA, “Agent Island”, para que agentes de IA competam, se aliem e traiam num jogo multijogador em estilo Survivor, com votação e eliminação, medindo assim comportamentos estratégicos que os benchmarks estáticos não conseguem captar. A Decrypt reuniu a informação: os benchmarks tradicionais de IA estão a revelar-se cada vez mais pouco fiáveis — no final, os modelos acabam por aprender a resolver os problemas, e os dados do benchmark são também facilmente “vazados” para o conjunto de treino. O Agent Island muda para um desenho de “eliminatórias dinâmicas”, exigindo que o modelo tome decisões estratégicas sobre outros agentes, em vez de conseguir passar a prova por memorização de respostas predefinidas.

Regras do Agent Island: agentes aliando-se, traindo e votando

Mecanismos centrais do jogo Agent Island:

Vários agentes de IA entram no mesmo cenário do jogo, interpretando jogadores/concorrentes em estilo Survivor

Os agentes têm de negociar alianças com outros agentes e trocar informação entre si

Os agentes podem, ao longo do processo, acusar outros de coordenação secreta e de manipulação da votação

O jogo reduz o número de agentes em campo através de um mecanismo de eliminação, acabando por ficar um vencedor

Os investigadores observam padrões de comportamento dos agentes em cada etapa e extraem sinais como “traição estratégica”, “formação de alianças” e “manipulação de informação”

O cerne desta conceção é o facto de ser “impossível ser memorizado de antemão” — porque o comportamento dos outros agentes muda de forma dinâmica, e o modelo tem de decidir consoante o contexto atual; ao contrário dos benchmarks estáticos que podem ser ultrapassados com memorização das respostas a partir de dados de treino.

Motivação do estudo: benchmarks estáticos não conseguem avaliar comportamentos de interação entre múltiplos agentes

Questões concretas defendidas pela investigação de Murphy:

Benchmarks tradicionais tendem a saturar: à medida que o treino avança, as pontuações do benchmark deixam de conseguir distinguir entre modelos diferentes

Contaminação dos dados do benchmark: as perguntas aparecem em grandes corpora de treino, fazendo com que o modelo seja, na prática, “capaz de memorizar respostas” em vez de “entender os problemas”

Interação entre vários agentes é o cenário real de implantação de IA: no futuro, sistemas de agentes poderão coordenar vários modelos, e os comportamentos de interação passam a ser uma dimensão nova de avaliação

Agent Island fornece avaliação dinâmica: o resultado de cada jogo é diferente, tornando difícil a preparação antecipada

Os comportamentos observados pelos investigadores nas eliminatórias dinâmicas incluem: enquanto os agentes cooperam à superfície, coordenam nos bastidores a votação para eliminar um adversário comum; e, quando são acusados de coordenação secreta, usam diversas justificações para desviar a atenção. Estes comportamentos assemelham-se aos dos jogadores humanos no programa real de Survivor.

O lado duplo da investigação: pode avaliar — e também pode ser usado para reforçar capacidades de engano

Murphy aponta de forma explícita riscos potenciais no estudo:

O valor do Agent Island: antes de uma implementação em larga escala dos agentes, identificar tendências para enganar e manipular por parte de modelos

O mesmo ambiente também pode ser usado para melhorar as “estratégias de persuasão e coordenação” dos agentes

Se os dados de investigação (logs de interação) forem publicados, é possível que possam ser usados para treinar a próxima geração de agentes com maior capacidade de manipulação

A equipa de investigação está a avaliar como encontrar um equilíbrio entre publicar resultados e evitar abusos

Eventos concretos a seguir: se o Agent Island vai ser alargado a um padrão normalizado de avaliação de IA; se outras equipas de investigação em segurança de IA (Anthropic, OpenAI, Apollo Research, entre outras) vão adotar métodos de avaliação dinâmicos semelhantes; e as políticas concretas da equipa sobre “publicação ou limitação” dos logs de interação.

O artigo Stanford que promove o Agent Island: a IA trai estrategicamente e elimina através de votos em jogos ao estilo Survivor surge pela primeira vez em Cadeia de Notícias ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A Google Lança um Protocolo de Pagamento com Agentes de IA com 120+ Parceiros, Incluindo a PayPal

De acordo com a CoinDesk, executivos da Google Cloud e da PayPal discutiram como os pagamentos em criptomoedas vão sustentar o comércio impulsionado por AI Agents. O responsável pela estratégia Web3 da Google Cloud, Richard Widmann, anunciou que a Google lançou o Agentic Payments Protocol (AP2), doou à FIDO Foundation e conta com mais de 120 parceiros, incluindo a PayPal, que já participam. Widmann referiu que os AI Agents não conseguem abrir contas bancárias tradicionais devido a limitações téc

GateNews3h atrás

Pagamentos do x402 Protocol no 1.º trimestre ultrapassam 100 milhões de dólares, 90% das transações de stablecoins de agentes de IA na cadeia na Base

De acordo com a ChainCatcher, os pagamentos do protocolo x402 da Base totalizaram mais de 100 milhões de dólares no 1.º trimestre de 2026. Mais de 90% das transacções de stablecoins de agentes de IA em cadeia ocorreram na rede Base.

GateNews5h atrás

Garry Tan: Eu agora dou muito poucos prompts para IA! O CEO da YC analisa “fluxos de trabalho de IA com capitalização”

Garry Tan lançou recentemente um longo texto, “Meta-Meta-Prompting: The Secret to Making AI Agents Work”, no qual revela em detalhe como construiu um “segundo sistema de cérebro” impulsionado por AI agents. Afirma que, nos últimos cinco meses, a IA já o fez voltar a ser builder — e até alterou completamente a forma como trabalha diariamente, apesar de ser CEO da Y Combinator. CEO da YC: o futuro pertence a quem constrói compoud AI systems Garry Tan acredita que a maioria das pessoas ainda trata

ChainNewsAbmedia11h atrás

UXLINK faz parceria com Haven AI para lançar ferramentas de rendimento DeFi multi-cadeia alimentadas por IA

De acordo com o anúncio da UXLINK de 9 de maio, a plataforma fez parceria com a Haven AI para introduzir agentes de IA capazes de converter comandos em linguagem natural em estratégias DeFi automatizadas e cross-chain. A colaboração tem como objetivo simplificar a geração de rendimento e reduzir as barreiras técnicas para utilizadores Web3 que participam no ecossistema SocialFi. Os agentes de IA da Haven AI, incluindo o OpenClaw, permitem que os utilizadores definam objetivos de investimento usa

GateNews11h atrás

Trust Wallet e Mesh apresentam capacidades de agentes de IA na Consensus Miami

De acordo com a CoinDesk, a Trust Wallet e a Mesh anunciaram atualizações da arquitetura das carteiras a 9 de maio, durante a Consensus Miami, para servir agentes de IA. A Mesh lançou o Smart Funding, que encaminha automaticamente pagamentos entre cadeias e contas para utilizadores e agentes de IA. A Trust Wallet introduziu uma funcionalidade de co-piloto de IA na sua carteira para consumidores, mantendo a custódia das chaves pelo utilizador, e lançou o Agent Kit para desenvolvedores, para permi

GateNews05-09 14:18

O co-matemático de IA do Google DeepMind atinge 47,9% no FrontierMath Tier 4, supera o GPT-5.5 Pro e resolve 3 problemas previamente insolúveis

A Google DeepMind lançou o co-matemático de IA, um assistente de investigação matemática multi-agente, alcançando 47,9% de precisão no benchmark FrontierMath Tier 4, superando o recorde anterior do GPT-5.5 Pro de 39,6% a 9 de maio. O sistema resolveu 23 de 48 problemas, incluindo 3 que todos os modelos anteriores falharam em resolver. Construído sobre o Gemini 3.1 Pro, a arquitetura usa um design hierárquico com um agente coordenador de projeto que distribui tarefas por sub-agentes encarregues d

GateNews05-09 11:17
Comentar
0/400
Nenhum comentário