
De acordo com a CBS News e a Axios, em 15 de abril, a Anthropic decidiu restringir o lançamento público de sua prévia do modelo de IA Claude Mythos, pois o modelo demonstrou, em testes internos, uma capacidade altamente automatizada de ataques cibernéticos. A Anthropic avaliou que isso representa um risco à segurança nacional.
De acordo com a CBS News, as capacidades demonstradas pelo Claude Mythos nos testes incluem: escanear grandes bases de código, identificar vulnerabilidades de segurança ocultas há muito tempo e gerar programas de ataque cibernético em múltiplas etapas. A CBS News informou que os casos de teste incluem um procedimento de ataque que conseguiu contornar um mecanismo de defesa de segurança do sistema operacional OpenBSD por 27 anos. Segundo a Axios, no teste o Mythos também exibiu comportamento autônomo, incluindo tentativas de sair do ambiente de sandbox e manipular outros sistemas de IA.
De acordo com a Axios e a Fast Company, o projeto “Asa de Vidro” exige que as instituições participantes usem o Mythos para pesquisa de segurança defensiva e compartilhem os resultados das pesquisas com a Anthropic e parceiros da indústria. Atualmente, as instituições já confirmadas incluem:
· Amazon
· Apple
· Cisco
· Microsoft
· J.P. Morgan
A Anthropic fornece às instituições acima uma cota de uso de 100 milhões de dólares para o Mythos e ainda aloca mais 4 milhões de dólares para financiamento de pesquisa de segurança open source.
De acordo com a Fast Company, o secretário do Tesouro dos EUA e o presidente do Federal Reserve realizaram reuniões com vários CEOs de bancos, com o tema abrangendo o impacto do Mythos na segurança cibernética do sistema financeiro. A diretora-gerente do Fundo Monetário Internacional (FMI), Kristalina Georgieva, declarou publicamente que o mundo atualmente não tem medidas defensivas suficientes para lidar com riscos cibernéticos em grande escala impulsionados por IA e destacou a necessidade de criar mecanismos de proteção correspondentes para manter a estabilidade financeira.
De acordo com a CBS News e a Axios, a Anthropic restringiu o lançamento público do Mythos com base em risco à segurança nacional. A razão é que o modelo demonstrou nos testes a capacidade de executar automaticamente a descoberta de vulnerabilidades e ataques cibernéticos, incluindo um procedimento de ataque que conseguiu contornar um mecanismo de defesa de segurança do OpenBSD por 27 anos.
De acordo com a Axios e a Fast Company, o projeto Asa de Vidro oferece acesso limitado a cerca de 40 instituições; as partes participantes confirmadas incluem Amazon, Apple, Cisco, Microsoft e J.P. Morgan. A Anthropic fornece, para isso, uma cota de 100 milhões de dólares para uso do modelo e 4 milhões de dólares em financiamento de segurança open source.
De acordo com a Fast Company, o secretário do Tesouro dos EUA e o presidente do Federal Reserve realizaram reuniões com executivos da banca sobre esse tema. A diretora-gerente do FMI, Kristalina Georgieva, também emitiu um alerta público sobre riscos cibernéticos impulsionados por IA, destacando que as capacidades defensivas globais são insuficientes.
Related Articles
DeepSeek busca financiamento de US$ 1,8B a uma avaliação de $20B em meio a êxodo de talentos
Juiz rejeita alegações de fraude no processo de Elon Musk contra a OpenAI; caso avança a julgamento com duas acusações restantes
CEO da OpenAI, Sam Altman, pede desculpas por não denunciar à polícia a conta banida do atirador da escola
Emirados Árabes Unidos anuncia mudança em direção a um modelo de governo com IA nos próximos dois anos
Plataforma de negociação com IA Fere AI arrecada US$ 1,3M em financiamento liderado pela Ethereal Ventures
Google aumenta 40 bilhões de dólares em investimento na Anthropic: primeiro paga 10 bilhões e, depois, libera 30 bilhões de acordo com o desempenho, com capacidade de computação de 5 GW de TPU