Powell e Bessent alertam os bancos sobre riscos de segurança decorrentes do AI Mythos da Anthropic: Bloomberg

Em resumo

  • Responsáveis dos EUA alertaram grandes bancos sobre riscos de cibersegurança associados ao modelo de IA Mythos da Anthropic, segundo o Bloomberg.
  • O sistema poderá identificar e explorar vulnerabilidades em sistemas operativos e navegadores.
  • A Anthropic tem acesso limitado ao modelo enquanto avalia potenciais riscos de segurança.

O ministro das Finanças dos EUA, Scott Bessent, e o presidente da Reserva Federal, Jerome Powell, terão reunido-se com executivos de bancos de Wall Street no início desta semana para alertar para riscos de cibersegurança associados a um novo modelo de inteligência artificial da Anthropic. De acordo com um relatório do Bloomberg, a reunião incluiu executivos da Citigroup, Bank of America, Wells Fargo, Morgan Stanley e Goldman Sachs. Os responsáveis discutiram o novo modelo de IA da Anthropic, Mythos, que tem gerado preocupação generalizada devido às suas alegadas capacidades avançadas em cibersegurança. Os responsáveis convocaram a reunião para garantir que os bancos compreendem os riscos apresentados por sistemas capazes de identificar e explorar vulnerabilidades de software em sistemas operativos e navegadores web, e para incentivar as instituições a reforçarem as defesas contra potenciais ciberataques assistidos por IA que visem infraestruturas financeiras.

Investigadores de segurança têm alertado que ferramentas capazes de descobrir vulnerabilidades automaticamente poderiam acelerar tanto o trabalho de segurança defensiva como a pirataria maliciosa, caso sejam utilizadas de forma indevida.  O modelo Mythos da Anthropic surgiu inicialmente online em março, após materiais preliminares sobre o sistema terem sido divulgados online, revelando o que a empresa descreveu como o seu modelo de IA mais capaz até à data. Em testes, o sistema terá encontrado milhares de vulnerabilidades de software previamente desconhecidas, incluindo falhas zero-day em grandes sistemas operativos e navegadores web. Investigadores da Anthropic disseram num relatório no início desta semana que as capacidades de descoberta de vulnerabilidades do Mythos Preview não foram treinadas intencionalmente, mas sim que emergiram de melhorias mais amplas no código, raciocínio e autonomia do modelo.

“As mesmas melhorias que tornam o modelo substancialmente mais eficaz a corrigir vulnerabilidades também o tornam substancialmente mais eficaz a explorá-las”, escreveu a empresa. Devido a essas capacidades, a Anthropic restringiu o acesso a um pequeno grupo de organizações de cibersegurança. “Dada a força das suas capacidades, estamos a ser deliberados quanto à forma como o disponibilizamos”, disse a Anthropic num comunicado. “Tal como é prática padrão na indústria, estamos a trabalhar com um pequeno grupo de clientes com acesso antecipado para testar o modelo. Consideramos este modelo uma mudança de patamar e o mais capaz que construímos até hoje.” Para fazer face a esse risco, a Anthropic está a testar o Mythos através do Project Glasswing, uma colaboração com empresas de tecnologia e cibersegurança de grande dimensão que utiliza o modelo para identificar e corrigir vulnerabilidades em software crítico antes que os atacantes consigam explorá-las. “O Project Glasswing é um ponto de partida. Nenhuma organização consegue resolver sozinha estes problemas de cibersegurança”, disse a empresa num comunicado. “Os programadores de IA da fronteira, outras empresas de software, investigadores de segurança, mantenedores de código aberto e governos em todo o mundo têm todos papéis essenciais a desempenhar.” A Anthropic não respondeu imediatamente ao pedido de comentário da Decrypt.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Forefront Tech conclui o $100M IPO com preço, listagem na Nasdaq sob o código FTHAU

De acordo com a ChainCatcher, a empresa de aquisição de propósito específico Forefront Tech concluiu a precificação de uma IPO de US$ 100 milhões em 30 de abril e será listada na Nasdaq sob o ticker FTHAU. A empresa planeja usar os recursos para buscar oportunidades de fusões e aquisições em blockchain, fintech, inteligência artificial e

GateNews1h atrás

O código da Anthropic Claude cobrou demais um usuário em US$ 200,98 devido a um bug de cobrança, inicialmente negando o reembolso antes de compensar integralmente

De acordo com o monitoramento da Beating, um bug de faturamento no serviço Claude Code da Anthropic fez com que um assinante Max tivesse sido cobrado em excesso em US$ 200,98 por taxas de uso adicionais, apesar de usar apenas 13% do limite mensal. O bug foi acionado quando o histórico de commits de um repositório git de um usuário continha a letra maiúscula

GateNews1h atrás

DeepSeek Introduz o método de Primitivos Visuais para aprimorar o raciocínio multimodal em 30 de abril

De acordo com o relatório técnico da DeepSeek, em 30 de abril, a empresa apresentou o Visual Primitives, um método que incorpora unidades visuais básicas como pontos e caixas delimitadoras em cadeias de raciocínio para resolver o problema da Lacuna de Referência em tarefas multimodais. O método reduz o consumo de tokens de imagem

GateNews2h atrás

A NVIDIA lança os pesos do modelo flagship Cosmos-Reason2-32B e expande a janela de contexto para 256K tokens

Segundo Beating, a NVIDIA lançou os pesos do Cosmos-Reason2-32B, a versão principal da sua visão de raciocínio em IA física para linguagem visual (VLM, na sigla em inglês) — projetada para ajudar robôs e sistemas de condução autônoma a entenderem princípios espaciais, temporais e físicos. O modelo de 32 bilhões de parâmetros,

GateNews2h atrás

OpenAI revela por que o Codex não pode falar sobre “goblins”: a recompensa por personalidade “nerd” saiu do controle

A OpenAI, no blog oficial, explicou que o Codex não deve falar sobre goblins e outras criaturas, devido a uma preferência por sinais de recompensa em treinamento de personalidade de “nerds”, que usava metáforas com criaturas, causando contaminação entre personalidades e desorientação no RLHF. O episódio veio à tona depois que Barron Roth revelou uma instrução do sistema, e a OpenAI adotou duas estratégias: codificação rígida no curto prazo e eliminação de sinais de recompensa no longo prazo. O caso alerta sobre a fragilidade do design de recompensas, e que auditorias pós-treinamento precisam ser mais detalhadas.

ChainNewsAbmedia2h atrás

A Alibaba abre código do módulo de interpretabilidade Qwen-Scope do Qwen, cobrindo 7 modelos, em 30 de abril

De acordo com a PANews, em 30 de abril, a Qwen, da Alibaba, anunciou a disponibilização em open source do Qwen-Scope, um módulo de interpretabilidade treinado nos modelos das séries Qwen3 e Qwen3.5. O lançamento inclui 7 modelos de linguagem de grande porte em variantes densas e mixture-of-experts, com 14 conjuntos de sparse autoencoder

GateNews3h atrás
Comentário
0/400
Sem comentários