Powell e Bessent alertam os bancos sobre riscos de segurança decorrentes do AI Mythos da Anthropic: Bloomberg

Em resumo

  • Responsáveis dos EUA alertaram grandes bancos sobre riscos de cibersegurança associados ao modelo de IA Mythos da Anthropic, segundo o Bloomberg.
  • O sistema poderá identificar e explorar vulnerabilidades em sistemas operativos e navegadores.
  • A Anthropic tem acesso limitado ao modelo enquanto avalia potenciais riscos de segurança.

O ministro das Finanças dos EUA, Scott Bessent, e o presidente da Reserva Federal, Jerome Powell, terão reunido-se com executivos de bancos de Wall Street no início desta semana para alertar para riscos de cibersegurança associados a um novo modelo de inteligência artificial da Anthropic. De acordo com um relatório do Bloomberg, a reunião incluiu executivos da Citigroup, Bank of America, Wells Fargo, Morgan Stanley e Goldman Sachs. Os responsáveis discutiram o novo modelo de IA da Anthropic, Mythos, que tem gerado preocupação generalizada devido às suas alegadas capacidades avançadas em cibersegurança. Os responsáveis convocaram a reunião para garantir que os bancos compreendem os riscos apresentados por sistemas capazes de identificar e explorar vulnerabilidades de software em sistemas operativos e navegadores web, e para incentivar as instituições a reforçarem as defesas contra potenciais ciberataques assistidos por IA que visem infraestruturas financeiras.

Investigadores de segurança têm alertado que ferramentas capazes de descobrir vulnerabilidades automaticamente poderiam acelerar tanto o trabalho de segurança defensiva como a pirataria maliciosa, caso sejam utilizadas de forma indevida.  O modelo Mythos da Anthropic surgiu inicialmente online em março, após materiais preliminares sobre o sistema terem sido divulgados online, revelando o que a empresa descreveu como o seu modelo de IA mais capaz até à data. Em testes, o sistema terá encontrado milhares de vulnerabilidades de software previamente desconhecidas, incluindo falhas zero-day em grandes sistemas operativos e navegadores web. Investigadores da Anthropic disseram num relatório no início desta semana que as capacidades de descoberta de vulnerabilidades do Mythos Preview não foram treinadas intencionalmente, mas sim que emergiram de melhorias mais amplas no código, raciocínio e autonomia do modelo.

“As mesmas melhorias que tornam o modelo substancialmente mais eficaz a corrigir vulnerabilidades também o tornam substancialmente mais eficaz a explorá-las”, escreveu a empresa. Devido a essas capacidades, a Anthropic restringiu o acesso a um pequeno grupo de organizações de cibersegurança. “Dada a força das suas capacidades, estamos a ser deliberados quanto à forma como o disponibilizamos”, disse a Anthropic num comunicado. “Tal como é prática padrão na indústria, estamos a trabalhar com um pequeno grupo de clientes com acesso antecipado para testar o modelo. Consideramos este modelo uma mudança de patamar e o mais capaz que construímos até hoje.” Para fazer face a esse risco, a Anthropic está a testar o Mythos através do Project Glasswing, uma colaboração com empresas de tecnologia e cibersegurança de grande dimensão que utiliza o modelo para identificar e corrigir vulnerabilidades em software crítico antes que os atacantes consigam explorá-las. “O Project Glasswing é um ponto de partida. Nenhuma organização consegue resolver sozinha estes problemas de cibersegurança”, disse a empresa num comunicado. “Os programadores de IA da fronteira, outras empresas de software, investigadores de segurança, mantenedores de código aberto e governos em todo o mundo têm todos papéis essenciais a desempenhar.” A Anthropic não respondeu imediatamente ao pedido de comentário da Decrypt.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Musk testemunha que a xAI usou modelos da OpenAI para treinar o Grok

Elon Musk prestou depoimento na quinta-feira num tribunal federal na Califórnia que a sua empresa de inteligência artificial, a xAI, utilizou parcialmente modelos da OpenAI durante o treino do seu chatbot Grok, segundo a TechCrunch. A admissão representa um reconhecimento público raro por parte de um grande programador de IA de uma prática em crescimento

CryptoFrontier1h atrás

O CEO da Google, Sundar Pichai, revelou que utiliza a IA Gemini para compreender a natureza humana e estabelecer uma comunicação mais autêntica

Pichai afirmou que, antes de reuniões importantes, analisa e prevê o estado mental do interlocutor com base numa perspetiva do Gemini, para melhorar a empatia e uma comunicação mais autêntica. Os agentes de IA também conseguem organizar automaticamente e-mails, agendamentos e resumos, tornando as tarefas do dia-a-dia mais eficientes. Entretanto, estão a emergir plataformas de IA com base na co-criação aberta: tecnologias open source como o Gemini 4 reduzem a barreira de entrada; em paralelo, é sublinhada a necessidade de criar um enquadramento de governação da IA, com participação da esfera política e da sociedade para enfrentar desafios como a cibersegurança, os deepfakes e a sustentabilidade.

ChainNewsAbmedia1h atrás

A OpenAI Lança uma Segurança Avançada de Conta para o ChatGPT

Lançamento de Segurança Avançada da Conta Na quinta-feira, a OpenAI apresentou a Segurança Avançada da Conta, uma nova definição opcional para o ChatGPT, destinada a utilizadores que procuram uma proteção mais forte ou que enfrentam riscos mais elevados de ataques digitais. A empresa disse que a nova funcionalidade foi criada em resposta à forma como as pessoas são

CryptoFrontier2h atrás

A X (Twitter) chega à maior atualização de plataforma publicitária da sua história, com a entrada da xAI e a publicidade baseada em interpretação semântica por IA como elemento central

X anunciou a partir de abril de 2026 o lançamento da maior remodelação da sua plataforma publicitária dos últimos 20 anos, reconstruindo a tecnologia subjacente e integrando xAI. A nova plataforma tem como base uma otimização do desempenho orientada por IA, bem como anúncios semânticos e contextuais, para melhorar a conveniência operacional e o controlo da veiculação. O objetivo é transformar a publicidade em sinais comerciais em contexto imediato, alinhando-se com a estratégia Everything App para se tornar o motor comercial do ecossistema do X.

ChainNewsAbmedia5h atrás

Apoiada pela OpenAI, a 1X abre uma fábrica de 58.000 pés quadrados na Califórnia, com o objetivo de ter 10.000 robôs no primeiro ano

De acordo com a Bloomberg, a 1X Technologies, uma startup de robótica apoiada pela OpenAI e fundada na Noruega, abriu uma fábrica de 58.000 pés quadrados em Hayward, Califórnia, com o objetivo de liderar na produção em massa de robôs humanoides para consumo. A instalação deverá produzir 10.000 robôs no seu

GateNews7h atrás

A Casa Branca prepara um memorando de política de IA que orienta as agências dos EUA a utilizarem múltiplos fornecedores de IA a 30 de abril

De acordo com fontes citadas pela PANews a 30 de abril, responsáveis da Casa Branca estão a redigir um memorando de política de inteligência artificial (IA) abrangente que orienta as agências do governo dos EUA a adotarem vários prestadores de serviços de IA e a evitarem a dependência de um único fornecedor. O memorando também exige que todas as empresas de IA contratadas

GateNews8h atrás
Comentar
0/400
Nenhum comentário