A Anthropic anunciou este mês um modelo chamado Claude Mythos. Disse que era demasiado perigoso para ser lançado.


Eles o bloquearam atrás de uma coalizão verificada composta por AWS, Apple, Microsoft, Google e JPMorgan, a cinco vezes o preço do seu próximo melhor modelo.
A proposta era que ele encontrava vulnerabilidades de software que nenhum humano ou IA tinha descoberto antes.
Duas semanas depois, um investigador de segurança identificou exatamente os bugs que a Anthropic apresentou como prova e os alimentou em modelos pequenos, baratos e abertos que qualquer pessoa pode executar.
Cada um deles encontrou o bug principal. Um modelo de peso aberto de um laboratório chinês também percebeu algo que o anúncio da Anthropic não revelou: o bug é wormable.
Ele se espalha de máquina para máquina por conta própria.
Essa é a diferença entre uma falha séria e o tipo de coisa que derruba hospitais em 150 países num fim de semana.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar