Acabei de perceber que tanto a Anthropic quanto a OpenAI ajustaram bastante as suas promessas de segurança. Na Anthropic, uma promessa central da diretriz de crescimento responsável foi simplesmente omitida — especificamente: o compromisso de pausar o treino de IA se as medidas de mitigação de riscos não forem suficientes. Jared Kaplan, Diretor Científico da Anthropic, justifica isso com a realidade de um mercado altamente competitivo. Uma pausa unilateral, sob pressão da concorrência, simplesmente não é viável.



De forma semelhante na OpenAI: a missão foi reformulada e a palavra 'seguro' foi omitida. Em vez disso, o foco agora está em que a IA deve beneficiar a humanidade. Isso, claro, corresponde às expectativas de investidores e políticos, mas também mostra como essas empresas pensam de forma mais pragmática atualmente.

O timing é interessante: a Anthropic acaba de fechar uma rodada de financiamento de 30 bilhões de dólares e é avaliada em 380 bilhões. A OpenAI busca até 100 bilhões, com apoio da Amazon, Microsoft e Nvidia. Fica claro por que essas formulações de segurança foram omitidas — a pressão é enorme.

Outro ponto: a Anthropic negou ao Pentágono acesso total ao Claude, o que gerou tensões com o Secretário de Defesa dos EUA, Pete Hegseth. Isso levanta questões sobre contratos de defesa e mostra que preocupações de segurança e a realidade geopolítica às vezes entram em conflito. É interessante observar como esse setor está se redefinindo neste momento.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar