Mito da Anthropic é poderoso demais! A Casa Branca estaria considerando exigir que novos modelos de IA sejam aprovados por uma análise de segurança do governo antes de serem lançados

ChainNewsAbmedia

O governo Trump adotou por muito tempo uma postura de não interferência em relação à inteligência artificial; agora, por causa de preocupações de cibersegurança provocadas pelo poderoso modelo Mythos, publicado anteriormente pela Anthropic, começa a considerar a implementação de um mecanismo de revisão governamental antes do lançamento público de modelos de IA, simbolizando uma grande virada na política de regulação de IA dos EUA.

Curva brusca na política de IA da Casa Branca: de “deixar acontecer” para “controlar”

Segundo reportagem do The New York Times, autoridades dos EUA revelaram que o presidente Trump está considerando emitir uma ordem executiva para criar um grupo de trabalho de IA, composto por líderes da indústria de tecnologia e autoridades do governo, a fim de elaborar procedimentos de revisão governamental a serem aplicados antes da divulgação pública de novos modelos de IA.

A Casa Branca já realizou na semana passada reuniões com altos executivos de empresas como Anthropic, Google e OpenAI sobre os planos relacionados. Pessoas a par do assunto indicaram que o possível mecanismo de revisão pode se basear no modelo atualmente em vigor no Reino Unido, em que vários órgãos governamentais, em conjunto, garantem que os modelos de IA atendam a padrões específicos de segurança.

A virada desta política contrasta com a postura aberta de Trump no passado. Ele havia declarado em julho do ano passado: “Temos que deixar este bebê crescer e prosperar; não podemos impedir isso com regras tolas”, e, após assumir o cargo, rapidamente revogou os procedimentos regulatórios que o governo Biden exigia dos desenvolvedores de IA para fazer avaliações de segurança. No entanto, em apenas poucos meses, a direção da política já mudou.

O “Claude Mythos” que a Anthropic não ousa divulgar, e que chocou a Casa Branca

Uma das razões apontadas para a mudança de postura da Casa Branca é o novo modelo de IA Claude Mythos, divulgado no mês passado pela Anthropic. A Anthropic alertou que o Mythos tem capacidade extremamente forte para identificar falhas de segurança em software, suficientemente para explorar fraquezas de “todos os sistemas operacionais principais e navegadores da web”, o que poderia levar a ataques cibernéticos em grande escala. Por fim, a empresa decidiu não publicar o modelo publicamente.

A Casa Branca está em alta vigilância, preocupada com o fato de que, se ocorrer um incidente de ataque cibernético destrutivo causado por IA, o governo enfrentará consequências políticas severas. Alguns funcionários ainda avaliam com mais afinco a possibilidade de estabelecer um mecanismo de “acesso prioritário do governo”, permitindo que agências federais obtenham acesso ao modelo antes da divulgação pública, para garantir que o valor militar e de inteligência do novo modelo possa ser utilizado pelo Pentágono.

(Modelo de segurança cibernética de nível “armas” Mythos da Anthropic, sem acesso autorizado: como eles fizeram isso?)

Disputa legal entre Anthropic e Pentágono

O contexto da mudança de política também se entrelaça com uma difícil disputa legal entre governo e empresas. Em fevereiro deste ano, a Anthropic e o Pentágono iniciaram negociações sobre um contrato de US$ 200 milhões, mas a Anthropic escolheu recusar a exigência do governo Trump. Por isso, o Departamento de Defesa classificou a Anthropic como um “risco na cadeia de fornecimento para segurança nacional”. A Anthropic, em seguida, entrou com uma ação judicial para tentar impedir esse movimento.

No mês passado, o chefe de gabinete da Casa Branca, Susie Wiles, e o secretário do Tesouro, Bessent, receberam o CEO da Anthropic, Dario Amodei, na Casa Branca, com foco em como recuperar o uso da tecnologia da Anthropic pelo governo. Depois disso, ambas as partes descreveram a reunião como “produtiva”.

Corrida armamentista de IA acelera, e a estrutura regulatória ainda precisa ser formada

Em março deste ano, o governo Trump nomeou 13 profissionais do setor de tecnologia, incluindo o CEO da Meta, Zuckerberg, o CEO da Nvidia, Huang Renxun, e o fundador da Oracle, Larry Ellison, para compor um novo comitê consultivo de IA da Casa Branca. Além disso, publicou um arcabouço legislativo, exigindo que o Congresso crie uma política nacional de IA unificada para substituir regras fragmentadas por cada estado.

Na semana passada, o Pentágono também anunciou ter fechado um acordo com a OpenAI, Google, Nvidia, SpaceX, Microsoft, Amazon e Reflection para implantar as ferramentas de IA dessas empresas nas redes sigilosas do Departamento de Defesa, com o objetivo de fortalecer análises de dados, melhorar a percepção de situação no campo de batalha e ajudar as decisões dos soldados em ambientes operacionais complexos.

Isso mostra que, independentemente de como a política de regulação evolua, a expansão do uso militar de IA pelo governo dos EUA já é uma rota definida. No entanto, como equilibrar incentivo à inovação e controle de riscos continua sendo o desafio mais difícil diante da Casa Branca.

Esta matéria “A Anthropic Mythos é forte demais! Casa Branca pretende exigir revisão de segurança governamental antes do lançamento de novos modelos de IA” foi a primeira a aparecer em 鏈新聞 ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários