A OpenAI, a Anthropic e a Google lançam um mecanismo conjunto para detetar comportamentos de destilação de IA

AI蒸餾行為

De acordo com um relatório da Bloomberg a 16 de Abril, a OpenAI, a Anthropic PBC e a Google já iniciaram uma colaboração através da organização sem fins lucrativos do sector Frontier Model Forum, partilhando informações para detectar e impedir a prática de “model extraction” por meio de modelos de IA adversaria que violam os termos de serviço. A OpenAI confirmou à Bloomberg que já participou no trabalho de partilha de informações sobre model extraction adversaria.

Quadro de cooperação: mecanismo de partilha de informações do Frontier Model Forum

O Frontier Model Forum foi criado em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft. De acordo com a Bloomberg, as três empresas trocam actualmente informações através desta organização, com o objectivo de identificar pedidos massivos de dados adversaria, acompanhar tentativas de model extraction que violem os termos de serviço e coordenar a prevenção de actividades relacionadas. A Google já publicou um artigo no blog indicando que detectou um aumento das tentativas de extracção de modelos.

De acordo com a Bloomberg, este tipo de modelo de partilha de informações está em linha com práticas existentes na indústria da segurança informática, que há muito utiliza a troca interempresarial de dados de ataques e das estratégias dos adversários para reforçar a defesa.

Memorando do Congresso da OpenAI e registo de alegações relacionadas

De acordo com um memorando (fevereiro de 2026) apresentado pela OpenAI à House Select Committee on China dos Estados Unidos, a OpenAI acusa a empresa chinesa de IA DeepSeek de tentar “aproveitar-se” de “tecnologia desenvolvida pela OpenAI e outros laboratórios de ponta dos EUA”, e afirma que esta continua a utilizar técnicas de model extraction de dados para extrair resultados de modelos dos EUA a fim de desenvolver uma nova versão de um chatbot, com métodos cada vez mais complexos.

A Anthropic publicou uma declaração em fevereiro de 2026, na qual identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — e acusou-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria. A Anthropic tinha já, em 2025, proibido empresas chinesas de utilizar o Claude. A Bloomberg também tinha noticiado anteriormente que, após a DeepSeek ter lançado o modelo de raciocínio R1 em janeiro de 2025, a Microsoft e a OpenAI iniciaram investigações sobre se houve extracção ilegal de dados de modelos dos EUA.

Posicionamento da administração Trump e limitações de conformidade antitrust

De acordo com documentos de políticas públicas, responsáveis do governo Trump indicaram que estão dispostos a promover a partilha de informações entre empresas de IA para fazer face às ameaças de model extraction adversaria. O plano de acção em matéria de Inteligência Artificial anunciado pelo Presidente Trump apela explicitamente à criação de centros de partilha de informações e de análise, sendo um dos objectivos precisamente responder a estas acções.

De acordo com a Bloomberg, o âmbito da partilha de informações sobre model extraction por via tecnológica entre as três empresas continua a ser limitado, uma vez que elas não têm certeza sobre quais informações poderão ser partilhadas em conformidade com as actuais orientações antitrust; as três empresas afirmaram que pretendem alargar o âmbito da cooperação após o governo dos EUA clarificar os quadros orientadores relevantes.

Perguntas frequentes

A OpenAI, a Anthropic e a Google cooperam através de que organização?

De acordo com a Bloomberg, as três empresas fazem partilha de informações através do Frontier Model Forum, uma organização criada em 2023 conjuntamente pela OpenAI, a Anthropic, a Google e a Microsoft, sendo uma organização sem fins lucrativos do sector.

Que conteúdo apresentou a OpenAI ao Congresso dos EUA sobre o problema do AI model extraction?

De acordo com informação divulgada pela OpenAI, a OpenAI apresentou um memorando (fevereiro de 2026) à House Select Committee on China, nos EUA, acusando a DeepSeek de continuar a extrair resultados de modelos dos EUA através de técnicas de model extraction de dados e de usar isso para desenvolver uma nova versão de um chatbot.

Que acções já publicadas tomou a Anthropic sobre o problema de model extraction dos laboratórios de IA chineses?

De acordo com a declaração pública da Anthropic, a Anthropic proibiu em 2025 empresas chinesas de utilizar o modelo Claude e, em fevereiro de 2026, identificou três laboratórios de IA chineses — DeepSeek, Moonshot e MiniMax — acusando-os de extrair ilegalmente funcionalidades do modelo Claude através de model extraction adversaria.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

O Agente de IA já consegue reproduzir autonomamente artigos académicos complexos: Mollick afirma que os erros se devem mais ao texto original humano do que à IA

Mollick indica que os métodos de publicação e os dados, por si só, permitem que agentes de IA reproduzam investigação complexa sem a existência do artigo original e do código; se a reprodução não corresponder ao artigo original, isso deve-se na maioria das vezes a erros no processamento dos dados do próprio artigo ou a uma extrapolação excessiva das conclusões, e não à IA. A Claude primeiro reproduz o artigo, e depois o GPT‑5 Pro faz uma validação cruzada; na maioria dos casos, é bem-sucedido, apenas ficando bloqueado quando os dados são demasiado grandes ou quando há problemas com replication data. Esta tendência reduz drasticamente os custos de mão-de-obra, tornando a reprodução numa verificação geralmente executável, além de colocar desafios institucionais para a revisão pelos pares e para a governação; as ferramentas de governação por parte do governo ou tornar-se-ão numa questão fundamental.

ChainNewsAbmedia41m atrás

OpenAI Integra Codex no Modelo Principal a Partir do GPT-5.4, Descontinua a Linha Separada de Programação

Mensagem da Gate News, 26 de abril — O responsável de developer experience da OpenAI, Romain Huet, revelou numa declaração recente no X que a Codex, a linha de modelos especializados de programação mantida de forma independente pela empresa, foi integrada no modelo principal a partir do GPT-5.4 e deixará de receber atualizações separadas

GateNews42m atrás

Salesforce vai contratar 1.000 graduados e estagiários para produtos de IA, aumenta previsões de receitas para o AF2026

Mensagem do Gate News, 26 de abril — A Salesforce irá contratar 1.000 graduados e estagiários para trabalhar em produtos de IA, incluindo Agentforce e Headless360, à medida que a empresa expande o seu negócio de software de IA, anunciou o CEO Marc Benioff no X. A empresa também aumentou as suas previsões de receitas para o ano fiscal de 2026 para um intervalo entre 41,45 mil milhões de USD e 41,55 mil milhões de USD, acima da sua previsão anterior de 41,1 mil milhões de USD para 41,3 mil milhões de USD.

GateNews43m atrás

Alibaba Cloud Lança Qwen-Image-2.0-Pro com Geração de Texto-para-Imagem e Edição Unificadas, Suportando Renderização de Texto Multilingue

Mensagem de Gate News, 26 de abril — A plataforma Alibaba Cloud Bailian lançou o Qwen-Image-2.0-Pro, uma versão completa da série Qwen-Image-2.0 que combina a geração de texto para imagem e a edição de imagens num único modelo. Os utilizadores podem modificar objetos, texto e estilos diretamente através de comandos em linguagem natural

GateNews2h atrás

A API DeepSeek V4-Pro recebe um desconto de 75% até 5 de Maio; o preço de saída cai para $0.87 por milhão de tokens

Mensagem de Notícias da Gate, 26 de Abril — A DeepSeek anunciou um desconto de 75% por tempo limitado nos preços da API V4-Pro, válido até 5 de Maio às 15:59 UTC. Após o desconto, o preço por milhão de tokens é: cache de entrada (hit) $0.03625

GateNews3h atrás

A Anthropic Implementa Salvaguardas Eleitorais para o Claude Antes das Eleições Gerais de 2026

A Anthropic anunciou na sexta-feira um conjunto de medidas de integridade eleitoral concebidas para impedir que o seu chatbot de IA Claude seja usado como arma para espalhar desinformação ou manipular eleitores antes das eleições legislativas intercalares dos EUA de 2026 e de outras grandes contendas a nível mundial este ano. A sede da San Francisco-based

CryptoFrontier9h atrás
Comentar
0/400
Nenhum comentário