Mensagem do Gate News, 16 de abril — OpenAI, Anthropic e a subsidiária (Alphabet) da Google começaram a colaborar para combater os esforços de concorrentes chineses para extrair saídas de modelos avançados de IA dos EUA e aprimorar suas próprias capacidades, de acordo com a Bloomberg. As três empresas estão compartilhando informações por meio do Frontier Model Forum, uma organização setorial sem fins lucrativos cofundada pela OpenAI, Anthropic, Google e Microsoft em 2023.
A iniciativa tem como objetivo identificar tentativas de destilação de dados adversariais que violem os termos de serviço. Destilação de dados se refere a técnicas usadas para replicar o desempenho de modelos avançados de IA ao analisar suas saídas, permitindo que concorrentes desenvolvam sistemas comparáveis sem acesso direto à tecnologia proprietária.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
A Perplexity revela método de pós-treinamento de agente de busca na web; modelo baseado em Qwen3.5 supera GPT-5.4 em acurácia e custo
A Perplexity usa SFT seguida de RL com modelos Qwen3.5, aproveitando um conjunto de dados de QA multi-hop e verificações por rubrica para aumentar a precisão e a eficiência da busca, alcançando desempenho FRAMES de nível superior.
Resumo: O fluxo de trabalho de pós-treinamento da Perplexity para agentes de busca na web combina fine-tuning supervisionado (SFT) para impor aderência a instruções e consistência de linguagem com aprendizado por reforço online (RL) via o algoritmo GRPO. A etapa de RL usa um conjunto de dados proprietários de QA verificável multi-hop e dados conversacionais baseados em rubricas para evitar deriva do SFT, com agregação filtrada por recompensa e penalidades de eficiência dentro do grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL alcança o melhor desempenho em FRAMES, com 57,3% de acurácia com uma única chamada de ferramenta e 73,9% com quatro chamadas a US$ 0,02 por consulta, superando GPT-5.4 e Claude Sonnet 4.6 nessas métricas. A precificação é baseada em API e exclui caching.
GateNews24m atrás
TikTok Remove Mais de 538.000 Vídeos Não Autorizados Gerados por IA; Várias Plataformas Lançam Iniciativas de Governança
Mensagem do Gate News, 23 de abril — O TikTok anunciou uma repressão abrangente a conteúdos gerados por IA que infringem os direitos dos usuários, revelando que removeu mais de 538.000 vídeos e penalizou mais de 4.000 contas até o momento. A plataforma priorizará a aplicação contra deepfakes de IA, clonagem de voz
GateNews1h atrás
Finanças Tradicionais Vão Acelerar a Entrada no Mercado de Criptos, Diz o Economista Fu Peng
Mensagem da Gate News, 23 de abril — Fu Peng, economista-chefe do Xinfire Group, compartilhou sua visão sobre a convergência entre as finanças tradicionais e os criptoativos durante o 2026 Hong Kong Institutional Digital Wealth Management Summit. De acordo com Fu, a integração de instituições financeiras tradicionais com
GateNews1h atrás
Equipe da OpenAI Codex Corrige Bug de Autenticação da OpenClaw e Melhora Significativamente o Comportamento do Agente
OpenClaw muda de um harness de Pi para um harness de Codex para corrigir uma falha silenciosa de autenticação, com dois PRs tratando a ponte e o fallback; após o ajuste, o agente deixa de fazer polling superficial de heartbeat e passa a um ciclo completo de trabalho, permitindo avanço.
Resumo: a otimização do harness Codex da OpenClaw abordou uma falha crítica de autenticação que fazia o sistema voltar silenciosamente ao harness de Pi quando o Codex era usado com modelos da OpenAI. Dois pull requests corrigem a ponte de autenticação e impedem o fallback silencioso, alterando o adaptador de runtime. Como resultado, o comportamento do agente evolui de polling superficial de heartbeat para um ciclo completo de trabalho que lê o contexto, analisa tarefas, edita repositórios e verifica o progresso, melhorando a continuidade e a visibilidade entre heartbeats.
GateNews1h atrás
Modelos de segurança no nível de armamento da Anthropic Mythos sofreram acesso não autorizado: como eles conseguiram fazer isso?
A Bloomberg relata que um grupo privado de fóruns acessou o Mythos sem autorização por meio de uma autorização legal concedida a um terceiro contratante pela Anthropic. O Mythos é uma IA defensiva para empresas, disponível apenas para grandes organizações com verificação rigorosa. O grupo aproveitou o conhecimento sobre a URL do modelo para inferir a localização do sistema e entrou, além de fornecer capturas de tela como demonstração, afirmando que ainda está em uso, mas sem intenção maliciosa. A Anthropic está investigando, e inicialmente considerou como abuso de permissões, e não como uma invasão externa. O caso mostra o risco de entregar modelos altamente sensíveis ao controle de terceiros, sendo necessário aumentar a resiliência da governança e os mecanismos de confiança.
ChainNewsAbmedia1h atrás
Alerta de CISO da Mist Fog: ShinyHunters afirma ter invadido os sistemas internos da Anthropic
De acordo com o alerta publicado em 23 de abril no X pelo CSO da SlowMist, 23pds, a organização de hackers ShinyHunters alega ter comprometido sistemas internos relacionados ao modelo Anthropic Mythos e compartilhou publicamente evidências na forma de capturas de tela, incluindo o painel de gerenciamento de usuários, o painel de experimentos de IA e análises de desempenho e custos do modelo, mas a Anthropic oficial ainda não emitiu uma declaração.
MarketWhisper1h atrás