Mensagem da Gate News, 22 de abril — A Google está a consolidar ferramentas de programação em IA na sua plataforma Antigravity, à medida que crescem as preocupações internas de que a empresa está a ficar para trás em Anthropic e OpenAI em capacidades de desenvolvimento de software. A medida aborda a fragmentação nas capacidades do Gemini da Google, que são atualmente distribuídas por vários produtos, criando sobreposição e prioridades pouco claras.
Segundo a Bloomberg, algumas equipas da Google, incluindo partes da DeepMind, utilizam atualmente o Claude Code da Anthropic devido às suas capacidades na inferência ao longo de grandes projetos de software. A Antigravity e outras ferramentas internas têm registado uma forte adoção, com a Alphabet a reportar que a IA já representa cerca de 50% do novo código da empresa. A DeepMind também criou uma nova equipa de programação em IA à medida que a procura cresce por ferramentas que ajudem as empresas a escrever e depurar código com mais eficiência.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Google Jules Reposiciona-se como Plataforma de Desenvolvimento de Produtos Orientada por Agentes, de Ponta a Ponta, e Abre Lista de Espera para Nova Versão
Mensagem do Gate News, 23 de abril — A equipa da Jules, da Google, anunciou a abertura de uma lista de espera para uma nova versão do produto, reposicionando a Jules de um agente de codificação assíncrona para uma plataforma de desenvolvimento de produtos orientada por agentes, de ponta a ponta. Segundo a descrição oficial, a plataforma atualizada lê enti
GateNews39m atrás
A Perplexity revela o método de pós-treinamento do agente de pesquisa na web; o modelo baseado em Qwen3.5 supera o GPT-5.4 em precisão e custo
A Perplexity utiliza SFT seguida de RL com modelos Qwen3.5, tirando partido de um conjunto de dados de QA multi-hop e de verificações por rubrica para melhorar a precisão e a eficiência da pesquisa, atingindo um desempenho FRAMES de referência.
Resumo: O fluxo de pós-treinamento da Perplexity para agentes de pesquisa na web combina fine-tuning supervisionado (SFT) para impor obediência a instruções e consistência linguística com aprendizagem por reforço online (RL) via o algoritmo GRPO. A fase de RL utiliza um conjunto proprietário de QA verificável multi-hop e dados conversacionais baseados em rubricas para impedir a deriva do SFT, com gating de recompensas e penalizações de eficiência dentro do grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL atinge o melhor desempenho FRAMES, com 57,3% de precisão com uma única chamada de ferramenta e 73,9% com quatro chamadas a $0,02 por consulta, superando o GPT-5.4 e o Claude Sonnet 4.6 nestas métricas. A tarifação é baseada em API e exclui caching.
GateNews1h atrás
TikTok remove mais de 538.000 vídeos não autorizados gerados por IA; várias plataformas lançam iniciativas de governação
Mensagem do Gate News, 23 de abril — A TikTok anunciou uma repressão abrangente ao conteúdo gerado por IA que viola os direitos dos utilizadores, revelando que já removeu mais de 538.000 vídeos e penalizou mais de 4.000 contas até à data. A plataforma dará prioridade à aplicação de medidas contra deepfakes de IA, clonagem de voz
GateNews1h atrás
As Finanças Tradicionais irão acelerar a entrada no mercado de cripto, diz o economista Fu Peng
Mensagem do Gate News, 23 de Abril — Fu Peng, economista-chefe do Grupo Xinfire, partilhou a sua visão sobre a convergência entre as finanças tradicionais e os criptoactivos durante o 2026 Hong Kong Institutional Digital Wealth Management Summit. Segundo Fu, a integração de instituições financeiras tradicionais com
GateNews2h atrás
A Equipa de Codex da OpenAI Corrige um Bug de Autenticação do OpenClaw, Melhorando Significativamente o Comportamento do Agente
O OpenClaw muda de harness de Pi para o harness de Codex para corrigir uma falha silenciosa de autenticação, com dois PRs a abordar a ponte e o fallback; após a correção, o agente passa de uma sondagem superficial por heartbeat para um ciclo completo de trabalho, permitindo progresso.
Resumo: A otimização do harness de Codex do OpenClaw abordou uma falha crítica de autenticação que causava o fallback silencioso para o harness de Pi quando se usava Codex com modelos OpenAI. Dois pedidos pull corrigem a ponte de autenticação e evitam o fallback silencioso, alterando o adaptador em tempo de execução. Como resultado, o comportamento do agente evolui de uma sondagem superficial por heartbeat para um ciclo completo de trabalho que lê contexto, analisa tarefas, edita repositórios e verifica o progresso, melhorando a continuidade e a visibilidade entre heartbeats.
GateNews2h atrás
Modelos de cibersegurança de nível militar da Anthropic Mythos foram acedidos sem autorização: como é que o fizeram?
Segundo a Bloomberg, um grupo privado de fórum obteve acesso não autorizado ao Mythos através de uma autorização legal concedida a um subcontratado de terceiros da Anthropic. O Mythos é uma IA defensiva para empresas, apenas disponibilizada a grandes instituições com auditorias rigorosas. O grupo explorou o conhecimento do URL do modelo para inferir a sua localização no sistema e conseguiu entrar, fornecendo capturas de ecrã como demonstração, afirmando que ainda o utiliza, mas sem intenção maliciosa. A Anthropic está a investigar e, inicialmente, considera tratar-se de abuso de permissões, e não de uma intrusão externa. Este caso mostra os riscos de entregar modelos altamente sensíveis a terceiros sob gestão, sendo necessária uma maior resiliência de governação e mecanismos de confiança.
ChainNewsAbmedia2h atrás