O Google Cloud destaca o modelo Gemini 3.2 Flash Lite com custos de inferência 95% menores do que o GPT-5.5

De acordo com o monitoramento do Beating.AI, uma nova opção de modelo chamada gemini-3.2-flash-lite-live-preview apareceu na lista de seleção de modelos do Google Cloud em 17 de maio. Os sufixos “lite” e “live” indicam que o Google está criando uma versão especializada otimizada para interações em tempo real com latência ultrabaixa.

O CEO da Abacus.AI, Bindu Reddy, já havia divulgado que o Gemini 3.2 Flash atinge 92% das capacidades de codificação e raciocínio do GPT-5.5, mantendo os custos de inferência em apenas 1/20 do GPT-5.5, com a maioria das consultas retornando respostas abaixo de 200 milissegundos. Observadores da indústria esperam que esse modelo leve e com foco em custo seja oficialmente apresentado na Google I/O em 20 de maio.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários