A Google Cloud revela o modelo Gemini 3.2 Flash Lite com custos de inferência 95% mais baixos do que o GPT-5.5

De acordo com o monitorização da Beating.AI, surgiu uma nova opção de modelo chamada gemini-3.2-flash-lite-live-preview na lista de seleção de modelos da Google Cloud, a partir de 17 de maio. As designações “lite” e “live” indicam que a Google está a criar uma versão especializada, otimizada para interações em tempo real com latência ultra-baixa.

O CEO da Abacus.AI, Bindu Reddy, tinha revelado anteriormente que o Gemini 3.2 Flash atinge 92% das capacidades de codificação e raciocínio do GPT-5.5, mantendo os custos de inferência em apenas 1/20 do GPT-5.5, com a maioria das respostas às perguntas abaixo de 200 milissegundos. Analistas da indústria esperam que este modelo leve otimizado para custos seja formalmente apresentado na Google I/O, a 20 de maio.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário