Google Cloud met en avant le modèle Gemini 3.2 Flash Lite avec des coûts d’inférence 95% inférieurs à ceux de GPT-5.5

Selon le suivi de Beating.AI, une nouvelle option de modèle nommée gemini-3.2-flash-lite-live-preview est apparue dans la liste de sélection des modèles de Google Cloud au 17 mai. Les suffixes « lite » et « live » indiquent que Google crée une version spécialisée optimisée pour des interactions temps réel à ultra-faible latence.

Le PDG d’Abacus.AI, Bindu Reddy, a précédemment révélé que Gemini 3.2 Flash atteint 92 % des capacités de codage et de raisonnement de GPT-5.5 tout en maintenant les coûts d’inférence à seulement 1/20e de ceux de GPT-5.5, la plupart des requêtes renvoyant des réponses en moins de 200 millisecondes. Des observateurs du secteur s’attendent à ce que ce modèle léger optimisé pour les coûts soit officiellement dévoilé lors de Google I/O le 20 mai.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire