Les puces Google d’Alphabet Inc. seraient en discussion avec Marvell Technology pour développer deux nouveaux chips conçus pour améliorer la façon dont les modèles d’intelligence artificielle sont exécutés.
Résumé
D’après un rapport du The Information, citant des personnes au fait du dossier, l’une des puces proposées pourrait être une unité de traitement de la mémoire conçue pour fonctionner en complément des unités de traitement tensoriel de Google, ou TPUs. La deuxième puce devrait être un nouveau TPU conçu spécifiquement pour exécuter des charges de travail d’IA de manière plus efficace.
Le mouvement fait partie de l’effort de Google visant à positionner ses puces conçues en interne comme une alternative aux GPU de Nvidia. L’adoption des TPU contribue à la croissance du chiffre d’affaires de Google Cloud, car l’entreprise cherche à démontrer un retour sur ses dépenses en infrastructure IA.
Le rapport a ajouté que Google prévoit d’achever la conception de la puce axée sur la mémoire d’ici l’an prochain, avant de passer à des tests de production. Dans le même temps, elle a élargi ses partenariats avec des fabricants de puces comme Intel et Broadcom afin de soutenir la demande croissante pour l’infrastructure IA.
Alors que Google intensifie le développement de ses accélérateurs IA, il pourrait commencer à remettre en question l’avantage de longue date de Nvidia dans le calcul haute performance.
NVIDIA, par exemple, fait avancer sa propre gamme de puces d’inférence IA, y compris des conceptions intégrant une technologie de Groq. L’arrivée d’un autre concurrent de grande envergure pourrait intensifier la course dans le matériel d’IA et redessiner la manière dont les entreprises s’approvisionnent en puissance de calcul pour leurs modèles.
Les investisseurs chercheront probablement davantage de clarté lorsque Google publiera ses résultats du premier trimestre le 29 avril. La publication des résultats devrait fournir des indications sur la performance dans le cloud, les tendances publicitaires et le niveau d’engagement avec lequel l’entreprise prévoit d’investir dans l’IA et les semi-conducteurs au cours des trimestres à venir.
Les discussions récentes de Google au sujet de ses puces surviennent alors qu’elle continue d’étendre les capacités de ses modèles d’IA. Plus tôt ce mois-ci, l’entreprise a présenté Gemma 4, une nouvelle famille de modèles ouverts conçue pour le raisonnement avancé et les flux de travail de type agent.
Gemma 4 est disponible en quatre tailles et est conçue pour gérer plus efficacement la logique multi-étapes et la résolution de problèmes structurée. Elle a également fourni des résultats améliorés dans des benchmarks liés à la mathématique et aux tâches de suivi d’instructions.
Les modèles incluent des fonctionnalités telles que l’appel natif de fonctions, des sorties JSON structurées et des instructions au niveau du système, permettant aux développeurs de construire des systèmes autonomes capables de se connecter à des API et à des outils externes. Ils peuvent aussi générer du code hors ligne, transformant les machines locales en assistants de codage IA capables.
Ensemble, les améliorations des modèles et les plans de développement des puces montrent comment Google aligne sa pile logicielle et matérielle alors que la concurrence dans le domaine de l’IA continue de s’intensifier.
Related News
Amazon renforce encore Anthropic à hauteur de 25 milliards de dollars : 5 GW de capacité informatique, et un engagement de 100 milliards de dollars sur AWS
Marvell et Google collaborent au développement de puces d’intelligence artificielle MPU, le cours de l’action bondit de 6,3 % à l’annonce
Réalité des agents IA de la Silicon Valley : énorme gaspillage de jetons, intégration système « extrêmement chaotique », la « prochaine version de ChatGPT » selon Jensen Huang encore à confirmer
Tesla recrute massivement pour le Terafab ! Ciblant des talents spécialisés dans les puces 2 nm et l’emballage avancé à Taïwan
Google discute d’un système d’IA classifiée avec le département de la Défense des États-Unis