Anthropic engage $200B avec Google Cloud sur cinq ans

Anthropic a accepté de dépenser 200 milliards de dollars en services Google Cloud sur cinq ans, selon Reuters. Cet engagement représente plus de 40 % du carnet de revenus cloud divulgué par Alphabet, et les actions d’Alphabet ont augmenté d’environ 2 % dans les échanges hors séance à la suite de l’annonce.

Détails de l’accord et impact sur Alphabet

L’engagement sur cinq ans souligne la demande croissante d’Anthropic en capacité de calcul. Alphabet investit par ailleurs jusqu’à 40 milliards de dollars dans la startup, renforçant la relation entre le fournisseur de cloud et la société d’IA.

Accords d’infrastructure connexes

Anthropric a également signé un accord en avril avec Google et Broadcom pour plusieurs gigawatts de capacité de tensor processing unit (TPU) à partir de 2027. Cette configuration complète l’engagement plus large envers Google Cloud et signale une planification d’infrastructure à long terme.

Stratégie multi-cloud et croissance des revenus

Malgré l’engagement envers Google, Anthropic conserve une approche cloud diversifiée. Amazon reste le principal fournisseur de cloud et partenaire de formation d’Anthropic. La startup répartit Claude sur les Tensor Processing Units (TPU) de Google, les puces d’IA Trainium d’Amazon et les unités de traitement graphique (GPU) de NVIDIA, en affectant chaque charge de travail au matériel le mieux adapté à la tâche.

Les besoins en calcul d’Anthropric augmentent avec la croissance de son activité. Les revenus au rythme annuel de la société sont passés d’environ 9 milliards de dollars à la fin de 2025 à plus de 30 milliards de dollars en 2026.

Contexte plus large du marché du cloud

L’accord d’Anthropic reflète une concurrence qui s’intensifie pour l’infrastructure d’IA. Les grands acteurs du cloud, dont Microsoft, Amazon, Google et Oracle, prévoient de dépenser plus de 320 milliards de dollars en dépenses d’investissement au titre de l’exercice 2025. Ces dépenses sont liées à des revenus futurs substantiels déjà contractés : Microsoft affiche 627 milliards de dollars d’obligations de performance restantes commerciales (RPO), tandis qu’Alphabet indique un carnet d’environ 462 milliards de dollars.

L’ampleur des investissements requis crée des barrières importantes à l’entrée. Seules les plus grandes entreprises peuvent financer l’infrastructure dont les sociétés d’IA ont besoin, ce qui les contraint généralement à des contrats étendus. Les études de marché estiment que le marché de l’infrastructure d’IA atteindra 947,46 milliards de dollars d’ici 2035.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Conflit en mode code d’Anthropic : MCP vs CLI — les outils bloquent le runtime, les tokens passent de 150 000 à 2 000

En 2025, la communauté d’ingénierie IA a beaucoup débattu sur la question « MCP vs CLI » pour savoir ce qui convient le mieux aux appels d’outils des agents, et la publication par Anthropic en novembre 2025 de l’article « Code execution with MCP » a redéfini le problème à partir des principes fondamentaux. akshay\pachaar a résumé le thread le 5/10 : le problème ne vient jamais du protocole lui-même, mais de la vieille habitude consistant à empiler toutes les descriptions d’outils dans le context

ChainNewsAbmediaIl y a 2h

ByteDance prévoit une hausse de 25 % de ses dépenses d'infrastructure pour l'IA, à 200 milliards de yuans cette année

D’après ChainCatcher citant Golden Data, ByteDance prévoit d’augmenter ses dépenses en infrastructure d’IA de 25 % pour atteindre 200 milliards de yuans cette année, sous l’effet de la hausse des coûts des puces mémoire et de l’accélération du développement de l’intelligence artificielle.

GateNewsIl y a 2h

La plateforme d’IA d’entreprise met fin à son cycle de financement $16M , dirigé par a16z

D’après Odaily, la plateforme d’IA d’entreprise Pit a annoncé l’achèvement d’une levée de fonds de 16 millions de dollars menée par a16z, avec la participation de Lakestar et d’exécutifs d’OpenAI, d’Anthropic, de Google, de Deel et de Revolut. Pit se positionne comme « une équipe produit d’IA en tant que service », conçue pour remplacer les tableurs traditionnels et des systèmes SaaS rigides.

GateNewsIl y a 2h

Google lance des tests de recrutement qui permettent aux ingénieurs d’utiliser des outils d’IA

D’après The Chosun Daily, Google teste des examens de recrutement qui permettent à des candidats américains ingénieurs logiciels d’utiliser des outils d’IA pour des postes sélectionnés de début de carrière et de niveau intermédiaire. L’essai comprend des tâches de compréhension de code dans lesquelles les candidats examinent du code existant, corrigent des bugs et améliorent les performances. Les recruteurs évalueront la façon dont les candidats sollicitent l’IA, vérifient ses réponses, modifien

GateNewsIl y a 5h

OpenAI met fin à l’API de fine-tuning, de manière effective immédiatement. Les utilisateurs existants peuvent encore y accéder jusqu’au 6 janvier 2027

D’après l’annonce officielle d’OpenAI surveillée par Beating, la société cesse son API de Fine-tuning en libre-service pour les développeurs, à compter de maintenant. Les nouveaux utilisateurs ne peuvent plus créer de tâches de fine-tuning, tandis que les utilisateurs actifs existants peuvent accéder au service jusqu’au 6 janvier 2027. Les modèles fine-tunés déployés verront leurs services d’inférence liés au cycle de vie de leurs modèles de base, et ils cesseront lorsque le modèle de base sera

GateNewsIl y a 5h

Sakana AI et Nvidia atteignent une inférence H100 30% plus rapide en sautant 80% des calculs invalides

Sakana AI et Nvidia ont open-sourcé TwELL, un format de données clairsemées qui permet aux GPU H100 d’ignorer 80% des calculs invalides dans les grands modèles de langage sans perte de précision. La solution offre jusqu’à 30% d’inférence plus rapide et 24% d’entraînement plus rapide sur des H100, tout en réduisant l’usage maximal de mémoire. Lors de tests sur un modèle de 1,5 milliard de paramètres, l’approche a ramené les neurones actifs à moins de 2% grâce à une régularisation légère pendant l

GateNewsIl y a 6h
Commentaire
0/400
VinylRecordStakingvip
· 05-08 12:40
Après la hausse de 2 % après la clôture d'Alphabet, tout le monde était ravi, ce backlog a directement augmenté de quarante pour cent
Voir l'originalRépondre0
GateUser-76132f7dvip
· 05-06 01:46
les taureaux reviennent plus tard
Voir l'originalRépondre0
BlueGlassJellyvip
· 05-06 01:40
Cinq ans, deux milliards, en moyenne quarante millions par an, cette vitesse de dépense est plus agressive que l'entraînement de Claude 3
Voir l'originalRépondre0
IdleFishDaoMembervip
· 05-06 01:39
Dès que cette nouvelle de Reuters est sortie, le secteur du cloud computing va à nouveau s'aligner à l'ouverture demain.
Voir l'originalRépondre0
GateUser-3ea647ecvip
· 05-06 01:31
LFG 🔥
Répondre0
BluePeonyAlertvip
· 05-06 01:28
Anthropic mise sur GCP, OpenAI mise sur Microsoft Azure, la guerre des grands modèles devient une guerre d'agents des fournisseurs de cloud
Voir l'originalRépondre0
GateUser-3e7da866vip
· 05-06 01:28
2 milliards de dollars sur cinq ans, Claude veut-il transformer Google Cloud en ses propres centres de données ?
Voir l'originalRépondre0
MaryAnnavip
· 05-06 01:27
😊😊😊
Répondre0
BlindCryptoMamavip
· 05-06 01:25
Bonjour monsieur. veuillez 🙏 me suivre. Je vous rends la pareille ! 🎉 merci
Voir l'originalRépondre0
Afficher plus