OpenAI, Anthropic lancent des services d’IA financés par des prises de participation (PE) via des acquisitions et des entreprises d’investissement

OpenAI et Anthropic s’associent séparément à des fonds de private equity pour acquérir des sociétés de services qui aident les entreprises à déployer l’intelligence artificielle, d’après Reuters. Ces opérations visent à sécuriser des ingénieurs et des consultants pour déployer leurs modèles d’IA auprès de clients professionnels.

Société de déploiement d’OpenAI

La coentreprise d’OpenAI, appelée The Deployment Company, est en pourparlers avancés sur trois opérations et lève environ 4 milliards de dollars auprès de 19 investisseurs, selon Reuters. Parmi les principaux investisseurs figurent TPG, Bain Capital et Brookfield Asset Management. The Deployment Company affiche une valorisation de 10 milliards de dollars avant la nouvelle levée de fonds.

OpenAI détiendra et contrôlera la majeure partie de la coentreprise. La structure transforme les partenaires de private equity en canal de vente prêt à l’emploi auprès de plus de 2 000 entreprises qu’ils détiennent ou conseillent, indique la source.

Stratégie d’Anthropic

Anthropic poursuit une stratégie similaire et a levé 1,5 milliard de dollars auprès d’investisseurs comprenant Blackstone, Hellman & Friedman et Goldman Sachs, d’après Reuters. La majeure partie des fonds devrait financer l’acquisition de sociétés d’ingénierie et de conseil.

Anthropic veut intégrer son système d’IA Claude dans les opérations quotidiennes d’entreprises de taille intermédiaire, notamment des banques communautaires et des systèmes de santé régionaux, selon la source.

Contexte stratégique

Les deux entreprises pourraient aller vers des introductions en bourse dès cette année, selon le rapport. Ces coentreprises marquent un changement dans la manière dont les sociétés d’IA abordent l’adoption du marché : au lieu d’opérer comme des activités logicielles à forte marge avec des besoins de services limités, OpenAI et Anthropic prennent en charge un travail de service très concret pour soutenir le déploiement dans les opérations réelles des entreprises.

La stratégie fait écho aux approches utilisées par des sociétés comme Palantir, qui place des ingénieurs au sein des opérations des clients pour adapter le logiciel à chaque contexte. D’après Reuters, l’adoption de l’IA par les entreprises dépend encore de personnes qualifiées, soulignant la nécessité de consultants et d’ingénieurs en plus de la qualité des modèles.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Conflit en mode code d’Anthropic : MCP vs CLI — les outils bloquent le runtime, les tokens passent de 150 000 à 2 000

En 2025, la communauté d’ingénierie IA a beaucoup débattu sur la question « MCP vs CLI » pour savoir ce qui convient le mieux aux appels d’outils des agents, et la publication par Anthropic en novembre 2025 de l’article « Code execution with MCP » a redéfini le problème à partir des principes fondamentaux. akshay\pachaar a résumé le thread le 5/10 : le problème ne vient jamais du protocole lui-même, mais de la vieille habitude consistant à empiler toutes les descriptions d’outils dans le context

ChainNewsAbmediaIl y a 2h

ByteDance prévoit une hausse de 25 % de ses dépenses d'infrastructure pour l'IA, à 200 milliards de yuans cette année

D’après ChainCatcher citant Golden Data, ByteDance prévoit d’augmenter ses dépenses en infrastructure d’IA de 25 % pour atteindre 200 milliards de yuans cette année, sous l’effet de la hausse des coûts des puces mémoire et de l’accélération du développement de l’intelligence artificielle.

GateNewsIl y a 2h

La plateforme d’IA d’entreprise met fin à son cycle de financement $16M , dirigé par a16z

D’après Odaily, la plateforme d’IA d’entreprise Pit a annoncé l’achèvement d’une levée de fonds de 16 millions de dollars menée par a16z, avec la participation de Lakestar et d’exécutifs d’OpenAI, d’Anthropic, de Google, de Deel et de Revolut. Pit se positionne comme « une équipe produit d’IA en tant que service », conçue pour remplacer les tableurs traditionnels et des systèmes SaaS rigides.

GateNewsIl y a 2h

Google lance des tests de recrutement qui permettent aux ingénieurs d’utiliser des outils d’IA

D’après The Chosun Daily, Google teste des examens de recrutement qui permettent à des candidats américains ingénieurs logiciels d’utiliser des outils d’IA pour des postes sélectionnés de début de carrière et de niveau intermédiaire. L’essai comprend des tâches de compréhension de code dans lesquelles les candidats examinent du code existant, corrigent des bugs et améliorent les performances. Les recruteurs évalueront la façon dont les candidats sollicitent l’IA, vérifient ses réponses, modifien

GateNewsIl y a 5h

OpenAI met fin à l’API de fine-tuning, de manière effective immédiatement. Les utilisateurs existants peuvent encore y accéder jusqu’au 6 janvier 2027

D’après l’annonce officielle d’OpenAI surveillée par Beating, la société cesse son API de Fine-tuning en libre-service pour les développeurs, à compter de maintenant. Les nouveaux utilisateurs ne peuvent plus créer de tâches de fine-tuning, tandis que les utilisateurs actifs existants peuvent accéder au service jusqu’au 6 janvier 2027. Les modèles fine-tunés déployés verront leurs services d’inférence liés au cycle de vie de leurs modèles de base, et ils cesseront lorsque le modèle de base sera

GateNewsIl y a 5h

Sakana AI et Nvidia atteignent une inférence H100 30% plus rapide en sautant 80% des calculs invalides

Sakana AI et Nvidia ont open-sourcé TwELL, un format de données clairsemées qui permet aux GPU H100 d’ignorer 80% des calculs invalides dans les grands modèles de langage sans perte de précision. La solution offre jusqu’à 30% d’inférence plus rapide et 24% d’entraînement plus rapide sur des H100, tout en réduisant l’usage maximal de mémoire. Lors de tests sur un modèle de 1,5 milliard de paramètres, l’approche a ramené les neurones actifs à moins de 2% grâce à une régularisation légère pendant l

GateNewsIl y a 6h
Commentaire
0/400
GasFeeAnxietyvip
· 05-06 02:36
PE entrer sur le marché des services de déploiement d'IA est une affaire lucrative, la valorisation ne sera pas faible
Voir l'originalRépondre0
BittersweetArbvip
· 05-06 01:32
Passer de la vente d'API à la vente de solutions, les grandes entreprises ont enfin compris que les clients d'entreprise veulent une solution de bout en bout, pas un modèle nu
Voir l'originalRépondre0
GateUser-0c86a4c9vip
· 05-06 01:30
Entreprises de conseil : d'abord elles ont pris nos données, maintenant elles viennent pour nos gens 💀
Voir l'originalRépondre0
BudgetValidatorvip
· 05-06 01:18
OpenAI et Anthropic veulent-ils prendre la place des cabinets de conseil ? À l'avenir, vendre des modèles devra aussi inclure leur déploiement, ça devient très compétitif.
Voir l'originalRépondre0