Le juge rejette les allégations de fraude dans la plainte d’Elon Musk contre OpenAI ; l’affaire progresse vers un procès avec deux allégations restantes

Message de Gate News, 24 avril — Un juge fédéral a rejeté les allégations de fraude dans la plainte d’Elon Musk contre OpenAI, Sam Altman, Greg Brockman et Microsoft, ouvrant la voie à la poursuite de l’affaire devant le tribunal sur deux allégations restantes : violation de la confiance à but caritatif et enrichissement injustifié. États-Unis. Le juge de district Yvonne Gonzalez Rogers a rendu sa décision à Oakland, en Californie. La sélection du jury commence lundi (28 avril), les déclarations liminaires étant attendues mardi (29 avril).

La plainte de Musk contenait à l’origine 26 chefs d’accusation déposés en novembre 2024 ; seuls quatre restaient avant la décision de vendredi. Les allégations restantes portent sur l’affirmation de Musk selon laquelle OpenAI aurait violé sa mission à but non lucratif lorsqu’elle a créé en 2019 une filiale à but lucratif, après que Musk a quitté le conseil. Musk réclame $150 des milliards$850 de dommages et intérêts, les fonds devant être destinés à la branche non lucrative d’OpenAI. Il a également demandé la révocation d’Altman et de Brockman de leurs fonctions ainsi que le renversement de la restructuration d’OpenAI axée sur les profits.

OpenAI, désormais valorisée à plus de des milliards, a qualifié la plainte de « sans fondement » et l’a décrite comme une « campagne de harcèlement ». Le calendrier est significatif : OpenAI explore une éventuelle introduction en bourse sur le marché public au quatrième trimestre, tandis que Musk prépare SpaceX à une IPO record. En outre, xAI et X ont déposé des plaintes distinctes pour concurrence déloyale contre OpenAI et Apple ; une audience dans cette affaire est prévue en mai au Texas. Musk a cofondé OpenAI en 2015 avant de lancer xAI en 2023 en tant que concurrent ; xAI a récemment fusionné avec SpaceX dans une opération valorisant l’entité combinée à 1,25 billion de dollars.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Un juge américain estime que la réduction de la subvention pour DOGE est illégale après l’utilisation de ChatGPT et de mots-clés liés au DEI, et bloque son application jeudi

D’après ABC News, jeudi, une juge fédérale américaine a statué que les coupes de subventions menées par le DOGE, soutenu par Elon Musk, étaient illégales. La juge de district Colleen McMahon, à New York, a déclaré que le personnel avait utilisé ChatGPT et des recherches par mots-clés, incluant « DEI », « Equity », « Inclusion » et « LGBTQ », pour aider à interrompre des programmes de financement au sein du National Endowment for the Humanities. La magistrate a empêché l’administration Trump d’ap

GateNewsIl y a 43m

Un responsable de la BCE déclare que les risques liés à l’IA pousseront à une révision de l’infrastructure financière ce samedi

José Luis Escrivá, membre du Conseil des gouverneurs de la Banque centrale européenne et gouverneur de la Banque d’Espagne, a déclaré samedi que les banques centrales doivent évaluer la résilience des infrastructures financières et la cybersécurité, compte tenu de l’essor de l’intelligence artificielle. « Les développements récents de l’intelligence artificielle nous obligent à réévaluer la robustesse de notre infrastructure financière et de notre cybersécurité », a déclaré Escrivá lors d’un évé

GateNewsIl y a 1h

L’action Cloudflare chute de 23,62 % le 8 mai après des résultats du T1 et l’annonce de licenciements de 1 100 employés

Les actions de Cloudflare ont chuté de 23,62 % le 8 mai, à 196,13 dollars par action, après la publication des résultats du premier trimestre de l'entreprise et l’annonce d’environ 1 100 suppressions de postes. Si le chiffre d’affaires du T1, à 640 millions de dollars, a dépassé les attentes avec une croissance de 34 % d’une année sur l’autre, les prévisions de chiffre d’affaires pour le deuxième trimestre de 664–665 millions de dollars ont été inférieures à l’attente du marché précédente de 666

GateNewsIl y a 2h

Helsing vise à lever des fonds à une valorisation de 18 milliards de dollars

Selon le Financial Times, Helsing, une start-up allemande de drones alimentés par l’IA, prévoit de lever de nouveaux fonds à une valorisation d’environ 18 milliards de dollars.

GateNewsIl y a 3h

L’IA co-mathématicienne de Google DeepMind atteint 47,9 % sur FrontierMath, catégorie 4, dépasse GPT-5,5 Pro, et résout 3 problèmes précédemment impossibles

Google DeepMind a publié AI co-mathématicien, un assistant de recherche en mathématiques multi-agents, atteignant 47,9% de précision sur le banc d’essai FrontierMath de niveau 4, dépassant l’ancien record de 39,6% de GPT-5.5 Pro le 9 mai. Le système a résolu 23 problèmes sur 48, dont 3 que tous les modèles précédents n’avaient pas réussi à résoudre. Construit sur Gemini 3.1 Pro, l’architecture utilise une conception hiérarchique avec un agent coordinateur de projet qui distribue les tâches à des

GateNewsIl y a 3h

Le système de récompense d'OpenAI évalue par inadvertance des chaînes de raisonnement sur 6 modèles, dont GPT-5.4

D’après l’équipe d’alignement d’OpenAI, l’entreprise a récemment découvert une erreur d’entraînement critique affectant 6 grands modèles de langage, dont GPT-5.4. En pratique : le mécanisme de récompense a involontairement évalué des enchaînements de réflexion du modèle, c’est-à-dire le processus de raisonnement interne avant de générer des réponses. GPT-5.5 n’a pas été concerné. L’incident enfreint un principe fondamental de sécurité de l’IA, selon lequel les enchaînements de réflexion ne doive

GateNewsIl y a 5h
Commentaire
0/400
Aucun commentaire