Fuite sur le débat à la Maison-Blanche concernant un mécanisme d’enquête préalable par l’IA, les déclarations de Hassett démenties officiellement le lendemain

白宮AI預審機制討論

Le directeur du Conseil économique national (NEC) de la Maison-Blanche, Kevin Hassett, a déclaré lors d’une interview accordée à Fox Business le 7 mai que l’administration Trump étudie la possibilité d’exiger, par décret, que des modèles d’IA passent un contrôle de sécurité gouvernemental avant leur publication publique. Il a fait une analogie avec la procédure d’autorisation préalable à la mise sur le marché appliquée par la FDA aux médicaments. Mais, selon Politico du 8 mai, des responsables de haut niveau de la Maison-Blanche ont ensuite qualifié ces propos de « sortie de son contexte ».

Déroulement de l’événement : Le rapport du New York Times révèle des contradictions de politique à la Maison-Blanche

Le 4 mai 2026, le New York Times a rapporté que la Maison-Blanche étudiait la mise en place d’un mécanisme d’examen préalable à la publication des modèles d’IA, à l’époque présenté comme « envisagé ». Le 7 mai 2026, lors de son interview sur Fox Business, Kevin Hassett a déclaré publiquement : « Nous étudions la possibilité, par décret, d’exiger que l’IA potentiellement génératrice de vulnérabilités ne soit déployée qu’après avoir démontré sa sécurité — comme pour les médicaments de la FDA. »

Dans la nuit du 7 mai 2026, le chef de cabinet de la Maison-Blanche, Susie Wiles, a publié sur la plateforme X : le gouvernement « n’a pas à choisir les gagnants et les perdants », et a affirmé que le déploiement sécurisé de technologies puissantes devrait être porté par « les innovateurs exceptionnels des États-Unis plutôt que par des organismes bureaucratiques ». D’après les archives de son compte officiel, ce message constitue le quatrième contenu publié depuis la création du compte de Wiles.

D’après Politico, citant trois personnes informées sous couvert d’anonymat, la Maison-Blanche discute de la possibilité de faire procéder à une évaluation préalable par des agences de renseignement avant la publication publique des modèles d’IA. Un responsable du gouvernement américain interrogé dans l’article a indiqué que l’un des objectifs était « de permettre au milieu du renseignement d’étudier et d’exploiter d’abord ces outils avant que des adversaires comme la Russie et la Chine ne comprennent les nouvelles capacités ».

Organismes concernés et cadre de politique

CAISI élargit les accords d’évaluation de sécurité volontaires

Le Centre américain des normes et de l’innovation en IA (CAISI), rattaché au ministère du Commerce, a annoncé cette semaine avoir conclu des accords d’évaluation de sécurité de l’IA avec Google DeepMind, Microsoft et xAI. Le périmètre a été élargi à OpenAI et Anthropic, déjà inclus auparavant. Le cadre d’évaluation volontaire de la CAISI est en vigueur depuis 2024.

Le sous-ministre à la Défense soutient publiquement un mécanisme d’évaluation préalable

Le sous-secrétaire adjoint à la Défense, Emil Michael, a, le 8 mai 2026, lors d’une conférence sur l’IA à Washington, apporté son soutien public à une évaluation préalable gouvernementale avant la publication de modèles d’IA. Dans son intervention, il a cité le système Mythos d’Anthropic comme cas de référence, affirmant que ces modèles « finiront tôt ou tard par apparaître » et que le gouvernement doit mettre en place un mécanisme de réponse.

Contexte de politique de l’administration Trump et d’Anthropic

D’après Politico, le secrétaire à la Défense Pete Hegseth a, en mars 2026, inscrit Anthropic sur une liste de risques en invoquant des risques liés à la chaîne d’approvisionnement, et a interdit l’utilisation de ses modèles dans les contrats du ministère de la Défense. Par la suite, Trump a demandé séparément aux agences fédérales de cesser d’utiliser les produits d’Anthropic dans un délai de six mois. Dans le même temps, le mois dernier, Anthropic a révélé que son système d’IA Mythos possédait une capacité puissante d’exploration de vulnérabilités logicielles, dépassant les seuils de sécurité avant publication publique, et plusieurs agences fédérales ont alors présenté des demandes d’accès. Le 8 mai 2026, OpenAI a annoncé un aperçu limité de GPT-5.5-Cyber, un nouvel outil capable de détecter et de corriger des failles de cybersécurité.

Positions d’opposition de l’industrie au mécanisme d’examen obligatoire

Le président du Information Technology and Innovation Foundation (ITIF), Daniel Castro, a déclaré dans un article de Politico : « Si l’on peut refuser l’approbation avant mise sur le marché, c’est un gros problème pour toute entreprise. Si un concurrent obtient l’approbation mais pas un autre, l’écart de quelques semaines ou de quelques mois pour l’accès au marché aura un impact énorme. » Les financeurs de l’ITIF incluent Anthropic, Microsoft et Meta.

Dans le même article, un haut responsable de la Maison-Blanche a déclaré : « Il y a bien un ou deux individus très enthousiastes à l’idée de la surveillance du gouvernement, mais ils ne sont qu’une minorité. » Le responsable a obtenu l’anonymat au motif de la description de discussions de politique sensible.

Questions fréquentes

À quel moment et où Kevin Hassett a-t-il tenu ses propos sur l’évaluation préalable de l’IA ?

D’après Politico, Kevin Hassett a, le 7 mai 2026, lors d’une interview accordée à Fox Business, déclaré publiquement que le gouvernement étudiait un décret exigeant que les modèles d’IA passent un contrôle de sécurité gouvernemental avant d’être publiés, en faisant l’analogie avec le processus d’approbation de la FDA pour les médicaments.

Sur quoi la Maison-Blanche fonde-t-elle le démenti des propos de Hassett ?

Selon Politico du 8 mai 2026, un responsable de haut niveau de la Maison-Blanche a déclaré que les propos de Hassett « relevaient quelque peu du hors-sujet », et que l’orientation de la Maison-Blanche consiste à établir des partenariats avec les entreprises plutôt qu’à déployer une surveillance gouvernementale. Le chef de cabinet Susie Wiles a, par ailleurs, publié un message réitérant que le gouvernement ne s’immisce pas dans les choix du marché.

Quels nouveaux accords d’évaluation de sécurité de l’IA CAISI ajoute-t-il cette semaine ?

D’après la déclaration de CAISI cette semaine, ces accords supplémentaires couvrent Google DeepMind, Microsoft et xAI, en plus de OpenAI et Anthropic déjà inclus. Le cadre d’évaluation volontaire est en vigueur depuis 2024.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Les risques géopolitiques en tête du sondage de printemps de la Réserve fédérale, l’IA progresse jusqu’à la troisième place

D’après l’enquête de printemps 2026 de la Réserve fédérale, les risques géopolitiques sont apparus comme la principale préoccupation des répondants, gagnant une place par rapport à l’enquête d’automne 2025. L’intelligence artificielle est passée à la troisième place depuis la cinquième, tandis que le crédit privé est monté à la quatrième place depuis la neuvième. L’inflation et

GateNewsIl y a 2h

Les GPT-5.5-Cyber d’OpenAI pour armer les défenseurs de la cybersécurité

OpenAI a publié GPT-5.5-Cyber pour des défenseurs de la cybersécurité vérifiés, leur offrant des garde-fous réduits pour des flux de travail de sécurité spécialisés. Résumé GPT-5.5-Cyber d'OpenAI est le modèle le plus permissif de sa gamme, disponible en aperçu limité pour des partenaires approuvés réalisant des travaux de sécurité avancés. Vérifié

CryptonewsIl y a 3h

SoftBank réduit le plan de financement soutenu par OpenAI de $10B à $6B au milieu des inquiétudes des prêteurs

D’après ChainCatcher, le groupe SoftBank réduit un plan de financement soutenu par des actions d’OpenAI, en passant d’environ 10 milliards de dollars à 6 milliards de dollars. Les prêteurs ont soulevé des inquiétudes au sujet de la structure de la transaction et de la fiabilité de l’évaluation d’OpenAI en tant qu’entreprise privée, devenant un élément clé

GateNewsIl y a 7h

Step Audio 2,5 Realtime est sorti : score subjectif 80,41, écrase GPT-Realtime-1.5 de 18 %, les appels vocaux coûtent 3,8 yuan/heure

Selon Beating, Step Audio 2,5 Realtime, un modèle vocal temps réel de bout en bout par Step Cosmos, a été lancé sur son API de plateforme ouverte en avril 2026. Le modèle met l’accent sur des conversations naturelles avec des personas de personnages personnalisables et une perception paralinguistique (ton, pauses, soupirs). Dans officiel

GateNewsIl y a 7h

Le fonds TCI se déleste de près de $8B en actions Microsoft, invoquant une menace liée à l’IA

D’après le Financial Times, le hedge fund de Chris Hohn, TCI, s’est récemment désengagé d’environ 8 milliards de dollars d’actions de Microsoft. Le fonds a indiqué aux investisseurs que l’intelligence artificielle représente une menace pour la position dominante de Microsoft dans les logiciels

GateNewsIl y a 8h

Tessera Labs clôture une levée de fonds $60M menée par a16z

Selon Odaily, la startup d’automatisation par l’IA Tessera Labs a annoncé la finalisation d’une levée de fonds de 60 millions de dollars menée par Andreessen Horowitz (a16z), avec la participation de Foundation Capital, Myriad Venture Partners et Osage University Partners. La plateforme native d’IA de la société automatise les entreprises

GateNewsIl y a 10h
Commentaire
0/400
Aucun commentaire