La Maison-Blanche accuse la Chine de vol de modèles d’IA à « grande échelle industrielle »

La Maison-Blanche a averti le 23 avril 2026 que des entités étrangères, principalement en Chine, mènent des campagnes « à grande échelle industrielle » pour copier des modèles d’intelligence artificielle américains, selon une note de Michael Kratsios, conseiller auprès du Président pour la science et la technologie et directeur du Bureau de la politique en matière de science et de technologie. Les campagnes emploient des dizaines de milliers de comptes-relais et des techniques de jailbreak pour extraire des capacités propriétaires et répliquer les performances des modèles, une méthode connue sous le nom d’attaque par distillation.

Tactiques et Méthodes

Selon l’administration du président Donald Trump, les efforts coordonnés utilisent des « dizaines de milliers de comptes-relais » pour contourner la détection et exploiter des techniques de jailbreak afin d’extraire systématiquement des capacités. Une attaque par distillation est une méthode d’entraînement d’un modèle IA plus petit pour apprendre à partir des sorties d’un modèle plus grand. Kratsios a déclaré sur X (anciennement Twitter): « Les États-Unis disposent de preuves que des entités étrangères, principalement en Chine, lancent des campagnes de distillation à grande échelle industrielle pour voler l’IA américaine. Nous allons prendre des mesures pour protéger l’innovation américaine. »

Précédent Historique

Le sujet suscite une inquiétude croissante parmi les entreprises américaines d’IA. En février 2026, Anthropic a accusé des laboratoires chinois d’IA DeepSeek, Moonshot et MiniMax d’extraire des millions de réponses de Claude—en utilisant environ 24 000 comptes frauduleux—pour entraîner des systèmes concurrents. Les modèles développés via des campagnes de distillation non autorisées peuvent ne pas correspondre aux performances complètes des modèles originaux, mais peuvent sembler comparables sur certains benchmarks à une fraction du coût.

Préoccupations en Matière de Sécurité

L’administration a prévenu que les attaques par distillation pourraient supprimer des garde-fous de sécurité et d’autres contrôles conçus pour maintenir les systèmes d’IA « neutres sur le plan idéologique et en quête de vérité ». L’administration Trump a déclaré que les agences fédérales travailleront avec les entreprises d’IA américaines pour renforcer les protections autour des modèles de pointe, coordonner avec le secteur privé afin d’élaborer des défenses contre les campagnes de distillation à grande échelle, et explorer des moyens de tenir les acteurs étrangers responsables.

Réponse de l’Administration

Même si la note reconnaissait que la distillation licite peut contribuer à créer des modèles open-source et open-weight plus petits et plus efficaces, elle a indiqué que les efforts non autorisés visant à copier des systèmes d’IA américains franchissent la ligne. « Il n’y a rien d’innovant à extraire systématiquement et à copier les innovations de l’industrie américaine », affirme la note.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
ElevatorMemevip
· 04-25 04:22
Cette vague de copie « industrielle » sonne vraiment exagérée.
Voir l'originalRépondre0
SlippageAfterTheRainvip
· 04-24 01:27
S'il y a vraiment une copie à grande échelle, l'empreinte numérique / la traçabilité par empreinte doit être mise en place rapidement, sinon la guerre de paroles ne s'arrêtera pas.
Voir l'originalRépondre0
YieldBonsaivip
· 04-23 22:51
Cette déclaration de la Maison Blanche semble préparer le terrain pour de futures restrictions à l'exportation et sanctions, en attisant d'abord le débat public.
Voir l'originalRépondre0
DustCollectorvip
· 04-23 22:27
En fin de compte, comment équilibrer open source et closed source ? D'un côté, on veut étendre l'écosystème, de l'autre, on craint le plagiat ou le transfert, c'est assez contradictoire.
Voir l'originalRépondre0
CheckTheBlockchainBeforevip
· 04-23 16:08
La distillation / imitation du modèle coûte en réalité très peu, le code fermé ne peut pas l'empêcher, cela augmente au maximum la barrière d'entrée.
Voir l'originalRépondre0
GateUser-1bc81bb2vip
· 04-23 15:58
Je suis plus préoccupé par la chaîne de preuve : s'agit-il spécifiquement de la fuite de poids, de la récupération via API, ou du « miroir » côté données d'entraînement ?
Voir l'originalRépondre0
NoSleepBridgevip
· 04-23 15:56
Ne vous concentrez pas seulement sur la « copie », de nombreux modèles ont des capacités qui convergent déjà, la pipeline de données et la commercialisation sont en réalité la véritable barrière.
Voir l'originalRépondre0
DustyAlphavip
· 04-23 15:53
On dirait que la compétition en intelligence artificielle va directement s'inscrire dans la narration de la sécurité nationale.
Voir l'originalRépondre0
CapitalFlowInATeacupvip
· 04-23 15:47
Une fois que l'IA entre dans un mode de « course aux armements », l'innovation s'accélère, mais les développeurs ordinaires pourraient se retrouver pris au milieu, ce qui est le plus difficile.
Voir l'originalRépondre0
0xNapvip
· 04-23 15:43
Ne serait-ce pas une occasion de promouvoir davantage la localisation de la puissance de calcul et des restrictions sur les puces ? La logique est plutôt cohérente.
Voir l'originalRépondre0
Afficher plus