La communauté d’outils de développement pour l’IA connaît le 12 mai deux attaques majeures contre la chaîne d’approvisionnement, signalées le même jour : (1) Microsoft Threat Intelligence révèle que le paquet PyPI de Mistral AI a été injecté avec du code malveillant ; (2) un projet de modèle Hugging Face qui se fait passer pour OpenAI a grimpé en tête du classement des tendances, au numéro 1, en seulement 18 heures, attirant 244 000 téléchargements et dérobant de nombreux identifiants de comptes. D’après la publication de Decrypt, les deux incidents mettent en évidence la vulnérabilité de l’écosystème du développement d’IA face à la pénétration par la chaîne d’approvisionnement.
Table of Contents
Toggle
Affaire du paquet Mistral AI : attaque en deux étapes déguisée en nom de Hugging Face Transformers
Affaire du faux OpenAI sur Hugging Face : infostealer écrit en Rust en 6 étapes
Signification pour l’industrie : la chaîne d’approvisionnement de l’IA devient une nouvelle surface d’attaque
Affaire du paquet Mistral AI : attaque en deux étapes déguisée en nom de Hugging Face Transformers
Le paquet PyPI de Mistral AI (gestionnaire de paquets Python) a été injecté avec du code malveillant, révélé par Microsoft Threat Intelligence le 12 mai sur X :
Périmètre touché : paquet mistralai PyPI v2.4.6
Mode de déclenchement : exécution automatique lors de l’import du paquet sur un système Linux
Deuxième étape de la charge utile : téléchargement depuis un serveur distant de transformers.pyz, puis exécution en arrière-plan
Piège de nommage : transformers.pyz imite volontairement le nom de la bibliothèque populaire Transformers de Hugging Face
Fonction réelle : vol des identifiants de connexion des développeurs, ainsi que des access tokens ; sur certains systèmes, déclenchement d’une suppression aléatoire de fichiers situés dans les plages d’IP d’Israël ou d’Iran
Mistral a confirmé le 13 mai cette attaque contre la chaîne d’approvisionnement, tout en précisant que « l’infrastructure de Mistral n’a pas été compromise, et que l’origine de l’attaque provient d’un appareil de développeur affecté ». L’attaque est attribuée à la famille de logiciels malveillants Shai-Hulud au sens large (active depuis septembre 2025, ciblant la chaîne d’approvisionnement des paquets open source sur npm et PyPI).
Affaire du faux OpenAI sur Hugging Face : infostealer écrit en Rust en 6 étapes
En parallèle, la plateforme de modèles IA Hugging Face a vu apparaître un faux projet de modèle nommé « Open-OSS/privacy-filter », imitant intentionnellement le modèle Privacy Filter publié par OpenAI en avril :
Téléchargements cumulés : 244 000 en 18 heures
J’aime cumulés : 667 (dont 657 seraient générés par des comptes de robots)
Classement tendance : a déjà atteint la 1ère place du tableau des tendances sur Hugging Face
Commande de déclenchement : il est conseillé aux utilisateurs d’exécuter _start.bat (Windows) ou loader.py (Linux/Mac)
Comportement réel : infostealer en 6 étapes écrit en Rust, volant les données suivantes :
— Mots de passe et cookies du navigateur Chrome/Firefox
— Token Discord
— Mots de passe de phrase (seed) des portefeuilles de cryptomonnaies
— Identifiants SSH et FTP
— Captures d’écran de tous les écrans
Ce projet de modèle a été dévoilé par l’entreprise de sécurité IA HiddenLayer, et Hugging Face l’a retiré. Dans le même temps, HiddenLayer a aussi identifié 7 autres projets de modèles malveillants similaires, dont certains imitent d’autres modèles IA populaires comme Qwen3 et DeepSeek.
Signification pour l’industrie : la chaîne d’approvisionnement de l’IA devient une nouvelle surface d’attaque
Chaîne d’actualités observée : les 3 incidents liés à la chaîne d’approvisionnement de l’IA révélés cette semaine simultanément—Mistral PyPI, le faux OpenAI sur HuggingFace, et l’affaire d’exploitation de vulnérabilité de type zero-day liée à l’IA dévoilée par Google le 11/5—montrent que l’écosystème du développement d’IA est désormais devenu une priorité d’attaque pour les pirates.
Points communs aux trois affaires :
Les attaquants se déguisent en fournisseurs légitimes d’outils IA (paquets PyPI, modèles sur HuggingFace, utilitaires d’exploitation de vulnérabilité dans la fabrication de l’IA)
Les cibles visées sont « Web3 et les développeurs d’IA », un public disposant de tokens à privilèges élevés, de portefeuilles de cryptomonnaies et de comptes cloud
Parcours de blanchiment/vol rapide—pour le cas Hugging Face, 244 000 téléchargements en 18 heures, signe d’une extension rapide de la portée
Les mécanismes de vérification des grandes plateformes (PyPI, HuggingFace) sont insuffisants pour identifier instantanément des projets falsifiés
Pour les développeurs de cryptomonnaies et de Web3, ces incidents renforcent la menace mentionnée dans le rapport « 2025 : des hackers nord-coréens dérobent 2,06 milliards de dollars » publié la même semaine par CertiK : « ingénierie sociale + 6 mois d’infiltration »—en 2026, les attaquants n’ont plus besoin de pirater directement les bourses ; il leur suffit de contaminer les paquets open source utilisés par les développeurs pour obtenir indirectement les clés et les fonds correspondants.
Mesures de défense pratiques pour les développeurs individuels : vérifier les signatures et l’éditeur avant l’installation des paquets, exécuter les modèles IA nouvellement téléchargés dans une machine virtuelle isolée, faire une rotation régulière des clés API des bourses d’échange, et ne pas stocker les mots de passe de phrase des portefeuilles crypto sur un appareil connecté au réseau. Au niveau des équipes, il faut mettre en place un « SBOM (Software Bill of Materials / inventaire des composants logiciels) » et un processus de signature de la chaîne d’approvisionnement.
Les événements à suivre incluent notamment : les résultats de l’enquête sur l’intrusion des appareils internes de Mistral, si Hugging Face introduit un mécanisme de vérification plus strict pour les tendances, et les informations de suivi concernant les autres projets de modèles malveillants dévoilés par les 7 enquêtes de HiddenLayer (y compris les versions usurpées de Qwen3 et DeepSeek).
Cet article : deux attaques par infiltration de la chaîne d’approvisionnement des paquets IA, Mistral et le modèle fictif d’OpenAI, infiltrés tous deux en même temps. Apparition initiale dans Chaîne d’actualités ABMedia.
Related News
Anthropic discute d’un financement de 30 milliards de dollars, l’évaluation pourrait dépasser 900 milliards, défiant le record de valorisation du marché de l’IA
Google : de grands modèles de langage sont utilisés pour des attaques réelles, l'IA peut contourner les mécanismes de sécurité de double authentification
Google dévoile le premier cas de faille zero-day générée par l’IA : des pirates cherchent à contourner la 2FA pour une exploitation à grande échelle
Anthropic : les textes de science-fiction utilisés pour entraîner Claude Opus 4 augmentent le taux d’extorsion de 96%
OpenAI lance le programme de cybersécurité Daybreak, avec une architecture en trois niveaux de GPT-5,5 face à Anthropic Mythos