De acordo com a Decrypt, os atacantes inseriram código malicioso no pacote de software da Mistral AI distribuído via PyPI. Quando os desenvolvedores usam o pacote em sistemas Linux, o código malicioso executa automaticamente, baixando um arquivo chamado transformers.pyz de um servidor remoto e executando-o em segundo plano. O nome do arquivo imita a amplamente usada biblioteca Hugging Face Transformers. A equipe de inteligência de ameaças da Microsoft afirmou que o malware principalmente rouba credenciais de login de desenvolvedores e tokens de acesso. A Mistral confirmou que uma máquina de um desenvolvedor foi comprometida, mas a infraestrutura da empresa permaneceu inafetada.
Related News
Ataques em cadeia envolvendo dois vetores: o supply chain é atingido com o Mistral e um modelo OpenAI falso também é comprometido
Google: modelos de linguagem de grande porte estão sendo usados para ataques reais, e a IA pode contornar mecanismos de segurança de autenticação em duas etapas
Google revela o primeiro caso de vulnerabilidade zero-day criada por IA: hackers tentam burlar a 2FA em larga escala