Un employé d'une société d'ingénierie britannique a rejoint un appel vidéo de routine avec son directeur financier et 5 collègues en 2024


Il a autorisé des transferts de 25,6 MILLIONS de dollars en se basant sur ce qui a été discuté, mais ce qu'il ne savait pas, c'est que chaque personne sur cet appel, sauf lui, était une deepfake IA
La société s'appelait Arup. Une société de conception et d'ingénierie britannique avec 18 500 employés répartis dans 34 bureaux
Toute cette attaque a commencé par un seul email
Un employé de la finance dans le bureau d'Arup à Hong Kong a reçu un message prétendant venir du directeur financier basé au Royaume-Uni de la société
L'email faisait référence à une "transaction secrète" qui devait être traitée de toute urgence et de manière confidentielle
L'employé pensait qu'il s'agissait d'une tentative de phishing. Il avait raison d'être méfiant, mais ensuite les attaquants ont escaladé la situation
Ils l'ont invité à une visioconférence pour vérifier que la demande était réelle. Il a rejoint en s'attendant à découvrir qu'il s'agissait d'une arnaque
Le directeur financier était en ligne. Plusieurs autres collègues seniors qu'il reconnaissait aussi. Ils l'ont salué par son nom
Ils ont discuté en détail de la transaction en utilisant la terminologie interne de l'entreprise. Ils ont évoqué des projets en cours que seuls les initiés connaissaient
Leurs visages bougeaient naturellement, leurs voix semblaient parfaitement authentiques, et ils ont eu de vraies conversations entre eux et avec lui
Il a cessé d'être méfiant et, suivant les instructions lors de l'appel, il a effectué 15 transferts bancaires distincts totalisant 200 millions HK$ (25,6 MILLIONS de dollars) vers cinq comptes bancaires différents à Hong Kong dans les jours suivants
La fraude n'a été découverte que lorsqu'il a contacté le siège britannique pour faire le point sur le projet. Le vrai directeur financier n'avait jamais entendu parler de la transaction. Les autres collègues présents n'avaient jamais été en ligne
Chaque visage sur cet écran était une deepfake
La police de Hong Kong a enquêté... Les attaquants avaient créé des deepfakes IA sophistiqués de tous les dirigeants en récoltant des vidéos et audios disponibles publiquement lors de conférences en ligne, réunions virtuelles d'entreprise, et appels de résultats financiers
Arup disposait de plusieurs heures de vidéos publiques de ses dirigeants
Les deepfakes n'étaient pas préenregistrés, ils fonctionnaient en temps réel. Chaque participant fake pouvait parler, réagir, répondre, et engager un dialogue non scripté avec la victime
Les emails de phishing simples sont souvent détectés. Les appels téléphoniques avec clonage vocal ont un taux de réussite plus élevé, mais échouent toujours si la victime demande une confirmation écrite
Les appels vidéo deepfake à plusieurs personnes résolvent ces deux problèmes simultanément. On ne peut pas demander de vérification quand on vérifie déjà de ses propres yeux
Dans la même enquête, la police de Hong Kong a découvert une opération liée. Huit cartes d'identité hongkongaises volées ont été utilisées pour faire 90 demandes de prêt et 54 enregistrements de comptes bancaires
Les deepfakes IA ont réussi à contourner les systèmes de reconnaissance faciale au moins 20 fois pour vérifier ces identités comme légitimes
La technologie est désormais suffisamment mature pour tromper à la fois la vérification humaine (appels vidéo) et la vérification automatique (KYC par reconnaissance faciale)
Rob Greig, directeur des systèmes d'information d'Arup, a confirmé que la société a été victime d'attaques "en forte hausse" et il estime que le coût mondial de la fraude assistée par IA atteindra 40 MILLIARDS de dollars d'ici 2027
La perte d'Arup s'élève à 25,6 millions de dollars d'un seul employé de la finance lors d'un seul appel. C'est la fraude par deepfake la plus réussie jamais enregistrée publiquement
L'enquête reste ouverte et aucune arrestation n'a été effectuée. Les fonds ont été dispersés sur plusieurs comptes en quelques heures après les transferts, et la plupart ont déjà été blanchis hors du système bancaire de Hong Kong
Pour être prudent, il vaut mieux :
Demander à la personne en ligne de tourner la tête et de montrer son profil complet, car le modèle deepfake se brise généralement à des angles extrêmes
Lui demander de changer l’éclairage dans sa pièce, car les deepfakes ont du mal avec des changements soudains d’éclairage
Lui demander de prendre un objet au hasard et de le montrer à la caméra, car le modèle bug souvent lorsqu'il intègre de vrais objets dans le visage synthétique
Ces vérifications fonctionnent aujourd'hui. Elles ne fonctionneront plus très longtemps
La plus grande leçon de cette attaque concerne ce que cela prouve pour la prochaine décennie de la finance d'entreprise
Chaque dirigeant de chaque société cotée a des heures de vidéos enregistrées sur YouTube, LinkedIn, lors des appels de résultats, et dans des panels de conférences. Ces vidéos constituent le jeu de données d'entraînement pour tout attaquant souhaitant créer un deepfake d'eux
Une source d'inquiétude
Voir l'original
post-image
post-image
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler