Oubliez les escroqueries par sextorsion, nous sommes plus préoccupés par le ransomware deepfake

Oubliez les escroqueries par sextorsion, nous sommes plus préoccupés par le ransomware deepfake

L'appétit pour les escroqueries profondes augmente parmi les utilisateurs de forums clandestins, ce qui fait craindre que la technologie puisse être utilisée dans des attaques de rançongiciels basées sur l'extorsion. Les deepfakes sont des vidéos et des images générées par l'IA qui transplantent le visage d'un autre individu, traditionnellement une célébrité ou un politicien, dans une scène où il n'était pas présent à l'origine. Ces dernières années, les deepfakes ont été principalement utilisés pour diffuser de fausses nouvelles et créer des canulars pornographiques, et sont devenus de plus en plus convaincants. Selon un rapport de la société de sécurité Trend Micro, la technologie deepfake pourrait bientôt être utilisée pour faire chanter des membres du public ou du personnel afin qu'ils révèlent des informations sensibles ou paient des rançons importantes.

deepfake rançongiciel

Dans le cadre d'une enquête plus large sur les tendances des forums de cybercriminalité et des marchés clandestins, Trend Micro a constaté que les membres du forum s'intéressaient de plus en plus à la possibilité de monétiser la technologie contrefaite. Selon la firme, les utilisateurs du forum clandestin discutent souvent de la manière dont l'IA pourrait être utilisée pour "eWhoring" (ou sextorsion) et contourner l'authentification Face ID, en particulier sur les sites de rencontres. Alors que les attaques de sextorsion s'appuyaient traditionnellement sur des techniques d'ingénierie sociale pour manipuler la victime afin d'obtenir une rançon en crypto-monnaie, Trend Micro craint que la sophistication croissante des deepfakes ne conduise à des escroqueries à la réputation de ce type. 'tous les plus puissants. « Une image ou une vidéo réelle ne serait pas nécessaire. Il est plus efficace de faire chanter les gens, car les cybercriminels n'auraient pas à compromettre socialement quelqu'un dans une position compromettante", indique le rapport. "L'attaquant commence par une vidéo Deepfake incriminante, créée à partir de vidéos du visage de la victime et d'échantillons de voix collectés sur les réseaux sociaux. Pour faire pression sur la victime, l'attaquant pourrait lancer un compte à rebours et inclure un lien vers une fausse vidéo… Si la victime ne paie pas avant la date limite, tous les contacts de son carnet d'adresses recevront le lien." Sur la base de son analyse des communautés clandestines, Trend Micro estime que l'utilisation de deepfakes pour les rançongiciels basés sur l'extorsion devrait décoller dans un avenir proche. Bien que des attaques de ce type n'aient pas encore été identifiées dans la nature, on pense qu'une variété de groupes démographiques différents pourraient être impliqués. rités et adolescents civils.