Les faux profils LinkedIn utilisent des portraits générés par l'IA pour se faire passer pour des entreprises

Les faux profils LinkedIn utilisent des portraits générés par l'IA pour se faire passer pour des entreprises

Créer de faux comptes de médias sociaux pour tromper les gens n'est pas une nouvelle tactique, mais il y a quelque chose de sinistre dans cette nouvelle campagne qui la distingue de la foule.

Une analyse approfondie publiée sur le blog KrebsOnSecurity affirme que les cybercriminels utilisent l'intelligence artificielle (IA) pour créer des photos de profil de personnes inexistantes et associer ces informations à la description de poste volée (s'ouvre dans un nouvel onglet) à de vraies personnes sur LinkedIn.

De cette façon, ils créent de faux profils qui, pour la plupart des gens, sont presque impossibles à identifier comme faux.

De nombreux cas d'utilisation

Les utilisateurs ont repéré une tendance croissante où les comptes suspects tentent d'accéder à divers groupes LinkedIn uniquement sur invitation. Les propriétaires de groupe et les administrateurs ne peuvent comprendre ce qui se passe qu'après avoir reçu des dizaines de demandes de ce type à la fois et vu que presque toutes les photos de profil se ressemblent (comme à l'intérieur, même angle, visage de même taille, sourire similaire, etc.).

Les chercheurs disent avoir contacté le support client de LinkedIn, mais jusqu'à présent, la plate-forme n'a pas trouvé sa solution miracle. Une façon de surmonter ce défi consiste à obliger certaines entreprises à soumettre une liste complète de leurs employés, puis à interdire tout compte prétendant y travailler.

En plus de ne pas être en mesure de déterminer qui se cache derrière ce flot de faux professionnels, les chercheurs ont également du mal à comprendre à quoi cela sert exactement. Apparemment, la plupart des comptes ne sont pas supervisés. Ils ne publient rien et ne répondent pas aux messages.

La société de cybersécurité Mandiant pense que les pirates utilisent ces comptes pour tenter d'obtenir des rôles dans les sociétés de crypto-monnaie, comme première étape d'une attaque en plusieurs étapes visant à drainer les fonds de l'entreprise.

D'autres pensent que cela fait partie de la vieille arnaque amoureuse, où les victimes sont attirées par de jolies images pour investir dans de faux projets de crypto et de plateformes de trading.

De plus, il existe des preuves que des groupes comme Lazarus utilisent de faux profils LinkedIn pour distribuer des voleurs d'informations, des logiciels malveillants et d'autres virus aux demandeurs d'emploi, en particulier dans l'industrie de la crypto-monnaie. Et enfin, certains pensent que les robots pourraient être utilisés à l'avenir pour amplifier les fausses nouvelles.

En réponse à l'enquête KrebsOnSecurity, LinkedIn a déclaré qu'il envisageait l'idée d'une vérification de domaine pour résoudre le problème croissant : "C'est un défi permanent et nous améliorons constamment nos systèmes pour arrêter les contrefaçons avant qu'elles ne soient" hors ligne "." . LinkedIn a déclaré dans une déclaration écrite. déclaration.

"Nous arrêtons la grande majorité des activités frauduleuses que nous détectons dans notre communauté : environ 96 % des faux comptes et environ 99,1 % des spams et des escroqueries. Nous explorons également de nouvelles façons de protéger nos membres, comme l'extension de la vérification du domaine de messagerie Notre communauté est composé de personnes authentiques ayant des conversations significatives et augmentant toujours la légitimité et la qualité de notre communauté.

Via : KrebsOnSecurity (Ouvre dans un nouvel onglet)