Combattez les échecs grâce à la technologie biométrique vocale.

Combattez les échecs grâce à la technologie biométrique vocale.

À chaque avancée technologique, il semble y avoir un progrès correspondant dans l'exploitation de cette technologie à des fins nuisibles. Cela est particulièrement vrai dans le secteur des services financiers, où les méthodes utilisées pour interagir avec nos banques ont produit une nouvelle forme de «voleur de banque». Lorsque les transactions consistaient uniquement à se rendre dans une agence bancaire, la menace de perte financière consistait principalement en une attaque armée. voleur. Cependant, l'avènement d'Internet a marqué l'introduction de la banque en ligne, un avantage technologique décisif pour les banques et les clients. Il a également introduit une nouvelle génération de voleurs de banque sous la forme de programmeurs et de hackers. Les nouvelles techniques de vol n'étaient pas basées sur des armes à feu, mais sur des techniques d'ingénierie sociale, telles que le phishing, ainsi que sur des techniques beaucoup plus avancées, telles que les logiciels malveillants Man-in-the-Mal. -Middle et Man-in-the-Browser. Devenir des ordinateurs distribuant de l'argent ont été la cible d'attaques de logiciels malveillants. Les applications pour smartphones n'ont pas non plus été à l'abri des logiciels malveillants ciblant leurs systèmes d'exploitation respectifs. Nos efforts pour contrer ces attaques sont souvent également basés sur des technologies, telles que l'utilisation de l'authentification à 2 facteurs à l'aide de codes d'autorisation SMS. Il n'est donc pas surprenant que ces techniques aient également été critiquées par des techniques telles que les attaques par échange de cartes SIM et même le piratage des réseaux de télécommunications mondiaux SS7. Il existe une nouvelle technologie connue sous le nom de Deepfake qui, bien qu'elle ait des origines très lointaines, nous pensons qu'elle aura la capacité d'être utilisée comme un nouveau et puissant vecteur de fraude. Depefake est l'utilisation du Machine Learning pour créer des imitations audio / visuelles de personnes réelles. Il utilise une technique connue sous le nom de Generative Adversarial Network (GAN), qui peut générer de nouvelles données à partir d'ensembles de données existants. Cela inclut les images et le son. Par exemple, les fichiers audio / vidéo existants d'une personne qui parle peuvent être utilisés pour générer une nouvelle vidéo / son synthétique, en fonction de ce que l'algorithme a appris de la vidéo / du son réel. Bien qu'initialement utilisé pour transposer des célébrités dans des films pornographiques, les possibilités néfastes de Deepfakes vont de la falsification de fausses informations à la télévision, c'est-à-dire que nous pouvons maintenant voir que la cible nous parle personnellement. Fake news, manipulation électorale, guerre de désinformation, et une toute nouvelle façon. Le déclin de la presse écrite au profit de la réception numérique de nos actualités n'est pas seulement pratique, il a également introduit des contenus beaucoup plus riches. audio et vidéo Il existe pratiquement un nombre illimité de sites que nous pouvons visiter pour obtenir des nouvelles et du contenu. Si nous voyons un clip vidéo d'une personne, inconnue ou non, transmettant un message, nous n'avons aucune raison de soupçonner que cette vidéo est fausse. Cela fournit un forum clé en main pour ceux qui cherchent à diffuser de fausses nouvelles via Deepfakes.Mage: Shutterstock (Image: © Shutterstock) Impact potentiel sur les services financiers Pourquoi Deepfake peut-il également affecter les services financiers? L'information est de plus en plus diffusée sous forme numérique, tout comme les services bancaires. Les stratégies de communications omnicanales et unifiées impliquent que les banques communiquent avec leurs clients en utilisant, par exemple, un système audio / vidéo basé sur un navigateur. Cela pourrait être avec un agent humain, mais à l'avenir également avec des agents basés sur l'intelligence artificielle (IA). Il n'est donc pas difficile d'imaginer, par conséquent, une conversation vidéo / audio entre un client fortuné et son banquier privé. Si le client ressemble à lui-même et peut bien sûr répondre à toutes les questions de sécurité (comme il le ferait toujours), pourquoi le banquier n'accepte-t-il aucune des instructions données par le client? Une échelle beaucoup plus grande avec des banques utilisant la technologie de reconnaissance faciale pour authentifier les clients sur les sites Web et les applications mobiles? Cela peut impliquer un libre-service, une interaction avec un agent humain ou un chatbot IA. Si le visage correspond, et en se souvenant que Deepfakes n'est pas statique, ils montrent une vivacité, des transactions frauduleuses seront exécutées. Ce ne sont que deux exemples qui impliquent des interactions avec les clients. Les communications et instructions interbancaires pourraient être compromises de la même manière, sans aucun doute, ce que l'auteur n'a même pas envisagé. Être facilement identifiable par un collègue ou un travailleur extérieur pourrait devenir la clé pour exploiter la technologie Deepfake. Personne ne veut contester l'identité d'une personne connue qui a l'air et semble parfaitement normal. Détecter un Deepfake Alors, comment pouvons-nous détecter que ce qui semble réel à nos yeux et qui sonne réellement à nos oreilles est en fait faux? La réponse réside dans l'audio d'un Deepfake et dans l'utilisation de techniques biométriques vocales avancées. Indépendamment de l'apparence réelle et "humaine" d'un Deepfake, il est généré synthétiquement. Même les vidéos Deepfake incluent invariablement un composant audio, et c'est ce que l'audio est la clé de la détection. Les algorithmes biométriques vocaux avancés incluent des techniques permettant de détecter à la fois les enregistrements, appelés attaques de présentation ou de lecture, ainsi que l'audio généré par synthèse. Quelle que soit la façon dont une voix «humaine» peut sonner à l'oreille humaine, ce n'est pas ce qui semble être important pour les moteurs de détection synthétiques. Leur interprétation de savoir si l'audio est prononcé ou non par un humain est très différente de la nôtre. La biométrie vocale a toujours été le moyen le plus puissant et le plus précis d'authentifier ou d'identifier la véritable identité d'un être humain. La capacité des moteurs vocaux biométriques les plus avancés à identifier simultanément la distinction entre un humain et un "humain" généré synthétiquement peut être inestimable si nous assistons vraiment à la montée des Deepfakes.