Ne soyez pas trop excité par la lecture d'émotions par IA

Ne soyez pas trop excité par la lecture d'émotions par IA

Appelons cela « intelligence émotionnelle artificielle » : le type d'intelligence artificielle (IA) qui peut désormais détecter l'état émotionnel d'un utilisateur humain.

Ou peut-être ?

Plus important encore, devrais-je ?

La plupart des IA émotionnelles sont basées sur la théorie des « émotions de base », selon laquelle les individus éprouvent universellement six états émotionnels internes : le bonheur, la surprise, la peur, le dégoût, la colère et la tristesse, et peuvent transmettre ces états par l'expression du visage, le langage corporel et la voix. . . intonation.

Dans le monde post-pandémique du travail à distance, les vendeurs ont du mal à « lire » les personnes à qui ils vendent par appel vidéo. Ne serait-il pas bien si le logiciel transmettait la réaction émotionnelle à l'autre bout de la ligne ?

Des sociétés comme Uniphore et Sybill y travaillent. L'application « Q for Sales » d'Uniphore, par exemple, traite les signaux non verbaux et le langage corporel via la vidéo, ainsi que l'intonation vocale et d'autres données via l'audio, ce qui donne lieu à un « tableau de bord des émotions ».

Établir des liens humains via des ordinateurs

Zoom lui-même flirte avec l'idée. Zoom a présenté en avril un test de Zoom IQ for Sales, qui génère des transcriptions d'appels Zoom pour les organisateurs de réunions ainsi qu'une « analyse des sentiments », non pas en temps réel mais après la réunion ; Les critiques ont été sévères.

Si certaines personnes aiment l’idée de se faire aider par l’IA pour lire les émotions, d’autres détestent l’idée que leurs états émotionnels soient jugés et véhiculés par des machines.

La question de savoir si les outils de détection des émotions de l’IA doivent être utilisés est une question importante à laquelle de nombreuses industries et le grand public doivent répondre.

L'embauche pourrait bénéficier de l'IA émotionnelle, permettant aux enquêteurs de comprendre la véracité, la sincérité et la motivation. Les équipes des ressources humaines et les responsables du recrutement souhaitent classer les candidats en fonction de leur volonté d'apprendre et de leur enthousiasme à rejoindre une entreprise.

Au sein du gouvernement et des forces de l’ordre, les appels à une IA capable de détecter les émotions se multiplient également. Les agents de la patrouille frontalière et les responsables de la sécurité intérieure veulent que la technologie puisse attraper les passeurs et les imposteurs. Les forces de l’ordre considèrent l’IA émotionnelle comme un outil lors des interrogatoires de police.

Emotion AI a des applications dans le service client, l'évaluation des publicités et même la conduite sûre.

Ce n'est qu'une question de temps avant que l'IA émotionnelle n'apparaisse dans les applications professionnelles quotidiennes, transmettant aux employés les sentiments des autres lors d'appels et de réunions professionnelles et offrant des conseils continus en matière de santé mentale au travail.

Pourquoi l'IA émotionnelle dérange les gens

Malheureusement, la « science » de la détection des émotions est encore une sorte de pseudoscience. Le problème pratique de l’intelligence artificielle sensible aux émotions, parfois appelée informatique affective, est simple : les gens ne sont pas si faciles à lire. Ce sourire est-il le résultat du bonheur ou de la gêne ? Ce froncement de sourcils vient-il d’un sentiment intérieur profond, ou est-ce ironique ou plaisantant ?

S’appuyer sur l’IA pour détecter l’état émotionnel des autres peut facilement conduire à des malentendus. Lorsqu’elle est appliquée à des tâches consécutives, comme le recrutement ou l’application de la loi, l’IA peut faire plus de mal que de bien.

Il est également vrai que les gens masquent souvent leur état émotionnel, notamment lors des réunions d'affaires et de vente. L’IA peut détecter les expressions faciales, mais pas les pensées et les sentiments qui les sous-tendent. Les gens d’affaires sourient, hochent la tête et froncent les sourcils avec empathie parce que cela est approprié dans les interactions sociales, et non parce qu’ils révèlent leurs véritables sentiments.

Au lieu de cela, les gens peuvent creuser plus profondément, trouver leur Meryl Streep intérieure et simuler leur enthousiasme pour obtenir le poste ou mentir à la sécurité intérieure. En d’autres termes, savoir que l’IA émotionnelle est appliquée crée une incitation perverse à bricoler la technologie.

Cela nous amène au plus grand dilemme concernant l’intelligence artificielle émotionnelle : son utilisation est-elle éthique en entreprise ? Les gens veulent-ils que l’IA lise et juge leurs émotions ?

Généralement, les personnes qui participent, par exemple, à une réunion de vente, souhaitent contrôler les émotions qu'elles transmettent. Si je souris et que j'ai l'air excité et que je vous dis que je suis heureux et enthousiasmé par un produit, un service ou une initiative, je veux que vous le croyiez : ne négligez pas mon intention de communication et ne découvrez pas mes véritables sentiments sans ma permission.

Les vendeurs doivent être capables de lire les émotions que les prospects tentent de transmettre, et non celles qu’ils souhaitent garder secrètes. À mesure que nous nous rapprochons d’une meilleure compréhension du fonctionnement de l’IA émotionnelle, cela ressemble de plus en plus à un problème de confidentialité.

Les gens ont le droit d’avoir des émotions privées. Et c'est pourquoi je pense que Microsoft est en train de devenir un leader dans l'application éthique de l'IA émotionnelle.

Comment Microsoft réussit

Microsoft, qui a développé des technologies de détection d'émotions assez avancées, les a ensuite supprimées dans le cadre d'une révision de ses politiques d'éthique en matière d'IA. Son outil principal, appelé Azure Face, pourrait également estimer le sexe, l'âge et d'autres attributs.

"Des experts à l'intérieur et à l'extérieur de l'entreprise ont souligné l'absence de consensus scientifique sur la définition des "émotions", les difficultés liées à la manière dont les inférences se généralisent à travers les cas d'utilisation, les régions et les données démographiques, ainsi que les préoccupations croissantes en matière de confidentialité autour de ce type de capacité", Natasha Crampton. , responsable de l'intelligence artificielle de Microsoft, a écrit dans un article de blog.

Microsoft continuera d'utiliser la technologie de reconnaissance des émotions dans son application d'accessibilité, appelée Seeing AI, destinée aux utilisateurs malvoyants. Et je pense que c'est aussi le bon choix. Utiliser l’IA pour responsabiliser les personnes malvoyantes, ou par exemple les personnes autistes qui peuvent être affectées par leur difficulté à lire les émotions et les réactions des autres, est une grande utilisation de cette technologie. Et je pense que cela a un rôle important à jouer dans la prochaine ère des lunettes de réalité augmentée.

Microsoft n'est pas la seule organisation à promouvoir l'esprit de l'IA émotionnelle.

L’AI Now Institute et la Brookings Institution préconisent d’interdire de nombreuses utilisations de l’IA de détection d’émotions. Et plus de 25 organisations ont exigé que Zoom mette fin à son projet d'utiliser la détection des émotions dans le logiciel de visioconférence de l'entreprise.

Pourtant, certains éditeurs de logiciels progressent avec ces outils et trouvent des clients.

Pour l’essentiel et pour l’instant, l’utilisation d’outils d’IA émotionnelle peut être erronée, mais surtout inoffensive, à condition que toutes les personnes impliquées y consentent véritablement. Mais à mesure que la technologie s’améliore et que la technologie d’interprétation du langage facial et corporel se rapproche de la lecture des pensées et de la détection des mensonges, cela pourrait avoir de graves implications pour les entreprises, le gouvernement et la société.

Et bien sûr, il y a un autre éléphant dans la pièce : le domaine de l’informatique affective cherche également à développer une IA conversationnelle capable de simuler les émotions humaines. Et bien qu'une certaine simulation d'émotion soit nécessaire pour le réalisme, trop peut tromper les utilisateurs en leur faisant croire que l'IA est sensible ou sensible. En fait, cette croyance est déjà répandue à grande échelle.

Dans l’ensemble, tout cela fait partie d’une nouvelle phase dans l’évolution de l’IA et de notre relation avec la technologie. À mesure que nous apprenons qu’elle peut résoudre une myriade de problèmes, nous découvrons également qu’elle peut en créer de nouveaux.

Copyright © 2022 IDG Communications, Inc.