Le problème avec Alexa: quelle est la solution pour les assistants vocaux sexistes?

Le problème avec Alexa: quelle est la solution pour les assistants vocaux sexistes?

Si vous avez un haut-parleur intelligent à la maison, vous interagissez probablement assez régulièrement avec un assistant vocal compatible avec l'IA, et vous êtes susceptible de parler à ce qui semble être une femme.

Votre assistant vocal peut même avoir reçu un nom féminin ou féminin, tel qu'Alexa, Cortana ou Siri, selon la marque que votre Smart Speaker a achetée. Bien sûr, certains de ces assistants vocaux peuvent être configurés pour avoir une voix parlée, y compris Google Assistant et Siri, mais la plupart des utilisateurs de haut-parleurs intelligents interagissent avec des femmes virtuelles.

Cela peut ne pas sembler un problème, mais l'assimilation par la société des femmes aux assistantes vocales pourrait avoir des conséquences sociales perturbatrices.

assistant vocal

Une voix féminine est le choix par défaut pour les assistants intelligents, y compris Alexa sur Amazon Echo.

(Crédit d'image: Juan Ci / Shutterstock.com)

En mai 2019, un rapport révolutionnaire de l'UNESCO a indiqué que l'utilisation par défaut d'assistants vocaux à consonance féminine sur nos appareils intelligents et nos smartphones à la maison perpétuait des attitudes sexistes à l'égard des femmes.

Le rapport, intitulé «Blush si possible», tire son nom de l'ancienne réponse par défaut de Siri, qualifiée de «putain» par les utilisateurs, et critique le fait que Siri d'Apple, Amazon Alexa, Google Assistant et Cortana de Microsoft sont «exclusivement des femmes ou les femmes par défaut, tant dans le nom que dans le son de la voix ".

Gentil et amical

Alors pourquoi les assistants vocaux ressemblent-ils à des femmes? Julia Kanouse, PDG de l'Illinois Technology Association, explique que les entreprises derrière ces assistants vocaux ont basé leurs choix sur les commentaires des consommateurs.

Elle explique: "Les recherches montrent que les femmes ont tendance à mieux faire entendre la voix des femmes et que dès le plus jeune âge, nous préférons entendre ces voix."

En fait, dans une interview accordée à Business Insider, le chef de la division Smart Home d'Amazon, Daniel Rausch, a expliqué que son équipe «avait mené des recherches et trouvé que la voix d'une femme était plus amicale».

Jusqu'à présent, c'est plausible, et comme l'admet Kanouse, l'utilisation d'assistants vocaux à consonance féminine est clairement basée sur la recherche.

Amazon Echo Dot

Des recherches ont montré que dès le plus jeune âge, les voix féminines sont plus compréhensives que les voix masculines.

(Crédit d'image: Amazon)

Cependant, les choix faits par les créateurs d'assistants vocaux pourraient avoir des conséquences désastreuses pour les femmes à la maison et sur leur lieu de travail.

«L'utilisation d'assistantes vocales féminines peut renforcer le stéréotype selon lequel nous préférons dire à une femme ce qu'il faut faire plutôt qu'à un homme», déclare Kanouse.

«Nous n'avons que récemment commencé à voir des hommes occuper des postes traditionnellement considérés comme des femmes et, à l'inverse, voir les femmes se battre pour ces rôles (comme les hôtesses, les infirmières, les parajuristes, etc., les PDG) sont considérées comme plus qu'une simple assistante».

Selon l'UNESCO, ces progrès pourraient être compensés par la prolifération des assistants vocaux. Leur rapport indique que l'utilisation par défaut des invites vocales à consonance féminine indique aux utilisateurs que les femmes sont «accommodantes, dociles et désireuses d'aider avec des aides, disponibles sur simple pression d'un bouton ou avec une commande vocale». direct comme "hey" ou "OK".

Il est également troublant de constater que ces assistants vocaux "n'ont aucun pouvoir d'agence au-delà de ce que le commandant demande" et répondent aux demandes "indépendamment du ton ou de l'hostilité (de l'utilisateur)". Ce sont peut-être des traits souhaitables chez un assistant vocal IA, mais que se passe-t-il si la façon dont nous parlons à Alexa et Siri finit par influencer la façon dont nous parlons aux femmes dans notre vie quotidienne?

pas cher google home mini offres prix vente

Les chercheurs affirment que l'utilisation de voix à prédominance féminine sur des haut-parleurs intelligents peut alimenter des préjugés subconscients

(Crédit d'image: Google)

L'une des principales critiques formulées par l'UNESCO contre Amazon, Google, Apple et Microsoft est que la nature docile de nos assistants vocaux a pour effet involontaire de renforcer «les préjugés sexistes généralement acceptés auxquels les femmes sont soumises et tolèrent les mauvais traitements».

Cette présentation est particulièrement dérangeante lorsque ces assistantes vocales féminines donnent «des réponses déformées, ennuyeuses ou excuses au harcèlement sexuel verbal».

Bien que Kanouse ne pense pas que cela ait conduit à des cas manifestes de discrimination sexuelle, elle pense que cela crée "un niveau inconscient de préjugé", ajoutant que "la prévalence des assistantes vocales féminines peut alimenter les préjugés subconscients Pour les femmes au travail et à la maison. plus difficile pour les femmes de surmonter ces obstacles. "

Les assistants vocaux doivent-ils être neutres?

Une solution pourrait être de faire en sorte que les assistants vocaux aient une apparence neutre, ce qui est tout à fait possible, comme le démontrent les créateurs de Q, le premier assistant vocal au monde.

Julia Carpenter, experte en comportement humain et technologies émergentes qui a travaillé sur le projet, a expliqué à l'un des objectifs de l'équipe que «l'un des objectifs de l'équipe était de contribuer à un débat mondial sur le genre, la technologie, l'éthique et l'inclusion des personnes. identifiées de différentes manières. "

Pour créer la voix de Q, l'équipe a enregistré «des dizaines de personnes», y compris celles qui s'identifient comme étant des hommes, des femmes, des transgenres et des non-binaires, même si à la fin ils n'ont choisi qu'une seule voix et l'ont modifiée jusqu'à ce qu'elle ne sonne plus comme une voix. Masculin. Pas de femme.

Vous pouvez entendre le son de Q dans la vidéo ci-dessous.

Le résultat, bien que peut-être un peu plus synthétique qu'Alexa ou Siri, est un assistant vocal vraiment inclusif pour tout le monde, et le but est de convaincre les géants de la technologie d'adopter Q comme troisième option pour leurs assistants. .

Malheureusement, ce n'est pas probable: après tout, des marques comme Apple, Google et Amazon sont notoirement inflexibles lorsqu'il s'agit de concevoir leurs produits, et nous ne pouvons pas les voir accepter de parler de la même voix que leurs rivaux. .

La diversité est la clé.

Donc, au lieu de rendre les assistants vocaux homogènes, la réponse serait-elle de les rendre super diversifiés?

Cette diversité ne doit pas non plus se concentrer sur le genre; Pourquoi nos assistants vocaux ne peuvent-ils pas avoir des accents régionaux? Pourquoi ne pouvaient-ils pas avoir l'air vieux ou jeunes, utiliser l'argot ou le pidgin en anglais?

La nouvelle que la BBC travaille sur un assistant vocal nommé Beeb, qui comprendra tous les accents régionaux variés du Royaume-Uni, a nourri l'espoir que nous serons en mesure de parler de certains de ces accents.

Le Dr Matthew Aylett, directeur scientifique de la société de technologie vocale Cereproc, estime que cela pourrait permettre à Beeb de se démarquer des autres assistants vocaux sur le marché.

"Aucune autre organisation ne peut se vanter de la résonance et de l'importance de la voix par rapport à la BBC", a-t-il dit, expliquant que choisir une voix synthétique pour représenter l'organisation est "un grand défi".

Le nombre relativement faible de femmes travaillant dans les domaines technologiques signifie qu'elles sont moins impliquées dans la conception d'assistants vocaux.

Le nombre relativement faible de femmes travaillant dans les domaines technologiques signifie qu'elles sont moins impliquées dans la conception d'assistants vocaux.

(Crédit d'image: Shutterstock.com)

Sur des marques comme Apple, Google et Amazon, il explique que "dans de nombreux cas, les décideurs choisissent une voix féminine prédéterminée, neutre et bien parlée, sans même considérer que c'est ça". une décision de conception importante. "

Et la BBC pourrait être dans la position idéale pour contester cela. En encourageant la participation de son large public, Aylett pense que l'utilisation par Beeb d'une voix diversifiée «pourrait conduire à des perspectives nouvelles et innovantes sur l'interaction vocale».

Aylett pense que la BBC pourrait même inciter ce public à sélectionner les présentateurs de la BBC les plus appréciés et à créer une voix mixte à partir des résultats; imaginez comment un hybride David Attenborough / Joanna Lumley pourrait être relaxant.

Cependant, Aylett ne pense pas que les développeurs mondiaux d'assistants vocaux approuvent la diversité des tiers, tels que la BBC, ou sont «assez courageux pour offrir une grande diversité par eux-mêmes».

Parce que? Eh bien, les équipes derrière nos assistants vocaux les plus populaires ne sont pas si diversifiées.

Les femmes à l'avant

Selon l'UNESCO, le problème de sexisme d'Alexa est largement dû au manque de femmes dans la salle lorsque les entreprises technologiques conçoivent leurs assistants vocaux.

C'est un problème qui touche l'ensemble du secteur, avec seulement 7% des brevets TIC (Technologies de l'Information et de la Communication) générés par des femmes dans les pays du G20; Selon l'UNESCO, la surutilisation des assistantes vocales féminines est «une puissante illustration des préjugés sexistes encodés dans les produits technologiques, omniprésents dans le secteur technologique et apparents dans l'éducation aux compétences numériques».

La solution? Nous avons besoin de plus de femmes dans les secteurs de la science, de la technologie, de l’ingénierie et des mathématiques, ce qui, selon l’UNESCO, exige «de recruter, de retenir et de promouvoir les femmes dans le secteur de la technologie». Après tout, comment nos assistants vocaux peuvent-ils représenter efficacement leurs utilisateurs si un grand pourcentage de ces utilisateurs n'ont pas voix au chapitre dans leur développement?

Quelle que soit la réponse, il est clair que nous avons besoin de plus d'options en ce qui concerne les voix de nos haut-parleurs intelligents. Comme le dit Kanouse, «Qu'il s'agisse d'une voix masculine, d'un discours neutre ou de l'enregistrement simulé d'une personne célèbre comme Morgan Freeman, par exemple, ces entreprises pourraient mettre en œuvre des solutions créatives qui ne renforceraient pas les stéréotypes de genre.

Elle ajoute: "Ce changement pourrait être une déclaration très puissante de la part de ces entreprises influentes."

"Et ne serait-il pas amusant de dire à Morgan Freeman quoi faire chaque jour?"