À mesure que l'intelligence artificielle (IA) progresse dans les affaires, les adopteurs les plus performants adoptent une approche holistique de l'IA, selon l'enquête AI Business Survey 2022 de PwC. Composés de 36 % des répondants, ces "leaders de l'IA", comme les appelle PwC, utilisent l'IA pour se concentrer simultanément sur la transformation de l'entreprise, l'amélioration de la prise de décision et la modernisation des systèmes plutôt que d'attaquer un domaine à la fois.

Ces organisations et d'autres commencent également à utiliser l'IA pour résoudre des décisions commerciales plus complexes concernant la diversité, l'équité et l'inclusion (DEI). En fait, 46 % des dirigeants de l'IA utilisent l'IA pour prendre des décisions relatives à la main-d'œuvre qui incluent la DEI, contre 24 % des autres entreprises, selon PwC.

"Les entreprises utilisent l'IA pour le recrutement et l'embauche, ainsi que pour la rétention et l'engagement", a déclaré Bret Greenstein, partenaire IA et analyse de données chez PwC et co-auteur du rapport.

Le passé désastreux de l'IA dans l'embauche

Alors que de nombreuses entreprises expérimentent l'IA comme outil pour évaluer la DEI dans ces domaines, a noté Greenstein, elles ne délèguent pas entièrement ces processus à l'IA, mais les augmentent plutôt avec l'IA. Une partie de la raison de leur prudence est que, dans le passé, l'IA faisait souvent plus de mal que de bien en termes de DEI sur le lieu de travail, car des algorithmes biaisés discriminaient les femmes et les candidats non blancs.

"Il y a eu beaucoup de nouvelles sur l'impact du biais sur les algorithmes cherchant à identifier les talents", a déclaré Greenstein. Par exemple, en 2018, Amazon a été contraint de supprimer son outil secret de recrutement d'IA après que le géant de la technologie a réalisé qu'il était biaisé contre les femmes. Et une étude de 2019 de la Harvard Business Review a conclu que les algorithmes de recrutement basés sur l'IA introduisent un biais anti-noir dans le processus.

Le biais de l'IA est causé, souvent inconsciemment, par les personnes qui conçoivent les modèles d'IA et interprètent les résultats. Si une IA est formée sur des données biaisées, elle prendra à son tour des décisions biaisées. Par exemple, si une entreprise a embauché principalement des ingénieurs en logiciel blancs diplômés de certaines universités dans le passé, un algorithme d'embauche pourrait favoriser les candidats ayant des antécédents similaires pour les postes d'ingénierie ouverts.

Au fur et à mesure que les développeurs d'IA deviennent plus conscients du potentiel de biais inhérent aux logiciels de recrutement et d'embauche, ils peuvent s'efforcer de s'en protéger. En fait, 45 % des organisations identifiées par PwC comme des leaders de l'IA ont déclaré qu'elles prévoyaient de résoudre les problèmes d'équité dans leurs systèmes d'IA d'ici 2022.

"Je pense que l'utilisation de l'IA [pour DEI] passera de l'expérimentation à la production pour le recrutement et l'embauche à mesure que les gens comprendront et identifieront mieux les préjugés et comprendront comment mieux évaluer les performances futures", a déclaré Greenstein.

Utiliser l'IA pour mettre en évidence les préjugés

Selon Gartner, 62 % des responsables RH déclarent utiliser les données DEI comme données d'entrée dans les processus de gestion des talents tels que l'embauche et la gestion des performances. Cependant, peu l'utilisent pour influencer efficacement les décisions de la direction concernant les travailleurs. Pour créer une main-d'œuvre diversifiée, équitable et inclusive, les responsables des ressources humaines doivent mieux intégrer les stratégies de données DEI dans les pratiques quotidiennes d'expérience des employés, a déclaré Emily Strother, directrice de recherche chez Gartner.

Les organisations intègrent de plus en plus la technologie de l'IA dans leurs processus d'acquisition et de gestion des talents pour mettre en évidence les biais potentiels, a déclaré Strother. « En particulier, nous le voyons dans la façon dont [ils] gèrent l'embauche et comment [ils] travaillent avec la gestion des performances. C'est l'un des endroits où les organisations s'inquiètent le plus des préjugés, mais l'IA peut aider. »

Par exemple, certaines entreprises utilisent des outils basés sur l'IA pour identifier le langage biaisé que les responsables du recrutement pourraient utiliser lors des entretiens avec les candidats. Les mesures correctives pourraient inclure la mise en place de rappels de biais tout au long du processus d'entretien ou l'alerte des managers lorsque leur langage est biaisé ou potentiellement injuste, a déclaré Strother.

Les préjugés des gestionnaires peuvent également s'infiltrer lorsqu'il s'agit de fixer des objectifs pour les employés. L'IA peut aider en comparant les objectifs des employés à d'autres ayant la même ancienneté, puis en alertant les managers s'ils attribuent systématiquement des objectifs inférieurs ou moins importants à certains travailleurs.

"Cela aide les managers à réaliser certains de leurs préjugés inconscients en matière d'établissement d'objectifs et les aide à corriger leurs comportements", a déclaré Strother.

L'IA peut également aider les organisations à s'assurer que leurs offres d'emploi sont aussi impartiales que possible. "Nous voyons des organisations utiliser l'IA pour examiner certains des sites d'emploi, comme LinkedIn ou Indeed, afin de s'assurer que le langage qu'ils utilisent lors de la publication [d'emplois ouverts] est précis ou cohérent avec les compétences [nécessaires pour le travail] par rapport à tout le reste. Je peux [indiquer un parti pris], a déclaré Strother.

Kay Formanek, fondatrice et PDG de la société d'éducation à la diversité KAY Diversity and Performance et auteur de Beyond D&I: Leading Diversity with Purpose and Inclusiveness, en donne un exemple. "Si une entreprise dit : "Nous recherchons un leader motivé, nous recherchons quelqu'un qui est ambitieux, nous recherchons quelqu'un qui va produire des résultats", nous l'appelons un lieu de travail masculin, et la recherche a montré que les femmes auront tendance à prendre leur retraite », même lorsqu'elles sont bien qualifiées pour le poste, a-t-il déclaré.

Selon Formanek, les femmes recherchent un langage plus féminin, comme : « Nous recherchons un leader qui, avec l'équipe, soutient le programme de croissance de l'entreprise. Nous recherchons quelqu'un pour constituer une équipe.

L'IA peut aider les entreprises à supprimer le langage biaisé de leurs offres d'emploi et à envoyer des alertes lorsque le langage peut être sexiste ou aligné sur des ensembles de compétences spécifiques qui peuvent exclure des candidats qualifiés d'horizons différents, plus diversifiés ou sous-représentés, selon Strother.

"C'est très important", a déclaré Formanek. "Parce que si vous ne le faites pas, vous allez vous aliéner des personnes qui sont très importantes pour votre diversité."

Utilisez l'IA pour identifier les employés désengagés

Greenstein de PwC voit un grand potentiel pour l'IA dans la rétention des travailleurs. La fidélisation des employés est la clé du succès de l'entreprise, a-t-il déclaré. Les facteurs qui poussent les gens à quitter une entreprise ont beaucoup à voir avec le fait que les travailleurs se sentent marginalisés, déconnectés et désengagés.

Les entreprises peuvent utiliser l'IA pour identifier les départements ou les rôles à haut risque d'épuisement professionnel, les travailleurs insatisfaits ou désengagés, et même les personnes qui se sentent isolées parce qu'elles travaillent à distance, a déclaré Greenstein.

«En général, le travail à distance a eu un impact plus important sur les employés diversifiés, car il [existe] des degrés d'isolement plus importants. Moins de connexion peut être plus nocif dans la plupart des cas », a-t-il déclaré.

Les outils d'intelligence artificielle peuvent aider les gestionnaires à comprendre si certains employés sont plus à risque que d'autres, a déclaré Greenstein. "Les gestionnaires peuvent utiliser l'IA pour rechercher des indicateurs dans les données sur la façon dont les gens interagissent afin d'identifier à quel point les personnes se sentent isolées, ainsi que rechercher des déclencheurs pour déterminer quand les gens semblent les plus désengagés."

Bien qu'il n'existe pas encore d'outils standard à cette fin, PwC voit les clients identifier les données qu'ils considèrent comme les plus importantes (déplacements, lieux, temps, performances, rémunération, charge de travail, etc.) pour explorer l'impact de l'isolement sur l'engagement et finalement l'abandon. dit Greenstein. Lors de l'intégration de données potentiellement pertinentes dans des lacs de données ou des entrepôts de données cloud, les entreprises utilisent principalement des outils d'analyse cloud natifs sur mesure pour rechercher la corrélation et la causalité, créer des modèles prédictifs et déterminer les meilleures pratiques, a-t-il déclaré.

Une fois que les entreprises ont identifié les employés qui se sentent déconnectés ou marginalisés, il leur appartient de prendre des mesures pour que ces travailleurs se sentent respectés et inclus. Mais savoir qui se sent exclu est une première étape importante.

La dynamique de l'attrition et de l'acquisition de talents a radicalement changé ces dernières années et continue d'évoluer, de sorte que les entreprises qui connaissent leurs données et les employés dotés des compétences analytiques pour les interpréter ont un avantage, a déclaré Greenstein. « Je crois que ces outils peuvent nous aider à devenir de meilleurs gestionnaires, partenaires et collègues pour nos employés. »

Copyright © 2022 IDG Communications, Inc.

Share