Dilemmes éthiques de l’IA | monde de l'ordinateur

dilemmes éthiques de l'IA | monde de l'ordinateur

Peut-on faire confiance à l'IA ? Il est déjà visiblement et invisiblement tissé dans notre monde, de Google Translate et des robots de jeux vidéo à l'utilisation industrielle dans les soins de santé, la fabrication et la banque pour les charges de travail critiques. Pouvons-nous exploiter efficacement cette technologie révolutionnaire et échapper aux dilemmes éthiques inhérents aux préjugés, à la confiance et à la transparence ? Il existe une voie à suivre, mais cela nécessitera des conversations continues et diligentes sur l'éthique de l'IA à mesure que la technologie continue d'évoluer.

Faites-vous confiance à l'IA ?

La question de la confiance se pose souvent dans les situations où l'activité humaine est confiée à l'IA. Par exemple, Tesla et d'autres constructeurs automobiles expérimentent des capacités de conduite et de stationnement automatisées gérées par l'IA. La conduite autonome repousse les limites de la confiance, car les tests de cette technologie ont entraîné des décès humains. Les lignes sont rapidement tracées dans le sable entre si nous pouvons ou non faire confiance à une voiture pour se garer.

Cependant, faire confiance à l'IA est déjà inhérent à certains cas d'utilisation : les gens le font sans même s'en rendre compte. En cas de détection de fraude, des messages texte concernant des transactions suspectes sont envoyés avant même que vous ne réalisiez que votre portefeuille ou votre carte de crédit a disparu. Ce type de technologie se produit en temps réel et peut vous éviter un énorme casse-tête financier.

Même dans les secteurs où l'IA fait partie des charges de travail critiques pour l'entreprise, la question de la confiance reste pertinente. Par exemple, dans la technologie mainframe, certaines entreprises n'agissent pas automatiquement lorsque l'IA découvre une anomalie. Bien que l'IA ait fait son travail en détectant l'anomalie, elle ne comprend pas que l'arrêt du travail sur un mainframe puisse avoir des conséquences catastrophiques pour une entreprise. Dans ce cas, les opérateurs ne font pas confiance à l'IA pour porter un meilleur jugement qu'ils ne le pourraient. À mesure que l'IA évolue, les entreprises et les cas d'utilisation testeront quand, où et dans quelle mesure faire confiance à cette technologie ; en fin de compte, ils examineront si les données et/ou les résultats sont réalisables et impartiaux.

biais vers l'intérieur, biais vers l'extérieur

Comme les humains, les systèmes d'IA doivent souvent suivre les normes sociales et être justes et impartiaux. En ce qui concerne les biais, le problème n'est pas propre aux modèles d'IA - les humains sont également aux prises avec des biais. Cependant, avec l'IA, les résultats de biais potentiels peuvent avoir un impact stupéfiant. En IA, le biais a une forte corrélation avec les données d'entrée. Par exemple, des données d'entrée impures, non raffinées ou erronées affecteront votre sortie. La chose importante à comprendre avec un parti pris est qu'il faut de la sensibilité, de la perspicacité et de l'ouverture pour naviguer de manière éthique.

En fin de compte, les humains contrôlent les biais dans l’IA : les professionnels sélectionnent les données d’entrée originales et introduisent des biais pour influencer les résultats. Prenez Amazon, par exemple. Amazon reçoit un grand nombre de demandes. Lorsqu'elle a décidé de tester l'application de l'IA à son processus de recrutement, l'entreprise a utilisé les CV des employés actuels comme données d'entrée. Alors quel a été le résultat ? Amazon a largement partagé qu'en utilisant un échantillonnage démographique sélectionné, les résultats étaient biaisés au détriment des femmes. Au cours du processus de test, le détaillant a découvert que si le mot « femme » apparaissait quelque part sur un CV, cette personne ne recevait jamais d'appel. Amazon s'est rendu compte que les données d'entrée faisaient partie du problème et n'a jamais mis en œuvre le modèle pour les responsables du recrutement.

Partager ces informations et être sensible aux résultats est essentiel alors que nous continuons à découvrir la meilleure utilisation de cette technologie. Étant donné que les préjugés sont fortement liés à l'intention, Amazon n'est pas un exemple d'utilisation malveillante de l'IA. Au lieu de cela, cela démontre le besoin d'introspection lors de l'utilisation de l'IA. Amazon a corrigé les résultats du biais du modèle pour les aider à obtenir un résultat plus équilibré.

L'IA est déjà très rapidement devenue un élément essentiel de l'entreprise, voire un différenciateur majeur pour certaines organisations, et des problèmes éthiques tels que les biais sont à prévoir. Les clés pour surmonter les préjugés sont de s'assurer que vos données d'entrée sont aussi propres que possible et d'être prêt à enquêter sur les résultats contraires à l'éthique de manière ouverte et transparente.

Le rôle de la transparence

La transparence dans l'IA peut être définie comme explicable pour les employés et les clients. Le problème est que l'IA n'est pas intrinsèquement transparente, elle sera donc un élément essentiel de la navigation à mesure que l'IA s'affinera. Lors de l'application de la transparence au niveau de l'entreprise, la question est de savoir comment établir des règles d'application générale lorsqu'il existe différents degrés d'impact ? Comment saura-t-on si l'IA utilisée avec un résultat moins favorable est transparente ?

Le manque de transparence est particulièrement important pour les consommateurs. Les consommateurs veulent savoir quelles données personnelles les entreprises collectent, comment elles les utilisent, comment fonctionnent leurs algorithmes et qui est responsable en cas de problème. Dans certains cas, comme Spotify, l'algorithme est lié à l'avantage concurrentiel de l'organisation. La valeur de Spotify pour le consommateur réside dans les recommandations qu'il fait sur la base des informations collectées sur l'auditeur. La question est alors de savoir où se situe la ligne éthique de la transparence ? Combien une entreprise devrait-elle partager et combien les consommateurs devraient-ils voir et savoir ?

La transparence est une cible mouvante ; cependant, il est crucial d'évaluer l'impact à mesure que les algorithmes changent. Lorsqu'un changement se produit, être transparent sur ce changement et son impact sur les différentes parties prenantes sera essentiel pour aider la technologie à évoluer vers un endroit encore plus innovant. Une solution possible réside dans un équilibre. Les organisations qui sont disposées à expliquer pourquoi certaines décisions ont été prises dans leurs modèles peuvent apporter une contribution positive à la transparence sans révéler d'informations sensibles.

Un équilibre éthique est-il possible ?

La réponse courte est oui, un équilibre éthique est possible. Cependant, comprendre comment naviguer dans l'éthique de la technologie de l'IA est un processus continu. Certains dans notre industrie appellent à la transparence, tandis que les entreprises jugent nécessaire de protéger leur technologie car c'est un différenciateur. Les deux parties font valoir des points importants et valables, mais où cela laisse-t-il le dilemme éthique inhérent ?

Il y a quelques facteurs clés, peu importe de quel côté de la conversation vous vous trouvez.

L'apport humain continu sera un aspect important de la technologie de l'IA, d'un point de vue éthique et fonctionnel. Aujourd'hui et à mesure que l'IA évoluera à l'avenir, elle nécessitera une intervention et une surveillance humaines.

La sensibilité au biais est essentielle pour les données d'entrée, les ajustements de modèles et le suivi des résultats.

La transparence sur les faux pas et les succès de l'IA encourage les conversations sur l'éthique et aide à faire progresser la technologie de l'IA.

Alors que l'IA continue d'influencer la communauté mondiale, nous devons rester déterminés à partager les leçons et à poser des questions éthiques sur la confiance, les préjugés et la transparence. Plus nous en ferons, meilleures seront les décisions que nous prendrons et plus il sera facile de comprendre comment améliorer l'IA à l'avenir.

Vous souhaitez en savoir plus sur le rôle de l'IA chez Broadcom ? Découvrez comment nous utilisons la technologie de l'IA pour augmenter les opérations informatiques.

Copyright © 2022 IDG Communications, Inc.