Microsoft ne veut plus que l'IA reconnaisse vos émotions, surtout

Microsoft ne veut plus que l'IA reconnaisse vos émotions, surtout

Microsoft met à jour sa norme d'IA responsable et a révélé qu'il supprimait les capacités de reconnaissance faciale et émotionnelle d'Azure Face (pour la plupart).

La norme d'IA responsable (ouvre un nouvel onglet) est l'ensemble de règles internes de Microsoft pour la construction de systèmes d'IA. L'entreprise souhaite que l'IA soit une force positive dans le monde et ne soit jamais utilisée à mauvais escient par de mauvais acteurs. C'est une norme qui n'a jamais été partagée avec le public. Cependant, avec ce nouveau changement, Microsoft a décidé que le moment était venu.

Les logiciels de reconnaissance faciale et émotionnelle ont été pour le moins controversés. De nombreuses organisations demandent l'interdiction de cette technologie. Fight for the Future, par example, a écrit une lettre ouverte en mai plaignant à Zoom d'arrêter son propre développement de logiciel de suivi émotionnel et l'a qualifié d '"invasive" et de "violation de la vie privée et des droits de l'homme".

Changement de politique

Sans surprise, Microsoft va modifier son service Azure Face pour répondre aux exigences de sa nouvelle norme d'IA responsable. Premièrement, l'entreprise supprime l'accès public à la capacité d'analyse des émotions de l'IA. Deuxièmement, Azure Face ne sera plus en mesure d'identifier les traits du visage d'une personne, notamment "le sexe, l'âge, le sourire, les poils du visage, la coiffure et le maquillage".

La raison du retrait est que la communauté scientifique mondiale n'a toujours pas de "consensus clair sur la définition des 'émotions'". Natasha Cramption, directrice de Microsoft responsable de l'intelligence artificielle, a déclaré que des experts internes et externes à l'entreprise avaient fait part de leurs inquiétudes. Le problème réside dans "les défis de la façon dont les inférences se généralisent à travers les cas d'utilisation, les régions et les données démographiques, et les problèmes de confidentialité accrus..."

En plus d'Azure Face, la voix neurale personnalisée de Microsoft verra des restrictions similaires. Custom Neural Voice (s'ouvre dans un nouvel onglet) est une application de synthèse vocale incroyablement réaliste. Le service sera désormais limité à quelques "clients et partenaires gérés", qui sont des personnes qui travaillent directement avec les équipes de compte Microsoft. La société affirme que bien que la technologie ait un grand potentiel, elle peut être utilisée pour usurper l'identité. Pour continuer à avoir accès à Neural Voice, tous les clients existants doivent soumettre un formulaire d'inscription et être approuvés par Microsoft. Ils doivent être approuvés d'ici le 30 juin 2023, et s'ils ne sont pas sélectionnés, ces clients n'auront plus accès à Neural Voice.

encore au travail

Malgré tout ce qui a été dit, Microsoft n'abandonne pas complètement sa technologie de reconnaissance faciale. L'annonce est accessible au public uniquement. Sarah Bird, chef de projet senior du groupe chez Azure AI, a écrit sur la reconnaissance faciale responsable (ouvre dans un nouvel onglet). Et dans cet article, il déclare que "Microsoft reconnaît que ces fonctionnalités peuvent être utiles lorsqu'elles sont utilisées pour une variété de scénarios d'accessibilité contrôlée". Selon un représentant, l'un de ces scénarios est Seeing AI (ouvre dans un nouvel onglet), une application iOS qui aide les personnes malvoyantes à identifier les personnes et les objets qui les entourent.

Il est bon de voir un autre géant de la technologie reconnaître les problèmes de reconnaissance faciale et le potentiel d'abus. IBM a fait quelque chose de similaire en 2020, bien que son approche soit plus absolue.

En 2020, IBM a annoncé qu'il abandonnait ses travaux sur la reconnaissance faciale car l'entreprise craignait qu'il ne soit utilisé à mauvais escient pour la surveillance de masse. Voir ces deux titans de l'industrie se débarrasser de cette technologie est une victoire pour les détracteurs de la reconnaissance faciale. Si vous souhaitez en savoir plus sur l'IA, TechRadar a récemment publié un article sur ce qu'elle peut faire pour la cybersécurité.