Microsoft ne veut plus que l'IA reconnaisse vos émotions

Microsoft está actualizando su estándar de inteligencia artificial responsable y reveló que está eliminando las capacidades de reconocimiento facial y de emociones de Azure Face (en su mayor parte).

La norme d'IA responsable (ouvre un nouvel onglet) est l'ensemble de règles internes de Microsoft pour la construction de systèmes d'IA. L'entreprise souhaite que l'IA soit une force positive dans le monde et ne soit jamais utilisée à mauvais escient par de mauvais acteurs. C'est une norme qui n'a jamais été partagée avec le public. Cependant, avec ce nouveau changement, Microsoft a décidé que le moment était venu.

Les logiciels de reconnaissance faciale et émotionnelle ont été pour le moins controversés. De nombreuses organisations demandent l'interdiction de cette technologie. Fight for the Future, par exemple, pour écrire une lettre sur demande, à Zoom d'arrêter sont propres d'élaboration de logiciel de suivi émotionnel et l'a qualifié d'"invasif" et de "violation de la vie privée et des droit de l'homme."

Changement de politique

Sans surprise, Microsoft va modifier son service Azure Face pour répondre aux exigences de sa nouvelle norme Responsible AI. Premièrement, la société supprime l'accès public à la capacité d'analyse des émotions de l'IA. Deuxièmement, Azure Face ne sera plus en mesure d'identifier les caractéristiques faciales d'une personne, notamment "le sexe, l'âge, [un] sourire, les poils du visage, la coiffure et le maquillage".

La raison du retrait est que la communauté scientifique mondiale n'a pas encore de "consensus clair sur la définition des 'émotions'". Natasha Cramption, directrice responsable de l'intelligence artificielle chez Microsoft, a déclaré que des experts internes et externes à l'entreprise avaient soulevé des inquiétudes. Le problème réside dans "les défis de la façon dont les inférences se généralisent à travers les cas d'utilisation, les régions et les données démographiques, et les préoccupations croissantes en matière de confidentialité..."

En plus d'Azure Face, la voix neurale personnalisée de Microsoft verra des restrictions similaires. Custom Neural Voice (ouvre dans un nouvel onglet) est une application de synthèse vocale incroyablement réaliste. Désormais, le service sera limité à quelques "clients et partenaires gérés", qui sont des personnes qui travaillent directement avec les équipes de compte Microsoft. La société affirme que même si la technologie a un grand potentiel, elle peut être utilisée pour le vol d'identité. Pour continuer à avoir accès à Neural Voice, tous les clients existants doivent soumettre un formulaire d'inscription et être approuvés par Microsoft. Ils doivent être approuvés d'ici le 30 juin 2023, et s'ils ne sont pas sélectionnés, ces clients n'auront plus accès à Neural Voice.

encore au travail

Malgré tout ce qui a été dit, Microsoft n'abandonne pas complètement sa technologie de reconnaissance faciale. L'annonce est accessible au public uniquement. Sarah Bird, chef de projet senior du groupe chez Azure AI, a écrit sur la reconnaissance faciale responsable (ouvre dans un nouvel onglet). Et dans cet article, il est indiqué que "Microsoft reconnaît que ces fonctionnalités peuvent être utiles lorsqu'elles sont utilisées pour une variété de scénarios d'accessibilité contrôlée". Selon un représentant, l'un de ces scénarios est Seeing AI (ouvre dans un nouvel onglet), une application iOS qui aide les personnes malvoyantes à identifier les personnes et les objets qui les entourent.

Il est bon de voir un autre géant de la technologie reconnaître les problèmes de reconnaissance faciale et le potentiel d'abus. IBM a fait quelque chose de similaire en 2020, bien que son approche soit plus absolue.

En 2020, IBM a annoncé qu'il abandonnait ses travaux sur la reconnaissance faciale car l'entreprise craignait qu'il ne soit utilisé à mauvais escient pour la surveillance de masse. Voir ces deux titans de l'industrie se débarrasser de cette technologie est une victoire pour les détracteurs de la reconnaissance faciale. Si vous souhaitez en savoir plus sur l'IA, TechRadar a récemment publié un article sur ce qu'elle peut faire pour la cybersécurité.

Share