27 groupes de défense des droits de l’homme exhortent Zoom à abandonner l’IA de suivi des émotions

Video Conference

En avril, Protocole a publié un rapport que Zoom présumé travaillait sur un moyen d’utiliser l’intelligence artificielle (IA) pour suivre l’émotion des personnes devant la caméra. Aujourd’hui, 27 organisations de défense des droits de l’homme exigent qu’il abandonne la recherche.

Fight for the Future, organisation à but non lucratif de défense des droits numériques, et 26 autres organisations de défense des droits humains ont envoyé une lettre ouverte à Zoomlui demandant d’abandonner ses recherches sur l’utilisation de l’IA pour analyser les émotions des personnes utilisant sa plateforme de visioconférence.

Protocole Rapport d’avril a allégué que Zoom recherchait activement des moyens d’intégrer l’IA de suivi des émotions dans sa plate-forme afin que les vendeurs soient mieux en mesure de réagir aux changements d’engagement avec leurs prospects. Il a donné des exemples tels que «frustration détectée. Faites preuve d’empathie » comme moyens par lesquels Zoom serait en mesure de fournir des commentaires aux vendeurs.

Fight for the Future affirme que ce logiciel est discriminatoire, manipulateur, potentiellement dangereux et basé sur l’hypothèse que tout le monde utilise les mêmes expressions faciales, schémas vocaux et langage corporel.

« Il est intrinsèquement biaisé et lié à des pratiques intrinsèquement racistes et discriminatoires telles que la physionomie. L’utilisation de ce logiciel par Zoom donne du crédit à la pseudoscience de l’analyse des émotions qui, selon les experts, ne fonctionne pas », déclare Fight for the Future.

« Les expressions faciales peuvent varier considérablement et sont souvent déconnectées des émotions sous-jacentes, de sorte que même les humains ne sont souvent pas capables de les déchiffrer avec précision. »

Le groupe d’organisations de défense des droits de l’homme – qui comprend l’ACLU, Global Voices, Kairos, Jobs With Justice et Access Now – est d’accord.

« Nos états émotionnels et nos pensées les plus intimes doivent être exempts de surveillance. Il a été démontré à maintes reprises que les logiciels de reconnaissance des émotions sont des déchets non scientifiques et simplistes qui discriminent les groupes marginalisés », déclare Daniel Leufer, analyste principal des politiques chez Access Now.

«Mais même si cela fonctionnait et pouvait identifier avec précision nos émotions, ce n’est pas quelque chose qui a sa place dans notre société, et certainement pas dans nos réunions de travail, nos cours en ligne et d’autres interactions humaines pour lesquelles des entreprises comme Zoom fournissent une plate-forme. .”

La lettre demande à Zoom de respecter la relation de confiance et de respect avec ses utilisateurs et d’abandonner publiquement la recherche d’ici le 20 mai.

« Dans le passé, vous avez pris des décisions qui centraient les droits des utilisateurs, comme lorsque vous avez changé d’avis sur le blocage des utilisateurs gratuits de votre service crypté et encore une fois lorsque vous avez annulé les fonctionnalités de suivi du visage parce qu’elles ne respectaient pas les normes de confidentialité », indique la lettre. .

« C’est une autre occasion de montrer que vous vous souciez de vos utilisateurs et de votre réputation. Zoom est un leader du secteur et des millions de personnes comptent sur vous pour gérer notre avenir virtuel. En tant que leader, vous avez également la responsabilité de fixer le cap pour les autres entreprises de l’espace. Vous pouvez préciser que cette technologie n’a pas sa place dans les communications vidéo.


Crédits image : Photo d’en-tête sous licence via Depositphotos.

.

Loading...