27 grupos de derechos humanos instan a Zoom a abandonar la IA de seguimiento de emociones

Video Conference

En abril, Protocolo publicó un informe que alegó que Zoom estaba trabajando en una forma de usar inteligencia artificial (IA) para rastrear las emociones de las personas en la cámara. Ahora, 27 organizaciones de derechos humanos exigen que abandone la investigación.

La organización sin fines de lucro de derechos digitales Fight for the Future y otras 26 organizaciones de derechos humanos han enviado una carta abierta a Zoompidiéndole que abandone su investigación sobre el uso de IA para analizar las emociones de las personas que usan su plataforma de videoconferencia.

Protocolo informe de abril alegó que Zoom estaba investigando activamente formas de incorporar IA de seguimiento de emociones en su plataforma para que los vendedores pudieran responder mejor a los cambios en el compromiso con sus prospectos. Indicó ejemplos como “frustración detectada. Muestre empatía” como formas en que Zoom podría proporcionar comentarios a los vendedores.

Fight for the Future dice que este software es discriminatorio, manipulador, potencialmente peligroso y se basa en suposiciones de que todas las personas usan las mismas expresiones faciales, patrones de voz y lenguaje corporal.

“Está inherentemente sesgado y vinculado a prácticas inherentemente racistas y discriminatorias como la fisonomía. El uso de Zoom de este software da crédito a la pseudociencia del análisis de emociones que, según los expertos, no funciona”, dice Fight for the Future.

«Las expresiones faciales pueden variar significativamente y, a menudo, están desconectadas de las emociones subyacentes, de modo que incluso los humanos a menudo no pueden descifrarlas con precisión».

El grupo de organizaciones de derechos humanos, que incluye a ACLU, Global Voices, Kairos, Jobs With Justice y Access Now, está de acuerdo.

“Nuestros estados emocionales y nuestros pensamientos más íntimos deberían estar libres de vigilancia. Se ha demostrado una y otra vez que el software de reconocimiento de emociones es una basura simplista y no científica que discrimina a los grupos marginados”, dice Daniel Leufer, analista principal de políticas de Access Now.

“Pero incluso si funcionó y pudo identificar con precisión nuestras emociones, no es algo que tenga ningún lugar en nuestra sociedad, y ciertamente no en nuestras reuniones de trabajo, nuestras lecciones en línea y otras interacciones humanas para las que empresas como Zoom brindan una plataforma. .”

La carta pide que Zoom respete la relación de confianza y respeto con sus usuarios y abandone públicamente la investigación antes del 20 de mayo.

“En el pasado, ha tomado decisiones que centran los derechos de los usuarios, como cuando cambió de opinión acerca de bloquear a los usuarios gratuitos de su servicio encriptado y nuevamente cuando canceló las funciones de seguimiento facial porque no cumplían con los estándares de privacidad”, dice la carta. .

“Esta es otra oportunidad para demostrar que te preocupas por tus usuarios y tu reputación. Zoom es un líder de la industria y millones de personas cuentan contigo para administrar nuestro futuro virtual. Como líder, también tiene la responsabilidad de establecer el rumbo para otras empresas en el espacio. Puede dejar en claro que esta tecnología no tiene cabida en las comunicaciones por video”.

.

Loading...