La Oficina del Comisionado de Información (ICO) advierte a las organizaciones contra el uso de tecnologías biométricas para realizar análisis de emociones, que ha descrito como “inmaduro” y “pseudocientífico”.
Las tecnologías de análisis de emociones a menudo funcionan con algoritmos de inteligencia artificial (IA) y se basan en una amplia gama de datos personales y biométricos para realizar sus supuestas funciones, incluida información sobre seguimiento de la mirada, análisis de sentimientos, movimientos faciales, análisis de la marcha, latidos cardíacos, expresiones faciales y piel. humedad.
Los ejemplos de análisis emocional biométrico incluyen organizaciones financieras que utilizan datos de voz y marcha con fines de identificación y seguridad; escuelas que usan los movimientos del cuerpo, los ojos y la cabeza de los estudiantes para registrarlos para los exámenes; y los empleadores lo utilizan para analizar a los posibles empleados durante las entrevistas de trabajo.
Sin embargo, el ICO advirtió que los algoritmos actualmente no pueden detectar de manera efectiva las señales emocionales, lo que corre el riesgo de abrir la puerta al sesgo sistémico, la inexactitud y la discriminación. Esta es la primera vez que el regulador de protección de datos emite una advertencia general sobre la ineficacia de una tecnología.
“Los desarrollos en el mercado de biometría e IA emocional son inmaduros. Es posible que aún no funcionen, o de hecho nunca”, dijo el comisionado adjunto Stephen Bonner.
“Si bien hay oportunidades presentes, los riesgos son actualmente mayores. En el ICO, nos preocupa que el análisis incorrecto de los datos pueda dar lugar a suposiciones y juicios sobre una persona que sean inexactos y conduzcan a la discriminación.
“Los únicos despliegues biométricos sostenibles serán aquellos que sean completamente funcionales, responsables y respaldados por la ciencia. Tal como está, aún no hemos visto que se desarrolle ninguna tecnología de inteligencia artificial emocional de una manera que satisfaga los requisitos de protección de datos, y tenemos preguntas más generales sobre la proporcionalidad, la equidad y la transparencia en esta área”.
El ICO dijo que tiene como objetivo publicar una guía formal sobre el uso más amplio de tecnologías biométricas en la primavera de 2023, que analizará una variedad de casos de uso, incluido el reconocimiento facial y el análisis emocional.
Agregó que el uso de información biométrica es un área particularmente sensible, porque los datos “son exclusivos de un individuo y son difíciles o imposibles de cambiar en caso de que se pierdan, sean robados o se usen de manera inapropiada”.
Preocupaciones en curso
En junio de 2021, la entonces comisionada de información Elizabeth Denham publicó una Opinión oficial de la Comisionada sobre el uso inapropiado e imprudente de las tecnologías de reconocimiento facial en vivo (LFR) en espacios públicos, y señaló que ninguna de las organizaciones investigadas por su oficina hasta ese momento pudo para justificar plenamente su uso.
“Cuando se recopilan datos personales confidenciales a gran escala sin el conocimiento, la elección o el control de las personas, los impactos pueden ser significativos”, escribió Denham en una publicación de blog adjunta, y agregó que aunque “no es mi función respaldar o prohibir una tecnología”. , existe la oportunidad de garantizar que su uso no se expanda sin el debido respeto por la ley.
También ha habido una expansión masiva del software de vigilancia y monitoreo del lugar de trabajo desde el inicio de la pandemia de Covid-19, que permite a los empleadores ver una variedad de información sobre las actividades de sus empleados. Esto incluye cualquier cosa, desde pulsaciones de teclas y clics del mouse hasta las ubicaciones físicas de los empleados y el uso de Internet.
Usando esta y una variedad de otra información, incluida la biometría, el software puede ayudar a las empresas a realizar análisis predictivos y de comportamiento, lo que permite a los gerentes comprender y realizar un seguimiento de la productividad de los empleados a lo largo del tiempo. También se puede utilizar para alimentar algoritmos con funciones de recursos humanos, incluida la contratación y el despido.
Según una encuesta reciente realizada por Prospect Union, que representa a trabajadores especializados en tecnología, una parte importante del problema es que los propios trabajadores no saben cómo funciona el software de vigilancia que los monitorea.
Por ejemplo, solo el 11% de los encuestados dijeron que estaban “muy seguros” de qué datos recopilaba su empleador sobre ellos y por qué. Un poco más de dos de cada cinco estaban “algo” o “muy” inseguros sobre qué datos recopilaba su empleador sobre ellos o cómo se usaban.
En marzo de 2022, el Congreso de Sindicatos (TUC) dijo que el uso intrusivo y creciente de la tecnología de vigilancia en el lugar de trabajo estaba “fuera de control”, y presionó para que se consultara a los trabajadores sobre la implementación de nuevas tecnologías en el trabajo.
En junio de 2022, Ryder Review, una revisión legal independiente realizada por Matthew Ryder QC de Matrix Chambers, descubrió que el marco legal actual que rige las tecnologías biométricas no es adecuado para su propósito, no ha seguido el ritmo de los avances tecnológicos y no aclara cuándo y cómo se puede usar la biometría o los procesos que se deben seguir.
También encontró que los arreglos de supervisión actuales están fragmentados y son confusos, y que la posición legal actual no protege adecuadamente los derechos individuales ni enfrenta las invasiones muy sustanciales de la privacidad personal que puede causar el uso de la biometría.
Si bien la revisión se centra principalmente en el uso de la biometría por parte de las autoridades públicas, en particular por parte de las fuerzas policiales, también tiene en cuenta los usos del sector privado de los datos y tecnologías biométricos, como en las asociaciones público-privadas y para el control del lugar de trabajo.