La inteligencia artificial (IA) y los algoritmos se están utilizando para monitorear y controlar a los trabajadores con poca responsabilidad o transparencia, y la práctica debe ser controlada por una nueva legislación, según una investigación parlamentaria sobre la vigilancia en el lugar de trabajo impulsada por la inteligencia artificial.
Para abordar la “magnitud y el uso generalizado de la IA en el trabajo”, los parlamentarios y pares pertenecientes al Grupo Parlamentario de Todos los Partidos (APPG) para el Futuro del Trabajo han pedido la creación de una Ley de Responsabilidad por Algoritmos (AAA).
“La AAA ofrece un marco general basado en principios para gobernar y regular la IA en respuesta a los rápidos cambios en la tecnología del lugar de trabajo que hemos explorado a lo largo de nuestra investigación”, dijo la APPG en su informe. La nueva frontera: la inteligencia artificial en acción, publicado esta semana.
“Incorpora actualizaciones a nuestros regímenes de regulación existentes, los une y llena sus vacíos, al tiempo que permite que se desarrollen reglas adicionales basadas en el sector a lo largo del tiempo. La AAA establecería: una dirección clara para garantizar que la IA ponga a las personas en primer lugar, mecanismos de gobernanza para reafirmar la agencia humana e impulsar la excelencia en la innovación para satisfacer las necesidades más urgentes que enfrentan los trabajadores en todo el país “.
El grupo multipartidista de parlamentarios y pares realizó su investigación entre mayo y julio de 2021 en respuesta a la creciente preocupación pública por la inteligencia artificial y la vigilancia en el lugar de trabajo, que dijeron se había vuelto más pronunciada con el inicio de la pandemia de Covid-19 y el cambio. al trabajo remoto.
“La IA ofrece oportunidades invaluables para crear nuevos trabajos y mejorar la calidad del trabajo si se diseña e implementa con este objetivo”, dice el informe. “Sin embargo, encontramos que este potencial no se está materializando actualmente.
“En cambio, un creciente cuerpo de evidencia apunta a impactos negativos significativos en las condiciones y la calidad del trabajo en todo el país. Las tecnologías de monitoreo generalizado y establecimiento de objetivos, en particular, están asociadas con impactos negativos pronunciados en el bienestar mental y físico, ya que los trabajadores experimentan la presión extrema de la microgestión constante y en tiempo real y la evaluación automatizada “.
El informe agregó que una fuente central de ansiedad de los trabajadores en torno al monitoreo impulsado por la inteligencia artificial es un “pronunciado sentido de injusticia y falta de agencia” en torno a las decisiones automatizadas que se toman sobre ellos.
“Los trabajadores no comprenden cómo se utiliza la información personal y potencialmente sensible para tomar decisiones sobre el trabajo que realizan, y hay una marcada ausencia de rutas disponibles para impugnar o buscar reparación”, dijo. “Los bajos niveles de confianza en la capacidad de las tecnologías de inteligencia artificial para tomar o respaldar decisiones sobre el trabajo y los trabajadores se derivan de esto”.
El informe agregó que hay niveles aún más bajos de confianza en la capacidad de responsabilizar a los desarrolladores y usuarios de sistemas algorítmicos de cómo están usando la tecnología.
David Davis MP, presidente conservador de APPG, dijo: “Nuestra investigación revela cómo las tecnologías de IA se han extendido más allá de la economía de los conciertos para controlar qué, quién y cómo se realiza el trabajo. Está claro que, si no se regulan adecuadamente, los sistemas algorítmicos pueden tener efectos nocivos sobre la salud y la prosperidad “.
El diputado laborista Clive Lewis agregó: “Nuestro informe muestra por qué y cómo el gobierno debe presentar propuestas sólidas para la regulación de la IA. Hay marcadas brechas en la regulación a nivel individual y corporativo que están dañando a las personas y comunidades en todo el país “.
Como parte de la AAA, la APPG recomendó establecer un deber para las organizaciones públicas y privadas de realizar, divulgar y actuar sobre evaluaciones de impacto algorítmicas preventivas (AIA), que deberían aplicarse desde las primeras etapas del diseño de un sistema y ser realizado a lo largo de su vida útil.
Dijo que los trabajadores también deberían tener el derecho a participar directamente en el diseño y uso de sistemas algorítmicos de toma de decisiones.
En marzo de 2021, sobre la base de un informe elaborado por abogados de derechos laborales, el Congreso de Sindicatos de Trabajadores (TUC) advirtió que las enormes lagunas en la legislación del Reino Unido en torno al uso de la IA en el trabajo conducirán a la discriminación y el trato injusto de los trabajadores, y pidió para cambios legislativos urgentes.
La secretaria general del TUC, Frances O’Grady, dijo: “Es genial ver que los parlamentarios reconocen el importante papel que pueden desempeñar los sindicatos para garantizar que los trabajadores se beneficien de los avances tecnológicos. Hay algunas recomendaciones muy necesarias en este informe, incluido el derecho de los trabajadores a desconectarse y el derecho de los trabajadores a acceder a información clara sobre cómo AI está tomando decisiones sobre ellos “.
O’Grady también acogió con agrado la sugerencia de APPG de que el gobierno debería proporcionar fondos para el grupo de trabajo de tecnología del TUC, así como capacitación en IA dirigida por sindicatos para los trabajadores en general.
En respuesta a la publicación de APPG, Andrew Pakes, director de investigación de Prospect Union, quien también dio evidencia de la investigación, dijo que las leyes del Reino Unido no han seguido el ritmo de la aceleración de la IA en el trabajo.
“Existen riesgos reales de discriminación y otras decisiones erróneas causadas por la aplicación incorrecta de la IA en procesos como el reclutamiento y la promoción, y podríamos quedarnos con una situación en la que los trabajadores salen perdiendo pero no tienen recursos para impugnar la decisión”, dijo Pakes.
“En lugar de buscar debilitar nuestras protecciones eliminando el requisito legal para la supervisión humana de las decisiones de IA en el trabajo, el gobierno debería escuchar este informe y actualizar nuestros derechos para que sean aptos para la era de la IA”.
En junio de 2021, el Grupo de Trabajo sobre Innovación, Crecimiento y Reforma Regulatoria (TIGRR) del gobierno recomendó eliminar las salvaguardas contra la toma de decisiones automatizada contenidas en el Artículo 22 del Reglamento General de Protección de Datos (GDPR), en particular la necesidad de revisiones humanas de decisiones algorítmicas.