El plan propuesto por el gobierno del Reino Unido para regular la inteligencia artificial (IA) se queda corto cuando se trata de proteger los derechos humanos, advirtió el organismo de control de la igualdad de Gran Bretaña.
En respuesta al documento técnico sobre IA del gobierno, la Comisión de Igualdad y Derechos Humanos (EHRC, por sus siglas en inglés) dijo que apoya ampliamente el enfoque del Reino Unido, pero que se debe hacer más para lidiar con las implicaciones negativas para los derechos humanos y la igualdad de los sistemas de IA.
Dijo que el régimen regulatorio propuesto fracasará si los reguladores, incluidos ellos mismos, la Oficina del Comisionado de Información (ICO) y otros involucrados en el Foro de Cooperación de Reguladores Digitales (DRCF), no cuentan con los fondos adecuados para llevar a cabo sus funciones.
“La gente quiere los beneficios de la nueva tecnología, pero también necesita redes de seguridad para protegerlos de los riesgos que plantea el avance descontrolado de la IA”, dijo la presidenta de EHRC, Baroness Falkner. “Si alguna tecnología nueva va a traer innovación mientras nos mantiene seguros, necesita una supervisión cuidadosa. Esto incluye la supervisión para garantizar que la IA no empeore los sesgos existentes en la sociedad ni conduzca a una nueva discriminación.
“Para enfrentar este desafío, debemos aumentar nuestra capacidad y ampliar nuestra operación como regulador de la igualdad y los derechos humanos. No podemos hacer eso sin la financiación del gobierno”.
Publicado en marzo de 2023, el documento técnico describe el marco “pro-innovación” del gobierno para regular la IA, que gira en torno a empoderar a los reguladores existentes para crear reglas personalizadas y específicas del contexto que se adapten a las formas en que se utiliza la IA en los sectores que examinan.
También describe cinco principios que los reguladores deben considerar para facilitar “el uso seguro e innovador de la IA” en sus industrias y, en general, se basa en el enfoque establecido por el gobierno en su estrategia nacional de IA de septiembre de 2021, que busca impulsar la adopción corporativa de la IA. tecnología, impulsar las habilidades y atraer más inversión internacional.
“Desde la publicación del documento técnico, ha habido advertencias claras de importantes figuras de la industria y académicos sobre los riesgos que plantea la IA, incluidos los derechos humanos, la sociedad e incluso los humanos como especie”, dijo la EHRC en su respuesta oficial.
“Los marcos de derechos humanos e igualdad son fundamentales para la forma en que regulamos la IA, para apoyar la innovación segura y responsable. Instamos al gobierno a integrar mejor estas consideraciones en sus propuestas”.
La EHRC dijo que, en general, se hace muy poco énfasis en los derechos humanos en todo el documento técnico, y solo se menciona explícitamente en relación con el principio de “equidad”, y solo como un subconjunto de otras consideraciones y en relación con la discriminación específicamente, y luego nuevamente. implícitamente al señalar que los reguladores están sujetos a la Ley de derechos humanos de 1998.
“La equidad es un principio importante y necesario, que acogemos con beneplácito. Pero no cubre la gama completa y amplia de derechos humanos promulgados en el Reino Unido, ni los riesgos potenciales que plantea la IA en formas que podemos prever y en formas que solo se harán evidentes con el tiempo”, dijo el organismo de control.
“El documento técnico también hace una referencia limitada a la igualdad y no hace referencia a las propias obligaciones del deber de igualdad del sector público de los reguladores, a pesar del riesgo ampliamente reconocido de discriminación de los sistemas de IA”.
La EHRC agregó que es vital que el gobierno cree rutas de reparación adecuadas para que las personas estén capacitadas para desafiar de manera efectiva los daños relacionados con la IA, ya que el marco actual consiste en un mosaico de mecanismos específicos del sector.
En cuanto a los problemas de financiación, la EHRC dijo que las nuevas responsabilidades regulatorias propuestas para los reguladores designados, y en particular la expectativa de que publicarán una guía dentro de los 12 meses, quedan fuera de los compromisos de su plan de negocios actual y, por lo tanto, no tienen fondos. Por lo tanto, pide al gobierno que apoye a los reguladores en el desarrollo de su capacidad, y señala que no hacerlo pondría en peligro las ambiciones de IA del gobierno.
En abril de 2023, el ICO también respondió oficialmente al documento técnico, pidiendo una mayor claridad sobre cómo deben colaborar los reguladores y cómo los principios de IA sugeridos se alinearán con las reglas de protección de datos existentes.
Si bien la industria ha recibido con agrado el libro blanco y el enfoque gubernamental propuesto, otros miembros de la sociedad civil y los sindicatos se han mostrado menos entusiastas.
El Congreso de Sindicatos (TUC), por ejemplo, ha dicho que el libro blanco solo ofrece una serie de compromisos “vagos” y “débiles” para el uso ético de la IA en el trabajo, y que el gobierno se niega a implementar los “necesarios”. barandillas” para salvaguardar los derechos de los trabajadores.
En mayo de 2023, el diputado laborista Mick Whitley presentó un proyecto de ley “centrado en las personas y basado en los derechos” para regular el uso de la IA en el trabajo, que establece un enfoque alternativo para controlar el uso de la tecnología. Incluye disposiciones para que los empleadores consulten significativamente con los empleados y sus sindicatos antes de introducir la IA en el lugar de trabajo, así como para invertir la carga de la prueba en las denuncias de discriminación basadas en la IA, de modo que el empleador tenga que establecer que su algoritmo no discriminó.