Human Rights Watch y otras 149 organizaciones de la sociedad civil están instando a las instituciones de la Unión Europea (UE) a mejorar la protección de los derechos fundamentales de las personas en su próxima Ley de Inteligencia Artificial (AIA).
En mayo de 2023, los comités del Parlamento Europeo aprobaron una serie de enmiendas a la AIA, incluidas varias prohibiciones de sistemas “intrusivos y discriminatorios”, así como medidas para mejorar la responsabilidad y la transparencia de los implementadores de IA, que luego fueron adoptadas por todo el Parlamento durante una votación plenaria en junio.
Sin embargo, las enmiendas solo representan un “borrador de mandato de negociación” para el Parlamento Europeo, con negociaciones tripartitas a puertas cerradas que comenzarán entre el Consejo Europeo, el Parlamento y la Comisión a fines de julio de 2023, todos los cuales han adoptado diferentes posiciones en un gama de asuntos.
La posición del Consejo, por ejemplo, es implementar un mayor secreto en torno a los despliegues policiales de IA, al mismo tiempo que intenta ampliar las exenciones que permitirían que se implemente más fácilmente en el contexto de la aplicación de la ley y la migración.
El Parlamento, por otro lado, ha optado por una prohibición total de los sistemas policiales predictivos y está a favor de ampliar el alcance de la base de datos públicamente visible de la AIA de sistemas de alto riesgo para incluir también los desplegados por organismos públicos.
Antes de las negociaciones secretas, Human Rights Watch, Amnistía Internacional, Access Now, European Digital Rights (EDRi), Fair Trials y decenas de otros grupos de la sociedad civil han instado a la UE a prohibir una serie de aplicaciones de IA dañinas, discriminatorias o abusivas; exigir evaluaciones de impacto sobre los derechos fundamentales a lo largo del ciclo de vida de un sistema de IA; y proporcionar remedios efectivos para las personas afectadas negativamente por la IA, entre otras salvaguardias.
“En Europa y en todo el mundo, los sistemas de IA se utilizan para monitorearnos y controlarnos en espacios públicos, predecir nuestra probabilidad de delincuencia futura, facilitar las violaciones del derecho a solicitar asilo, predecir nuestras emociones y categorizarnos, y tomar decisiones cruciales que determinar nuestro acceso a los servicios públicos, el bienestar, la educación y el empleo”, escribieron en un comunicado.
“Sin una regulación estricta, las empresas y los gobiernos seguirán utilizando sistemas de inteligencia artificial que exacerban la vigilancia masiva, la discriminación estructural, el poder centralizado de las grandes empresas de tecnología, la toma de decisiones públicas sin responsabilidad y el daño ambiental.
“Hacemos un llamado a las instituciones de la UE para garantizar que el desarrollo y el uso de la IA sean responsables, públicamente transparentes y que las personas estén capacitadas para desafiar los daños”.
Seguridad nacional y exenciones militares
Para los firmantes de la declaración, un punto importante de controversia en torno a la AIA en su forma actual es que los usos militares y de seguridad nacional de la IA están completamente exentos de sus disposiciones, mientras que los usos policiales están parcialmente exentos.
Por lo tanto, los grupos piden a las instituciones de la UE que establezcan límites claros sobre el uso de la IA por parte de las autoridades nacionales de seguridad, aplicación de la ley y migración, en particular cuando se trata de prácticas de vigilancia “dañinas y discriminatorias”.
Dicen que estos límites deben incluir una prohibición total de las tecnologías de “identificación biométrica remota” retrospectiva y en tiempo real en espacios de acceso público, por parte de todos los actores y sin excepción; una prohibición de todas las formas de vigilancia predictiva; la eliminación de todas las lagunas y exenciones para la aplicación de la ley y el control migratorio; y una prohibición total de los sistemas de reconocimiento de emociones.
Agregaron que la UE también debería rechazar el intento del Consejo de incluir una exención general para los sistemas desarrollados o desplegados con fines de seguridad nacional; y prohibir el uso de la IA en contextos migratorios para realizar evaluaciones de riesgo individualizadas, o para “intervenir, restringir y prevenir” la migración.
Los grupos también piden a la UE que empodere adecuadamente a los miembros del público para que comprendan y desafíen el uso de los sistemas de IA, señalando que es “crucial” que la AIA desarrolle un marco eficaz de responsabilidad, transparencia, accesibilidad y compensación.
Esto debería incluir la obligación de todos los implementadores de IA de realizar y publicar evaluaciones de impacto sobre los derechos fundamentales antes de cada despliegue de un sistema de IA de alto riesgo; registrar su uso de IA en la base de datos pública de la UE antes del despliegue; y garantizar que las personas sean notificadas y tengan derecho a buscar información cuando se vean afectadas por los sistemas de IA.
Todo esto debe estar respaldado por un compromiso significativo con la sociedad civil y las personas afectadas por AI, quienes también deben tener derecho a recursos efectivos cuando se infringen sus derechos.
Cabildeo de las grandes tecnológicas
Por último, los grupos abajo firmantes piden a la UE que rechace el cabildeo de las grandes tecnológicas y señalan que los negociadores “no deben ceder ante los esfuerzos de cabildeo de las grandes empresas tecnológicas que buscan eludir la regulación por intereses financieros”.
En 2021, un informe de Corporate Europe Observatory y LobbyControl reveló que las grandes empresas tecnológicas ahora gastan más de 97 millones de euros al año presionando a la UE, lo que lo convierte en el sector de lobby más grande de Europa por delante de los productos farmacéuticos, los combustibles fósiles y las finanzas.
El informe encontró que a pesar de una amplia variedad de jugadores activos, los esfuerzos de cabildeo del sector tecnológico están dominados por un puñado de empresas, con solo 10 empresas responsables de casi un tercio del gasto total en cabildeo tecnológico. Esto incluye, en orden ascendente, a Vodafone, Qualcomm, Intel, IBM, Amazon, Huawei, Apple, Microsoft, Facebook y Google, que en conjunto gastaron más de 32 millones de euros para hacer oír su voz en la UE.
Dada la influencia de las empresas tecnológicas privadas sobre los procesos de la UE, los grupos dijeron que, por lo tanto, deberían “eliminar la capa adicional agregada al proceso de clasificación de riesgos en el Artículo 6 [in order to] restaurar el proceso claro y objetivo de clasificación de riesgos descrito en la posición original de la Comisión Europea”.
Hablando antes de la votación plenaria del Parlamento de junio, Daniel Leufer, analista principal de políticas de Access Now, dijo a Computer Weekly que el Consejo Europeo modificó el Artículo 6 para eximir a los sistemas de la lista de alto riesgo (contenida en el Anexo Tres de la AIA) eso sería “puramente accesorio”, lo que esencialmente permitiría a los proveedores de IA optar por no participar en la regulación en función de una autoevaluación de si sus aplicaciones son de alto riesgo o no.
“No sé quién está vendiendo un sistema de IA que hace una de las cosas del Anexo Tres, pero eso es puramente accesorio para la toma de decisiones o los resultados”, dijo en ese momento. “El gran peligro es que si deja que un proveedor decida si su sistema es ‘puramente accesorio’ o no, se incentiva enormemente a decir que lo es y simplemente optar por no seguir la regulación”.
Leufer agregó que el texto del Parlamento ahora incluye “algo mucho peor… que es permitir que los proveedores hagan una autoevaluación para ver si realmente representan un riesgo significativo”.