La Ley de IA de la UE no protege el Estado de derecho ni el espacio cívico

La Ley de Inteligencia Artificial (IA) de la Unión Europea (UE) “no protege eficazmente el estado de derecho y el espacio cívico”, según una evaluación del Centro Europeo para el Derecho sin Fines de Lucro (ECNL).

El estudio identifica “lagunas importantes e inseguridad jurídica” en la Ley de IA, que afirma que fue “negociada y finalizada rápidamente”. También concluye que la ley prioriza “los intereses de la industria, los servicios de seguridad y los organismos encargados de hacer cumplir la ley” sobre el estado de derecho y el espacio cívico.

La evaluación de la Ley por parte del ECNL identifica cinco fallas fundamentales, donde las lagunas en la legislación, las lagunas jurídicas y las resoluciones secundarias podrían “socavar fácilmente las salvaguardias establecidas por la Ley de IA, erosionando aún más los derechos fundamentales y los estándares del Estado de derecho a largo plazo”.

Esto incluye la exención general impuesta a los casos de uso de IA de seguridad nacional, incluida la “identificación biométrica remota”; vías limitadas de reparación para las personas; y requisitos débiles de evaluación de impacto.

Desde su propuesta inicial en 2021, el ECNL ha supervisado y participado en debates en torno a la Ley de IA de la UE, en respuesta al uso de sistemas de IA en la vigilancia de activistas, la elaboración de perfiles de pasajeros de aerolíneas y el nombramiento de jueces para casos judiciales.

Después de un proceso legislativo de tres años, el Parlamento Europeo aprobó la ley el mes pasado.

Las lagunas de la ley

Aunque Europa ha establecido su primer marco legal dirigido a la industria de la IA, el informe de ECNL señala que no existen “directrices ni actos delegados para aclarar los requisitos a menudo vagos”, dejando “demasiado a la discreción de la Comisión, la legislación secundaria o los acuerdos voluntarios”. códigos de conducta”.

Añadió que muchas de las prohibiciones de la ley están llenas de lagunas que las convierten en “declaraciones vacías”, debido a “excepciones de gran alcance”. Además, una serie de otras lagunas permiten a las empresas y autoridades públicas evadir estar dentro del alcance de la lista de sistemas de alto riesgo de la Ley.

Más contenido para leer:  La TI del Reino Unido se prepara para la nueva normalidad híbrida en 2021

“A pesar de las promesas de que la Ley de IA de la UE pondría a las personas en el centro, la dura realidad es que tenemos una ley con muy poco que nos proteja de las amenazas y daños que plantea la proliferación de sistemas de IA en prácticamente todos los ámbitos de la vida”. dijo Ella Jakubowska, jefa de políticas de la organización no gubernamental European Digital Rights (EDRi).

En la práctica, los directores de seguridad (CSO) sólo pueden representar a personas cuyos derechos han sido violados cuando están involucrados los derechos del consumidor, lo que significa que “podrían presentar una queja en nombre de un grupo de personas perjudicadas, por ejemplo, por sistemas de calificación crediticia, pero no en nombre de un grupo de personas perjudicadas, por ejemplo, por sistemas de calificación crediticia”. en nombre de los manifestantes cuyas vívidas libertades han sido violadas por el uso de vigilancia biométrica en las calles”.

La Ley no garantiza el derecho a la participación: “no se exigirá a las autoridades públicas ni a las empresas que interactúen con partes interesadas externas al evaluar los impactos de la IA en los derechos fundamentales”.

Uso de la IA por parte de las autoridades estatales

Además, los estándares para la evaluación del impacto en los derechos fundamentales (FRIA) de la Ley para las autoridades públicas que planean utilizar sistemas de IA de alto riesgo son débiles, con tres deficiencias importantes: no existe una obligación explícita de evaluar estos impactos; Las OSC no tienen una “vía directa y legalmente vinculante” para contribuir a las evaluaciones de impacto; y las autoridades policiales y migratorias no tendrán que revelar si utilizan procesos de IA riesgosos.

Más contenido para leer:  Primeras prioridades para el tercer lugar de trabajo

En términos más generales, la IA desarrollada con fines de seguridad nacional recibe una “exención general”, lo que significa que los gobiernos podrían prácticamente “invocar la seguridad nacional para introducir sistemas que de otro modo estarían prohibidos, como la vigilancia biométrica masiva” y evadir las regulaciones de la Ley sobre sistemas de IA riesgosos.

“La exención demasiado amplia para la seguridad nacional también brinda a los países y empresas una tarjeta para salir de la cárcel para ignorar toda la ley, y la falta de aplicación de las reglas a las exportaciones de tecnología muestra aún más el pensamiento limitado detrás de esta Ley. dijo Jakubowska.

Según Caterina Rodelli, analista de políticas de la UE en el grupo de derechos digitales Access Now, la Ley de IA no proporciona salvaguardias significativas en el contenido fronterizo y migratorio, ya que “los sistemas más peligrosos no están prohibidos de manera significativa cuando los utilizan la policía y las autoridades migratorias, como como identificación biométrica remota y detectores de mentiras”.

Añadió, con respecto a la exención de la policía y las autoridades migratorias de las obligaciones de transparencia, que “este es un precedente peligroso que empoderará a las autoridades estatales para utilizar sistemas de inteligencia artificial contra los no deseados en la sociedad: primero las personas racializadas, pero muy probablemente luego los defensores de los derechos humanos. periodistas y opositores políticos”.

Sentando precedente

La eurodiputada Alexandra Geese, vicepresidenta de Los Verdes/Alianza Libre Europea, afirmó: “Durante las negociaciones, trabajamos duro para lograr una prohibición total de la vigilancia biométrica en tiempo real. Desafortunadamente, la lista de prohibiciones fue diluida por el Consejo en las etapas finales e incluso después del diálogo tripartito final. El Consejo Europeo perdió la oportunidad de proteger eficazmente a sus ciudadanos contra la vigilancia de la IA.

“Pero, sin la Ley de IA, no tendríamos ningún instrumento para responsabilizar a la industria de la IA”, afirmó. “La UE ha creado el primer marco legal del mundo con reglas sólidas que nos permitirán mejorar las herramientas de IA en el futuro. Con normas claras para el desarrollo y uso de sistemas de IA, Europa está allanando el camino hacia un futuro en el que la tecnología esté al servicio de las personas respetando nuestros derechos fundamentales y principios democráticos”.

Más contenido para leer:  El proyecto Diana proporciona dividendos tecnológicos de la OTAN a Finlandia

Jakubowska argumentó que si bien debería haber un impulso continuo para luchar por la aplicación más estricta de las normas de la Ley de IA de la UE, está claro que la ley no debería convertirse en el modelo global sobre cómo proteger los derechos y la democracia frente a la creciente digitalización de la sociedad.

Rodelli añadió: “La Ley de IA sienta un precedente peligroso, ya que crea un marco paralelo separado para las autoridades encargadas de hacer cumplir la ley y de migración que utilizan sistemas de IA. Esta segunda norma afectará en primer lugar a los más marginados de la sociedad, es decir, a los inmigrantes y a las personas racializadas en la UE”.

Afirmó además que el uso represivo de sistemas de IA en otras leyes que siguen este precedente ya ha comenzado a tener lugar, con la votación del Nuevo Pacto de la UE sobre Migración y Asilo el 10 de abril. “Este conjunto de reformas está respaldado por una variedad de tecnologías de vigilancia que entrarían dentro del alcance de la Ley de IA, pero que de facto no serán reguladas como tales debido a este sistema paralelo de regulación laxa que se ha implementado para la policía y las autoridades de migración”, dijo Rodelli.

Access Now ha publicado una declaración sobre el vínculo entre la Ley de IA y el Pacto de Migración, señalando cómo ambos fomentarán una mayor vigilancia en la UE.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales