La Ley de la UE ‘debe empoderar a los afectados por los sistemas de IA para que tomen medidas’

La organización de investigación independiente Ada Lovelace Institute ha publicado una serie de propuestas sobre cómo la Unión Europea (UE) puede modificar su próxima Ley de Inteligencia Artificial (AIA) para empoderar a los afectados por la tecnología tanto a nivel individual como colectivo.

Las enmiendas propuestas también tienen como objetivo ampliar y remodelar el significado de “riesgo” dentro de la regulación, que según el Instituto debería basarse en un propósito “razonablemente previsible” y extenderse más allá de su enfoque actual en los derechos y la seguridad individuales para incluir también los riesgos sistémicos y ambientales. riesgos

“Regular la IA es un desafío legal difícil, por lo que se debe felicitar a la UE por ser la primera en presentar un marco integral”, dijo Alexandru Circiumaru, líder de políticas públicas europeas en el Instituto Ada Lovelace. “Sin embargo, las propuestas actuales pueden y deben mejorarse, y los responsables políticos de la UE tienen la oportunidad de fortalecer significativamente el alcance y la eficacia de esta legislación histórica”.

Tal como está actualmente, la AIA, que fue publicada por la Comisión Europea (CE) el 21 de abril de 2021, adopta un enfoque basado en el riesgo y liderado por el mercado para regular la tecnología, centrándose en establecer reglas sobre el uso de “tecnologías de alto riesgo”. ” y prácticas de IA “prohibidas”.

Sin embargo, los expertos y las organizaciones de derechos civiles digitales han afirmado que la propuesta regulatoria favorece a las organizaciones, tanto públicas como privadas, que desarrollan e implementan tecnologías de inteligencia artificial, a las que se les asigna esencialmente la tarea de marcar casillas, mientras que a la gente común se le ofrece poco. en la forma de protección o reparación.

Afirmaron que, en última instancia, la propuesta hará poco para mitigar los peores abusos de la tecnología de IA y esencialmente actuará como una luz verde para una serie de casos de uso de alto riesgo debido a su énfasis en los estándares técnicos y cómo aborda la mitigación del riesgo.

Publicadas el 31 de marzo de 2022, las enmiendas propuestas por el Instituto Ada Lovelace para abordar estos problemas incluyen el reconocimiento de las “personas afectadas” como actores distintos en el texto de la AIA, que actualmente solo reconoce a los “proveedores” (aquellos que ponen un sistema de IA en el mercado). y “usuarios”: aquellos que implementan el sistema de IA.

Más contenido para leer:  Se pide al Tribunal de Justicia de las Comunidades Europeas que se pronuncie sobre la legalidad de las pruebas telefónicas pirateadas de EncroChat

Dijo que la AIA también debería usarse para crear un marco integral de remedios en torno a las “personas afectadas”, incluido el derecho de las personas a presentar quejas, el derecho a iniciar acciones colectivas y el derecho a la información para complementar lo que ya está previsto en la Ley General. Reglamento de Protección de Datos (RGPD).

“La Ley de IA de la UE, una vez adoptada, será el primer marco regulatorio integral de IA en el mundo. Esto la convierte en una legislación de importancia mundial con un impacto histórico mucho más allá de su jurisdicción legal”, dijo Imogen Parker, directora asociada del Instituto.

“Hay mucho en juego para todos con la IA, por lo que es tan vital que la UE lo haga bien y se asegure de que la Ley realmente funcione para las personas y la sociedad”.

El Instituto Ada Lovelace recomienda además cambiar el nombre de “usuarios” como “implementadores” para resaltar aún más la distinción entre aquellos que usan la tecnología y aquellos en los que se está utilizando, así como determinar el riesgo en función del “propósito razonablemente previsible” del sistema, en lugar de la “finalidad prevista” tal y como la define el propio proveedor.

“Es posible que el enfoque actual no ofrezca la claridad adecuada sobre cuándo un implementador se ha movido más allá del propósito previsto”, dijo el Instituto. “Cambiar el lenguaje a ‘propósito razonablemente previsible’ requeriría que los proveedores consideren más a fondo la gama de usos potenciales de su tecnología. También fomentaría una mayor claridad al establecer los límites de los sistemas que los proveedores ponen en el mercado en cuanto a hasta qué punto los implementadores pueden experimentar con un sistema de IA sin incurrir en obligaciones adicionales”.

Según las propuestas actuales, los sistemas de alto riesgo también enfrentan requisitos ex ante, lo que significa que se aplican a los sistemas de IA antes de la implementación, lo que, según el Instituto, refleja un enfoque de “seguridad del producto” para la IA que “no captura” cómo son utilizado en el mundo real.

Más contenido para leer:  NCSC: Cuidado con los oportunistas criminales de CrowdStrike

Para hacer frente a esto, recomienda someter los sistemas de alto riesgo a evaluaciones ex-post y establecer un proceso para agregar nuevos tipos de IA a la lista de alto riesgo.

En términos de categorización biométrica y reconocimiento de emociones, el Instituto recomienda agregar ambos a la lista de “riesgo inaceptable” en el Artículo 5 de la AIA, diciendo: “Su uso podría dar lugar a discriminación sobre la base de características que están protegidas por la legislación de la UE”.

Otros grupos de la sociedad civil también han pedido cambios importantes en la AIA en varias ocasiones desde su publicación.

En septiembre de 2021, por ejemplo, European Digital Rights (EDRi) criticó el enfoque “tecnocrático” de la UE para la regulación de la IA, que, según dijo, se centraba demasiado en la implementación de medidas de mitigación del sesgo técnico, también conocido como “eliminación del sesgo”, para ser efectivo en la prevención. toda la gama de daños relacionados con la IA.

Agregó que al adoptar un enfoque de “eliminación de prejuicios” tecnocéntrico, los formuladores de políticas están reduciendo problemas sociales, políticos y económicos complejos a cuestiones meramente técnicas de calidad de datos, cediendo un poder y control significativos sobre una variedad de problemas a las empresas tecnológicas en el proceso.

En el mismo mes, el grupo no gubernamental Fair Trials dijo que la UE debería prohibir por completo el uso de la IA para “predecir” el comportamiento delictivo sobre la base de que su uso terminará reforzando la discriminación y socavando los derechos humanos fundamentales, incluido el derecho a un juicio justo y la presunción de inocencia.

El llamado a prohibir los sistemas policiales predictivos fue reiterado en marzo de 2022 por una coalición de 38 organizaciones de la sociedad civil, incluidas Fair Trials y EDRi.

Dijeron que debido a que los datos subyacentes utilizados para crear, entrenar y operar tales sistemas a menudo reflejan sesgos estructurales históricos y desigualdades en la sociedad, su despliegue “daría como resultado que las personas, comunidades y áreas geográficas racializadas sean vigiladas en exceso y desproporcionadamente vigiladas, interrogados, detenidos y encarcelados en toda Europa”.

Más contenido para leer:  UK Apple Store workers detail ‘union-busting’ tactics

Y en noviembre de 2021, 114 organizaciones firmaron una carta abierta pidiendo a las instituciones europeas que garanticen que la AIA “aborda los impactos estructurales, sociales, políticos y económicos del uso de la IA, está preparada para el futuro y prioriza los valores democráticos y la protección de derechos fundamentales”.

Más específicamente, las organizaciones, que incluían Access Now, Fair Trials, Algorithm Watch, Homo Digitalis y Privacy International, recomendaron: imponer más obligaciones a los usuarios de sistemas de inteligencia artificial de alto riesgo para facilitar una mayor responsabilidad; crear requisitos de accesibilidad obligatorios para que las personas con discapacidad puedan obtener fácilmente información sobre los sistemas de IA; y prohibiendo el uso de cualquier sistema que suponga un riesgo inaceptable para los derechos fundamentales.

Las organizaciones agregaron que el AIA actualmente no contiene ninguna disposición o mecanismo para la reparación individual o colectiva y, como tal, “no aborda completamente la miríada de daños que surgen de la opacidad, complejidad, escala y desequilibrio de poder en el que se encuentran los sistemas de IA. desplegado”.

Si bien no se dirigió directamente a la AIA, Michelle Bachelet, alta comisionada de las Naciones Unidas para los derechos humanos, también pidió una moratoria sobre la venta y el uso de sistemas de IA que representan un riesgo grave para los derechos humanos, al menos hasta que se implementen las garantías adecuadas, como así como por una prohibición total de las aplicaciones de IA que no se pueden utilizar de conformidad con el derecho internacional de los derechos humanos.

“La inteligencia artificial ahora llega a casi todos los rincones de nuestra vida física y mental e incluso a los estados emocionales”, dijo Bachelet. “Los sistemas de inteligencia artificial se utilizan para determinar quién recibe servicios públicos, decidir quién tiene la oportunidad de ser contratado para un trabajo y, por supuesto, afectan la información que las personas ven y pueden compartir en línea.

“Dado el crecimiento rápido y continuo de la IA, llenar el inmenso vacío de responsabilidad en cómo se recopilan, almacenan, comparten y utilizan los datos es una de las cuestiones de derechos humanos más urgentes a las que nos enfrentamos”.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales