El alto comisionado de las Naciones Unidas (ONU) para los derechos humanos ha pedido una moratoria sobre la venta y el uso de sistemas de inteligencia artificial (IA) que representan un grave riesgo para los derechos humanos con carácter de urgencia.
Michelle Bachelet, ex presidenta de Chile que se ha desempeñado como alta comisionada de la ONU para los derechos humanos desde septiembre de 2018, dijo que se debe establecer una moratoria al menos hasta que se implementen las salvaguardias adecuadas, y también pidió una prohibición total de las aplicaciones de IA que no se puede utilizar de conformidad con el derecho internacional de los derechos humanos.
“La inteligencia artificial puede ser una fuerza para el bien, ayudando a las sociedades a superar algunos de los grandes desafíos de nuestro tiempo”, dijo Bachelet en un comunicado. “Pero las tecnologías de IA pueden tener efectos negativos, incluso catastróficos, si se utilizan sin tener en cuenta suficientemente cómo afectan los derechos humanos de las personas.
“La inteligencia artificial ahora llega a casi todos los rincones de nuestra vida física y mental e incluso a los estados emocionales. Los sistemas de inteligencia artificial se utilizan para determinar quién obtiene servicios públicos, decidir quién tiene la oportunidad de ser contratado para un trabajo y, por supuesto, afectan la información que las personas ven y pueden compartir en línea.
“Dado el rápido y continuo crecimiento de la IA, llenar la inmensa brecha de responsabilidad en la forma en que se recopilan, almacenan, comparten y utilizan los datos es una de las cuestiones de derechos humanos más urgentes que enfrentamos”.
Los comentarios de Bachelet coinciden con la publicación de un informe (designado A / HRC / 48/31) por la Oficina de Derechos Humanos de la ONU, que analiza cómo AI afecta los derechos de las personas a la privacidad, salud, educación, libertad de movimiento, libertad de reunión pacífica y asociación. y libertad de expresión.
El informe encontró que tanto los estados como las empresas a menudo se han apresurado a implementar sistemas de inteligencia artificial y en gran medida no realizan la debida diligencia adecuada sobre cómo estos sistemas afectan los derechos humanos.
“El objetivo de los procesos de debida diligencia en derechos humanos es identificar, evaluar, prevenir y mitigar los impactos adversos sobre los derechos humanos que una entidad pueda causar o a los que pueda contribuir o estar directamente vinculada”, dijo el informe, agregando que la debida diligencia debe ser realizado durante todo el ciclo de vida de un sistema de IA.
“Cuando los procesos de debida diligencia revelan que el uso de IA es incompatible con los derechos humanos, debido a la falta de vías significativas para mitigar los daños, esta forma de uso no debe continuarse”, dijo.
El informe señaló además que los datos utilizados para informar y orientar los sistemas de IA pueden ser defectuosos, discriminatorios, desactualizados o irrelevantes, lo que presenta riesgos particularmente agudos para grupos ya marginados, y a menudo se comparten, fusionan y analizan de manera opaca tanto por los estados como por corporaciones.
Como tal, dijo, se requiere atención dedicada a situaciones en las que existe un “nexo estrecho” entre un estado y una empresa de tecnología, los cuales deben ser más transparentes sobre cómo están desarrollando e implementando la IA.
“El estado es un actor económico importante que puede dar forma a cómo se desarrolla y utiliza la IA, más allá del papel del estado en las medidas legales y políticas”, dijo el informe de la ONU. “Cuando los estados trabajan con desarrolladores de IA y proveedores de servicios del sector privado, los estados deben tomar medidas adicionales para garantizar que la IA no se utilice con fines incompatibles con los derechos humanos.
“Cuando los estados operan como actores económicos, siguen siendo los principales garantes de obligaciones en virtud del derecho internacional de los derechos humanos y deben cumplir de forma proactiva con sus obligaciones. Al mismo tiempo, las empresas siguen siendo responsables de respetar los derechos humanos cuando colaboran con los estados y deben buscar formas de respetar los derechos humanos cuando se enfrentan a requisitos estatales que entran en conflicto con las leyes de derechos humanos ”.
Agregó que cuando los estados confían en las empresas para entregar bienes o servicios públicos, deben garantizar la supervisión del proceso de desarrollo e implementación, lo que se puede hacer exigiendo y evaluando información sobre la precisión y los riesgos de una aplicación de inteligencia artificial.
En el Reino Unido, por ejemplo, tanto el Servicio de Policía Metropolitana (MPS) como la Policía de Gales del Sur (SWP) utilizan un sistema de reconocimiento facial llamado NeoFace Live, que fue desarrollado por la Corporación NEC de Japón.
Sin embargo, en agosto de 2020, el Tribunal de Apelación determinó que el uso de la tecnología por parte de SWP era ilegal, una decisión que se basó en parte en el hecho de que la fuerza no cumplió con su deber de igualdad en el sector público de considerar cómo sus políticas y prácticas podrían ser discriminatorias.
El fallo judicial dijo: “Por razones de confidencialidad comercial, el fabricante no está dispuesto a divulgar los detalles para que pueda ser probado. Eso puede ser comprensible pero, en nuestra opinión, no permite que una autoridad pública cumpla con su propio deber indelegable “.
El informe de la ONU agregó que el “secreto intencional del gobierno y los actores privados” está socavando los esfuerzos públicos para comprender los efectos de los sistemas de inteligencia artificial en los derechos humanos.
Al comentar sobre los hallazgos del informe, Bachelet dijo: “No podemos darnos el lujo de seguir poniéndonos al día con respecto a la IA, permitiendo su uso con límites o supervisión limitados o sin ellos, y lidiando con las consecuencias casi inevitables sobre los derechos humanos después del hecho.
“El poder de la IA para servir a las personas es innegable, pero también lo es la capacidad de la IA para alimentar violaciones de derechos humanos a una escala enorme y prácticamente sin visibilidad. Es necesario actuar ahora para poner barreras de protección de los derechos humanos en el uso de la IA, por el bien de todos “.
La Comisión Europea ya ha comenzado a lidiar con la regulación de la IA, publicando su propuesta de Ley de Inteligencia Artificial (AIA) en abril de 2021.
Sin embargo, organizaciones y expertos en derechos civiles digitales dijeron a Computer Weekly que, aunque la regulación es un paso en la dirección correcta, no aborda los desequilibrios de poder fundamentales entre quienes desarrollan e implementan la tecnología y quienes están sujetos a ella.
Afirmaron que, en última instancia, la propuesta hará poco para mitigar los peores abusos de la tecnología de inteligencia artificial y esencialmente actuará como luz verde para una serie de casos de uso de alto riesgo debido a su énfasis en los estándares técnicos y la mitigación del riesgo sobre los derechos humanos.
En agosto de 2021, tras la exposición de Forbidden Stories y Amnistía Internacional de cómo se estaba utilizando el software espía Pegasus del Grupo NSO para llevar a cabo una vigilancia generalizada de cientos de dispositivos móviles, varios relatores especiales de la ONU pidieron a todos los estados que impongan una moratoria global a la venta y transferencia de tecnologías de vigilancia “potencialmente mortales”.
Advirtieron que era “altamente peligroso e irresponsable” permitir que el sector de la tecnología de vigilancia se convierta en una “zona libre de derechos humanos”, y agregaron: “Tales prácticas violan los derechos a la libertad de expresión, privacidad y libertad, posiblemente poniendo en peligro la vida de las personas. cientos de personas, ponen en peligro la libertad de los medios de comunicación y socavan la democracia, la paz, la seguridad y la cooperación internacional “.