Prohibir la vigilancia policial predictiva y el reconocimiento facial, dice la sociedad civil

El nuevo gobierno laborista debería prohibir rotundamente los sistemas de vigilancia biométrica y de “vigilancia policial predictiva” basados ​​en inteligencia artificial (IA), basándose en que se utilizan desproporcionadamente para atacar a comunidades racializadas, de clase trabajadora y de inmigrantes, afirmó una coalición de la sociedad civil.

En una carta abierta a la ministra del Interior, Yvette Cooper, la coalición #SafetyNotSurveillance ha pedido una prohibición total del uso de sistemas policiales predictivos que utilizan inteligencia artificial y algoritmos para predecir, perfilar o evaluar la probabilidad de comportamiento delictivo en personas o lugares específicos.

La coalición, formada por Open Rights Group (ORG), Big Brother Watch, la Red de Monitoreo Policial (Netpol) y otras 14 organizaciones centradas en los derechos humanos, también pide una prohibición total de los sistemas de vigilancia biométrica como el reconocimiento facial, y todos los demás sistemas policiales basados ​​en datos, automatizados o de inteligencia artificial deben regularse para salvaguardar a las personas de daños y proteger sus derechos.

“La IA se está expandiendo rápidamente a todas las áreas de la vida pública, pero conlleva riesgos particularmente altos para los derechos, la seguridad y la libertad de las personas en contextos policiales”, escribió la coalición en la carta.

“Se ha demostrado que muchos sistemas de IA magnifican la discriminación y la desigualdad. En particular, los llamados sistemas de “vigilancia policial predictiva” y de vigilancia biométrica se utilizan desproporcionadamente para atacar a grupos marginados, incluidas las comunidades racializadas, de clase trabajadora y de inmigrantes. Estos sistemas criminalizan a las personas y violan los derechos humanos, incluido el derecho fundamental a ser presunto inocente”.

Para proteger los derechos de las personas y evitar usos de la IA que exacerben los desequilibrios estructurales de poder, la coalición pide al gobierno que prohíba por completo el uso de vigilancia policial predictiva y biométrica, al tiempo que somete todos los demás sistemas que influyen, informan o impactan en las decisiones policiales a una estricta obligaciones de transparencia y rendición de cuentas.

Más contenido para leer:  la nueva brecha cibernética pospandémica

Estas obligaciones, añadió el grupo, deberían estar respaldadas por un nuevo marco legislativo que proporcione una “transparencia pública constante” en torno a los sistemas que se están implementando; reduce el intercambio de datos entre las autoridades públicas, las fuerzas del orden y el sector privado; impone requisitos de accesibilidad a los proveedores de IA; y garantiza que haya una participación humana significativa y una revisión de las decisiones automatizadas.

La coalición añadió además que cualquier nueva legislación también debe garantizar que exista un compromiso obligatorio con las comunidades afectadas, dar a las personas el derecho a una decisión por escrito de un ser humano que explique el resultado automatizado y proporcionar rutas claras de reparación tanto para grupos como para individuos. Cualquier mecanismo de reparación debe incluir también el apoyo a los denunciantes, afirmó.

Se ha demostrado que la inteligencia artificial y los sistemas automatizados magnifican la discriminación y la desigualdad en la actuación policial. Sin una regulación estricta, la policía seguirá utilizando sistemas de inteligencia artificial que infringen nuestros derechos y exacerban los desequilibrios estructurales de poder, mientras las grandes empresas tecnológicas se benefician.

Sara Chitseko, Grupo de Derechos Abiertos

“Se ha demostrado que la inteligencia artificial y los sistemas automatizados magnifican la discriminación y la desigualdad en la actuación policial”, dijo Sara Chitseko, directora del programa precrimen de ORG. “Sin una regulación estricta, la policía seguirá utilizando sistemas de inteligencia artificial que infringen nuestros derechos y exacerban los desequilibrios estructurales de poder, mientras las grandes empresas tecnológicas se benefician”.

El gobierno del Reino Unido dijo anteriormente en el discurso del Rey que “buscaría establecer la legislación adecuada para imponer requisitos a quienes trabajan en el desarrollo de los modelos de inteligencia artificial más potentes”. Sin embargo, actualmente no hay planes para una legislación específica sobre IA, ya que la única mención de la IA en la exposición informativa del discurso es como parte de un proyecto de ley de metrología y seguridad de productos, cuyo objetivo es responder “a los riesgos y oportunidades de nuevos productos para permitir Reino Unido para seguir el ritmo de los avances tecnológicos, como la IA”.

El gobierno anterior dijo que si bien no se apresuraría a legislar sobre la IA, se necesitarían requisitos vinculantes para los sistemas más potentes, ya que las medidas voluntarias para las empresas de IA probablemente serían “inconmensurables con el riesgo” que presentaban las capacidades más avanzadas.

Computer Weekly se puso en contacto con el Ministerio del Interior para solicitar comentarios, pero le dijeron que todavía está considerando su respuesta.

Preocupaciones actuales por la tecnología policial

En noviembre de 2023, el comisionado saliente de biometría y cámaras de vigilancia para Inglaterra y Gales, Fraser Sampson, cuestionó las capacidades de prevención del delito del reconocimiento facial, argumentando que las autoridades confiaban en gran medida en su efecto paralizador, más que en su eficacia real para identificar a las personas buscadas.

También advirtió sobre una supervisión generalmente deficiente del uso de tecnologías biométricas por parte de la policía, y agregó que existen peligros reales de que el Reino Unido caiga en un estado de vigilancia “integral” si no se prestan atención a las preocupaciones sobre estas poderosas tecnologías.

Sampson también advirtió anteriormente en febrero de 2023 sobre la “cultura de retención” general de la policía del Reino Unido en torno a los datos biométricos, y le dijo al Comité Conjunto de Derechos Humanos (JCHR) del Parlamento que lo predeterminado entre las fuerzas policiales era conservar la información biométrica, independientemente de si estaba legalmente permitida. .

Destacó específicamente la retención continua e ilegal de millones de imágenes bajo custodia de personas que nunca fueron acusadas de un delito, señalando que aunque el Tribunal Superior dictaminó en 2012 que estas imágenes deben eliminarse, el Ministerio del Interior, que posee la mayoría de las bases de datos biométricas utilizadas por La policía del Reino Unido dijo que no se puede hacer porque la base de datos en la que se encuentran no tiene capacidad de eliminación masiva.

Una investigación anterior de la Cámara de los Lores sobre el uso de tecnologías algorítmicas avanzadas por parte de la policía del Reino Unido, que exploró el uso del reconocimiento facial y varias herramientas de predicción de delitos, también encontró en marzo de 2022 que estas herramientas representan “un riesgo real y actual para los derechos humanos y el gobierno”. de ley. A menos que esto se reconozca y se aborde, los beneficios potenciales del uso de tecnologías avanzadas pueden verse superados por el daño que ocurrirá y la desconfianza que creará”.

En el caso de las tecnologías de “vigilancia policial predictiva”, Lords señaló su tendencia a producir un “círculo vicioso” y “afianzar patrones de discriminación preexistentes” porque dirigen las patrullas policiales a áreas de bajos ingresos, que ya están excesivamente vigiladas, basándose en arrestos históricos. datos.

En cuanto al reconocimiento facial, agregaron que podría tener un efecto paralizador sobre las protestas, socavar la privacidad y conducir a resultados discriminatorios.

Después de una breve investigación de seguimiento centrada específicamente en el reconocimiento facial, Lords observó que la policía del Reino Unido estaba ampliando el uso de la tecnología de reconocimiento facial sin un escrutinio ni responsabilidad adecuados, a pesar de carecer de una base legal clara para sus despliegues. También descubrieron que no existían estándares o sistemas de regulación rigurosos para controlar el uso de la tecnología por parte de las fuerzas.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales