La tecnología policial automatizada contribuye al problema del racismo estructural en el Reino Unido

El uso de inteligencia artificial (IA) y tecnologías de reconocimiento facial en la actuación policial está contribuyendo a un “retroceso preocupante” en los derechos civiles y políticos de las personas de color en el Reino Unido, según Runneymede Trust y Amnistía Internacional.

En su presentación conjunta al Comité para la Eliminación de la Discriminación Racial de las Naciones Unidas (ONU), que monitorea de manera independiente los esfuerzos de los estados para erradicar el racismo y promover los derechos humanos, los grupos de la sociedad civil describieron cómo una combinación de legislación, prácticas institucionales y costumbres de la sociedad siguen dañando a las personas de color en el Reino Unido.

“La presentación muestra las formas en que las disparidades que enfrentan las personas de color en el sistema de justicia penal, la salud, la educación, el empleo y la inmigración se han mantenido desde el período del informe anterior hace cuatro años”, dijeron en un comunicado de prensa.

“No mejorar los resultados para las personas de color, al tiempo que se atacan las formas en que estas comunidades pueden disentir, conduce a una situación imposible para ellas. Dirigido por Prevent [counter-terrorism programme]vías restringidas para protestar, excesivamente vigiladas y subprotegidas, y sujetas a mayores tasas de pobreza: las comunidades de color están teniendo que allanar las grietas que les ha abierto el Estado”.

Respaldado por más de otras 40 organizaciones de la sociedad civil, incluidas Liberty, Black Equity Organization, Friends Families and Travellers, Migrants Organise e Inquest, el informe de 50 páginas contiene una sección sobre los impactos de la IA y la automatización en la actuación policial en las personas de color en el Reino Unido.

Señaló, por ejemplo, que a pesar de la propensión de la tecnología de reconocimiento facial en vivo (LFR) a identificar erróneamente a las personas de color, el Ministerio del Interior ha afirmado anteriormente el derecho de las fuerzas policiales a utilizarla en los marcos legales existentes, y que el uso de la tecnología en general está mejorando.

“Según los registros publicados por la Policía Metropolitana, la LFR se desplegó en nueve ocasiones entre 2020 y 2022, lo que resultó en nueve arrestos o enajenaciones. Esto aumentó notablemente a 96 ocasiones entre 2023 y mayo de 2024, lo que resultó en 243 arrestos”, dijo.

“Liberty Investigates reveló que el Ministerio del Interior había realizado en secreto cientos de búsquedas de reconocimiento facial utilizando su base de datos de fotografías de pasaporte y la base de datos de inmigración, lo que generó más preguntas sobre la falta de transparencia y el alcance del uso de datos para el reconocimiento facial”.

Más contenido para leer:  AI ID specialist Onfido in talks to be bought by Entrust

Observó que el uso por parte de la policía de sistemas automatizados como la vigilancia policial predictiva y el reconocimiento automático de matrículas (ANPR) puede provocar violaciones de derechos humanos y muertes; destacando el hecho de que el coche conducido por Chris Kaba, de 23 años, que recibió un disparo mortal en la cabeza por parte de un policía armado en septiembre de 2022, fue señalado por su matrícula a través de la ANPR antes de ser interceptado.

Aunque la policía dijo en ese momento que el vehículo de Kaba estaba “vinculado con un delito con armas de fuego en los días anteriores”, el automóvil no estaba registrado a su nombre y finalmente no se encontraron armas de fuego en su interior. Desde entonces, el oficial armado involucrado ha sido acusado de asesinato y será juzgado en octubre de 2024.

El informe destacó además los resultados discriminatorios de la base de datos Gangs Matrix del Met, que dio lugar a que las personas de color (predominantemente jóvenes negros y hombres, en este caso) fueran perfiladas racialmente por la música que escuchan, su comportamiento en las redes sociales o quién sus amigos lo son.

Añadió que si bien la base de datos ha sido eliminada después de ser condenada como racista, persisten las preocupaciones sobre qué la reemplazará.

En sus recomendaciones para el gobierno del Reino Unido sobre la IA policial, los grupos de la sociedad civil dijeron que debería prohibir todas las formas de sistemas predictivos y de elaboración de perfiles en las fuerzas del orden y la justicia penal (incluidos los sistemas que se centran y apuntan a individuos, grupos y lugares o áreas); proporcionar transparencia pública y supervisión cuando la policía o las agencias de migración y seguridad nacional utilicen IA de “alto riesgo”; e imponer límites legales para prohibir los usos de la IA que presenten un riesgo inaceptable para los derechos humanos.

Agregaron que el gobierno del Reino Unido debería iniciar una investigación de todas las bases de datos policiales sobre pandillas, con miras a examinar la necesidad de una reforma más amplia a nivel nacional. Esto debería considerar si las bases de datos que utilizan las fuerzas en todo el país son una herramienta policial eficaz para hacer frente a los delitos violentos graves; si operan en pleno cumplimiento de la legislación sobre derechos humanos y protección de datos; y si están influenciados por prejuicios raciales o conducen a resultados discriminatorios.

Más contenido para leer:  ¿Cuándo es SIEM la elección correcta sobre SOAR?

Computer Weekly se puso en contacto con el Ministerio del Interior sobre las recomendaciones del informe y si bajo la nueva administración todavía mantiene la opinión de que la tecnología de reconocimiento facial está adecuadamente cubierta por la legislación existente.

“La semana pasada, nuestros pueblos y ciudades fueron testigos de una violencia atroz, con personas atacadas por su color de piel y lugares de culto atacados. Este racismo y odio han causado una angustia generalizada”, dijo un portavoz. “Estamos decididos a que ni los matones callejeros ni los instigadores en línea definan nuestra nación. Nuestra fuerza reside en la unidad de todos los orígenes, religiones y culturas”.

A finales de julio de 2024, una coalición de 17 grupos de la sociedad civil centrados en los derechos humanos pidió de manera similar al nuevo gobierno laborista que prohibiera totalmente los sistemas policiales predictivos y de vigilancia biométrica basados ​​en inteligencia artificial, basándose en que se utilizan desproporcionadamente para atacar comunidades racializadas, de clase trabajadora y de inmigrantes.

“Se ha demostrado que la inteligencia artificial y los sistemas automatizados magnifican la discriminación y la desigualdad en la actuación policial”, dijo Sara Chitseko, gerente del programa previo al crimen de Open Rights Group en ese momento. “Sin una regulación estricta, la policía seguirá utilizando sistemas de inteligencia artificial que infringen nuestros derechos y exacerban los desequilibrios estructurales de poder, mientras las grandes empresas tecnológicas se benefician”.

El Ministerio del Interior está considerando las conclusiones de ambos informes.

Preocupaciones actuales por la tecnología policial

En noviembre de 2023, el comisionado saliente de biometría y cámaras de vigilancia para Inglaterra y Gales, Fraser Sampson, cuestionó las capacidades de prevención del delito del reconocimiento facial, argumentando que las autoridades confiaban en gran medida en su efecto paralizador, más que en su eficacia real para identificar a las personas buscadas.

También advirtió sobre una supervisión generalmente deficiente del uso de tecnologías biométricas por parte de la policía, y agregó que existen peligros reales de que el Reino Unido caiga en un estado de vigilancia “omnicomprensivo” si no se prestan atención a las preocupaciones sobre estas poderosas tecnologías.

Más contenido para leer:  El regulador de datos del Reino Unido debería investigar los despliegues policiales en la nube

Sampson también advirtió anteriormente en febrero de 2023 sobre la “cultura de retención” general de la policía del Reino Unido en torno a los datos biométricos, y le dijo al Comité Conjunto de Derechos Humanos (JCHR) del Parlamento que lo predeterminado entre las fuerzas policiales era conservar la información biométrica, independientemente de si estaba legalmente permitida. .

Destacó específicamente la retención continua e ilegal de millones de imágenes bajo custodia de personas que nunca fueron acusadas de un delito, señalando que aunque el Tribunal Superior dictaminó en 2012 que estas imágenes deben eliminarse, el Ministerio del Interior, que posee la mayoría de las bases de datos biométricas utilizadas por La policía del Reino Unido dijo que no se puede hacer porque la base de datos en la que se encuentran no tiene capacidad de eliminación masiva.

Una investigación anterior de la Cámara de los Lores sobre el uso de tecnologías algorítmicas avanzadas por parte de la policía del Reino Unido, que exploró el uso del reconocimiento facial y varias herramientas de predicción de delitos, también encontró en marzo de 2022 que estas herramientas representan “un riesgo real y actual para los derechos humanos y el gobierno”. de derecho. A menos que esto se reconozca y se aborde, los beneficios potenciales del uso de tecnologías avanzadas pueden verse superados por el daño que ocurrirá y la desconfianza que creará”.

En el caso de las tecnologías de “vigilancia policial predictiva”, Lords señaló su tendencia a producir un “círculo vicioso” y “afianzar patrones de discriminación preexistentes” porque dirigen las patrullas policiales a áreas de bajos ingresos, que ya están excesivamente vigiladas, basándose en arrestos históricos. datos.

En cuanto al reconocimiento facial, agregaron que podría tener un efecto paralizador sobre las protestas, socavar la privacidad y conducir a resultados discriminatorios.

Después de una breve investigación de seguimiento centrada específicamente en el reconocimiento facial, Lords observó que la policía del Reino Unido estaba ampliando el uso de la tecnología de reconocimiento facial sin un escrutinio ni responsabilidad adecuados, a pesar de carecer de una base legal clara para sus despliegues. También descubrieron que no existían estándares o sistemas de regulación rigurosos para controlar el uso de la tecnología por parte de las fuerzas.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales