Los parlamentarios celebran el primer debate sobre el reconocimiento facial en vivo

Los parlamentarios han debatido por primera vez el uso policial del reconocimiento facial en vivo (LFR), y ha surgido un consenso sobre la necesidad de que esté regulado por una ley específica, en lugar del mosaico de leyes y directrices oficiales que actualmente rigen los despliegues policiales.

A lo largo del debate en Westminster Hall el 13 de noviembre de 2024, los parlamentarios, incluidos miembros de ambos bancos delanteros, discutieron una variedad de cuestiones asociadas con la tecnología, incluidos los impactos de la vigilancia LFR en la privacidad; problemas relacionados con el sesgo, la precisión y la discriminación racial; la falta de un marco legal claro que regule su uso por parte de la policía; y cómo su despliegue más amplio podría reducir aún más la cada vez menor confianza de la gente en la policía.

Si bien hubo diferencias de opinión sobre la eficacia del LFR como herramienta de lucha contra el crimen, los parlamentarios coincidieron en gran medida en que existen preocupaciones legítimas en torno a su uso por parte de la policía, y surgió un consenso sobre la necesidad de una regulación adecuada de la tecnología.

La mayoría de los diputados que participaron en el debate también lamentaron abiertamente que hasta ahora no se hubiera debatido sobre el uso de la tecnología por parte de la policía.

Si bien ha habido un escrutinio parlamentario limitado de las LFR en forma de preguntas y respuestas escritas a lo largo de los años, el debate, convocado por el parlamentario conservador John Whittingdale, marca la primera vez que los parlamentarios discuten abiertamente el uso policial de las LFR en los ocho años transcurridos desde que se publicó. desplegado por primera vez por la Policía Metropolitana en el Carnaval de Notting Hill en agosto de 2016.

Desde ese despliegue inicial, ha habido repetidos llamados del Parlamento y la sociedad civil para que se establezcan nuevos marcos legales que regulen el uso de la tecnología por parte de las fuerzas del orden. Estas incluyen tres investigaciones separadas del Comité de Justicia y Asuntos Internos de los Lores (JHAC) sobre hurto en tiendas, algoritmos policiales y reconocimiento facial policial; dos de los ex comisionados de biometría del Reino Unido, Paul Wiles y Fraser Sampson; una revisión legal independiente realizada por Matthew Ryder QC; la Comisión de Igualdad y Derechos Humanos del Reino Unido; y el Comité de Ciencia y Tecnología de la Cámara de los Comunes, que pidió una moratoria sobre las LFR ya en julio de 2019.

Durante su mandato antes de dimitir en octubre de 2023, Sampson también destacó la falta de claridad sobre la escala y el alcance de la vigilancia del espacio público, así como las preocupaciones en torno a la “cultura de retención” general en la vigilancia policial del Reino Unido en torno a los datos biométricos.

Sin embargo, el Ministerio del Interior y los órganos policiales han sostenido repetidamente que ya existe un “marco legal integral”, que consiste en la Ley de Policía y Pruebas Penales (PACE) de 1984; la Ley de Protección de Datos de 2018; la Ley de Protección de las Libertades de 2012; la Ley de Igualdad de 2010; la Ley de Facultades de Investigación de 2000; la Ley de Derechos Humanos de 1998; y poderes del derecho consuetudinario para prevenir y detectar delitos.

El debate concluyó con la ministra de Policía, Diana Johnson, describiendo la posición del nuevo gobierno laborista sobre el uso policial de LFR, señalando que si bien la tecnología tiene “el potencial de ser transformadora para la policía”, también existen “preocupaciones legítimas” en torno a su uso, “incluida la identificación errónea, mal uso, el efecto sobre los derechos humanos y la privacidad individual”.

Además de señalar que el uso de LFR por parte de la Met ha resultado hasta ahora en 460 arrestos este año, incluidos más de 45 delincuentes sexuales registrados por violar sus condiciones, Johnson dijo que era importante dejar claro que el reconocimiento facial ya se rige por la protección de datos, la igualdad y derecho de derechos humanos, así como poderes y orientación del derecho consuetudinario de la Facultad de Policía.

“Este gobierno quiere tomarse el tiempo para escuchar y pensar detenidamente sobre las preocupaciones que se han planteado, así como sobre la mejor manera de permitir que la policía utilice el reconocimiento facial en vivo de una manera que asegure y mantenga la confianza del público”, dijo. dicho.

“Al considerar su uso presente y futuro, debemos equilibrar las preocupaciones sobre la privacidad con las expectativas que ponemos en la policía para mantener nuestras calles seguras… Por lo tanto, estoy comprometido con un programa de participación durante los próximos meses para informar este pensamiento”.

Johnson añadió que tras las conversaciones iniciales con la policía, en las que altos funcionarios dijeron que la falta de un marco claro estaba inhibiendo el uso de la tecnología, el gobierno celebraría una serie de mesas redondas con reguladores y grupos de la sociedad civil antes de que finalice el período. año para informar su pensamiento de cara al futuro.

Problemas de precisión

Sobre la cuestión de la precisión y el sesgo, el secretario del Interior en la sombra, Chris Philp, quien cuando estuvo en el gobierno presionó para que la policía hiciera un uso mucho mayor de la tecnología y pidió que las listas de vigilancia de LFR se vincularan a la base de datos de pasaportes del Reino Unido, destacó un estudio reciente realizado por el Laboratorio Nacional de Física. (NPL) que no encontró sesgos raciales “estadísticamente significativos” en los sistemas LFR de la policía cuando se utilizan en ciertos entornos.

“Cuando esta tecnología se introdujo por primera vez hace unos siete años, hubo informes, informes precisos, de que había prejuicios raciales en la forma en que operaba el algoritmo en ese momento”, dijo Philp. “El algoritmo se ha desarrollado mucho desde aquellos días y ha sido probado definitivamente por el Laboratorio Nacional de Física, que es el principal laboratorio de pruebas del país”.

Señaló que la NPL encontró específicamente que al implementar el software de reconocimiento facial Neoface V4 proporcionado por la firma japonesa de biometría NEC, tanto la Policía Metropolitana como la de Gales del Sur podrían lograr resultados “equitativos” en todos los géneros y etnias al establecer el “umbral de coincidencia de rostros” en 0,6 (siendo cero la similitud más baja y uno la similitud más alta).

Sin embargo, otros parlamentarios cuestionaron esto, señalando que si bien la policía pudo haber mejorado la precisión usando LFR en ese umbral en particular, no existen reglas que les impidan reducir ese umbral en cualquier momento.

“No existen las tergiversaciones ni las personas que no están identificadas erróneamente, y también es muy fácil para un servicio policial reducir ese número porque no tenemos supervisión judicial al respecto”, dijo la parlamentaria laborista Dawn Butler, quien luego añadió que Incluso con un valor de 0,6, el software LFR seguía siendo menos preciso que los llamados “súper observadores” de la policía, que son agentes especialistas entrenados para identificar rápidamente a las personas entre las multitudes.

“Podría haber un caso en el que un servicio de policía esté tratando de demostrar que el sistema que compraron tiene una buena relación calidad-precio, y se puede imaginar que un oficial de policía no obtenga muchos resultados con 0,6 y lo reduzca a 0,5 para poder obtener más resultados, lo cual, a su vez, significará que más personas serán identificadas erróneamente.

“Debería haber una regulación en torno a este tema. Quitarle la libertad a alguien es una de las cosas más graves que podemos hacer en la sociedad, por lo que debemos pensar con mucho cuidado si vamos a introducir algo que acelere eso”.

Prejuicio racial y confianza

La diputada laborista de Lambeth, Bell Ribeiro-Addy, también argumentó que incluso cuando se utiliza este umbral hay margen de error, especialmente si las imágenes de una base de datos policial o extraídas de fuentes en línea disponibles públicamente están mal etiquetadas.

Las personas de color ya son detenidas y registradas a un ritmo desproporcionadamente mayor, y el uso de tecnología potencialmente defectuosa sólo servirá para aumentar la tasa a la que las minorías étnicas son detenidas, registradas y posiblemente incluso detenidas incorrectamente.

Bell Ribeiro-Addy, parlamentario laborista de Lambeth

“Es casi inevitable que las imágenes estén mal etiquetadas y que personas inocentes estén sujetas a enfrentamientos innecesarios con la policía… Las propias pruebas de la Policía Metropolitana de su algoritmo de reconocimiento facial identificaron tasas de inexactitud desproporcionadamente más altas al intentar identificar a personas de color y mujeres”. dijo, destacando un estudio de 2023 realizado por el grupo de libertades civiles Big Brother Watch que encontró que más del 89% de todas las alertas LFR de la policía del Reino Unido desde que se introdujo la tecnología han identificado erróneamente a miembros del público como personas de interés.

“Las personas de color ya son desproporcionadamente detenidas y registradas a un ritmo más alto, y el uso de tecnología potencialmente defectuosa sólo servirá para aumentar la tasa a la que las minorías étnicas son detenidas, registradas y posiblemente incluso detenidas incorrectamente”.

Sostuvo además que aumentar las detenciones a través de LFR podría disminuir aún más la confianza en la policía, particularmente entre las comunidades de minorías étnicas, que ya están excesivamente vigiladas y mal atendidas, y que permitir a la policía recopilar y verificar otros tipos de información biométrica como ADN o huellas dactilares de la gente en la calle no sería aceptado: “¿Por qué deberíamos mirar este software biométrico automatizado e intrusivo de otra manera?”

Mientras que la policía y sus proveedores de LFR afirman que los datos biométricos de las personas se eliminan instantáneamente si no coinciden con ninguna imagen contenida en la lista de seguimiento, el parlamentario independiente Iqbal Mohammed destacó cómo se suponía que el navegador de incógnito de Google era “muy privado” hasta que se descubrió que la empresa estaba almacenar esos datos en violación de las leyes de datos del Reino Unido. “Las empresas que te dicen que las cosas se eliminan inmediatamente no siempre es cierto”, dijo.

Otros parlamentarios afirmaron de diversas formas que una mayor implementación de la LFR “exacerbaría las desigualdades y la discriminación existentes”, “provocaría una mayor división y desconfianza en la policía” y “socavaría varios de nuestros derechos fundamentales”, incluidos los derechos a la privacidad, la libertad de reunión y expresión y no discriminación.

Control judicial y legislación específica

El diputado conservador David Davis destacó la necesidad de una supervisión judicial de la tecnología y de una legislación específica que establezca reglas claras para su uso, argumentando que no debe dejarse en manos de directrices no estatutarias o de la discreción policial.

Varios parlamentarios también hablaron sobre el futuro de LFR, incluido el potencial de que la misión se desvíe y la posibilidad de vincular los seis millones de cámaras CCTV del Reino Unido al software de reconocimiento facial, argumentando que es necesario que existan leyes antes de que la tecnología se utilice aún más ampliamente.

“La tecnología es propensa a fallar. Hace mucho tiempo, cuando… introdujimos el reconocimiento automático de matrículas [ANPR] para vigilar a los terroristas del IRA que vienen de Liverpool a Londres. Ese era exactamente su propósito, pero después se utilizó para una docena de cosas más, sin ningún cambio legislativo ni aprobación del Parlamento”, dijo Davis.

Mohammed también dijo que la falta de legislación específica y supervisión judicial creaba un enorme margen para el abuso y la extralimitación de la policía, y destacó además cómo se podría aprovechar fácilmente para socavar las libertades civiles en torno al derecho a protestar. “El reconocimiento facial puede disuadir a las personas de participar en protestas o reuniones públicas por temor a ser monitorizadas o identificadas”, dijo.

Hay muchísimas dudas, por lo que probablemente deberíamos pensar en dejar de utilizar esta tecnología hasta que hayamos aclarado esas dudas.

Bobby Dean, diputado liberal demócrata

Aunque señaló que la precisión del LFR había mejorado mucho desde el despliegue inicial del Met en 2016 y reconoció los beneficios operativos que puede aportar a la policía, Philp también enfatizó la necesidad de control legislativo y supervisión judicial de la tecnología.

“En Croydon, [LFR] ha resultado en aproximadamente 200 arrestos de personas que de otro modo no habrían sido arrestadas, incluso por cosas como suministro de drogas de Clase A, lesiones corporales graves, fraude, robo doméstico… [and] un hombre que había sido buscado por dos violaciones”, dijo. “Aún estarían libres si no fuera por esta tecnología”.

Philp añadió que si bien “no es cierto decir que existe un vacío total en lo que respecta a las normas y reglamentos… tiene sentido aclarar a nivel nacional dónde se ubican estas directrices”.

Dijo que si bien no le gustaría que el Reino Unido llegara tan lejos como lo ha hecho la Unión Europea con su Ley de Inteligencia Artificial (AIA), que ha prohibido la identificación biométrica remota en una serie de circunstancias, basándose en que permitiría a los delincuentes quedar libres. , considera que utilizar algún tipo de “poder normativo” es un enfoque más sensato que una nueva legislación primaria.

Un parlamentario, el demócrata liberal Bobby Dean, pidió explícitamente que se detuviera por completo el despliegue policial de esta tecnología, al menos hasta que se adopte una legislación primaria para controlar su uso: “Creo que hoy en esta sala queda claro que hay muchas, muchas dudas. , por lo que probablemente deberíamos pensar en detener el uso de esta tecnología hasta que hayamos aclarado esas dudas”.

Exit mobile version