Un panel de expertos de EE. UU., Bélgica y Nueva Zelanda ha informado al Comité de Justicia y Asuntos de Interior de la Cámara de los Lores sobre los riesgos de permitir que las empresas de tecnología introduzcan la tecnología en la vigilancia.
Los parlamentarios interrogaron al panel sobre el uso de tecnología de vigilancia, como cámaras corporales y algoritmos de aplicación de la ley.
Elizabeth Joh, profesora de derecho Martin Luther King Jr en la Facultad de Derecho de Davis de la Universidad de California, dijo al comité que ha habido una experimentación absoluta en el uso de la tecnología para la vigilancia policial en los EE. UU. Advirtió sobre la influencia de las empresas del sector privado, que según dijo había influido en la adopción de tecnología en las fuerzas policiales.
“Es el sector privado el que ha desarrollado la tecnología para hacer cumplir la ley”, dijo Joh. “Tienen un interés enorme y ofrecen incentivos”.
Por ejemplo, se está incitando a las agencias de aplicación de la ley a usar cámaras corporales gratuitas durante un año, dijo. Pero cuando termina el juicio, las fuerzas policiales se ven obligadas a utilizar el software y los servicios de la empresa para acceder a todos los datos de vigilancia que han recopilado.
Joh dijo que los departamentos de policía están obligados a enviar los datos recopilados por las cámaras corporales al almacén de datos de la empresa, al que solo se puede acceder mediante su software. “Después de un año, muchas fuerzas policiales tienen tantos datos de cámaras corporales que están obligadas a usar el software de la empresa”, agregó.
Rosamunde Elise Van Brakel, profesora investigadora de estudios de vigilancia en la Vrije Universiteit en Bruselas, Bélgica, y codirectora de la Red de Estudios de Vigilancia, dijo al comité: “No hay transparencia en las reglas de contratación. No hay información pública sobre cómo se toman las decisiones “.
Van Brakel dijo que entre los desafíos que enfrentan los departamentos de policía está el hecho de que a menudo carecen de la experiencia suficiente. “Creo que un factor importante es tener la experiencia para comprender lo que las empresas de tecnología prometen que hará la tecnología”, dijo. En algunos países europeos, algunos departamentos de policía han optado por no comprar tecnología a proveedores de tecnología estadounidenses, agregó.
Van Brakel también discutió la necesidad de establecer órganos de supervisión y regulaciones. Pero algunas leyes, como las que cubren la protección de datos, son demasiado restrictivas, dijo. “La regulación específica del sector podría ser muy útil porque la protección de datos se centra mucho en la protección de datos en línea o en el sector privado. Hay pocas pautas sobre cómo el sector público debe implementar la protección de datos “.
Por ejemplo, las regulaciones generales no pueden capturar los detalles del crimen organizado o la protección infantil, dijo.
Antes de hacer una inversión en tecnología de aplicación de la ley, dijo Van Brakel, debe haber una evaluación de proporcionalidad, que tenga en cuenta el cumplimiento de las regulaciones y cómo el despliegue de la tecnología afectará a la sociedad, la democracia y los derechos de los ciudadanos. “¿Cómo la tecnología empodera a la policía para cumplir su objetivo social?” ella dijo. “Esta pregunta no se hace lo suficiente. No hay suficiente reflexión sobre cómo ayuda a la policía ”.
En el peor de los casos, dijo Van Brakel, las regulaciones y los derechos de los ciudadanos se diluirán, lo que puede resultar en que ciertos grupos de la sociedad se vean sometidos a la tecnología de manera desproporcionada.
Colin Gavaghan, presidente del panel asesor sobre tecnologías emergentes en la Policía de Nueva Zelanda y director del Centro de la Fundación de Nueva Zelanda para Leyes y Políticas en Tecnologías Emergentes, Universidad de Otago, dijo que reducir el sesgo en un algoritmo no se trata simplemente de eliminar un solo punto de datos. , como el origen étnico, porque el sesgo se extiende a través de múltiples conjuntos de datos.
Al recopilar datos sobre delitos con el propósito de aprendizaje automático, Gavaghan recomendó que los departamentos de policía extraigan datos de informes de delitos del público, “para romper el ciclo de retroalimentación”. Esto sucede cuando el algoritmo le dice a la policía dónde es probable que ocurra un crimen. Investigan, encuentran un delito y su informe refuerza la decisión del algoritmo.