Los desarrolladores de inteligencia artificial (IA), aprendizaje automático (ML) y tecnologías relacionadas con la biométrica tienen “un deber moral y ético” de garantizar que las tecnologías solo se utilicen como una fuerza para el bien, según un informe escrito por la antigua cámara de vigilancia del Reino Unido. notario.
Los desarrolladores deben conocer tanto los beneficios sociales como los riesgos de las tecnologías basadas en inteligencia artificial que producen, y tienen la responsabilidad de garantizar que se utilicen solo en beneficio de la sociedad, decía el documento técnico, que fue publicado por el proveedor de reconocimiento facial Corsight AI. en respuesta a la Ley de Inteligencia Artificial (AIA) propuesta por la Comisión Europea (CE).
“Los valores y principios organizacionales deben comprometerse irreversiblemente a producir tecnología únicamente como una fuerza para el bien”, dijo. “Sin duda, la filosofía debe ser que pongamos la preservación de los estándares de derechos humanos reconocidos internacionalmente, nuestro respeto por el estado de derecho, la seguridad de las instituciones democráticas y la seguridad de los ciudadanos en el centro de lo que hacemos”.
Agregó que una estrategia de desarrollo ‘humana en el circuito’ es clave para calmar cualquier preocupación pública sobre el uso de IA y tecnologías relacionadas, en particular la tecnología de reconocimiento facial.
“El ingrediente más importante de … [developing facial-recognition systems] es el ser humano en el centro del proceso ”, dijo. “La formación, la concienciación sobre los prejuicios, las políticas sobre el despliegue, el cumplimiento de la ley, las normas, los reglamentos y la ética son ingredientes clave.
“Los desarrolladores deben trabajar con el ser humano para crear un producto que sea intuitivo para el ser humano y no al revés. La consideración de brindar apoyo legal y regulatorio en el uso de un software tan sofisticado debe ser una consideración primordial para los desarrolladores “.
Para hacer que la tecnología esté más centrada en las personas, el informe alienta además a los desarrolladores a trabajar en estrecha colaboración con su base de clientes para comprender los requisitos de los usuarios y la legitimidad del proyecto, así como para respaldar el “cumplimiento de las obligaciones legales y para construir las salvaguardas apropiadas donde las vulnerabilidades pueden aumentar”.
En declaraciones a Computer Weekly, el autor del artículo, Tony Porter, director de privacidad de Corsight y ex comisionado de cámaras de vigilancia del Reino Unido, dijo que cuando ha habido casos de tecnologías relacionadas con la inteligencia artificial, como el reconocimiento facial, que se utilizan ilegalmente, es por cómo son. implementado en un contexto particular en lugar de la tecnología en sí misma.
Agregó que parte de su rol en Corsight es explicar “el poder de la tecnología, pero también el uso correcto y juicioso de la misma” a los clientes, lo que para Porter incluye colocar a los humanos en el corazón del desarrollo y operación de la tecnología.
Con el uso policial de la tecnología en particular, Porter reiteró que es importante que los proveedores “apoyen a los usuarios finales con la obligación positiva y duradera de cumplir” el Deber de Igualdad del Sector Público, principalmente a través de una mayor transparencia.
“Mi opinión es que [the developers] deberían ser abiertos al respecto, deberían publicar las cifras y las estadísticas, deberían explicar dónde creen que hay un problema y un problema, porque si estamos hablando de confianza, ¿cómo se obtiene la confianza? Si entregamos la caja negra y no dejamos que nadie sepa lo que hay en ella, simplemente no puede ”, dijo.
Un enfoque de ‘humano en el circuito’
Porter dijo que los reguladores y legisladores deben centrarse más en garantizar que haya un ser humano en el circuito durante el desarrollo y la operación de varias tecnologías basadas en inteligencia artificial.
Añadió además que si bien los algoritmos obviamente son fundamentales para el funcionamiento de los sistemas de reconocimiento facial, “la parte más importante es el ser humano, el entrenamiento, su comprensión del software. Eso es muy, muy complejo, por lo que debe haber un trabajo muy importante en torno a eso.
“He estado instando y alentando a Corsight a adelantarse a esa curva, a estar en una posición en la que los clientes que vienen a nosotros tengan su mano en relación con lo que necesitan hacer, cuáles son las legalidades, cuáles son las trampas, y cómo maximizar el uso “.
Sin embargo, un informe de julio de 2019 del Proyecto de Derechos Humanos, Big Data y Tecnología con sede en el Centro de Derechos Humanos de la Universidad de Essex, que marcó la primera revisión independiente de ensayos de tecnología de reconocimiento facial en vivo (LFR) por parte de la Policía Metropolitana, destacó un “presunción de intervenir” discernible entre los agentes de policía que utilizan la tecnología, lo que significa que tendían a confiar en los resultados del sistema e involucrar a las personas que, según decía, coincidían con la lista de vigilancia en uso, incluso cuando no lo hacían.
Cuando se le preguntó cómo las organizaciones que implementan LFR pueden evitar esta situación, en la que la tecnología impulsa a los humanos conectados a tomar una mala decisión, Porter dijo que los desarrolladores pueden configurar procesos para resaltar dónde pueden surgir riesgos para los operadores humanos.
“Al operador humano, que asumimos que no sabe cómo se desarrolla el software o cómo se desarrolla un algoritmo, se le dice cuáles son los riesgos, cuáles son las variaciones, qué necesitan saber”, dijo.
“Si trabajas sobre la base de que ningún software está 100% libre de sesgos y, según tengo entendido, nunca puede serlo, lo que podemos hacer es cerrar esa brecha, tomar la mano del ser humano y decir: ‘Mira, si hay un riesgo, por pequeño que sea ese riesgo, debe comprenderlo ‘.
“¿Qué le daría eso a un operador humano? Bueno, le da al operador y a la gerencia la oportunidad de desafiar las presunciones, enfocar la capacitación, permitir que los socorristas estén al tanto de la variación, para saber que quizás están operando en un mundo menos seguro “.
El documento técnico señaló además que, por impecable que sea el diseño de una tecnología, por supuesto que se puede abusar de ella cuando “es operada por un usuario final disfuncional u opresivo”, y alienta a los desarrolladores a trabajar en colaboración con los clientes para comprender su caso de uso, sus requisitos y, en última instancia, su legitimidad.
“La inclusión y la diversidad deben ser fundamentales para los esfuerzos de los desarrolladores para garantizar que se elimine cualquier potencial de la tecnología para discriminar a las personas o dañar sus derechos humanos”, dijo. “Vinculado a esto, las empresas deben desarrollar políticas que estipulen claramente que no comerciarán con clientes que no apoyen y defiendan los estándares de derechos humanos reconocidos internacionalmente”.
El marco legal mosaico del Reino Unido para la biometría
En julio de 2019, el Comité de Ciencia y Tecnología de la Cámara de los Comunes publicó un informe que identificó la falta de legislación en torno a LFR y pidió una moratoria sobre su uso hasta que se estableciera un marco.
En su respuesta oficial al informe, que se dio después de una demora de casi dos años en marzo de 2021, el gobierno del Reino Unido afirmó que “ya existía un marco legal integral para la gestión de la biometría, incluido el reconocimiento facial”.
Al describir el marco, el gobierno dijo que incluía poderes policiales de derecho consuetudinario para prevenir y detectar delitos, la Ley de protección de datos de 2018 (DPA), la Ley de derechos humanos de 1998, la Ley de igualdad de 2010, la Ley de policía y pruebas penales de 1984 (PACE), la Ley de Protección de Libertades de 2012 (POFA) y las políticas publicadas por las propias fuerzas policiales.
A principios de julio de 2021, el excomisionado de biometría del Reino Unido, Paul Wiles, dijo al Comité de Ciencia y Tecnología que, si bien actualmente existe un “marco legal general” que rige el uso de tecnologías biométricas, el Parlamento debe crear una legislación que aborde explícitamente el uso de estas tecnologías. en el Reino Unido.
Porter también le dijo a Computer Weekly que estaba de acuerdo con Wiles en que el marco actual es demasiado complicado y debería simplificarse.
“Sería bastante sencillo resumir esto en un marco armonioso, legal y estatutario que brinde claridad a los reguladores, a los operadores, a la policía y al ciudadano privado”, agregó.
Sin embargo, a diferencia de la Junta Europea de Protección de Datos (EDPB) y el Supervisor Europeo de Protección de Datos (SEPD), que han pedido una prohibición completa de la biometría en los espacios públicos sobre la base de que presentan una interferencia inaceptable con los derechos y libertades fundamentales de las personas, Porter se equivoca. en el lado de tener un regulador dedicado que gobierne el uso de la tecnología contra un marco legal dedicado en su lugar.
En respuesta a la propuesta de AIA de la CE, grupos de la sociedad civil y expertos en derechos digitales le han dicho anteriormente a Computer Weekly que, si bien la propuesta era un paso en la dirección correcta, en última instancia no aborda los desequilibrios de poder fundamentales entre quienes desarrollan e implementan la tecnología, y los que están sujetos a ella.
Para Porter, reconociendo que no todo el mundo está de acuerdo con muchos casos de uso de IA, en particular el reconocimiento facial, en última instancia se trata de generar confianza en la tecnología: “Puede pensar que es una gran idea detener a un pedófilo cuando se puede en determinadas circunstancias, pero sin el riesgo de dañar a cientos y cientos de personas que están fuera del sistema o que no las ama.
“[Biometrics] tiene que ser supervisado por un organismo que exija la confianza pública, que tenga una reputación irrefutable e irrefutable de honestidad, integridad, capacidad … [because marginalised communities] sabrá si el estado no tiene un mecanismo adecuado para ello “.