Se ha afirmado que debe eliminarse la idea, a menudo repetida, de que la regulación ahoga la innovación, especialmente en lo que respecta a tecnologías potentes como la inteligencia artificial (IA), porque los límites en el uso de tales herramientas solo fomentarán una aplicación más ética y ética. enfoque responsable para su desarrollo y despliegue.
Hablando en la quinta Cumbre Anual de Ética Digital de TechUK el 8 de diciembre, varios panelistas expertos criticaron la insistencia de la industria de la tecnología en que la regulación sofocaría la innovación tecnológica, argumentando en cambio que las reglas claras son en realidad un facilitador de progreso positivo.
Sandra Wachter, profesora asociada e investigadora principal de la Universidad de Oxford que se especializa en sesgos algorítmicos, dijo que si bien la mayoría de las personas ahora estarían de acuerdo en que la inteligencia artificial y otras tecnologías deben operarse de manera justa, transparente y con responsabilidad, la siguiente tarea es pensar en cómo se puede poner en práctica.
Wachter agregó que esto era especialmente importante ahora, dado que los sistemas de inteligencia artificial se utilizan cada vez más para tomar decisiones que alteran la vida de las personas, desde si obtienen un préstamo hasta si terminan en prisión.
“Creo que el siguiente paso es salir de la mentalidad de que todo tipo de regulación está sofocando la innovación porque realmente, realmente no es verdad”, dijo. “Si alguien dice eso, entonces no ha entendido realmente lo que se supone que debe hacer la regulación; no se trata de sofocar la innovación, se trata de inspirar la innovación responsable”.
Wachter dijo que también era importante distinguir qué se entiende exactamente por “innovación sofocante” y si la gente se refiere a la regulación de la investigación o el despliegue.
“Nadie quiere regular, reprimir, obstaculizar la investigación”, dijo. “Yo diría que en el Reino Unido ocurre lo contrario: se centra en gran medida en tratar de encontrar las mentes más brillantes del mundo para traspasar los límites del conocimiento.
“En lo que queremos enfocarnos es en el despliegue, especialmente en áreas donde existe un alto riesgo y daño potencial para los ciudadanos, eso es lo que queremos regular. Creo que la idea de la implementación ‘sofocante’ es extraña, porque no estoy muy seguro de si quiero tener un campo en el que solo entren las personas que no quieren jugar según las reglas.
“¿Son esas las personas que quieres atraer? ¿O le gustaría tener personas que se sientan atraídas por los altos estándares y la conducta ética? Quiero tener a esas personas que piensan en el público ”.
El par liberal demócrata Lord Clement-Jones estuvo de acuerdo con Wachter en que la regulación debería verse como un facilitador más que como una barrera, y dijo que aunque ha habido un buen progreso en los últimos cinco años, por ejemplo, con el establecimiento de instituciones como la Oficina de IA o el Centro para la Ética e Innovación de los Datos (CDEI): el Reino Unido todavía está corto de acciones concretas.
“Parece existir la idea de que la regulación es enemiga de la innovación”, dijo. “Lamentablemente, nunca hemos establecido un conjunto de principios en el Reino Unido para la adopción de la IA. El CDEI ha realizado un gran trabajo sobre el riesgo de sesgo, pero no se ha colocado en una base legal a pesar de las intenciones originales, y ha habido muy poco apetito en las comunidades de investigación y de negocios para reformar el GDPR. [General Data Protection Regulation] y, sin embargo, aquí estamos, en la consulta, hablando de deshacernos del artículo 22 [on automated processing], que es una de las pocas partes del RGPD que intenta llegar a un acuerdo con la IA “.
Clement-Jones agregó que cuando se trata de un empujón en la regulación, especialmente en tecnologías individuales como el reconocimiento facial o la toma de decisiones automatizada, el Reino Unido está “muy por detrás de la curva” en comparación con el resto de Europa e incluso los EE. UU.
También criticó al ministro digital Chris Philp, quien dijo durante su discurso de apertura en la Cumbre que el Reino Unido se centraría en “una regulación ligera y amigable con la innovación en relación con la IA”, y agregó: “Queremos que se base en el riesgo en natural, proporcionado, flexible … centrado en los resultados, no queremos que sea excesivamente oneroso, y lo presentaremos formalmente en los próximos meses “.
Al comentar sobre el compromiso de Philp con la “regulación ligera”, Clement Jones dijo que el Reino Unido se abrió camino a través de la regulación de la IA, como sugirió Philp, que era un enfoque totalmente equivocado. “Necesitamos converger, de lo contrario, nuestros desarrolladores, nuestras principales empresas que aplican sistemas de inteligencia artificial en Europa, se encontrarán sujetos a la regulación europea y no les gustará porque habrán ajustado todo su desarrollo a un conjunto de reglas del Reino Unido, que no parece ser muy fructífero ”, dijo.
“Al igual que el RGPD es el estándar de oro, tendremos que reconocer que la Ley de IA de la UE será ampliamente adoptada, e incluso los estadounidenses ahora están presentando estándares, evaluación de riesgos, etc. Creo que tenemos que avanzar un poco más en nuestra actitud hacia la regulación ”.
Al comentar sobre los supuestos populares de la competitividad de la IA a escala global, Joanna Bryson, profesora de ética y tecnología en la Escuela Hertie de Berlín, dijo que las narrativas en torno a la ética que limita la innovación eran simplemente incorrectas. “El objetivo de la ética es ayudar a que una sociedad florezca”, dijo. “No se trata solo de la rapidez con la que puede expresar sus innovaciones, se trata de cuántas innovaciones puede agregar y cuánto bien puede hacer”.
Bryson también sugirió que, en términos de la mejor manera de regular las nuevas tecnologías en este momento, los gobiernos deberían usar las estructuras legales existentes más cercanas hasta que se pueda implementar una nueva legislación. “Si el software fuera tratado como un producto manufacturado ordinario, entonces podríamos tener responsabilidad y responsabilidad ordinaria por el producto”, dijo.