Hollywood tiene nociones coloridas sobre la inteligencia artificial (IA). La imagen popular es un futuro en el que los ejércitos de robots recurren espontáneamente a la malevolencia, lanzando a la humanidad a una batalla contra la extinción.
En realidad, los riesgos que plantea la IA hoy en día son más insidiosos y más difíciles de eliminar. A menudo son un subproducto de la aplicación aparentemente interminable de la tecnología en la sociedad moderna y el papel cada vez mayor en la vida cotidiana, quizás mejor destacado por la última inversión multimillonaria de Microsoft en OpenAI, fabricante de ChatGPT.
De cualquier manera, no sorprende que la IA genere tanto debate, sobre todo en cómo podemos construir salvaguardas regulatorias para asegurarnos de dominar la tecnología, en lugar de ceder el control a las máquinas.
En este momento, abordamos la IA utilizando un mosaico de leyes y reglamentos, así como una guía que no tiene fuerza de ley. En este contexto, está claro que es probable que los marcos actuales cambien, quizás de manera significativa.
Entonces, la pregunta que exige una respuesta: ¿qué le depara el futuro a una tecnología que está destinada a remodelar el mundo?
Dilemas éticos
A medida que la aplicación de herramientas de estilo IA se extiende rápidamente a través de las industrias, inevitablemente han surgido preocupaciones sobre la capacidad de estos sistemas para afectar negativamente, e impredeciblemente, la fortuna de alguien.
Un colega observó recientemente que hay una apreciación cada vez mayor entre las empresas y los reguladores sobre los impactos potenciales de los sistemas de IA en los derechos y el bienestar de las personas.
Esta creciente conciencia está ayudando a identificar los riesgos, pero aún no hemos pasado a un período en el que haya consenso sobre qué hacer al respecto. ¿Por qué? En muchos casos, porque esos riesgos cambian constantemente y son difíciles de prever.
A menudo, las mismas herramientas utilizadas con fines benignos se pueden implementar con intenciones malignas. Tomar reconocimiento facial; la misma tecnología para aplicar filtros humorísticos en las redes sociales puede ser utilizada por regímenes opresivos para restringir los derechos de los ciudadanos.
En resumen, los riesgos no solo provienen de la tecnología, sino de su aplicación. Y con una tecnología como la IA, donde la cantidad de nuevas aplicaciones está creciendo exponencialmente, las soluciones que se adaptan hoy pueden no serlo mañana.
Un ejemplo destacado es el esquema Robodebt del gobierno australiano, que utilizó un algoritmo de inteligencia artificial poco sofisticado que automáticamente, y en muchos casos erróneamente, envió avisos de deuda a los beneficiarios de asistencia social que determinó que habían recibido sobrepagos.
Pensado como un ejercicio de ahorro de costos, los intentos persistentes de recuperar las deudas no adeudadas o calculadas incorrectamente llevaron a muchos a expresar su preocupación por el impacto que tuvo el esquema en la salud física y mental de los destinatarios de la notificación de la deuda.
Agregue a esto la complicación adicional de los sistemas de IA de ‘caja negra’, que pueden ocultar procesos o inferir patrones incomprensibles, lo que hace que sea muy difícil explicar a las personas cómo o por qué una herramienta de IA condujo a un resultado. En ausencia de esta transparencia, la capacidad de identificar y cuestionar los resultados se ve disminuida, y se retira cualquier ruta para reparar de manera efectiva.
Llenando los espacios vacios
Otra complicación es que, en muchas jurisdicciones, estos riesgos no se abordan en una sola ley o regulación relacionada con la IA. En cambio, están sujetos a un mosaico de leyes existentes que cubren áreas como el empleo, los derechos humanos, la discriminación, la seguridad de los datos y la privacidad de los datos.
Si bien ninguno de estos se dirige específicamente a la IA, aún se pueden usar para abordar sus riesgos a corto y mediano plazo. Sin embargo, por sí solos, no son suficientes.
Una serie de riesgos quedan fuera de estas leyes y reglamentos existentes, por lo que, si bien los legisladores pueden luchar con las ramificaciones de gran alcance de la IA, otros organismos de la industria y otros grupos están impulsando la adopción de guías, estándares y marcos, algunos de los cuales podrían convertirse en estándares. práctica de la industria incluso sin la aplicación de la ley.
Un ejemplo es el marco de gestión de riesgos de IA del Instituto Nacional de Estándares y Tecnología de EE. UU., que está destinado “para uso voluntario y para mejorar la capacidad de incorporar consideraciones de confiabilidad en el diseño, desarrollo, uso y evaluación de productos, servicios y servicios de IA”. sistemas”.
De manera similar, el comité técnico conjunto de IA de la Organización Internacional para la Estandarización (ISO) está trabajando actualmente para agregar a sus 16 estándares no vinculantes más de veinte más que aún no se han publicado.
El enfoque actual de muchas de estas iniciativas en torno al uso ético de la IA se centra directamente en la equidad. El sesgo es un elemento particularmente importante. Los algoritmos en el centro de la toma de decisiones de la IA pueden no ser humanos, pero aun así pueden absorber los prejuicios que matizan el juicio humano.
Afortunadamente, los políticos de la UE parecen estar conscientes de este riesgo. El borrador de la Ley de Inteligencia Artificial de la UE del bloque abordó una variedad de problemas sobre el sesgo algorítmico, argumentando que la tecnología debe desarrollarse para evitar repetir los “patrones históricos de discriminación” contra los grupos minoritarios, particularmente en contextos como el reclutamiento y las finanzas.
Se espera que muchas otras jurisdicciones busquen abordar este problema de frente en futuras leyes de IA, incluso si las opiniones sobre cómo equilibrar la regulación y la innovación en la práctica difieren ampliamente de un país a otro.
La carrera por regular
Lo que es interesante es cómo la UE parece estar poniendo los derechos de sus ciudadanos en el centro, en aparente contraste con el enfoque de laissez-faire a la tecnología y la regulación que se adopta más típicamente en los EE. UU.
La Comisión Europea complementó aún más el proyecto de ley en septiembre de 2022, con propuestas para una Directiva de responsabilidad de AI y una Directiva de responsabilidad de productos revisada que simplificaría las reclamaciones de compensación cuando las personas sufran daños relacionados con AI, incluida la discriminación.
En comparación, algunos comentaristas argumentan que actualmente no está claro a dónde quiere ir el Reino Unido. El deseo de ser un líder mundial en la regulación de la IA realmente no se ha materializado, en parte debido a la tensión inherente entre la desregulación después del Brexit y traer a otros países con nosotros mediante la creación de regulaciones en el Reino Unido.
Sin embargo, hay algunas señales de que el Reino Unido busca el liderazgo mundial en este espacio. La Oficina del Comisionado de Información (ICO, por sus siglas en inglés) multó recientemente a la empresa de software Clearview AI con 7,5 millones de libras esterlinas después de que la compañía recopilara imágenes en línea de personas en una base de datos global para su herramienta de reconocimiento facial algo controvertida.
Desde entonces, Clearview ha lanzado un llamamiento. Pero, además de subrayar el creciente enfoque en proteger el uso incluso de datos biométricos disponibles públicamente, la acción de la ICO envía un mensaje claro al mercado: los reguladores del Reino Unido actuarán rápidamente para abordar los riesgos de la IA cuando lo consideren necesario.
Fuera de la caja
Es probable que los próximos cinco años marquen una fase de implementación en la que la orientación flexible se transforme en una ley estricta, que podría aprovechar los avances ya logrados a través de los principios de IA de la OCDE y la Recomendación de la UNESCO sobre la ética de la IA. Pero muchos observadores esperan que pase mucho más tiempo antes de que surja algo que se asemeje a un marco integral global de IA.
Por mucho que algunos en la industria se irriten por la supervisión intrusiva de los formuladores de políticas, a medida que la apreciación de las personas sobre las implicaciones éticas de la tecnología se expande junto con su aplicación, es difícil ver cómo las empresas pueden conservar la confianza del público sin una regulación de IA sólida y considerada. .
Mientras tanto, la discriminación y el sesgo seguirán llamando la atención al demostrar los riesgos más inmediatos de que esta tecnología se aplique no solo con malas intenciones, sino simplemente por falta de diligencia en torno a las consecuencias no deseadas.
Pero tales factores son, en última instancia, solo piezas de un rompecabezas mucho más grande. La industria, los reguladores y los asesores profesionales se enfrentan a años de reconstruir el panorama completo de los riesgos legales y éticos si queremos seguir dominando esta tecnología, y no al revés.