La inteligencia artificial (IA) debe ser reconocida y regulada como un sistema sociotécnico que tiene el potencial de profundizar masivamente las desigualdades sociales y afianzar aún más las concentraciones de poder.
En su intervención en la octava Cumbre anual de Ética Digital de la asociación comercial TechUK en diciembre, los delegados anunciaron 2025 como el “año de la difusión” de la IA, señalando que si bien no hubo nuevos avances técnicos importantes en la tecnología el año pasado, particularmente de las plataformas generativas de IA que impulsó el actual ciclo de publicidad con el lanzamiento de sus modelos a millones de usuarios a finales de 2022: las organizaciones ahora están “en el meollo de la cuestión” de mapear prácticamente la tecnología en sus flujos de trabajo y procesos.
Los delegados agregaron que, en el próximo año, la atención se centrará en poner en producción aplicaciones de IA y ampliar su uso, al tiempo que se mejora la seguridad general de la tecnología.
También destacaron el enfoque del nuevo gobierno laborista del Reino Unido en utilizar la tecnología como motor de crecimiento económico, así como su énfasis en lograr una mayor difusión de la IA tanto en el sector público como en el privado mediante la construcción de un ecosistema de seguridad y garantía más sólido.
Sin embargo, los delegados argumentaron que la creciente proliferación y penetración de las herramientas de IA hasta 2024 significa que ahora existe una necesidad apremiante de operacionalizar y estandarizar enfoques éticos para la IA, ya que si bien se han creado numerosos marcos y principios en los últimos años, la mayoría todavía lo es. alto nivel y vago”.
Destacaron la necesidad de que cualquier regulación reconozca la naturaleza sociotécnica de la IA (por la cual los componentes técnicos de un sistema determinado están informados por procesos sociales y viceversa), lo que significa que debe considerar cómo la tecnología conducirá a una mayor desigualdad y concentraciones. de poder. También destacaron cómo la IA se está difundiendo en un momento en que la confianza en el gobierno y las corporaciones está en su punto más bajo.
Para evitar profundizar estas desigualdades y concentraciones de poder y al mismo tiempo reconstruir la confianza, muchos delegados enfatizaron la necesidad de enfoques inclusivos y participativos para el desarrollo y la gobernanza de la IA, algo que debe implementarse a nivel local, nacional y global.
La conversación también abordó cuestiones relativas a las capacidades técnicas soberanas, y los delegados señalaron que sólo China y EE. UU. están en condiciones de actuar unilateralmente en materia de IA, y si es mejor adoptar un enfoque cerrado o abierto para el futuro desarrollo de la tecnología.
Durante la cumbre anterior, celebrada en diciembre de 2023, la conversación se centró de manera similar en la necesidad de traducir principios y marcos éticos bien intencionados para la IA en prácticas concretas, enfatizando que gran parte de la discusión sobre cómo controlar la IA está excesivamente dominada por corporaciones y gobiernos de países ricos. en el norte global.
Surgió un consenso en el sentido de que, si bien la creciente intensidad del debate internacional en torno a la IA es una señal de progreso positivo, también se debe poner mayor énfasis en la IA como sistema sociotécnico, lo que significa tener en cuenta la economía política de la tecnología y abordar con los efectos prácticos de su funcionamiento en entornos del mundo real.
Operacionalizar la ética, inclusivamente
En su intervención en un panel sobre lo que significan los últimos avances técnicos para la ética de la IA, Leanne Allen, directora de IA de la consultora KPMG en el Reino Unido, dijo que si bien los principios éticos en torno a la IA han resistido la prueba del tiempo (al menos en el sentido de que ninguna Se están añadiendo nuevos principios a la lista), aplicar esos principios en la práctica sigue siendo un desafío.
Al poner el ejemplo de la “explicabilidad” como uno de los principios éticos establecidos para la IA, Allen añadió que es “fundamentalmente difícil” explicar los resultados de los modelos generativos de IA, lo que significa que “es necesario que haya matices y más orientación sobre” lo que muchos principios éticos parece en la práctica.
Melissa Heikkilä, reportera senior de Revisión de tecnología del MITestuvo de acuerdo en que, si bien es prometedor ver a tantas empresas desarrollar marcos éticos para la IA, así como ampliar sus capacidades técnicas para la formación de equipos rojos y la auditoría de modelos, gran parte de este trabajo todavía se está llevando a cabo a un nivel muy alto.
“Creo que nadie puede ponerse de acuerdo sobre cómo hacer una auditoría adecuada o cómo son estas evaluaciones sesgadas. Todavía está en el Salvaje Oeste, y cada empresa tiene sus propias definiciones”, dijo, añadiendo que hay una clara falta de “transparencia significativa” que está obstaculizando el proceso de estandarización en estas áreas.
Alice Schoenauer Sebag, miembro senior del personal técnico del equipo de seguridad de IA de Cohere, agregó que encontrar alguna manera de estandarizar los enfoques éticos de IA ayudará a “impulsar la innovación” y, al mismo tiempo, lograr que todos estén en sintonía en términos de establecer una comprensión compartida de los problemas. .
Destacando el grupo de trabajo de “riesgo y confiabilidad” de la firma de evaluación comparativa de IA MLCommons, dijo que ya se está trabajando para construir una taxonomía compartida en torno a la tecnología, a partir de la cual se puede construir una plataforma de evaluación comparativa para las empresas para ayudarlas a evaluar sus modelos: “ Creo que esto será realmente fundamental para generar confianza y ayudar a la difusión al tener una comprensión compartida de la seguridad, la accesibilidad y la transparencia”.
Sebag agregó además que, a medida que más empresas pasan de la “experimentación a la producción” de IA, es necesario comenzar a tener “conversaciones realmente fundamentadas sobre lo que significa que el producto sea seguro” en el contexto en el que se está implementando.
“No diría necesariamente que el [ethical] Las conversaciones son cada vez más difíciles, yo diría que se están volviendo más concretas”, afirmó. “Significa que debemos ser súper específicos, y eso es lo que estamos haciendo con los clientes: realmente estamos discutiendo todos los detalles realmente cruciales sobre lo que significa que esta aplicación, este caso de uso, se implemente y se implemente”. responsable.”
Allen dijo que debido a que la mayoría de las organizaciones están adoptando IA en lugar de construir sus propios modelos, en última instancia buscan garantías de que lo que están comprando es seguro y confiable.
“La mayoría de las organizaciones… no tienen control sobre ese aspecto, se basan en el contrato con esa organización para decir que han seguido estándares éticos”, dijo. “Pero todavía hay incertidumbre, ya que todos sabemos que no es perfecto y que no lo será durante mucho tiempo”.
Sin embargo, los delegados enfatizaron la importancia de poner en práctica la inclusión en particular, señalando que hay diferencias culturales que no se tienen en cuenta en el enfoque de la industria de la IA en el mundo de habla inglesa.
“Dado que estamos implementando productos para ayudar a empresas de todo el mundo… es muy importante que no tengamos un enfoque de seguridad occidental y centrado en el inglés”, dijo Sebag. “Realmente necesitamos asegurarnos de que los modelos sean seguros por medios seguros, básicamente, en todas partes”.
Concentraciones de poder
Heikkilä añadió que en los últimos 10 años, el dominio de los países de habla inglesa en el desarrollo de la IA no ha cambiado realmente, pero tiene enormes implicaciones: “Con el idioma viene mucho poder, valores y cultura, y el idioma o el país Lo que puede dominar la tecnología puede dominar toda nuestra visión, ya que todos interactúan con estos modelos.
“Tener un conjunto diverso de idiomas y una división geográfica es muy importante, especialmente si quieres escalar esta tecnología a nivel mundial… Es realmente importante tener estas representaciones, porque no queremos tener una IA que realmente solo se aplique de una manera. , o solo funciona para un grupo de personas “.
Sin embargo, Heikkilä enfatizó que en términos políticos y sociotécnicos, es probable que seamos testigos de “una concentración aún mayor de poder, datos, [and] computar” entre unas pocas empresas y países, particularmente en medio de “las crecientes tensiones con Estados Unidos y China”.
En un panel separado sobre regulación, gobernanza y seguridad de la IA en el Reino Unido, Alex Krasodomski, director del Programa de Sociedad Digital de Chatham House, dijo que la rivalidad chino-estadounidense por la IA significa que “esta es la era del acelerador, no de la mano”. freno”, señalando que algunos ya están pidiendo un nuevo Proyecto Manhattan centrado en la IA para garantizar que Estados Unidos se mantenga por delante de China.
También señaló que debido a la situación geopolítica, es poco probable que se alcancen acuerdos internacionales sobre IA que vayan más allá de las medidas técnicas de seguridad y lleguen a algo más político.
Andrew Pakes, diputado laborista (cooperativo) de Peterborough, dijo que si bien es importante considerar la dinámica del poder geopolítico, también debe haber una consideración simultánea de los desequilibrios de poder internos dentro de la sociedad del Reino Unido y cómo debería regularse la IA en ese contexto. Bueno.
“Estamos en lo que espero sean los últimos días del modelo esencialmente neoliberal en lo que respecta a la regulación. Hablamos mucho sobre regulación… y cada uno quiere decir algo diferente. En el discurso público sobre lo que creen que es la regulación, piensan que se trata de una regulación del bien público, pero en gran medida se trata de competencia económica y protección del mercado”, dijo, añadiendo que cualquier enfoque regulatorio debe centrarse en construir un entorno democrático y cohesivo basado en la inclusión. .
“Necesitamos pensar en lo que significa la IA en la economía cotidiana para las personas que trabajan, pero en gran medida en lugares como el mío, la triste realidad es que el cambio industrial ha significado en gran medida que se les diga a las personas que tendrán mejores oportunidades y que sus hijos tendrán peores oportunidades. . Ese es el contexto del cambio industrial en este país”.
Añadió que, si bien existe una clara necesidad de que el Reino Unido encuentre formas de capitalizar la IA y seguir siendo competitivo a nivel internacional, los beneficios no pueden limitarse a los centros económicos y científicos existentes del país.
“En lugares como el mío en Peterborough, ubicado al lado de Cambridge, tienes la historia del Reino Unido en dos ciudades, a 40 minutos de distancia”, dijo, señalando que si bien la última es un centro de innovación, empleo y crecimiento, la primera tiene algunos de los niveles más altos de pobreza infantil en el Reino Unido y algunos de los niveles más bajos de personas que van a la universidad. “Tenemos dos vidas diferentes que las personas viven según el código postal en el que viven. ¿Cómo afrontamos ese desafío?”
Pakes añadió que el panorama se complica aún más por el hecho de que esta próxima ola de cambio industrial impulsado por la IA llega en un momento en el que la gente simplemente no confía en el cambio, especialmente cuando se lo imponen desde arriba los gobiernos y las grandes corporaciones.
“Estamos tratando de embarcarnos en uno de los cambios industriales más grandes y rápidos que hemos conocido, pero probablemente estemos en el período de nuestra democracia en el que la gente tiene menos confianza en el cambio que se les aplica. Y lo vemos a nivel mundial”, dijo. “A la gente le encanta la innovación, les encantan sus dispositivos, pero también ven cosas como la Oficina de Correos. [scandal] y desconfían de la TI del gobierno y de la capacidad del gobierno para hacer el bien. Me temo que también desconfían de las grandes corporaciones”.
Pakes concluyó que es clave que las personas sientan que el cambio se está haciendo con ellos, y no para ellos, de lo contrario: “Perderemos los beneficios económicos y, de hecho, es posible que generemos más división en nuestra sociedad”.
Difusión responsable
Al hablar en un panel sobre cómo difundir responsablemente la IA en todo el sector público, otros delegados enfatizaron la necesidad de codiseñar la IA con las personas con las que se utilizará y de involucrarlas desde el principio del ciclo de vida de cualquier sistema determinado.
Para Jeni Tennison, fundadora del grupo de campaña Connected By Data, si bien esto podría realizarse a través de deliberaciones públicas o investigaciones dirigidas por los usuarios, los desarrolladores de IA deben tener vínculos con organizaciones de la sociedad civil y directamente con el público.
Añadió que es necesario que haya un “modo de experimentación curiosa” en torno a la IA que reconozca que no será perfecta ni funcionará de inmediato: “Encontremos juntos la ruta que nos lleve a algo que todos valoramos”.
Al señalar también la apremiante necesidad de incluir a personas normales en el desarrollo de la IA, Hetan Shah, director ejecutivo de la Academia Británica, destacó la experiencia de austeridad del público a raíz de la recesión de 2008, diciendo que si bien el gobierno en ese momento impulsó esta inclusión idea de la Gran Sociedad, en la práctica el público fue testigo de una disminución de los servicios públicos.
“Había un núcleo de pensamiento respetable detrás de eso, pero se enredó en algo completamente diferente. Se convirtió en: ‘Ya no gastamos dinero en bibliotecas, así que en su lugar tendremos voluntarios’”, dijo. “Si ahí es donde se ve envuelta la IA, a los ciudadanos no les gustará. Su agenda terminará en fracaso si no piensa en los ciudadanos”.
Tenis…