Los expertos en IA cuestionan los compromisos éticos de la industria tecnológica

Desde la atención médica y la educación hasta las finanzas y la policía, la inteligencia artificial (IA) se está integrando cada vez más en la vida diaria de las personas.

A pesar de que los defensores la postulan como un medio desapasionado y más justo para tomar decisiones, libre de la influencia de los prejuicios humanos, el rápido desarrollo y despliegue de la IA ha generado preocupación sobre cómo se puede usar y abusar de la tecnología.

Estas preocupaciones incluyen cómo afecta las oportunidades de empleo de las personas, su potencial para permitir la vigilancia masiva y su papel para facilitar el acceso a bienes y servicios básicos, entre otros.

En respuesta, las organizaciones que diseñan, desarrollan e implementan tecnologías de IA, a menudo con aportes limitados de los más afectados por su operación, han intentado calmar los temores de las personas al establecer cómo abordan la IA de manera justa y ética.

Desde alrededor de 2018, esto ha llevado a que organizaciones privadas y agencias gubernamentales de todo el mundo publiquen una avalancha de principios, directrices, marcos y declaraciones éticos de IA.

Sin embargo, los expertos en IA ética dicen que la expansión masiva de la ética de la IA no necesariamente ha llevado a mejores resultados, o incluso a una reducción en el potencial de la tecnología para causar daño.

El consenso emergente de investigadores, académicos y profesionales es que, en general, dichos marcos y principios no han logrado dar cuenta por completo de los daños creados por la IA, porque han malinterpretado fundamentalmente el carácter social de la tecnología y cómo afecta y es afectados por corrientes políticas y económicas más amplias.

Más contenido para leer:  The Security Interviews: Why cyber needs to integrate better

También argumentan que para cerrar la brecha entre los principios bien intencionados y la práctica, las organizaciones involucradas en el desarrollo y despliegue de la IA deberían involucrar a los sindicatos, realizar auditorías exhaustivas y someterse a una regulación más contradictoria.

Mientras tanto, otros dicen que los afectados por la operación de AI no deberían esperar una acción estatal formal y, en cambio, deberían considerar la creación de organizaciones colectivas para cuestionar cómo se usa la tecnología y ayudar a impulsarla en una dirección más positiva.

Conceptos abstractos y discutidos

Según un artículo de 2019 publicado por Brent Mittelstadt, ético de datos y director de investigación del Instituto de Internet de Oxford (OII), la gran mayoría de los principios de la IA son muy abstractos y ambiguos, hasta el punto de que son casi inútiles en la práctica.

Él dice, por ejemplo, que aunque las organizaciones han presentado sus principios de alto nivel y sus declaraciones de valores como “guías de acción”, en la práctica “ofrecen pocas recomendaciones específicas y no abordan las tensiones políticas y normativas fundamentales incrustadas en conceptos clave”.

Otros, como el académico de estudios de medios con sede en Nueva Zelanda Luke Munn, también han sido muy críticos, argumentando de manera similar en un artículo en agosto de 2022 que “hay un abismo entre los ideales elevados y el desarrollo tecnológico en el terreno”.

Munn agrega: “Estos son principios sin sentido que son cuestionados o incoherentes, lo que los hace difíciles de aplicar; son principios aislados situados en una industria y un sistema educativo que ignora en gran medida la ética; y son principios desdentados que carecen de consecuencias y se adhieren a las agendas corporativas”.

Más contenido para leer:  Cómo los periodistas extrajeron terabytes de datos en alta mar para exponer a las élites del mundo

Hablando con Computer Weekly sobre la proliferación de la ética de la IA, Sandra Wachter, profesora de tecnología y regulación en la OII, presenta argumentos similares sobre la naturaleza altamente abstracta de los principios éticos de la IA, que dice que los hace casi imposibles de implementar de manera significativa. .

“Nadie va a decir: ‘Quiero robots asesinos totalmente autónomos, racistas, sexistas, injustos, que invadan la privacidad’, pero son conceptos esencialmente controvertidos”.

Sandra Wachter, Instituto de Internet de Oxford

Al señalar una serie de principios comunes que aparecen de alguna forma en casi todos los marcos, como la equidad, la transparencia, la privacidad y la autonomía, Wachter dice que, aunque nadie puede estar realmente en desacuerdo con estos en un nivel superficial, hacerlos operativos es otra cuestión.

“Nadie va a decir: ‘Quiero robots asesinos totalmente autónomos, racistas, sexistas, injustos, que invadan la privacidad’, pero son conceptos esencialmente controvertidos”, dice. “Ambos estaremos de acuerdo en que la equidad es algo bueno, pero lo que tú y yo pensamos sobre la equidad probablemente no podría estar más alejado”.

Wachter dice que inevitablemente también habrá tensión entre diferentes principios en diferentes contextos, y agrega: “Al final del día, estos principios están bien, pero cuando te enfrentas a una situación en la que tienes que tomar una decisión, bueno, entonces… Tendrá que hacer una compensación: transparencia frente a privacidad, equidad frente a rentabilidad, explicabilidad frente a precisión. Probablemente no haya una situación en la que todos los principios puedan ser obligados o cumplidos”.

En octubre de 2022, Emmanuel R Goffi, cofundador del Global AI Ethics Institute, publicó un artículo en el yuan criticando el enfoque “universalista” de la IA ética, que argumenta es todo lo contrario, porque todo lo decide “un puñado de partes interesadas occidentales que promueven sus intereses creados”, y de lo contrario impone uniformidad donde debería haber diversidad cultural.

“El problema con este tipo de universalismo es múltiple”, escribe Goffi. “Primero, aunque surge de la buena voluntad, se ha convertido esencialmente en una ideología. En consecuencia, se ha vuelto casi imposible cuestionar su relevancia y legitimidad. En segundo lugar, la palabra ‘universal’ a menudo se usa incorrectamente para dar forma a las percepciones. Esto significa que los valores universales se presentan comúnmente como valores compartidos por una mayoría, aunque ‘universal’ y ‘mayoría’ distan mucho de ser lo mismo.

“Tercero, el universalismo a menudo se presenta como moralmente aceptable y como un contrapeso deseable al relativismo. Sin embargo, el absolutismo moral que se asoma en el horizonte no es más deseable que el relativismo absoluto. ¡Todo lo contrario!

Todos ladran, no muerden

Aparte de la ambigüedad manifiesta y las apelaciones defectuosas a la universalidad, Alex Hanna, director de investigación del Distributed AI Research Institute (DAIR), dice que estos marcos éticos tampoco suelen ser vinculantes, y las malas relaciones públicas son el principal motivador para actuar dentro del espíritu. de los principios esbozados.

“Creo que sería útil tener algún tipo de organismo independiente, como un regulador, que pudiera tener acceso práctico al modelo para ver las entradas y examinar las salidas, y probarlo de forma adversaria”, dice. “El único incentivo que tienen las empresas para que estas cosas no exploten es la mala publicidad que obtendrán, e incluso entonces las malas relaciones públicas no suelen afectar el precio de sus acciones o la valoración del mercado”.

Gemma Galdon-Clavell, directora de la firma de auditoría algorítmica Eticas, también destaca la “brecha de cumplimiento” y dice que no hay incentivos para que las empresas de tecnología sean éticas a pesar de la proliferación de dichos marcos, porque “no se paga un precio por ser un mal jugador”.

Ella dice que el desarrollo tecnológico en las últimas décadas ha estado dominado por las ideas idiosincrásicas de Silicon Valley, donde la innovación se define de manera muy estrecha por la primacía de la escalabilidad por encima de todo.

“El modelo de Silicon Valley básicamente se ha hecho cargo de la innovación de datos y está limitando la capacidad de que surjan otros tipos de innovación en torno a los datos, porque si no se trata de ‘moverse-rápido-y-romper-cosas’, si no se trata de priorizando las ganancias por encima de todo lo demás, si no tienes un producto escalable, entonces no eres visto como innovador”, dice Galdon-Clavell, y agrega que esto ha llevado a una situación en la que los desarrolladores de IA, para asegurar la financiación, están prometiendo grandes cosas de la tecnología que simplemente no se pueden lograr.

“Nos ha permitido hacer progresos muy rápidos en algunas cosas, pero ha llegado a un punto en el que es perjudicial”, dice. “Cuando auditamos los sistemas [at Eticas]lo que encontramos detrás de los llamativos sistemas que se anuncian como el futuro del pensamiento, son sistemas muy rudimentarios”.

Pero agrega que más sistemas impulsados ​​por IA deberían ser rudimentarios e incluso “aburridos”, porque los algoritmos involucrados son más simples y cometen menos errores, lo que reduce la posibilidad de que los sistemas produzcan impactos sociales negativos.

Relacionándolo con el desarrollo de vacunas durante la pandemia de Covid-19, Galdon-Clavell agrega: “La innovación solo tiene sentido si pasa por sistemas y procedimientos que protegen a las personas, pero cuando se trata de innovación tecnológica e innovación relacionada con datos, por alguna razón, nos olvidamos de eso.”

Wachter agrega que aunque los principios publicados hasta ahora brindan un buen punto de partida para las discusiones sobre la ética de la IA, en última instancia no logran abordar los problemas centrales en torno a la tecnología, que no son técnicos, sino que están integrados directamente en los modelos comerciales y los ímpetus sociales que dictan. cómo se crea y se utiliza.

Una tecnología de austeridad y categorización

Aunque la historia de la IA se remonta al menos a la década de 1950, cuando se formalizó como un campo de investigación, las aplicaciones reales de la tecnología solo comenzaron a surgir a principios de la década de 2010, una época de austeridad global inmediatamente posterior a la Gran Guerra. Recesión.

Dan McQuillan, profesor de computación creativa y social y autor de Resistiendo a la IA: un enfoque antifascista de la inteligencia artificialdice que no sorprende que la IA comenzara a surgir en esta coyuntura histórica particular.

“No puede escapar de las condiciones en las que está emergiendo”, dice. “Si observa lo que hace la IA, no es realmente una tecnología productiva, es un modo de asignación. Incluso diría que es un modo de racionamiento, en cierto sentido, ya que su forma de trabajar gira en torno a la escasez.

“Refleja sus tiempos, y lo vería como una solución esencialmente negativa, porque en realidad no está resolviendo nada, solo está creando formas estadísticamente refinadas de dividir un pastel cada vez más pequeño”.

Hanna también caracteriza a la IA como una tecnología de austeridad, cuyas políticas, dice, se remontan a la era Reagan-Thatcher, un período dominado por lo que el economista David Harvey describe como “monetarismo y estricto control presupuestario”.

Hanna agrega: “Los usos cotidianos más comunes de la IA incluyen el modelado predictivo para hacer cosas como predecir la rotación de clientes o las ventas, y luego, en otros casos, se ofrece como un dispositivo que ahorra trabajo al hacer cosas como automatizar la producción de documentos, por lo que encaja bien al momento político-económico actual”.

Para Wachter, la mentalidad de “reducir costos y ahorrar tiempo” que impregna el desarrollo y la implementación de IA ha llevado a los profesionales a centrarse casi exclusivamente en la correlación, en lugar de la causalidad, al construir sus modelos.

“Ese espíritu de hacer algo rápido y rápido, pero no necesariamente mejorarlo, también se traduce en ‘la correlación es lo suficientemente buena, hace el trabajo'”, dice, y agrega que la lógica de austeridad que sustenta el uso de la tecnología en el mundo real significa que la curiosidad por descubrir la historia entre los puntos de datos está casi completamente ausente.

“En realidad no nos preocupamos por la causalidad entre las cosas”, dice Wachter. “En realidad, hay un declive intelectual, por así decirlo, porque a la gente de tecnología realmente no le importa la historia social entre los puntos de datos, y los científicos sociales se quedan fuera de ese ciclo”.

Ella agrega: “Comprender realmente cómo funciona la IA es realmente importante para hacerla más justa y equitativa, pero también cuesta más recursos. Hay muy pocos incentivos para averiguar realmente lo que está pasando [in the models].”

Yendo más allá, McQuillan describe la tecnología de IA como una “máquina de correlación” que, en esencia, produce teorías de conspiración. “La IA decide qué entra y qué sale, quién recibe y quién no, quién es un riesgo y quién no”, dice. “Sea lo que sea que se aplique, así es como funciona la IA: traza límites de decisión y lo que cae dentro y fuera de tipos particulares de clasificación o identificación.

“Porque toma estas correlaciones potencialmente muy superficiales o distantes, porque las datifica y cuantifica, se trata como real, incluso si no lo son”.

“Si observa lo que hace la IA, no es realmente una tecnología productiva, es un modo de asignación. Incluso diría que es un modo de racionamiento, en cierto sentido, ya que su forma de trabajar gira en torno a la escasez. Refleja sus tiempos, y lo vería como una solución esencialmente negativa, porque en realidad no está resolviendo nada, solo está creando formas estadísticamente refinadas de dividir un pastel cada vez más pequeño”.

Dan McQuillan, profesor de computación creativa y social

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales