Las justificaciones éticas para desarrollar y desplegar inteligencia artificial (IA) en el ejército no resisten el escrutinio, especialmente aquellas relacionadas con el uso de sistemas de armas autónomos, dice la experta en ética de IA Elke Schwarz.
Profesor asociado de teoría política en la Universidad Queen Mary de Londres y autor de Máquinas de muerte: la ética de las tecnologías violentasSchwarz dice que las voces que instan a la cautela y la moderación cuando se trata del despliegue de la IA en el ejército son “cada vez más ahogadas” por una mezcla de empresas que venden productos y legisladores “cautivados y enamorados del potencial” de la IA.
Los gobiernos de todo el mundo han expresado durante mucho tiempo un claro interés en desarrollar y desplegar una gama de sistemas de IA en sus operaciones militares, desde logística y gestión de recursos hasta municiones guiadas con precisión y armas autónomas letales (LAWS) que pueden seleccionar, detectar y atacar objetivos con poco tiempo. o sin intervención humana.
Aunque las justificaciones para la IA militar son variadas, los defensores a menudo argumentarán que su desarrollo y despliegue es un “imperativo moral” porque reducirá las bajas, protegerá a los civiles y, en general, evitará guerras prolongadas.
La IA militar también se enmarca como una necesidad geopolítica en el sentido de que se necesita para mantener una ventaja tecnológica sobre los adversarios actuales y potenciales.
“Tienes que pensar qué es la guerra y cuál es la actividad de la guerra”, le dice Schwarz a Computer Weekly. “No es un problema de ingeniería. Tampoco es un problema tecnológico. Es un problema sociopolítico, que no se resuelve con tecnología, o más tecnología, se hace todo lo contrario”.
Agrega que, mientras asistía a la conferencia Inteligencia artificial responsable en el dominio militar a mediados de febrero de 2023, una cumbre mundial para crear conciencia y discutir temas relacionados con la IA en conflictos armados, los delegados gubernamentales de todo el mundo estaban muy emocionados, aunque un poco inquietos. sobre la posibilidad de utilizar la IA en el ejército. Solo una persona, un delegado de Filipinas, habló sobre lo que AI puede hacer por la paz.
“Hubo una voz que realmente pensó en cómo podemos lograr un contexto pacífico”, dice ella.
Máquinas de matar éticas
Schwarz dice que la noción de “armas éticas” solo despegó realmente después de que la administración Obama comenzó a usar drones para realizar ataques remotos en Irak y Afganistán, que según los defensores reducirían las bajas civiles.
“Más de una década de guerra con aviones no tripulados nos ha dado una clara indicación de que las bajas civiles no necesariamente se reducen”, dice, y agrega que la comodidad que permite la tecnología en realidad reduce el umbral de recurrir a la fuerza. “Tal vez puedas ordenar un ataque un poco más preciso, pero si estás más inclinado a usar la violencia que antes, entonces, por supuesto, los civiles sufrirán”.
Agrega que la expansión masiva de la guerra con aviones no tripulados bajo Obama también llevó a muchos a argumentar que el uso de tecnologías avanzadas en el ejército es un “imperativo moral” porque salvaguarda las vidas de sus propios soldados, y que argumentos similares se están presentando ahora en Estados Unidos. favor de las LEYES.
“Tenemos estas armas que nos permiten una gran distancia, y con la distancia viene la falta de riesgo para una de las partes, pero no necesariamente se traduce en menos riesgo para los demás, solo si las usa de una manera muy precisa, que nunca sucede en la guerra”, dice, y agrega que los efectos de esto son claros: “Algunas vidas se han salvado y otras no”.
Para Schwarz, estos desarrollos son preocupantes, porque han creado una situación en la que las personas tienen un “discurso casi moral sobre un arma, un instrumento para matar, como algo ético”.
Elke Schwarz, Universidad Queen Mary de Londres
Ella agrega: “Es un giro extraño, pero ahí es donde estamos… el problema es realmente cómo los usamos y para qué. En última instancia, son instrumentos para matar, por lo que si se vuelve fácil usarlos, es muy probable que se usen más, y eso no es una indicación de moderación, sino todo lo contrario: eso no puede enmarcarse como ético en cualquier forma.”
Sobre la afirmación de que las nuevas tecnologías militares, como las armas autónomas, son éticas porque ayudan a terminar las guerras más rápido, Schwarz dice que “hemos visto todo lo contrario” en las últimas décadas con las guerras prolongadas de las potencias occidentales, que invariablemente utilizan armamento muy avanzado. contra combatientes con una clara desventaja tecnológica.
Agrega que el uso de la IA en el ejército para monitorear la actividad humana y tomar “medidas preventivas” también es un desarrollo preocupante, porque reduce a los seres humanos a puntos de datos y elimina por completo cualquier matiz o complejidad al tiempo que aumenta enormemente el riesgo para quienes reciben fin.
“Esa urgencia de tener que identificar dónde puede pasar algo [before it happens] de una manera muy rara Informe de minorías manera se volverá primordial porque esa es la lógica con la que uno trabaja, en última instancia”, dice ella.
“Veo que el mayor enfoque en la inteligencia artificial como el sustrato final para las operaciones militares hace que todo sea mucho más inestable”.
Un juego de tronos
Otra debilidad del discurso actual en torno a la IA militar es la subdiscusión de las diferencias de poder entre los estados en términos geopolíticos.
En un informe sobre “tecnologías militares emergentes” publicado en noviembre de 2022 por el Servicio de Investigación del Congreso, los analistas señalaron que aproximadamente 30 países y 165 organizaciones no gubernamentales (ONG) han pedido una prohibición preventiva del uso de LAWS debido a las preocupaciones éticas que rodean su uso, incluida la posible falta de rendición de cuentas y la incapacidad de cumplir con las leyes internacionales sobre conflictos.
Por el contrario, un pequeño número de gobiernos poderosos, principalmente EE. UU., que según un estudio de 2019 es “el líder absoluto en desarrollo de hardware autónomo y capacidad de inversión”, pero también China, Rusia, Corea del Sur y la Unión Europea han sido jugadores clave en el impulso de la IA militar.
“Es un punto muy, muy crucial que el equilibrio de poder esté completamente distorsionado”, dice Schwarz. “La narrativa es un gran conflicto de poder que sucederá [between] China, Rusia, Estados Unidos, entonces necesitamos IA militar porque si China tiene IA militar, serían mucho más rápidos y todo lo demás perecería”.
Al señalar que ninguna de estas grandes potencias ha sido víctima de las guerras expedicionarias del último medio siglo, Schwarz dice que deberían ser los países más afectados por la guerra los que tengan una mayor influencia sobre la IA en el ejército.
“Son aquellos países que tienen más probabilidades de ser el objetivo los que claramente necesitan tener una gran participación y voz”, dice, y agrega que la mayoría de estos estados están en un acuerdo relativamente uniforme de que no deberíamos tener LEYES.
“[They argue] debería haber un marco legal internacional sólido para prohibir o al menos regular enérgicamente tales sistemas y, por supuesto, son los sospechosos habituales los que dicen ‘No, no, no, eso sofoca la innovación’, por lo que existe una enorme diferencia de poder”.
Schwarz agrega que también podrían surgir diferencias de poder entre los estados aliados que implementan la IA militar, ya que el enfoque de ciertos jugadores probablemente tendrá que ajustarse a quien sea el actor más poderoso para lograr el nivel deseado de conexión e interoperabilidad.
“Estados Unidos ya está haciendo algunos ejercicios para el Proyecto Convergencia [with the UK], que es parte de esta red general de varios dominios y varios tipos de tecnologías. Me atrevería a decir que EE. UU. tendrá más voz en lo que suceda, cómo se debe implementar la tecnología y cuáles son los límites de la tecnología que el Reino Unido, en última instancia”, dice.
“Incluso dentro de las redes aliadas, sugeriría que siempre habrá diferencias de poder que, en este momento, cuando todo el mundo está tan cautivado con la posibilidad de la IA, en realidad no se tienen en cuenta lo suficiente”.
Dar forma a las fuerzas armadas a la imagen de Silicon Valley
Un problema importante con el desarrollo y despliegue de la IA militar es que está ocurriendo con poco debate o supervisión, y está siendo moldeado por una estrecha agenda corporativa y política.
Destacando los esfuerzos del ex director ejecutivo de Google, Eric Schmidt, coautor La era de la IA: y nuestro futuro humano en diciembre de 2021 con el exsecretario de Estado de los EE. UU. Henry Kissinger, y quien ha sido fundamental para llevar la IA al ejército de los EE. UU. Schwarz dice que si bien estos problemas no se pueden reducir solo a Schmidt, es un ejemplo instructivo dada su prominencia.
“Se posicionan como los ‘conocedores’ y los expertos sobre estos sistemas”, dice ella. “Con Schmidt en particular, he estado rastreando su viaje y defensa de la inteligencia artificial militar durante los últimos siete a cinco años, y él ha sido una fuerza impulsora detrás de la idea de que todas las fuerzas armadas, pero específicamente las fuerzas armadas de EE. UU. y sus aliados. , deben estar listos para la IA… para ser competitivos y seguir siendo competitivos, siempre visa vie, Rusia y China”.
Sin embargo, agrega que esto podría funcionar en la práctica y que a veces se abordan las trampas de los ejércitos impulsados por IA, pero siempre se “empujan a los márgenes” de la conversación.
“En última instancia, se trata de hacer que todo lo relacionado con la IA esté interconectado y hacer que los procesos militares, desde la adquisición hasta las operaciones, sean superrápidos y ágiles, básicamente dando forma a las fuerzas armadas a la imagen de Silicon Valley”, dice. “¿Qué sucede cuando aceleras la guerra de esta manera?”
Parte del problema es que, en general, las empresas y los actores privados tienen una opinión enormemente desproporcionada sobre qué tecnologías digitales están desplegando los militares, especialmente en comparación con la gente común.
Elke Schwarz, Universidad Queen Mary de Londres
En junio de 2022, por ejemplo, el Ministerio de Defensa (MoD) del Reino Unido dio a conocer su Estrategia de inteligencia artificial de defensadescribiendo cómo el gobierno trabajará en estrecha colaboración con el sector privado para priorizar la investigación, el desarrollo y la experimentación en IA para “revolucionar nuestras capacidades de las Fuerzas Armadas”.
“No tenemos una opinión democrática directa sobre cómo se construyen, constituyen o construyen las tecnologías militares, y ese no es necesariamente el gran problema”, dice Schwarz. “Creo que se necesita una conversación franca sobre el papel de los actores privados y qué tipo de responsabilidad tienen que cumplir porque en este momento… no está muy regulado”.
Ella agrega que el debate público sobre la IA militar es especialmente importante dado el efecto sísmico que altera a la humanidad que los defensores de la tecnología dicen que tendrá.
“La forma en que puede procesar estos datos y encontrar patrones tiene algo magnífico, pero es solo una máquina computacional”, dice. “Creo que elevar eso a una ley natural, una especie de próxima iteración de la humanidad, elevarlo a una necesidad e inevitabilidad es útil para algunos que ganarán dinero con eso, pero todavía tengo que entender mejor cómo nosotros, como humanos y nuestro contexto social, nuestro contexto político y nuestra vida ética compartida, pueden beneficiarse enormemente de ello”.
Schwarz agrega que si bien estas narrativas pueden ser útiles para algunos, la mayoría de la gente común simplemente tendrá que someterse al uso de tecnologías de inteligencia artificial “que generalmente tienen bases patentadas de las que no sabemos nada y que, en última instancia, no nos beneficiarán profundamente”.
En cambio, el “sentido de urgencia” con el que los defensores se acercan a la IA militar, y que según Schwarz “no permite un debate franco, matizado y detallado”, debería ser reemplazado por un enfoque más lento y deliberativo que permita a las personas decidir colectivamente sobre el futuro que desean. desear.
Ella concluye: “Lo que afecta a todos debería ser decidido por todos, en última instancia, y eso debería aplicarse a cualquier democracia”.