El comité de armas de Lords AI celebra la primera sesión de pruebas

Los beneficios potenciales del uso de inteligencia artificial (IA) en sistemas de armas y operaciones militares no deben confundirse con un mejor cumplimiento del derecho internacional humanitario (DIH), se le ha dicho a Lords.

Establecido el 31 de enero de 2023, el Comité de IA en Sistemas de Armas de la Cámara de los Lores se creó para explorar la ética del desarrollo y despliegue de sistemas de armas autónomos (AWS), incluida la forma en que se pueden usar de manera segura y confiable, su potencial para escalar conflictos y su cumplimiento de las leyes internacionales.

También conocidos como sistemas letales de armas autónomas (LAWS), estos son sistemas de armas que pueden seleccionar, detectar y atacar objetivos con poca o ninguna intervención humana.

En su primera sesión de evidencia el 23 de marzo de 2023, Lords escuchó a testigos expertos sobre si el uso de IA en sistemas de armas mejoraría o empeoraría el cumplimiento del DIH.

Daragh Murray, profesor titular y becario de IHSS en la Facultad de Derecho de la Universidad Queen Mary de Londres, por ejemplo, señaló que existe “una posibilidad” de que el uso de IA aquí pueda mejorar el cumplimiento del DIH.

“Puede tener en cuenta mucha más información, no sufre de fatiga, adrenalina o venganza, por lo que si está diseñado correctamente, no veo por qué no podría ser mejor en algunos casos”, dijo.

“Para mí, el gran obstáculo es que tendemos a abordar un sistema de IA desde una perspectiva única donde esperamos que haga todo, pero si lo descomponemos en ciertas situaciones, tal vez identificando un tanque enemigo. o responder a un cohete entrante: un sistema de IA podría ser mucho mejor”.

Sin embargo, tenía claro que cualquier responsabilidad por una operación de sistemas de armas impulsada por IA tendría que recaer en los humanos que establecen los parámetros de despliegue.

Georgia Hinds, asesora legal del Comité Internacional de la Cruz Roja (CICR), dijo que si bien comprende los posibles beneficios militares que ofrece AWS, como una mayor velocidad operativa, advierte encarecidamente que no se mezclen estos beneficios con un mejor cumplimiento del DIH. .

“Algo como [improved operational] la velocidad en realidad podría representar un riesgo real para el cumplimiento del DIH”, dijo. “Si los operadores humanos no tienen la capacidad real de monitorear e intervenir en los procesos, si se aceleran más allá de la cognición humana, significa que no podrían evitar un ataque ilegal o innecesario, y eso es realmente un requisito del DIH”.

Más contenido para leer:  El gobierno del Reino Unido recurre a la startup Tim Berners-Lee para un plan de identidad digital

Agregó que los argumentos en torno a que AWS no está sujeto a la ira, la venganza, la fatiga y similares carecen de evidencia empírica que los respalde.

“En cambio, lo que estamos haciendo es participar en hipótesis, donde comparamos una mala decisión de un operador humano con un resultado hipotéticamente bueno que resulta de un proceso de máquina”, dijo.

“Creo que se hacen muchas suposiciones en este argumento, una de las cuales es que los humanos necesariamente toman malas decisiones, [and] en última instancia, ignora el hecho de que los seres humanos tienen la responsabilidad de cumplir con el DIH”.

Noam Lubell, profesor de la Facultad de Derecho de Essex, estuvo de acuerdo con Hinds y cuestionó dónde se acumularían los beneficios de la IA militar.

“¿Mejor para quién? Es posible que el lado militar y el lado humanitario no siempre vean lo mismo como mejor”, dijo. “Se mencionó la velocidad, pero la precisión, por ejemplo, es aquella en la que creo que ambos lados de la ecuación, el militar y el humanitario, pueden argumentar que la precisión es algo bueno”.

Debate sobre armas de precisión

Lubell señaló que se ha desarrollado un debate similar durante la última década en relación con el uso de “armas de precisión” como los drones, cuyo uso se expandió masivamente bajo la administración de Obama.

“Se ve que por un lado se está argumentando: ‘Habrá menos daños colaterales, así que es mejor usarlos’. Pero al mismo tiempo, también se podría argumentar que eso ha llevado a realizar ataques militares en situaciones en las que antes habría sido ilegal porque habría demasiados daños colaterales”, dijo.

“Ahora llevas a cabo un ataque porque sientes que tienes un arma de precisión, y hay algunos daños colaterales, aunque lícitos, pero si no hubieras tenido esa arma, no habrías llevado a cabo el ataque en absoluto”.

Hablando con Computer Weekly sobre la ética de la IA militar, profesor de teoría política y autor de Máquinas de muerte: la ética de las tecnologías violentas Elke Schwarz hizo un comentario similar, señalando que más de una década de guerra con aviones no tripulados ha demostrado que una mayor “precisión” no conduce necesariamente a menos víctimas civiles, ya que la comodidad que permite la tecnología en realidad reduce el umbral de recurrir a la fuerza.

Más contenido para leer:  Uptime Institute presenta una herramienta en línea para mostrar oportunidades de carrera en la industria del centro de datos

“Tenemos estas armas que nos permiten una gran distancia, y con la distancia viene la falta de riesgo para una de las partes, pero no necesariamente se traduce en menos riesgo para los demás, solo si las usa de una manera muy precisa, que nunca sucede en la guerra”, dijo, y agregó que los efectos de esto son claros: “Algunas vidas se han salvado y otras no”.

En cuanto a los argumentos de precisión, Hinds señaló que, si bien los de AWS a menudo se equiparan con ser más precisos, en opinión del CICR ocurre lo contrario.

“El uso de un arma autónoma, por definición, reduce la precisión porque el usuario en realidad no está eligiendo un objetivo específico: está lanzando un arma que está diseñada para activarse en función de un perfil de objetivo generalizado o una categoría de objeto. ” ella dijo.

“Creo que la referencia a la audición de precisión generalmente se relaciona con la capacidad de concentrarse mejor en un objetivo y tal vez usar una carga útil más pequeña, pero eso no está relacionado específicamente con la función autónoma de las armas”.

responsabilidad humana

Lubell dijo, en respuesta a una pregunta de los Lores sobre si alguna vez sería apropiado “delegar” la responsabilidad de la toma de decisiones a un sistema militar de inteligencia artificial, que no estamos hablando de eso. terminador-escenario de estilo en el que una IA establece sus propias tareas y las realiza, y advierte contra el lenguaje antropomórfico.

“Los sistemas de los que estamos hablando no deciden, en ese sentido. Estamos usando lenguaje humano como herramienta: ejecuta una función pero no toma una decisión en ese sentido. Personalmente, no me siento cómodo con la idea de que le estemos delegando algo”, dijo.

“Esta es una herramienta como cualquier otra herramienta, todas las armas son herramientas, estamos usando una herramienta… hay soluciones al problema de la rendición de cuentas que se basan en comprender que estas son herramientas en lugar de agentes”.

Murray dijo que también dudaría mucho en usar la palabra ‘delegado’ en este contexto: “Creo que debemos recordar que los humanos establecen los parámetros para el despliegue. Así que creo que la analogía de la herramienta es realmente importante”.

Más contenido para leer:  Ericsson, Telefónica claim to redefine 5G experiences with on-demand slicing

Hinds también agregó que las evaluaciones del DIH, en particular aquellas relacionadas con el equilibrio de la proporcionalidad con la ventaja militar anticipada, se basan en gran medida en juicios de valor y consideraciones específicas del contexto.

“Cuando reconoces que alguien se está rindiendo, cuando tienes que calcular la proporcionalidad, no es un juego de números. Se trata de cuál es la ventaja militar anticipada”, dijo.

“Los algoritmos no son buenos para evaluar el contexto, no son buenos para cambiar rápidamente las circunstancias y pueden ser bastante frágiles. Creo que en esas circunstancias, realmente me preguntaría cómo decimos que habría un mejor resultado para el cumplimiento del DIH, cuando intentas codificar evaluaciones cualitativas en un código cuantitativo que no responde bien a estos elementos”.

En última instancia, dijo que el DIH se trata de “procesos, no de resultados”, y que el “juicio humano” nunca puede subcontratarse.

IA para operaciones militares generales

Todos los testigos estuvieron de acuerdo en que una mirada estrecha al papel de la IA en los sistemas de armas no explicaría completamente las otras formas en que la IA podría desplegarse militarmente y contribuir al uso de la fuerza letal, y dijeron que estaban particularmente preocupados por el uso de la IA para fines de inteligencia y toma de decisiones.

“Yo no lo limitaría a las armas”, dijo Lubell. “La inteligencia artificial puede desempeñar un papel fundamental en quién o qué termina siendo el objetivo, incluso fuera de un arma en particular”.

Lubell agregó que está igualmente preocupado, si no más, por el uso de la IA en las primeras etapas de análisis de inteligencia de las operaciones militares y cómo afectará la toma de decisiones.

Dando el ejemplo de la IA en la aplicación de la ley, que se ha demostrado que afianza aún más los patrones existentes de discriminación en el sistema de justicia penal debido al uso de datos policiales históricamente sesgados, Lubell dijo que le preocupa “esos problemas que se repiten cuando usamos IA en las primeras etapas de análisis de inteligencia [of military planning]”.

Los Lores presentes en la sesión tomaron esto en cuenta y dijeron que ampliarían el alcance de su investigación para analizar el uso de la IA en todo el ejército, y no solo en los sistemas de armas específicamente.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales