El Comité de los Lores investigará el uso de sistemas de armas impulsados ​​por IA

El Comité de Inteligencia Artificial (IA) en Sistemas de Armas de la Cámara de los Lores ha publicado una convocatoria de pruebas como parte de su investigación sobre el uso de armas autónomas.

Los sistemas de armas autónomos (AWS), también conocidos como sistemas de armas autónomos letales (LAWS), son sistemas de armas que pueden seleccionar, detectar y atacar objetivos con poca o ninguna intervención humana.

Establecido el 31 de enero de 2023, el comité explorará la ética del desarrollo y despliegue de armas autónomas, incluida la forma en que se pueden usar de manera segura y confiable, su potencial para escalar conflictos y su cumplimiento con las leyes internacionales.

El comité también analizará específicamente las salvaguardas técnicas, legales y éticas que son necesarias para controlar el uso de AWS, así como la suficiencia de la política actual del Reino Unido y el estado de la formulación de políticas internacionales en esta área en general.

“La inteligencia artificial se presenta en muchas áreas de la vida, incluido el conflicto armado. Uno de los usos más controvertidos de la IA en la defensa es la creación de sistemas de armas autónomos que pueden seleccionar y atacar un objetivo sin el control directo o la supervisión de un operador humano”, dijo el presidente del comité, Lord Lisvane.

“Planeamos examinar las preocupaciones que han surgido sobre la ética de estos sistemas, cuáles son los aspectos prácticos de su uso, si corren el riesgo de que las guerras se intensifiquen más rápidamente y su cumplimiento con el derecho internacional humanitario.

“Nuestro trabajo se basa en los aportes de una amplia gama de personas y es más efectivo cuando se basa en la mayor diversidad posible de perspectivas y experiencias. Invitamos a todos aquellos que tengan opiniones sobre este tema apremiante y crítico, incluidos expertos y no expertos, a responder a nuestra solicitud de evidencia antes del 10 de abril de 2023”.

Luego de la presentación de pruebas, el comité comenzará a entrevistar a los testigos en una sesión pública entre marzo y julio, con el objetivo de concluir su investigación general para noviembre de 2023. Se espera una respuesta del gobierno del Reino Unido poco después, en enero de 2024.

Enfoque del gobierno del Reino Unido

En junio de 2022, el Ministerio de Defensa (MoD) dio a conocer su Estrategia de inteligencia artificial de defensa describiendo cómo el Reino Unido trabajará en estrecha colaboración con el sector privado para priorizar la investigación, el desarrollo y la experimentación en IA para “revolucionar nuestras capacidades de las Fuerzas Armadas”.

Con respecto al uso de LAWS, la estrategia afirmaba que el Reino Unido estaba “profundamente comprometido con el multilateralismo” y, por lo tanto, continuará comprometiéndose con la Convención de las Naciones Unidas (ONU) sobre Ciertas Armas Convencionales (CCW).

Aunque los detalles sobre su enfoque autónomo eran claros en el documento de estrategia de 72 páginas, un anexo sobre LAWS en un documento de política adjunto decía que los sistemas que pueden identificar, seleccionar y atacar objetivos sin una “participación humana adecuada al contexto” serían inaceptables.

“Compartiendo las preocupaciones de los gobiernos y los expertos en inteligencia artificial de todo el mundo, nos oponemos a la creación y el uso de sistemas que operarían sin una participación humana significativa y adecuada al contexto a lo largo de su ciclo de vida”, dijo.

“El uso de tales armas no podría satisfacer los principios fundamentales del Derecho Internacional Humanitario, ni nuestros propios valores y estándares expresados ​​en nuestros Principios Éticos de AI. La responsabilidad humana y la rendición de cuentas no se pueden eliminar, independientemente del nivel de IA o autonomía en un sistema”.

Agregó que el gobierno del Reino Unido continuaría trabajando con aliados y socios internacionales para abordar las “oportunidades y riesgos” en torno a LAWS.

La campaña Stop Killer Robots del Reino Unido dijo en ese momento que, si bien era importante que el gobierno reconociera que se deben trazar líneas en torno al uso de LAWS, no ha dado ninguna indicación de cómo se debe evaluar o comprender la “participación humana adecuada al contexto”.

“En esta nueva formulación, ‘participación humana apropiada para el contexto’ podría significar casi cualquier cosa y la falta de detalles sobre dónde el Reino Unido traza la línea equivale a que los militares le digan al público del Reino Unido ‘déjenos’ determinar qué es apropiado, ” decía.

“Esto es emblemático de nuestras preocupaciones anteriores de que esta posición política, así como la más amplia Estrategia de IA de defensafue formulado sin consulta pública ni ningún intento por parte de los ministros de tener una conversación nacional sobre este tema”.

Falta de consenso internacional

Sin embargo, al comentar sobre el estado actual de la cooperación internacional en torno a las LAWS en julio de 2022, el Instituto Alemán para Asuntos Internacionales y de Seguridad dijo que las conversaciones de expertos a nivel de la ONU se enfrentan al fracaso.

“El Grupo de Expertos Gubernamentales [GGE] ha estado discutiendo… AWS en el contexto del control de armas de la ONU desde 2017”, dijo. “La regulación de AWS es una perspectiva cada vez más remota, y algunos representantes incluso admiten en privado que las conversaciones pueden haber fracasado”.

Agregó que debido a que el GGE requiere unanimidad para tomar decisiones, la falta de participación de Rusia en las conversaciones desde la invasión de Ucrania en febrero de 2022 significa que será necesario encontrar foros alternativos para el debate internacional sobre las LEYES.

Sin embargo, señaló que incluso antes de las acciones de Rusia en Ucrania, “estaba claro que las diferencias de fondo… impedían un acuerdo rápido”, incluidos los desacuerdos sobre las definiciones y la terminología exactas.

“Otra falla es la carrera armamentista entre Estados Unidos, Rusia y China, que es especialmente pronunciada en el ámbito de las nuevas tecnologías”, agregó.

En un informe sobre “tecnologías militares emergentes” publicado en noviembre de 2022 por el Servicio de Investigación del Congreso, los analistas señalaron que aproximadamente 30 países y 165 organizaciones no gubernamentales (ONG) han pedido una prohibición preventiva del uso de LAWS debido a las preocupaciones éticas que rodean su uso, incluida la posible falta de rendición de cuentas y la incapacidad de cumplir con las leyes internacionales sobre conflictos.

Un estudio de septiembre de 2019 realizado por Justin Haner y Denise García dijo que la supervisión de las capacidades de las armas autónomas es “críticamente importante” dado que es probable que la tecnología “prolifere rápidamente, mejore las tácticas terroristas, empodere a los gobernantes autoritarios, socave la paz democrática y sea vulnerable a los prejuicios”. piratería y mal funcionamiento”.

También encontraron que los principales actores que impulsan la tecnología a nivel mundial son EE. UU., China, Rusia, Corea del Sur y la Unión Europea.

“Estados Unidos es el líder absoluto en desarrollo de hardware autónomo y capacidad de inversión. Para 2010, EE. UU. ya había invertido $ 4 mil millones en la investigación de AWS con otros $ 18 mil millones destinados al desarrollo de la autonomía hasta 2020”, dijeron.

A pesar de la falta de reglas y salvaguardas internacionales explícitas en torno a las LAWS, hay informes de que ya se han desplegado armas autónomas en situaciones de combate.

Un informe del Consejo de Seguridad de la ONU publicado en marzo de 2021, por ejemplo, describe un compromiso entre las Fuerzas Afiliadas al Gobierno del Acuerdo Nacional (GNA-AF, que cuentan con el respaldo de la ONU) y las Fuerzas Afiliadas a Hafter (HAF) en Trípoli, Libia.

“Los convoyes de logística y el HAF en retirada fueron posteriormente perseguidos y atacados de forma remota por los vehículos aéreos de combate no tripulados o los letales sistemas de armas autónomos como el STM Kargu-2 y otras municiones merodeadoras”, dijo.

“Los sistemas letales de armas autónomas fueron programados para atacar objetivos sin requerir conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de ‘disparar, olvidar y encontrar’”.

Agregó que las unidades de HAF “no estaban entrenadas ni motivadas para defenderse contra el uso efectivo de esta nueva tecnología y generalmente se retiraban en desorden. Una vez en retirada, estaban sujetos al acoso continuo de los vehículos aéreos de combate no tripulados y los sistemas de armas autónomos letales”.

Sin embargo, no queda claro en la redacción qué nivel de autonomía tienen estos sistemas de armas, y no menciona explícitamente si hubo personas muertas como resultado de su uso.

The New Scientist informó en junio de 2021 que la Fuerza de Defensa de Israel (FDI) también ha utilizado un enjambre de drones impulsados ​​por IA para localizar, identificar y atacar objetivos en Gaza.

Exit mobile version