Los sistemas de armas autónomos desafían los rígidos intentos de control de armas

El paradigma de globalización posterior a la Guerra Fría llegó a un final violento en febrero de 2022 con la invasión total de Ucrania por parte de Rusia, y ahora se está desarrollando una era peligrosa e incierta que está desencadenando una nueva carrera armamentista global. Gran parte de este gasto militar está destinado a apoyar la manifestación de sistemas letales de armas autónomas (AWS), comúnmente conocidos como robots asesinos. De hecho, la adopción masiva de esta tecnología parece ahora inevitable.

Todos los precursores están en su lugar. La doctrina de fusión civil-militar del Partido Comunista Chino está alineando las innovaciones tecnológicas comerciales nacionales con las ambiciones militares expansivas de Beijing. El programa Replicator del Pentágono, anunciado el año pasado, también apunta a desplegar miles de AWS en múltiples dominios para fines de 2025. La marina estadounidense recientemente demostró una cañonera sin tripulación atacando un objetivo enemigo falso utilizando cohetes reales, sin ninguna dirección práctica de un ser humano. operador. Desesperadas por obtener una ventaja en su agotadora guerra de desgaste, se informa que las fuerzas ucranianas y rusas ya están utilizando drones impulsados ​​por inteligencia artificial (IA) capaces de matar sin supervisión.

Estos son sólo los ejemplos más evidentes del progreso de la tecnología. Su rápido avance está añadiendo urgencia a las conversaciones sobre cómo se pueden controlar las armas autónomas, o si es necesario empuñarlas.

El secretario general de la ONU, António Guterres, ha descrito durante años a AWS como “políticamente inaceptable y moralmente repugnante”. Una resolución adoptada en diciembre de 2023 por la Asamblea General de la ONU encargó a Guterres encuestar a los países sobre sus opiniones y publicar un informe que examinara los diversos dilemas legales, éticos y humanitarios que rodean el uso de robots asesinos.

Guterres busca que las negociaciones sobre la imposición de restricciones estrictas a las armas autónomas concluyan para 2026, pero este ambicioso cronograma ignora las realidades básicas. En medio del disfuncional entorno multilateral actual, las perspectivas de un tratado vinculante a nivel mundial que regule las armas inteligentes se están desvaneciendo rápidamente. Los delegados de la ONU ya han debatido el tema durante una década, pero siguen estancados. E incluso si la mayoría de las naciones logran llegar a un consenso, no hay garantía de que un tratado cambie la trayectoria de adopción de la tecnología.

Recelosas de las implicaciones para la seguridad de un orden internacional fragmentado, es casi seguro que las principales potencias militares seguirán resistiéndose. Tienen pocos incentivos para ratificar límites integrales voluntarios a activos que prometen un valor estratégico tan diverso basándose en riesgos que siguen siendo parcialmente hipotéticos. Un diplomático ruso dijo en un foro de la ONU sobre control de armas el año pasado: “Entendemos que para muchas delegaciones la prioridad es el control humano. Para la Federación Rusa las prioridades son algo diferentes”. Además, muchos estados nacionales están violando fácilmente las leyes y tratados humanitarios con pocas consecuencias.

Pero esto no significa que la inminente proliferación de AWS conducirá necesariamente al tipo de campos de exterminio algorítmicos que muchos temen. Los enfoques alternativos, fuera de un tratado global, aún pueden funcionar para garantizar que permanezcan dentro del ámbito de un control humano significativo.

Máquinas mortales útiles en un mundo en guerra.

Según una base de datos mantenida por la Universidad de Uppsala en Suecia, los conflictos armados en todo el mundo han aumentado a niveles que rivalizan con el ocaso de la Guerra Fría. Hay varias razones para esto. La renovada enemistad entre las grandes potencias ha provocado una ruptura del multilateralismo y erosionado las normas en torno al uso de la fuerza. Las aspirantes a potencias regionales quedan así liberadas para inmiscuirse en guerras olvidadas en su beneficio, a menudo a través de representantes. Internet y una economía global difusa también permiten a los actores no estatales organizarse y adquirir armas o tecnologías de doble uso más fácilmente. Ninguna de estas dinámicas retrocederá en el corto plazo.

Más contenido para leer:  Se insta al gobierno a abordar el sistema de impuestos de aprendizaje 'roto'

Mientras tanto, la guerra en Ucrania ha sido un campo de pruebas para la guerra con drones y plataformas de armas inteligentes. La cantidad de fuerza sigue siendo importante en los conflictos modernos. Pero los déficits de mano de obra y municiones ahora pueden compensarse parcialmente mediante el uso de máquinas prescindibles y recopilación de inteligencia en red digital. En 2022, el uso por parte de Kiev de plataformas locales de adquisición de objetivos impulsadas por IA (construidas con la ayuda de empresas estadounidenses de tecnología de defensa) permitió a un ejército ucraniano más pequeño y superado en armas repeler el bombardeo inicial de las fuerzas rusas a través de la frontera. A pesar de carecer de una armada, Ucrania ha podido infligir pérdidas devastadoras a la flotilla de buques de guerra rusa en el Mar Negro mediante el despliegue de drones marinos cargados de explosivos. Esto ha permitido a Ucrania mantener abiertas las rutas marítimas para exportar sus productos agrícolas, un salvavidas para su economía golpeada por la guerra.

Los gobiernos, incluidos los de las democracias liberales, han tomado nota. La combinación de guerras que asolan Ucrania y Medio Oriente, y la amenaza de China a Taiwán, están impulsando a naciones de todo el mundo a reconocer la necesidad del poder duro. Según el grupo de expertos del Instituto Internacional de Investigación para la Paz de Estocolmo, el gasto militar global batió récords el año pasado, aumentando un 6,8% a 2,4 billones de dólares. Esta generosidad –ya sea que fluya de las arcas de Beijing, Canberra, Delhi, Londres, Moscú, París, Seúl, Teherán, Tokio, Washington o cualquier otro lugar– está catalizando una evolución colectiva en los sistemas no tripulados. Estos van desde enjambres de drones autónomos, perros de asalto robóticos y sistemas inteligentes de defensa antiaérea y antibuque hasta pilotos de combate con IA, vehículos de ataque autónomos y más.

Los sistemas de armas autónomos también ocupan un lugar destacado en los intereses de los grupos de capital riesgo. Muchos de ellos ven un futuro rentable en un mundo más hostil.

Olas de drones baratos pueden quemar eficazmente las reservas de armas costosas del enemigo. Los robots asesinos también pueden desempeñar papeles constructivos en disputas fronterizas militarizadas, reduciendo el riesgo de conflicto al mejorar la disuasión. Corea del Sur, por ejemplo, ha instalado armas centinela autónomas a lo largo del perímetro de su zona desmilitarizada con Corea del Norte como baluarte contra un ataque terrestre de Pyongyang. Del mismo modo, los jugadores de guerra plantean que defenderse contra una futura invasión china de Taiwán requeriría una gran guarnición de múltiples niveles de sistemas autónomos antiaéreos y antibuques alrededor de la isla autónoma.

La integración de máquinas en las unidades de combate podría facilitar la protección de más personal humano en el frente. Y en un momento en que muchas naciones, incluidos países europeos, están considerando el regreso del servicio militar obligatorio, el uso de sistemas autónomos presenta un posible medio para mitigar las cifras de reclutamiento militar.

Más contenido para leer:  Los trabajadores de oficina sienten que la IA es mejor que un jefe humano

Michèle Flournoy, funcionaria de carrera de defensa estadounidense que ocupó altos cargos en las administraciones Clinton y Obama, dijo a la BBC en diciembre de 2021 que “una de las formas de recuperar algo de masa cuantitativa y complicar a los adversarios… la planificación es emparejar seres humanos y máquinas”.

Riesgo versus recompensa, y hay mucho riesgo

No nos equivoquemos: el valor estratégico de las armas autónomas es inextricable de sus riesgos. La IA es notablemente experta en ejecutar tareas estrechamente definidas, incluso si esas tareas son increíblemente complejas. Lo que la IA generalmente sigue siendo incapaz de hacer es negociar la ambigüedad utilizando la intuición o el sentido común para adaptarse a situaciones novedosas que no se incluyen en sus datos de entrenamiento.

Esto presenta un problema importante cuando se trata de AWS: es imposible para los humanos concebir cada escenario que podría desarrollarse en una zona de conflicto y preprogramarlo en el diseño de un sistema de armas.

“Hay que definir lo que deben hacer en cada contexto, y los componentes del aprendizaje automático suelen consistir en detectar el entorno, detectar un perfil objetivo, pero la decisión no es apropiada para el contexto”, Laura Nolan, ingeniera de software principal de Stanza Systems. y miembro británico de la Campaña para Detener los Robots Asesinos, dijo el año pasado a un comité de IA de la Cámara de los Lores. “Se les pide a los comandantes que anticipen los efectos de un ataque que no controlan por completo o que no pueden anticipar por completo”.

Identificar objetivos basándose en su apariencia visual es una situación especialmente complicada. Un ejemplo aleccionador es cómo un civil que lleva una pala puede parecerse a un militante que empuña un rifle. Un granjero que porta un rifle para defenderse puede reflejar la imagen de un terrorista. Un soldado que se rinde todavía presenta la apariencia exterior de un combatiente. En cada escenario, un arma autónoma (incluso una que cumpla adecuadamente con sus parámetros de programación) podría optar por matar a una persona inocente.

El uso de herramientas impulsadas por IA por parte de las Fuerzas de Defensa de Israel (FDI) en su guerra contra Gaza también ha opacado el argumento de que los sistemas de armas inteligentes harán que el uso de la fuerza sea más preciso. Una investigación de una revista israelí +972 publicado en abril detalla cómo las FDI se han basado en un sistema de inteligencia artificial llamado Lavender para ayudar a atacar a los combatientes de Hamas en ataques aéreos basados ​​en la síntesis de varios puntos de datos. Informa que Lavender autogeneró una lista de aproximadamente 37.000 personas en Gaza como supuestos militantes de Hamás. La mayoría de estos objetivos supuestamente fueron examinados por operadores de las FDI durante sólo 20 segundos antes de ser aprobados para su eliminación, a menudo mediante bombardeos en sus hogares, rodeados de sus familiares y amigos.

Los sistemas de armas autónomos también serán siempre vulnerables a las contramedidas. Un ejecutivo involucrado en la industria descentralizada de drones de Ucrania dijo recientemente cableado revista cómo una empresa similar que diseñaba una ametralladora autónoma vio sus señales de radio bloqueadas, lo que provocó que disparara indiscriminadamente.

Garantizar el control humano por otros medios

Fundada en 2013 por una coalición de organizaciones de la sociedad civil y grupos de desarme, la Campaña para detener a los robots asesinos ahora está compuesta por más de 250 organizaciones miembros en todo el mundo. Las políticas que propone –que cuentan con el respaldo de decenas de países– siguen un enfoque de “dos niveles”. Argumentan que los AWS “que no permiten un control humano significativo” al depender únicamente de la entrada de sensores para apuntar a los humanos deberían prohibirse por completo, mientras que se podrían hacer concesiones limitadas para los sistemas que puedan demostrar un control humano significativo.

Más contenido para leer:  Una historia pegajosa: cómo y por qué los piratas informáticos adoran las pegatinas en las computadoras portátiles

Son posiciones loables. Tampoco es probable que ganen tracción universal. El historiador militar Phillips Payson O’Brien, catedrático de estudios estratégicos de la Universidad de St Andrews en Escocia, ha argumentado un hecho incómodo: “Programar máquinas para decidir cuándo disparar contra qué objetivos podría tener consecuencias horripilantes para los no combatientes. Debería provocar un intenso debate moral. Sin embargo, en la práctica, la guerra obstaculiza estas discusiones”.

Sin embargo, en ausencia de leyes internacionales vinculantes, es posible que todavía haya formas de controlar AWS. La clave será permitir flexibilidad en lo que se entiende por “control humano significativo”. En otras palabras, una solución alternativa –aunque imperfecta– puede ser forjar una serie de normas aceptables, mejores prácticas y entendimientos bilaterales entre países o bloques políticos rivales. Un ejemplo temprano de esto es la declaración política del gobierno de Estados Unidos sobre el uso militar responsable de la IA. Desde su lanzamiento en noviembre de 2023, ha contado con el respaldo de 50 países, incluido el Reino Unido.

Este enfoque debería fomentar la creación proactiva de mecanismos de reducción de tensiones en posibles zonas conflictivas. Esto podría evitar que futuros accidentes militares, que son inevitables, se conviertan en catástrofes en toda regla. Dos rondas separadas de conversaciones en mayo entre funcionarios de alto nivel de Estados Unidos y China: primero en Viena sobre los riesgos de la IA y luego en el foro de defensa Shangri-La en Singapur, donde los jefes de defensa de los dos países acordaron mantener comunicación militar. Líneas abiertas: ilustran el tipo de diálogo que debería replicarse con frecuencia y a escala global.

Paul Scharre, un experto en el uso emergente de la IA en combate, ex soldado de élite del ejército estadounidense y ahora director de estudios del Centro para la Nueva Seguridad Estadounidense, escribió a principios de este año que las armas autónomas podrían ser aceptables si se limitan operativamente en términos de “geografía, tiempo y objetivos atacados”.

Esto se hace eco de las recomendaciones de la Campaña para detener a los robots asesinos. Sugiere además que los países agrupen conocimientos sobre los métodos más seguros para probar armas impulsadas por IA para limitar el riesgo de errores mortales. Tanto los defensores como los críticos de los sistemas autónomos generalmente coinciden en que si AWS es cómplice de atrocidades, el oficial militar que ordenó su uso podría ser procesado según el derecho internacional humanitario vigente.

Scharre y otros también han elogiado a Estados Unidos y al Reino Unido por su decisión de excluir los sistemas de inteligencia artificial del mando y control de sus arsenales de armas nucleares. Dicen que una posición unificada del Consejo de Seguridad de la ONU al respecto podría calmar los temores en una era de mayor ansiedad nuclear.

Después de albergar una conferencia de la ONU sobre armas autónomas a finales de abril,…

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales