Reino Unido, EE. UU. y Australia prueban conjuntamente un enjambre de drones con IA

El gobierno del Reino Unido ha desplegado un “enjambre colaborativo” de drones autónomos para detectar y rastrear objetivos militares utilizando inteligencia artificial (IA), como parte de una prueba conjunta con Australia y EE. UU.

Organizado por el Laboratorio de Ciencia y Tecnología de Defensa (Dstl) del Reino Unido y realizado en abril de 2023, el ensayo implicó desplegar los drones en un “entorno representativo” en tiempo real y volver a entrenar sus modelos de IA en pleno vuelo.

También involucró el “intercambio” de diferentes modelos de aprendizaje automático (ML) entre los drones de los países participantes, y el despliegue de esos mismos modelos en una variedad de vehículos terrestres para probar aún más sus capacidades de identificación de objetivos.

“Los equipos trilaterales colaboraron para desarrollar modelos conjuntos de aprendizaje automático (ML), aplicar procesos de prueba y evaluación, y volar en diferentes vehículos aéreos no tripulados nacionales”, dijo el Ministerio de Defensa (MoD) del Reino Unido. “Los modelos ML se actualizaron rápidamente para incluir nuevos objetivos y se compartieron entre la coalición y los modelos de IA se volvieron a entrenar para cumplir con los requisitos cambiantes de la misión”.

El Ministerio de Defensa afirmó además que el uso de sistemas autónomos para detectar y rastrear de forma independiente objetivos enemigos “tendrá un impacto masivo en la capacidad militar de la coalición”, y que la IA militar debe desarrollarse “al ritmo si queremos mantener nuestra ventaja operativa”.

Realizado bajo el acuerdo AUKUS, un pacto de seguridad trilateral entre los gobiernos de Australia, el Reino Unido y los EE. UU. para promover la cooperación militar en toda la región del Indo-Pacífico en áreas como submarinos nucleares, armas hipersónicas e IA, el juicio formó parte del Pilar de Capacidades Avanzadas de la coalición. , también conocido como Pilar 2.

El objetivo de este trabajo es acelerar en colaboración la comprensión colectiva de la IA de estos tres gobiernos en un contexto militar y, en última instancia, aplicar la tecnología en las operaciones.

“Esta prueba demuestra la ventaja militar de las capacidades avanzadas de AUKUS, ya que trabajamos en coalición para identificar, rastrear y contrarrestar a los posibles adversarios desde una mayor distancia y con mayor velocidad”, dijo el teniente general Rob Magowan., el subjefe del personal de defensa del Reino Unido.

Más contenido para leer:  Lista de funciones de la Guía del comprador de Computer Weekly 2023

La aceleración de los avances tecnológicos brindará las ventajas operativas necesarias para vencer las amenazas actuales y futuras en el espacio de batalla. Estamos comprometidos a colaborar con los socios para garantizar que logremos esto y, al mismo tiempo, promover el desarrollo y la implementación responsables de la IA”.

Abe Dinamarca, asesor principal de EE. UU. del secretario de defensa de Aukus, agregó que las tecnologías avanzadas de inteligencia artificial tienen el potencial de transformar la forma en que los tres gobiernos abordan los desafíos de defensa y seguridad.

“Esta demostración de capacidad es realmente un esfuerzo compartido y, por lo tanto, es un paso fundamental en nuestra iniciativa colectiva para adelantarnos a las amenazas emergentes”, dijo. “Al unir nuestra experiencia y recursos a través de nuestras asociaciones AUKUS, podemos asegurarnos de que nuestras fuerzas armadas estén equipadas con las herramientas más recientes y efectivas para defender a nuestras naciones y defender los principios de libertad y democracia en todo el mundo”.

Más de 70 militares y personal de defensa civil y contratistas de la industria participaron en la prueba, incluido personal de los proveedores de drones Blue Bear e Insitu.

El Ministerio de Defensa anunció previamente en enero de 2021 que había realizado una prueba de “drones de enjambre” autónomos en Cumbria bajo el programa Many Drones Make Light Work de Dstl, que consistía en 20 drones que operaban en colaboración para entregar seis cargas útiles diferentes.

Los Royal Marines llevaron a cabo más pruebas de enjambres de drones bajo su programa Autonomous Advance Force 4.0 en julio de 2021, donde seis drones se encargaron de las unidades terrestres de reconocimiento y reabastecimiento.

En junio de 2022, el Ministerio de Defensa (MoD) dio a conocer su Estrategia de inteligencia artificial de defensa describiendo cómo el Reino Unido trabajará en estrecha colaboración con el sector privado para priorizar la investigación, el desarrollo y la experimentación en IA para “revolucionar nuestras capacidades de las Fuerzas Armadas”.

Más contenido para leer:  Las empresas Altnet de fibra completa llegan al norte

Aunque los detalles sobre su enfoque de las armas autónomas eran escasos en el documento de estrategia de 72 páginas, el anexo de un documento de política adjunto decía que los sistemas que pueden identificar, seleccionar y atacar objetivos sin una “participación humana adecuada al contexto” serían inaceptables.

En un informe sobre “tecnologías militares emergentes” publicado en noviembre de 2022 por el Servicio de Investigación del Congreso, los analistas señalaron que aproximadamente 30 países y 165 organizaciones no gubernamentales (ONG) han pedido una prohibición preventiva del uso de armas autónomas debido a preocupaciones éticas. en torno a su uso, incluida la posible falta de rendición de cuentas y la incapacidad de cumplir con las leyes internacionales sobre conflictos.

La Cámara de los Lores examina las armas de la IA

En enero de 2023, la Cámara de los Lores estableció un Comité de IA en Sistemas de Armas para explorar la ética del desarrollo y despliegue de armas autónomas, incluida la forma en que se pueden usar de manera segura y confiable, su potencial para escalar conflictos y su cumplimiento con las leyes internacionales.

Durante la primera sesión de pruebas del comité en marzo de 2023, se advirtió a los Lores que los beneficios potenciales del uso de la IA en operaciones militares no deberían combinarse con un mejor cumplimiento del derecho internacional humanitario.

Las sesiones posteriores del comité, disponibles en línea a través de grabaciones y transcripciones oficiales, generaron más preocupaciones.

El 20 de abril, por ejemplo, James Black, subdirector del grupo de defensa y seguridad de RAND Europe, señaló que si bien las conversaciones sobre el uso de armas de IA por parte de actores no estatales tienden a evocar “imágenes de organizaciones extremistas violentas”, deberían también se incluyen “grandes corporaciones multinacionales, que son el tipo de organizaciones que están a la vanguardia en el desarrollo de esta tecnología”.

Agregó: “En el futuro, muchas de estas cosas serán difíciles de controlar desde una perspectiva de contra y no proliferación, debido a su naturaleza inherente basada en software.

“Muchos de nuestros controles de exportación y regímenes de contraproliferación o no proliferación que existen se centran en hardware tradicional de la vieja escuela, como misiles, motores o materiales nucleares. Este tipo de cosas es una propuesta diferente y, claramente, un desafío”.

Más contenido para leer:  NetApp ‘unified storage’ adds new ASA block storage at Insight

Sin embargo, Kenneth Payne, profesor de estrategia en el King’s College de Londres, agregó que la creciente importancia del sector privado en el desarrollo de la IA no es inevitable y que los gobiernos pueden comenzar a tomar medidas para abordar el problema del dominio corporativo en esta área.

“Un ejemplo concreto es aumentar la cantidad de computación disponible para los investigadores en un entorno universitario. Hacer eso es parte de la nueva estrategia informática nacional. Una capacidad de IA modelo de base soberana sería un paso concreto, como parte de un proyecto más amplio para democratizar estas actividades nuevamente”, dijo.

Payne le dijo además a Lords que los estudios de juegos de guerra de enfrentamientos militares dirigidos por “equipos humanos-máquinas” muestran que podría haber una “espiral de escalada bastante rápida” porque “la incertidumbre sobre cuánto había subcontratado el adversario a los tomadores de decisiones automáticos significaba que había para adelantarse y tomar represalias primero”.

Agregó que si bien generalmente tenemos una buena comprensión de cómo los humanos piensan sobre la disuasión, la escalada y la coerción, no tenemos una comprensión similar de cómo las máquinas navegarían por estas dinámicas complejas.

Payne señaló además que la IA en este contexto no simplemente reemplazará a los humanos, sino que permitirá a las organizaciones militares tomar acciones “cualitativamente diferentes”: “No hay un equivalente humano de un enjambre aéreo de 10,000 efectivos o de un banco sumergible que pueda permanecer en mar indefinidamente.”

Durante una sesión separada el 27 de abril, Mariarosaria Taddeo, profesora asociada del Instituto de Internet de Oxford, dijo que la imprevisibilidad de la IA es “intrínseca a la tecnología misma”, y agregó: “Si vamos a usar la IA en la guerra, tenemos que asegurarnos de que podamos aplicar las normas, incluso con respecto a las responsabilidades que tienen las personas, lo cual es muy difícil de hacer y estamos muy lejos de encontrar una solución”.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales