AI militar atrapada en tensión entre la velocidad y el control

Los planificadores militares y las figuras de la industria dicen que la inteligencia artificial (IA) puede desbloquear la eficiencia de la oficina para las fuerzas armadas del Reino Unido y ayudar a los comandantes a tomar decisiones más rápidas e informadas, pero los “problemas intratables” horneados en la tecnología podrían reducir aún más la responsabilidad militar.

Hablando en un panel sobre la ética del uso de tecnologías autónomas en la guerra en el evento de IA Reino Unido alojado en el Instituto Alan Turing a mediados de marzo, figuras de la industria y un oficial de ejército británico retirado y retirado afirmó que hay un imperativo ético para desplegar AI en el ejército.

Argumentaron que la proliferación de IA en la defensa del Reino Unido disuadirá los conflictos futuros, liberará recursos, mejorará varios procesos de toma de decisiones, incluida la planificación militar y la selección de objetivos, y evitará que el país se quede atrás de sus adversarios.

Si bien estos oradores resaltaron la importancia de garantizar una supervisión humana significativa de la IA militar, y la necesidad de que la regulación global limite la proliferación de sistemas de IA “incontrolables” en este contexto, Elke Schwarz, profesor de teoría política en la Universidad Queen Mary Londres y autor de Máquinas de la muerte: la ética de las tecnologías violentasargumentó que existe una clara tensión entre la autonomía y el control que se hornea en la tecnología.

Agregó que este “problema intratable” con IA significa que existe un riesgo real de que los humanos sean sacados del circuito de toma de decisiones militares, lo que a su vez reduce la responsabilidad y reduce el umbral para recurrir a la violencia.

Más contenido para leer:  Tech firms cite risk to end-to-end encryption as Online Safety Bill gets royal assent

El potencial militar de la IA

El mayor general Rupert Jones, por ejemplo, argumentó que un mayor uso de la IA puede ayudar a la defensa del Reino Unido a navegar mejor el “contexto fangoso” de la guerra moderna, que se caracteriza por enemigos menos definidos y conflictos de poder.

“La guerra se ha vuelto más complicada. La victoria y el éxito son más difíciles de definir”, dijo, y agregó que el uso potencial más alto de IA es en cómo puede ayudar a los comandantes a tomar las mejores decisiones posibles en el menor tiempo.

“Para aquellos que no están familiarizados con la defensa, realmente es una carrera: estás corriendo a tu adversario para tomar decisiones mejores y rápidas de lo que pueden. Si te toman decisiones más rápidas, incluso si no son posiciones perfectas, probablemente podrán ganar el impulso sobre ti”.

Con la toma de decisiones, necesitaría tener datos enormemente robustos, confiables y siempre actualizados para reemplazar las capacidades y capacidades cognitivas de un tomador de decisiones humanos

Elke Schwarz, Queen Mary University Londres

Además del potencial de la tecnología para mejorar la toma de decisiones, Jones dijo que la naturaleza “enormemente costosa” de las organizaciones de defensa en funcionamiento significa que la IA también puede usarse para aumentar la eficiencia de la oficina, lo que a su vez desbloquearía más fondos para su uso en las capacidades de primera línea.

“La IA te brinda una gran eficiencia, saca a los humanos del circuito, libera dinero, y una cosa que necesitamos en la defensa del Reino Unido en este momento es liberar algo de dinero para que podamos modernizar la parte delantera”, dijo.

Sin embargo, señaló que el potencial de la tecnología para mejorar la toma de decisiones y desbloquear la eficiencia de la oficina posterior descansaría en la capacidad de la defensa del Reino Unido para mejorar sus prácticas de datos subyacentes para que las grandes cantidades de información que posee pueda ser explotada efectivamente por la IA.

Jones agregó que las organizaciones de defensa del Reino Unido deberían comenzar a implementarse primero en la oficina administrativa para desarrollar su confianza en el uso de la tecnología, antes de pasar a casos de uso más complejos como armas autónomas y otros sistemas de primera línea con IA: “construir una línea de base de IA de la que pueda crecer”.

Si bien Schwarz estuvo de acuerdo en que la IA será más útil para los militares para las tareas de back-office, ella consideró que esto se debe a que la tecnología simplemente no es lo suficientemente buena para los casos de uso letales, y que el uso de la IA en la toma de decisiones confundirá aún más las aguas.

“Con la toma de decisiones, por ejemplo, necesitaría tener datos enormemente robustos, confiables y siempre actualizados para reemplazar las capacidades y las capacidades cognitivas de un tomador de decisiones humano”, dijo, y agregó que la dinámica inherente a la tecnología crea una clara tensión entre la velocidad y el control.

“Por un lado, decimos: ‘Bueno, necesitamos tener un control humano significativo en todos los puntos de usar estos sistemas’, pero en última instancia, la razón de ser para estos sistemas es sacar a los humanos más del bucle, por lo que siempre hay tensión”, dijo Schwarz.

“La razón por la que el humano se toma más fuera del bucle es porque la lógica del sistema no cohese tan bien con la lógica cognitiva de cómo nosotros, como humanos, procesamos datos”.

Elke agregó que además de la tensión obvia entre la velocidad de la cognición y el control humano significativo, también existe el problema del sesgo de automatización, por el cual es más probable que los humanos confíen en las salidas de la computadora porque existe un sentido fuera de lugar, los resultados son inherentemente objetivos.

“Es más probable que confíe en la decisión de la máquina en que tenemos menos tiempo para anular, donde no podemos crear una imagen mental completa a tiempo para tomar una decisión humana, ya que estamos aún más integrados en los sistemas digitales, esos son los tipos de tensiones que no veo desaparecer pronto. Son problemas intratables”, dijo.

“Eso nos lleva a la ética y la pregunta de ¿qué hacemos con las decisiones éticas cuando se saca el humano?”

Mientras Schwarz instó a la extrema precaución, Henry Gates, director asociado de la startup de defensa de la IA Helsing, dijo que existe una necesidad apremiante de “moverse rápido” con el desarrollo de IA militar para que el Reino Unido no se quede atrás “otros actores nefastos” y que pueda tener una mayor voz sobre cómo están regulados los sistemas militares autónomos.

“Si solo somos un país que no tiene ninguna de estas armas … la gente realmente no nos va a escuchar”, dijo, y agregó que moverse al ritmo con la IA militar también puede ayudar a construir una disuasión alternativa.

“De la misma manera tenemos armas nucleares como disuasión a la guerra nuclear, la IA potencialmente proporciona una ruta hacia la disuasión convencional que reduce el conflicto armado”.

Schwarz, sin embargo, advirtió contra “poner todos nuestros huevos en la canasta de IA para disuadir la guerra”, argumentando que debe haber una mayor inversión en capacidades humanas para el diálogo, la confianza y la diplomacia.

También advirtió que, en lugar de actuar como un disuasivo, la naturaleza socio-técnica de la IA, por la cual los componentes técnicos de un sistema dado están informados por procesos sociales y viceversa, significa que puede dar forma negativa a las perspectivas de los humanos, lo que lleva a la deshumanización.

“En última instancia, siempre ha sido el caso [with] tecnologías que cuanto más confiamos en ellos, más dan forma a nuestras perspectivas sobre nosotros y también sobre los demás “, dijo, y agregó que este es el caso con la IA como, a diferencia de otras herramientas de guerra, como los tanques o las armas que se usan como prótesis físicas, la tecnología actúa como una prótesis cognitiva.

“¿Cuál es la lógica de todo eso? Bueno, un sistema de IA ve a otros humanos como objetos, necesariamente, bordes y rastros, por lo que implícito, entonces es una objetivación, lo cual es problemático si queremos establecer relaciones”.

Más allá de la cognición humana

Sobre el tema del control humano significativo, Gates agregó que hay tres cosas a considerar: la medida en que la toma de decisiones se delega a la IA, el monitoreo del rendimiento para garantizar que los modelos no se “despliegan” de su propósito y mantengan a los humanos en el control total de cómo se están desarrollando sistemas de IA.

De la misma manera tenemos armas nucleares como disuasión a la guerra nuclear, la IA potencialmente proporciona una ruta hacia la disuasión convencional que reduce el conflicto armado

Henry Gates, Helsing

Sin embargo, Keith Dear, Director Gerente del Centro de Tecnologías Cognitivas y Avanzadas de Fujitsu, argumentó que las capacidades de la IA han llegado tan lejos en tan poco tiempo que pronto podrá superar a los humanos sobre cómo aplicar las leyes de la guerra a sus decisiones.

“Para que un objetivo sea justificado bajo la ley del conflicto armado, debe identificarse positivamente, debe ser necesario … tiene que ser proporcional, tiene que ser humano, por lo que no hay efectos no controlados, y tiene que ser legal. Todas las cosas son pruebas que podrían aplicar a una IA de la misma manera que los aplicamos a un soldado, un marinero o un airero que sirve en la primera línea”, dijo.

“Cuando delega la autoridad, tiene que superarnos en esas cosas, y si nos supera en esos roles en los que puede basarse y comparar eso, no es ético no delegar autoridad a la máquina, lo que tiene un falso negativo más bajo al tomar esas decisiones que nosotros”.

Destacando cómo la velocidad del comercio de acciones moderna significa que se deja en gran medida a las computadoras, la AI agregada creará una situación similar en la guerra, ya que habrá eclipsado la velocidad de la cognición humana, la toma de decisiones puede y debe dejarse a estos sistemas autónomos.

“Es una IA que mira la IA. Puede tener humanos antes del circuito, pero la idea de que, a medida que se acelera la guerra y llegamos a AGI [artificial general intelligence]habrá alguien en el bucle es perverso, creo que es una opción de perder ”, dijo.

Al comentar sobre la idea de que la IA reducirá el sufrimiento humano en el conflicto y creará un futuro en el que se libran las guerras entre ejércitos de drones, Gates agregó que era poco probable, señalando que, si bien puede cambiar el carácter de la guerra, no cambia la lógica subyacente, que es cómo un grupo puede “imponer su voluntad” a otra.

Jones estuvo de acuerdo, señalando que si una IA está sentada o no en el medio, la idea es “lastimar” a las personas del otro lado. “Todavía estás tratando de influir en las poblaciones, los tomadores de decisiones políticas, los militares”, dijo.

Para querida, no habrá ningún papel para los humanos en el campo de batalla. “Cuando tus máquinas terminen de pelear y un lado ha ganado, no será diferente a tener un ejército humano que ganara en el campo de batalla, el punto es que es que [either way] No tienes más remedio que rendirte o enfrentar una guerra de exterminio ”, dijo.

Schwarz, sin embargo, destacó la realidad de que muchos de los sistemas de IA de hoy en día simplemente aún no son muy buenos, y advirtió contra hacer afirmaciones “tremendamente optimistas” sobre los impactos revolucionarios de la tecnología en todos los aspectos de la vida, incluida la guerra. “No es una panacea para absolutamente todo”, dijo.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales