Google Drops promete no desarrollar armas de IA

La empresa matriz de Google Alphabet ha retirado su compromiso de no utilizar la inteligencia artificial (IA) en sistemas de armas o herramientas de vigilancia, citando la necesidad de apoyar la seguridad nacional de “democracias”.

El CEO de Google, Sundar Pichai, en un blog de blog publicado en junio de 2018, anteriormente describió cómo la compañía “no perseguiría” aplicaciones de IA que “causan o probablemente causen daño general”, y específicamente comprometido a no desarrollar IA para su uso en “armas u otra tecnologías cuyo propósito o implementación principal es causar o facilitar directamente lesiones a las personas ”.

Agregó que Google tampoco buscaría “tecnologías que recopilen o usen información para la vigilancia que viole las normas aceptadas internacionalmente”.

Google, cuyo lema de la compañía ‘Don’t Be Evil’ se reemplazó en 2015 con ‘Do the Right Thing’, defendió la decisión de eliminar estos objetivos de su página web de principios de IA en una publicación en un blog coautor de Demis Hassabis, CEO de Google Deepmind ; y James Manyika, vicepresidente senior de tecnología y sociedad de la compañía.

“Hay una competencia global que tiene lugar para el liderazgo de IA dentro de un paisaje geopolítico cada vez más complejo. Creemos que las democracias deberían liderar en el desarrollo de la IA, guiados por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos “, escribieron el 4 de febrero.

“Y creemos que las empresas, gobiernos y organizaciones que comparten estos valores deberían trabajar juntas para crear IA que proteja a las personas, promueve el crecimiento global y apoya la seguridad nacional”.

Agregaron que los principios de IA de Google ahora se centrarán en tres inquilinos centrales, incluida la “innovación audaz”, que tiene como objetivo “ayudar, empoderar e inspirar a las personas en casi todos los campos de esfuerzo humano” y abordar los mayores desafíos de la humanidad; “Desarrollo y despliegue responsables”, lo que significa realizar AI de manera responsable a lo largo de un ciclo de vida completo de sistemas; y “progreso colaborativo, juntos”, que se centra en empoderar a “otros para aprovechar positivamente la IA de IA”.

Al comentar sobre el cambio de política de Google, Elke Schwarz, profesor de teoría política en la Universidad de Queen Mary, Londres y autor de Máquinas de la muerte: la ética de las tecnologías violentas – dijo que si bien “no es sorprendente” dado que la compañía ya ha estado suministrando al ejército estadounidense (y, según los informes, las FDI) servicios en la nube, todavía está preocupada por el estado de ánimo cambiante entre las grandes empresas tecnológicas hacia la IA militar; Muchos de los cuales ahora están argumentando que es “poco ético no quedarse atrapado” en el desarrollo de aplicaciones de IA para este contexto.

“Google Now se siente lo suficientemente cómodo como para hacer un cambio público tan sustancial sin tener que enfrentar una reacción o repercusiones significativas, le da una idea de dónde estamos con preocupaciones éticas sobre el beneficio de la violencia (por decirlo algo crudamente). Indica una aceptación preocupante de construir una economía de guerra “, dijo a Computer Weekly, y agregó que el cambio de política de Google destaca un cambio claro de que la industria tecnológica global ahora también es una industria militar global.

“Sugiere una militarización invasora de todo. También señala que hay una posición de mercado significativa para hacer una IA para fines militares y que hay una participación significativa de las ganancias financieras para los atractivos para las que compiten las principales empresas actuales. Qué útil es este impulso hacia la IA para fines militares todavía es muy especulativo ”.

Los expertos en IA militar han expresado previamente las preocupaciones sobre las implicaciones éticas de la muerte algorítmicamente habilitada, incluido el potencial de deshumanización cuando las personas en el extremo receptor de la fuerza letal se reducen a puntos de datos y números en una pantalla; el riesgo de discriminación durante la selección del objetivo debido a los sesgos en la programación o los criterios utilizados; así como el desapego emocional y psicológico de los operadores de las consecuencias humanas de sus acciones.

También hay preocupaciones sobre si alguna vez puede haber un control humano significativo sobre los sistemas de armas autónomos (AWS), debido a la combinación de sesgo de automatización y cómo tales armas aumentan la velocidad de la guerra más allá de la cognición humana.

A lo largo de 2024, una variedad de otros desarrolladores de IA, incluidos OpenAI, Anthrope y Meta, retrocedieron sus propias políticas de uso de IA para permitirnos que las agencias de inteligencia y defensa de nosotros usen sus sistemas de IA. Todavía afirman que no permiten que su IA dañe a los humanos.

Computer Weekly contactó a Google sobre el cambio, incluida la forma en que tiene la intención de abordar el desarrollo de IA de manera responsable en el contexto de la seguridad nacional, y si tiene la intención de colocar cualquier límite en los tipos de aplicaciones en las que se pueden usar sus sistemas de IA, pero no recibió respuesta.

‘No seas malvado’

El movimiento de Google ha atraído fuertes críticas, incluso de organizaciones de derechos humanos preocupados por el uso de IA para armas autónomas o vigilancia masiva. Amnistía Internacional, por ejemplo, ha calificado la decisión de “vergonzosa” y dijo que sentaría un precedente “peligroso”.

“Las tecnologías propulsadas por la IA podrían alimentar la vigilancia de la vigilancia y los sistemas de asesinato letales a una amplia escala, lo que puede conducir a violaciones de masas e infringir el derecho fundamental a la privacidad”, dijo Matt Mahmoudi, investigador y asesor de IA y derechos humanos en Amnisty.

“La decisión de Google de revertir su prohibición de las armas de inteligencia artificial permite a la compañía vender productos que alimentan las tecnologías, incluida la vigilancia masiva, los drones desarrollados para huelgas de firma semiautomatizada y un software de generación objetivo que está diseñado para acelerar la decisión de matar.

“Google debe revertir urgentemente los cambios recientes en los principios de la IA y volver a abstenerse de desarrollar o vender sistemas que puedan permitir violaciones graves de los derechos humanos. También es esencial que los actores estatales establezcan regulaciones vinculantes que rigen el despliegue de estas tecnologías basadas en principios de derechos humanos. La fachada de autorregulación perpetuada por las compañías tecnológicas no debe distraernos de la necesidad urgente de crear una legislación sólida que proteja los derechos humanos “.

Human Rights Watch destacó de manera similar la naturaleza problemática de la autorregulación a través de principios voluntarios.

“Que un líder de la industria global como Google puede abandonar repentinamente las prácticas prohibidas autoproclamadas subrayan por qué las pautas voluntarias no son un sustituto de la regulación y la ley exigible. La ley y las normas internacionales de los derechos humanos existentes se aplican en el uso de la IA, y la regulación puede ser crucial para traducir las normas en la práctica ”, dijo, y no está claro hasta qué punto Google se estaba adheriendo a sus principios anteriores, los trabajadores de Google tienen en menos pudo citarlos al retrasar las prácticas de IA irresponsables.

Por ejemplo, en septiembre de 2022, los trabajadores de Google y los activistas palestinos pidieron al gigante tecnológico que ponga fin a su participación en el proyecto secreto de Nimbus Cloud Computing Contract, que implica la provisión de herramientas de AI y aprendizaje automático (ML) al gobierno israelí.

Acusaron específicamente al gigante tecnológico de “complicidad en el apartheid israelí”, y dijeron que temían cómo se utilizaría la tecnología contra los palestinos, citando los principios de IA de Google. Un portavoz de Google dijo a Computer Weekly en ese momento: “El proyecto incluye hacer que Google Cloud Platform esté disponible para las agencias gubernamentales para cargas de trabajo cotidianas, como finanzas, atención médica, transporte y educación, pero no está dirigida a cargas de trabajo altamente sensibles o clasificadas”.

Human Rights Watch agregó: “El pivote de Google de negarse a construir IA para las armas hasta declarar una intención de crear IA que apoye las empresas de seguridad nacional es marcada. Los militares usan cada vez más IA en la guerra, donde su dependencia de datos incompletos o defectuosos y cálculos defectuosos aumenta el riesgo de daño civil. Dichas herramientas digitales complican la responsabilidad de las decisiones del campo de batalla que pueden tener consecuencias de vida o muerte “.

Mientras que la gran mayoría de los países están a favor de los controles multilaterales en los sistemas de armas propulsados ​​por la IA, los ministros de extranjeros europeos y los representantes de la sociedad civil anotaron durante una conferencia de abril de 2024 en Viena que un pequeño número de jugadores poderosos, incluidos el Reino Unido, los Estados Unidos e Israel,- están frenando el progreso al ser parte de los pocos países seleccionados para oponerse a las medidas vinculantes.

Timothy Musa Kabba, el Ministro de Asuntos Exteriores y la Cooperación Internacional en Sierra Leona, dijo en ese momento que para el multilateralismo para trabajar en el mundo moderno, existe una necesidad apremiante de reformar el Consejo de Seguridad de la ONU, que está dominado por los intereses de sus Cinco miembros permanentes (China, Francia, Rusia, el Reino Unido y los Estados Unidos).

“Creo que con el surgimiento de nuevas realidades, desde el cambio climático hasta los sistemas de armas autónomos, debemos analizar el multilateralismo una vez más”, dijo, señalando que cualquier institución nueva o reformada necesitará ser inclusivas, democráticas y adaptables.

Exit mobile version