Primer informe internacional de seguridad de IA publicado

La primera Informe internacional de seguridad de IA se utilizará para informar las próximas discusiones diplomáticas sobre cómo mitigar una variedad de peligros asociados con la inteligencia artificial (IA), pero destaca que todavía hay un alto grado de incertidumbre sobre la naturaleza exacta de muchas amenazas y cómo lidiar con ellas mejor .

Comisionado después de la cumbre inaugural de seguridad de IA organizada por el gobierno del Reino Unido en Bletchley Park en noviembre de 2023, y encabezado por el académico de IA Yoshua Bengio, el informe cubre una amplia gama de amenazas planteadas por la tecnología, incluido su impacto en los empleos y el medio ambiente, es potencial para proliferar ataques cibernéticos y defensores profundos, y cómo puede amplificar los sesgos sociales.

También examina los riesgos asociados con las concentraciones del mercado sobre la IA y el creciente “AI R&D [Research and Development] Divide “, pero se limita a observar todos estos riesgos en el contexto de los sistemas que pueden realizar una amplia variedad de tareas, también conocidas como IA de uso general.

Para cada uno de los muchos riesgos evaluados, el informe se abstuvo de sacar conclusiones definitivas, destacando el alto grado de incertidumbre sobre cómo se desarrollará la tecnología de rápido movimiento. Pidió un mayor monitoreo y evidencia en cada área.

“La evidencia actual apunta a dos desafíos centrales en la gestión de riesgos de IA de uso general”, dijo. “Primero, es difícil priorizar los riesgos debido a la incertidumbre sobre su gravedad y probabilidad de ocurrencia. En segundo lugar, puede ser complejo determinar los roles y responsabilidades apropiados en la cadena de valor de la IA e incentivar la acción efectiva “.

Sin embargo, el informe es claro en su conclusión de que todos los posibles impactos futuros de los contornos de IT de IT son una cuestión principalmente política, que estará determinada por las elecciones de sociedades y gobiernos de hoy.

“Cómo se desarrolla la IA de uso general y quién, qué problemas está diseñado para resolver, ya sea que podamos cosechar su potencial económico total, quién se beneficia de ella y los tipos de riesgos a los que nos exponemos, las respuestas a las respuestas Estas y muchas otras preguntas dependen de las elecciones que las sociedades y los gobiernos hacen hoy y en el futuro para dar forma al desarrollo de la IA de uso general ”, dijo, y agregó que existe una necesidad urgente de colaboración internacional y acuerdo sobre estos temas.

“La discusión científica y pública constructiva será esencial para que las sociedades y los formuladores de políticas tomen las decisiones correctas”.

Los hallazgos del informe, que se basan en un informe interino de seguridad de IA publicado en mayo de 2024 que mostró una falta de acuerdo experto sobre los mayores riesgos, tienen la intención de informar la discusión en la próxima Cumbre de Acción de AI en Francia, programada para principios de febrero de 2025, Lo que sigue desde las dos cumbres anteriores en Bletchley y Seúl, Corea del Sur.

Más contenido para leer:  Home Office se asocia con BAE Systems en análisis fronterizo

“La inteligencia artificial es un tema central de nuestro tiempo, y su seguridad es una base crucial para generar confianza y fomentar la adopción. La investigación científica debe seguir siendo el pilar fundamental que guía estos esfuerzos ”, dijo Clara Chappaz, la ministra francesa delegada de IA y tecnologías digitales.

“Esta primera evaluación científica integral proporciona la base de evidencia necesaria para que las sociedades y los gobiernos dan forma a la dirección futura de la IA de manera responsable. Estas ideas informarán discusiones cruciales en la próxima Cumbre de Acción de AI en París “.

Riesgos sistémicos

Al examinar los riesgos sociales más amplios del despliegue de IA, más allá de las capacidades de cualquier modelo individual, el informe dice que el impacto en los mercados laborales en particular es “profundo”.

Señaló que si bien existe una considerable incertidumbre en cómo afectará exactamente la IA afectará los mercados laborales, es probable que las ganancias de productividad obtenidas por la tecnología “conduzcan a efectos mixtos en los salarios en diferentes sectores, aumentando los salarios para algunos trabajadores al tiempo que disminuyen los salarios para otros”, Con el impacto a corto plazo más significativo en los trabajos que consisten principalmente en tareas cognitivas.

También es probable que las capacidades de IA de propósito general mejoradas también aumenten los riesgos actuales para la autonomía y el bienestar de los trabajadores, dijo, destacando los efectos nocivos que pueden tener “monitoreo continuo y decisiones de carga de trabajo impulsadas por la IA”, particularmente para los trabajadores de logística.

En línea con una evaluación de enero de 2024 de los impactos de IA en la desigualdad por parte del Fondo Monetario Internacional (FMI), que encontró que la IA probablemente empeorará la desigualdad sin intervención política, el informe dice: “La automatización laboral impulsada por la IA probablemente exacerbará la desigualdad al reducir La proporción de todos los ingresos que van a los trabajadores en relación con los propietarios de capital “.

La desigualdad podría profundizarse aún más como resultado de lo que el informe llama la “división de I AI R&D”, en la que el desarrollo de la tecnología está altamente concentrado en manos de grandes países ubicados en países con una fuerte infraestructura digital.

Más contenido para leer:  UK networks glow as Openreach hits halfway point in UK broadband upgrade plan

“Por ejemplo, en 2023, la mayoría de los notables modelos de IA de uso general (56%) se desarrollaron en los EE. UU. Esta disparidad expone muchos LMIC [low- and middle-income countries] a los riesgos de dependencia y podría exacerbar las desigualdades existentes ”, dijo, y agregó que los costos de desarrollo solo aumentarán, exacerbando esta división aún más.

El informe también destacó la tendencia creciente del “trabajo fantasma”, que se refiere al trabajo en su mayoría oculto realizado por los trabajadores, a menudo en condiciones precarias en países de bajos ingresos, para apoyar el desarrollo de modelos de IA. Agregó que, si bien este trabajo puede proporcionar a las personas oportunidades económicas, “la naturaleza al estilo de contrato de este trabajo a menudo proporciona pocos beneficios y protecciones de los trabajadores y menos estabilidad del trabajo, ya que las plataformas giran los mercados para encontrar mano de obra más barata”.

Relacionado con todo esto está el “alto grado” de la concentración del mercado alrededor de la IA, lo que permite a un pequeño puñado de compañías poderosas dominar la toma de decisiones en torno al desarrollo y el uso de la tecnología.

En el impacto ambiental, el informe señaló, mientras que los operadores de centros de datos recurren cada vez más a fuentes de energía renovable, una parte significativa de la capacitación de IA a nivel mundial todavía se basa en fuentes de energía de alto carbono, como el carbón o el gas natural, y también utiliza cantidades significativas de agua.

Agregó que las mejoras de eficiencia en el hardware relacionada con la IA solo “no han negado el crecimiento general en el uso de energía de la IA y posiblemente la aceleran por ‘efectos de rebote'”, sino que “las cifras actuales dependen en gran medida de las estimaciones, que se convierten en aún más variable y poco confiable cuando se extrapolan en el futuro debido al rápido ritmo de desarrollo en el campo ”.

Riesgos de mal funcionamiento

Destacando los “daños concretos” que la IA puede causar como resultado de su potencial para amplificar los prejuicios políticos y sociales existentes, el informe dijo que podría “conducir a resultados discriminatorios que incluyen la asignación desigual de los recursos, el refuerzo de los estereotipos y la negligencia sistemática de ciertos grupos o puntos de vista ”.

Señaló específicamente cómo la mayoría de los sistemas de IA están capacitados en conjuntos de datos de idiomas e imágenes que representan desproporcionadamente las culturas de habla inglesa y occidental, que muchas opciones de diseño se alinean con visiones mundiales particulares a expensas de los demás, y que las técnicas actuales de mitigación de sesgo no son confiables.

Más contenido para leer:  Las 10 mejores historias de seguridad cibernética de 2021

“Un enfoque holístico y participativo que incluye una variedad de perspectivas y partes interesadas es esencial para mitigar el sesgo”, dijo.

Haciéndose eco de los hallazgos del informe provisional sobre la pérdida humana de control de los sistemas de IA, que a algunos les preocupa que pueda causar un evento a nivel de extinción, el informe reconoció tales miedos, pero señaló que la opinión varía mucho.

“Algunos lo consideran inverosímil, algunos consideran que es probable que ocurra, y algunos lo ven como un riesgo de probabilidad modesto que merece atención debido a su alta gravedad”, dijo. “Más fundamentalmente, las presiones competitivas pueden determinar en parte el riesgo de pérdida de control … [because] La competencia entre empresas o entre países puede llevarlos a aceptar mayores riesgos para mantenerse a la vanguardia ”.

Riesgos de uso malicioso

En términos de uso malicioso de IA, el informe destacó problemas en torno a la seguridad cibernética, los defectos y su uso en el desarrollo de armas biológicas o químicas.

En Deepfakes, señaló los efectos particularmente dañinos en los niños y las mujeres, que enfrentan distintas amenazas de abuso sexual y violencia.

“Los métodos de detección actuales y las técnicas de marca de agua, mientras progresan, muestran resultados mixtos y enfrentan desafíos técnicos persistentes”, dijo. “Esto significa que actualmente no hay una solución sólida para detectar y reducir la propagación de contenido dañino generado por IA. Finalmente, el rápido avance de la tecnología de IA a menudo supera los métodos de detección, destacando las limitaciones potenciales de depender únicamente de las intervenciones técnicas y reactivas ”.

En seguridad cibernética, señaló que si bien los sistemas de IA han mostrado un progreso significativo en la identificación y explotación de vulnerabilidades cibernéticas de forma autónoma, estos riesgos son, en principio, manejables, ya que la IA también puede usarse a la defensiva.

“Los rápidos avances en las capacidades dificultan la descarga de riesgos a gran escala en el corto plazo, destacando así la necesidad de evaluar y monitorear estos riesgos”, dijo. “Se necesitan mejores métricas para comprender los escenarios de ataque del mundo real, particularmente cuando los humanos y los AIS trabajan juntos. Un desafío crítico es mitigar las capacidades ofensivas sin comprometer las aplicaciones defensivas “.

Agregó que si bien los nuevos modelos de IA pueden crear guías paso a paso para crear patógenos y toxinas que superan la experiencia en el nivel de doctorado, lo que puede contribuir a una disminución de las barreras para desarrollar armas biológicas o químicas, sigue siendo un proceso “técnicamente complejo”. , lo que significa que la “utilidad práctica para los novatos sigue siendo incierta”.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales