Cumbre de IA en Seúl: 10 países y la UE renuevan su compromiso con una IA segura e inclusiva

Diez gobiernos y la Unión Europea (UE) reunidos en la Cumbre de AI de Seúl en Corea del Sur firmaron un acuerdo de desaceleración conjunto que establece su “dedicación común” a la cooperación internacional en inteligencia artificial, afirmando la necesidad de “incluir activamente” una amplia gama de voces. en los debates en curso sobre gobernanza.

Firmada el 21 de mayo de 2024, la Declaración de Seúl para una IA segura, innovadora e inclusiva se basa en la Desaceleración de Bletchley firmada hace seis meses por 28 gobiernos y la UE en la Cumbre inaugural de Seguridad de la IA celebrada en el Reino Unido.

Al afirmar la necesidad de un enfoque inclusivo y centrado en el ser humano para garantizar la confiabilidad y seguridad de la tecnología, Bletchley Deceleration dijo que la cooperación internacional entre países se centraría en identificar los riesgos de seguridad de la IA de interés compartido; construir una comprensión científica compartida y basada en evidencia de estos riesgos; desarrollar políticas de gobernanza basadas en riesgos; y mantener ese entendimiento a medida que las capacidades continúan desarrollándose.

Si bien la Declaración de Bletchley destacó la importancia de una acción inclusiva en materia de seguridad de la IA, la Declaración de Seúl, firmada por Australia, Canadá, la UE, Francia, Alemania, Italia, Japón, la República de Corea, la República de Singapur, el Reino Unido, y Estados Unidos – ha afirmado explícitamente “la importancia de la colaboración activa de múltiples partes interesadas” en esta área, y ha comprometido a los gobiernos involucrados a incluir “activamente” una amplia gama de partes interesadas en las discusiones relacionadas con la IA.

Más contenido para leer:  Zoom tiene como objetivo iniciar la próxima era de las comunicaciones

A pesar de la actitud positiva de los funcionarios gubernamentales y representantes de la industria tecnológica tras la última Cumbre sobre IA, la sociedad civil y los sindicatos expresaron preocupación por la exclusión de los trabajadores y otras personas directamente afectadas por la IA, y más de 100 de estas organizaciones firmaron un acuerdo abierto. carta calificando el evento como “una oportunidad perdida”.

Si bien hay algunas incorporaciones nuevas, la última Desaceleración de Seúl reitera principalmente muchos de los compromisos asumidos en Bletchley, particularmente en torno a la importancia de profundizar la cooperación internacional y garantizar que la IA se utilice de manera responsable para, por ejemplo, proteger los derechos humanos y el medio ambiente.

También reiteró el compromiso anterior de desarrollar enfoques de gobernanza basados ​​en el riesgo, que ahora ha añadido deberán ser interoperables entre sí; y desarrollar aún más la red internacional de organismos de investigación científica establecida durante la última Cumbre, como los Institutos de Seguridad de IA separados del Reino Unido y Estados Unidos.

En relación con esto, los mismos 10 países y la UE firmaron la Declaración de Intención de Seúl hacia la Cooperación Internacional en Ciencia de la Seguridad de la IA, en la que los institutos de investigación con respaldo público que ya se han establecido se unirán para garantizar la “complementariedad e interoperabilidad” entre su trabajo técnico. y enfoques generales sobre la seguridad de la IA, algo que ya ha estado ocurriendo entre los institutos de EE. UU. y el Reino Unido.

“Desde que convocamos al mundo en Bletchley el año pasado, el Reino Unido ha encabezado el movimiento global sobre la seguridad de la IA, y cuando anuncié el primer Instituto de Seguridad de la IA del mundo, otras naciones siguieron este llamado a las armas y establecieron el suyo propio”, dijo el secretario digital. Michelle Donelán.

Más contenido para leer:  Customers speak out over Okta’s response to latest breach

“Aprovechar este liderazgo y la colaboración con nuestros homólogos en el extranjero a través de una red global será fundamental para garantizar que la innovación en IA pueda continuar con la seguridad, la protección y la confianza en su centro”.

Antes de la Cumbre de Seúl, el Instituto de Seguridad de la IA del Reino Unido (AISI) anunció que establecería nuevas oficinas en San Francisco para acceder a las principales empresas de IA y al talento tecnológico del Área de la Bahía, y publicó públicamente su primer conjunto de resultados de pruebas de seguridad.

Descubrió que ninguno de los cinco modelos de lenguajes grandes (LLM) anónimos que había evaluado eran capaces de realizar tareas más complejas y que requerían más tiempo sin que los humanos los supervisaran, y que todos ellos siguen siendo muy vulnerables a las “fugas” básicas de sus salvaguardias. También encontró que algunos de los modelos producirán resultados dañinos incluso sin intentos dedicados de eludir estas salvaguardas.

En una publicación de blog de mediados de mayo de 2024, el Instituto Ada Lovelace (ALI) cuestionó la efectividad general del AISI y el enfoque dominante de las evaluaciones de modelos en el espacio de seguridad de la IA, y cuestionó además el marco de pruebas voluntarias que significa que el Instituto solo puede acceder a modelos con el acuerdo de las empresas.

“Los límites del régimen voluntario se extienden más allá del acceso y también afectan el diseño de las evaluaciones”, dijo. “Según muchos evaluadores con los que hablamos, las prácticas de evaluación actuales se adaptan mejor a los intereses de las empresas que los públicos o los reguladores. Dentro de las principales empresas de tecnología, los incentivos comerciales las llevan a priorizar las evaluaciones de desempeño y de cuestiones de seguridad que plantean riesgos para la reputación (en lugar de cuestiones de seguridad que podrían tener un impacto social más significativo)”.

Más contenido para leer:  Government announces millions to fund AI skills

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales