Un informe destaca el desacuerdo entre los expertos sobre la seguridad de la IA

Un informe provisional sobre seguridad de la inteligencia artificial (IA) ha puesto de relieve la falta de acuerdo universal entre los expertos en IA sobre una variedad de temas, incluido tanto el estado de las capacidades actuales de la IA como cómo podrían evolucionar con el tiempo.

El Informe científico internacional sobre la seguridad de la IA avanzada fue uno de los compromisos clave que surgieron de las discusiones de Bletchley Park como parte de la histórica Declaración de Bletchley.

El informe explora opiniones diferentes sobre la probabilidad de riesgos extremos que podrían afectar a la sociedad, como el desempleo a gran escala, el terrorismo impulsado por la IA y la pérdida de control sobre la tecnología.

Los expertos que participaron en el informe coincidieron ampliamente en que la sociedad y los responsables políticos del gobierno deben priorizar la mejora de su comprensión del impacto de la tecnología de IA.

El presidente del informe, Yoshua Bengio, dijo: “Cuando se utiliza, desarrolla y regula de manera responsable, la IA tiene un potencial increíble para ser una fuerza de cambio transformador positivo en casi todos los aspectos de nuestras vidas. Sin embargo, debido a la magnitud de los impactos, el doble uso y la incertidumbre de las trayectorias futuras, nos corresponde a todos trabajar juntos para mitigar los riesgos asociados a fin de poder aprovechar plenamente estos beneficios.

“Los gobiernos, el mundo académico y la sociedad en general deben seguir avanzando en la agenda de seguridad de la IA para garantizar que todos podamos aprovecharla de forma segura, responsable y exitosa”.

Lanzado inicialmente como informe sobre el estado de la ciencia en noviembre pasado, el informe reúne a un equipo global diverso de expertos en IA, incluido un Panel Asesor de Expertos de 30 países de IA, así como representantes de las Naciones Unidas y la Unión Europea.

La Secretaria de Estado de Ciencia, Innovación y Tecnología, Michelle Donelan, dijo: “Aprovechando el impulso que creamos con nuestras históricas conversaciones en Bletchley Park, este informe garantizará que podamos aprovechar las increíbles oportunidades de la IA de manera segura y responsable durante las próximas décadas.

“El trabajo de Yoshua Bengio y su equipo desempeñará un papel sustancial en nuestras discusiones en la Cumbre AI de Seúl la próxima semana, a medida que continuamos construyendo sobre el legado de Bletchley Park aportando la mejor evidencia científica disponible para avanzar en la conversación global. sobre la seguridad de la IA”.

El informe provisional analizó la IA avanzada de “propósito general”, incluidos los sistemas de IA que pueden producir texto e imágenes y tomar decisiones automatizadas. Se espera que el informe final se publique a tiempo para la Cumbre de Acción sobre IA en Francia, pero ahora incorporará evidencia de la industria, la sociedad civil y una amplia gama de representantes de la comunidad de IA.

El Departamento de Ciencia, Innovación y Tecnología dijo que esta retroalimentación significará que el informe seguirá el ritmo del desarrollo de la tecnología, se actualizará para reflejar las últimas investigaciones y se ampliará a una variedad de otras áreas para garantizar una visión integral de los riesgos avanzados de la IA.

“Se necesita con urgencia una gobernanza democrática de la IA, sobre la base de investigaciones independientes, más allá de las exageraciones”, dijo Marietje Schaake, directora de política internacional del Centro de Política Cibernética de la Universidad de Stanford.

“El interino Informe científico internacional cataliza las opiniones de expertos sobre la evolución de la IA de propósito general, sus riesgos y sus implicaciones futuras. Si bien aún hay muchas cosas que no están claras, se necesita acción por parte de los líderes públicos para mantener a la sociedad informada sobre la IA y mitigar los daños actuales como el sesgo, la desinformación y los riesgos para la seguridad nacional, mientras se preparan para las consecuencias futuras de sistemas de IA de propósito general más poderosos”.

Exit mobile version