El gobierno del Reino Unido revela detalles de la financiación de la investigación de seguridad de la IA

El gobierno del Reino Unido ha lanzado formalmente un programa de investigación y financiación dedicado a mejorar la “seguridad sistémica de la IA”, que permitirá otorgar hasta 200.000 libras esterlinas en subvenciones a investigadores que trabajen para hacer que la tecnología sea más segura.

Lanzado en asociación con el Consejo de Investigación en Ingeniería y Ciencias Físicas (EPSRC) e Innovate UK, parte de Investigación e Innovación del Reino Unido (UKRI), el Programa de Subvenciones para Seguridad Sistémica será entregado por el Instituto de Seguridad de Inteligencia Artificial (AISI) del Reino Unido, que se espera financiar alrededor de 20 proyectos a través de la primera fase del plan con un fondo inicial de £ 4 millones.

Luego se pondrá a disposición efectivo adicional a medida que se lancen nuevas fases, con £8,5 millones destinados al plan en general.

Establecido en el período previo a la Cumbre de Seguridad de la IA del Reino Unido en noviembre de 2023, el AISI tiene la tarea de examinar, evaluar y probar nuevos tipos de IA, y ya está colaborando con su homólogo estadounidense para compartir capacidades y construir enfoques comunes para las pruebas de seguridad de la IA. .

Centrado en cómo se puede proteger a la sociedad de una variedad de riesgos relacionados con la IA (incluidos deepfakes, desinformación y ataques cibernéticos), el programa de subvenciones tendrá como objetivo aprovechar el trabajo del AISI aumentando la confianza del público en la tecnología, al tiempo que coloca al Reino Unido a la cabeza. corazón del desarrollo de la IA “responsable y confiable”.

Riesgos críticos

La investigación también tendrá como objetivo identificar los riesgos críticos de la adopción de IA de vanguardia en sectores críticos como los servicios de salud y energía, identificando ofertas potenciales que luego pueden transformarse en herramientas a largo plazo que aborden los riesgos potenciales en estas áreas.

Más contenido para leer:  El gobierno del Reino Unido impulsará la banda ancha gigabit a medio millón más de hogares rurales en el Reino Unido

“Mi atención se centra en acelerar la adopción de la IA en todo el país para que podamos impulsar el crecimiento y mejorar los servicios públicos”, dijo el secretario digital Peter Kyle. “Sin embargo, lo fundamental de ese plan es aumentar la confianza del público en las innovaciones que ya están generando cambios reales.

“Ahí es donde entra en juego este programa de subvenciones”, dijo. “Al aprovechar una amplia gama de conocimientos especializados, desde la industria hasta el mundo académico, estamos apoyando la investigación que garantizará que, a medida que implementemos sistemas de IA en toda nuestra economía, puedan ser seguros y confiables en el punto de entrega”.

Las organizaciones con sede en el Reino Unido serán elegibles para solicitar la subvención a través de un sitio web específico, y la fase de apertura del programa tendrá como objetivo profundizar la comprensión sobre los desafíos que la IA probablemente planteará a la sociedad en el futuro cercano.

Los proyectos también pueden incluir socios internacionales, impulsando la colaboración entre los desarrolladores y la comunidad de investigación de IA y al mismo tiempo fortaleciendo el enfoque global compartido para la implementación y el desarrollo seguros de la tecnología.

La fecha límite inicial para las propuestas es el 26 de noviembre de 2024, y los solicitantes seleccionados serán confirmados a finales de enero de 2025 antes de recibir formalmente la financiación en febrero. “Este programa de subvenciones nos permite avanzar en una comprensión más amplia sobre el tema emergente de la seguridad sistémica de la IA”, dijo el presidente de AISI, Ian Hogarth. “Se centrará en identificar y mitigar los riesgos asociados con el despliegue de la IA en sectores específicos que podrían afectar a la sociedad, ya sea en áreas como los deepfakes o la posibilidad de que los sistemas de IA fallen inesperadamente.

Más contenido para leer:  CDO interview: Andy Moore, chief data officer, Bentley Motors

“Al reunir investigaciones de una amplia gama de disciplinas y orígenes en este proceso de contribuir a una base más amplia de investigación en IA, estamos acumulando evidencia empírica de dónde los modelos de IA podrían plantear riesgos para que podamos desarrollar un enfoque integral para la seguridad de la IA. para el bien público global”.

Un comunicado de prensa del Departamento de Ciencia, Innovación y Tecnología (DSIT) que detalla el plan de financiación también reiteró el compromiso manifiesto del Partido Laborista de introducir una legislación muy específica para el puñado de empresas que desarrollan los modelos de IA más potentes, añadiendo que el gobierno garantizaría “una proporción proporcionada”. enfoque de regulación en lugar de nuevas reglas generales sobre su uso”.

En mayo de 2024, AISI anunció que había abierto sus primeras oficinas internacionales en San Francisco para avanzar más con las principales empresas de IA con sede allí, como Anthrophic y OpenAI.

En el mismo anuncio, AISI también publicó por primera vez los resultados de las pruebas de seguridad de su modelo de IA.

Descubrió que ninguno de los cinco modelos de lenguaje grande (LLM) disponibles públicamente probados era capaz de realizar tareas más complejas y que requerían más tiempo sin que los humanos los supervisaran, y que todos ellos siguen siendo muy vulnerables a las “fugas” básicas de sus salvaguardias. También encontró que algunos de los modelos producirán resultados dañinos incluso sin intentos dedicados de eludir estas salvaguardas.

Sin embargo, el AISI afirmó que los modelos eran capaces de completar desafíos de ciberseguridad básicos a intermedios, y que varios demostraron un nivel de conocimiento equivalente a un doctorado en química y biología (lo que significa que pueden usarse para obtener conocimiento de nivel experto y sus respuestas a la ciencia). (las preguntas basadas en doctorado estaban a la par con las formuladas por expertos de nivel doctorado).

Más contenido para leer:  La brecha de habilidades en IA bloquea la adopción del sector público

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales