Se están celebrando elecciones clave en el Reino Unido, Estados Unidos, la UE y la India, y muchos otros países también celebrarán elecciones a lo largo del año. Junto con muchas organizaciones que trabajan con datos e inteligencia artificial, somos conscientes de las enormes oportunidades (y los importantes desafíos) que estas tecnologías pueden representar para moldear y dañar nuestras democracias.
Tras la Cumbre de Seguridad de la IA del Reino Unido y la Ley de IA de la Unión Europea, las conversaciones sobre la IA han pasado a ocupar un lugar central en la política, la sociedad civil y los círculos industriales a medida que avanzamos hacia el futuro. Muchas de estas conversaciones tienden a centrarse en la IA del futuro: lo que se ha denominado “IA de frontera”; Hemos oído hablar de amenazas futuras, oportunidades futuras y un futuro inseparable de la IA.
Sin embargo, ya estamos en la era de la IA y lo hemos estado durante más de una década. Nuestras conversaciones deben centrarse en el impacto muy real y presente que ya está teniendo en cada aspecto de nuestras vidas. La IA es omnipresente y ubicua; una de sus características más sorprendentes es el extraordinario potencial que tiene para usarse para influir en los pensamientos, comportamientos y votos de las personas. Hemos visto que la IA hace que la ejecución de campañas sea menos costosa, nivelando el campo de juego, pero también hemos visto el impacto increíblemente negativo de Cambridge Analytica. La capacidad de generar deepfakes realistas a escala y las capacidades de la IA generativa conversacional han cambiado el alcance potencial y la profundidad de los desafíos que enfrentamos ahora.
En el mundo de la tecnología, a menudo escuchamos el dicho “muévete rápido y rompe cosas”, pero eso no augura nada bueno para nosotros a nivel local, nacional o global cuando las cosas que podríamos estar rompiendo son la democracia y la sociedad. Por supuesto, la última ola de IA podría aumentar el compromiso político. Por ejemplo, las herramientas de inteligencia artificial generativa como ChatGPT podrían usarse para explicar los sistemas políticos, resumir las promesas de los manifiestos y alentar a los grupos subrepresentados a acudir a las urnas. Pero cada vez hay más pruebas de que la IA se ha utilizado y se utilizará para generar deepfakes realistas, crear y difundir desinformación y dirigirse a los votantes con mensajes que refuerzan los mensajes dañinos o falsos a un nivel nunca antes visto.
En elecciones anteriores, tanto en Europa como en el extranjero, las tecnologías centradas en datos como la IA han inundado las plataformas de redes sociales con anuncios personalizados y dirigidos, que a menudo contenían verdades a medias y afirmaciones dudosas. A medida que nos acercamos a las elecciones de este año, tendremos que lidiar con el uso de IA mucho más avanzadas en las elecciones, ya que más personas que nunca en todo el mundo van a las urnas. La IA es una tecnología que evoluciona constantemente y que brinda a cualquier persona con acceso a un teléfono inteligente la capacidad de crear y difundir información errónea, si así lo desea. Si bien la información errónea se difunde porque la gente la comparte en plataformas sociales, existe una diferencia material con respecto a elecciones anteriores: la calidad de las falsificaciones profundas ha mejorado. La gente es más consciente de que estas capacidades existen y ha aprendido a utilizarlas.
Incluso cuando no hay malas intenciones en la aplicación de la IA generativa, todavía existe el riesgo de incorporar, amplificar y afianzar sesgos, que pueden existir en los datos con los que se entrenan los sistemas de IA. Se recopilan grandes cantidades de datos de las plataformas de redes sociales y se utilizan para entrenar la IA, pero no se hace lo suficiente para garantizar que sean precisos y representativos. Al mismo tiempo, la tecnología se encuentra en un punto de inflexión: una gran mayoría de fuentes de datos seleccionadas, como archivos, bibliotecas y contenido multimedia, ya se han utilizado para entrenar las IA actuales, que no son perfectas, en el mercado. No se pueden lograr mejoras, por ejemplo en forma de contenido más veraz y verificado, si las nuevas versiones de estas IA se basan en la avalancha de contenido sintético que ya vemos en las redes sociales, por lo que existe el riesgo de que veamos que la tecnología empeora. si comienza a depender de datos generados por IA.
Contamos con una legislación electoral sólida en el Reino Unido, donde se basan nuestra investigación y nuestro compromiso. Todas las infracciones, males y males que se pueden cometer, ya están definidos. Sin embargo, es posible que la nuestra y otras instituciones estatales se vean abrumadas por el gran volumen de infracciones y transgresiones de normas. Es famoso que un rumor haya dado la vuelta al mundo antes de que la verdad se haya puesto en marcha, y eso puede acelerarse en la era de la IA generativa. Necesitamos asegurarnos de que nuestros reguladores e instituciones reciban tanto la orientación sobre cómo aplicar las regulaciones actuales a la IA, como también los recursos y la experiencia técnica para comprender cómo y cuándo hacer cumplir las reglas. Esto es particularmente desafiante en un sector como el de la IA, que exige salarios impresionantes y ya está experimentando una importante escasez de habilidades.
Encontrar una solución a esto no es algo que deba considerar solo el gobierno. Debe involucrar a la sociedad civil, las empresas tecnológicas privadas, los ciudadanos y los consumidores. Las empresas deberán asegurar sus datos y ser más abiertas respecto de los datos con los que alimentan sus algoritmos de IA. Los gobiernos deberán considerar formas innovadoras de tranquilizar a los ciudadanos y hacerlos sentir seguros. Como consumidores y como sociedad, necesitaremos aprender a ser mucho más críticos y cuestionar el origen fundamental de la información y los datos en los que se basa. Esto comienza con equipar a las personas con habilidades de alfabetización en datos e IA y empoderarlas para exigir que el contenido generado por IA sea etiquetado como tal en los medios y en otros lugares.
A nivel mundial, necesitaremos considerar cómo podemos comenzar a construir estructuras, instituciones, regulaciones y tecnología con los valores de confianza, procedencia y autenticidad en su centro. Tendremos que incentivar -con el palo y la zanahoria- a las empresas tecnológicas para que incorporen salvaguardias y abran algoritmos para una evaluación independiente. El sector tecnológico debe seguir invirtiendo en soluciones que combatan las noticias falsas y aborden la información errónea y la desinformación: esto incluye aprovechar el aprendizaje profundo para detectar el uso nefasto de la IA, pero también hacer más para apoyar el ecosistema más amplio y eso significa brindar a los investigadores y acceso de los innovadores a los datos.
Los gobiernos también deberían exigir la divulgación -por parte de los candidatos políticos y las campañas políticas- del uso de IA y sistemas algorítmicos, para que las personas sepan si son objeto de ataques y si han sido seleccionados algorítmicamente y si han recibido información. Al aumentar la rendición de cuentas y la transparencia, las personas se sentirán más seguras y menos abiertas a la manipulación. A nivel mundial, los gobiernos deben rastrear, evaluar y aprender de las lecciones de 2024 para que podamos proteger nuestras democracias y sociedades en los años venideros. Los gobiernos han tardado en reaccionar ante los riesgos de las redes sociales para la democracia, pero tenemos la oportunidad de adelantarnos a la curva con la regulación de la IA en este espacio.
Depende de cada uno cómo elige votar en una elección, y puede elegir votar con más o menos información, de fuentes más o menos confiables, o no votar en absoluto. Esa es su elección. Sin embargo, en el contexto de una tecnología nueva y poderosa, después de todo, debemos asegurarnos de que realmente sea su propia elección.
Resham Kotecha es jefe de políticas del Open Data Institute