Revisión de la cumbre de acción de IA: las opiniones diferentes ponen en duda la capacidad de AI para beneficiar a toda la sociedad

Durante la tercera cumbre global de inteligencia artificial (IA) en París, docenas de gobiernos y empresas describieron sus compromisos para hacer que la tecnología sea abierta, sostenible y para el trabajo para el “interés público”, pero los expertos en IA creen que existe una clara tensión en la dirección de los viajes.

Hablando con Computer Weekly, los asistentes a la Cumbre de Acción de IA destacaron cómo la IA está atrapada entre los imperativos retóricos y de desarrollo competidores.

Señalaron, por ejemplo, que, si bien el énfasis en la IA como un activo público abierto es prometedor, existe un lugar preocupante para evitar más centrales de poder en torno a la tecnología, que todavía está dominada en gran medida por un puñado de poderosas corporaciones y países.

Agregaron que las cifras políticas y de la industria clave, a pesar de sus compromisos aparentes con visiones más positivas y socialmente útiles de IA, están haciendo un impulso preocupante hacia la desregulación, que podría socavar la confianza pública y crear una carrera hacia el fondo en términos de seguridad y estándares.

A pesar de las tensiones presentes, existe un consenso de que la cumbre abrió más espacio para las visiones de IA competidores, incluso si no hay garantía de que esto gane a largo plazo.

La cumbre de París sigue la inauguración de la Cumbre de Seguridad de IA organizada por el gobierno del Reino Unido en Bletchley Park en noviembre de 2023, y la segunda cumbre de AI Seúl en Corea del Sur en mayo de 2024, los cuales se centraron en gran medida en los riesgos asociados con la tecnología y pusieron énfasis en mejorar su seguridad a través de la cooperación científica internacional e investigación.

Para expandir el alcance de las discusiones, la Cumbre de Acción de IA se organizó en cinco corrientes de trabajo dedicadas: IA del servicio público, el futuro del trabajo, la innovación y la cultura, la confianza en la IA y la gobernanza global.

Durante la cumbre anterior en Seúl, los expertos en tecnología y los grupos de la sociedad civil dijeron que si bien hubo un énfasis positivo en la expansión de la investigación de seguridad de la IA y la profundización de la cooperación científica internacional, tenían preocupaciones sobre el dominio del campo de seguridad de la IA por intereses corporativos estrechos.

En particular, enfatizaron la necesidad de compromisos de seguridad de IA obligatorios de las empresas; evaluaciones socio-técnicas de sistemas que tienen en cuenta cómo interactúan con las personas e instituciones en situaciones del mundo real; y una participación más amplia del público, los trabajadores y otros afectados por los sistemas impulsados ​​por la IA.

Sin embargo, a pesar del alcance ampliado de la Cumbre de Acción de AI, muchas de estas preocupaciones permanecen de alguna forma.

Desarrollos de la cumbre de acción de IA

En el transcurso de la cumbre de dos días, se anunciaron dos iniciativas principales, incluida la Coalición para la IA ambientalmente sostenible, que tiene como objetivo reunir a “partes interesadas en la cadena de valor de IA para el diálogo y las ambiciosas iniciativas de colaboración”; y la IA actual, una base de “interés público” lanzado por el presidente francés Emmanuel Macron que busca dirigir el desarrollo de la tecnología en direcciones más beneficiosas.

Respaldados por nueve gobiernos, incluidos Finlandia, Francia, Alemania, Chile, India, Kenia, Marruecos, Nigeria, Eslovenia y Suiza, así como un surtido de organismos filantrópicos y empresas privadas (incluidos Google y Salesforce, que figuran como “socios principales”), la AI actual tiene como objetivo “reshaparse” el panorama de la IA por expansión de la expansión de la expansión de la base de datos de alta calidad; Invertir en herramientas e infraestructura de código abierto para mejorar la transparencia alrededor de la IA; y medir su impacto social y ambiental.

Los gobiernos europeos y las empresas privadas también se asociaron para comprometerse alrededor de 200 mil millones de euros con inversiones relacionadas con la IA, que actualmente es la mayor inversión pública-privada del mundo. En el período previo a la cumbre, Macron anunció que el país atraería a 10900 millones de euros de inversión privada en centros de datos y proyectos de IA “en los próximos años”.

La cumbre terminó con 61 países, incluidos Francia, China, India, Japón, Australia y Canadá, firmando una declaración sobre inteligencia artificial inclusiva y sostenible para las personas y el planeta en la Cumbre de Acción de IA en París, que afirmó una serie de prioridades compartidas.

Esto incluye promover la accesibilidad de IA para reducir las divisiones digitales entre países ricos y en desarrollo; “Asegurar que la IA sea abierta, inclusiva, transparente, ética, segura, segura y confiable, teniendo en cuenta los marcos internacionales para todos”; evitando las concentraciones del mercado en torno a la tecnología; reforzando la cooperación internacional; haciendo que la IA sea sostenible; y fomentos de despliegues que “positivamente” dan forma a los mercados laborales.

Sin embargo, los gobiernos del Reino Unido y los Estados Unidos se negaron a firmar la declaración conjunta. Si bien todavía no está claro exactamente por qué, un portavoz del primer ministro Keir Starmer dijo en ese momento que el gobierno “solo se inscribiría en iniciativas que se encuentran en los intereses nacionales del Reino Unido”.

A lo largo del evento, los desarrolladores de IA y las figuras políticas clave de los Estados Unidos y Europa, incluido el vicepresidente de los Estados Unidos, JD Vance, Macron, y el comisionado europeo Ursula von der Leyen, denunciando la “burocracia” reguladora alrededor de la IA, argumentando que está frenando la innovación.

Vance, por ejemplo, dijo que “la regulación excesiva del sector de la IA podría matar una industria transformadora”, mientras que tanto el jefe digital de Macron como la de la Unión Europea (UE), Henna Virkkunen, indicó firmemente que el bloque simplificaría sus reglas e implementaría de una manera amigable para los negocios para ayudar a AI a escala continente. “Tenemos que cortar la burocracia, y lo haremos”, agregó von der Leyen.

También hubo varios desarrollos a estela inmediata de la cumbre. Esto incluye la UE que destruye su Directiva de responsabilidad de IA, que se centró en proporcionar un recurso a las personas cuando sus derechos han sido infringidos por los sistemas de IA, y el cambio de marca del Instituto de Seguridad de IA del Reino Unido al Instituto de Seguridad de AI (AISI), lo que significa que ya no considerará los problemas de prejuicios y libertad de expresión, y se centrará más estrechamente en la seguridad de la tecnología.

Ai en una encrucijada

De esa computadora semanalmente, muchos identificaron una tensión clara en la dirección del conjunto de viajes para la tecnología en el transcurso de la cumbre.

Por ejemplo, aunque las figuras políticas clave estaban defendiendo la retórica sobre la necesidad de IA abierta, inclusiva, sostenible y pública de IA de un solo aliento, en el siguiente estaban denunciando la burocracia regulatoria, mientras cometían cientos de miles de millones para proliferar la tecnología sin claras barandillas.

Para Sandra Wachter, profesora de tecnología y regulación, con un enfoque en la ética y el derecho de IA, en el Oxford Internet Institute (OII), no está claro a qué burocracia figuras políticas como Macron, Vance y Von der Leyen se refirieron.

“A menudo les pido a la gente que enumere las leyes que se interponen en el camino del progreso”, dijo. “En muchas áreas, ni siquiera tenemos leyes, o cuando tenemos leyes no son lo suficientemente buenas como para abordar esto, por lo que no veo cómo nada de esto está reteniendo la IA”.

Destacando la retórica de refuerzo de IA común defendida por figuras políticas y de la industria, Wachter dijo que le gustaría ver la conversación volteada: “Si mi tecnología es tan beneficiosa, si mis productos son tan buenos para todos, ¿por qué no garantizaría su seguridad al contabilizarme?”

Al comentar sobre la decisión de la UE de rescindir silenciosamente su Directiva de responsabilidad de IA a raíz de la cumbre, Wachter dijo que, si bien aún existen otras vías para desafiar la toma de decisiones dañinas automatizadas, la decisión representa un posible cambio de mar potencial para la regulación de la IA.

“Me preocupa mucho porque se ha hecho bajo el banner ‘necesitamos fomentar la innovación’, pero ¿qué tipo de innovación? ¿Para quién? ¿Quién gana si tenemos IA parcial, insostenible, engañoso y engañoso? Ella dijo, y agregó que no le queda claro cómo las personas que no podrán mejorar las vidas de cada ciudadano no pueden obtener su día en la corte si AI las ha dañado.

“¿Son los ocho multimillonarios o los otros ocho mil millones de personas? Está muy claro que la mayoría de las personas no se beneficiarán de un sistema que no se pruebe, que no sea seguro, que sea racista, y que destruya el planeta … por lo que esta idea de que la regulación se está frenando la innovación está completamente equivocada “.

Está muy claro que la mayoría de las personas no se beneficiarán de un sistema que no se pruebe, que no sea seguro, que sea racista, y que destruya el planeta … por lo que esta idea de que la regulación se retrasa la innovación está completamente equivocada.

Sandra Wachter, Oxford Internet Institute

Wachter agregó que la IA es una “tecnología inherentemente problemática, ya que sus problemas están enraizados en cómo funciona”, lo que significa que si se usará para algún tipo de bien mayor, “entonces debe asegurarse de que retenga esos efectos secundarios negativos tanto como sea posible”.

Una advertencia adicional contra los peligros de crear una falsa dicotomía en torno a la innovación y la regulación, Linda Griffin, vicepredicante de los asuntos globales en Mozilla, dijo: “Deberíamos ser muy escépticos de las afirmaciones contra la regulación”.

Agregó que personalmente considera que la retórica contra la regulación se preocupa: “La innovación, el crecimiento y las ganancias para un puñado de las compañías más grandes del mundo no significa innovación y crecimiento para el resto de nosotros”.

Gaia Marcus, directora del Ada Lovelace Institute (ALI), también salió de la cumbre “sintiendo que estamos en una especie de encrucijada cuando se trata de desarrollo y despliegue de IA”, argumentando que los gobiernos deben desarrollar los incentivos para asegurar que cualquier sistema de IA desplegados en sus jurisdicciones sean seguros y confiables.

Agregó que era especialmente importante garantizar que los modelos y sistemas alternativos se construyan fuera de los jardines amurallados de la gran tecnología, por lo que los gobiernos “no pagarán alquileres exorbitantes a algunas compañías de tecnología para una generación”; y para cualquier incentivo introducido para garantizar la seguridad de los sistemas de IA de uso general en la parte inferior de la pila de tecnología, de la cual todo lo demás está construido en la parte superior.

Al comentar sobre el punto de inflexión actual de la IA, Marcus dijo: “Un camino es realmente sobre los ganadores y los perdedores, sobre impulsar los intereses corporativos o un conjunto estrecho de intereses nacionales por delante del interés público, que diríamos que es un camino hacia ninguna parte, y luego el otro camino trata sobre las naciones que trabajan juntas para construir un mundo donde AI trabaja para las personas en la sociedad”.

Para que la cooperación internacional sea exitosa, Marcus dijo que, de la misma manera que existen estándares y normas compartidas en torno a la aviación o los productos farmacéuticos, es clave crear “infraestructura compartida para construir y probar sistemas de IA”.

Ella agregó: “No serán una mayor barrera para el potencial transformador de la IA que la confianza pública que se desvanece”, y que los países de ideas afines que reconocen los costos de los riesgos no abordados deben encontrar otros foros para continuar construyendo la agenda de seguridad. “Para una cumbre que se enmarcaba en la acción, realmente queríamos ver que los gobiernos se unieran urgentemente para comenzar a construir los incentivos, instituciones y alternativas que permitirán un amplio acceso y disfrutar de los beneficios de la IA”.

Sin embargo, Marcus reconoció que la situación geopolítica actual entre los Estados Unidos, China y la UE hace que sea más difícil garantizar la seguridad previa al despliegue, al menos a corto plazo.

A pesar de las tensiones geopolíticas presentes y los llamados a la desregulación, Mike Bracken, un socio fundador de Digital Transformation Consultancy Public Digital, fue más optimista sobre las perspectivas de colaboración internacional en el futuro, argumentando que los “elementos constituyentes” de la IA significa que siempre requiere una mezcla de acción y colaboración Sovereign.

“Cada país necesitaba sus propios centros de datos. Donde los ubica, cómo los financias, quién los opera, qué herramientas funcionan y qué poder usan, esa es una pregunta casi completamente soberana para cada país ”, dijo.

“Pero una vez que tienes toda esa configuración, aún necesitas colaborar en torno a los datos. Las estructuras de datos que ayudaron a crear Alfafold fueron esencialmente la creación de la colaboración internacional. Tenemos algunos datos soberanos, pero para que esta sea una obra verdaderamente global, tendremos que compartir y eso significa comprender diversos entornos regulatorios y tener un lugar para compartirlos “.

Interés público versus interés corporativo ai

Para Bracken, el principal éxito de la cumbre fue en cómo logró restablecer la narrativa en torno a la IA al presentarla como un activo público.

“Restablecer la IA como un bien público y básicamente como un deporte de equipo es bueno para todos nosotros”, dijo. “El verdadero político de eso, la tecnología involucrada, los jugadores, que lo convierte en un negocio desordenado, y es un …

Exit mobile version