El dominio corporativo de la inteligencia artificial (IA) impide que la tecnología alcance todo su potencial para beneficiar a la sociedad, dice el experto en IA Michael Osbourne, quien aboga por una regulación más estricta del sector privado y un papel más importante para las instituciones públicas de investigación.
Profesor de aprendizaje automático en la Universidad de Oxford y cofundador de la plataforma de IA responsable Mind Foundry, la investigación de Osbourne ha explorado el uso práctico de los algoritmos de IA en una amplia gama de campos, desde astroestadística hasta ornitología y redes de sensores hasta gestión de energía.
Un tema clave de su investigación general ha sido el impacto social y económico de las nuevas tecnologías, particularmente en lo que respecta a la automatización del lugar de trabajo.
Hablando con Computer Weekly, Osbourne señala la necesidad apremiante de arrebatar el control del desarrollo y despliegue de la IA a las corporaciones del sector privado, para que pueda utilizarse en todo su potencial para promover el florecimiento humano.
“Es justo decir que el sector privado ha sido demasiado poderoso en lo que respecta a la IA… si queremos ver los beneficios de estas tecnologías, los estados deben intervenir para desbloquear y vaciar algunos de los fosos que protegen a las grandes tecnología”, dice.
Para lograrlo, aboga por controles más estrictos sobre lo que el sector privado puede hacer con la IA y por un reequilibrio de la balanza a favor de las instituciones públicas de investigación. Osbourne también dice que se debe pensar seriamente en cómo se pueden usar los procesos políticos para cambiar la dirección del viaje con la IA.
Una carrera armamentista impulsada por el mercado
Durante una aparición ante el Comité de Ciencia y Tecnología de la Cámara de los Comunes, que está realizando una investigación sobre el “marco pro-innovación para regular la IA” propuesto por el gobierno del Reino Unido, Osbourne señaló que el lanzamiento de ChatGPT por parte de OpenAI en noviembre de 2022 colocó un peligroso “marco competitivo”. presión” sobre las grandes empresas tecnológicas que desarrollan herramientas similares.
“Google ha dicho públicamente que está dispuesto a ‘recalibrar’ el nivel de riesgo y asume en cualquier lanzamiento de herramientas de IA debido a la presión competitiva de OpenAI”, dijo durante la sesión.
“Las grandes firmas de tecnología ven a la IA como algo muy valioso, y están dispuestas a deshacerse de algunas de las salvaguardas… y adoptar una perspectiva mucho más de ‘moverse rápido y romper cosas’, lo que trae consigo enormes riesgos”.
Señaló además que se trataba de un “desarrollo preocupante” porque señala el comienzo de una carrera hacia el abismo en términos de salvaguardias y estándares.
Hablando sobre las implicaciones de una carrera armamentista de IA impulsada por el mercado, Osbourne le dice a Computer Weekly que la relajación de las restricciones de Google sobre las herramientas de IA que lanzará públicamente ya ha afectado negativamente a la empresa, y que es solo cuestión de tiempo antes de que errores similares comiencen a afectar sociedad en una escala más amplia.
“Vimos las consecuencias de eso en la demostración que proporcionaron de Bard, su propio modelo de lenguaje grande [LLM]que salió mal y eliminó cantidades catastróficas de valor del precio de las acciones de Google”, dice.
“La razón por la que me preocupa aquí no es que una de estas empresas pueda ganarle a la otra; por supuesto, siempre ha habido presiones competitivas entre las empresas; es porque esta tecnología es tan poderosa y, por lo tanto, tan peligrosa, que cortar las esquinas en realidad pueden conducir a daños reales para la sociedad en general”.
Dando el ejemplo de un aviso de jailbreak que los usuarios de ChatGPT pueden emplear para hacer que el modelo ignore sus restricciones contra el discurso de odio, Osbourne dice: “Realmente no se necesita mucho esfuerzo para que ChatGPT produzca un discurso verdaderamente horrible”.
Agrega, sin embargo, que aunque los LLM como ChatGPT y Bard se limitan principalmente a aplicaciones de bots de chat, su falta de confiabilidad, incluso en la producción de respuestas a preguntas fácticas, significa que es probable que todavía “veamos la propagación de información errónea y desinformación”. y que los daños solo se multiplicarán si se implementan en aplicaciones más impactantes.
“La IA ya ha llevado a arrestos injustos cuando se usa en la vigilancia. La IA ha llevado a que a las personas se les nieguen los beneficios de bienestar social”, dice. “Se puede imaginar con el éxito de ChatGPT, que llegó a una audiencia de cientos de millones, la gente lo usará en lugares donde, en última instancia, se determinará que ha causado un gran daño: no es confiable, no es digno de confianza, no es transparente”.
Reequilibrio de la balanza
Parte del problema es el dominio del sector privado sobre la IA, que, según Osbourne, ha creado una dinámica poco saludable en el desarrollo de la tecnología.
En los últimos 10 años, señala que la contratación “al por mayor” de investigadores universitarios por parte de las grandes empresas tecnológicas ha creado una situación en la que la capacidad de investigación se ha drenado de las instituciones públicas, que simplemente no pueden competir con las grandes tecnológicas en igualdad de condiciones. base.
“Hemos visto que las demandas de la tecnología se moldean a lo que solo puede satisfacer el sector privado, en el sentido de que la IA actual necesita conjuntos de datos muy grandes, gran capacidad de cómputo e ingenieros muy capacitados, todos los cuales solo están realmente poseídos dentro de la tecnología. sector”, dice.
Michael Osbourne, Universidad de Oxford y Mind Foundry
“Los datos y la computación y el personal calificado que se han sustraído de las universidades le dan a la gran tecnología esta ventaja casi insuperable en el desarrollo de [AI] tecnologías, y creo que eso es realmente preocupante”.
Agrega que si bien es indiscutible que casi todas las tecnologías de IA más impactantes han sido desarrolladas por el sector privado, la actual falta de medidas de seguridad sobre cómo desarrolla e implementa la IA significa que sus beneficios potenciales están severamente limitados.
Estas medidas de seguridad deben incluir ciertos estándares técnicos sobre transparencia y confiabilidad, así como “marcos normativos” que prohíban las prácticas de IA más dañinas, como las que se proponen en la Ley de IA de la Unión Europea.
Osbourne agrega que debe haber un reequilibrio de la balanza lejos del sector privado si la tecnología va a avanzar en una dirección verdaderamente positiva, y sugiere que los estados deberían intervenir “para vaciar algunos de los fosos que protegen a las grandes tecnológicas”.
Esto podría lograrse, por ejemplo, brindando a las instituciones públicas un mejor acceso a la potencia informática, utilizando diferentes modelos de propiedad de datos, como fideicomisos de datos para administrar la información recopilada sobre el público, y restringiendo lo que las empresas pueden patentar para hacer que la tecnología sea más accesible.
“Las patentes realmente están restringiendo bastante lo que se puede hacer en IA, y sería bueno ver que los gobiernos reconozcan que eso podría estar inhibiendo la innovación que sería de beneficio público”.
La lógica corporativa de la IA
Osbourne añade que el dominio del sector privado sobre la IA también crea un bucle de retroalimentación sutil, mediante el cual los jugadores que ya dominan se afianzan aún más por su capacidad para procesar volúmenes cada vez mayores de información.
“Una forma de ver una corporación es como una forma de procesar información y tomar decisiones”, dice. “Mientras que un solo ser humano está limitado en la cantidad de información que puede procesar, una corporación aborda esa limitación reuniendo a muchas personas y teniendo estructuras que permiten que la información se propague y se aborde. Una IA es escalable de manera similar”.
Agrega que la escala de las corporaciones les brinda la capacidad de combinar información a nivel global con información a nivel local, que luego pueden usar para adaptar sus ofertas comerciales a localidades o regiones hasta el punto en que los jugadores más pequeños sin acceso a la misma cantidad de la información en bruto o el poder de cómputo luchan por competir.
Al mejorar aún más la capacidad ya avanzada de las corporaciones para procesar grandes volúmenes de información, que ha sido una gran parte de su éxito en las últimas décadas, Osbourne dice que la IA puede verse como una “extensión del poder tradicional de las corporaciones”.
Otra forma en la que Osbourne ve a la corporación como similar a la IA es que “tiende a ser bastante despiadada”, y agrega: “Es decir, tiene un objetivo, generalmente definido de forma restringida como maximizar el valor de los accionistas o algo así, y perseguirá ese objetivo para en detrimento de muchos otros objetivos que podríamos desear tener”.
Él dice que es aquí, en la comparación entre la IA y la corporación, y la tenacidad con la que persiguen sus objetivos, que el potencial verdaderamente amenazante de la tecnología sale a la luz.
¿Amenaza existencial?
“Cuando hablamos sobre el riesgo existencial de la IA, piense en las formas en que las corporaciones ya han remodelado el mundo, y es justo decir que no siempre para el bien público”, dice Osbourne.
Dando el ejemplo del “diesel-gate” (un escándalo que estalló en 2015 después de que las autoridades estadounidenses descubrieran que Volkswagen había usado software de manera intencional e ilegal en sus nuevos vehículos diesel para someterlos a pruebas reglamentarias), Osbourne dice: “Si son humanos reales, cuando se juntan de una manera particular, en forma de cooperación, pueden hacer este tipo de cosas, ¿cuánto más dañino podría ser si una IA desarrolla capacidades comparables o incluso superiores?
Agrega que la preocupación no es la IA en sí misma en un sentido puramente técnico, sino cómo se conecta a los sistemas sociales y económicos: “Ahora tenemos estos medios que abarcan todo el mundo para propagar información y tomar decisiones que una IA podría manipular muy fácilmente. Incluso sin ser activamente malicioso, [harms could happen] si los objetivos que persigue están ligeramente desalineados por nuestra cuenta”.
Al señalar que la IA ya ha sido capaz de engañar a los humanos reales para que, por ejemplo, crean que es consciente, Osbourne da el ejemplo de una IA que se usa para identificar a los candidatos a virus más capaces de causar otra pandemia.
“Hay laboratorios haciendo esto hoy… [that] intentará potenciar los virus para que sean más capaces de producir una pandemia”, dice. “Si una IA estuviera involucrada en ese proceso, podría estar haciendo lo que se le dijo que hiciera: mejorar los virus para que fueran más transmisibles y más letales, pero si fuera lo suficientemente capaz, podría pensar: ‘Realmente solo puedo probar este virus. cuando se libera en poblaciones reales.
Michael Osbourne, Universidad de Oxford y Mind Foundry
“Si fuera lo suficientemente capaz, podría persuadir a un trabajador de laboratorio para que haga exactamente eso. Las personas no son perfectas; tal vez la IA proporcione un texto persuasivo, de la forma en que ahora son capaces de hacerlo los grandes modelos de lenguaje, para que este trabajador de laboratorio filtre [the virus].”
El riesgo existencial de la IA, por lo tanto, no surge de la malicia, algo de lo que la IA es incapaz, sino del hecho de que un modelo suficientemente poderoso podría actuar de formas inesperadas que los humanos no pueden predecir o detener para lograr sus objetivos programados.
Sin embargo, Osbourne también señala que, a pesar del enorme progreso de los últimos años, la IA actual está “muy lejos” de la inteligencia a nivel humano.
“Estos grandes modelos de lenguaje han despertado a todos los demás al potencial de la IA. Los modelos no son perfectos, en cierto modo son bastante tontos, cometen errores tontos”, dice. “Pero al mismo tiempo, es difícil predecir lo que vendrá después y la forma en que ya han superado nuestras expectativas. [means] probablemente podemos esperar que se sigan superando nuestras expectativas”.
florecimiento humano
A pesar de sus preocupaciones sobre el dominio corporativo de la IA, Osbourne dice que no quiere que la IA sea desechada con el agua del baño: “Veo que la tecnología es inmensamente poderosa, [and] que puede conducir a beneficios reales para el florecimiento humano. Creo que es esencial desarrollar IA si queremos enfrentar muchos de los desafíos de este siglo”.
Sin embargo, para llegar allí, agrega Osbourne, la gente debe pensar seriamente en cómo se pueden usar los procesos políticos para garantizar que obtengamos lo mejor de la tecnología.
“La tecnología siempre ha sido política… históricamente, las olas de innovación tecnológica siempre han estado vinculadas a la oposición política”, dice, señalando el ejemplo de los luditas.
Aunque el término ludita se usa hoy en día como abreviatura de alguien que desconfía o critica las nuevas tecnologías sin una buena razón, los orígenes históricos del término son muy diferentes.
Si bien el sabotaje en el lugar de trabajo ocurrió esporádicamente a lo largo de la historia inglesa durante varias disputas entre trabajadores y propietarios, los luditas representaron un enfoque sistémico y organizado para romper máquinas, lo que comenzaron a hacer en 1811 en respuesta a la imposición unilateral de nuevas…