La educación será clave para una buena regulación de la IA: una visión desde EE. UU.

Es un cálido y perfecto día de abril en las calles de Washington DC, aunque el aire ya lleva el inconfundible aroma fecundo del húmedo verano de la costa este que se avecina. Dentro de un centro de convenciones en el centro de la ciudad, los ejecutivos de Salesforce en su gira mundial provocan un frenesí de gritos y gritos a los asistentes que han viajado desde el vasto interior suburbano de la capital en los estados circundantes de Maryland y Virginia.

Mientras las agencias federales estadounidenses descubren cómo trabajar con los términos de la Orden Ejecutiva (EO) del año pasado sobre el uso de inteligencia artificial (IA) de la Casa Blanca, y se espera que la cámara alta de la legislatura estadounidense, el Senado, publique pronto un informe o documento técnico sobre la regulación de la IA, las charlas en la edición de este año del World Tour en DC estuvieron dominadas por la IA, especialmente sobre cómo se controlará y regulará su uso dentro del gobierno.

Salesforce tiene la esperanza de que se puedan lograr avances en el Congreso antes de que las cosas comiencen a calmarse durante el verano antes de las polémicas elecciones presidenciales de noviembre de 2024, aunque la conversación en los pasillos de su evento en DC sugiere que esto puede ser una esperanza desesperada.

Hugh Gamble, vicepresidente de asuntos federales de Salesforce, considera que la EO de Biden es un buen comienzo. Gamble, que comenzó como ingeniero de software antes de ir a la facultad de derecho y luego pasó la mayor parte de una década inmerso en la cultura política estadounidense como asesor de senadores de Mississippi y Georgia, lo describe como una hoja de ruta, pero señala que actualmente no es mucho más que eso.

“La EO fue un gran primer paso y fue agradable ver a Estados Unidos liderando un poco. Pero una OE tiene limitaciones: no es legislación, sino que dicta lo que hará el Poder Ejecutivo”, explica.

“Le dijo a las agencias del Poder Ejecutivo cómo, esencialmente, abordar los problemas, analizándolos a través de los daños potenciales, las formas en que deberían analizar los productos en el futuro y asegurándose de que tengan las habilidades y las personas necesarias para evaluar esos productos.

“Además de su propia adquisición y uso de productos, tienen que pensar en su cargo, cuál es su misión y cómo esos productos podrían usarse potencialmente en su ámbito.

“Lo que estamos atravesando ahora es un período en el que cada una de estas agencias está avanzando lo más rápido posible y tratando de llegar a un lugar de competencia al analizar su propio trabajo interno en el futuro, pero también cómo lo harán. manejarlo en la medida en que sean una agencia reguladora”.

Más contenido para leer:  Experimentos de código: un podcast de carga de tiempo de inactividad semanal de la computadora

En última instancia, aunque el Poder Ejecutivo es un gran consumidor de TI y las decisiones que toma sobre adquisiciones y reglas relativas a salvaguardas y protecciones tendrán un impacto en el mercado, dice Gamble, se necesitará más de una OE para mover la aguja.

“Siendo realistas, necesitamos que el Congreso actúe para aprobar algo que sea aplicable fuera del alcance del Poder Ejecutivo”, dice, con la preocupación de que no hacerlo sería arriesgarse a que cada agencia y organismo federal de EE. UU. desarrolle su propia enfoque, que sería inútil.

“El gobierno siempre se topa con ese problema”, dice Gamble. “Existe un programa llamado FedRAMP y cada agencia lo trata de manera diferente y eso ha sido a veces motivo de discordia en el sector público. Pero existe al menos cierta comprensión y cooperación fundamentales que se basan en pautas similares.

“Creo que eso es lo que esperamos en este momento. Cada agencia tiene una misión diferente. Y entonces entendemos que interpretarán y aplicarán lo que se les ha dicho de diferentes maneras, y esa es la naturaleza del gobierno. Lo que esperaríamos es que salga del Congreso una legislación que establezca algunas barreras de seguridad para el sector privado, de modo que podamos brindar cierta confianza en los productos tecnológicos que la gente está utilizando”.

Gamble aún no puede señalar ningún ejemplo del mundo real de cómo sería esto, simplemente porque el trabajo está en curso, pero tiene la esperanza de que los distintos organismos involucrados estén ansiosos por colaborar en ello.

“Lo que estamos viendo es que están prestando atención, se comunican y aprenden unos de otros. Están utilizando terminologías y comprensión de la tecnología similares. Y entonces, cuando vean que algo se está haciendo de manera inteligente, de alguna manera aprenderán de ello y lo repetirán o lo incorporarán en su totalidad”, dice.

“Pero… realmente creo que el documento técnico del Senado será nuestra primera indicación real de cómo el Congreso está analizando el tema y cómo piensan que comenzarán a abordarlo allí”.

Es evidente que habrá un amplio debate después de su publicación, pero antes de tiempo, Gamble dice que está contento de no haber visto grandes desacuerdos, a pesar de que “vienen y llegarán a lugares que no los esperamos”. Por ahora, todos en el Capitolio parecen estar trabajando de buena fe para que las cosas avancen lo más posible.

“Una vez que empiezas a redactar un proyecto de ley, es cuando empiezas a contar; en ese momento se convierte en un problema matemático y quieres hacerlo bien. Tienes que conseguir 60 votos en el Senado, tienes que conseguir una mayoría en la Cámara [of Representatives]. Y entonces es cuando los compromisos políticos pasarán a formar parte de esa conversación”, afirma.

Más contenido para leer:  Prohibición de ChatGPT en Italia: ¿precaución sobria o reacción exagerada escalofriante?

Por ahora, el Congreso ha estado jugando sus cartas con cautela en términos de lo que podría recomendar, pero según Gamble, los involucrados han sido “muy reflexivos” y han hablado con las personas adecuadas. Esto incluye a Salesforce, que desea estar en la sala donde esto sucede porque sus clientes correrán gritando si no lo está.

“La parte de la industria tecnológica que ocupamos requiere que tengamos un nivel de precisión y fidelidad a la verdad; nuestros clientes no van a tolerar una precisión del 95%, por lo que nos exigimos a un estándar más alto que nos coloca en una posición diferente. que las empresas que se mueven rápidamente y lanzan nuevos productos para perfeccionarlos más adelante”, explica.

“Entramos y hablamos de certeza, privacidad, un marco basado en riesgos que analiza la utilidad de la IA, y podemos estar seguros de que si siguen esas pautas, superaremos los obstáculos que ponen para demostrar que son competentes”.

IA no solo para empresas

Sin embargo, la IA no es sólo un juego empresarial. Afecta a los consumidores y, a diferencia de Salesforce, estos consumidores suelen ser votantes registrados.

Como tal, algo a lo que Gamble está alerta en sus conversaciones con políticos es la posibilidad de un incidente cibernético que involucre falsificaciones de IA o desinformación durante las polémicas elecciones presidenciales de este año. Un incidente de este tipo corre el riesgo de alterar la opinión pública y obligar a la próxima administración, especialmente si está encabezada por Donald Trump, a seguir un camino de regulación excesivamente restrictiva.

Salesforce es una empresa de software empresarial y claramente no vende productos o servicios de tecnología de consumo, pero sabiendo que una segunda presidencia de Trump es una posibilidad real al momento de escribir este artículo, esta es un área en la que Gamble y su equipo se han estado enfocando, ayudando a los políticos a entender eso. No es prudente ver la IA, o la industria tecnológica, como un monolito.

“El lado de la tecnología que ocupamos es la tecnología empresarial y que está separada y distinta de varias maneras de algunos de los productos tecnológicos más orientados al consumidor que existen. Entendemos que existe el peligro de una combinación ahí, pero es por eso que hemos estado teniendo conversaciones durante el año pasado para asegurarnos de que hacemos que la gente entienda la distinción entre los dos y que no hay daños colaterales si hay algo que provoca una acción instintiva”, dice Gamble.

Tener estas conversaciones no ha sido tarea fácil. Con 535 miembros, 100 senadores y 435 representantes en el Congreso, cada uno con un nivel diferente de comprensión, ha sido una operación hecha a medida.

Más contenido para leer:  El Tribunal de Facultades de Investigación determina que las órdenes de piratería de NCA EncroChat eran legales

“Pero hemos estado trabajando con asociaciones, comités y líderes de la industria para asegurarnos de que exista un entendimiento básico entre las personas que tienen la pluma en tales circunstancias”, dice Gamble.

“Hemos puesto un gran esfuerzo en eso. Es agotador, pero es el trabajo. Nuestro trabajo es de educación y promoción, y en este momento, ser un buen defensor de una buena política de IA”.

Colaboración global

Gamble se centra en el gobierno federal, pero, por supuesto, el gobierno de Estados Unidos no opera de forma aislada, y la creación de consenso global es tan importante como la creación de consenso dentro de los pasillos del poder en Washington.

Gamble es consciente de la necesidad de gracia y respeto ante el hecho de que diferentes gobiernos tendrán enfoques diferentes, pero cree que las cosas van en la dirección correcta.

“Que tenemos [also] Lo que alentó a los legisladores y al Poder Ejecutivo es al menos asegurarnos de que tengamos algo en común con los socios internacionales en cosas como definiciones y comprensión del panorama de la IA, de modo que no estemos haciendo una comparación de manzanas con naranjas cuando miramos lo que el Lo que está haciendo la UE o el Reino Unido y lo que Estados Unidos intenta hacer”, afirma.

“Incluso si no alcanzamos exactamente la misma legislación, en conclusión, estamos utilizando terminología y comprensión similares”.

¿Cómo es una buena regulación?

Cuando se le pregunta qué legislación sobre IA sería exitosa o fallida, Gamble dice que no tiene mucha opinión sobre el fracaso.

Pero en cuanto al éxito –y cualquier cosa separada de esto sería un grado diferente de fracaso en lugar de un fracaso total– lo que Salesforce quiere es un régimen regulatorio que comprenda la aplicación de la IA basada en el riesgo.

“Por lo tanto, sea cual sea la herramienta que implemente, comprenda cuánto riesgo presenta para el público en general y su utilidad. Y se le ha dado un nivel de escrutinio y atención gubernamental basado en eso”, dice.

“El ejemplo rudimentario que he escuchado a otros usar es que si tienes un chatbot que ayuda a las personas a aprender a cocinar por primera vez, no necesita el mismo nivel de escrutinio gubernamental que algo que impacta la vida humana o civil de una persona. derechos.

“Entonces, al comprender la diferencia, qué pueden hacer esas empresas de servicios públicos y cuál es su uso, la ley debería reflejar y comprender eso, y eso permitirá mucho espacio para la innovación, donde se reducen los daños. No queremos sofocar la innovación positiva.

“Siendo realistas”, concluye, “eso requiere una educación matizada, y eso es lo que vamos a hacer y a lo que vamos a intentar que suceda”.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales