La protesta de AI se intensifica a medida que la UE prepara la regulación

Una encuesta de 500 gerentes comerciales realizada por Method Communications para Twilio encontró que casi todas las organizaciones (91 %) que participaron en el estudio están utilizando inteligencia artificial (IA) para impulsar la experiencia del cliente. La encuesta ilustra el sentimiento de los empresarios hacia el uso de IA para generar valor en sus organizaciones.

La encuesta encontró que cuatro de cada cinco (81%) organizaciones creen que la tecnología de inteligencia artificial reciente tiene el potencial de afectar positivamente las experiencias de los clientes.

Por otro lado, la compañía estadounidense de tecnología educativa Chegg vio caer en picada el precio de sus acciones después de que el director ejecutivo Dan Rosensweig dijera que la compañía había visto un impacto “notable” de ChatGPT.

“Desde marzo, vimos un aumento significativo en el interés de los estudiantes en ChatGPT. Ahora creemos que está teniendo un impacto en nuestra nueva tasa de crecimiento de clientes”, dijo durante la llamada de ganancias del primer trimestre de 2023 de la compañía.

AI ofrece tanto el potencial de hacer crecer el negocio como un riesgo significativo al erosionar el punto de venta único (PVU) de una empresa. Si bien los líderes empresariales evalúan su impacto, hay una protesta de expertos e investigadores de la industria, que influirá en la dirección que tomen las futuras regulaciones de IA.

En una entrevista con el New York Times Al hablar sobre su decisión de dejar Google, el destacado científico de inteligencia artificial Geoffory Hinton advirtió sobre las consecuencias no deseadas de la tecnología y dijo: “Es difícil evitar que los malos actores hagan cosas malas”.

Hinton se encuentra entre una serie de expertos de alto perfil que expresan sus preocupaciones sobre el desarrollo de la IA. Una carta abierta, publicada por el Future of Life Institute, tiene más de 27,000 signatarios que piden una pausa en el desarrollo de la IA, entre ellos el fundador de Tesla y SpaceX, Elon Musk, quien, por cierto, es cofundador de OpenAI, la organización. detrás de ChatGPT.

Musk ha criticado abiertamente los avances como la IA generativa, pero, según los informes, está trabajando en su propia versión. De acuerdo con la Tiempos financierosMusk está reuniendo a un equipo de ingenieros e investigadores para desarrollar su propio sistema de inteligencia artificial generativa y ha “asegurado miles de procesadores GPU de alta potencia de Nvidia”.

En marzo, la Asociación para el Avance de la Inteligencia Artificial (AAA) publicó una carta abierta instando a la industria de la IA y a los investigadores a trabajar juntos para brindar una perspectiva equilibrada sobre la gestión del progreso de la IA. La carta pide “un enfoque constructivo, colaborativo y científico”, que la AAA espera que mejore la comprensión y apoye la colaboración entre las partes interesadas de la IA para el desarrollo y el despliegue responsables de las tecnologías de la IA.

Las cartas abiertas y los expertos que expresan sus preocupaciones llegan en un momento en que los legisladores de todo el mundo están comenzando a elaborar regulaciones que cubran el uso de la IA, los datos de capacitación, la responsabilidad, la ética y la explicabilidad de las decisiones basadas en la IA.

En enero, el Instituto Nacional de Estándares y Tecnología (NIST) del Departamento de Comercio de EE. UU. publicó un marco de gestión de riesgos para mejorar la confiabilidad de los sistemas de IA.

Al hablar sobre el marco, el subsecretario de comercio del NIST, Don Graves, dijo: “Este marco voluntario ayudará a desarrollar e implementar tecnologías de IA de manera que permitan a los EE. UU., otras naciones y organizaciones mejorar la confiabilidad de la IA mientras gestionan los riesgos en función de nuestros valores democráticos. Debería acelerar la innovación y el crecimiento de la IA mientras avanza, en lugar de restringir o dañar, los derechos civiles, las libertades civiles y la equidad para todos”.

En la UE, los miembros del parlamento europeo acordaron enmiendas a la Ley de IA de la UE, que cubre especialmente los modelos básicos de IA, como el modelo de lenguaje grande utilizado en ChatGPT. La enmienda a la ley significa que los desarrolladores de dichos modelos ahora deben realizar pruebas y análisis para identificar y mitigar riesgos razonablemente previsibles para la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el estado de derecho.

Según el bufete de abogados Perkins Coie, la Ley de IA de la UE podría tener un impacto significativo en el desarrollo y uso global de la inteligencia artificial. “Al igual que lo hizo el Reglamento General de Protección de Datos (GDPR) para la regulación de la privacidad, la Ley de IA podría establecer un estándar global seguido por otros países y regiones”, afirma un artículo en el sitio web de la empresa.

En el Reino Unido, el gobierno busca lo que describe como “un enfoque favorable a la innovación para la regulación de la IA”. Al presentar el libro blanco del gobierno sobre la regulación de la IA en marzo, Michelle Donelan, secretaria de estado para la ciencia, la innovación y la tecnología, dijo: “Reconocemos que las tecnologías particulares de IA, por ejemplo, los modelos básicos, se pueden aplicar de muchas maneras diferentes y esto significa que los riesgos puede variar enormemente.

“Por ejemplo, usar un chatbot para producir un resumen de un artículo largo presenta riesgos muy diferentes a usar la misma tecnología para brindar asesoramiento médico. Entendemos la necesidad de monitorear estos desarrollos en asociación con innovadores y, al mismo tiempo, evitar imponer cargas regulatorias innecesarias a quienes implementan IA”.

El ritmo del desarrollo de la IA avanza mucho más rápido que el ritmo con el que se pueden introducir nuevas regulaciones. Aunque es tentador implementar la IA para mejorar los resultados comerciales y agilizar los procesos gubernamentales, muchos han expresado su preocupación por la velocidad con la que la IA se está implementando en toda la sociedad.

“No creo que deban escalar más esto hasta que hayan entendido si pueden controlarlo”, advirtió Hinton en su entrevista con el New York Times.

Exit mobile version