La Comisión Federal de Comercio de EE. UU. (FTC) emitió una advertencia a las empresas sobre el uso de inteligencia artificial (IA) para manipular el comportamiento de las personas con fines comerciales.
En una publicación de blog publicada el 1 de mayo de 2023, el abogado de prácticas publicitarias de la FTC, Michael Atleson, dijo que las empresas ya están utilizando la nueva ola de herramientas generativas de inteligencia artificial de maneras que pueden influir en las creencias, las emociones y el comportamiento de las personas.
Esto incluye el uso de chatbots diseñados para brindar información, asesoramiento, apoyo o compañía, muchos de los cuales, según Atleson, “están construidos de manera efectiva para persuadir” al responder consultas en un lenguaje seguro, incluso cuando esas respuestas son completamente ficticias.
Agregó que también hay una tendencia a que las personas confíen en el resultado de tales herramientas de inteligencia artificial generativa, debido a una combinación de sesgo de automatización (en el que las personas confían indebidamente en una máquina debido a la apariencia de neutralidad o imparcialidad) y antropomorfismo (en el que el chatbot está diseñado para parecer más humano por la forma en que usa el lenguaje o los emojis, por ejemplo).
“La gente podría fácilmente pensar que está conversando con alguien que los entiende y que está de su lado”, dijo Atleson.
“Muchos actores comerciales están interesados en estas herramientas generativas de inteligencia artificial y su ventaja integrada de aprovechar la confianza humana no ganada.
“La preocupación por su uso malicioso va mucho más allá de la jurisdicción de la FTC”, dijo. “Pero una preocupación clave de la FTC son las empresas que los utilizan de manera que, de forma deliberada o no, induzcan a las personas de manera injusta o engañosa a tomar decisiones dañinas en áreas como las finanzas, la salud, la educación, la vivienda y el empleo”.
Atleson agregó que cualquier empresa que considere el uso de IA generativa en sus prácticas publicitarias debe tener en cuenta que los elementos de diseño destinados a “engañar” a las personas son una característica común de los casos de la FTC.
Advirtió además que las empresas podrían comenzar a colocar anuncios dentro de una función de IA generativa, lo que también podría conducir a prácticas engañosas o desleales.
“Entre otras cosas, siempre debe quedar claro que un anuncio es un anuncio, y los resultados de búsqueda o cualquier salida de IA generativa deben distinguir claramente entre lo que es orgánico y lo que se paga”, dijo Atleson.
“La gente debe saber si la respuesta de un producto de IA los dirige a un sitio web, proveedor de servicios o producto en particular debido a una relación comercial”, dijo. “Y, ciertamente, las personas deberían saber si se están comunicando con una persona real o una máquina”.
En referencia a las noticias de marzo de 2023 de que Microsoft había despedido a todo un equipo dedicado a la ética y la seguridad de la IA, a pesar de ser una de las empresas líderes que impulsa la IA generativa a través de su asociación con OpenAI, Atleson señaló que “quizás no sea el mejor momento para las empresas”. estar reduciendo el personal que trabaja en estos temas.
“Si la FTC llama y quiere convencernos de que evaluó adecuadamente los riesgos y mitigó los daños, es posible que estas reducciones no sean una buena idea”, dijo. “Entre otras cosas, su evaluación de riesgos y mitigaciones deben tener en cuenta los usos posteriores previsibles y la necesidad de capacitar al personal y los contratistas, así como monitorear y abordar el uso real y el impacto de cualquier herramienta eventualmente implementada”.
Advertencia
La FTC también advirtió recientemente a las empresas que no hagan afirmaciones exageradas o sin fundamento sobre sus productos de IA, así como sobre el potencial de las herramientas de IA generativa para ser utilizadas para ataques cibernéticos y fraude.
“Ya hemos advertido a las empresas que eviten el uso de herramientas automatizadas que tengan impactos sesgados o discriminatorios”, dijo Atleson en la publicación de blog anterior de fines de febrero de 2023. “Pero el hecho es que algunos productos con afirmaciones de inteligencia artificial podrían ni siquiera funcionar como se anuncia en el primer lugar. En algunos casos, esta falta de eficacia puede existir independientemente de qué otros daños puedan causar los productos. Los especialistas en marketing deben saber que, para fines de cumplimiento de la FTC, las afirmaciones falsas o sin fundamento sobre la eficacia de un producto son nuestro pan de cada día”.
Desde principios de 2023, se ha iniciado una serie de desafíos legales contra las empresas de IA generativa, incluidas Stable Diffusion, Midjourney y Open AI, por presuntas infracciones de la ley de derechos de autor derivadas del uso de material potencialmente protegido para entrenar sus modelos.
El 16 de marzo de 2023, el gobierno de EE. UU. publicó una declaración de política sobre IA generativa y derechos de autor, que señalaba que “se necesita orientación pública” porque las personas ya están tratando de registrar derechos de autor para trabajos con contenido generado por IA.
Sin embargo, se centra exclusivamente en si el material producido por IA, donde la “tecnología determina los elementos expresivos de su producción”, puede protegerse mediante derechos de autor, en lugar del acceso de las empresas de IA generativa al material protegido por derechos de autor de otros.
El gobierno del Reino Unido, por otro lado, se ha comprometido a crear un código de práctica para las empresas en el espacio para facilitar su acceso a material protegido por derechos de autor, y hacer un seguimiento con una legislación específica si no se puede llegar a un acuerdo satisfactorio entre las empresas de IA y las de sectores creativos.
A finales de abril, el primer ministro Rishi Sunak anunció 100 millones de libras esterlinas de financiación para apoyar iniciativas de IA generativa, que se destinarán a la creación de un grupo de trabajo modelo de la fundación para promover el uso seguro y fiable de la IA en toda la economía y garantizar que el Reino Unido sea competitivo a nivel mundial en esta tecnología estratégica.