Lord Holmes advierte de una necesidad cada vez más ‘urgente’ para regular la IA

El gobierno del Reino Unido debe “urgentemente” legislarse sobre la inteligencia artificial (AI) dados los impactos claramente negativos que ya está teniendo en la vida cotidiana de muchas personas, advierte el conservador Lord Holmes en un informe.

En noviembre de 2023, Holmes presentó un proyecto de ley de miembros privados de IA al Parlamento en lugar de cualquier propuesta formal del gobierno en ese momento, que se centró en establecer medidas para la “regulación adaptativa”, diseño inclusivo, estándares éticos, transparencia, responsabilidad, educación y cooperación internacional .

Holmes dijo en el informe que, si bien su proyecto de ley tenía la intención de involucrar proactivamente al público y sus compañeros parlamentarios con las ideas y los pasos legislativos necesarios para garantizar que la IA tenga la forma positiva en beneficio de todos, la tecnología sigue siendo en gran medida “no regulada”, lo cual está, lo cual está. permitiendo que una variedad de daños florezca sin cesar.

“Ya sea discriminación y sesgo en los algoritmos de IA, desinformación de imágenes sintéticas, estafas que usan la tecnología que imita la voz, el robo de derechos de autor o las respuestas de chatbot poco éticas, ya nos enfrentamos a una serie de problemas de la IA existente”, dijo.

Hablando durante una mesa redonda sobre el lanzamiento del informe, Holmes agregó mientras era urgente regular la IA cuando inicialmente propuso su factura de miembros privados en 2023, “Creo que sigue siendo aún más apremiante hoy”.

Destacando ocho ejemplos arquetípicos de personas que viven “en el extremo brusco” de la IA no regulada en el Reino Unido, el informe de Holmes, publicado el 26 de febrero de 2025, muestra cómo la tecnología ya está afectando negativamente la vida de las personas debido a la falta de protecciones efectivas en el lugar.

Para cada uno de los ejemplos, el informe presenta el problema y cómo su proyecto de ley AI propuesto podría abordar los problemas en cuestión.

En el caso de los reclamantes de beneficios, por ejemplo, señaló cómo el Departamento de Trabajo y Pensiones (DWP) “constantemente falló” en informar al público sobre los algoritmos que está desplegando para tomar decisiones sobre la vida de las personas, y marcado que los sistemas automatizados han Llevó erróneamente a miles de suspensiones de beneficios indefinidas o investigaciones de fraude.

Para aliviar esto, Holmes dijo que la cláusula dos de su proyecto de ley establecería los principios del documento técnico de IA del gobierno conservador anterior en una base legal, incluidas medidas sobre la transparencia, la explicabilidad, la responsabilidad, la disputa y la reparación, así como un deber de no discriminar.

También destacó un proyecto de ley de miembros privados de IA separados presentados en septiembre de 2024 por el liberal demócrata Lord Clement-Jones, que más estrechamente “tiene como objetivo establecer un marco obligatorio claro para el uso responsable de los sistemas de toma de decisiones algorítmicas y automatizadas en el sector público” .

Para el solicitante de empleo, Holmes dijo que si bien AI se está implementando cada vez más en los procesos de reclutamiento, no existen leyes específicas que actualmente regulen el uso de la tecnología en las decisiones de empleo.

Agregó que esto ha llevado a que las personas estén injustamente exentas de los roles debido a que los datos de capacitación están fuertemente influenciados por años de patrones de contratación dominados por los hombres, y crea más problemas en torno a la recolección de datos personales para informar los sistemas y una falta general de transparencia alrededor de modelos.

Una vez más destacando la cláusula dos de su proyecto de ley, Holmes dijo que más cláusulas establecen una “autoridad de IA centrada horizontalmente”, lo que emprendería un análisis de brecha de la responsabilidad reguladora existente y garantizaría la alineación entre los diferentes reguladores sectoriales, y los “oficiales responsables de la IA” también fortalecería las protecciones para las protecciones. Los solicitantes de empleo sujeto a la IA.

Otros ejemplos arquetípicos destacados por Holmes incluyen el maestro, el adolescente, el estafado, el creativo, el votante y el paciente de trasplante, todos los cuales, según él, se beneficiarían de varias otras cláusulas en su proyecto de ley de miembros privados.

Estos incluyen cláusulas sobre la “participación pública significativa y a largo plazo” en torno a las oportunidades y riesgos de la IA, así como la transparencia en torno al uso de datos de terceros y propiedad intelectual (IP) en conjuntos de capacitación, que “deben obtenerse por consentimiento informado “.

Participación y confianza

Hablando durante la mesa redonda del informe, los participantes, incluidos representantes de grupos de la sociedad civil, sindicatos y organismos de investigación, así como otros señores, destacaron una serie de consideraciones clave para regular la IA.

Esto incluye aprovechar los poderes de adquisición de los gobiernos de manera que reflejen los valores que intentan lograrse, lo que argumentaron que podría actuar como una forma de “poder blando” sobre las empresas tecnológicas y garantizar que las personas sientan que tienen algo que decir sobre el desarrollo y el despliegue. de la tecnología en todo el sector público y sus lugares de trabajo.

Los participantes advirtieron además que si los sistemas de IA se adoptan en todo el sector público sin una regulación efectiva establecida, se erosionará irrevocablemente la confianza de las personas en el estado.

Hannah Perry, Jefa de Investigación de Política Digital en Think Tank Demos, por ejemplo, dijo que la IA podría contribuir a la “decimación adicional de la confianza que estamos viendo en la sociedad en este momento” debido a su tendencia a actuar como una “fuerza centralizadora” Eso corre el riesgo de “eliminar y desenterrar al público” de la toma de decisiones.

Por lo tanto, agregó que era “crucial” tener alguna forma de participación pública, y que crear una “plataforma deliberativa” donde las personas comunes pueden influir en los derechos y principios digitales deben integrarse en cualquier regulación de la IA del Reino Unido.

Al comentar sobre la necesidad de enfoques regulatorios participativos, Mary Towers, un oficial de derechos laborales en el Congreso de la Unión de Comercio (TUC) especializado en el uso de IA y tecnología en el trabajo, dijo que AI ya está teniendo consecuencias preocupantes para los trabajadores en una amplia gama de sectores , incluida la intensificación laboral, la reducción de la agencia y la autonomía en el trabajo debido a las prácticas de gestión algorítmica, los impactos negativos para la salud mental y los resultados injustos o discriminatorios.

Al marcar las encuestas de TUC sobre las actitudes de los trabajadores hacia la IA, Towers agregó que “el 70% de los trabajadores creen que es correcto que exista el derecho legal de consultar a los empleadores para consultar con los trabajadores antes de implementar nuevas tecnologías en el trabajo”.

Ella agregó: “Claramente, creemos que debería haber legislación. Debe ser específico del contexto. Pero también quiero destacar que la regulación no se trata solo de legislación. Consulta, participación, negociación colectiva, enfoque de asociaciones sociales: todas esas son formas de regulación “.

Andrew Strait, director asociado del Ada Lovelace Institute (ALI), agregó que si bien las encuestas encuentran que la mayoría de las personas no clasifican la IA como un problema prioritario solo, esto cambia cuando se les pregunta sobre su uso en contextos del sector público sensible, como la salud y decisiones de asignación de atención social o beneficios.

“De repente a la gente realmente le importa”, dijo. “Están muy preocupados, muy nerviosos, muy incómodos con el ritmo de la adopción, la falta de barandillas, la sensación de que las cosas se mueven demasiado rápido y de una manera donde la autonomía humana, la toma de decisiones expertas se está alejando del camino para velocidad y eficiencia.

“Eso luego plantea la pregunta de, ¿qué es lo que la gente quiere? Quieren regulación. Quieren que las reglas se sientan cómodas al respecto. Quieren sentir que lo hacen cuando van al avión, donde ha habido rigurosas pruebas de seguridad, normas y estándares “.

Una falsa dicotomía

Strait destacó además que, en la experiencia de Ali de interactuar con empresas privadas, la “barrera más grande” para aumentar la adopción de la IA es la falta de confiabilidad en la tecnología, algo que los estándares y la regulación también les darían más certeza.

Los participantes de la mesa redonda también argumentaron vehementemente en contra de crear un binario entre la innovación y el crecimiento, por un lado, y la seguridad y la regulación por el otro.

Keith Rosser, Director de Reed Excelente y miembro de la Junta Asesora del Instituto de Contratación de Better, dijo, por ejemplo, que, debido a que el sector de reclutamiento ya está inundado de IA, tanto a los solicitantes de empleo como a los empleadores que usan la tecnología para hacer y examinar las solicitudes de empleo respectivamente – “Tenemos todos los riesgos, pero solo algunas de las oportunidades”.

Agregó que sin regulación, esta situación persistirá: “Las empresas quieren recibir el apoyo de los gobiernos, quieren saber dónde están las barandillas … para ambos lados de este caso de uso: el solicitante de empleo y la empresa de contratación, ninguna regulación significa que hay una gran incertidumbre que hay una gran incertidumbre . “

Roger Taylor, primer presidente del Centro de Ética e Innovación de Datos del Reino Unido, agregó que el uso de IA en el gobierno es probablemente el área más significativa donde no hay regulación: “La tensión en este momento es este temor de que el crecimiento y la regulación luchen contra entre sí, y el crecimiento es lo más importante, seguido de hacer que los servicios públicos sean más eficientes y más efectivos antes de que surjan las próximas elecciones.

“Es bastante comprensible por qué esas serían las prioridades. La pregunta es, ¿es realmente cierto que las medidas regulatorias son contraproducentes? … Tenemos que aprobar una ley que establece algún tipo de mecanismo regulatorio legal, no solo porque queremos la seguridad y nos preocupa las cosas que suceden, sino porque es una enorme oportunidad para que este país demuestre que podemos liderar en esta área “.

Exit mobile version