Las medidas de detección del proyecto de ley de seguridad en línea equivalen a ‘restricción previa’

Los defensores de la privacidad instan al Parlamento a abordar una cláusula en el próximo proyecto de ley de seguridad en línea del gobierno que obligaría a las empresas tecnológicas a controlar las comunicaciones de las personas en busca de contenido ilegal, luego de que la opinión legal de Matrix Chambers identificara “problemas reales y significativos” en torno a su legalidad.

La opinión, que fue entregada a Open Rights Group (ORG) por Dan Squires KC y Emma Foubister de Matrix Chambers, encontró que las medidas del proyecto de ley sobre la detección del contenido del usuario “equivale a una restricción previa”, ya que requerirá que las plataformas intercepten y bloqueen las comunicaciones en línea antes de que se hayan publicado.

También destacó una serie de problemas relacionados con el uso de algoritmos de inteligencia artificial (IA) y otro software automatizado para detectar contenido ilegal, y señaló que “es difícil ver cómo podría cumplirse el deber sin ellos”.

En su forma actual, la cláusula 9 del proyecto de ley impone a las plataformas en línea la obligación de evitar que los usuarios “encuentren” cierto “contenido ilegal”, que abarca una amplia gama de material desde terrorismo y abuso sexual infantil, hasta cualquier contenido que se considere que ayuda a la inmigración ilegal o al suicidio.

Para lograr esto, el proyecto de ley requerirá que las plataformas evalúen y bloqueen de manera proactiva el contenido de sus usuarios antes de que se cargue, para evitar que otros vean material considerado ilegal.

Estos requisitos irán acompañados de nuevos poderes para el regulador de daños en línea Ofcom, que podrá obligar a las empresas a instalar un escaneo del lado del cliente (CSS) “proactivo” y otras tecnologías de detección para que puedan analizar el contenido antes de que se cargue. Estas medidas son de particular preocupación para los servicios de cifrado de extremo a extremo (E2EE), que, según argumentan, socavarán la privacidad y la seguridad de las comunicaciones de los ciudadanos del Reino Unido.

“En nuestra opinión, el proyecto de ley, si se promulga en su forma actual, representará un cambio radical en la forma en que se regulan la comunicación pública y el debate en este país. Corre el riesgo de violaciones fundamentales de los derechos de libertad de expresión para impartir y recibir información”, escribieron los abogados.

“El proyecto de ley requerirá que las plataformas de redes sociales, a través de IA u otro software, evalúen el material antes de que se cargue y bloqueen el contenido que podría ser ilegal. Esa es una restricción previa a la libertad de expresión y se producirá mediante el uso por parte de empresas privadas de procesos propietarios y, sin duda, secretos.

“Dará lugar a interferencias con la libertad de expresión de formas imprevisibles e impredecibles y a través de procesos totalmente opacos, y de formas que corren el riesgo de discriminar a grupos raciales o religiosos minoritarios”.

Monica Horten, directora de políticas de libertad de expresión de ORG, dijo: “Además de ser potencialmente ilegales, estas propuestas amenazan la libertad de expresión de millones de personas en el Reino Unido. Es otro ejemplo más de que el gobierno espera que el Parlamento apruebe una ley sin dar detalles”.

Computer Weekly se puso en contacto con el Departamento de Ciencia, Innovación y Tecnología sobre la opinión legal y dijo: “El proyecto de ley de seguridad en línea es compatible con la Convención Europea sobre derechos humanos. Esta innovadora pieza de legislación hará del Reino Unido el lugar más seguro del mundo para estar en línea al proteger a los niños del acoso, la manipulación y la pornografía.

“Según el proyecto de ley, las plataformas deberán abordar el contenido ilegal en sus servicios mientras protegen la libertad de expresión, como se establece en una serie de garantías claras”.

Problemas específicos

La opinión describió una serie de problemas específicos con el proyecto de ley, incluido el hecho de que obligar a las empresas de tecnología a tomar sus propias determinaciones sobre lo que es y no es contenido ilegal presenta el riesgo de que “una cantidad significativa de publicaciones legales sean censuradas” como resultado.

Agregó que esto es especialmente problemático dado el uso muy probable de algoritmos de inteligencia artificial y software automatizado para filtrar contenido a escala.

Destacando el ejemplo de los delitos de inmigración existentes que se incorporan a la lista de contenido ilegal que las plataformas tecnológicas deben vigilar de manera proactiva, lo que significa que las empresas podrían verse obligadas a eliminar videos de personas que cruzan el Canal de la Mancha “que muestran esa actividad de manera positiva”. la opinión señaló que es difícil predecir cómo un algoritmo de IA decidirá si el contenido es “positivo” o no.

“¿Qué pasa si la imagen se publicó sin ningún texto? La eliminación de estas imágenes antes de su publicación, sin el debido proceso para decidir si son ilegales, puede tener un efecto escalofriante en un debate de importancia pública relacionado con el tratamiento de los refugiados y la inmigración ilegal”, dijo, y agregó que la amenaza de grandes multas y sanciones penales para los gerentes por no controlar de manera efectiva el contenido ilegal también incentivará a las empresas a ser precavidas y bloquear más contenido de lo que lo harían de otra manera.

Agregó además que hay un importante y creciente cuerpo de investigación que demuestra que la IA y otras tecnologías automatizadas contienen con frecuencia “sesgos inherentes”, lo que crea un riesgo claro de que “los sistemas de detección bloquearán de manera desproporcionada el contenido relacionado o publicado por grupos étnicos o religiosos minoritarios”.

Esto se verá agravado por una falta general de transparencia y rendición de cuentas, ya que el proyecto de ley actualmente no exige que las empresas proporcionen a los usuarios una razón por la cual se eliminó su contenido, o incluso notificarles que esto sucedió.

“En contraste con las condiciones de aplicación draconianas para alentar la restricción previa, las disposiciones que permiten a los usuarios desafiar acciones demasiado entusiastas… son limitadas”, dijo, y agregó que si bien las empresas tendrán el deber de operar procedimientos de quejas, no hay información en el proyecto de ley sobre los plazos en los que se deben abordar estas quejas, y no hay procesos de aplicación por fallas en el tratamiento adecuado de las quejas.

Una opinión legal anterior encargada por Index on Censorship a Matthew Ryder KC, publicada en noviembre de 2022, encontró que los avisos técnicos emitidos por Ofcom, que requerirían que los servicios de mensajería privados implementaran tecnología “acreditada” para filtrar el contenido de los mensajes, equivalen a vigilancia estatal obligatoria a escala masiva.

“Ofcom tendrá un mandato más amplio sobre los poderes de vigilancia masiva de los ciudadanos del Reino Unido que las agencias de espionaje del Reino Unido, como GCHQ (bajo la Ley de poderes de investigación de 2016)”, escribió Ryder.

Es poco probable que los poderes de vigilancia propuestos por el Proyecto de Ley de Seguridad en Línea estén de acuerdo con la ley y estarían abiertos a impugnación legal, dijo: “Actualmente, este nivel de vigilancia estatal solo sería posible bajo la Ley de Poderes de Investigación si existe una amenaza para la seguridad nacional”.

Varias empresas de tecnología que ofrecen servicios de mensajería encriptada, incluidas WhatsApp, Signal y Threema, también instaron previamente al gobierno a realizar cambios urgentes en el proyecto de ley, argumentando que amenaza con socavar la privacidad de las comunicaciones encriptadas.

El Ministerio del Interior sostiene que el proyecto de ley de seguridad en línea no representa una prohibición del cifrado de extremo a extremo y no requeriría que los servicios de mensajería debiliten su cifrado.

Exit mobile version