El proyecto de ley de seguridad en línea es demasiado simplista y cede demasiado poder a las empresas de Silicon Valley sobre la libertad de expresión en el Reino Unido, afirma un grupo de campaña recién formado.
La ley propuesta, anteriormente conocida como Proyecto de Ley de Daños en Línea, busca promover la seguridad en línea al hacer que las empresas de Internet y los proveedores de servicios sean más responsables del contenido compartido por los usuarios en sus plataformas.
Sin embargo, hablando en una conferencia de prensa, los miembros del recién creado Legal to Say. El grupo de campaña Legal to Type ha criticado el proyecto de ley, ya que actualmente significa ceder demasiado poder sobre la libertad de expresión de los ciudadanos del Reino Unido a Silicon Valley.
Los miembros del grupo incluyen al diputado conservador David Davis, la directora ejecutiva de Index on Censorship, Ruth Smeeth, el director ejecutivo de Open Rights Group, Jim Killock, y Gavin Millar QC de Matrix Chambers.
Según el deber de cuidado del proyecto de ley, las plataformas tecnológicas que alojan contenido generado por el usuario o permiten que las personas se comuniquen estarán legalmente obligadas a identificar, eliminar y limitar de manera proactiva la difusión de contenido ilegal o dañino, como abuso sexual infantil, terrorismo y material suicida. o podrían recibir una multa de hasta el 10% del volumen de negocios por parte del regulador de daños en línea, que se confirma que es Ofcom.
“Hoy, el Reino Unido muestra liderazgo global con nuestras leyes innovadoras para marcar el comienzo de una nueva era de responsabilidad por la tecnología y brindar equidad y responsabilidad al mundo en línea”, dijo el secretario digital Oliver Dowden luego de la publicación del proyecto de ley en mayo de 2021.
“Protegeremos a los niños en Internet, reprimiremos el abuso racista en las redes sociales y, a través de nuevas medidas para salvaguardar nuestras libertades, crearemos una era digital verdaderamente democrática”.
La secretaria del Interior, Priti Patel, añadió: “Es hora de que las empresas de tecnología rindan cuentas y protejan al pueblo británico de cualquier daño. Si no lo hacen, se enfrentarán a sanciones “.
La legislación se aplicará a cualquier empresa del mundo que preste servicios a usuarios del Reino Unido, con las reglas escalonadas de tal manera que los sitios y servicios más populares (aquellos con grandes audiencias) deberán ir más allá al establecer y hacer cumplir términos claros y condiciones que establezcan explícitamente cómo se manejará el contenido que es legal pero que aún podría causar un daño físico o psicológico significativo.
Esto incluirá información errónea y desinformación sobre una variedad de temas, como las vacunas contra el coronavirus, lo que marca la primera vez que la información errónea en línea está bajo el mandato de un regulador gubernamental.
“Bajo las disposiciones del deber de cuidado … el proceso previsto por él requiere que las plataformas, y cito, ‘gestionen y mitiguen el riesgo de daño por contenido ilegal, contenido dañino para niños y contenido dañino para adultos’”, dijo Millar a la prensa conferencia.
“Eso es daño según se define en el proyecto de ley, y ese es el riesgo según lo identificado por ellos en una evaluación de riesgo que realizan en su propio servicio, por lo que les deja a ellos decidir cómo hacer esto, y el proyecto de ley exige que ellos diseñar e implementar las llamadas políticas de seguridad.
“Esto se hará principalmente mediante soluciones tecnológicas, que son algoritmos, en lugar de que los seres humanos emitan juicios sobre el contenido”.
Davis, quien caracterizó el proyecto de ley como un “estatuto de censura”, agregó: “Se les pide a los proveedores de Silicon Valley que adjudiquen y censuren el contenido ‘legal pero dañino’. Debido a la vaguedad de los criterios y al tamaño de la multa, sabemos lo que van a hacer: se inclinarán mucho por el lado de la precaución.
“Todo lo que pueda caracterizarse como desinformación será censurado. Las megacorporaciones de Silicon Valley serán los árbitros de la verdad en línea; el efecto sobre la libertad de expresión será terrible “.
Un borrador oficial del proyecto de ley, publicado a principios de mayo de 2021, también incluía un nuevo delito penal para los altos directivos como un poder diferido, que según los asistentes solo agravaría el problema.
Millar describió además el aumento de la presión externa del estado como una “receta para la exclusión de contenido demasiado entusiasta y errónea”.
Los expertos en verificación de hechos dijeron previamente a un comité de la Cámara de los Lores en febrero de 2021 que el Proyecto de Ley de Seguridad en Línea debería obligar a las empresas de Internet a proporcionar información y actualizaciones en tiempo real sobre la desinformación sospechada, y advirtieron además contra una dependencia excesiva de los algoritmos de inteligencia artificial (IA). moderar el contenido.
Will Moy, CEO de Full Fact, dijo en ese momento: “Necesitamos un escrutinio independiente del uso de la IA por parte de esas empresas y sus consecuencias no deseadas, no solo lo que creen que está haciendo, sino lo que realmente está haciendo, y necesitamos información en tiempo real sobre las acciones de moderación de contenido que toman estas empresas y sus efectos.
“Estas empresas de Internet pueden, en silencio y en secreto, ya que los algoritmos de inteligencia artificial se consideran secretos comerciales, dar forma al debate público. Por lo tanto, estos requisitos de transparencia deben establecerse al frente del proyecto de ley de seguridad en línea “.
Moy dijo que la mayoría de las empresas de Internet actúan sobre cada contenido de sus sistemas a través de sus algoritmos, porque deciden cuántas personas ven, cómo se muestran, etc.
“Esas opciones se tratan como secretos comerciales, pero pueden mejorar enormemente nuestra capacidad para impartir o recibir información; por eso necesitamos fuertes poderes de información en la Ley de seguridad en línea, para que podamos comenzar a comprender no solo el contenido, sino también los efectos de esas decisiones ”, dijo.
El proyecto de ley también incluye protecciones para el contenido periodístico y el contenido de “importancia democrática”, que los asistentes a la conferencia vieron como la creación de un sistema de dos niveles en torno a la libertad de expresión que privilegia el discurso de periodistas y políticos.
“El proyecto de ley intenta brindar a los políticos y periodistas protecciones adicionales para su libertad de expresión”, dijo un informe publicado por Index on Censorship antes de la conferencia. “Sin embargo, la capacidad de la gente común de decir lo que piensa en línea ha provocado muchos cambios positivos, como el movimiento #MeToo.
“El proyecto de ley podría llevar a que las empresas eliminen las propias experiencias de las personas, ya que podrían considerarse ‘perjudiciales’. Las voces de los británicos corrientes no son menos importantes que las de unos pocos elegidos. Al crear dos niveles de libertad de expresión, el gobierno está abriendo disparidades entre la libertad de expresión que disfrutan los ciudadanos comunes y la que disfruta una burbuja de periodistas y políticos de Westminster ”.
A raíz de la suspensión de Twitter del expresidente estadounidense Donald Trump en enero de 2021, Alex Stamos, exjefe de seguridad de Facebook y director del Observatorio de Internet de Stanford, señaló que “el problema de la desinformación está siendo impulsado casi exclusivamente por las élites políticas”.
La investigación de Election Integrity Partnership, que analizó la información errónea en las elecciones presidenciales de EE. UU. De 2020, encontró que reducir la propagación de la desinformación “no requiere una supresión generalizada” porque era solo una pequeña cantidad de cuentas de Twitter que habían “amplificado constantemente la información errónea sobre la integridad de la elección ”.
Los asistentes a la conferencia estuvieron de acuerdo en que el proyecto de ley era demasiado amplio y se beneficiaría si se dividiera en piezas legislativas separadas que se centraran en los problemas específicos que deben abordarse.
“Creo que el problema con el proyecto de ley es el hecho de que está tratando de hacer todo a la vez”, dijo Killock. “En lugar de tratar de averiguar cuál es la forma adecuada de ayudar a garantizar que se desarrolle la seguridad de los niños, simplemente estamos diciendo, bueno, trataremos a los adultos y a los niños de todos modos, y, esencialmente, preguntaremos a todos las plataformas para mitigar los riesgos en todas estas categorías de personas de la misma manera “.
Davis dijo que, en última instancia, el Parlamento “tiene que hacer su trabajo, y eso significa pasar específicamente e identificar lo que cree que es dañino y convertirlo en ilegal si es necesario”.