El gobierno del Reino Unido ha emitido una guía de “seguridad por diseño” para ayudar a las empresas de tecnología a proteger mejor a los usuarios en línea antes de su próximo Proyecto de Ley de Seguridad en Línea.
Publicada por el Departamento de Cultura, Medios, Medios Digitales y Deporte (DCMS), la guía está diseñada para ayudar a las empresas de tecnología de varios tamaños a encontrar la información necesaria para crear productos digitales seguros desde las etapas de desarrollo hasta la experiencia del usuario.
El Proyecto de Ley de Seguridad en Línea, cuyo borrador oficial se publicó en mayo de 2021, busca promover la seguridad en línea al hacer que las empresas de Internet y los proveedores de servicios sean más responsables del contenido compartido por los usuarios en sus plataformas.
Según el deber de cuidado del proyecto de ley, las plataformas tecnológicas que alojan contenido generado por el usuario o permiten que las personas se comuniquen estarán legalmente obligadas a identificar, eliminar y limitar de manera proactiva la difusión de contenido ilegal o dañino, como abuso sexual infantil, terrorismo y material suicida. o podrían recibir una multa de hasta el 10% del volumen de negocios por parte del regulador de daños en línea, que se confirma que es Ofcom.
La legislación se aplicará a cualquier empresa del mundo que preste servicios a usuarios del Reino Unido, con las reglas escalonadas de tal manera que los sitios y servicios más populares (aquellos con grandes audiencias) deberán ir más allá al establecer y hacer cumplir términos claros y condiciones que indiquen explícitamente cómo se manejará el contenido que es legal pero que aún podría causar un daño físico o psicológico significativo. Esto incluirá información errónea y desinformación sobre una variedad de temas, como las vacunas contra el coronavirus, lo que marca la primera vez que la información errónea en línea está bajo el mandato de un regulador gubernamental.
La guía aboga por poner la seguridad en el centro del diseño de la plataforma para minimizar el riesgo de que se produzcan daños en línea, y además aconseja a las empresas sobre cómo proporcionar una experiencia apropiada para la edad de los niños a través de herramientas como el aseguramiento y verificación de la edad.
“Estamos ayudando a las empresas a poner al día sus estándares de seguridad antes de que se introduzcan nuestras nuevas leyes de daños en línea y también nos aseguramos de que están protegiendo a los niños y los usuarios en este momento”, dijo la ministra digital Caroline Dinenage. “Queremos que las empresas de todos los tamaños alcancen un estándar de oro de seguridad en línea y este consejo les ayudará a hacerlo”.
Cuatro principios
Para ayudar a las empresas, la guía describe cuatro principios de seguridad por diseño, junto con una lista de verificación de siete puntos sobre cómo implementarlos en la práctica.
Los principios incluyen garantizar que los usuarios no se queden a cargo de la gestión de su propia seguridad; que la plataforma debe considerar todo tipo de usuario; que los usuarios estén facultados para tomar decisiones más seguras; y que las plataformas están diseñadas para proteger a los niños.
Cada principio va acompañado de un esbozo de por qué es necesario, así como un ejemplo concreto de ellos en la práctica.
Por ejemplo, en el tercer punto de empoderar a los usuarios para que tomen decisiones más seguras, la guía decía: “Debe tener cuidado de que el diseño de la plataforma no limite la capacidad del usuario para tomar decisiones informadas. Por ejemplo, usar algoritmos para recomendar contenido que es dañino para un usuario, sobre el que no tienen control limitado sobre el cambio “.
Agregó: “Un buen diseño de plataforma ayuda a los usuarios a comprender: la confiabilidad y precisión del contenido con el que interactúan, cómo ven los demás su actividad en línea y cómo administrarla, por ejemplo, cambiando la configuración de privacidad o bloqueando a un usuario el potencial legal impacto de sus acciones, sus derechos y responsabilidades en línea “.
Los expertos en verificación de hechos dijeron previamente a un comité de la Cámara de los Lores en febrero de 2021 que el Proyecto de Ley de Seguridad en Línea debería obligar a las empresas de Internet a proporcionar información en tiempo real y actualizaciones sobre la desinformación sospechada, y advirtieron además contra una dependencia excesiva de los algoritmos de inteligencia artificial (IA). moderar el contenido.
Will Moy, CEO de Full Fact, dijo en ese momento: “Necesitamos un escrutinio independiente del uso de la IA por parte de esas empresas y sus consecuencias no deseadas, no solo lo que creen que está haciendo, sino lo que realmente está haciendo, y necesitamos información en tiempo real sobre las acciones de moderación de contenido que toman estas empresas y sus efectos.
“Estas empresas de Internet pueden, en silencio y en secreto, ya que los algoritmos de IA se consideran secretos comerciales, dar forma al debate público. Por lo tanto, estos requisitos de transparencia deben establecerse al frente del proyecto de ley de seguridad en línea “.
En términos de la lista de verificación, que las páginas web dicen que “no es obligatoria, pero puede ayudarlo a mejorar la seguridad de su sitio web, aplicación o software”, los siete puntos que el gobierno recomienda tomar incluyen revisar el diseño de la plataforma para detectar riesgos y daños, identificar y proteger a los usuarios que pueden ser vulnerables, y evaluar cómo los usuarios pueden presentar denuncias o quejas.
“Debe crear términos de servicio claros que expliquen qué es aceptable en su plataforma. Estos deben ser prominentes y accesibles para usuarios de todas las edades y habilidades. Debería facilitar que cualquier persona informe sobre contenido o comportamiento que infrinja esas reglas ”, dijo.
“Esto significa que sus usuarios y empleados (si dirige una empresa) deben saber: dónde y cómo presentar una denuncia o queja; qué pasará después; cuánto tiempo pasará antes de que alguien responda; [and] cómo un usuario puede apelar una decisión si no está de acuerdo con el resultado “.
Otras acciones
Otras acciones que las organizaciones deben tomar incluyen revisar y probar las medidas de seguridad, mantenerse actualizado con información sobre el diseño de plataformas en línea más seguras, nombrar a una persona responsable que comprenda los riesgos para administrar la seguridad de los usuarios y asegurarse de que los empleados sepan qué hacer para mantener a los usuarios seguros.
La guía también incluye guías de diseño de mejores prácticas para una variedad de diferentes tipos de características de plataforma, incluidos canales privados o públicos, transmisión en vivo, cuentas anónimas o múltiples, funcionalidad de búsqueda y la visibilidad de los detalles o la actividad de la cuenta.
En junio de 2021, se estableció un nuevo grupo de campaña para oponerse al proyecto de ley del gobierno. Miembros de Legal to Say. Legal to Type afirma que el deber de cuidado del proyecto de ley es demasiado simplista, que cede demasiado poder a las corporaciones estadounidenses y, en la práctica, privilegiará el discurso de los periodistas o políticos.
Los miembros del grupo incluyen al diputado conservador David Davis, la directora ejecutiva de Index on Censorship, Ruth Smeeth, el director ejecutivo de Open Rights Group, Jim Killock, y Gavin Millar de Matrix Chambers.