MPS Grill X, Tiktok y Meta Acerca de la información errónea en línea

Las compañías de redes sociales han defendido sus prácticas de moderación de contenido a un comité parlamentario que investiga la información errónea en línea, argumentando que ya tienen procesos y sistemas efectivos para tratar la propagación de información falsa en sus plataformas.

El 25 de febrero de 2025, el Comité de Ciencia, Innovación y Tecnología de los Comunes (SITC) Giants de tecnología a la parrilla X, Tiktok y Meta como parte de su investigación sobre la información errónea en línea y los algoritmos dañinos.

Al abrir la sesión, el presidente del comité, Chi Onwurah, dijo que el tema tiene inusualmente “fuerte interés público” para un tema relacionado con la tecnología, y que el comité está preocupado por la información errónea “ser difundido a escala industrial”. Agregó que esta sesión en particular se centraría principalmente en la propagación de la desinformación durante los disturbios de Southport en 2024.

A raíz del apuñalamiento fatal de tres niñas en Southport el 29 de julio de 2024, las redes sociales se pusieron inarcias con los rumores sin fundamento de que el autor era un buscador de asilo de la fe musulmana.

Si bien se confirmó que esto era completamente falso, estallaron disturbios islamofóbicos de extrema derecha en más de una docena de ciudades y ciudades inglesas en los próximos días, específicamente dirigidos a mezquitas, hoteles que albergan solicitantes de asilo, centros de inmigración y personas de color aleatorias.

Respondiendo a las preguntas de los parlamentarios sobre la respuesta de las firmas de redes sociales a los disturbios, Chris Yiu, director de políticas públicas del norte de Europa en Meta, dijo que los equipos de confianza y seguridad de la organización eliminaron alrededor de 24,000 correos para romper sus políticas sobre violencia e incitación, y otros 2,700 para romper sus reglas sobre organizaciones peligrosas.

“Una cosa que creo que es un desafío en estos incidentes de rápido movimiento es que puede ser difícil establecer los hechos en el terreno en tiempo real”, dijo. “Creo que eso es algo en lo que necesitaremos reflexionar y comprender cómo podríamos hacer eso”.

Más contenido para leer:  Flash prices drop towards spinning disk levels in 2023

Directrices de la comunidad

Alistair Law, director de políticas públicas y asuntos gubernamentales para el Reino Unido e Irlanda en Tiktok, agregó que si bien la gran mayoría del contenido en la plataforma durante los disturbios era documental o de imágenes, decenas de miles de puestos que contenían “comentarios violentos” por la compañía por violar sus pautas comunitarias.

Haciéndose eco de Yiu, Law también dijo que puede ser difícil “establecer la veracidad de las reclamos potenciales” en eventos de rápido movimiento, y agregó que debe haber una colaboración en toda la “cadena de valor más amplia” del intercambio de información, que incluye medios de transmisión, ya que la cobertura de noticias y el contenido de las redes sociales pueden crear bucle de comentarios negativos en torno a la información errónea.

Wilfredo Fernández, director senior de asuntos gubernamentales en X, dijo que la compañía tiene “protocolos muy claros sobre cómo lidiar con este contenido y los desafíos que surgen después de un ataque como este”.

Agregó que el modelo de “Notas comunitarias” de X pudo proporcionar un contexto útil a los usuarios, y que las destacadas figuras de extrema derecha como Tommy Robinson y Andrew Tate recibieron tales notas en relación con sus puestos sobre los ataques de Southport. “X no tiene poder para colocar o eliminar una nota”, dijo Fernández. “Está completamente impulsado por la gente”.

En respuesta a los parlamentarios que destacan los casos de cuentas de Blue-Tick X que hacen publicaciones sobre la ubicación de los inmigrantes y alentaron a los manifestantes a ir allí (y que no recibieron notas de la comunidad), Fernández dijo que la compañía tomó varias medidas en decenas de miles de puestos. “Para sentarnos aquí y decir que recibimos la llamada correcta cada vez, eso estaría mal”, dijo.

La diputada laborista Emily Darlington también desafió a Fernández por mensajes extremos que había recibido personalmente en la plataforma X en noviembre de 2024, en la que fue descrita como “una traidora para el pueblo británico” y amenazada con colgar después de compartir una petición para salvar su oficina de correos local.

Más contenido para leer:  Gigabit drives UK local authority connectivity priorities for in 2024

Darlington dijo que informó que el puesto era un discurso dañino y violento, en violación de las reglas de X de que el estado que expresa el deseo de violencia no está permitido, y enumeró otros comentarios violentos o racistas hechos por la misma cuenta.

Cuando Darlington le preguntó si esto era aceptable, Fernández dijo que los comentarios eran “aborrecidos”, pero que si bien los equipos de moderación de contenido revisaban la cuenta de los términos de violaciones de servicio, no podía garantizar que se eliminaría.

Meta también fue criticada por su eliminación de la verificación de hechos de terceros a favor de un enfoque de “Notas comunitarias” al estilo X, que los parlamentarios argumentaron que permitiría que la “información errónea racista” se propagara después de citar numerosos ejemplos de meta usuarios que publican comentarios racistas, antisemíticos o transfóbicos en la plataforma.

“Hemos recibido comentarios de que … algunas áreas de debates estaban siendo suprimidas demasiado en nuestra plataforma y que algunas conversaciones, aunque desafiantes, deberían tener un espacio para discutir”, dijo Yiu.

Tanto Onwurah como Darlington retrocedieron, argumentando que algunas cosas, como las declaraciones que niegan la existencia de personas trans o de los inmigrantes burlados, no deben caracterizarse como debate.

Los representantes de Meta y Tiktok dijeron que si bien la escala del uso de las redes sociales presenta problemas claros de moderación de contenido, cada empresa elimina más del 98% de contenido violento.

Procesos y sistemas

Responder a las preguntas sobre si la Ley de Seguridad en línea (OSA) está en vigor en el momento de los disturbios habría cambiado su enfoque, cada compañía dijo que ya tienen procesos y sistemas para tratar las crisis erróneas.

A raíz de los disturbios, Ofcom advirtió que las empresas de redes sociales estarán obligadas por la AOS para lidiar con la desinformación y el contenido que es odioso o provoca violencia, señalando que “pondrá nuevas tareas en las empresas tecnológicas para proteger a sus usuarios de contenido ilegal, que bajo el acto puede incluir contenido que involucra hatred, desorden, violencia o ciertos casos de desinformación”.

Más contenido para leer:  Nokia y Global Fiber Perú apuntan a cerrar brecha digital en la selva amazónica

El regulador de Harms en línea agregó que cuando la Ley entre en vigor a fines de 2024, las empresas tecnológicas tendrán tres meses para evaluar el riesgo de contenido ilegal en sus plataformas. Luego se les pedirá que tomen los pasos apropiados para detenerlo, y actúen rápidamente para eliminarlo cuando se dan cuenta de ello.

“Las empresas tecnológicas más grandes a su debido tiempo deben ir aún más allá, aplicando consistentemente sus términos de servicio, que a menudo incluyen prohibir cosas como el discurso de odio, incitar a la violencia y la desinformación dañina”, dijo Ofcom, y agregó que tendrá una amplia gama de poderes de aplicación a su disposición para tratar empresas que no son conformes.

“Estos incluyen el poder de imponer sanciones financieras significativas por las violaciones de las tareas de seguridad”, dijo. “El régimen se centra en los sistemas y procesos de las plataformas en lugar del contenido en sí mismo en sus plataformas”.

Sin embargo, si bien varios de los delitos penales de la Ley de Seguridad en línea ya estaban en vigor en el momento de los disturbios, incluidos los relacionados con las comunicaciones amenazantes, las comunicaciones falsas y el incumplimiento de las empresas de tecnología con los avisos de información, algunos dijeron en ese momento que no estaba claro si alguno de ellos sería aplicable a aquellos que usan las redes sociales para organizar disturbios racistas.

“En cambio, es probable que la policía tenga que confiar en los delitos bajo la Ley de Orden Público de 1986, que es la principal legislación que penaliza el uso de violencia y/o intimidación por parte de individuos o grupos”, dijo Mark Jones, socio de Payne Hicks Beach. “Si bien el Secretario del Interior puede haber dicho ‘Si es un delito fuera de línea, es un crimen en línea’, y aunque puede ser correcto, la Ley de Seguridad en línea no brinda apoyo adicional a la ley penal preexistente que cubre incidentes de incitación a la violencia”.

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales