Las 10 principales historias sobre datos y ética de 2024

En 2024, Semanario de informática La cobertura de datos y ética continuó centrándose en las diversas cuestiones éticas asociadas con el desarrollo y la implementación de sistemas basados ​​en datos, en particular la inteligencia artificial (IA).

Esto incluyó informes sobre las cuestiones de derechos de autor asociadas con las herramientas de IA generativa (GenAI), los impactos ambientales de la IA, las herramientas de seguimiento invasivas utilizadas en Internet y las formas en que las armas autónomas socavan la agencia moral humana.

Otras historias se centraron en las implicaciones sociales más amplias de las tecnologías basadas en datos, incluidas las formas en que se utilizan para infligir violencia a los migrantes y cómo nuestro uso de la tecnología prefigura ciertos resultados políticos o sociales.

En un análisis publicado el 14 de enero de 2024, el FMI examinó el impacto potencial de la IA en el mercado laboral mundial y señaló que, si bien tiene el potencial de “impulsar la productividad, impulsar el crecimiento global y aumentar los ingresos en todo el mundo”, podría fácilmente “reemplazar empleos y profundizar la desigualdad”; y “probablemente empeorará la desigualdad general” si los formuladores de políticas no trabajan de manera proactiva para evitar que la tecnología avive las tensiones sociales.

El FMI dijo que, a diferencia de la desigualdad de los ingresos laborales, que puede disminuir en ciertos escenarios donde el efecto de desplazamiento de la IA reduce los ingresos de todos, la desigualdad de los ingresos del capital y la riqueza “siempre aumentan” con una mayor adopción de la IA, tanto a nivel nacional como global.

“La principal razón del aumento de los ingresos del capital y la desigualdad de la riqueza es que la IA conduce al desplazamiento de mano de obra y a un aumento de la demanda de capital de IA, lo que aumenta los rendimientos del capital y el valor de los activos”, dijo.

“Dado que en el modelo, como en los datos, los trabajadores de altos ingresos poseen una gran proporción de los activos, se benefician más del aumento de los rendimientos del capital. Como resultado, en todos los escenarios, independientemente del impacto sobre los ingresos laborales, el ingreso total de quienes más ganan aumenta debido a las ganancias de los ingresos del capital”.

En enero, la empresa GenAI Anthropic afirmó ante un tribunal de EE. UU. que el uso de contenido protegido por derechos de autor en datos de entrenamiento de modelos de lenguaje grande (LLM) cuenta como “uso legítimo” y que “las herramientas actuales de IA de uso general simplemente no podrían existir” si las empresas de IA tuvieran que hacerlo. pagar licencias por el material.

Anthropic hizo el reclamo después de que una serie de editores de música, incluidos Concord, Universal Music Group y ABKCO, iniciaran acciones legales contra la firma respaldada por Amazon y Google en octubre de 2023, exigiendo daños potencialmente millonarios por la presunta “infracción sistemática y generalizada de sus derechos”. letras de canciones con derechos de autor”.

Sin embargo, en una presentación ante la Oficina de Derechos de Autor de EE. UU. el 30 de octubre (que fue completamente independiente del caso), Anthropic dijo que el entrenamiento de su modelo de IA Claude “califica como un uso esencialmente legal de materiales”, argumentando que, “hasta el En la medida en que se utilizan obras protegidas por derechos de autor en datos de capacitación, es para análisis (de relaciones estadísticas entre palabras y conceptos) que no está relacionado con ningún propósito expresivo de la obra”.

Más contenido para leer:  Hemos despegado... Las oportunidades y los riesgos de la IA generativa

Sobre el potencial de un régimen de licencias para la ingestión de contenido protegido por derechos de autor por parte de LLM, Anthropic argumentó que exigir siempre licencias sería inapropiado, ya que bloquearía el acceso a la gran mayoría de las obras y beneficiaría “sólo a las entidades con mayores recursos” que puedan pagar su camino hacia el cumplimiento.

En un documento de 40 páginas presentado al tribunal el 16 de enero de 2024 (en respuesta específicamente a una “solicitud de medida cautelar preliminar” presentada por los editores de música), Anthropic llevó el mismo argumento más allá, afirmando que “no sería posible acumular suficiente contenido para formar a un LLM como Claude en transacciones de licencias en condiciones de plena competencia, a cualquier precio”.

Añadió que Anthropic no es el único que utiliza datos “ampliamente recopilados de Internet disponible públicamente” y que “en la práctica, no hay otra manera de acumular un corpus de capacitación con la escala y diversidad necesarias para formar un LLM complejo con una amplia gama de datos”. comprensión del lenguaje humano y del mundo en general”.

Anthropic afirmó además que la escala de los conjuntos de datos necesarios para capacitar a los LLM es simplemente demasiado grande para que funcione un régimen de licencias eficaz: “No se podrían realizar transacciones de licencia con suficientes propietarios de derechos para cubrir los miles de millones de textos necesarios para producir los billones de tokens. que los LLM de propósito general requieren para una formación adecuada. Si se necesitaran licencias para capacitar a los LLM en contenido protegido por derechos de autor, las herramientas de inteligencia artificial de uso general actuales simplemente no podrían existir”.

Computadora semanal habló con miembros de la Red por los Derechos de los Migrantes (MRN) y la Red Anti-Raids (ARN) sobre cómo el intercambio de datos entre organismos públicos y privados con el fin de llevar a cabo redadas de inmigración ayuda a apuntalar el ambiente hostil del Reino Unido al inculcar una atmósfera de miedo y disuadir a los inmigrantes de acceder a los servicios públicos.

Publicado después de que el nuevo gobierno laborista anunciara un “gran aumento en la aplicación de la ley de inmigración y la actividad de retorno”, incluido un aumento de detenciones y deportaciones, un informe del MRN detalla cómo el Servicio de Inmigración del Reino Unido utiliza datos del público, la policía, los departamentos gubernamentales y las autoridades locales. autoridades y otras personas para facilitar las redadas.

Julia Tinsley-Kent, jefa de políticas y comunicaciones del MRN y una de las autoras del informe, dijo que el intercambio de datos existente –junto con la retórica del gobierno sobre una aplicación estricta de la ley– esencialmente conduce a que las personas “se autocontrolen porque tienen mucho miedo de todas las formas en las que puedes equivocarte” dentro del ambiente hostil.

Añadió que esto es particularmente “insidioso” en el contexto del intercambio de datos de instituciones que supuestamente están ahí para ayudar a las personas, como los organismos de educación o atención médica.

Como parte de las políticas ambientales hostiles, el MRN, la ARN y otros han argumentado durante mucho tiempo que la función de las redadas va mucho más allá de la mera exclusión social, y también trabaja para alterar las vidas de los migrantes, sus familias, negocios y comunidades, así como como para imponer una forma de terror que produzca mayor miedo, inseguridad y aislamiento.

A finales de abril, expertos en tecnología militar se reunieron en Viena para una conferencia sobre el desarrollo y uso de sistemas de armas autónomos (AWS), donde advirtieron sobre los efectos psicológicos perjudiciales de las armas impulsadas por IA.

Más contenido para leer:  El gobierno del Reino Unido obtiene una inversión de £ 10 mil millones en centros de datos de inteligencia artificial de una empresa estadounidense

Las preocupaciones específicas planteadas por los expertos a lo largo de la conferencia incluyeron el potencial de deshumanización cuando las personas que reciben fuerza letal son reducidas a puntos de datos y números en una pantalla; el riesgo de discriminación durante la selección de objetivos debido a sesgos en la programación o en los criterios utilizados; así como el desapego emocional y psicológico de los operadores de las consecuencias humanas de sus acciones.

Los oradores también abordaron si alguna vez podrá haber un control humano significativo sobre AWS, debido a la combinación del sesgo de automatización y cómo tales armas aumentan la velocidad de la guerra más allá del conocimiento humano.

En la segunda cumbre mundial de IA en Seúl, Corea del Sur, decenas de gobiernos y empresas duplicaron sus compromisos para desarrollar la tecnología de forma segura e inclusiva, pero persistieron dudas sobre quién exactamente está incluido y a qué riesgos se les da prioridad.

Los asistentes y expertos Computadora semanal habló con dijo que si bien la cumbre terminó con algunos resultados concretos que pueden avanzar antes de la Cumbre de Acción de IA que tendrá lugar en Francia a principios de 2025, todavía hay una serie de áreas en las que se necesita urgentemente más movimiento.

En particular, subrayaron la necesidad de que las empresas adopten compromisos obligatorios en materia de seguridad de la IA; evaluaciones sociotécnicas de sistemas que toman en cuenta cómo interactúan con personas e instituciones en situaciones del mundo real; y una participación más amplia del público, los trabajadores y otras personas afectadas por los sistemas impulsados ​​por IA.

Sin embargo, también dijeron que “aún es temprano” y resaltaron la importancia de los eventos de la Cumbre de Seguridad de la IA para crear un diálogo abierto entre países y sentar las bases para catalizar acciones futuras.

En el transcurso de los dos días de la Cumbre AI de Seúl, los gobiernos y empresas asistentes firmaron una serie de acuerdos y compromisos.

Para los gobiernos, esto incluye a la Unión Europea (UE) y un grupo de 10 países que firman la Declaración de Seúl, que se basa en la Desaceleración de Bletchley firmada hace seis meses por 28 gobiernos y la UE en la Cumbre inaugural de Seguridad de la IA en el Reino Unido. También incluye la Declaración de Intención de Seúl hacia la Cooperación Internacional en la Ciencia de la Seguridad de la IA, en la que los institutos de investigación con respaldo público se unirán para garantizar la “complementariedad e interoperabilidad” entre su trabajo técnico y los enfoques generales de la seguridad de la IA.

La Declaración de Seúl, en particular, afirmó “la importancia de la colaboración activa de múltiples partes interesadas” en esta área y comprometió a los gobiernos involucrados a incluir “activamente” una amplia gama de partes interesadas en los debates relacionados con la IA.

Un grupo más grande de más de dos docenas de gobiernos también se comprometió a desarrollar umbrales de riesgo compartidos para los modelos fronterizos de IA para limitar sus impactos dañinos en la Declaración Ministerial de Seúl, que destacó la necesidad de salvaguardias efectivas y regímenes de pruebas de seguridad de IA interoperables entre países.

Los acuerdos y compromisos hechos por las empresas incluyen que 16 empresas globales de IA firmen los Compromisos de Seguridad de IA de Frontier, que es un conjunto voluntario específico de medidas sobre cómo desarrollarán la tecnología de forma segura, y 14 empresas que firmen el Compromiso Empresarial de IA de Seúl, que es similar. conjunto de compromisos asumidos por una combinación de empresas tecnológicas surcoreanas e internacionales para abordar el desarrollo de la IA de manera responsable.

Más contenido para leer:  La industria global acelera la adopción de IoT en respuesta a Covid

Uno de los compromisos voluntarios clave asumidos por las empresas de IA fue no desarrollar ni implementar sistemas de IA si los riesgos no pueden mitigarse lo suficiente. Sin embargo, a raíz de la cumbre, un grupo de trabajadores actuales y anteriores de OpenAI, Anthropic y DeepMind (los dos primeros firmaron los compromisos de seguridad en Seúl) dijeron que no se puede confiar en que estas empresas compartan voluntariamente información sobre las capacidades de sus sistemas y riesgos con los gobiernos o la sociedad civil.

Docenas de sitios web universitarios, benéficos y policiales diseñados para ayudar a las personas a obtener apoyo para problemas graves como el abuso sexual, la adicción o la salud mental están recopilando y compartiendo inadvertidamente datos confidenciales de los visitantes del sitio con anunciantes.

Una variedad de herramientas de seguimiento integradas en estos sitios, incluidos Meta Pixel y Google Analytics, significan que cuando una persona los visita en busca de ayuda, sus datos confidenciales se recopilan y comparten con empresas como Google y Meta, que pueden darse cuenta de que una persona está buscando. utilizar servicios de soporte antes de que esos servicios puedan siquiera ofrecer ayuda.

Según los expertos en privacidad que intentan crear conciencia sobre el problema, el uso de tales herramientas de seguimiento significa que la información de las personas se comparte sin darse cuenta con estos anunciantes, tan pronto como ingresan a los sitios, en muchos casos porque las etiquetas analíticas comienzan a recopilar datos personales antes de que los usuarios hayan interactuado. con el cartel de galletas.

Dependiendo de la configuración de los análisis implementados, los datos recopilados podrían incluir información sobre la edad, ubicación, navegador, dispositivo, sistema operativo y comportamientos en línea del visitante del sitio.

Si bien se comparten aún más datos con los anunciantes si los usuarios dan su consentimiento para las cookies, los expertos dijeron a Computer Weekly que los sitios no brindan una explicación adecuada de cómo los anunciantes programáticos almacenarán y utilizarán su información.

Advirtieron además que el problema es “endémico” debido a una falta generalizada de conciencia sobre cómo funcionan las tecnologías de seguimiento como las cookies, así como a los posibles daños asociados con permitir a los anunciantes el acceso inadvertido a información tan sensible.

Computer Weekly habló con el autor y director de documentales Thomas Dekeyser sobre Clodo, un grupo clandestino de trabajadores franceses de TI que pasaron los primeros años de la década de 1980 saboteando la infraestructura tecnológica, que se utilizó como punto de partida para una conversación más amplia sobre la política del tecno-rechazo.

Dekeyser dice que una motivación importante para escribir su próximo libro sobre el tema es que las personas que rechazan la tecnología – ya sean los luditas, Clodo o cualquier otra formación radical – son “con demasiada frecuencia reducidas a la figura del primitivista, el romántico o el “Es una persona que quiere retroceder en el tiempo, y eso se ve como una especie de posición antimodernista”.

Al señalar que “tecnófobo” o “ludita” se han utilizado durante mucho tiempo como insultos peyorativos para quienes se oponen al uso y control de la tecnología por parte de estrechos intereses capitalistas, Dekeyser describió la diversa gama de temas históricos y…

Nuestro objetivo fué el mismo desde 2004, unir personas y ayudarlas en sus acciones online, siempre gratis, eficiente y sobre todo fácil!

¿Donde estamos?

Mendoza, Argentina

Nuestras Redes Sociales