Los investigadores dicen que la IA no logra describir las complejidades del Holocausto

Los modelos de inteligencia artificial (IA) existentes y disponibles en el dominio público no brindan “complejidades y matices del pasado” y simplemente ofrecen historias demasiado simplificadas sobre el Holocausto, según un laboratorio internacional de investigación del Holocausto.

En noviembre de 2024, la Universidad de Sussex lanzó el Landecker Digital Memory Lab, una iniciativa para “garantizar un futuro sostenible para la memoria y la educación del Holocausto en la era digital”.

Según un informe de políticas basado en investigaciones presentado por el laboratorio a la Alianza Internacional para el Recuerdo del Holocausto (IHRA), ¿Tiene la IA un lugar en el futuro de la memoria del Holocausto?el uso de la IA en la memoria y la educación del Holocausto es problemático porque los modelos convencionales, incluidos los sistemas de IA generativa (GenAI) como ChatGPT y Gemini, carecen de “buenos datos” sobre el Holocausto y necesitan la “representación adecuada” de expertos en este tema. .

La investigadora principal del laboratorio, Victoria Grace Richardson-Walden, recomendó (en un llamado urgente a todas las partes interesadas involucradas en la memoria y la educación del Holocausto, así como a los formuladores de políticas) ayudar a resolver el problema digitalizando sus datos y experiencia humana, en lugar de simplemente traer personas a sus sitios y museos.

“Muy pocos de ellos tienen una estrategia de digitalización clara”, dijo sobre el sector de educación y memoria del Holocausto, que incluye archivos, museos, sitios conmemorativos y bibliotecas de todo el mundo. “Sólo digitalizan su contenido material o sus testimonios para exposiciones específicas”.

“Ese es un tema apremiante para el patrimonio en general”, dijo Richardson-Walden, refiriéndose a las guerras en Ucrania y Medio Oriente.

“Todo el patrimonio, todas estas cosas están en riesgo material”, dijo. “Ha habido una instrumentalización de la historia en todos los lados del espectro político para diversos objetivos políticos. Cuando eso se vuelve muy ruidoso en las redes sociales, se pierden matices. Ahí es donde está la urgencia”.

Enfoque poco confiable

Richardson-Walden destacó que los sistemas GenAI no son “máquinas de conocimiento”, ya que sólo asignan un valor numérico probabilístico a palabras y secuencias de palabras, en lugar de un valor basado en su significado histórico y cultural. Esto lleva a que se entierren hechos e historias menos conocidos, ya que los sistemas tenderán a reproducir sólo los resultados “canónicos” más conocidos que se centran en las historias más famosas.

“Te brinda una respuesta de titular y viñetas”, dijo, describiendo una respuesta típica a una consulta realizada a ChatGPT. “Esta idea de resumir historias realmente complejas es problemática. No se puede resumir algo que ocurrió durante seis años en muchísimos países y que afectó a toda una gama de personas y perpetradores diferentes”.

La investigación no busca dar respuestas a esta compleja cuestión. En cambio, Richardson-Walden espera encontrar alternativas en conversaciones con sus colegas de informática e ingeniería. “Los significantes culturales son difíciles de codificar y luego incorporar a los datos de entrenamiento”, dijo.

Richardson-Walden también destacó la necesidad de tener “buenos datos” en los modelos comerciales de GenAI, especialmente en relación con temas sensibles de la historia como aquellos que involucran genocidio, persecución, conflicto o atrocidades.

“Los buenos datos provienen de la organización del Holocausto, pero primero necesitan digitalizarlos de manera estratégica, y los metadatos adjuntos deben ser correctos y estandarizados”, dijo.

Otro problema destacado por el informe de políticas del laboratorio es la autocensura programada en la mayoría de los modelos GenAI de imágenes comerciales. Casi cada vez que a un sistema se le pide que produzca imágenes del Holocausto, este se niega y el usuario se enfrenta a directrices de censura.

El escrito citaba un ejemplo de Dall-E, el generador de imágenes de OpenAI. “Todo lo que puede ofrecer es producir imágenes de una corona, manos de ancianos y una cerca de alambre de púas, o una imagen que parece un fantasma en una biblioteca”, dijo.

Richardson-Walden añadió: “Terminas haciendo que el Holocausto sea invisible o abstrayéndote hasta el punto de resultar absurdo. Entonces, esta idea de imponer censura dentro de tu programación es algo bueno como enfoque moral que en realidad crea el efecto contrario”.

Ella cree que, si bien estas barreras son mejores que producir datos falsos o distorsionados, también impiden que las personas aprendan la historia y sus lecciones, y agrega que los desarrolladores de estos modelos deberían, por lo tanto, encontrar un “terreno medio” en sus barreras que impidan la desinformación sobre el Holocausto, pero tampoco los encasillen en la prohibición de la información sobre el Holocausto para las generaciones futuras que dependen de los medios digitales.

“El camino [middle ground] Lo que se logra es a través del diálogo”, dijo Richardson-Walden. “Es necesario que haya un espacio para generar más debates con OpenAI, Meta, Google, sentarse con lugares como la ONU, con nosotros en el laboratorio”. Añadió que Landecker ofrece consultoría gratuita para discutir enfoques para las empresas de tecnología que por primera vez participan en la memoria del Holocausto.

“Tan pronto como profundizan en ello, [they] “Me doy cuenta de que esto es tan complejo y tan político, y que existe un área completamente nueva sobre ética y lo digital en la que nunca pensaron”, dijo.

El sitio web de Landecker menciona que el ejemplo más destacado de digitalización de la memoria del Holocausto es un modelo de inteligencia artificial conocido como Dimensions in Testimony, desarrollado por la Fundación Shoah de la USC. Es un ejemplo de un modelo GenAI de dominio específico, descrito como un modelo de lenguaje pequeño, que está “fuertemente supervisado” y depende de una “intervención humana sustancial”. Los usuarios y académicos pueden interactuar con él haciendo preguntas a las que el modelo responde con testimonios de supervivientes y respuestas de expertos que han sido alimentados en él.

Sin embargo, es posible que otros laboratorios y centros de memoria no tengan los mismos medios y financiación que el laboratorio Landecker. Por lo tanto, la atención debe centrarse en la digitalización masiva de activos, que luego pueden utilizarse para informar de manera responsable modelos comerciales de lenguajes grandes.

Exit mobile version