Un equipo de científicos de datos de la Universidad York St John ha presentado una herramienta de vanguardia diseñada para detectar y alertar a las personas sobre imágenes ultrafalsas que se utilizan para difundir información errónea y otras amenazas cibernéticas.
Creada con el apoyo de colegas de la Universidad de Essex y desarrolladores de Nosh Technologies, con sede en Colchester, la herramienta Pixelator v2 utiliza una combinación nunca antes probada de técnicas de veracidad de imágenes para identificar diferencias sutiles en las imágenes con mucha mayor precisión que antes. En las pruebas, se ha demostrado que detecta alternancias de tamaño tan pequeño como un solo píxel.
El equipo detrás de Pixelator v2 espera que resulte un recurso valioso para aquellos con mayor necesidad de precisión, en particular profesionales, analistas e investigadores de seguridad cibernética.
“En una era donde las imágenes dominan la comunicación, la capacidad de comprender la autenticidad visual nunca ha sido más crítica”, dijo el investigador principal Somdip Dey, profesor de ciencia de datos en York St John.
Según el equipo de Dey, las herramientas estándar utilizadas para descubrir imágenes falsas a menudo no tienen en cuenta cambios sutiles, pero críticos, en las imágenes. Pixelator v2 se diferencia de estos al integrar dos nuevas métricas: análisis del espacio de color LAB (CIE-LAB) y detección de bordes de Sobel, que le permiten ofrecer un enfoque más “robusto y matizado” para identificar variaciones, incluso las más pequeñas.
LAB Color Space Analysis es un modelo de color perceptivo para imitar la visión humana, lo que permite a Pixelator v2 detectar diferencias que pueden no ser visibles de inmediato a simple vista. Mientras tanto, Sobel EdgeDetection está diseñado para resaltar variaciones estructurales en las imágenes, que podrían incluir cambios casi imperceptibles en los bordes y límites que un observador humano también pasaría por alto.
La combinación de estas dos técnicas hace que la herramienta sea ideal para aplicaciones de seguridad cibernética, donde la capacidad de comparar imágenes de forma rápida y precisa juega un papel clave en una serie de tareas, como la detección de manipulaciones, la autenticación y el análisis, dijo Dey.
Después de evaluar Pixelator v2 frente a otros métodos populares, el equipo dijo que ha demostrado claramente su rendimiento superior cuando se trata de detectar diferencias perceptivas y estructurales. Creen que la herramienta no sólo proporciona una comparación de imágenes más precisa, sino que también mejora la seguridad general al dificultar que las variaciones sutiles se escapen de la red.
Próximos pasos
Dada la llegada de las herramientas de inteligencia artificial generativa (GenAI) capaces de crear imágenes extremadamente realistas y sus capacidades avanzadas, Dey dijo que el equipo era consciente de que distinguir entre contenido real y generado por IA se estaba volviendo cada vez más desafiante.
El equipo dijo que Pixelator v2 puede ser un paso importante para abordar este problema porque, al mejorar nuestro conocimiento sobre cómo las imágenes difieren en términos de percepción, sienta las bases para futuros proyectos centrados en la detección de imágenes generadas por IA.
“Esta herramienta es un trampolín hacia una misión más amplia: desarrollar tecnología para detectar y predecir imágenes falsas generadas por IA. A medida que la IA generativa se generaliza, herramientas como Pixelator v2 son esenciales para ayudar a los consumidores y profesionales a navegar por la delgada línea entre la realidad y la fabricación”, dijo Dey.
El equipo de investigación de York St John ya está trabajando activamente en la siguiente fase del proyecto para ampliar las capacidades de Pixelator v2 para detectar y predecir imágenes basadas en GenAI. Esta necesidad existe hoy en día, ya que actores de extrema derecha en Europa occidental ya están utilizando imágenes generadas por IA para sembrar información errónea sobre la inmigración, mientras que a principios de este mes, una escuela privada en Pensilvania, Estados Unidos, se vio sacudida por un escándalo en el que un alumno adolescente creó Imágenes de desnudos deepfake de compañeras de clase.
Los hallazgos completos del equipo se publicaron a principios de noviembre en el acceso abierto del MDPI. Electrónica Journal y se puede leer aquí, mientras que la herramienta Pixelator v2 está disponible para descargar desde GitHub.