Investigadores Desarrollan Método Para Detectar Imágenes Deepfake
Resulta notable el progreso alcanzado por la tecnología en el logro de las llamadas imágenes deepfakes, las cuales son generadas como resultado de algoritmos de aprendizaje automático. Dichos avances han ocasionado que cada vez mas a las personas les resulte difícil distinguir este tipo de imágenes de una foto real.
En este contexto, un nuevo método para identificar imágenes deepfake ha sido desarrollado por investigadores del Instituto Horst Görtz. Ha sido desarrollado para la seguridad informática de la Ruhr-Universität Bochum y el Cluster de Excelencia "Seguridad Cibernética en la Era de los Adversarios a Gran Escala".
A través de esta iniciativa el equipo realizó el análisis de objetos dentro del rango donde actúa la frecuencia mediante una técnica de procesamiento de señales establecida. Los resultados de este trabajo fueron presentados por el equipo el 15 de julio de 2020 durante la Conferencia Internacional sobre Aprendizaje Automático (ICML), evento considerado como uno de los mas importantes en este campo.
En esta conferencia los investigadores pusieron a disposición del público su código en línea de forma gratuita de modo que otros grupos pudieran replicar sus resultados.
Origen y detección de las imágenes deepfakes
Las denominadas Redes Adversarias Generativas (GAN) o modelos informáticos son las encargadas de generar las imágenes deepfake, en cuyo proceso intervienen dos algoritmos que trabajan juntos. El primero de ellos crea imágenes aleatorias basadas en ciertos datos de entrada, mientras que el segundo algoritmo se ocupa de decidir si la imagen es falsa o no. En caso de resultar falsa la imagen, el segundo algoritmo envía una alerta al primer algoritmo para que analice la imagen hasta que este ya deje de reconocerla como falsa.
Gracias a este método ha sido posible estos últimos años que las imágenes deepfake obtengan un aspecto cada vez más auténtico.
A través del sitio web www.whichfaceisreal.com los usuarios que ingresan son puestos a prueba a través de la contrastación de dos imágenes donde deberán distinguir cuál imagen del rostro es falsa y cuál es verdadera.
En referencia a esto, el profesor de la Catedra de Seguridad de Sistemas Thorsten Holz indicó «En la era de las noticias falsas, puede ser un problema si los usuarios no tienen la capacidad de distinguir las imágenes generadas por ordenador de las originales»
Los conjuntos de datos, usados como base en la página web mencionada anteriormente, sirvieron como recurso a los investigadores de Bochum para llevar a cabo sus análisis.
Entre los participantes de este proyecto se encuentran Joel Frank, Thorsten Eisenhofer y el profesor Thorsten Holz de la Cátedra de Seguridad de los Sistemas quienes trabajaron de forma conjunta con la profesora Asja Fischer de la Cátedra de Aprendizaje Automático,
Junto a estos se cuenta también la participación de Lea Schönherr y la profesora Dorothea Kolossa de la Cátedra de Procesamiento de Señales Digitales.
Fuente: WhatsNewVia: feedproxy.google.com