Los Deepfakes no son rival para el Aprendizaje Automático - He aquí por qué

$config[ads_kvadrat] not found

Gace Brulé - Biaus m'este quant retentit la bruille

Gace Brulé - Biaus m'este quant retentit la bruille

Tabla de contenido:

Anonim

Una nueva forma de desinformación está lista para propagarse a través de las comunidades en línea a medida que se calientan las campañas electorales de 2018. Llamados "errores profundos" después de la cuenta en línea seudónima que popularizó la técnica, que puede haber elegido su nombre porque el proceso utiliza un método técnico llamado "aprendizaje profundo": estos videos falsos parecen muy realistas.

Hasta ahora, la gente ha usado videos de deepfake en pornografía y sátira para dar la impresión de que las personas famosas están haciendo cosas que normalmente no harían. Pero es casi seguro que aparecerán errores profundos durante la temporada de campaña, que pretende representar a los candidatos diciendo cosas o yendo a lugares que el verdadero candidato no querría.

Debido a que estas técnicas son tan nuevas, las personas tienen problemas para distinguir la diferencia entre los videos reales y los videos de deepfake. Mi trabajo, con mi colega Ming-Ching Chang y nuestro Ph.D. El estudiante Yuezun Li, ha encontrado una manera de contar de manera confiable videos reales de videos deepfake. No es una solución permanente, porque la tecnología mejorará. Pero es un comienzo y ofrece la esperanza de que las computadoras puedan ayudar a las personas a decir la verdad desde la ficción.

¿Qué es un "Deepfake"?

Hacer un video deepfake es muy parecido a traducir entre idiomas. Los servicios como Google Translate utilizan el aprendizaje automático (análisis computarizado de decenas de miles de textos en varios idiomas) para detectar patrones de uso de palabras que utilizan para crear la traducción.

Los algoritmos Deepfake funcionan de la misma manera: utilizan un tipo de sistema de aprendizaje automático llamado red neuronal profunda para examinar los movimientos faciales de una persona. Luego sintetizan imágenes de la cara de otra persona haciendo movimientos análogos. Al hacerlo, se crea efectivamente un video de la persona objetivo que parece hacer o decir las cosas que hizo la persona de origen.

Antes de que puedan funcionar correctamente, las redes neuronales profundas necesitan mucha información de origen, como fotos de las personas que son el origen o el objetivo de la suplantación. Cuantas más imágenes se usen para entrenar un algoritmo de falso real, más realista será la suplantación digital.

Detección de parpadeo

Todavía hay fallas en este nuevo tipo de algoritmo. Uno de ellos tiene que ver con cómo parpadean las caras simuladas, o no. Los humanos adultos sanos parpadean en algún lugar entre cada dos y 10 segundos, y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un video de una persona que habla. Pero no es lo que sucede en muchos videos deepfake.

Cuando un algoritmo de DeepFake se entrena en las imágenes faciales de una persona, depende de las fotos disponibles en Internet que se pueden usar como datos de entrenamiento. Incluso para las personas que son fotografiadas a menudo, hay pocas imágenes disponibles en línea que muestran sus ojos cerrados. Las fotos no solo son raras, porque los ojos de las personas están abiertos la mayor parte del tiempo, sino que los fotógrafos no suelen publicar imágenes donde los ojos de los sujetos principales están cerrados.

Sin imágenes de entrenamiento de personas parpadeando, es menos probable que los algoritmos deepfake creen caras que parpadeen normalmente.Cuando calculamos el índice general de parpadeo y lo comparamos con el rango natural, encontramos que los personajes en los videos de deepfake parpadean con mucha menos frecuencia en comparación con las personas reales. Nuestra investigación utiliza el aprendizaje automático para examinar la apertura y el cierre de los ojos en videos.

Ver también: Hollywood no emitirá estrellas asiático-americanas, pero A.I. La máquina de aprendizaje puede

Esto nos da una inspiración para detectar videos deepfake. Posteriormente, desarrollamos un método para detectar cuando la persona en el video parpadea. Para ser más específico, escanea cada fotograma de un video en cuestión, detecta las caras en él y luego ubica los ojos automáticamente. Luego utiliza otra red neuronal profunda para determinar si el ojo detectado está abierto o cerrado, utilizando la apariencia, las características geométricas y el movimiento del ojo.

Sabemos que nuestro trabajo está aprovechando una falla en el tipo de datos disponibles para entrenar los algoritmos de falsificación profunda. Para evitar caer en una falla similar, hemos entrenado nuestro sistema en una gran biblioteca de imágenes de ojos abiertos y cerrados. Este método parece funcionar bien y, como resultado, hemos logrado una tasa de detección de más del 95%.

Esta no es la última palabra para detectar fallas profundas, por supuesto. La tecnología está mejorando rápidamente, y la competencia entre generar y detectar videos falsos es análoga a un juego de ajedrez. En particular, se puede agregar un parpadeo a los videos de deepfake incluyendo imágenes de caras con los ojos cerrados o usando secuencias de video para entrenar. Las personas que quieren confundir al público mejorarán al hacer videos falsos, y nosotros y otros en la comunidad tecnológica tendremos que seguir buscando formas de detectarlos.

Este artículo fue publicado originalmente en The Conversation por Siwei Lyu. Lee el artículo original aquí.

$config[ads_kvadrat] not found