Las imágenes pixeladas no son rival para el reconocimiento facial de Cornell Tech A.I.

$config[ads_kvadrat] not found

Mejorar calidad y resolución de imágenes y fotos| Remasterizar | Inteligencia Artificial | 2020

Mejorar calidad y resolución de imágenes y fotos| Remasterizar | Inteligencia Artificial | 2020
Anonim

Tres investigadores de Cornell Tech en la ciudad de Nueva York descubrieron que las imágenes borrosas y pixeladas no son compatibles con la inteligencia artificial. Aunque las imágenes oscuras siguen siendo incomprensibles para los ojos humanos, y por lo tanto parecen proteger su contenido sensible, las redes neuronales a menudo pueden decir exactamente quién es quién en la imagen original.

En otras palabras, los humanos ya no son la prueba de fuego. Ya no podemos preguntar simplemente si algo derrota a todos los cerebros humanos. A.I.s - incluso los simples A.I.s - pueden superar a los humanos, por lo que derrotarlos también debe ser parte de la ecuación.

El estudio de los investigadores de Cornell Tech se centró en probar algoritmos para preservar la privacidad, que desenfocan o pixelan cierta información o partes de imágenes. Anteriormente, confiábamos en el software o algoritmos de preservación de la privacidad de forma implícita, al considerar que la información que ocultaban era segura porque no humano Podía decir quién estaba detrás del velo digital. El estudio muestra que esa era ha terminado, y los métodos de anonimización relacionados tampoco durarán mucho. Las redes neuronales, cumplidas con estas medidas de privacidad, son inmejorables.

Richard McPherson es un Ph.D. candidato a ciencias de la computación en la Universidad de Texas, Austin, quien siguió a su profesor, Vitaly Shmatikov, a Cornell Tech. Juntos, junto con Reza Shokri, demostraron que las redes neuronales simples podrían desenmascarar las técnicas comunes de ofuscación de la imagen. La técnica es relativamente poco sofisticada, lo que hace que el descubrimiento sea más preocupante: son métodos comunes y accesibles, y fueron capaces de vencer las normas de la industria para la ofuscación.

Las redes neuronales son grandes estructuras de nodos en capas o neuronas artificiales que imitan la estructura básica del cerebro. Se "basan en una comprensión simplificada de cómo funcionan las neuronas", McPherson dice Inverso. "Déle algo de entrada, y la neurona se dispara o no se dispara".

También son capaces de "aprender", por una definición aproximada del término. Si muestras un "ser humano" rojo (completamente sin educación) y les dices que escojan todas las cosas "rojas" de un cubo, al principio lucharán pero mejorarán con el tiempo. Lo mismo ocurre con las redes neuronales. Aprendizaje automático solo significa enseñar a una computadora a elegir las cosas "rojas", por ejemplo, de un cubo virtual de cosas variadas.

Así es como McPherson y la compañía entrenaron su red neuronal. "En nuestro sistema, creamos un modelo, una arquitectura de redes neuronales, un conjunto estructurado de estas neuronas artificiales, y luego les damos una gran cantidad de imágenes ofuscadas", dice. "Por ejemplo, podemos darles cien imágenes diferentes de Carol que han sido pixeladas, y luego cien imágenes diferentes de Bob que han sido pixeladas".

Luego, los investigadores etiquetan estas imágenes pixeladas y, al hacerlo, le dicen al modelo quién está en cada imagen. Después de procesar este conjunto de datos, la red sabe funcionalmente cómo se ven Pixelated Bob y Pixelated Carol. "Luego podemos darle una imagen pixelada diferente de Bob o Carol, sin la etiqueta", explica McPherson, "y puede hacer una conjetura y decir:" Creo que este es Bob con el 95 por ciento de precisión "".

El modelo no reconstruye la imagen confusa, pero el hecho de poder vencer los métodos de anonimización más comunes y anteriormente más confiables es desconcertante en sí mismo. "Pueden averiguar qué se está ofuscando, pero no saben cómo se veía originalmente", dice McPherson.

Pero las redes neuronales todavía pueden hacerlo mucho mejor que los humanos. Cuando las imágenes fueron más ofuscadas usando una técnica estándar de la industria, el sistema todavía tenía una precisión de más del 50 por ciento. Para imágenes un poco menos confusas, el sistema demostró ser notable, con una precisión de alrededor del 70 por ciento. La norma de YouTube para difuminar rostros fracasó por completo; incluso las imágenes más borrosas fueron derrotadas por la red neuronal, que resultó ser 96 por ciento precisa.

Tampoco son fiables otras técnicas de anonimización de datos, textos e imágenes que no hayan sido previamente eliminadas. "Hubo un trabajo durante el verano que analizó el texto anónimo utilizando pixelación y desenfoque, y demostró que también podían romperse", dice McPherson. Y otros métodos que una vez fueron confiables también pueden estar en camino hacia la puerta. Aunque no conoce los entresijos de las técnicas de ofuscación de la voz, como las que se usan para las entrevistas anónimas de televisión, "no se sorprendería" si las redes neuronales pudieran romper la anonimización.

El descubrimiento de McPherson, entonces, demuestra que "los métodos de preservación de la privacidad que teníamos en el pasado no son realmente buenos, especialmente con las técnicas modernas de aprendizaje automático". En otras palabras, nos estamos codificando en irrelevancia, entrenando máquinas para Nos superan en todos los reinos.

"A medida que el poder del aprendizaje automático crece, esta compensación cambiará a favor de los adversarios", escribieron los investigadores.

$config[ads_kvadrat] not found