Apple iPhone X no puede distinguir caras chinas, reembolso dado

$config[ads_kvadrat] not found

Compré un iPhone X FALSO en China - ¿Qué tan malo es?

Compré un iPhone X FALSO en China - ¿Qué tan malo es?
Anonim

La semana pasada, en Nanjing, una importante ciudad del este de China, a una mujer de nombre Yan se le ofreció dos veces un reembolso de Apple por su iPhoneX defectuoso, que su colega desbloqueó con la tecnología de reconocimiento facial. Ambas mujeres son étnicamente chinas.

Yan dijo a las noticias locales que la primera vez que sucedió esto, llamó a la línea directa del iPhone, pero no le creyeron. No fue hasta que ella y su colega fueron a una tienda local de Apple y le mostraron al personal de la tienda que le ofrecieron un reembolso y ella compró un teléfono nuevo, pensando que tal vez la culpa era de una cámara defectuosa.

Pero el segundo teléfono tenía el mismo problema, sugiriendo que no era una cámara defectuosa, como sugirieron los trabajadores de la tienda, sino un problema con el software en sí.

Este no sería el primer caso en el que el software de reconocimiento facial y la IA detrás de él han tenido problemas para reconocer caras que no son blancas.

En 2015, Google Photos etiquetó accidentalmente una foto de dos afroamericanos como gorilas, mientras que en 2009, computadoras HP http://www.youtube.com/watch?v=t4DT3tQqgRM) tuvo problemas para reconocer y rastrear caras negras, pero No hay problema con las caras blancas. Ese mismo año, el software de la cámara de Nikon fue sorprendido etiquetando una cara asiática como parpadeando.

Fotos de Google, todos ustedes jodidos. Mi amigo no es un gorila. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) 29 de junio de 2015

"Esto es fundamentalmente un problema de datos", escribió Kate Crawford, investigadora principal de Microsoft y copresidenta del Simposio sobre la Sociedad de la Casa Blanca de Obama y A.I. “Los algoritmos aprenden al ser alimentados con ciertas imágenes, a menudo elegidas por ingenieros, y el sistema construye un modelo del mundo basado en esas imágenes. "Si un sistema se entrena con fotos de personas que son abrumadoramente blancas, será más difícil reconocer las caras que no son blancas".

Jacky Alcine, el programador con sede en Brooklyn cuya foto fue mal etiquetada por Google, estuvo de acuerdo. Sobre su experiencia, dijo: "Esto podría haberse evitado con una clasificación precisa y más completa de los negros".

Pero el racismo que se codifica en AI, incluso si no es intencional, tiene implicaciones que van más allá del reconocimiento facial.

Una investigación de ProPublica en 2016 encontró que los delincuentes negros tenían el doble de probabilidades de ser erróneamente señalado como probable que vuelva a cometer crímenes que los criminales blancos, mientras que la tendencia creciente de "vigilancia predictiva" utiliza algoritmos para pronosticar el crimen y dirigir los recursos policiales en consecuencia.

Sin embargo, las comunidades minoritarias han sido históricamente exageradas, lo que lleva a la posibilidad de que "este software se arriesgue a perpetuar un ciclo ya vicioso", dice Crawford.

De vuelta en Nanjing, China, Yan recibió un segundo reembolso en su segundo iPhoneX. De los informes de noticias locales, no está claro si ella compró un tercero.

Lo que estaba en juego, esta vez, podría haber sido solo un consumidor. Pero el caso de Yan fue un ejemplo de la continua necesidad de que la industria de la tecnología diseñe teniendo en cuenta la diversidad y la inclusión.

$config[ads_kvadrat] not found