Big Data and Human Rights | Christopher Balding | 2020 Oslo Freedom Forum
El gobierno chino está utilizando algoritmos de vigilancia predictiva para atacar a las minorías étnicas en la provincia de Xinjiang, según un informe de Human Rights Watch publicado el lunes.
La provincia en el noroeste de China alberga a 11 millones de uigures, un grupo étnico musulmán turco que ha sido discriminado por el gobierno chino en los últimos años.
Ahora, según los informes, las autoridades están utilizando big data para atacar sistemáticamente a cualquier persona sospechosa de deslealtad política. El impulso es parte de la campaña "Strike Hard", dirigida a acabar con la actividad terrorista potencial en China. En la práctica, esto ha llevado a una vigilancia policial desproporcionada de los uigures, dice Human Rights Watch.
El sistema de vigilancia predictiva, conocido como IJOP (Plataforma de Operaciones Conjuntas Integradas), se alimenta de una variedad de herramientas de vigilancia diferentes. Estos incluyen cámaras de CCTV, placas de matrícula y números de tarjetas de identificación de ciudadanos obtenidas de los puntos de control de seguridad, y un tesoro de información personal, incluidos registros de salud, bancarios y legales.
Además de la vigilancia automatizada, los funcionarios del gobierno realizan visitas a domicilio para recopilar datos sobre la población. Un hombre de negocios chino compartió un formulario que llenó para los registros de IJOP con Human Rights Watch. Entre otras cosas, el cuestionario preguntaba si el hombre de negocios era uigur, con qué frecuencia ora y a dónde va a los servicios religiosos.
IJOP utiliza todas estas entradas de datos para marcar a las personas como amenazas potenciales. Cuando se marca a alguien, la policía abre una investigación adicional y los lleva bajo custodia si se los considera sospechosos.
"Por primera vez, podemos demostrar que el uso de big data y la vigilancia predictiva por parte del gobierno chino no solo viola flagrantemente los derechos de privacidad, sino que también permite a los funcionarios detener arbitrariamente a personas", dijo Maya Wang, investigadora principal de Human Rights Watch en China.
Según el informe, algunas de las personas marcadas han sido enviadas a centros de educación política donde se encuentran detenidas indefinidamente sin juicio.
"Desde alrededor de abril de 2016, las estimaciones de Human Rights Watch, las autoridades de Xinjiang han enviado decenas de miles de uigures y otras minorías étnicas a" centros de educación política ", según el informe. IJOP otorga credibilidad a estas detenciones aplicando un revestimiento de análisis algorítmico objetivo a los arrestos discriminatorios.
Para empeorar las cosas, el funcionamiento interno de IJOP está envuelto en secreto.
"La gente en Xinjiang no puede resistir o desafiar el escrutinio cada vez más intrusivo de su vida diaria porque la mayoría ni siquiera conoce este programa de" caja negra "o cómo funciona", dijo Wang.
Es el mismo problema que afecta a los sistemas de aprendizaje automático más sofisticados: los procedimientos de decisión que emplean son opacos incluso para los creadores del algoritmo.
Merece la pena prestar atención al uso de IJOP en China porque es probable que la vigilancia predictiva prolifere a medida que la tecnología mejore. Como Jon Christian señaló en El contorno Los sistemas de vigilancia predictiva ya se utilizan en algunos lugares de los Estados Unidos. El Departamento de Policía de Los Ángeles utiliza un software que anticipa dónde y cuándo es probable que se cometan los delitos para que los oficiales puedan evitarlos.
En el otro lado del sistema de justicia penal, las salas de audiencias a veces usan algoritmos que otorgan puntajes de "evaluación de riesgo" a personas en libertad condicional para ayudar a los jueces a tomar decisiones más informadas. Desafortunadamente, estos algoritmos supuestamente imparciales realmente discriminan según la raza.
La incursión de China en la policía predictiva subraya la importancia de la implementación responsable de algoritmos a medida que el aprendizaje automático continúa ingresando en el sector público. Quizás es hora de que los gobiernos expertos en tecnología adopten un nuevo mantra: a veces la inteligencia artificial crea más problemas de los que resuelve.
Los súper cometas están ahí fuera, y podrían dirigirse hacia la Tierra
Los cientos de cometas gigantes que se encuentran dentro de la región planetaria exterior del sistema solar representan una amenaza mucho más profunda para la vida en la Tierra que los asteroides, informó el martes un equipo de astrónomos británicos. En el artículo "Centauros como un peligro para la civilización", publicado en el diario de diciembre de la Royal Astronomical Soc ...
Estos grupos están salvando a los refugiados para la Navidad
Como le dijo a Jacqueline Ronson por su hermana, Kimberly Ronson. Hace cinco días llegué a la isla de Lesbos en Grecia. Había escuchado, como la mayoría de nosotros ya lo hemos hecho, de los cientos de miles de refugiados que llegan en barco desde Siria a través de Turquía. En los últimos meses, un increíble esfuerzo voluntario ha surgido en ...
Los 7 mejores juegos de teléfonos inteligentes para grupos
Siempre hay un momento en reuniones pequeñas y amistosas cuando la conversación se apaga y un aire general de meh se instala en la sala. Si hay un perro, alguien pronto comentará lo lindo que es. Entonces alguien sacará su teléfono. Para la mayoría de los anfitriones, este momento representa el nadir de un evento, pero en realidad es un ...