AI. El instituto de investigación muestra cómo crear algoritmos responsables

$config[ads_kvadrat] not found

Язык Си для начинающих / #1 - Введение в язык Си

Язык Си для начинающих / #1 - Введение в язык Си
Anonim

El instituto de investigación AI Now publicó nuevas recomendaciones para la implementación responsable de algoritmos en la esfera pública el miércoles.Sus consejos están dirigidos a un grupo de trabajo formado por el Consejo de la Ciudad de Nueva York en enero que está estudiando el uso de inteligencia artificial por parte del gobierno.

El informe de AI Now, Evaluaciones de impacto algorítmico: hacia la automatización responsable en agencias públicas, describe la necesidad de transparencia cuando se trata de implementar algoritmos. Los algoritmos tienen un gran impacto en nuestra vida diaria, pero su impacto a veces pasa desapercibido. Debido a que están incorporados en la infraestructura de las redes sociales y las plataformas de video, por ejemplo, es fácil olvidar que los programas a menudo determinan qué contenido se envía a los usuarios de Internet. Solo cuando algo sale mal, como un video de teoría de la conspiración que llega a lo más alto de la lista de tendencias de YouTube, examinamos los procedimientos de decisión automatizados que dan forma a las experiencias en línea.

Y los algoritmos no están restringidos a las plataformas de internet. Las instituciones gubernamentales se han vuelto cada vez más dependientes de algoritmos, en dominios que van desde la educación hasta la justicia penal. En un mundo ideal, los algoritmos eliminarían el sesgo humano de decisiones difíciles, como determinar si un recluso debe recibir o no la libertad condicional. En la práctica, sin embargo, los algoritmos son tan efectivos como las personas que los hacen.

Por ejemplo, una investigación por ProPublica demostró que los algoritmos de evaluación de riesgos utilizados en las salas de audiencias tenían un sesgo racial. Para empeorar las cosas, muchos de los algoritmos utilizados en el sector público son de propiedad privada, y algunas compañías se niegan a compartir el código subyacente de su software. Eso hace que sea imposible entender por qué estos algoritmos de "caja negra" devuelven ciertos resultados.

¿Una solución potencial ofrecida por AI ahora? Evaluaciones algorítmicas de impacto. Estas evaluaciones establecen una norma de transparencia total, lo que significa que las agencias gubernamentales que usan algoritmos necesitarían dar a conocer cuándo y cómo las están utilizando. "Este requisito por sí solo contribuiría en gran medida a arrojar luz sobre qué tecnologías se están implementando para servir al público, y donde debería centrarse la investigación de la rendición de cuentas", señala el informe.

Una política de apertura que rodea a los algoritmos también abriría la puerta para que los ciudadanos examinen y proteste su uso. ¿Desearía un algoritmo que le otorgue un puntaje de evaluación de riesgo basado en factores fuera de su control, especialmente cuando ese puntaje podría ayudar a determinar si va a la cárcel? Tal vez sí tal vez no. De cualquier manera, es importante saber exactamente qué variables están siendo analizadas por el algoritmo.

Además, AI Now recomienda establecer un estándar legal para que las personas presionen contra algoritmos injustos.

Por ejemplo, si una agencia no divulga los sistemas que están razonablemente dentro del alcance de quienes toman decisiones automatizadas, o si permite que los proveedores realicen reclamos de secretos comerciales y, por lo tanto, bloquee el acceso significativo al sistema, el público debería tener la oportunidad de plantear inquietudes. un organismo de supervisión de la agencia, o directamente en un tribunal de justicia si la agencia se negó a rectificar estos problemas después del período de comentarios públicos.

Básicamente, las recomendaciones se reducen a un solo mandato general: si estás usando algoritmos, no te preocupes por eso.

Lea el reporte completo aqui.

$config[ads_kvadrat] not found