Estudio: algoritmo que está "sesgado contra los negros" detrás de las malas predicciones de reincidencia de los reclusos

$config[ads_kvadrat] not found

Melodyne 5: Tweaking algorithms

Melodyne 5: Tweaking algorithms
Anonim

Los algoritmos son tan sesgados como las personas que los hacen. Una investigacion por ProPublica descubrió que Northpointe, creadores de un algoritmo que intenta predecir la probabilidad de que una persona encarcelada cometa otro delito, predice que las personas negras tienen más probabilidades de cometer un delito después de salir que las personas blancas.

El algoritmo crea una puntuación de "evaluación de riesgo" para los internos. Se utiliza en todo el país para guiar las fechas de liberación de la prisión. Después de analizar los datos de más de 7,000 personas en el condado de Broward, Florida, la realidad de los algoritmos racistas es clara: los acusados ​​negros tenían casi el doble de probabilidades que los acusados ​​blancos de obtener una predicción de cometer otro crimen.

El análisis controla por variables como género y antecedentes penales. Aún así, se pronosticó que las personas negras tendrían un 77 por ciento más de probabilidades de cometer un crimen violento en el futuro y un 45 por ciento de probabilidades de cometer un crimen futuro. También es preocupante que solo el 20 por ciento de las predicciones de Northpointe sobre quién cometerá futuros delitos violentos sean exactos.

Northpointe utiliza 137 preguntas para juzgar el potencial de las personas que cometen un delito. Como informa ProPublica, las preguntas evitan hacer preguntas acerca de la raza. Sin embargo, algunas de las preguntas pueden estar relacionadas.

Los ejemplos de las preguntas incluyen: "¿Se envió a uno de tus padres a la cárcel o prisión?" Y "¿Con qué frecuencia te metiste en peleas mientras estabas en la escuela?" También hay preguntas de sí / no como "Una persona hambrienta tiene un derecho robar ”. Otros factores incluyen los niveles de educación y si una persona tiene un trabajo o no.

ProPublica detalló los métodos exactos de cómo accedieron y analizó los datos de Northpointe en un mensaje explicativo, y Northpointe envió una carta a ProPublica indicando que la compañía "no está de acuerdo con que los resultados de su análisis, o las afirmaciones se basen en eso". análisis, son correctos o que reflejan con precisión los resultados de la aplicación del modelo ".

Los resultados de ProPublica, si no son increíblemente sorprendentes, son preocupantes. Las evaluaciones de riesgo se utilizan para calcular la libertad condicional y decidir los montos de los bonos; incluso se toman en cuenta la sentencia penal en nueve estados.

La tecnología no es la solución final para todos los problemas, especialmente teniendo en cuenta que la tecnología es tan defectuosa como las personas que la crean.

$config[ads_kvadrat] not found