Se está probando un algoritmo en San Francisco para establecer una fianza previa al juicio

$config[ads_kvadrat] not found

Khaled - C'est La Vie

Khaled - C'est La Vie
Anonim

El sistema de justicia penal se encuentra en medio de un cambio algorítmico. Alrededor de 30 jurisdicciones, incluidos todos los estados de Arizona, Kentucky y Nueva Jersey, así como ciudades como San Francisco y Chicago, han estado probando un algoritmo que establece el costo de la fianza según los datos de antecedentes penales de todo el país. No todos los jueces están necesariamente preparados para tomar en serio las recomendaciones digitales.

El algoritmo fue creado por la Fundación Laura y John Arnold, con sede en Houston, y se denomina Evaluación de Seguridad Pública o PSA. El objetivo del algoritmo es eliminar los sesgos de la fianza mediante el uso de datos de 1,5 millones de casos previos al juicio. En el pasado, sin embargo, los algoritmos han tenido los mismos sesgos de las personas que los hacen.

Nueve factores entran en el algoritmo, según el sitio web de la fundación:

  • Si el delito actual es violento.
  • Si la persona tiene un cargo pendiente en el momento de la detención
  • Si la persona tiene una condena por delito menor anterior
  • Si la persona tiene una condena por delito mayor anterior
  • Si la persona tiene una condena previa por un crimen violento
  • La edad de la persona en el momento de la detención.
  • Si la persona no compareció en una audiencia previa al juicio en los últimos dos años
  • Si la persona no compareció en una audiencia previa al juicio hace más de dos años
  • Si la persona ha sido sentenciada previamente a encarcelamiento.

El algoritmo no tiene en cuenta raza, género, ingresos, educación, empleo o vecindario. Esto, según la fundación, hace que el PSA sea neutral.

Aún así, los jueces en San Francisco no han seguido constantemente las recomendaciones, el San Francisco Chronicle informes.

San Francisco se movió para usar el algoritmo después de que la ciudad fuera demandada por un grupo nacional de derechos civiles que afirmaba que una fianza exorbitante perjudicaba más a los pobres que a los ricos. Las personas ricas que cometieron delitos menores estaban comprando su salida de la cárcel, mientras que las personas pobres que no podían pagar las cantidades excesivas de la fianza se quedaron en una celda de detención hasta que se pudo programar un juicio.

El PSA debía nivelar el campo de juego al observar los datos, en lugar del crimen inmediato. El algoritmo utiliza datos históricos para juzgar qué tan probable es que una persona cometa otro delito o evite un juicio si es puesta en libertad bajo fianza. Informe de la minoría estilo. Si la probabilidad es alta, la fianza se establece más alta, y viceversa.

Se utilizó un algoritmo similar creado por Northpointe para guiar las fechas de liberación de los presos. ProPublica publicó los resultados de una investigación en mayo que encontró que los puntajes de "evaluación de riesgo" dados por el algoritmo de Northpointe predecían de manera desproporcionada que las personas negras tenían más probabilidades de cometer otro delito que las personas blancas después de salir. Solo el 20 por ciento de las predicciones de Northpointe fueron precisas.

Las tecnologías avanzadas de mapeo y big data, por otro lado, también están ayudando a las autoridades policiales a identificar y vigilar puntos de acceso criminales.

El algoritmo de la fundación apunta a evitar un sesgo similar al eliminar cualquier indicador demográfico. Sin embargo, si realmente funciona o no, no se verá hasta que los jueces realmente comiencen a confiar en los algoritmos sobre el precedente y la intuición.

$config[ads_kvadrat] not found