Sebuah Algoritma sedang diuji di San Francisco untuk Mengatur Pra-percobaan Pengadilan

Sains Manajemen, Pertemuan 2 : Konsep Sains Manajemen dan Break Event Analysis

Sains Manajemen, Pertemuan 2 : Konsep Sains Manajemen dan Break Event Analysis
Anonim

Sistem peradilan pidana berada di tengah-tengah perubahan algoritmik.Sekitar 30 yurisdiksi - termasuk seluruh negara bagian Arizona, Kentucky, dan New Jersey, serta kota-kota seperti San Francisco dan Chicago - telah menguji algoritma yang menetapkan biaya jaminan berdasarkan data catatan kriminal nasional. Tidak semua hakim harus siap untuk mempertimbangkan rekomendasi digital.

Algoritma ini dibuat oleh Laura dan John Arnold Foundation yang berbasis di Houston, dan disebut Public Safety Assessment, atau PSA. Tujuan dari algoritma ini adalah untuk menghilangkan bias dari pengaturan jaminan dengan menggunakan data dari 1,5 juta kasus praperadilan. Di masa lalu, bagaimanapun, algoritma telah membawa bias yang sama dari orang yang membuatnya.

Sembilan faktor dimasukkan ke dalam algoritma, per situs web yayasan:

  • Apakah pelanggaran saat ini adalah kekerasan
  • Apakah orang tersebut memiliki tuduhan yang tertunda pada saat penangkapan
  • Apakah orang tersebut memiliki keyakinan pelanggaran ringan atau tidak
  • Apakah orang tersebut memiliki keyakinan kejahatan sebelumnya
  • Apakah orang tersebut memiliki keyakinan sebelumnya atas kejahatan kekerasan
  • Usia orang tersebut pada saat penangkapan
  • Apakah orang tersebut gagal muncul pada sidang praperadilan dalam dua tahun terakhir
  • Apakah orang tersebut gagal muncul pada sidang praperadilan lebih dari dua tahun yang lalu
  • Apakah orang tersebut sebelumnya telah dijatuhi hukuman penjara.

Algoritma tidak memperhitungkan ras, jenis kelamin, pendapatan, pendidikan, pekerjaan, atau lingkungan. Ini, menurut yayasan, membuat PSA netral.

Namun, para hakim di San Francisco belum konsisten mengikuti rekomendasi, the Kronik San Francisco laporan.

San Francisco pindah untuk menggunakan algoritme setelah kota itu digugat oleh kelompok hak-hak sipil nasional yang mengklaim uang jaminan melukai orang miskin lebih dari yang kaya. Orang kaya yang melakukan kejahatan ringan membeli jalan keluar dari penjara, sementara orang miskin yang tidak mampu membayar jumlah jaminan yang berlebihan dibiarkan di sel tahanan sampai persidangan dapat dijadwalkan.

PSA seharusnya meningkatkan level dengan melihat data, bukan kejahatan langsung. Algoritme menggunakan data historis untuk menilai seberapa besar kemungkinan seseorang akan melakukan kejahatan lain atau menghindari persidangan jika menggunakan jaminan, Laporan Minoritas gaya. Jika kemungkinannya tinggi, jaminan ditetapkan lebih tinggi, dan sebaliknya.

Algoritma serupa yang dibuat oleh Northpointe digunakan untuk memandu tanggal rilis tahanan. ProPublica menerbitkan hasil penyelidikan pada bulan Mei yang menemukan bahwa skor "penilaian risiko" yang diberikan oleh algoritma Northpointe secara tidak proporsional meramalkan bahwa orang kulit hitam lebih mungkin melakukan kejahatan lain daripada orang kulit putih setelah mereka keluar. Hanya 20 persen dari prediksi Northpointe yang akurat.

Teknologi pemetaan canggih dan data besar, di sisi lain, juga membantu penegakan hukum mengidentifikasi dan hotspot kriminal polisi.

Algoritma yayasan bertujuan untuk menghindari bias yang sama dengan menghapus indikator demografis. Namun apakah itu benar-benar berfungsi atau tidak, tidak akan terlihat sampai para hakim benar-benar mulai mengandalkan algoritma daripada preseden dan intuisi.