Studi: Algoritma Itu "Bias Terhadap Orang Hitam" Di Balik Prediksi Residivisme Narapidana yang Buruk

$config[ads_kvadrat] not found

(Sesi 58) WAR ROOM AND COMMAND CENTER

(Sesi 58) WAR ROOM AND COMMAND CENTER
Anonim

Algoritma sama biasnya dengan orang yang membuatnya. Investigasi oleh ProPublica menemukan bahwa Northpointe, pencipta suatu algoritma yang mencoba untuk memprediksi kemungkinan orang yang dipenjara untuk melakukan kejahatan lain, memprediksi orang kulit hitam jauh lebih mungkin melakukan kejahatan setelah keluar daripada orang kulit putih.

Algoritma menciptakan skor "penilaian risiko" untuk narapidana. Ini digunakan di seluruh negara untuk memandu tanggal rilis penjara. Setelah menganalisis data untuk lebih dari 7.000 orang di Broward County, Florida, realitas algoritma rasis sudah jelas: terdakwa kulit hitam hampir dua kali lebih mungkin daripada terdakwa kulit putih untuk mendapatkan prediksi melakukan kejahatan lain.

Analisis dikendalikan untuk variabel seperti jenis kelamin dan latar belakang kriminal. Meski begitu, orang kulit hitam diprediksi sebagai 77 persen lebih mungkin untuk melakukan kejahatan kekerasan di masa depan dan 45 persen cenderung melakukan kejahatan di masa depan. Yang juga meresahkan adalah bahwa hanya 20 persen dari prediksi Northpointe tentang siapa yang akan melakukan kejahatan kekerasan di masa mendatang adalah akurat.

Northpointe menggunakan 137 pertanyaan untuk menilai potensi orang yang melakukan kejahatan. Seperti yang dilaporkan ProPublica, pertanyaan-pertanyaan tersebut tidak menanyakan langsung tentang ras. Namun, beberapa pertanyaan mungkin terkait.

Contoh pertanyaan meliputi: "Apakah salah satu dari orang tua Anda pernah dikirim ke penjara atau penjara?" Dan "Seberapa sering Anda berkelahi saat di sekolah?" Ada juga pertanyaan ya / tidak seperti "Orang yang lapar memiliki hak mencuri. ”Faktor-faktor lain termasuk tingkat pendidikan dan apakah seseorang memiliki pekerjaan atau tidak.

ProPublica merinci metode yang tepat tentang bagaimana mereka mengakses dan menganalisis data Northpointe dalam pos penjelas, dan Northpointe mengirim surat kepada ProPublica yang menyatakan bahwa perusahaan “tidak setuju bahwa hasil analisis mereka, atau klaim yang dibuat berdasarkan itu analisis, benar atau bahwa mereka secara akurat mencerminkan hasil dari penerapan model."

Hasil ProPublica, jika tidak terlalu mengejutkan, memprihatinkan. Penilaian risiko digunakan untuk menentukan pembebasan bersyarat dan memutuskan jumlah obligasi; mereka bahkan memasukkan hukuman pidana di sembilan negara bagian.

Teknologi bukanlah solusi akhir untuk semua masalah, terutama mengingat teknologi sama cacatnya dengan orang-orang yang membuatnya.

$config[ads_kvadrat] not found