A.I. Research Institute Menunjukkan Cara Membuat Algoritma yang Bertanggung Jawab

$config[ads_kvadrat] not found

Bagaimana cara mudah menulis Algoritma | Uraian Deskripsi - Flowchart

Bagaimana cara mudah menulis Algoritma | Uraian Deskripsi - Flowchart
Anonim

Lembaga Penelitian AI Now menerbitkan rekomendasi baru untuk implementasi algoritma yang bertanggung jawab di ruang publik pada hari Rabu.Saran mereka diarahkan pada satuan tugas yang dibentuk oleh Dewan Kota New York pada bulan Januari yang mempelajari penggunaan kecerdasan buatan oleh pemerintah.

Laporan AI Now, Penilaian Dampak Algoritmik: Menuju Otomasi Akuntabel di Lembaga Publik, menguraikan kebutuhan akan transparansi dalam hal penggunaan algoritme. Algoritma memiliki dampak besar pada kehidupan kita sehari-hari, tetapi dampaknya terkadang tidak diperhatikan. Karena mereka dimasukkan ke infrastruktur media sosial dan platform video, misalnya, mudah untuk melupakan bahwa program sering menentukan konten apa yang didorong ke pengguna internet. Hanya ketika ada yang tidak beres, seperti video teori konspirasi mencapai bagian atas daftar tren YouTube, kami memeriksa prosedur keputusan otomatis yang membentuk pengalaman online.

Dan algoritma tidak terbatas pada platform internet. Institusi pemerintah menjadi semakin bergantung pada algoritma, dalam domain mulai dari pendidikan hingga peradilan pidana. Dalam dunia yang ideal, algoritma akan menghilangkan bias manusia dari keputusan sulit, seperti menentukan apakah narapidana harus diberikan pembebasan bersyarat atau tidak. Namun dalam praktiknya, algoritma hanya seefektif orang yang membuatnya.

Misalnya, investigasi oleh ProPublica menunjukkan bahwa algoritma penilaian risiko yang digunakan di ruang sidang bias rasial. Lebih buruk lagi, banyak algoritma yang digunakan di sektor publik dimiliki secara pribadi, dan beberapa perusahaan menolak untuk berbagi kode yang mendasari perangkat lunak mereka. Itu membuatnya tidak mungkin untuk memahami mengapa algoritma yang disebut "kotak hitam" ini mengembalikan hasil tertentu.

Salah satu solusi potensial yang ditawarkan oleh AI Now? Penilaian Dampak Algoritma. Evaluasi-evaluasi ini membentuk norma transparansi lengkap, yang berarti bahwa lembaga pemerintah yang menggunakan algoritma perlu mempublikasikan kapan dan bagaimana mereka menggunakannya. "Persyaratan ini dengan sendirinya akan jauh ke titik terang pada teknologi yang sedang digunakan untuk melayani publik, dan di mana penelitian akuntabilitas harus difokuskan," kata laporan itu.

Kebijakan keterbukaan seputar algoritma juga akan membuka pintu bagi warga negara untuk meneliti dan memprotes penggunaannya. Apakah Anda ingin algoritma yang memberi Anda skor penilaian risiko berdasarkan faktor di luar kendali Anda, terutama ketika skor itu dapat membantu menentukan apakah Anda masuk penjara? Mungkin ya mungkin tidak. Apa pun itu, penting untuk mengetahui secara pasti variabel apa yang sedang dianalisis oleh algoritma.

Selain itu, AI Now merekomendasikan pengaturan standar hukum bagi orang untuk melobi terhadap algoritma yang tidak adil.

Sebagai contoh, jika suatu agen gagal untuk mengungkapkan sistem yang masuk akal dalam ruang lingkup mereka yang membuat keputusan otomatis, atau jika itu memungkinkan vendor untuk membuat klaim rahasia dagang yang berlebihan dan dengan demikian memblokir akses sistem yang berarti, publik harus memiliki kesempatan untuk menyampaikan kekhawatiran dengan badan pengawas agensi, atau langsung di pengadilan jika agensi menolak untuk memperbaiki masalah ini setelah periode komentar publik.

Rekomendasi pada dasarnya bermuara pada satu mandat menyeluruh: Jika Anda menggunakan algoritma, jangan malu tentang hal itu.

Baca laporan lengkapnya di sini.

$config[ads_kvadrat] not found