Human Rights Watch: China Menggunakan Big Data untuk Menargetkan Kelompok Minoritas

$config[ads_kvadrat] not found

Human Rights Watch issues scathing report on China | DW News

Human Rights Watch issues scathing report on China | DW News
Anonim

Pemerintah Cina menggunakan algoritma kepolisian prediktif untuk menargetkan etnis minoritas di provinsi Xinjiang, menurut laporan Human Rights Watch yang dirilis Senin.

Provinsi di barat laut Cina itu adalah rumah bagi 11 juta Uyghur, kelompok etnis Muslim Turki yang telah didiskriminasi oleh pemerintah Cina dalam beberapa tahun terakhir.

Sekarang, pihak berwenang dilaporkan menggunakan data besar untuk secara sistematis menargetkan siapa saja yang dicurigai sebagai orang yang tidak loyal secara politik. Dorongan itu adalah bagian dari kampanye "Strike Hard", yang bertujuan meredam potensi aktivitas teroris di China. Dalam praktiknya, hal ini menyebabkan pemolisian Uyghur menjadi tidak proporsional, kata Human Rights Watch.

Sistem kepolisian prediktif, yang dikenal sebagai IJOP - Platform Operasi Gabungan Terpadu - diumpankan data dari berbagai alat pengawasan yang berbeda. Ini termasuk kamera CCTV, plat dan nomor kartu penduduk yang diperoleh dari pos pemeriksaan keamanan, dan segudang informasi pribadi, termasuk kesehatan, perbankan, dan catatan hukum.

Selain pengawasan otomatis, pejabat pemerintah melakukan kunjungan ke rumah untuk mengumpulkan data tentang populasi. Seorang pengusaha Cina berbagi formulir yang dia isi untuk catatan IJOP dengan Human Rights Watch - antara lain, kuesioner bertanya apakah pengusaha itu adalah Uyghur, seberapa sering dia berdoa, dan ke mana dia pergi untuk layanan keagamaan.

Semua input data ini digunakan oleh IJOP untuk menandai orang sebagai ancaman potensial. Ketika seseorang ditandai, polisi membuka penyelidikan lebih lanjut dan menahannya jika mereka dianggap mencurigakan.

“Untuk pertama kalinya, kami dapat menunjukkan bahwa penggunaan data besar dan kebijakan prediksi pemerintah China tidak hanya secara terang-terangan melanggar hak privasi, tetapi juga memungkinkan para pejabat untuk secara sewenang-wenang menahan orang,” kata peneliti senior Human Rights Watch Cina Maya Wang.

Menurut laporan itu, beberapa orang yang ditandai telah dikirim ke pusat-pusat pendidikan politik di mana mereka ditahan tanpa batas waktu tanpa pengadilan.

“Sejak sekitar April 2016, Human Rights Watch memperkirakan, otoritas Xinjiang telah mengirim puluhan ribu orang Uyghur dan etnis minoritas lainnya ke 'pusat pendidikan politik,'” kata laporan itu. IJOP memberikan kredibilitas untuk penahanan ini dengan menerapkan lapisan analisis objektif, algoritmik untuk penangkapan diskriminatif.

Lebih buruk lagi, pekerjaan batin IJOP diselimuti kerahasiaan.

"Orang-orang di Xinjiang tidak bisa menolak atau menentang pengawasan yang semakin mengganggu dari kehidupan sehari-hari mereka karena sebagian besar bahkan tidak tahu tentang program 'kotak hitam' ini atau bagaimana cara kerjanya," kata Wang.

Ini adalah masalah yang sama yang menimpa sebagian besar sistem pembelajaran mesin: prosedur keputusan yang mereka gunakan tidak jelas bahkan bagi pembuat algoritma.

Penggunaan IJOP di Cina layak untuk diperhatikan karena kepolisian yang diprediksi cenderung berkembang biak seiring dengan meningkatnya teknologi. Seperti yang ditunjukkan Jon Christian Garis Besar, sistem kepolisian prediktif sudah digunakan di beberapa tempat di Amerika Serikat. Departemen Kepolisian Los Angeles menggunakan perangkat lunak yang mengantisipasi di mana dan kapan kejahatan mungkin terjadi sehingga petugas dapat mencegahnya.

Di sisi lain dari sistem peradilan pidana, ruang sidang kadang-kadang menggunakan algoritma yang memberikan skor "penilaian risiko" pembebasan bersyarat untuk membantu hakim membuat keputusan yang lebih tepat. Sayangnya, algoritma yang seharusnya tidak bias ini sebenarnya mendiskriminasi berdasarkan ras.

Perampokan Cina ke kepolisian prediktif menggarisbawahi pentingnya implementasi algoritma yang bertanggung jawab karena pembelajaran mesin terus memasuki sektor publik. Mungkin sudah waktunya bagi pemerintah yang mengerti teknologi untuk mengadopsi mantra baru: Kadang-kadang kecerdasan buatan menciptakan lebih banyak masalah daripada memecahkannya.

$config[ads_kvadrat] not found