Apple iPhone X Tidak Dapat Mengisahkan Wajah Cina, Pengembalian Dana Diberikan

$config[ads_kvadrat] not found

iOS 14.2 Rilis! Fitur baru yang harus kamu Ketahui!

iOS 14.2 Rilis! Fitur baru yang harus kamu Ketahui!
Anonim

Pekan lalu, di Nanjing, sebuah kota besar di Cina timur, seorang wanita bernama Yan dua kali ditawari pengembalian uang dari Apple karena iPhoneXnya yang rusak, yang dibuka oleh rekannya menggunakan teknologi pengenalan wajah. Kedua wanita tersebut adalah etnis Tionghoa.

Yan mengatakan kepada berita lokal bahwa pertama kali ini terjadi, dia menelepon hotline iPhone, tetapi mereka tidak mempercayainya. Itu tidak sampai dia dan rekannya pergi ke toko Apple lokal dan menunjukkan kepada staf toko bahwa mereka menawarkan pengembalian uang dan dia membeli telepon baru, berpikir bahwa mungkin kamera yang salah yang harus disalahkan.

Tetapi ponsel kedua memiliki masalah yang sama, menunjukkan bahwa itu bukan kamera yang salah, seperti yang disarankan pekerja toko, tetapi masalah dengan perangkat lunak itu sendiri.

Ini bukan kasus pertama di mana perangkat lunak pengenal wajah, dan AI di belakangnya, mengalami kesulitan mengenali wajah yang tidak putih.

Pada 2015, Foto Google secara tidak sengaja menandai foto dua orang Afrika-Amerika sebagai gorila, sementara pada 2009, komputer HP http://www.youtube.com/watch?v=t4DT3tQqgRM) mengalami kesulitan mengenali dan melacak wajah hitam - tetapi tidak ada masalah dengan wajah putih. Pada tahun yang sama, perangkat lunak kamera Nikon ketahuan melabeli wajah orang Asia.

Foto Google, kalian semua kacau. Teman saya bukan gorila. pic.twitter.com/SMkMCsNVX4

- Jacky (@jackyalcine) 29 Juni 2015

"Ini pada dasarnya masalah data," tulis Kate Crawford, peneliti utama di Microsoft dan wakil ketua Simposium Gedung Putih Obama tentang Masyarakat dan A.I. “Algoritma belajar dengan diberi makan gambar-gambar tertentu, sering dipilih oleh para insinyur, dan sistem membangun model dunia berdasarkan gambar-gambar itu. Jika suatu sistem dilatih pada foto orang-orang yang sangat berkulit putih, ia akan lebih sulit mengenali wajah yang bukan putih."

Jacky Alcine, programmer yang berbasis di Brooklyn yang fotonya salah label oleh Google, setuju. Dari pengalamannya ia berkata, "Ini bisa dihindari dengan klasifikasi orang kulit hitam yang akurat dan lebih lengkap."

Tetapi rasisme yang dikodekan ke dalam AI, bahkan jika itu tidak disengaja, memiliki implikasi lebih dari sekedar pengenalan wajah.

Investigasi ProPublica pada tahun 2016 menemukan bahwa penjahat kulit hitam dua kali lebih mungkin salah ditandai sebagai kemungkinan untuk kembali melakukan kejahatan daripada penjahat kulit putih, sementara tren "kepolisian prediktif" yang berkembang menggunakan algoritma untuk meramalkan kejahatan dan mengarahkan sumber daya polisi yang sesuai.

Namun komunitas minoritas secara historis terlalu ketat, mengarah pada kemungkinan bahwa "perangkat lunak ini berisiko melanggengkan siklus yang sudah ganas," kata Crawford.

Kembali di Nanjing, Cina, Yan menerima pengembalian uang kedua pada iPhoneX keduanya. Dari laporan berita lokal, tidak jelas apakah dia kemudian membeli yang ketiga.

Apa yang dipertaruhkan, kali ini, mungkin hanya menjadi konsumen tunggal. Tetapi kasus Yan adalah contoh dari kebutuhan berkelanjutan untuk industri teknologi untuk merancang dengan keragaman dan inklusifitas dalam pikiran.

$config[ads_kvadrat] not found