Gambar Piksel adalah Tidak Cocok untuk Pengenalan Wajah Cornell Tech A.I.

$config[ads_kvadrat] not found

MENGIDENTIFIKASI PENYAKIT LEWAT RAUT WAJAH

MENGIDENTIFIKASI PENYAKIT LEWAT RAUT WAJAH
Anonim

Tiga peneliti di Cornell Tech di New York City telah menemukan bahwa gambar yang kabur dan pixelated tidak cocok untuk kecerdasan buatan. Meskipun gambar yang dikaburkan tetap tidak dapat dipahami oleh mata manusia, dan tampaknya melindungi konten sensitif mereka, jaringan saraf seringkali dapat mengetahui dengan tepat siapa yang ada dalam gambar asli.

Dengan kata lain, manusia bukan lagi tes lakmus. Kita tidak bisa lagi bertanya apakah sesuatu mengalahkan semua otak manusia. A.I.s - bahkan A.I.s sederhana - dapat mengungguli manusia, jadi mengalahkan mereka juga harus selalu menjadi bagian dari persamaan.

Penelitian para peneliti Cornell Tech berfokus pada pengujian algoritma pelestarian privasi, yang mengaburkan atau menggandakan informasi atau bagian gambar tertentu. Sebelumnya, kami mempercayai perangkat lunak pelestarian privasi atau algoritme secara implisit, memperkirakan bahwa informasi yang mereka sembunyikan aman karena tidak ada manusia bisa tahu siapa yang ada di balik kerudung digital. Studi ini menunjukkan bahwa era itu sudah berakhir, dan metode anonimisasi terkait juga tidak akan bertahan lama. Jaringan saraf, bertemu dengan langkah-langkah privasi ini, tidak terpengaruh.

Richard McPherson adalah Ph.D. kandidat dalam ilmu komputer di University of Texas, Austin, yang mengikuti profesornya, Vitaly Shmatikov, ke Cornell Tech. Bersama-sama, bersama dengan Reza Shokri, mereka menunjukkan bahwa jaringan saraf sederhana dapat membuka kedok teknik pengaburan citra yang umum. Teknik ini relatif tidak canggih, yang membuat penemuan lebih mengkhawatirkan: Ini adalah metode umum yang dapat diakses, dan mereka mampu mengalahkan norma-norma industri untuk kebingungan.

Jaringan saraf adalah struktur node yang besar dan berlapis, atau neuron buatan, yang meniru struktur dasar otak. Mereka "didasarkan pada pemahaman yang disederhanakan tentang bagaimana neuron bekerja," kata McPherson Terbalik. "Berikan beberapa masukan, dan neuron itu akan menyala atau tidak mau menyala."

Mereka juga mampu "belajar," dengan definisi kasar dari istilah tersebut. Jika Anda menunjukkan sesuatu yang manusiawi (benar-benar tidak berpendidikan) "merah," dan katakan kepada mereka untuk memilih semua benda "merah" dari ember, mereka pada awalnya akan berjuang tetapi meningkat seiring waktu. Begitu juga dengan jaringan saraf. Pembelajaran mesin hanya berarti mengajar komputer untuk memilih hal-hal "merah", misalnya, dari seember virtual hal-hal yang beraneka ragam.

Begitulah cara McPherson dan perusahaan melatih jaringan saraf mereka. "Dalam sistem kami, kami membuat model - arsitektur jaringan saraf, satu set terstruktur neuron buatan ini - dan kemudian kami memberi mereka sejumlah besar gambar yang dikaburkan," katanya. "Misalnya, kita bisa memberi mereka seratus gambar berbeda dari Carol yang telah di-pixelated, kemudian seratus gambar yang berbeda dari Bob yang telah di-pixelated."

Para peneliti kemudian memberi label gambar-gambar pixelated ini, dan dengan demikian memberi tahu model siapa di setiap gambar. Setelah memproses kumpulan data ini, jaringan secara fungsional tahu seperti apa Pixelated Bob dan Pixelated Carol. "Kita kemudian dapat memberikannya gambar pixel atau Bob yang berbeda, tanpa label," McPherson menjelaskan, "dan itu dapat membuat tebakan dan berkata," Saya pikir ini Bob dengan akurasi 95 persen."

Model ini tidak merekonstruksi gambar yang dikaburkan, tetapi fakta bahwa ia mampu mengalahkan metode anonimisasi yang paling umum dan sebelumnya paling dapat diandalkan membingungkan dalam dan dari dirinya sendiri. "Mereka dapat mengetahui apa yang dikaburkan, tetapi mereka tidak tahu seperti apa bentuk aslinya," kata McPherson.

Tetapi jaringan saraf masih mampu melakukan sejauh ini lebih baik daripada manusia. Ketika gambar paling dikaburkan menggunakan satu teknik standar industri, sistem itu masih lebih dari 50 persen akurat. Untuk gambar yang sedikit kurang jelas, sistem terbukti luar biasa, dengan akurasi sekitar 70 persen. Norma YouTube untuk wajah buram benar-benar gagal; bahkan gambar yang paling kabur dikalahkan oleh jaringan saraf, yang terbukti 96 persen akurat.

Teknik anonimisasi data, teks, dan gambar yang sebelumnya tidak ternodai juga tidak dapat diandalkan. "Ada pekerjaan selama musim panas yang melihat teks anonim menggunakan pixelation dan blur, dan menunjukkan bahwa mereka dapat rusak juga," kata McPherson. Dan metode yang pernah dipercaya lainnya mungkin juga akan keluar dari pintu. Meskipun dia tidak tahu seluk beluk teknik pengabaian suara, seperti yang digunakan untuk wawancara TV anonim, dia “tidak akan terkejut” jika jaringan saraf dapat memutus anonimisasi.

Penemuan McPherson, kemudian, membuktikan bahwa "metode pelestarian privasi yang kami miliki di masa lalu tidak benar-benar cocok, terutama dengan teknik pembelajaran mesin modern." Dengan kata lain, kami mengkodekan diri kami menjadi tidak relevan, melatih mesin untuk mengalahkan kami di semua bidang.

"Ketika kekuatan pembelajaran mesin tumbuh, pengorbanan ini akan bergeser mendukung musuh," tulis para peneliti.

$config[ads_kvadrat] not found