Speaker Cerdas Dapat Diretas oleh Suara, Katakan Peneliti Keluar untuk Menghentikannya

$config[ads_kvadrat] not found

Meningkatkan Akurasi Mikrofon dan Speaker Pintar di tengah Kebisingan

Meningkatkan Akurasi Mikrofon dan Speaker Pintar di tengah Kebisingan
Anonim

Bagaimana jika kami memberi tahu Anda bahwa seorang peretas dapat memberi perintah pada Amazon Echo Anda tanpa Anda sadari - atau bahkan harus melakukan peretasan seperti yang biasa kita pikirkan?

Moustafa Alzantot, seorang ilmuwan komputer Ph.D. Calon dari University of California, Los Angeles mengatakan secara teori dimungkinkan bagi aktor jahat mengirim suara atau sinyal tertentu yang biasanya tidak diperhatikan oleh manusia tetapi menyebabkan algoritma pembelajaran mendalam A.I terputus-putus.

“Salah satu contoh serangan akan mengendalikan perangkat rumah Anda, tanpa Anda tahu apa yang terjadi,” kata Alzantot Terbalik. "Jika Anda memutar musik di radio dan Anda memiliki Echo di kamar Anda. Jika aktor jahat dapat menyiarkan sinyal audio atau musik yang dibuat sedemikian rupa sehingga Echo akan menafsirkannya sebagai perintah, ini akan memungkinkan penyerang mengatakan, membuka kunci pintu, atau membeli sesuatu."

Ini adalah serangan yang dikenal sebagai contoh permusuhan, dan itulah yang ingin dihentikan oleh Alzantot dan seluruh timnya, seperti yang dijelaskan dalam makalah mereka yang baru-baru ini dipresentasikan pada lokakarya NIPS 2017 Machine Deception.

A.I. tidak berbeda dengan kecerdasan manusia yang menciptakannya di tempat pertama: ia memiliki kekurangannya. Peneliti ilmu komputer telah menemukan cara untuk benar-benar mengelabui sistem ini dengan sedikit mengubah piksel dalam foto atau menambahkan suara samar ke file audio. Tweak menit ini benar-benar tidak terdeteksi oleh manusia, tetapi sepenuhnya mengubah apa yang A.I. mendengar atau melihat.

“Algoritma Tesis ini dirancang untuk mencoba mengklasifikasikan apa yang dikatakan sehingga mereka dapat menindaklanjutinya,” Mani Srivastava, seorang ilmuwan komputer di UCLA, mengatakan Terbalik. “Kami mencoba untuk menumbangkan proses dengan memanipulasi input dengan cara yang didengar manusia di dekatnya 'tidak' tetapi mesin mendengar 'ya'. Jadi Anda bisa memaksa algoritme untuk menginterpretasikan perintah secara berbeda dari apa yang dikatakan."

Contoh-contoh permusuhan yang paling umum adalah yang berkaitan dengan algoritma klasifikasi gambar, atau men-tweak foto anjing sedikit demi sedikit untuk membuat A.I. pikir itu sesuatu yang sangat berbeda. Penelitian Alzantot dan Srivastava telah menunjukkan bahwa algoritma pengenalan ucapan juga rentan terhadap jenis serangan ini.

Di surat kabar, grup tersebut menggunakan sistem klasifikasi bicara standar yang ditemukan di perpustakaan open-source Google, TensorFlow. Sistem mereka ditugaskan untuk mengklasifikasikan perintah satu kata, sehingga akan mendengarkan file audio dan mencoba memberi label dengan kata yang dikatakan dalam file.

Mereka kemudian mengkodekan algoritma lain untuk mencoba dan menipu sistem TensorFlow menggunakan contoh-contoh permusuhan. Sistem ini mampu mengelabui klasifikasi bicara A.I. 87 persen dari waktu menggunakan apa yang dikenal sebagai serangan kotak hitam, di mana algoritme bahkan tidak harus tahu apa-apa tentang desain apa yang diserang.

"Ada dua cara untuk melakukan serangan semacam ini," jelas Srivastava. “Pertama adalah ketika, saya sebagai musuh mengetahui segala sesuatu tentang sistem penerima, jadi saya sekarang bisa membuat strategi untuk mengeksploitasi pengetahuan itu, ini adalah serangan kotak putih. Algoritma kami tidak perlu mengetahui arsitektur model korban, menjadikannya serangan kotak hitam. ”

Jelas serangan kotak hitam kurang efektif, tetapi mereka juga yang kemungkinan besar akan digunakan dalam serangan kehidupan nyata. Kelompok UCLA mampu mencapai tingkat keberhasilan yang tinggi sebesar 87 persen bahkan ketika mereka tidak menyesuaikan serangan mereka untuk mengeksploitasi kelemahan dalam model mereka. Serangan kotak putih akan lebih efektif dalam mengacaukan jenis A.I. Namun, asisten virtual seperti Amazon Alexa bukan satu-satunya hal yang dapat dieksploitasi dengan menggunakan contoh-contoh permusuhan.

"Mesin yang mengandalkan membuat semacam inferensi dari suara bisa dibodohi," kata Srivastava. "Jelas, Amazon Echo dan semacamnya adalah salah satu contohnya, tetapi ada banyak hal lain di mana suara digunakan untuk membuat kesimpulan tentang dunia. Anda memiliki sensor yang terhubung ke sistem alarm yang menghasilkan suara."

Kesadaran bahwa sistem kecerdasan buatan yang menggunakan isyarat audio juga rentan terhadap contoh-contoh permusuhan adalah langkah lebih lanjut dalam menyadari betapa kuatnya serangan-serangan ini. Sementara kelompok itu tidak dapat melakukan serangan yang disiarkan seperti yang dijelaskan Alzantot, pekerjaan mereka di masa depan akan berkisar pada melihat seberapa layaknya itu.

Sementara penelitian ini hanya menguji perintah suara terbatas dan bentuk serangan, itu menyoroti kemungkinan yang mulia di sebagian besar teknologi konsumen. Ini bertindak sebagai batu loncatan untuk penelitian lebih lanjut dalam bertahan melawan contoh-contoh permusuhan dan mengajar A.I. bagaimana membedakan mereka.

$config[ads_kvadrat] not found