Kemajuan Cepat A.I. Harus Menakutkan Jika Anda Membayar Perhatian

$config[ads_kvadrat] not found

(Sesi 4) AGILE ENTERPRISE

(Sesi 4) AGILE ENTERPRISE
Anonim

Ketika datang untuk mengidentifikasi ancaman eksistensial yang ditimbulkan oleh inovasi teknologi, imajinasi populer memanggil visi Terminator, Matriks, dan Saya robot - Dystopias diperintah oleh tuan robot yang mengeksploitasi dan memusnahkan orang secara massal. Dalam masa depan spekulatif ini, kombinasi antara kecerdasan super dan niat jahat membuat komputer memusnahkan atau memperbudak umat manusia.

Namun, sebuah studi baru menunjukkan bahwa itu akan menjadi aplikasi dangkal A.I. yang akan mengakibatkan konsekuensi sosial yang parah dalam beberapa tahun mendatang. Laporan - "Penggunaan Berbahaya dari Kecerdasan Buatan" - ditulis oleh 26 peneliti dan ilmuwan dari universitas elit dan think tank yang berfokus pada teknologi, menguraikan cara-cara yang saat ini dilakukan oleh A.I. teknologi mengancam keamanan fisik, digital, dan politik kita. Untuk menjadikan studi mereka sebagai fokus, kelompok riset hanya melihat teknologi yang sudah ada atau masuk akal dalam lima tahun ke depan.

Apa yang ditemukan dalam penelitian ini: A.I. sistem kemungkinan akan memperluas ancaman yang ada, memperkenalkan yang baru dan mengubah karakternya. Tesis laporan ini adalah bahwa kemajuan teknologi akan membuat kesalahan tertentu lebih mudah dan lebih berharga. Para peneliti mengklaim bahwa peningkatan pada A.I. akan mengurangi jumlah sumber daya dan keahlian yang diperlukan untuk melakukan beberapa serangan dunia maya, yang secara efektif menurunkan hambatan terhadap kejahatan:

Biaya serangan dapat dikurangi dengan penggunaan sistem AI yang dapat diskalakan untuk menyelesaikan tugas-tugas yang biasanya membutuhkan tenaga manusia, kecerdasan, dan keahlian. Efek alami akan memperluas set aktor yang dapat melakukan serangan tertentu, tingkat di mana mereka dapat melakukan serangan ini, dan set target potensial.

Laporan ini membuat empat rekomendasi:

1 - Pembuat kebijakan harus berkolaborasi erat dengan peneliti teknis untuk menyelidiki, mencegah, dan mengurangi potensi penggunaan AI yang berbahaya.

2 - Para peneliti dan insinyur dalam kecerdasan buatan harus memperhatikan sifat penggunaan ganda dari pekerjaan mereka dengan serius, memungkinkan pertimbangan salah-pengguna untuk mempengaruhi prioritas dan norma penelitian, dan secara proaktif menjangkau aktor-aktor yang relevan ketika aplikasi berbahaya dapat diprediksi.

3 - Praktik terbaik harus diidentifikasi di daerah penelitian dengan metode yang lebih matang untuk mengatasi masalah penggunaan ganda, seperti keamanan komputer, dan diimpor jika berlaku untuk kasus AI.

4 - Secara aktif berupaya memperluas jangkauan pemangku kepentingan dan pakar domain yang terlibat dalam diskusi tentang tantangan ini

Bagaimana A.I. dapat membuat penipuan saat ini lebih pintar: contohnya, serangan phishing tombak, di mana penipu berperan sebagai teman, anggota keluarga, atau kolega target untuk mendapatkan kepercayaan dan mendapatkan informasi dan uang, sudah merupakan ancaman. Tetapi hari ini, mereka membutuhkan pengeluaran waktu, energi, dan keahlian yang signifikan. Sebagai A.I. peningkatan sistem dalam kecanggihan, beberapa aktivitas yang diperlukan untuk serangan phishing tombak, seperti mengumpulkan informasi tentang target, dapat dilakukan secara otomatis. Seorang phisher kemudian dapat menginvestasikan lebih sedikit energi secara signifikan dalam setiap grift dan menargetkan lebih banyak orang.

Dan jika scammers mulai mengintegrasikan A.I. dalam grifts online mereka, mungkin menjadi tidak mungkin untuk membedakan kenyataan dari simulasi. "Seiring dengan perkembangan AI, obrolan meyakinkan dapat memperoleh kepercayaan manusia dengan melibatkan orang dalam dialog yang lebih lama, dan mungkin pada akhirnya menyamar secara visual sebagai orang lain dalam obrolan video," kata laporan itu.

Kami sudah melihat konsekuensi video yang dihasilkan mesin dalam bentuk Deepfakes. Ketika teknologi ini menjadi lebih mudah diakses dan ramah pengguna, para peneliti khawatir bahwa aktor jahat akan menyebarkan foto, video, dan file audio yang dibuat-buat. Ini dapat menghasilkan kampanye pencemaran nama baik yang sangat sukses dengan konsekuensi politik.

Di luar keyboard: Dan potensi penyimpangan tidak terbatas pada internet. Ketika kita bergerak ke arah adopsi kendaraan otonom, peretas mungkin menggunakan contoh-contoh permusuhan untuk mengelabui mobil yang menyetir sendiri sehingga salah memahami lingkungan mereka. “Gambar tanda berhenti dengan beberapa piksel berubah dengan cara tertentu, yang oleh manusia akan mudah dikenali sebagai gambar tanda berhenti, namun mungkin dapat diklasifikasikan sebagai sesuatu yang lain sepenuhnya oleh sistem AI,” kata laporan itu.

Ancaman lain termasuk drone otonom dengan perangkat lunak pengenalan wajah terintegrasi untuk tujuan penargetan, serangan DOS terkoordinasi yang meniru perilaku manusia, dan kampanye disinformasi hyper-personalized yang otomatis.

Laporan ini merekomendasikan agar para peneliti mempertimbangkan potensi aplikasi berbahaya dari A.I. sambil mengembangkan teknologi ini. Jika langkah-langkah pertahanan yang memadai tidak dilakukan, maka kita mungkin sudah memiliki teknologi untuk menghancurkan umat manusia, tidak ada robot pembunuh yang diperlukan.

$config[ads_kvadrat] not found