Musk, Wozniak, Hawking, Geniuses Lainnya Menentang Senjata Otonom

$config[ads_kvadrat] not found

The Big Bang Theory- Leonard meets Bill Gates .

The Big Bang Theory- Leonard meets Bill Gates .
Anonim

Selama beberapa dekade, AK-47 telah menjadi mesin pembunuh pilihan di banyak penjuru dunia yang berdebu karena harganya murah, tahan lama, dan ada di mana-mana. Faktor-faktor yang sama, kata penandatangan surat terbuka yang dirilis Senin dari Future of Life Institute, adalah alasan senjata otonom penuh bahaya. Tetapi yang membedakan persenjataan intelijen buatan dari Kalashnikov adalah bahwa mesin otonom dapat "memilih dan melibatkan target tanpa campur tangan manusia" - yang, di tangan yang salah, dapat melakukan kekejaman yang jauh lebih besar daripada senapan yang tidak dihitung.

Para penandatangan memiliki pekerjaan yang sesuai untuk mereka. Sebagai manusia, kita, secara keseluruhan, jauh lebih baik dalam bereaksi daripada berpikir. Pemain-pemain besar lambat dalam menurunkan senjata nuklir kita (dan membangun drone otonom, menurut pemikiran itu, akan membutuhkan sebagian kecil dari mesin yang digunakan untuk menciptakan nuklir); di tempat lain, ranjau darat masih menjadi titik medan perang puluhan tahun. Ketika teknologi berdiri untuk merevolusi peperangan - baik itu bubuk mesiu atau dreadnoughts laut atau uranium yang diperkaya - hampir tidak pernah ada tidak menjadi perlombaan senjata.

FLI membuat perbedaan antara drone yang kita miliki sekarang, diemudikan dari jarak jauh oleh tangan manusia, dan sebuah robot dinyalakan dan dibiarkan dengan alat pembunuh sendiri. Penciptaan yang terakhir akan memicu perlombaan senjata AI global yang diperdebatkan FLI, dan seperti yang diperlihatkan oleh sejarah Kalashnikov, tidak akan berakhir dengan baik:

Hanya akan menjadi masalah waktu sampai mereka muncul di pasar gelap dan di tangan teroris, diktator yang ingin mengendalikan populasi mereka dengan lebih baik, panglima perang yang ingin melakukan pembersihan etnis, dll. Senjata otonom sangat ideal untuk tugas-tugas seperti pembunuhan, destabilisasi negara, menundukkan populasi dan secara selektif membunuh kelompok etnis tertentu. Karena itu kami percaya bahwa perlombaan senjata AI militer tidak akan bermanfaat bagi kemanusiaan. Ada banyak cara di mana AI dapat membuat medan perang lebih aman bagi manusia, terutama warga sipil, tanpa menciptakan alat baru untuk membunuh orang.

Ini omong kosong. Dan nama-nama di balik peringatan ini bukan crackpot Skynet Anda yang biasa - mereka adalah pencipta, insinyur, ilmuwan, dan filsuf yang telah membantu membentuk seperti apa teknologi kami saat ini. Sepotong nama termasuk: Steve Wozniak dari Apple, Jaan Tallinn dari Skype, fisikawan Harvard Lisa Randall, siapa yang menjadi peneliti dan ahli robotika AI - termasuk Stuart Russell, Barbara J. Grosz, Tom Mitchell, Eric Horvitz - aktris Talulah Riley, Noam Chomsky, Stephen Hawking.

Hawking agak sedikit pesimis akhir-akhir ini, juga mengulangi prediksi tentang bahaya menghadapi kehidupan di luar bumi. Dia juga akan menjawab pertanyaan tentang surat ini dan masa depan teknologi di Reddit minggu ini - kita mungkin tidak dapat mengendalikan alien yang bermusuhan, tetapi kita dapat menempatkan "tanggung jawab pada para ilmuwan di garis depan teknologi ini untuk menjaga faktor manusia." depan dan pusat inovasi mereka."

Anda dapat menambahkan nama Anda ke surat itu juga.

$config[ads_kvadrat] not found