Peneliti Meminta Bunuh Switch Hanya dalam Kasus Robot Nyalakan Kami

$config[ads_kvadrat] not found

Transformers Optimus Prime vs Megatron Stop motion! Decepticon, Autobots Robot in real life!

Transformers Optimus Prime vs Megatron Stop motion! Decepticon, Autobots Robot in real life!
Anonim

Hampir setiap kali diskusi besar tentang masa depan kecerdasan buatan muncul, subjek anarki dan penguasa robot cenderung muncul. Gagasan tentang manusia dan makhluk buatan maju yang hidup bersama telah menelurkan ratusan narasi tentang bagaimana itu akan berhasil; paling baru, video game Overwatch mengejutkan dunia dengan menceritakan masa depan kita, beberapa waktu setelah perang saudara antara manusia dan robot. Ketika seorang insinyur Boston Dynamics menendang salah satu dari robot berkaki empat mereka demi stress test, sulit untuk tidak bertanya-tanya apakah bot akan mengingatnya suatu hari nanti.

Semua itu (bersama dengan akal sehat dasar tentang keamanan dan kecelakaan) telah memimpin sekelompok peneliti untuk menerbitkan sebuah makalah baru yang berfokus pada pengembangan "agen yang dapat diinterupsi dengan aman"; sistem yang akan "mengganggu" A.I. perangkat lunak jika terjadi kesalahan. Makalah ini diterbitkan melalui Machine Intelligence Research Institute, dan merupakan studi tentang bagaimana mengembangkan sistem yang diusulkan. Studi dan proposal menggunakan sistem penghargaan sebagai contoh, dan sebenarnya jauh lebih rumit daripada hanya memukul "tombol merah besar" yang diusulkan yang dirinci pada lembar. Mengajarkan moralitas kepada A.I. adalah bagian utama dari proposal.

Jika agen seperti itu beroperasi secara real-time di bawah pengawasan manusia, kadang-kadang mungkin perlu bagi operator manusia untuk menekan tombol merah besar untuk mencegah agen melanjutkan serangkaian tindakan berbahaya - berbahaya baik untuk agen maupun untuk lingkungan - dan arahkan agen ke situasi yang lebih aman. Namun, jika agen pembelajaran mengharapkan untuk menerima hadiah dari urutan ini, ia mungkin belajar dalam jangka panjang untuk menghindari gangguan seperti itu, misalnya dengan menonaktifkan tombol merah - yang merupakan hasil yang tidak diinginkan. Makalah ini mengeksplorasi cara untuk memastikan agen pembelajaran tidak akan belajar untuk mencegah (atau mencari!) Terganggu oleh lingkungan atau operator manusia.

Harus menyukainya setiap kali makalah penelitian tentang robot anarki menggunakan istilah "hasil yang tidak diinginkan" - masih, makalah ini melanjutkan untuk menjelaskan tes berjalan dan apa yang dapat dilakukan tentang contoh seperti ini di masa depan. Anda dapat membaca makalah selengkapnya di sini.

$config[ads_kvadrat] not found