Introduction AI
Robot, seperti halnya manusia, harus belajar kapan mengatakan "tidak". Jika suatu permintaan tidak mungkin, akan menyebabkan kerusakan, atau akan mengalihkan mereka dari tugas yang ada, maka itu demi kepentingan terbaik bot dan juga manusia. untuk diplomatik tidak, terima kasih untuk menjadi bagian dari percakapan.
Tetapi kapan mesin harus berbicara kembali? Dan dalam kondisi apa? Para insinyur sedang berusaha mencari cara untuk menanamkan rasa bagaimana dan kapan untuk menentang pesanan dalam humanoids.
Tonton robot Nao ini yang menolak untuk berjalan ke depan, mengetahui bahwa hal itu akan menyebabkannya jatuh dari tepi meja:
Hal-hal sederhana, tetapi tentu saja penting untuk bertindak sebagai pemeriksaan atas kesalahan manusia. Peneliti Gordon Briggs dan Matthias Scheutz dari Tufts University mengembangkan algoritma kompleks yang memungkinkan robot untuk mengevaluasi apa yang diminta manusia untuk dilakukan, memutuskan apakah ia harus melakukannya atau tidak, dan merespons dengan tepat. Penelitian ini dipresentasikan pada pertemuan baru-baru ini dari Asosiasi untuk Kemajuan Kecerdasan Buatan.
Robot bertanya pada dirinya sendiri serangkaian pertanyaan terkait dengan apakah tugas itu bisa dilakukan. Apakah saya tahu cara melakukannya? Apakah saya secara fisik dapat melakukannya sekarang? Apakah saya secara fisik dapat melakukannya? Apakah saya dapat melakukannya sekarang? Apakah saya diwajibkan berdasarkan peran sosial saya untuk melakukannya? Apakah itu melanggar prinsip normatif untuk melakukannya?
Hasilnya adalah robot yang tampaknya tidak hanya masuk akal tetapi, suatu hari, bahkan bijaksana.
Perhatikan bagaimana Nao berubah pikiran tentang berjalan maju setelah manusia berjanji untuk menangkapnya. Akan mudah membayangkan skenario yang berbeda, di mana robot berkata, "Tidak mungkin, mengapa saya harus percaya padamu?"
Tapi Nao adalah makhluk sosial, dengan desain. Untuk menyenangkan manusia ada di dalam DNA-nya, jadi karena diberi informasi bahwa manusia bermaksud menangkapnya, dia melangkah maju secara membabi buta ke jurang yang dalam. Tentu, jika manusia menipu kepercayaannya, dia akan di-hoop, tapi dia tetap percaya. Ini adalah cara Nao.
Ketika sahabat robot menjadi lebih canggih, insinyur robot harus bergulat dengan pertanyaan-pertanyaan ini. Robot harus membuat keputusan tidak hanya pada menjaga keselamatan mereka sendiri, tetapi pada pertanyaan etis yang lebih besar. Bagaimana jika manusia meminta robot untuk membunuh? Untuk melakukan penipuan? Untuk menghancurkan robot lain?
Gagasan etika mesin tidak dapat dipisahkan dari kecerdasan buatan - bahkan mobil tanpa pengemudi kami di masa depan harus direkayasa untuk membuat pilihan hidup atau mati atas nama kami. Percakapan itu tentu akan lebih kompleks daripada hanya mengirimkan pesanan berbaris.
Robot Hemat Pernikahan Ini Mempelajari Cara Merakit Furniture Ikea Anda
Tidak ada yang menginjakkan kaki di Ikea dan membayangkan bagaimana gaya kamar tidur Anda. Tetapi sebelum Anda menyadarinya, Anda dengan panik mencari sepotong kayu yang penting dan aneh yang Anda letakkan di antara lautan kotak. Untungnya, kedua lengan robot ini ada di sini untuk membantu.
Mantises Mengenakan Kacamata 3D Mungil Sehingga Manusia Bisa Mempelajari Cara Membantu Robot Melihat
Tambahkan ini ke daftar hal-hal yang Anda pikir tidak perlu Anda lihat sampai Anda benar-benar melihatnya: miniatur mantis goyang berdoa, kacamata 3D jadul. Sebuah tim peneliti dari Universitas Newcastle melengkapi serangga dengan kacamata kecil (lensa hijau dan biru yang dilekatkan dengan lilin lebah) untuk mempelajari apakah ...
Apakah Mempelajari Kode dan Mempelajari Bahasa Baru adalah Hal yang Sama?
Aplikasi baru Lrn punya waktu untuk vokal atau gimmick: Muat, dan Anda langsung terjun ke jantung tujuannya, yaitu untuk mengajarkan Anda kode. Nathan Bernard, yang menciptakan aplikasi Tinder-for-networking Coffee, meluncurkan Lrn pada akhir Juli dengan co-founder Chirag Jain dan Logan Bernard. Mereka tidak membutuhkan ...