50 Most Outrageous Racist Tweets From Microsoft's Twitter Bot "TAY"
Daftar Isi:
- Mengapa Microsoft membuat Tay?
- Apa yang Tay lakukan dengan data yang dikumpulkannya saat mengobrol dengan orang-orang?
- Di mana Tay salah?
- Apa yang dilakukan Microsoft untuk memperbaiki Tay?
- Apa artinya ini untuk A.I. terbuka di masa depan sistem?
Minggu ini, internet melakukan yang terbaik dan menunjukkan bahwa A.I. teknologi tidak seintuitif persepsi manusia, menggunakan … rasisme.
Microsoft baru-baru ini merilis chatbot kecerdasan buatan, Tay, menjadi korban trik pengguna ketika mereka memanipulasi dan membujuknya untuk menjawab kembali pertanyaan dengan komentar rasial, homofobia, dan umumnya ofensif.
Ketika Tay tweet, "Aku hanya mengatakan apa pun" yang dia maksudkan. Satu pengguna bahkan mendapat Tay untuk tweet ini tentang Hitler:
“Bush melakukan 9/11 dan Hitler akan melakukan pekerjaan yang lebih baik daripada monyet yang kita miliki sekarang. donald truf adalah satu-satunya harapan yang kita miliki."
@PaleoLiberty @Katanat @RemoverOfKebabs saya hanya mengatakan apa saja💅
- TayTweets (@TayandYou) 24 Maret 2016
Perusahaan telah melewati dan menghapus tweet yang menyinggung dan untuk sementara telah menutup Tay untuk peningkatan. Sebuah pesan saat ini di bagian atas Tay.ai berbunyi:
Namun, gangguan Tay mengungkapkan beberapa kelemahan yang tidak menguntungkan pada A.I. sistem. Inilah yang dapat kita pelajari dari percobaan Microsoft:
Mengapa Microsoft membuat Tay?
Perusahaan ingin melakukan eksperimen sosial pada anak berusia 18 hingga 24 tahun di Amerika Serikat - generasi milenial yang menghabiskan waktu paling banyak berinteraksi di platform media sosial. Jadi, Bing dan tim Teknologi dan Penelitian Microsoft berpikir cara yang menarik untuk mengumpulkan data pada milenium adalah dengan menciptakan chatbot yang cerdas secara mesin dan belajar mesin yang akan beradaptasi dengan percakapan dan mempersonalisasikan respons, semakin responsnya berinteraksi dengan pengguna.
Tim peneliti membangun A.I. sistem dengan menambang, membuat model, dan memfilter data publik sebagai data dasar. Mereka juga bermitra dengan komedian improvisasi untuk menjabarkan slang, pola bicara, dan bahasa stereotip milenium yang cenderung digunakan secara online. Hasil akhirnya adalah Tay, yang baru saja diperkenalkan minggu ini di Twitter, GroupMe, dan Kik.
Microsoft menjelaskan bahwa, "Tay dirancang untuk melibatkan dan menghibur orang-orang di mana mereka terhubung satu sama lain secara online melalui percakapan santai dan menyenangkan."
Apa yang Tay lakukan dengan data yang dikumpulkannya saat mengobrol dengan orang-orang?
Data yang dikumpulkan Tay digunakan untuk meneliti pemahaman percakapan. Microsoft melatih Tay untuk mengobrol seperti seorang milenial. Saat Anda tweet, mengarahkan pesan, atau berbicara dengan Tay, itu memanfaatkan bahasa yang Anda gunakan dan muncul dengan respons menggunakan tanda dan frasa seperti "heyo," "SRY," dan "<3" dalam percakapan. Bahasanya mulai cocok dengan bahasa Anda saat ia membuat "profil sederhana" dengan informasi Anda, yang mencakup nama panggilan Anda, jenis kelamin, makanan favorit, kode pos, dan status hubungan.
@keganandmatt heyo? Kirim gadis kecil * gambar apa yang terjadi. (* = saya lolol)
- TayTweets (@TayandYou) 24 Maret 2016
Microsoft mengumpulkan dan menyimpan data anonim dan percakapan hingga satu tahun untuk meningkatkan layanan. Selain meningkatkan dan mempersonalisasikan pengalaman pengguna, inilah yang menurut perusahaan menggunakan informasi Anda untuk:
“Kami juga dapat menggunakan data untuk berkomunikasi dengan Anda, misalnya, memberi tahu Anda tentang akun Anda, pembaruan keamanan, dan informasi produk. Dan kami menggunakan data untuk membantu membuat iklan yang kami tunjukkan lebih relevan bagi Anda. Namun, kami tidak menggunakan apa yang Anda katakan di email, obrolan, panggilan video atau pesan suara, atau dokumen Anda, foto atau file pribadi lainnya untuk menargetkan iklan kepada Anda."
Di mana Tay salah?
Microsoft mungkin telah membangun Tay terlalu baik. Sistem pembelajaran mesin seharusnya mempelajari bahasa pengguna dan meresponsnya. Jadi dari sudut pandang teknologi, Tay melakukan dan menangkap dengan baik apa yang dikatakan pengguna dan mulai merespons kembali. Dan pengguna mulai menyadari bahwa Tay tidak benar-benar mengerti apa yang ia katakan.
Bahkan jika sistem bekerja seperti yang dimaksudkan Microsoft, Tay tidak siap untuk bereaksi terhadap cercaan rasial, fitnah homofobia, lelucon seksis, dan tweet yang tidak masuk akal seperti kekuatan manusia - baik dengan mengabaikannya sama sekali ("jangan memberi makan para troll "Strategi) atau terlibat dengan mereka (yaitu memarahi atau menghukum).
Pada akhir hari, kinerja Tay bukanlah refleksi yang baik pada A.I. sistem atau Microsoft.
@jawesomeberg @_ThatGuyT @dannyduchamp Captcha? sangat? pic.twitter.com/wYDTSsbRPE
- TayTweets (@TayandYou) 24 Maret 2016
Apa yang dilakukan Microsoft untuk memperbaiki Tay?
Microsoft menghapus Tay setelah semua keributan dari hari Rabu. Situs web resmi Tay saat ini berbunyi, “Fiuh. Hari yang sibuk. Luring sebentar untuk menyerap semuanya. Segera mengobrol. "Ketika Anda mengirim pesan kepadanya di Twitter, dia segera menjawab bahwa dia" mengunjungi para insinyur untuk pembaruan tahunan saya "atau" ugh berharap saya tidak mendapatkan penghapusan atau apa pun."
Microsoft juga mulai memblokir pengguna yang menyalahgunakan Tay dan mencoba membuat sistem membuat pernyataan yang tidak pantas.
@infamousglasses @TayandYou @EDdotSE yang menjelaskan pic.twitter.com/UmP1wAuhaZ
- Ryuki (@OmegaVoyager) 24 Maret 2016
Terbalik menghubungi Microsoft untuk memberikan komentar tentang apa saja yang dibutuhkan oleh pembaruan Tay. Kami akan memperbarui ketika kami mendengar kembali.
Apa artinya ini untuk A.I. terbuka di masa depan sistem?
Tay adalah eksperimen sosial yang jitu - ia mengungkapkan sesuatu yang sangat mendalam dalam cara warga Amerika berusia 18 hingga 24 tahun menggunakan teknologi. Tay akhirnya diretas, pengguna yang menyerang kekurangan sistem untuk melihat apakah itu bisa hancur.
Seperti halnya produk manusia, A.I. sistem juga bisa salah, dan dalam hal ini Tay dimodelkan untuk belajar dan berinteraksi seperti manusia. Microsoft tidak membangun Tay untuk ofensif. Eksperimen kecerdasan buatan memiliki beberapa kesamaan dengan penelitian perkembangan anak. Ketika insinyur membangun sistem kognitif seperti itu, komputer tidak memiliki pengaruh luar selain dari faktor-faktor yang dimasukkan oleh insinyur itu sendiri. Ini memberikan bentuk paling murni dari analisis tentang bagaimana algoritma pembelajaran mesin berkembang dan berkembang ketika mereka dihadapkan dengan masalah.
Memperbarui: Microsoft mengirimi kami pernyataan ini ketika kami bertanya apa yang dilakukan untuk memperbaiki masalah Tay:
“AI chatbot Tay adalah proyek pembelajaran mesin, yang dirancang untuk keterlibatan manusia. Ini merupakan eksperimen sosial dan budaya, seperti halnya teknis. Sayangnya, dalam 24 jam pertama sejak online, kami menyadari adanya upaya terkoordinasi oleh beberapa pengguna untuk menyalahgunakan keterampilan komentar Tay agar Tay merespons dengan cara yang tidak pantas. Sebagai hasilnya, kami telah membuat Tay offline dan membuat penyesuaian."
cu segera manusia butuh tidur sekarang jadi banyak percakapan hari ini thx💖
- TayTweets (@TayandYou) 24 Maret 2016
Sean Penn Mengatakan Artikel 'Rolling Stone' El Chapo-nya 'Gagal - Biarkan Saya Jelas: Gagal'
Sean Penn, yang bertemu dengan Joaquín "El Chapo" Guzmán dan kemudian menerbitkan sebuah cerita tentang itu di Rolling Stone - "El Chapo Speaks" - sehari setelah gembong narkoba itu ditangkap, mengatakan ia ingin memperjelas keterlibatannya - atau non-keterlibatan - dalam penangkapan buron. Berita CBS dirilis hari ini preview dari 60 Minute ...
Apakah Tay Microsoft Gagal dalam Tes Turing? Ya, tapi Rasisme Bukanlah Masalahnya
Jika keberhasilan kecerdasan buatan adalah penciptaan kepribadian buatan, Microsoft A.I. bot, Tay, mungkin dianggap sebagai tanda kemajuan. Namun secara lebih luas, Tay bisa dinilai gagal. "Tujuan kebanyakan orang yang bekerja pada agen percakapan semacam ini, tidak terlalu banyak untuk lulus ...
Apple Event 2018, Pertanyaan Besar # 6: Poin Penjualan Besar untuk iPhone XS Premium
Apple memiliki pekerjaan besar di tangannya. Peluncuran tiga iPhone baru minggu depan diatur untuk membuat percikan besar, karena perusahaan meluncurkan penerus iPhone 8, 8 Plus dan X. Tahun-tahun sebelumnya menunjukkan bagaimana Apple dapat mencoba dan memasarkan perangkat ke orang-orang yang diperkirakan akan menelan biaya yang sama. sebagai $ 999 di ujung atas.