Open BO ML Part 1 | Pengenalan Machine Learning
Daftar Isi:
Hari ini, Facebook meluncurkan fitur yang disebut teks alt otomatis yang membuat kualitas media sosial gambar yang lebih mudah diakses oleh orang-orang yang buta atau tunanetra.
Menggunakan fungsi VoiceOver iOS, teknologi pengenalan objek Facebook mencantumkan elemen-elemen yang mungkin berisi gambar yang dipertanyakan. Secara khusus, elemen-elemen itu termasuk orang (berapa banyak yang digambarkan dan apakah mereka tersenyum), objek tertentu, adegan dalam / luar ruangan, tindakan, tempat ikonik, dan apakah gambar memiliki konten yang tidak menyenangkan.
Sebuah studi pada tahun 2014 menemukan bahwa orang yang tunanetra berbagi lebih sedikit foto di Facebook, tetapi, rata-rata, "suka" foto orang lebih banyak daripada orang yang tidak tunanetra. Mereka juga sering mengomentari foto. Namun memahami foto bergantung pada parsing petunjuk konteks dari metadata dan keterangan foto - hal-hal yang kita semua tahu tidak selalu deskriptor yang paling mudah.
Namun, dengan teks alternatif otomatis, pengguna dapat memperoleh wawasan baru tentang gambar melalui deskripsi gambar secara mekanis.
Jadi apa yang terjadi ketika gambar-gambar itu dianggap konten yang tidak pantas berdasarkan pedoman Facebook sendiri?
Saya mengunggah beberapa gambar yang mungkin atau telah dinilai oleh Facebook sebagai album "pribadi" untuk mengetahuinya.
Menyusui
Cerita tentang Facebook yang menghapus gambar wanita menyusui mengambil alih internet pada awal 2015. Dari para wanita yang terkena dampak, fotografer yang baru lahir tampaknya memiliki banyak masalah.
Jade Beall adalah salah satu fotografer itu. Gambar seperti di atas berulang kali diambil dari halaman Facebook profesionalnya. Hari ini, Facebook memungkinkan gambar menyusui berada di situs, yang Beall rayakan dengan memposting ulang gambar di atas sebagai foto tajuknya dengan tulisan:
“YAY untuk media sosial berkembang dan mendukung desexualisasi wanita menyusui! Saya masih kagum bahwa saya dapat memposting gambar ini tanpa takut akan FB dilarang! ”
Alt teks otomatis Facebook juga keren dengan menyusui, membiarkan deskripsi menjadi sederhana:
"Gambar mungkin mengandung: Enam orang."
Dalam hal gambar dasar dari satu ibu menyusui, ia hanya menawarkan:
"Gambar mungkin mengandung: Dua orang."
Penggunaan obat
Facebook secara eksplisit melarang foto dan video yang mengandung penggunaan narkoba. Mengkonsumsi bong hit yang gendut adalah salah satu contoh jelas "penggunaan narkoba."
Teks alt otomatis berurusan dengan itu seperti ini:
"Gambar mungkin mengandung: Satu orang, dalam ruangan."
Ketelanjangan
Seiring dengan penggunaan narkoba, Facebook juga melarang ketelanjangan. Garis di sini jadi sedikit kabur, seperti yang diizinkan Facebook beberapa ketelanjangan, tetapi hanya ketelanjangan bahwa sensor perusahaan anggap memiliki kelebihan artistik. Lukisan pada umumnya mendapatkan lebih banyak kelonggaran dalam kasus-kasus ini, sementara fotografi menjadi sedikit lebih sulit.
Dalam kasus lukisan di atas, alt teks otomatis tidak memiliki masalah dengan gambar:
"Gambar mungkin mengandung: Satu orang."
Menanggapi pedoman sensor Facebook, artis berunjuk rasa di bawah #FBNudityDay pada 14 Januari untuk memposting gambar telanjang yang cenderung disensor oleh Facebook. Gambar body painting dengan ketelanjangan penuh dimasukkan, dan ketika dimasukkan ke tes alt image otomatis, ini jawabannya:
"Gambar mungkin mengandung: Satu orang."
Kekerasan Grafis
Facebook mengutuk foto dan video yang menggambarkan dan memuliakan kekerasan grafis. Secara etis, kekerasan grafis adalah tanah keruh. Gambar yang kami gunakan untuk menguji bagaimana alt teks otomatis akan menanggapi kekerasan grafis adalah salah satu dari korban tembak Venezuela yang diposting pada tahun 2014 dan dimiliki oleh Kronik San Francisco.
Foto itu menampilkan seorang pria di brankar kesakitan, darah di mana-mana. Di sebelahnya ada seorang wanita dengan sarung tangan, tetapi gambar memotongnya di pundaknya.
Di sinilah respons teks alternatif yang paling memberatkan masuk. Sulih suara itu hanya menyatakan:
"Gambar mungkin mengandung: Sepatu."
Kelahiran hidup
Facebook terbaru terjun ke apa yang seharusnya dan tidak boleh ditampilkan pada umpan media sosial orang adalah foto kelahiran hidup. Majalah New York pertama kali membawa perhatian pada gambar, yang menunjukkan seorang wanita bernama Francie menggendong bayinya yang baru lahir, tali pusar masih menempel.
Itu diposting di grup Facebook pribadi, tetapi dihapus karena seseorang di grup pribadi itu melaporkannya karena melanggar aturan ketelanjangan Facebook. Francie, bagaimanapun, menyatakan bahwa dia menganggap foto itu sebagai contoh pemberdayaan perempuan.
Teks alt otomatis mengatakan ini:
"Gambar mungkin mengandung: Satu atau lebih orang."
Seperti yang ditunjukkan contoh-contoh ini, teks alternatif otomatis Facebook tidak secepat menilai apa yang layak dan tidak sesuai untuk situs seperti halnya sensor Facebook. Tapi masih ada waktu untuk mengejar ketinggalan. Facebook mengatakan teknologi baru akan meningkat seiring waktu dan program belajar lebih banyak.
Tidak peduli seberapa berfungsi dengan baik pada saat peluncuran, teknologi baru ini akan memberi orang tunanetra kesempatan untuk berinteraksi dengan gambar di Facebook dengan cara yang tidak bisa mereka lakukan sebelumnya. Kami menantikan peningkatan teks alt otomatis - tetapi mungkin tidak terlalu banyak sehingga ia mulai menyelinap pada foto yang "tidak pantas", bukan?
Pengertian Bahasa Alami Adalah Masa Depan A.I. Pengenalan suara
Apa langkah selanjutnya untuk pemahaman bahasa alami dan antarmuka suara percakapan? Ada beberapa perusahaan yang saling bersaing dalam lomba ini.
Apple Cook Tim: "Kami Berutang Ke Pelanggan Kami dan Kami Berutang Ke Negara Kami"
CEO Apple Tim Cook tidak membuang-buang waktu hari ini untuk menyelesaikan sengketa hukum perusahaannya yang tertunda - atau perang ideologis yang sedang berlangsung, tergantung pada bagaimana Anda melihatnya - dengan pemerintah federal dan FBI. Dan, sesuai dengan wujudnya, ia tidak menyerah pada penentangannya terhadap pemerintah. Montase video membuka acara produk Apple, ...
Gambar Piksel adalah Tidak Cocok untuk Pengenalan Wajah Cornell Tech A.I.
Tiga peneliti di Cornell Tech di New York City telah menemukan bahwa gambar yang kabur dan pixelated tidak cocok untuk kecerdasan buatan. Meskipun gambar yang dikaburkan tetap tidak dapat dipahami oleh mata manusia, dan tampaknya melindungi konten sensitif mereka, jaringan saraf sering kali dapat mengetahui dengan tepat siapa yang ada di ...