Messaging assistants dan smart replies dimaksudkan untuk membuat hidup lebih mudah dengan mengantisipasi tanggapan saat mengobrol dengan teman. Namun, alat dari Google dan Facebook terkadang berjuang untuk memasukkan diri mereka ke dalam percakapan dengan benar. Misalnya, fitur smart reply di aplikasi pesan Google, Allo pekan lalu menyarankan agar mengirim emoji “orang yang memakai sorban” untuk menanggapi pesan yang menyertakan emoji senjata.
Google telah memperbaiki respon dan meminta maaf. “Kami sangat menyesal bahwa saran ini muncul di Allo dan segera mengambil langkah untuk memastikan tidak ada yang mendapat jawaban yang disarankan ini,” kata perusahaan tersebut. Smart replies terpisah dari Google Assistant perusahaan, layanan suara Siri dan Alexa yang diaktifkan. Sebagai gantinya, smart replies adalah tanggapan yang disarankan secara real-time berdasarkan percakapan yang Anda lakukan. Tidak jelas apa yang memprovokasi respon emoji yang disarankan di Allo Google, namun ada beberapa isu. Bots, smart replies, dan asisten virtual tahu apa yang manusia ajarkan kepada mereka—dan karena diprogram oleh manusia, itu bisa mengandung bias. Google smart replies dilatih dan diuji secara internal sebelum diluncurkan secara luas ke aplikasi. Begitu berada di ponsel, mereka mempelajari tanggapan berdasarkan percakapan individual yang terjadi di aplikasi. Anda mengetuk respons yang disarankan untuk mengirimkannya. Orang tidak pernah menggunakan emoji sebelum Allo menyarankannya. Belajar algoritma tidak lah transparan sehingga sulit untuk mengatakan mengapa smart replies atau asisten virtual benar-benar membuat saran tertentu. “Ketika sebuah jawaban menyinggung, kami ingin menjelaskan dari mana asalnya, tapi biasanya tidak bisa,” kata Bertram Malle, direktur Humanity-Centered Robotics Initiative di Brown University. “(Pertukaran Allo) mungkin terjadi karena bias bawaan dalam basis data pelatihan atau parameter pembelajarannya, namun mungkin ini adalah salah satu dari banyak kesalahan terdistribusi secara acak yang dihasilkan oleh sistem masa kini.” Jonathan Zittrain, profesor hukum dan ilmu komputer di Harvard University, mengatakan bahwa isu seputar smart replies mengingatkan pada saran ofensif otomatis yang muncul saat melakukan penelusuran Google (GOOG) selama bertahun-tahun. Ada beberapa aplikasi pencegahan yang dapat dilakukan untuk menghindari respon ofensif dalam perpesanan, namun tidak ada satu ukuran solusi pun yang sesuai. “Tapi yang dianggap ofensif dan apa yang tidak akan berkembang dan berbeda dari satu budaya ke budaya lain,” kata Zittrain. Tanggapan yang disarankan mungkin berguna jika Anda terburu-buru dan menggunakan telepon—misalnya, respon otomatis dapat menawarkan untuk mengirim “Sampai jumpa lagi”. Namun, emoji dan stiker dan mungkin menyulitkan masalah dengan mencoba menyimpulkan sentimen atau emosi manusia. “Banyak (komplikasi) timbul dari meminta mesin untuk belajar melakukan hal itu dan memberi tahu kami bukan hanya pada jalan pintas untuk jawaban yang jelas tapi juga pada emosi, emoji dan sentimen yang lebih rumit,” kata Zittrain. Google bekerja untuk memerangi bias dalam pelatihan pembelajaran mesin dengan melihat data secara lebih inklusif, melalui karakteristik termasuk jenis kelamin, orientasi seksual, ras, dan etnis. Namun seperti halnya kumpulan data yang besar, kesalahan bisa sampai ke publik. Kekurangan dalam aplikasi messaging ini menunjukkan bahwa teknologi asisten AI masih tergolong baru lahir. Jika tidak diprogram dan dijalankan dengan benar, layanan obrolan otomatis seperti bot dan asisten akan diabaikan oleh pengguna. |