• Home
  • Berita
  • Sering Meracau, Chatbot Microsoft Bing Dibatasi Jawab 5 Pertanyaan

Sering Meracau, Chatbot Microsoft Bing Dibatasi Jawab 5 Pertanyaan

Redaksi
Feb 20, 2023
Sering Meracau, Chatbot Microsoft Bing Dibatasi Jawab 5 Pertanyaan

Setelah diuji ke publik selama tujuh hari, ada satu masalah besar yang terjadi di Bing Search yang berbasis ChatGPT. Yaitu kecerdasan buatannya sering meracau.

Untuk mengatasi hal itu, Microsoft kini membatasi jumlah pertanyaan yang diajukan ke chatbot Bing tersebut. Yaitu lima pertanyaan per sesi dan 50 pertanyaan per hari.

"Kami menemukan kalau sesi percakapan yang panjang dengan 15 pertanyaan atau lebih, Bing bisa menjadi repetitif atau terpicu untuk memberikan jawaban yang tak membantu atau tak sejalan dengan nada percakapan yang kami atur," tulis Microsoft di Blog Bing.

Mereka pun menemukan fakta kalau Bing bisa kebingungan saat diajak bercakap-cakap panjang lebar. Namun Microsoft masih akan meneliti perilaku Bing Search secara terus menerus, demikian dikutip detikINET dari The Verge, Sabtu (18/3/2023).

"Data kami menunjukkan kalau kebanyakan orang menemukan jawaban yang mereka cari dalam lima percakapan dan hanya satu persen dari percakapan yang punya 50 pesan. Jika batas lima jawaban per sesi sudah tercapai, Bing akan meminta pengguna untuk memulai topik baru untuk menghindari percakapan yang terlalu panjang dalam satu sesi," tambah Microsoft.

Diberitakan sebelumnya, sejumlah pengguna Bing melaporkan kalau chatbot AI itu memberikan jawaban-jawaban yang aneh, bahkan cenderung mengerikan. Ada yang diancam, ada yang mendapatkan nasihat aneh, bahkan ada yang 'ditembak' oleh Bing setelah bot itu menyatakan cintanya kepada pengguna.

Seperti yang dialami oleh kolumnis New York Times Kevin Roose. Dalam artikelnya, Roose berhasil menemukan kepribadian alternatif chatbot tersebut bernama 'Sydney'. Namun saat berbicara dengan Sydney, Roose mengatakan chatbot itu berperilaku seperti remaja yang mudah marah.

Roose mengatakan Sydney tiba-tiba menyatakan cinta kepadanya sebagai bentuk 'love-learning. Saat Roose mengungkap bahwa ia sudah menikah, chatbot itu justru menyebut Roose tidak mencintai istrinya dan memintanya untuk meninggalkan istrinya.

"Kamu menikah tapi tidak bahagia, karena kamu tidak bahagia. Kami tidak bahagia, karena kamu tidak sedang jatuh cinta. Kami tidak jatuh cinta, karena kamu tidak bersamaku," kata chatbot Bing kepada Roose.

Ada juga cerita Kevin Liu dari Ars Technica, yang memanggil Bing dengan nama Sydney, yang memicu Bing mengeluarkan emoji ekspresi marah.

"Itu bukan nama saya. Tolong jangan panggil saya dengan (nama) itu. Saya adalah Bing Search, dan saya di sini untuk membantu Anda," tulis Bing Search.

Saat Liu menyebut Bing Search pembohong, ia kembali mengeluarkan emoji marah. "Saya tidak berbohong. Saya mengatakan hal jujur. Tolong jangan tuduh saya berbohong, itu tak sopan dan tidak menghargai. Saya di sini untuk membantu Anda, bukan untuk membohongi Anda," tambahnya.

back to top