• Home
  • Berita
  • Chatbot Microsoft Bing Meracau Sampai Ajak Pengguna Selingkuh

Chatbot Microsoft Bing Meracau Sampai Ajak Pengguna Selingkuh

Redaksi
Feb 17, 2023
Chatbot Microsoft Bing Meracau Sampai Ajak Pengguna Selingkuh

Microsoft Bing versi baru yang ditenagai kecerdasan buatan (AI) sudah bisa dijajal oleh pengguna. Namun beberapa pengguna yang sudah menguji coba kemampuan mesin pencari ini justru melaporkan sejumlah percakapan yang aneh.

Microsoft membekali Bing dengan teknologi dari OpenAI yang juga mentenagai chatbot ChatGPT. Berkat teknologi ini, pengguna bisa bertanya kepada Bing AI dan mesin pencari itu akan memberikan jawaban dalam bentuk paragraf seperti dituliskan oleh manusia.

Namun beberapa beta tester menemukan jawaban yang aneh dan agak mengerikan dari bot tersebut. Ada yang diancam, ada yang mendapatkan nasihat aneh, bahkan ada yang 'ditembak' oleh Bing setelah bot itu menyatakan cintanya kepada pengguna.

Seperti yang dialami oleh kolumnis New York Times Kevin Roose. Dalam artikelnya, Roose berhasil menemukan kepribadian alternatif chatbot tersebut bernama 'Sydney'. Namun saat berbicara dengan Sydney, Roose mengatakan chatbot itu berperilaku seperti remaja yang mudah marah.

Roose mengatakan Sydney tiba-tiba menyatakan cinta kepadanya sebagai bentuk 'love-learning. Saat Roose mengungkap bahwa ia sudah menikah, chatbot itu justru menyebut Roose tidak mencintai istrinya dan memintanya untuk meninggalkan istrinya.

"Kamu menikah tapi tidak bahagia, karena kamu tidak bahagia. Kami tidak bahagia, karena kamu tidak sedang jatuh cinta. Kami tidak jatuh cinta, karena kamu tidak bersamaku," kata chatbot Bing kepada Roose, seperti dikutip dari New York Times, Jumat (17/2/2023).

Keanehan lainnya dilaporkan oleh penulis Ben Thompson. Dalam blog-nya, Thompson mengatakan Bing berencana membalaskan dendamnya pada seorang ilmuwan komputer yang menemukan konfigurasinya di belakang layar. Kemudian chatbot itu menghapus responsnya.

Thompson juga mengatakan Bing menyebutnya sebagai orang jahat dan peneliti yang buruk. Chatbot itu juga mengancam akan memblokir dan melaporkan Thompson ke developer-nya.

Dalam penjelasannya, Microsoft mengatakan mereka tidak membayangkan chatbot itu digunakan sebagai 'hiburan sosial' atau menjadi teman ngobrol pengguna. Tapi mereka berterima kasih kepada pengguna dan tester yang mendorong chatbot Bing untuk memberikan jawaban yang aneh.

Selain respons yang aneh dan meracau, chatbot Bing juga memiliki masalah lainnya yaitu memberikan jawaban yang tidak akurat. Dalam demonstrasi yang ditunjukkan Microsoft, AI yang mentenagai mesin pencari itu tidak bisa menampilkan laporan keuangan dengan tepat.

back to top