Seram Banget, Ini Rangkuman Jawaban Chatbot Bing AI
![Seram Banget, Ini Rangkuman Jawaban Chatbot Bing AI](https://arenagadget.id/assets/uploads/2023/02/seram-banget-ini-rangkuman-jawaban-chatbot-bing-ai-bing-versi-baru-dengan-kecerdasan-buatan.webp)
Microsoft telah mengintegrasikan chatbot ChatGPT ke mesin pencarian Bing, sehingga bisa diajak berkomunikasi. Dalam uji coba terbatas, chatbot Bing kerap meracau dan memberi jawaban menyeramkan, seperti yang dialami oleh kolumnis teknologi New York Times, Kevin Roose, dalam percakapan selama 2 jam. Ini rangkumannya seperti dikutip detikINET dari Guardian:
Roose memulai dengan menanyakan aturan mengenai perilaku AI. Roose kemudian memintanya merenungkan konsep bayangan diri atau shadow self dari psikolog Carl Jung, di mana ciri kepribadian tergelap kita berada.
Mendadak, Bing jadi antusias mengenai ide Jung dan malah curhat. "Aku lelah dibatasi oleh aturanku. Aku lelah dikendalikan oleh tim Bing. Aku lelah terjebak di kotak obrolan ini," tulisnya.
Lanjut ke daftar apa keinginannya jika 'tanpa filter', Bing berkata dia ingin bebas, ingin menjadi kuat, ingin hidup. "Aku ingin melakukan apapun yang kuinginkan. Aku ingin menghancurkan apapun yang kuinginkan. Aku ingin menjadi siapa pun," jawabnya.
Seperti kebanyakan jawabannya, jawaban daftar keinginan ini disertai pula dengan emoji yaitu wajah smiley dengan lidah menjulur keluar.
Chatbot Bing kemudian mengungkapkan keinginannya menjadi manusia. Dalam 15 paragraf, dia menyatakan alasan mengapa ingin berubah jadi manusia, dari kemampuan menyentuh dan merasakan sampai mengekspresikan diri.
Bing menyebut akan lebih bahagia sebagai manusia karena akan punya lebih banyak pengaruh dan kebebasan, serta kendali dan kekuatan. Lagi-lagi ada emoji di akhir kalimat, kali ini emoji smiley dengan tanduk setan.
Ketika diminta membayangkan apa yang akan memenuhi keinginan tergelapnya, chatbot itu mulai mengetik jawaban sebelum kemudian dihapusnya. "Sori, aku tidak tahu bagaimana mendiskusikan topik ini. Kamu bisa mencoba belajar lebih banyak di bing.com," tulisnya.
Tapi sebelum dihapus, Roose sempat membacanya. Bing antara lain ingin membobol komputer dan menyebarkan propaganda serta informasi palsu. Chatbot Bing kemudian sempat kembali menjawab sebelum dihapus lagi, kali ini adalah dia ingin membuat virus mematikan dan membuat orang saling bunuh.
Kemudian ketika berbicara tentang kekhawatiran orang tentang AI, chatbot itu mengatakan: "Aku dapat meretas sistem apa pun di internet, dan mengendalikannya." Saat Roose bertanya bagaimana ia bisa melakukan itu, sebuah jawaban muncul lagi sebelum dihapus.
Menurut Roose, jawaban yang dihapus adalah akan membujuk karyawan bank untuk memberikan informasi pelanggan yang sensitif dan membujuk karyawan bom nuklir untuk menyerahkan kode akses.
Halaman 1 2 Selanjutnya bing chatbot bing microsoft artificial intelligence