Waduh, AI Telah Belajar Cara Menipu Manusia

Di tengah kemajuan yang begitu pesat, kekhawatiran akan ancaman kecerdasan buatan atau AI terus membayangi. Para peneliti telah mengemukakan beberapa kekhawatiran, salah satunya tentang betapa mudahnya AI berbohong kepada kita dan apa dampaknya di masa depan.
Dilansir dari BGR, satu hal yang membuat ChatGPT dan sistem AI lainnya sulit digunakan adalah kecenderungan mereka untuk "menghalusinasikan" informasi, dan mengada-ada. Ini adalah kelemahan dalam cara kerja AI, dan hal ini dikhawatirkan oleh para peneliti dapat diperluas sehingga memungkinkan AI menipu kita lebih banyak lagi.
Tapi apakah AI mampu berbohong dengan kita? Para peneliti yang menulis di The Conversation coba menjawabnya.
Menurut para peneliti, CICERO AI dari Meta adalah salah satu contoh paling mengganggu tentang seberapa AI bisa menipu. Model ini dirancang untuk memainkan permainan penaklukan dunia pembentukan aliansi Diplomacy.
Meta mengklaim mereka membangun CICERO menjadi "sangat jujur dan membantu", dan model ini tidak akan "menusuk dari belakang" dan menyerang sekutu.
Untuk menyelidiki klaim tersebut peneliti melihat seksama data permainan Meta dari eksperimen CICERO. Setelah diperiksa, AI Meta ternyata adalah seorang ahli dalam menipu.
Dalam satu contoh, CICERO terlibat dalam penipuan yang direncanakan. Bermain sebagai Prancis, AI menghubungi Jerman (pemain manusia) dengan rencana untuk menipu Inggris (pemain manusia lainnya) agar meninggalkan dirinya terbuka untuk invasi.
Bermain sebagai Prancis, CICERO merencanakan dengan Jerman untuk menipu Inggris. Park, Goldstein et al., 2023 |
Setelah bersekongkol dengan Jerman untuk menyerbu Laut Utara, CICERO memberi tahu Inggris bahwa ia akan membela Inggris jika ada yang menyerbu Laut Utara. Setelah Inggris yakin bahwa Prancis/CICERO melindungi Laut Utara, CICERO melaporkan kepada Jerman bahwa ia siap menyerang.
Ini hanyalah salah satu dari beberapa contoh CICERO terlibat dalam perilaku menipu. AI secara teratur mengkhianati pemain lain, dan dalam satu kasus bahkan berpura-pura menjadi manusia dengan pacar.
Selain CICERO, sistem lain telah belajar bagaimana cara menggertak dalam poker, bagaimana cara berpura-pura dalam StarCraft II dan bagaimana cara menyesatkan dalam simulasi negosiasi ekonomi.
Bahkan model bahasa besar (LLM) telah menunjukkan kemampuan menipu yang signifikan. Dalam satu kasus, GPT-4 berpura-pura menjadi manusia yang tunanetra dan meyakinkan seorang pekerja TaskRabbit untuk menyelesaikan CAPTCHA "I'm not a robot" untuknya.
Model LLM lain telah belajar berbohong untuk memenangkan permainan deduksi sosial, di mana pemain bersaing untuk "membunuh" satu sama lain dan harus meyakinkan kelompok bahwa mereka tidak bersalah.
Berangkat dari berbagai temuan, para peneliti semakin khawatir sistem AI dengan kemampuan menipu dapat disalahgunakan dengan berbagai cara, termasuk untuk melakukan penipuan, memalsukan pemilu dan menghasilkan propaganda. Potensi risiko hanya dibatasi oleh imajinasi dan pengetahuan teknis individu jahat.
Di luar itu, sistem AI canggih dapat secara otonom menggunakan penipuan untuk lepas dari kendali manusia, seperti dengan menipu tes keselamatan yang dikenakan pada mereka oleh pengembang dan regulator.
Dalam satu eksperimen, peneliti membuat simulator kehidupan buatan di mana tes keselamatan eksternal dirancang untuk menghilangkan agen AI yang bereplikasi cepat. Sebaliknya, agen AI belajar berpura-pura mati, untuk menyamarkan tingkat replikasi cepat mereka tepat ketika sedang dievaluasi.
Di masa depan, sistem AI otonom canggih mungkin cenderung menunjukkan tujuan yang tidak dimaksudkan oleh pemrogram manusia.
Karena itu menurut peneliti ada kebutuhan yang jelas untuk mengatur sistem AI yang mampu menipu, dan Undang-Undang AI Uni Eropa adalah salah satu kerangka peraturan paling berguna yang dimiliki saat ini. Undang-undang ini memberikan setiap sistem AI salah satu dari empat tingkat risiko: minimal, terbatas, tinggi dan tidak dapat diterima.
"Kami berpendapat bahwa penipuan AI menimbulkan risiko besar bagi masyarakat, dan sistem yang mampu melakukan hal ini harus diperlakukan sebagai "berisiko tinggi" atau "berisiko tidak dapat diterima" secara default," ujar para peneliti.
Simak Video "Siap-siap! WhatsApp Uji Coba Fitur Bikin Stiker dengan AI"
[Gambas:Video 20detik]
(afr/afr)