Penipuan Terbaru! AI Tiru Suara Orang dan Ngaku Diculik

Artificial Intelligence (AI) makin canggih dan akan selalu ada orang yang menyalahgunakannya. Kali ini, penjahat memanfaatkan AI untuk meniru suara seorang remaja dan membuat skenario seolah-olah sedang diculik.
Ialah Jennifer DeStefano, seorang ibu dari Arizona, yang terperangkap tipu muslihat penjahat cyber tersebut. Dia mengatakan suara AI itu benar-benar meyakinkan, mirip dengan suara putrinya Brie (15). Saat itu, dia menerima telepon dari nomor yang tidak dikenal.
"Aku mengangkat telepon dan mendengar suara putriku, dan dia berkata 'Ibu!' lalu dia terisak. Aku bilang 'Ada apa?' dan dia menjawab, 'Ibu, aku kacau', kemudian dia terisak dan menangis," kenang DeStefano.
Terdengar pula suara seorang pria yang meminta 'Brie' untuk menundukkan kepalanya dan berbaring. Setelah itu, pria tersebut mengancam DeStefano untuk tidak melapor ke polisi dan mengirimkan sejumlah uang jika mau 'Brie' selamat.
Awalnya, penjahat itu meminta USD 1 juta atau bila dikonversikan Rp 14 miliar, namun akhirnya sepakat di angka USD 500.000 (Rp 7,38 miliar lebih).
Mimpi buruk itu pada akhirnya berakhir setelah seorang ibu membantunya menghubungi 911 dan suami DeStefano. Akhirnya diketahui bahwa Brie yang sebenarnya aman-aman saja.
Pakar ilmu komputer mengatakan bahwa teknologi kloning suara telah berkembang hingga nada dan cara bicara seseorang dapat dibuat ulang. Bahkan hanya dengan mengandalkan rekaman suara yang sangat singkat.
"Pada awalnya, ini membutuhkan jumlah sampel yang lebih banyak," jelas Subbarao Kambhampati, seorang profesor ilmu komputer dan otoritas AI di Arizona State University.
"Sekarang, ada cara di mana Anda dapat melakukan ini hanya dengan tiga detik suara Anda. Tiga detik. Dan dengan tiga detik, itu bisa mendekati seberapa tepatnya suara Anda," sambungnya.
Dengan ukuran sampel yang cukup besar, AI dapat meniru 'infleksi' seseorang serta 'emosi' mereka. Kasus ini menjadi pengingat kita semua untuk selalu mewaspadai modus penipuan yang terus berkembang seiring kemajuan teknologi.
Simak Video "Wanti-wanti Joe Biden soal Keamanan AI"
[Gambas:Video 20detik]
(ask/ask)