Fikroh.com - Di era digital yang semakin canggih, teknologi kecerdasan buatan (AI) tidak hanya membawa kemudahan, tetapi juga ancaman baru berupa penipuan. Salah satu modus yang semakin marak adalah penipuan melalui video call menggunakan deepfake, di mana scammers memanipulasi video dan suara untuk meniru wajah serta suara orang lain secara realistis. Deepfake ini dibuat dengan AI yang memetakan gambar digital seseorang ke wajah scammer, sehingga tampak seperti orang yang dikenal sedang berbicara secara real-time. Teknologi ini semakin mudah diakses, bahkan melalui kit cybercrime di dark web, dan sering kali memanfaatkan foto atau video dari media sosial korban.
Bagaimana Modus Penipuan Ini Bekerja?
Scammers biasanya mengumpulkan materi sumber seperti foto, video, atau rekaman suara dari akun media sosial korban atau orang terdekatnya. Dengan AI, mereka menciptakan video palsu yang bisa digunakan dalam panggilan video langsung atau rekaman. Modus umum meliputi:
Impersonasi Atasan atau Rekan Kerja: Scammers berpura-pura sebagai CEO atau CFO perusahaan untuk memerintahkan transfer dana darurat.
Impersonasi Keluarga atau Teman: Menelepon dengan suara atau wajah anggota keluarga yang sedang "dalam kesulitan", seperti kecelakaan atau ditahan polisi, dan meminta uang segera.
Romance Scam: Membangun hubungan romantis online, kemudian menggunakan video deepfake untuk meyakinkan korban mengirim uang dengan alasan darurat, seperti biaya perjalanan atau koneksi internet.
Penipuan ini sering dimulai dengan email atau pesan phishing untuk membangun kepercayaan, diikuti video call yang tampak autentik. Scammers menghindari panggilan langsung jika memungkinkan, dengan alasan seperti sinyal buruk, dan meminta pembayaran melalui transfer bank, gift card, atau cryptocurrency.
Contoh Kasus Nyata
Pada Februari 2024, seorang karyawan keuangan di Hong Kong mentransfer HK$200 juta (sekitar US$25,6 juta) setelah video call dengan deepfake CFO dan rekan kerjanya. Korban awalnya curiga dengan email tentang transaksi rahasia, tapi yakin setelah melihat dan mendengar "rekan" di video. Penipuan terungkap saat dia konfirmasi ke kantor pusat, dan polisi Hong Kong menangkap enam orang terkait penggunaan AI untuk melewati verifikasi identitas.
Kasus lain menimpa Nikki MacLeod, seorang pensiunan berusia 77 tahun dari Edinburgh, yang kehilangan £17.000 (sekitar Rp300 juta) pada akhir 2024. Dia bertemu "pasangan" online yang mengaku bekerja di rig minyak Laut Utara, dan scammer mengirim video deepfake menunjukkan cuaca buruk untuk meyakinkan korban membeli gift card Steam serta membayar biaya liburan dan helikopter. Bank korban akhirnya memblokir transaksi, dan £7.000 dikembalikan, tapi sisanya hilang karena pembayaran melalui fitur "friends and family" di PayPal.
Di AS, scammers menggunakan deepfake untuk meniru anggota keluarga dalam keadaan darurat, seperti anak yang "terluka" atau "ditangkap" dan butuh uang bail. Pada 2023, penipuan impersonasi semacam ini menyebabkan kerugian hampir US$1,9 juta, sering kali melalui panggilan suara AI yang dikloning dari klip media sosial. Contoh lain termasuk deepfake Perdana Menteri Kanada Justin Trudeau yang menipu seorang pria di Ontario hingga kehilangan CA$12.000, serta kasus di Houston di mana wanita-wanita menjadi korban video AI palsu.
Di media sosial, kasus serupa juga terjadi, seperti penipuan di India di mana scammers menggunakan deepfake ayah untuk meminta ₹2 lakh (sekitar Rp4 juta) melalui video call, atau perusahaan di Hong Kong yang kehilangan US$35 juta karena Zoom call palsu dengan CFO deepfake.
Cara Mendeteksi Deepfake
Meski semakin realistis, deepfake sering menunjukkan celah:
- Gerakan mata atau rahang yang tidak alami, kulit terlalu halus atau berkerut berlebih.
- Tepi wajah kabur, rambut aneh, atau ketidaksinkronan antara bibir dan suara.
- Gerakan tidak wajar, seperti tangan di depan wajah atau memutar kepala yang terlihat glitchy.
Jika curiga, tanyakan pertanyaan pribadi yang hanya orang asli tahu, atau minta verifikasi melalui saluran lain.
Tips Pencegahan
Untuk menghindari jebakan ini, ikuti langkah-langkah berikut:
Buat Kode Rahasia Keluarga: Tentukan kata sandi atau pertanyaan khusus yang hanya diketahui keluarga untuk verifikasi identitas saat ada permintaan darurat.
Batasi Berbagi Online: Kurangi unggahan audio/video pribadi di media sosial, dan atur privasi akun agar tidak mudah diakses orang asing.
Verifikasi Langsung: Hubungi orang tersebut melalui nomor atau kontak yang sudah Anda miliki, bukan melalui panggilan yang masuk.
Gunakan Teknologi Pendeteksi: Beberapa perangkat seperti ponsel HONOR memiliki fitur AI deepfake detection untuk memperingatkan manipulasi wajah selama video call.
Jangan Terburu-buru: Scammers sering menciptakan urgensi; selalu konfirmasi sebelum transfer uang atau bagikan info sensitif.
Laporkan Segera: Jika menjadi korban, hubungi polisi cyber atau lembaga seperti OJK di Indonesia, dan laporkan ke FBI IC3 jika terkait internasional.
Kesimpulan
Penipuan video call dengan AI deepfake adalah ancaman serius yang bisa merugikan secara finansial dan emosional. Dengan kesadaran dan tindakan pencegahan, kita bisa melindungi diri dari manipulasi teknologi ini. Ingat, jika terlalu bagus untuk menjadi kenyataan atau terlalu mendesak, kemungkinan besar itu penipuan. Tetap waspada di dunia digital!
Posting Komentar