Informasi Terpercaya Masa Kini

3 Detik “Halo” Saat Terima Telepon Asing Bisa Berujung Penipuan Pakai AI

0 38

KOMPAS.com – Mengangkat telepon asing hanya dengan satu kata sapaan selama kurang lebih 3 detik dilaporkan dapat berujung pada modus penipuaan suara menggunakan kecerdasaan buatan (AI).

Di Korea Selatan, modus penipuan voice phishing melalui telepon yang meniru suara keluarga menggunakan AI tengah marak dan telah memakan sejumlah korban.

Dilansir dari Asia Kyungjae, Sabtu (20/7/2024), untuk melancarkan aksi ini, pelaku akan melakukan panggilan dan merekam suara korban.

Biasanya, pelaku hanya akan menelepon dan menunggu tanpa bersuara hingga korban yang menjadi lawan bicaranya terpancing mengucapkan sepatah atau dua patah kata.

Sampel rekaman tersebut, meski hanya berupa kata sapaan seperti, “Halo, siapa ini?” dapat diolah menjadi kalimat utuh oleh Deep Voice AI untuk menipu orang lain.

“Dengan menggunakan suara yang dipelajari, pelaku dapat meminta keluarga atau teman Anda untuk mengirimi uang karena ada keadaan darurat seperti kecelakaan lalu lintas,” kata Professor Cho Sooyoung dari Sookmyung Women’s University.

Bahkan, perusahaan antivirus komputer McAfee mengatakan, gaya bicara dan kalimat seseorang dapat ditiru hanya dengan menggunakan sampel suara selama 3 detik.

Baca juga: Angkat Telepon Nomor Asing Disebut Bisa Dimanfaatkan Jadi Modus Penipuan Pakai AI, Benarkah?

Sampel 3 detik bisa tirukan suara pemilik

Pakar keamanan siber dari Vaksin.com, Alfons Tanujaya mengakui sulit untuk mencegah suara digunakan untuk AI.

“Apalagi kalau Anda figur publik dan banyak rekaman video atau suaranya tersedia bisa digunakan untuk mendapatkan sampel suara AI,” kata dia, saat dihubungi Kompas.com, Senin (22/7/2024).

Alfons mengungkapkan, saat ini kecerdasan buatan memang mampu mereplikasi suara seseorang hanya dengan modal sampel selama 3 detik.

Namun, seharusnya hasil rekayasa dari sedikit sampel tersebut masih akan tampak kurang sempurna dan jauh dari aslinya.

Sebaliknya, semakin banyak sampel suara tersedia, maka akan bertambah sempurna pula suara palsu yang dihasilkan.

“Membedakan suara asli dan tiruan makin lama makin sulit, karena makin lama kemampuan AI memalsukan gambar dan suara ini makin sempurna,” ujarnya.

Oleh karena itu, Alfons mewanti-wanti masyarakat untuk tidak langsung mengikuti perintah saat menerima telepon dari nomor asing.

Menurut dia, penting adanya verifikasi sebelum melakukan sesuatu yang diminta oleh pihak tidak dikenal.

Sebagai contoh, jika menerima panggilan dengan suara mirip anggota keluarga yang memberi kabar mengalami kecelakaan serta meminta dikirimi uang, jangan buru-buru transfer. Tapi pastikan untuk melakukan verifikasi dengan menghubungi kontak anggota keluarga yang bersangkutan.

“Jadi kalau menerima telepon dan meminta kita transfer uang atau melakukan tindakan apa pun yang penting, harus lakukan verifikasi ulang,” imbaunya.

Baca juga: Ramai soal Email Tagihan Aplikasi Berbayar dengan Domain Pajak.go.id, DJP Pastikan Penipuan

Cara mencegah voice phishing pakai AI

Sementara itu, Chairman Lembaga Riset Keamanan Siber CISSReC, Pratama Persadha menjelaskan, pembuatan suara AI dengan modal sampel suara korban dari sambungan telepon secara teknis dapat dilakukan.

Namun, jika hanya mengangkat telepon selama sesaat, seharusnya sampel data masih belum cukup untuk membuat narasi menggunakan AI.

“Meskipun Microsoft melalui program AI bernama VALL-E mengeklaim mampu membuat sebuah narasi suara hanya menggunakan sampel suara selama tiga detik, tim peneliti dari Microsoft juga mengatakan bahwa sistem tersebut masih jauh dari kata sempurna,” jelasnya, saat dihubungi Kompas.com, Senin (31/7/2023).

Salah satu kekurangannya, ada pada penggunaan bahasa tertentu yang memiliki aksen khusus.

Suara kecerdasan buatan yang dihasilkan juga masih terbata-bata, terdengar seperti robot, atau bahkan tidak terdengar sama sekali.

Pratama menerangkan, beberapa langkah dapat dilakukan agar tidak menjadi korban kejahatan dengan modus suara kecerdasan buatan.

Pertama, jangan mengangkat panggilan dari orang tidak dikenal dan gunakan aplikasi tambahan untuk mengidentifikasi nomor asing seperti Truecaller atau Getcontact untuk melacak identitas penelepon.

Kedua, cobalah menyalakan fitur “bisukan penelepon tidak dikenal” pada WhatsApp dengan cara:

  • Masuk ke menu “Pengaturan” dan pilih “Privasi”.
  • Klik “Panggilan” dan gulir halaman ke bawah
  • Pilih “Bisukan Penelepon Tidak Dikenal” untuk mengaktifkan fitur tersebut.

Ketiga, jika memang harus mengangkat panggilan dari nomor tidak dikenal, cobalah untuk memanfaatkan aplikasi tambahan voice changer yang akan mengubah suara asli.

Keempat, segera konfirmasi ulang kepada saudara atau rekan kerja jika yang bersangkutan menelepon dan meminta bantuan uang.

“Untuk memastikan bahwa identitas penelepon serta informasinya adalah benar,” sambungnya.

Sementara itu, Kementerian Ilmu Pengetahuan dan Teknologi Korea Selatan tengah mendorong pembuatan teknologi untuk memberi watermark atau tanda pada suara.

Bekerja sama dengan perusahaan Amerika, Resemble AI, teknologi ini membantu menganalisis gelombang suara.

Nantinya, teknologi tersebut secara otomatis membedakan suara dengan gelombang berbeda atau hasil rekayasa AI, meski terdengar sama di telinga manusia.

Leave a comment