Waspada Penipuan Modus AI, OJK Paparkan Jenis dan Pencegahannya

Senin, 17 November 2025 | 10:05:08 WIB
Waspada Penipuan Modus AI, OJK Paparkan Jenis dan Pencegahannya

JAKARTA - Di tengah derasnya perkembangan teknologi kecerdasan buatan, risiko kejahatan digital juga meningkat drastis. 

Otoritas Jasa Keuangan (OJK) melalui Satuan Tugas Pemberantasan Aktivitas Keuangan Ilegal (Satgas PASTI) kembali mengingatkan masyarakat untuk lebih waspada terhadap pola penipuan baru yang memanfaatkan artificial intelligence atau AI. 

Teknologi yang awalnya dikembangkan untuk mempermudah kehidupan justru kini mulai disalahgunakan untuk memperdaya korban dengan cara yang lebih meyakinkan.

Fenomena ini mencuat seiring maraknya laporan kerugian akibat penipuan digital yang memanfaatkan tiruan suara dan wajah. Karena itu, OJK menilai edukasi masyarakat harus diperkuat mengingat modus kejahatan kini jauh lebih halus dan sulit dikenali dibanding metode konvensional.

Modus Penipuan dengan Tiruan Suara dan Wajah Semakin Meyakinkan

Dalam keterangannya di laman resmi OJK, Senin, Satgas PASTI menjelaskan bahwa salah satu bentuk penyalahgunaan AI yang paling sering terjadi adalah voice cloning atau tiruan suara. Teknologi ini memungkinkan pelaku untuk meniru suara seseorang dengan kualitas yang sangat mirip.

"Tiruan suara merupakan teknologi AI yang memudahkan pelaku penipuan untuk merekam dan meniru suara seseorang seperti teman, kolega, atau keluarga," tulis OJK. “Dengan menggunakan suara yang sudah dipelajari tersebut, penipu dapat melakukan percakapan seolah-olah mereka adalah orang yang dikenal korban.”

Mekanisme ini membuat korban percaya bahwa mereka sedang berbicara dengan keluarga atau rekan kerja yang memintanya mentransfer sejumlah uang atau memberikan informasi pribadi. Karena serangan dilakukan melalui suara yang terdengar autentik, korban sering kali tidak menyadari adanya kecurangan hingga terlambat.

Selain itu, OJK juga menyoroti penggunaan deepfake atau tiruan wajah sebagai bagian dari pola penipuan modern. Teknologi ini memungkinkan pelaku membuat video palsu dengan wajah dan gestur seseorang yang terlihat sangat nyata. 

Video tersebut kemudian digunakan untuk mengelabui korban agar yakin bahwa ia berkomunikasi dengan sosok yang sebenarnya.

OJK menyebut, “Tiruan wajah adalah teknologi AI yang memungkinkan pelaku penipuan untuk membuat video palsu yang meniru wajah dan ekspresi seseorang dengan akurat.” Kondisi ini menambah lapisan kerentanan baru, karena interaksi visual yang biasanya menjadi tanda keaslian justru kini dapat dipalsukan dengan tingkat kemiripan tinggi.

Peningkatan Kasus Global Jadi Sinyal Ancaman untuk Indonesia

Tren penipuan berbasis AI tidak hanya terjadi di Indonesia. Berbagai negara Asia Tenggara hingga Amerika Serikat juga melaporkan peningkatan kasus, terutama terkait penipuan finansial, kripto, dan rekayasa sosial. Di sejumlah tempat, penggunaan deepfake dan voice cloning bahkan meningkat hingga ratusan persen dalam satu tahun terakhir.

Di Indonesia, laporan masyarakat mengenai modus serupa juga meningkat. Meski angka pastinya tidak dipaparkan, OJK meyakini edukasi dan kesadaran publik menjadi benteng utama dalam mencegah kejahatan yang memanfaatkan kecanggihan teknologi ini.

Karena itulah, lembaga ini terus mengeluarkan peringatan publik dan panduan praktis untuk mengurangi potensi kerugian, terutama menjelang momen liburan atau periode tertentu ketika frekuensi kejahatan digital biasanya melonjak.

Panduan OJK untuk Menghindari Penipuan Berbasis Teknologi AI

Untuk melindungi masyarakat dari ancaman penipuan yang semakin canggih, OJK memberikan beberapa langkah pencegahan penting yang dapat diterapkan dalam kehidupan sehari-hari.

1. Selalu Lakukan Verifikasi Informasi

Ketika menerima permintaan mendadak, terutama yang berhubungan dengan transfer uang atau permintaan data pribadi, OJK menekankan agar masyarakat melakukan verifikasi melalui saluran komunikasi lain. 

Hubungi langsung orang terkait menggunakan nomor yang sudah pasti benar, bukan nomor yang muncul bersamaan dengan permintaan tersebut.

2. Jaga Kerahasiaan Informasi Pribadi

Informasi personal seperti nomor identitas, rekening bank, kata sandi, atau data biometrik harus dijaga ketat. Penipu yang memanfaatkan AI biasanya memulai aksi dengan mengumpulkan data pribadi korban melalui media sosial atau platform digital lainnya.

OJK mengingatkan, jangan pernah membagikan informasi sensitif kepada pihak yang identitasnya tidak dapat dipastikan.

3. Waspadai Video dan Suara yang Terlihat Tidak Biasa

Meski wajah atau suara dalam video tampak seperti orang yang kita kenal, OJK mengimbau masyarakat untuk tetap waspada. Ketika ada hal yang terasa janggal, seperti gaya bicara yang berbeda atau permintaan yang mendesak dan tidak wajar, penting untuk tidak langsung percaya.

Hal kecil seperti intonasi yang berbeda, ekspresi yang tidak natural, atau gerakan bibir yang sedikit terlambat bisa menjadi tanda-tanda penggunaan deepfake.

Kesimpulan: Kewaspadaan Adalah Benteng Utama

Perkembangan AI memberikan banyak manfaat, tetapi juga membuka ruang bagi kejahatan digital yang semakin sulit dikenali. 

Dengan maraknya kasus voice cloning dan deepfake, OJK menegaskan bahwa masyarakat perlu meningkatkan kewaspadaan dan memperkuat kebiasaan verifikasi sebelum mengambil keputusan, terutama yang berkaitan dengan keuangan.

Seiring meningkatnya kecanggihan teknologi, kemampuan pengguna dalam melindungi diri menjadi semakin penting. Informasi yang tepat dan tindakan preventif dapat menjadi perlindungan terbaik dari modus penipuan modern berbasis AI yang terus berkembang.

Terkini