Kenali Video AI Palsu (Deepfake): Cara Elak Ditipu Penipuan Digital
SHAH ALAM, 14 SEPT: Ledakan teknologi kecerdasan buatan (AI) menjadikan penciptaan kandungan digital semakin mudah, termasuk menghasilkan video AI palsu atau deepfake yang sukar dibezakan dengan rakaman sebenar.
Pakar keselamatan digital menegaskan orang ramai masih boleh mengesan perbezaan antara video tulen dengan video AI sekiranya tahu tanda-tanda yang perlu diperhatikan.
Tanda-Tanda Video AI Palsu: Perincian Visual dan Audio
Video AI sering kelihatan sempurna pada pandangan pertama tetapi apabila diteliti bingkai demi bingkai, kecacatan jelas dapat dikesan. Antara petanda termasuk telinga herot, gigi kabur serta barang kemas yang berubah bentuk secara tiba-tiba.
Pencahayaan juga sering tidak sepadan. Bayangan pada wajah tidak selari dengan latar manakala pantulan pada cermin mata berbeza dengan sumber cahaya.
Selain itu, audio dalam video AI kerap tidak seiring dengan gerakan bibir. Suara kedengaran rata tanpa intonasi, jeda atau bunyi pernafasan.

Isyarat Biologi dan Metadata: Petunjuk Video AI
Kadar kerlipan mata manusia sekitar 15 hingga 20 kali seminit, namun dalam deepfake video kerlipan terlalu jarang atau terlalu kerap. Malah, kedudukan kepala kadangkala tidak selari dengan latar, sekali gus membongkar penyamaran.
Metadata fail juga boleh dijadikan rujukan. Video asli daripada kamera lazimnya mengandungi maklumat peranti dan lokasi, manakala video AI tidak mempunyai data berkenaan.
Kes Penipuan Video Deepfake di Malaysia: Mangsa Rugi Jutaan Ringgit
Polis Diraja Malaysia (PDRM) mendedahkan lebih 450 kes penipuan deepfake disiasat setakat ini dengan kerugian mencecah RM2.72 juta.
Antara modus operandi ialah penipu menyamar sebagai kenalan mangsa melalui panggilan video sebelum meminta wang atas alasan kecemasan.
Satu kes deepfake yang menggemparkan dunia korporat pula melibatkan bekas ketua pegawai kewangan (CFO) Maybank Banking Bhd, Khalijah Ismail yang hampir memindahkan wang berjumlah RM4.77 juta selepas terpedaya dengan satu video deepfake. Khalijah berundur daripada jawatannya kesan kes tersebut.
April lalu, Johor digemparkan kes pelajar sekolah menengah menghasilkan serta menjual gambar deepfake lucah membabitkan rakan sekolah. Kes itu mencetuskan gesaan NGO supaya undang-undang lebih ketat digubal.
Imej bekas Ketua Pengarah Kesihatan Tan Sri Dr Noor Hisham Abdullah turut digunakan tanpa izin dalam iklan produk ubatan.
Malah wajah dan suara Yang di-Pertuan Agong Sultan Ibrahim dijana AI turut digunakan akaun palsu bagi mempromosikan tawaran pelaburan meragukan.
Video AI lucah dan ugutan politik: trend baharu penipuan digital
Pada September 2025 pula, beberapa ahli politik termasuk Rafizi Ramli, Wong Chen, Taufiq Johari dan Najwan Halimi mendakwa menjadi mangsa ugutan video lucah janaan AI, dengan pihak tertentu menuntut bayaran USD100,000 bagi mengelakkan penyebaran.
Pada 2022, satu video tular menunjukkan Presiden Ukraine Volodymyr Zelenskyy menggesa tenteranya supaya menyerah kalah ketika Rusia melancarkan pencerobohan. Walaupun segera disahkan palsu, insiden itu membuktikan teknologi AI mampu dijadikan senjata propaganda perang yang mengelirukan rakyat.
Seawal 2019, di Amerika Syarikat, Speaker Dewan Perwakilan Nancy Pelosi turut menjadi mangsa apabila videonya diputarbelit untuk kelihatan seperti mabuk dan tidak waras, sekali gus mencetuskan perdebatan mengenai manipulasi politik melalui media sosial.

Kes deepfake antarabangsa: Hong Kong, India dan United Kingdom
Fenomena sama turut melanda dunia.
Hong Kong: Sebuah syarikat kerugian HK$200 juta selepas kakitangan diperdaya melalui mesyuarat video deepfake yang menyamar sebagai pengarah kanan.
India: Seorang wanita di Bengaluru kehilangan Rs3.7 crore selepas mempercayai video deepfake seorang guru rohani terkenal yang kononnya mempromosikan pelaburan saham.
United Kingdom: Seorang CEO syarikat bekalan tenaga di UK memindahkan €220,000 selepas terpedaya dengan panggilan telefon deepfake daripada ketuanya di ibu pejabat di Jerman.
Undang-undang Malaysia tentang video AI: Apa hak anda?
Walaupun tiada akta khusus berkaitan deepfake, beberapa peruntukan sedia ada boleh digunakan:
Kanun Keseksaan (Seksyen 415–417): Menangani kes penipuan.
Akta Komunikasi dan Multimedia 1998 (Seksyen 233): Melarang penyebaran kandungan palsu atau lucah.
Akta Hak Cipta 1987: Melindungi hak imej dan suara individu.
Pakar undang-undang mencadangkan kerajaan menggubal akta khusus bagi menangani penyalahgunaan teknologi AI yang kian berkembang pesat.

Nasihat pakar: Cara semak ketulenan video deepfake
Profesor Madya Dr Zuriati Ahmad Zukarnain dari Universiti Putra Malaysia mengingatkan orang ramai supaya berwaspada dalam setiap urusan digital kerana “gambar, audio dan video palsu yang dihasilkan AI semakin realistik”.
Sementara itu, Pengarah Pusat Penyelidikan Keselamatan Siber Universiti Sains Malaysia, Prof Dr Selvakumar Manickam, memberi amaran bahawa penyebaran video deepfake membabitkan tokoh politik dan isu sensitif boleh menjejaskan keselamatan negara.
Menteri Komunikasi, Fahmi Fadzil, turut menasihati rakyat agar tidak mudah mempercayai kandungan mencurigakan serta mengamalkan semakan silang sebelum berkongsi sebarang video di media sosial.
Aplikasi percuma untuk kenal pasti video AI palsu
Antara aplikasi percuma yang boleh digunakan termasuk InVID dan WeVerify untuk semakan metadata serta carian imej terbalik. Microsoft Video Authenticator pula menganggarkan tahap manipulasi sesuatu video manakala teknologi GAN Fingerprinting mengesan corak khas yang ditinggalkan model AI.

Periksa dan sahkan sebelum kongsi
Bahaya penipuan berasaskan AI semakin membimbangkan kerana teknologi ini mampu meniru wajah, suara dan gaya seseorang dengan sangat meyakinkan sehingga sukar dibezakan daripada rakaman sebenar. Ia bukan sahaja digunakan untuk menipu kewangan dengan kerugian berjuta-juta ringgit, malah turut disalah guna untuk menyebarkan fitnah politik, merosakkan reputasi individu dan mencetuskan kekeliruan dalam masyarakat.
Dengan penyebaran pantas di media sosial, AI scam berpotensi menggugat keselamatan negara, kestabilan ekonomi dan kepercayaan awam sekiranya orang ramai tidak berhati-hati serta gagal mengesahkan ketulenan maklumat yang diterima.





