Bopelnews – AI Jadi Senjata Baru Hacker, Bikin Deepfake untuk Sebar Misinformasi hingga Penipuan
Kemajuan kecerdasan buatan (artificial intelligence/AI) yang pesat ternyata tak hanya membawa manfaat, namun juga menjadi ancaman serius.
Penelitian terbaru perusahaan keamanan siber Trend Micro mengungkapkan para hacker kini semakin memanfaatkan AI untuk melancarkan serangan siber yang semakin canggih dan sulit di deteksi.
Salah satu ancaman terbesar adalah deepfake, teknologi yang memungkinkan pembuatan video atau audio palsu yang sangat mirip dengan aslinya.
Dengan bantuan AI, mereka bisa mengecoh korban untuk melakukan pemerasan, pencurian identitas, fraud, atau menyebar misinformasi.
COO Trend Micro, Kevin Simzer, mengungkapkan peretas kini memiliki alat deepfake yang lebih murah dan mudah di gunakan.
“Fenomena itu tentu membuat mereka bisa melancarkan serangan yang lebih besar dan lebih efektif,”
Bahaya deepfake tidak hanya mengancam perusahaan, tetapi juga individu. Survei Trend Micro menunjukkan 71% responden merasa khawatir dengan deepfake dan meyakini bahwa teknologi ini sering di gunakan untuk penipuan.
“Deepfake yang tidak terdeteksi bisa menyebabkan kerugian finansial, kerusakan reputasi, bahkan ancaman fisik,” Simzer memungkaskan.
Teknologi Pendeteksi Deepfake
Melihat ancaman yang semakin serius, Trend Micro telah mengembangkan teknologi baru untuk mendeteksi deepfake.
Teknologi ini akan menggunakan berbagai metode canggih untuk mengidentifikasi konten yang di hasilkan oleh AI.
“Penting bagi kita untuk mengembangkan cara-cara baru untuk mendeteksi deepfake, karena teknologi ini berkembang sangat cepat,” kata Analis Gartner, Dan Ayoub.
Deepfake menimbulkan risiko yang signifikan bagi enterprise modern dan individu. Deepfake yang tidak terdeteksi dapat menyebabkan dampak finansial, kehilangan pekerjaan, masalah hukum, kerusakan reputasi, pencurian identitas, dan potensi bahaya terhadap kesehatan mental atau fisik.
Dalam studi Trend Micro baru-baru ini, 36% konsumen melaporkan telah mengalami upaya penipuan menggunakan deepfake.
Tinggalkan komentar