Dark AI yang Jadi Ancaman Besar Dunia Siber 2025, Perkembangan Teknologi kecerdasan buatan atau artificial intelligence (AI) kian pesat dari hari ke hari. Meski menawarkan banyak manfaat, kemajuan ini juga berpotensi menimbulkan ancaman serius.
Belakangan, muncul istilah Dark AI yang disebut sebagai dalang di balik Serangan Siber Canggih di berbagai negara.
Dark AI yang Jadi Ancaman Besar Dunia Siber 2025
Menurut Kaspersky, perusahaan keamanan siber asal Rusia, Dark AI adalah penerapan model bahasa besar (LLM) baik secara lokal maupun jarak jauh yang tidak dibatasi oleh kerangka kerja atau sistem chatbot resmi, dan dimanfaatkan untuk tujuan berbahaya, tidak etis, maupun melanggar hukum.
Sistem ini beroperasi di luar pengawasan keamanan, kepatuhan, dan tata kelola standar, sehingga dapat digunakan untuk penipuan, manipulasi, serangan siber, hingga penyalahgunaan data tanpa kendali.
Sergey Lozhkin, Kepala Tim Riset Analisis Global (GReAT) untuk wilayah META dan APAC di Kaspersky, mengungkapkan bahwa bentuk penggunaan AI berbahaya yang saat ini paling dikenal adalah Black Hat GPT, yang mulai muncul pada pertengahan 2023.
Dalam keterangan resminya, Kaspersky menjelaskan bahwa teknologi ini merupakan model AI yang sengaja dirancang, dimodifikasi, atau dimanfaatkan untuk menjalankan aktivitas ilegal, berisiko, maupun merugikan.
Kegiatan tersebut mencakup pembuatan kode berbahaya, penyusunan email phishing yang meyakinkan untuk serangan skala besar maupun tertarget, pembuatan deepfake suara dan video, hingga mendukung operasi Red Team.

Black Hat GPT dapat hadir dalam wujud model AI yang bersifat privat maupun semi-privat. Beberapa contoh yang sudah teridentifikasi meliputi WormGPT, DarkBard, FraudGPT, dan Xanthorox.
Masing-masing dikembangkan atau dimodifikasi dengan tujuan mendukung aksi kriminal di dunia maya, mulai dari peretasan, penipuan daring, hingga otomatisasi proses berbahaya yang sebelumnya membutuhkan keterampilan teknis tinggi.
Sergey Lozhkin, Kepala Tim Riset Analisis Global (GReAT) Kaspersky untuk wilayah META dan APAC, menyampaikan bahwa selain bentuk pemanfaatan Dark AI yang lazim ditemukan di kalangan penjahat siber, kini mulai terlihat tren lebih mengkhawatirkan.
Tren ini melibatkan aktor negara yang menggunakan model bahasa besar atau LLM untuk kepentingan operasi mereka, termasuk kegiatan spionase, pengaruh politik, dan kampanye manipulasi informasi.
OpenAI sendiri baru-baru ini mengumumkan keberhasilan menggagalkan lebih dari 20 operasi siber tersembunyi yang mencoba mengeksploitasi teknologi AI mereka.
Dalam laporan tersebut dijelaskan bahwa para pelaku memanfaatkan LLM untuk membuat persona palsu yang tampak autentik, merespons target secara real-time, dan memproduksi konten multibahasa yang sengaja dirancang agar dapat menipu korban serta menembus sistem penyaringan keamanan konvensional.

Lozhkin menegaskan, AI pada dasarnya tidak memiliki konsep moral untuk membedakan antara perintah yang benar dan salah. Teknologi ini hanya menjalankan instruksi yang diberikan.
Bahkan dengan adanya perlindungan dan pembatasan penggunaan, kelompok Advanced Persistent Threat (APT) yang dikenal gigih tetap dapat menemukan celah untuk memanfaatkannya.
Ia juga mengingatkan bahwa semakin mudahnya akses dan meningkatnya kecanggihan perangkat Dark AI menuntut organisasi maupun individu, khususnya di kawasan Asia Pasifik, untuk meningkatkan kebersihan keamanan digital.
Langkah yang direkomendasikan meliputi investasi pada sistem deteksi ancaman berbasis AI, penguatan kesadaran keamanan siber di seluruh lapisan pengguna, serta pembaruan pengetahuan mengenai potensi penyalahgunaan teknologi ini agar dapat mengambil tindakan pencegahan yang tepat.
