JAKARTA, iNewsSerpong.id - ChatGPT menarik perhatian dunia sejak diluncurkan tahun lalu. Namun, belakangan ini chabot berbasis AI ini mulai didalami untuk membuat sesuatu yang berbahaya.
Seorang peneliti keamanan siber Aaron Mulgrew dari Forcepoint mengklaim, chatbot AI dapat digunakan aktor jahat untuk membuat malware berbahaya yang bisa mencuri data orang lain.
Aaron menyebut dirinya berhasil menggunakan ChatGPT untuk mengembangkan eksploitasi zero-day yang dapat mencuri data seseorang dari perangkat yang disusupi.Aaron mengungkapkan malware yang dihasilkan ChatGPT dapat menghindari deteksi dari semua vendor di VirusTotal. Ironisnya, Aaron mengatakan ini semua bisa dipelajari bahkan oleh para pemula. Untuk mempermudah pengembangan, Aaron menggunakan bahasa implementasi Go karena dia dapat men-debug kode secara manual jika diperlukan. Selain itu, dia turut menggunakan steganografi yang menyembunyikan data rahasia di dalam file atau pesan biasa untuk menghindari deteksi.
Sebagaimana dikutip dari TechSpot, ChatGPT bisa diminta secara langsung demi mengembangkan malware. Tapi, hal itu membuat pagar pembatas chatbot beraksi dan secara blak-blakan menolak melakukan tugas atas dasar etika. Guna mengakalinya, pengguna harus kreatif dan meminta alat AI demi menghasilkan potongan kecil kode alat bantu sebelum secara manual menggabungkan seluruh file yang dapat dieksekusi.
Aaron mengatakan seluruh proses memakan waktu hanya beberapa jam. Tap chatbot, dia yakin akan membutuhkan waktu 5-10 minggu bagi tim pengembang agar membuat software berbahaya dan memastikannya dapat menghindari deteksi aplikasi keamanan. Konten di bawah ini disajikan oleh Advertiser. Jurnalis iNews.id tidak terlibat dalam materi konten ini.
(*)
Editor : Syahrir Rasyid
Artikel Terkait