NINNA.ID – Selain dipuji dengan kemampuannya yang canggih, tak sedikit juga yang kuatir dengan kecerdasan buatan seperti ChatGPT, di mana dikabarkan chatbot AI generatif ternyata bisa disalahgunakan membuat malware berbahaya.
Demikian disampaikan seorang peneliti keamanan Forcepoint, Aaron Mulgrew, dengan meminta alat kecerdasan buatan tersebut membuat exploit zero day berkemampuan mencuri data korban.
Yang paling mengagetkan, malware buatan ChatGPT itu mampu menghindari deteksi oleh semua program antivirus di dalam katalog VirusTotal.
Dilansir Gizchina, Minggu (16/4/2023), OpenAI telah menerapkan perlindungan untuk mencegah pengguna meminta ChatGPT untuk menulis kode berbahaya.
Namun, Aaron berhasil melewati perlindungan tersebut dengan meminta chatbot menghasilkan setiap baris kode berbahaya dan fokus pada fungsi terpisah.
Setelah mengkompilasi berbagai fungsi, Aaron mencoba eksekusi pencurian data dan hampir tidak terdeteksi.
Tidak seperti malware tradisional yang membutuhkan tim peretas dan sumber daya yang besar, Aaron menciptakan malware ini sendiri dalam waktu beberapa jam dan sama sekali tidak memiliki pengalaman dalam pengkodean.
Penemuan tersebut menjadi ancaman bagi penyalahgunaan alat bertenaga AI semacam ChatGPT, sekaligus menimbulkan pertanyaan tentang keamanan dan mudahnya eksploitasi.
Eksperimen tersebut menunjukkan hasil yang mengkhawatirkan. Malware yang kompleks umumnya membutuhkan waktu berminggu-minggu bagi peretas terampil untuk mengembangkannya.
Namun dengan bantuan AI, orang yang tidak memiliki pengalaman coding sekalipun dapat membuatnya dengan praktis. Bukan tidak mungkin jika peretas sungguhan sudah menggunakan metode yang sama untuk membuat malware tingkat lanjut.
Dengan demikian, pendekatan keamanan siber di segala sisi perlu dikembangkan untuk menjamin AI tidak digunakan untuk hal yang berbahaya. Selain itu, pengguna juga harus diberikan edukasi tentang potensi risiko yang dapat ditimbulkan oleh teknologi ini.
Komunitas cybersecurity perlu beradaptasi dengan perubahan dan menggarap strategi baru untuk memerangi berbagai ancaman yang dibantu AI. Maka, kolaborasi antara peneliti, pengembang, dan pakar keamanan menjadi kunci keamanan digital.
Tak hanya malware, ChatGPT juga dapat digunakan untuk membuat email phising yang mirip dengan buatan manusia.
Sebuah demonstrasi dari peretasan manusia dengan AI-as-a-service (Hacking Humans with AI as a Service) mengungkapkan, AI mampu membuat serangan siber seperti email phishing yang lebih baik dan pesan spear phishing yang sangat efektif daripada manusia.
Hal itu seperti diungkap dalam konferensi keamanan Black Hat dan Defcon baru-baru ini, seperti dikutip dari siaran pers Palo Alto Networks, Senin (10/4/2023).
Di situ, para peneliti menggunakan platform GPT-4 OpenAI yang dikombinasikan dengan produk AI-as-a-service lain, yang berfokus pada analisis kepribadian, menghasilkan email phishing yang disesuaikan dengan latar belakang dan karakter kolega mereka.