
AI Chatbot yang baru saja memulai dubbed Ghostgpt telah memberi calon dan penjahat cyber yang aktif sebagai alat baru yang berguna untuk mengembangkan malware, melakukan penipuan kompromi email bisnis, dan melaksanakan kegiatan ilegal lainnya.
Seperti sebelumnya, chatbots serupa seperti WormgptGhostgpt adalah model AI yang tidak disensor, yang berarti disetel untuk memotong langkah -langkah keamanan yang biasa dan kendala etika yang tersedia dengan sistem AI arus utama seperti ChatGPT, Claude, Google Gemini, dan Microsoft Copilot.
Genai tanpa pagar: perilaku tanpa sensor
Aktor yang buruk dapat menggunakan GhostGpt untuk menghasilkan kode berbahaya dan menerima tanggapan tanpa filter terhadap pertanyaan sensitif atau berbahaya yang biasanya akan diblokir oleh sistem AI tradisional, kata para peneliti keamanan yang tidak normal dalam a Posting Blog Minggu ini.
“Ghostgpt dipasarkan untuk berbagai kegiatan jahat, termasuk pengkodean, penciptaan malware, dan pengembangan eksploitasi,” menurut abnormal. “Ini juga dapat digunakan untuk menulis email yang meyakinkan untuk penipuan Kompromi Email Bisnis (BEC), menjadikannya alat yang nyaman untuk melakukan kejahatan dunia maya.” Tes yang dilakukan oleh vendor keamanan dari kemampuan pembuatan teks GhostGpt menunjukkan model AI yang menghasilkan email phishing dokumen yang sangat meyakinkan, misalnya.
Vendor keamanan pertama kali melihat Ghostgpt untuk dijual di saluran telegram pada pertengahan November. Sejak itu, chatbot nakal tampaknya telah mendapatkan banyak daya tarik di antara penjahat cyber, seorang peneliti di Abnormal mengatakan kepada Dark Reading. Para penulis menawarkan tiga model harga untuk model bahasa besar: $ 50 untuk penggunaan satu minggu; $ 150 untuk satu bulan dan $ 300 selama tiga bulan, kata peneliti, yang meminta untuk tidak disebutkan namanya.
Untuk harga itu, pengguna mendapatkan model AI tanpa sensor yang menjanjikan tanggapan cepat terhadap kueri dan dapat digunakan tanpa petunjuk jailbreak. Penulis malware juga mengklaim bahwa GhostGpt tidak mempertahankan log pengguna atau merekam aktivitas pengguna apa pun, menjadikannya alat yang diinginkan bagi mereka yang ingin menyembunyikan aktivitas ilegal mereka, kata abnormal.
Chatbots nakal: Masalah penjahat cyber yang muncul
Chatbots Rogue AI seperti Ghostgpt menghadirkan masalah baru dan berkembang untuk organisasi keamanan karena bagaimana mereka menurunkan penghalang untuk penjahat cyber. Alat memungkinkan siapa pun, termasuk yang minimal hingga tidak ada keterampilan pengkodean, kemampuan untuk dengan cepat menghasilkan kode berbahaya dengan memasukkan beberapa petunjuk. Secara signifikan, mereka juga memungkinkan individu yang sudah memiliki beberapa keterampilan pengkodean kemampuan untuk menambah kemampuan mereka dan meningkatkan malware mereka dan mengeksploitasi kode. Mereka sebagian besar menghilangkan kebutuhan bagi siapa pun untuk menghabiskan waktu dan upaya mencoba melakukan jailbreak model Genai untuk mencoba dan membawanya ke terlibat dalam berbahaya Dan perilaku jahat.
Wormgpt, misalnya, muncul pada bulan Juli 2023-atau sekitar delapan bulan setelah Chatgpt meledak di tempat kejadian-sebagai salah satu model AI “jahat” pertama yang dibuat secara eksplisit untuk penggunaan berbahaya. Sejak itu, ada beberapa orang lain, termasuk Wolfgpt, Escapegpt, dan Fraugpt, Bahwa pengembang mereka telah mencoba memonetisasi di pasar kejahatan dunia maya. Tetapi kebanyakan dari mereka telah gagal mengumpulkan banyak daya tarik karena, antara lain, mereka gagal memenuhi janji mereka atau hanya jailbroken versi chatgpt dengan pembungkus tambahan untuk membuatnya tampak sebagai alat AI yang baru dan mandiri. Vendor keamanan menilai GhostGpt untuk kemungkinan juga menggunakan pembungkus untuk terhubung ke versi chatgpt yang di -jailbreak atau model bahasa besar open source lainnya.
“Dalam banyak hal, GhostGpt tidak berbeda secara besar -besaran dari varian tanpa sensor lainnya seperti Wormgpt dan Escapegpt,” kata peneliti abnromal itu kepada Dark Reading. “Namun, spesifiknya tergantung pada varian yang Anda bandingkan.”
Misalnya, Escapegpt bergantung pada petunjuk jailbreak untuk memotong pembatasan, sementara Wormgpt adalah model bahasa besar (LLM) yang sepenuhnya disesuaikan yang dirancang untuk keperluan jahat. “Dengan Ghostgpt, tidak jelas apakah itu LLM khusus atau versi jailbroken dari model yang ada, karena penulis belum mengungkapkan informasi ini. Kurangnya transparansi ini membuatnya sulit untuk secara definitif membandingkan GhostGpt dengan varian lain.”
Popularitas Ghostgpt yang semakin meningkat di lingkaran bawah tanah juga tampaknya telah membuat penciptanya lebih berhati -hati. Penulis atau penjual chatbot telah menonaktifkan banyak akun yang telah mereka buat untuk mempromosikan alat dan tampaknya telah beralih ke penjualan pribadi, kata peneliti. “Utas penjualan di berbagai forum kejahatan dunia maya juga telah ditutup, lebih jauh mengaburkan identitas mereka, [so] Sampai sekarang, kami tidak memiliki informasi pasti tentang siapa yang ada di belakang Ghostgpt. “