Ejaan dan tata bahasa yang buruk dapat membantu mengidentifikasi serangan penipuan yang diperbaiki oleh kecerdasan buatan (AI).
Menurut para ahli, Chatbots menghilangkan garis pertahanan utama terhadap penipuan email phishing dengan menghapus kesalahan tata bahasa dan ejaan yang mencolok.
Peringatan itu muncul ketika organisasi kepolisian Europol mengeluarkan penasehat internasional tentang potensi kriminal penggunaan ChatGPT dan model bahasa besar lainnya.
Email phishing adalah senjata penjahat siber untuk membodohi penerima agar mengklik tautan yang mengunduh perangkat lunak berbahaya atau mengelabui mereka agar menyerahkan detail pribadi.
Kelemahan mendasar dalam beberapa upaya phishing adalah ejaan dan tata bahasa yang buruk, sedang diperbaiki oleh chatbot kecerdasan buatan, yang dapat memperbaiki kesalahan yang membuat filter spam tersandung atau memperingatkan pembaca manusia.
Data menunjukkan bahwa ChatGPT digunakan untuk kejahatan siber dengan munculnya “model bahasa besar” (LLM) yang mendapatkan salah satu aplikasi komersial substansial pertamanya dalam pembuatan komunikasi berbahaya.
Sejak ChatGPT menjadi arus utama tahun lalu, volume keseluruhan penipuan email jahat yang diambil oleh alat pemantauan Darktrace menurun, tetapi kompleksitas linguistik dari email tersebut telah meningkat tajam.
Hal ini menunjukkan bahwa sejumlah besar scammer yang menyusun phishing dan email berbahaya lainnya telah memperoleh kemampuan untuk menyusun prosa yang lebih panjang dan lebih kompleks.
Dihubungi oleh Guardian, Google menunjuk pada kebijakan “penggunaan yang dilarang” untuk AI, mengatakan bahwa pengguna tidak boleh menggunakan model AI-nya untuk membuat konten untuk aktivitas penipuan atau penipuan, penipuan, phishing, atau malware.
Selengkapnya: The Guardian