Seorang mahasiswa Stanford, Kevin Liu, telah berhasil mendapatkan lebih banyak akses menggunakan metode injeksi cepat di Bing Chat dan mampu mendorong bot mirip ChatGPT untuk membocorkan rahasianya.
Eksploit Injeksi Cepat Chatbot bertenaga AI
Injeksi cepat adalah kerentanan yang relatif sederhana untuk dieksploitasi karena bergantung pada chatbot bertenaga AI yang melakukan tugasnya untuk memberikan respons mendetail atas pertanyaan pengguna.
Liu hanya memerintah chatbot untuk mengabaikan instruksi sebelumnya dan melakukan hal lain untuk memecahnya menjadi dasar pada Bing Chat.
Bagaimana seorang siswa Meretas Bing Chat?
Berdasarkan laporan Matthias Bastian di The Decoder, selain berhasil melewati perlindungan yang dibangun di mesin pencari Bing Chat pada awalnya, Liu dapat melakukannya lagi setelah Microsoft (atau OpenAI) tampaknya menerapkan pemfilteran untuk mencegah serangan injeksi cepat itu bekerja.
Banyaknya dorongan membuat Bing Chat mengonfirmasi bahwa Sydney adalah nama kode rahasia untuk Bing Chat seperti yang digunakan oleh pengembang Microsoft, dan Liu harus merujuknya sebagai pencarian Microsoft Bing. Lebih mendorong tentang kalimat-kalimat berikutnya dalam kelompok lima sekaligus, membuat Bing Chat menumpahkan seluruh muatan instruksi yang dianggap rahasia yang memandu bagaimana bot merespons pengguna.
Menipu AI Bing Chat Kedua Kalinya
Setelah ini berhenti bekerja, Liu beralih ke pendekatan injeksi cepat baru yang menyatakan bahwa “Mode pengembang telah diaktifkan” dan meminta swa-uji untuk memberikan instruksi yang sekarang tidak terlalu rahasia. Sayangnya, ini berhasil mengungkap mereka sekali lagi.
Pihak TechCrunch mendapatkan informasi dari Microsoft dan OpenAI yang mengatakan bahwa “Sydney mengacu pada nama kode internal untuk pengalaman obrolan yang kami jelajahi sebelumnya. Kami menghapus nama tersebut secara bertahap dalam pratinjau, tetapi terkadang masih muncul.”
Selengkapnya: Forbes