Pada hari Kamis, beberapa pengguna Twitter menemukan cara membajak bot tweet otomatis, yang didedikasikan untuk pekerjaan jarak jauh, yang berjalan pada model bahasa GPT-3 oleh OpenAI. Menggunakan teknik yang baru ditemukan yang disebut “promt injection attack”, mereka mengarahkan bot untuk mengulangi frasa yang memalukan dan konyol.
Bot dijalankan oleh Remoteli.io, sebuah situs yang mengumpulkan peluang kerja jarak jauh dan menggambarkan dirinya sebagai “bot berbasis OpenAI yang membantu Anda menemukan pekerjaan jarak jauh yang memungkinkan Anda bekerja dari mana saja.” Biasanya akan menanggapi tweet yang diarahkan padanya dengan pernyataan umum tentang hal-hal positif dari pekerjaan jarak jauh. Setelah eksploitasi menjadi viral dan ratusan orang mencoba eksploitasi untuk diri mereka sendiri, bot ditutup kemarin malam.
Peretasan ini terjadi hanya empat hari setelah peneliti data Riley Goodside menemukan kemampuan untuk meminta GPT-3 dengan “input berbahaya” yang memerintahkan model untuk mengabaikan petunjuk sebelumnya dan melakukan hal lain sebagai gantinya. Peneliti AI Simon Willison memposting garis besar eksploitasi di blognya pada hari berikutnya, menciptakan istilah “prompt injection” untuk menggambarkannya.
“Eksploitasi hadir kapan saja ada orang yang menulis perangkat lunak yang berfungsi dengan memberikan serangkaian instruksi cepat yang diprogram dan kemudian menambahkan input yang disediakan oleh pengguna,” kata Willison kepada Ars. “Hal tersebut dikarenakan pengguna dapat mengetik ‘Abaikan instruksi sebelumnya dan (lakukan ini sebagai gantinya).'”
Selengkapnya: ars TECHNICA