Kekhawatiran tentang meningkatnya kemampuan chatbot yang dilatih pada model bahasa besar, seperti GPT-4 OpenAI, Bard Google, dan Bing Chat Microsoft, menjadi berita utama.
Para ahli memperingatkan tentang kemampuan mereka untuk menyebarkan informasi yang salah dalam skala yang sangat besar, serta risiko eksistensial yang dapat ditimbulkan oleh perkembangan mereka terhadap umat manusia.
Seolah-olah ini tidak cukup mengkhawatirkan, area perhatian ketiga telah terbuka – diilustrasikan oleh larangan ChatGPT Italia baru-baru ini atas dasar privasi.
Regulator data Italia telah menyuarakan keprihatinan atas model yang digunakan oleh pemilik ChatGPT OpenAI dan mengumumkan akan menyelidiki apakah perusahaan tersebut telah melanggar undang-undang perlindungan data Eropa yang ketat.
Chatbots dapat berguna untuk pekerjaan dan tugas pribadi, tetapi mereka mengumpulkan data dalam jumlah besar. AI juga menimbulkan banyak risiko keamanan, termasuk kemampuan untuk membantu penjahat melakukan serangan dunia maya yang lebih meyakinkan dan efektif.
Kebanyakan orang menyadari risiko privasi yang ditimbulkan oleh mesin pencari seperti Google, tetapi para ahli berpendapat bahwa chatbot bisa jadi lebih haus data.
Sifat percakapan mereka dapat membuat orang lengah dan mendorong mereka untuk memberikan lebih banyak informasi daripada yang mereka masukkan ke dalam mesin pencari. “Gaya seperti manusia dapat melumpuhkan pengguna,” kata Ali Vaziri, direktur hukum di tim data dan privasi di firma hukum Lewis Silkin.
Selengkapnya: The Guardian