Tiga ahli keamanan siber menjelaskan bagaimana kecerdasan buatan dan machine learning dapat digunakan untuk menghindari pertahanan keamanan siber dan membuat pelanggaran lebih cepat dan lebih efisien selama cybersecurity summit NCSA dan Nasdaq.
Data poisoning
Elham Tabassi, kepala staf laboratorium teknologi informasi, Institut Standar dan Teknologi Nasional, mengatakan bahwa pelaku kejahatan terkadang menargetkan data yang digunakan untuk melatih model machine learning.
Data Poisoning dirancang untuk memanipulasi set data pelatihan guna mengontrol perilaku prediksi model terlatih untuk mengelabui model agar berperforma salah, seperti memberi label email spam sebagai konten yang aman.
Ada dua jenis data poisoning: Serangan yang menargetkan ketersediaan algoritme ML dan serangan yang menargetkan integritasnya. Penelitian menunjukkan bahwa 3% pelatihan data set poisoning menyebabkan penurunan akurasi sebesar 11%.
Tabassi mengatakan bahwa teknik untuk meracuni data dapat ditransfer dari satu model ke model lainnya. Tabassi juga mengatakan industri membutuhkan standar dan pedoman untuk memastikan kualitas data dan bahwa NIST sedang mengerjakan pedoman nasional untuk AI yang dapat dipercaya.
Generative Adversarial Networks
Generative Adversarial Networks (GANs) pada dasarnya adalah dua sistem AI yang diadu satu sama lain — satu yang mensimulasikan konten asli dan satu lagi yang menemukan kesalahannya. Dengan berkompetisi satu sama lain, mereka bersama-sama membuat konten yang cukup meyakinkan untuk disandingkan dengan aslinya.
Tim Bandos, kepala petugas keamanan informasi di Digital Guardian, mengatakan bahwa penyerang menggunakan GAN untuk meniru pola lalu lintas normal, untuk mengalihkan perhatian dari serangan, dan untuk menemukan serta mengekstrak data sensitif dengan cepat.
GAN juga dapat digunakan untuk memecahkan sandi, menghindari deteksi malware, dan menipu pengenalan wajah, seperti yang dijelaskan Thomas Klimek dalam makalah, “What Are They and Why We Should Be Afraid.”
Bandos mengatakan bahwa algoritma AI yang digunakan dalam keamanan siber harus sering dilatih ulang untuk mengenali metode serangan baru.
Manipulating bots
Panelis Greg Foss, ahli strategi keamanan siber senior di VMware Carbon Black, mengatakan bahwa jika algoritme AI membuat keputusan, mereka dapat dimanipulasi untuk membuat keputusan yang salah.
Foss menggambarkan serangan baru-baru ini pada sistem perdagangan cryptocurrency yang dijalankan oleh bot.
“Penyerang masuk dan menemukan bagaimana bot melakukan perdagangan mereka dan mereka menggunakan bot untuk mengelabui algoritme,” katanya. “Ini dapat diterapkan di seluruh implementasi lain.”
Foss menambahkan bahwa teknik ini bukanlah hal baru tetapi sekarang algoritma ini membuat keputusan yang lebih cerdas yang meningkatkan risiko membuat keputusan yang buruk.
Artikel selengkapnya dapat dibaca pada tautan di bawah ini;
Source: Tech Republic