Saat sistem pembelajaran mesin (ML) menjadi pokok dalam kehidupan sehari-hari, ancaman keamanan yang ditimbulkannya akan meluas ke semua jenis aplikasi yang kita gunakan, menurut sebuah laporan baru.
Tidak seperti perangkat lunak tradisional, di mana kekurangan dalam desain dan kode sumber menyebabkan sebagian besar masalah keamanan, dalam sistem AI, kerentanan dapat muncul pada gambar, file audio, teks, dan data lain yang digunakan untuk melatih dan menjalankan model pembelajaran mesin.
Hal ini menurut para peneliti dari Adversa, start-up berbasis di Tel Aviv yang berfokus pada keamanan untuk sistem kecerdasan buatan (AI), yang menguraikan temuan terbaru mereka dalam laporan mereka, The Road to Secure and Trusted AI, bulan ini.
Menurut para peneliti di Adversa, sistem pembelajaran mesin yang memproses data visual bertanggung jawab atas sebagian besar pekerjaan pada serangan adversarial, diikuti oleh analitik, pemrosesan bahasa, dan otonomi.
Pengembang web yang mengintegrasikan model pembelajaran mesin ke dalam aplikasi mereka harus memperhatikan masalah keamanan ini, Alex Polyakov memperingatkan, salah satu pendiri dan CEO Adversa.
Polyakov juga memperingatkan tentang kerentanan dalam model pembelajaran mesin yang disajikan melalui web seperti layanan API yang disediakan oleh perusahaan teknologi besar.
Selengkapnya: Daily Swig