peneliti telah mengembangkan berbagai trik untuk menyembunyikan backdoor sampel mereka sendiri dalam model pembelajaran mesin. Tapi pendekatannya sebagian besar trial and error, kurang analisis matematis formal tentang seberapa baik pintu belakang itu disembunyikan.
Para peneliti kini mulai menganalisis keamanan model pembelajaran mesin dengan cara yang lebih teliti. Dalam sebuah makalah yang dipresentasikan pada konferensi Foundations of Computer Science tahun lalu, tim ilmuwan komputer mendemonstrasikan cara menanam pintu belakang yang tidak terdeteksi yang tembus pandangnya sama pastinya dengan keamanan metode enkripsi canggih.
Kekakuan matematis dari karya baru ini hadir dengan kompromi, seperti fokus pada model yang relatif sederhana. Tetapi hasilnya menetapkan hubungan teoretis baru antara keamanan kriptografi dan kerentanan pembelajaran mesin, menyarankan arah baru untuk penelitian masa depan di persimpangan dua bidang tersebut.
“Itu adalah makalah yang sangat menggugah pikiran,” kata Ankur Moitra, seorang peneliti pembelajaran mesin di Massachusetts Institute of Technology. “Harapannya adalah ini menjadi batu loncatan menuju model yang lebih dalam dan lebih rumit.”
selengkapnya : quantanmagazine