Akhir tahun ini, Apple akan meluncurkan teknologi yang memungkinkan perusahaan untuk mendeteksi dan melaporkan materi pelecehan seksual anak yang diketahui ke penegak hukum dengan cara yang dikatakan akan menjaga privasi pengguna.
Apple mengatakan kepada TechCrunch bahwa deteksi materi pelecehan seksual anak (CSAM) adalah salah satu dari beberapa fitur baru yang bertujuan untuk lebih melindungi anak-anak yang menggunakan layanannya dari bahaya online, termasuk filter untuk memblokir foto yang berpotensi eksplisit secara seksual yang dikirim dan diterima melalui akun iMessage anak. Fitur lain akan campur tangan ketika pengguna mencoba mencari istilah terkait CSAM melalui Siri dan Pencarian.
Sebagian besar layanan cloud — Dropbox, Google, dan Microsoft untuk beberapa nama — sudah memindai file pengguna untuk konten yang mungkin melanggar persyaratan layanan mereka atau berpotensi ilegal, seperti CSAM. Tetapi Apple telah lama menolak memindai file pengguna di cloud dengan memberi pengguna opsi untuk mengenkripsi data mereka sebelum mencapai server iCloud Apple.
Apple mengatakan teknologi deteksi CSAM baru — NeuralHash — berfungsi pada perangkat pengguna, dan dapat mengidentifikasi apakah pengguna mengunggah gambar pelecehan anak yang diketahui ke iCloud tanpa mendekripsi gambar hingga ambang batas terpenuhi dan serangkaian pemeriksaan untuk memverifikasi konten dihapus.
Selengkapnya: Tech Crunch