JAKARTA, RADARSUMBAR.COM – Apple membuat fitur khusus untuk mendeteksi pelecehan anak dengan memindai foto yang ada di iCloud. Nantinya konten pelecehan yang ditemukan akan dilaporkan ke penegak hukum.
Sistem ini akan mendeteksi materi pelecehan seksual anak (CSAM) menggunakan proses bernama hashing, dimana gambar akan diubah menjadi nomor unik yang mewakili gambar tersebut. Apple mulai menguji coba sistem tersebut pada pekan ini, tapi baru terbatas di Amerika Serikat. Nantinya sistem ini akan menjadi bagian dari iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.
Fitur ini bekerja dengan mencocokkan hash gambar dengan database hash yang disediakan oleh National Center for Missing and Exploited Children (NCMEC). Proses pencocokkan ini akan dilakukan di iPhone pengguna, bukan di cloud.
Jika Apple mendeteksi beberapa foto yang melanggar aturan di akun iCloud, sistem akan mengunggah file yang memungkinkan Apple untuk mendekripsi dan melihat foto di akun tersebut. Foto itu kemudian ditinjau secara manual oleh seorang reviewer untuk mengonfirmasi apakah ada kecocokan atau tidak.
Apple mengatakan mereka hanya akan bisa meninjau foto yang cocok dengan konten yang sudah ada di database. Jadi mereka tidak akan mendeteksi foto anak saat sedang mandi yang diambil oleh orang tuanya karena tidak ada di dalam database NCMEC.
Jika orang yang meninjau foto secara manual menemukan kecocokan antara foto dengan database NCMEC, Apple akan menonaktifkan akun iCloud pengguna dan mengirimkan laporan ke NCMEC atau ke penegak hukum jika diperlukan, seperti dikutip dari CNBC, Minggu (8/8/2021).