JAKARTA, RADARSUMBAR.COM – Apple membuat fitur khusus untuk mendeteksi pelecehan anak dengan memindai foto yang ada di iCloud. Nantinya konten pelecehan yang ditemukan akan dilaporkan ke penegak hukum.
Sistem ini akan mendeteksi materi pelecehan seksual anak (CSAM) menggunakan proses bernama hashing, dimana gambar akan diubah menjadi nomor unik yang mewakili gambar tersebut. Apple mulai menguji coba sistem tersebut pada pekan ini, tapi baru terbatas di Amerika Serikat. Nantinya sistem ini akan menjadi bagian dari iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.
Fitur ini bekerja dengan mencocokkan hash gambar dengan database hash yang disediakan oleh National Center for Missing and Exploited Children (NCMEC). Proses pencocokkan ini akan dilakukan di iPhone pengguna, bukan di cloud.
Jika Apple mendeteksi beberapa foto yang melanggar aturan di akun iCloud, sistem akan mengunggah file yang memungkinkan Apple untuk mendekripsi dan melihat foto di akun tersebut. Foto itu kemudian ditinjau secara manual oleh seorang reviewer untuk mengonfirmasi apakah ada kecocokan atau tidak.
Apple mengatakan mereka hanya akan bisa meninjau foto yang cocok dengan konten yang sudah ada di database. Jadi mereka tidak akan mendeteksi foto anak saat sedang mandi yang diambil oleh orang tuanya karena tidak ada di dalam database NCMEC.
Jika orang yang meninjau foto secara manual menemukan kecocokan antara foto dengan database NCMEC, Apple akan menonaktifkan akun iCloud pengguna dan mengirimkan laporan ke NCMEC atau ke penegak hukum jika diperlukan, seperti dikutip dari CNBC, Minggu (8/8/2021).
Juru bicara Apple mengatakan pengguna bisa mengajukan banding ke Apple jika akun iCloud mereka dinonaktifkan secara tidak sengaja. Sistem ini hanya bisa mendeteksi foto yang diunggah ke iCloud. Foto atau gambar lainnya yang ada di perangkat tapi belum diunggah ke iCloud tidak akan dideteksi oleh sistem.
Meski belum dirilis, peneliti keamanan sudah mengungkapkan kekhawatirannya bahwa fitur ini bisa digunakan untuk mendeteksi foto lain, misalnya foto saat protes politik.
Apple mengatakan sistem buatannya dirancang agar hanya bisa digunakan untuk mendeteksi foto yang ada di database NCMEC atau organisasi keamanan anak lainnya, dan kriptografi yang dibuat tidak bisa digunakan untuk tujuan lain.
Apple juga menjamin fitur ini tidak akan melanggar privasi pengguna. Produsen iPhone ini mengatakan mereka telah menunjukkan sistemnya ke ahli kriptografi untuk memastikan bahwa sistem ini bisa mendeteksi eksploitasi anak ilegal tanpa melanggar privasi pengguna.
Dalam kesempatan yang sama, Apple juga mengungkap sederet fitur lainnya yang ditujukan untuk melindungi anak-anak dari predator. Salah satunya, Apple akan menggunakan machine learning untuk mengaburkan foto yang mungkin berisi konten telanjang di iPhone milik anak, dan orang tua bisa memilih untuk menerima peringatan jika anak di bawah 13 tahun menerima konten seksual di iMessage. (*)