Bagaimana Apple akan memindai iPhone Anda untuk foto pelecehan seks anak

Ringkasan
Apple telah mengalami kontroversi atas niatnya untuk memindai iPhone untuk foto pelecehan seks anak.
bagaimana-apple-akan-memindai-iphone
iPhone 8 dan iPhone 8 plus. FOTO/REUTERS

Apple baru-baru ini mengumumkan bahwa mereka akan meluncurkan pembaruan akhir tahun ini (di AS) yang akan membantu mengekang pelecehan seksual anak. Namun, fitur tersebut belum diterima dengan baik karena Apple mengatakan akan memindai iPhone semua orang untuk mendapatkan Materi Pelecehan Seksual Anak (CSAM). Setelah reaksi tersebut, Apple mengungkapkan rincian tentang cara kerja sistem pelecehan seksual anak iPhone yang baru. Menurut perusahaan, konten pengguna akan dipindai saat diunggah dari iPhone atau iPad ke iCloud. Inilah cara Apple akan memindai iPhone untuk foto pelecehan seks anak.

Apple akan menetapkan setiap gambar "kode hash." Kode-kode ini akan mengklasifikasikan apa yang terdiri dari media. Hash kemudian akan dibandingkan dengan database terenkripsi dari CSAM yang diketahui untuk menandai kecocokan. Setelah ini selesai, dan jika Apple menemukan bahwa pengguna memiliki 30 gambar (ambang batas) yang cocok dengan hash dari foto CSAM yang diketahui (daftar hash yang tersimpan dari NCMEC), foto tersebut akan didekripsi di server Apple.

Akibatnya, gambar-gambar ini kemudian akan diperiksa oleh peninjau manusia, dan jika ditandai, mereka akan memberi tahu pihak berwenang. Perusahaan juga diharuskan untuk melaporkan Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC), sebuah organisasi nirlaba yang bekerja bersama penegak hukum. Apple mengatakan bahwa ada kurang dari satu-dalam-satu-triliun kemungkinan salah menandai akun per tahun.

Seperti yang ditunjukkan The Verge, pemindaian CSAM bukanlah ide baru. Facebook, Twitter, dan banyak perusahaan lain memindai file pengguna terhadap pustaka hash. Apple menghadapi reaksi keras karena banyak yang percaya bahwa sistem baru akan membuka pintu belakang untuk penggunaan fitur yang tidak etis. Namun, Craig Federighi, wakil presiden senior Apple untuk teknik mengatakan kepada The Wall Street Journal bahwa sistem ini terbatas hanya untuk mencari salinan gambar pornografi anak yang diketahui dan dilaporkan.

Dalam dokumen yang dibagikan oleh Apple, perusahaan mengatakan bahwa fitur tersebut terbatas pada "foto yang dipilih pengguna untuk diunggah ke Foto iCloud." Selanjutnya disebutkan, "Fitur ini tidak berfungsi di perpustakaan foto iPhone pribadi Anda di perangkat."
Artanti Tri Hapsari
Artanti Tri Hapsari Managing Editor di tosutekno.com. Seorang yang paling hobi fotografi, travelling dan menulis serta penggemar produk Apple tapi bukan fangirl.

Posting Komentar

Satu hal lagi! Kami sekarang ada di Saluran WhatsApp! Ikuti kami di sana agar Anda tidak ketinggalan update apa pun dari dunia teknologi. Untuk mengikuti saluran tosutekno di WhatsApp, klik di sini untuk bergabung sekarang!