Apple Memindai Setiap Perangkat untuk Konten Pelecehan Anak — Tetapi Para Ahli Takut akan Privasi

  • Whatsapp
Deteksi CSAM Apple

Apple pada hari Kamis mengatakan memperkenalkan fitur keselamatan anak baru di iOS, iPadOS, watchOS, dan macOS sebagai bagian dari upayanya untuk membatasi penyebaran Materi Pelecehan Seksual Anak (CSAM) di AS.

Untuk itu, pembuat iPhone mengatakan bermaksud untuk memulai pemindaian sisi klien dari gambar yang dibagikan melalui setiap perangkat Apple untuk konten pelecehan anak yang diketahui saat diunggah ke Foto iCloud, selain memanfaatkan pembelajaran mesin di perangkat untuk memeriksa semua iMessage gambar yang dikirim atau diterima oleh akun kecil (berusia di bawah 13 tahun) untuk memperingatkan orang tua tentang foto seksual vulgar di platform perpesanan.

Bacaan Lainnya

Selain itu, Apple juga berencana untuk memperbarui Siri dan Pencarian untuk melakukan intervensi ketika pengguna mencoba melakukan pencarian untuk topik terkait CSAM, memperingatkan “minat pada topik ini berbahaya dan bermasalah.”

“Pesan menggunakan pembelajaran mesin di perangkat untuk menganalisis lampiran gambar dan menentukan apakah sebuah foto eksplisit secara seksual,” Apple dicatat. “Fitur ini dirancang agar Apple tidak mendapatkan akses ke pesan.” Fitur bernama Communication Safety ini disebut-sebut sebagai opt-in setting yang harus diaktifkan oleh orang tua melalui fitur Family Sharing.

Bagaimana Materi Pelecehan Seksual Anak Terdeteksi

Deteksi gambar CSAM yang diketahui melibatkan melakukan pencocokan pada perangkat menggunakan basis data hash gambar CSAM yang diketahui yang disediakan oleh Pusat Nasional untuk Anak Hilang dan Tereksploitasi (NCMEC) dan organisasi keselamatan anak lainnya sebelum foto diunggah ke awan. “NeuralHash,” demikian sebutan sistemnya, didukung oleh teknologi kriptografi yang dikenal sebagai persimpangan set pribadi. Namun, perlu dicatat bahwa meskipun pemindaian terjadi secara otomatis, fitur ini hanya berfungsi saat berbagi foto iCloud diaktifkan.

Tim Stack Overflow

Terlebih lagi, Apple diharapkan untuk menggunakan prinsip kriptografi lain yang disebut berbagi rahasia ambang batas yang memungkinkannya untuk “menafsirkan” konten jika akun Foto iCloud melewati ambang batas citra pelecehan anak yang diketahui, setelah itu konten ditinjau secara manual untuk mengonfirmasi ada cocok, dan jika demikian, nonaktifkan akun pengguna, laporkan materi ke NCMEC, dan berikan ke penegak hukum.

Peneliti Mengungkapkan Kekhawatiran Tentang Privasi

Inisiatif CSAM Apple telah mendorong peneliti keamanan untuk mengungkapkan kecemasan bahwa itu bisa menderita misi creep dan diperluas untuk mendeteksi jenis konten lain yang dapat memiliki implikasi politik dan keamanan, atau bahkan membingkai individu yang tidak bersalah dengan mengirimkan mereka gambar yang tidak berbahaya tetapi berbahaya yang dirancang untuk muncul sebagai kecocokan untuk pornografi anak.

Whistleblower AS Edward Snowden tweeted bahwa, terlepas dari niat baik proyek tersebut, apa yang diluncurkan Apple adalah “pengawasan massal”, sementara profesor kriptografi dan pakar keamanan Universitas Johns Hopkins Matthew Green dikatakan, “Masalahnya adalah enkripsi adalah alat canggih yang menyediakan privasi, dan Anda tidak dapat benar-benar memiliki privasi yang kuat sambil juga mengawasi setiap gambar yang dikirim siapa pun.”

Deteksi CSAM Apple

Apple sudah memeriksa file dan gambar iCloud yang dikirim melalui email terhadap citra pelecehan anak yang diketahui, seperti halnya raksasa teknologi seperti Google, Twitter, Microsoft, Facebook, dan Dropbox, yang mempekerjakan metode hashing gambar serupa untuk mencari dan menandai materi yang berpotensi disalahgunakan, tetapi upaya Apple untuk berjalan di atas tali privasi dapat memperbaharui perdebatan tentang melemahnya enkripsi, meningkatkan tarik ulur jangka panjang atas privasi dan kepolisian di era digital.

The New York Times, dalam investigasi 2019, mengungkapkan bahwa rekor 45 juta foto dan video online anak-anak yang dilecehkan secara seksual dilaporkan pada tahun 2018, di mana Facebook Messenger menyumbang hampir dua pertiganya, dengan Facebook secara keseluruhan bertanggung jawab atas 90% dari laporan tersebut.

Manajemen Kata Sandi Perusahaan

Apple, bersama dengan WhatsApp milik Facebook, terus-menerus menolak upaya untuk secara sengaja melemahkan enkripsi dan pintu belakang sistem mereka. Dikatakan, Reuters dilaporkan tahun lalu perusahaan membatalkan rencana untuk mengenkripsi cadangan penuh pengguna ke iCloud pada 2018 setelah Biro Investigasi Federal (FBI) AS menyuarakan kekhawatiran bahwa hal itu akan menghambat penyelidikan.

“Eksploitasi anak adalah masalah serius, dan Apple bukanlah perusahaan teknologi pertama yang membengkokkan sikap perlindungan privasinya dalam upaya memeranginya. Tapi pilihan itu akan dibayar mahal untuk privasi pengguna secara keseluruhan,” Electronic Frontier Foundation (EFF) dikatakan dalam sebuah pernyataan, mencatat bahwa langkah Apple dapat merusak perlindungan enkripsi dan membuka pintu untuk pelanggaran yang lebih luas.

“Yang diperlukan untuk memperluas pintu belakang sempit yang sedang dibangun Apple adalah perluasan parameter pembelajaran mesin untuk mencari jenis konten tambahan, atau tweak flag konfigurasi untuk dipindai, bukan hanya akun anak-anak, tetapi akun siapa pun. Itu bukan lereng yang licin; itu adalah sistem yang dibangun sepenuhnya hanya menunggu tekanan eksternal untuk membuat perubahan sekecil apa pun, “tambahnya.

Upaya CSAM akan diluncurkan di AS dalam beberapa bulan mendatang sebagai bagian dari iOS 15 dan macOS Monterey, tetapi masih harus dilihat apakah, atau kapan, itu akan tersedia secara internasional. Pada bulan Desember 2020, Facebook adalah terpaksa dimatikan beberapa alat deteksi pelecehan anak di Eropa sebagai tanggapan atas perubahan terbaru pada arahan e-privasi komisi Eropa yang secara efektif melarang pemindaian sistem otomatis untuk gambar pelecehan seksual anak dan konten ilegal lainnya tanpa persetujuan eksplisit pengguna.

Pos terkait

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *