Saat Apple bersiap untuk mulai memindai iPhone dan iPad untuk materi kekerasan seksual terhadap anak (CSAM (terbuka di tab baru)) dengan dirilisnya iOS 15, (terbuka di tab baru) detail baru telah muncul mengungkapkan bahwa perusahaan telah memindai iCloud Mail untuk CSAM.
Menurut sebuah laporan baru (terbuka di tab baru) dari 9to5Macpembuat iPhone telah memindai iCloud Mail (terbuka di tab baru) untuk CSAM sejak 2019 meskipun belum mulai memindai Foto iCloud atau cadangan iCloud untuk materi semacam itu.
Outlet berita memutuskan untuk menyelidiki masalah ini lebih lanjut setelahnya Ambang melihat utas iMessage (terbuka di tab baru) terkait dengan gugatan Epic terhadap Apple (terbuka di tab baru) di mana kepala anti-penipuan perusahaan Eric Friedman mengatakan bahwa itu adalah “platform terbesar untuk mendistribusikan pornografi anak”.
- Kami telah membuat daftar VPN terbaik (terbuka di tab baru) layanan yang tersedia
- Ini adalah layanan email terbaik (terbuka di tab baru) di pasar
- Lihat juga kumpulan firewall terbaik kami (terbuka di tab baru)
Meskipun pernyataan Friedman jelas tidak dimaksudkan untuk dilihat secara publik, hal itu menimbulkan pertanyaan tentang bagaimana Apple dapat mengetahui hal ini tanpa memindai Foto iCloud.
Memindai Mail iCloud
9to5MacBen Lovejoy menghubungi Apple untuk mencari tahu lebih lanjut tentang masalah ini dan perusahaan mengonfirmasi bahwa mereka telah memindai lampiran iCloud Mail keluar dan masuk untuk CSAM sejak 2019. Sebagai email (terbuka di tab baru) dikirim menggunakan iCloud Mail tidak dienkripsi, memindai lampiran saat surat melewati server Apple bukanlah hal yang sulit untuk dilakukan.
Selain memindai lampiran, Apple juga memberi tahu 9to5Mac bahwa ia melakukan pemindaian terbatas pada data lain meskipun perusahaan tidak menentukan data apa ini. Namun dikatakan bahwa “data lain” ini tidak termasuk cadangan iCloud (terbuka di tab baru).
Kembali pada bulan Januari tahun lalu, kata kepala petugas privasi di Apple, Jane Horvath pada sebuah konferensi teknologi (terbuka di tab baru) bahwa perusahaan menggunakan teknologi penyaringan untuk mencari gambar ilegal dan menonaktifkan akun jika bukti CSAM ditemukan.
Meskipun pernyataan Friedman awalnya terdengar seolah-olah didasarkan pada data keras, kemungkinan besar tidak. Alih-alih, dia membuat kesimpulan bahwa karena perusahaan sebelumnya tidak memindai Foto iCloud atau cadangan iCloud, lebih banyak CSAM kemungkinan akan ada di platform Apple dibandingkan dengan komputasi awan lainnya. (terbuka di tab baru) layanan yang secara aktif memindai foto untuk CSAM.
Kami kemungkinan akan mengetahui lebih lanjut tentang bagaimana Apple berencana untuk memerangi CSAM di platformnya setelah perusahaan meluncurkan pemindaian foto Apple Child Safety (terbuka di tab baru) dengan rilis iOS 15 musim gugur ini.
Melalui 9to5Mac (terbuka di tab baru)