Foto di iCloud akan dideteksi soal kekerasan anak

Foto di iCloud akan dideteksi soal kekerasan anak

Orang-orang menggunakan masker untuk mencegah penularan virus corona di salah satu toko Apple di Hangzhou, Provinsi Zhejiang province, China pada 24 April 2020. ANTARA/Reuters/China Daily CDIC.

Jakarta (ANTARA) - Apple Inc menyatakan galeri foto para pengguna iCloud iPhone akan dicek apakah ada gambar yang memuat kekerasan terhadap anak.

Pengumuman ini hadir untuk menghilangkan kekhawatiran soal pernyataan Apple yang akan memindai ponsel, tablet dan komputer pengguna terhadap gambar ilegal, dikutip dari Reuters, Selasa.

Baca juga: Apple akan rilis fitur khusus untuk hindari pelecehan anak

Dalam pengumuman terbaru, Apple menyatakan sistem mereka, yang akan diluncurkan bersamaan dengan sistem operasi iOS 15, akan mengecek berkas di perangkat pengguna jika foto tersebut disinkronisasi ke penyimpanan server mereka.

Sistem Apple tidak mengecek video sebelum diunggah ke cloud, namun, mereka berencana mengembangkan sistem mereka.

Apple berargumen pengecekan ini tetap mempertahankan privasi, arsitektur sistem yang mereka kembangkan tidak memberikan Apple informasi tentang konten, kecuali jumlah ambang batas gambar yang sudah dilampaui.

Jika sudah terlampaui, akan ada tinjauan oleh tim Apple.

Apple akan mencurigai pengguna sebagai pelaku jika dia memegang kendali perangkat dan memasang material kekerasan anak dari jarak jauh.

Mereka mengharapkan ini akan sangat jarang terjadi dan jika terjadi, akan ada tinjauan untuk mencari kemungkinan tanda-tanda aktivitas kriminal lainnya.

Baca juga: Pengguna smartphone 5G di Korea Selatan capai 16 juta

Baca juga: Apple bermitra dengan pemasok China untuk iPhone

Baca juga: Samsung pertahankan posisi teratas di pasar smartphone pada Q2

Penerjemah: Natisha Andarningtyas
Editor: Maria Rosari Dwi Putri
COPYRIGHT © ANTARA 2021

PPKS jawaban perlindungan perempuan dan anak

Komentar menjadi tanggung jawab anda sesuai UU ITE

Komentar