Yazılım

iOS 15.2: Çıplak Görüntü Tarayıcı Çocukları Korumayı Amaçlıyor

Apple’ın tartışmalı çocuk pornografisi taraması, veri koruma aktivistlerinin büyük protestolarından sonra askıya alınmak zorunda kaldı, ancak Apple hala gündemde çocuk koruma var ve iOS 15.2 ile ilk adımı atıyor.

Mesajlar uygulamasına yeni bir işlev entegre edildi ve çocukların çıplak resim alıp göndermesini önlemeyi amaçlıyor.

Ebeveynler, çocukların iPhone’larını, iPad’lerini ve Mac’lerini çıplak resimleri tanıyacak ve etkilenen çocuğu bu tür içerikleri hem görüntülemeye hem de göndermeye karşı uyaracak şekilde ayarlayabilir.

Bu amaçla, gelen görüntüleri pikselleştirir ve bir uyarı görüntüler, böyle bir görüntü göndermeye çalışırken benzer bir uyarı görünür. Ancak, kullanıcı bildirimi kaydırarak uzaklaştırabilir ve yine de görüntüyü alabilir veya gönderebilir.

Apple planları ilk duyurduğunda, böyle bir görüntü gönderildiğinde veya alındığında ebeveynlere otomatik olarak bildirilmesi amaçlanmıştı. Ancak bu durum biraz değişti, artık çocuğun uyarıdaki bir düğme aracılığıyla ebeveynleri ile iletişime geçme seçeneği var.

Bu işlevin etkin olması için, ebeveynlerin bunu Ebeveyn Denetimleri ayarlarında etkinleştirmeleri gerekir. Bu tercih, yetkililerin veya diğer üçüncü tarafların izleme için arayüzden yararlanabileceği endişelerini gidermek için tasarlanmıştır.

Apple ayrıca çocuk pornografisi bulmayı zorlaştırmak ve cinsel şiddet mağdurlarına daha iyi yardım sağlamak için Siri’yi güncelledi. Çocuk pornografisini ararken, bir kullanıcı ayrıca içeriğin zararlı doğası hakkında bilgilendirilir ve önleme yardımına bağlantılar görüntülenir.

Bu makale ilk olarak Macwelt’te yayınlandı. Karen Haslam’ın çevirisi.

.

Kaynak: https://www.macworld.co.uk/news/nude-image-scanner-protects-children-3811852/

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu