Güvenilir raporlara göre Apple, Amerika Birleşik Devletleri’ndeki iPhone’lara, çocuk istismarı görüntüleri için yerel fotoğrafları otomatik olarak tarayacak bir yazılım yüklemeye başlamayı planlıyor. Apple’ın, en azından ilk başta, bu teknolojiyle yalnızca iCloud’a yüklenen fotoğrafları tarayacağı bildiriliyor.
Apple Ne Yapıyor?
Apple’ın planlarına ilişkin raporlar , her ikisi de genellikle güvenilir kaynaklar olan The Financial Times ve Johns Hopkins Üniversitesi Profesörü Matthew Green’den alınmıştır .
Tabii ki, Apple bunun böyle olduğunu onaylayana kadar, bunun gerçekleşmeme ihtimali her zaman var. Apple’ın planı bu hafta başlarında bazı ABD’li akademisyenlere gösterdiği bildirildi.
Raporlara göre Apple, Amerikan iPhone’larını çocuk istismarı görüntüleri için taramak için “neuralMatch” adını verdiği bir sistem kullanacak.
Esasen, otomatik bir sistem, yasadışı görüntülerin tespit edildiğine inanırsa, bir insan inceleme ekibini uyaracaktır. Oradan, ekibin bir üyesi görüntüleri inceleyecek ve kolluk kuvvetleriyle iletişime geçecekti.
Teknik olarak, bu yeni bir şey değil; bulut tabanlı fotoğraf depolama sistemleri ve sosyal ağlar bu tür taramaları zaten yapıyor. Buradaki fark, Apple’ın bunu cihaz düzeyinde yapmasıdır.
Matthew Green’e göre, başlangıçta yalnızca iCloud’a yüklenen fotoğrafları tarayacak, ancak bu taramayı kullanıcının telefonunda yapacaktı. “Başlangıçta” buradaki anahtar kelimedir, çünkü bir noktada tüm fotoğrafları yerel olarak taramak için çok iyi kullanılabilir.
Tarama telefonda yapıldığından ve yalnızca eşleşme varsa geri gönderildiğinden, bunun sistemi daha az istilacı hale getirmesi gerekiyor, yani yüklediğiniz her fotoğraf yabancıların gözlerine tabi değil.
Brifingdekilere göre, iCloud’a yüklenen her fotoğrafa şüpheli olup olmadığına dair bir “güvenlik fişi” veriliyor. Belirli sayıda resim şüpheli olarak işaretlendiğinde, Apple bunların şifresini çözecek ve çocuk istismarı içeren herhangi bir şey bulunursa bunları yetkililere gönderecektir.
Sistem, çocuk istismarı görüntüleri ile diğer görüntüleri nasıl ayırt edecek? Rapora göre, ABD kar amacı gütmeyen Ulusal Kayıp ve İstismara Uğrayan Çocuklar Merkezi tarafından toplanan 200.000 cinsel istismar görüntüsü üzerinde test edildi.
Görüntüler, hash yoluyla bir dizi sayıya dönüştürülür ve ardından veritabanındaki resimlerle karşılaştırılır.
Tüm bunlar ortaya çıktıktan sonra Apple, neler olduğu hakkında Financial Times’a yorum yapmaktan kaçındı. Ancak, bu hareketle ilgili mesajlar kontrolden çıkmadan önce şirketin resmi bir açıklama üzerinde çalıştığını tahmin ediyoruz.
Yorumunuzu girin