WhatsApp ,Çocuk İstismarı İçin Fotoğraflarınızı Taramayacağını Söylüyor.Apple’ın iPhone fotoğraflarındaki olası çocuk istismarını ortaya çıkaran yeni aracı şimdiden tartışmalara yol açtı. Cuma günü, duyurulmasından sadece bir gün sonra, Facebook’un mesajlaşma uygulaması WhatsApp’ın başkanı Will Cathcart, şirketin bir dizi yasal ve gizlilik endişesi getirdiği gerekçesiyle yazılımı benimsemeyi reddedeceğini söyledi.
“Apple’ın dün yayınladığı bilgileri okudum ve endişeliyim. Cathcart, bunun yanlış bir yaklaşım olduğunu ve tüm dünyadaki insanların mahremiyeti için bir aksilik olduğunu düşünüyorum. “İnsanlar bu sistemi WhatsApp için kabul edip etmeyeceğimizi sordu. Cevap hayır.”
WhatsApp,Çocuk İstismarı İçin Fotoğraflarınızı Taramayacağını Söylüyor
Bir dizi tweet’te Cathcart, casus yazılım şirketlerinin hükümetlerin yazılımı birlikte seçme kabiliyetini ve incelenmemiş yazılımın gizliliği ihlal etme potansiyelini öne sürerek bu endişeleri detaylandırdı.
“Telefonunuzda çalışan bu tarama yazılımı hatasız olabilir mi? Araştırmacıların öğrenmesine izin verilmedi” diye yazdı. “Neden olmasın? Hataların insanların mahremiyetini ne sıklıkla ihlal ettiğini nasıl bileceğiz?”
WhatsApp ,Çocuk İstismarı İçin Fotoğraflarınızı Taramayacağını Söylüyor
Apple, Perşembe günü yazılımla ilgili duyurusunda, WhatsApp çocukları cinsel yırtıcılardan korumak için şirketin uygulamayı planladığı bir dizi değişikliğin bir parçası olarak 2021 sonlarında bir sürüm için güncellemeyi planladığını söyledi. Gizmodo’nun daha önce bildirdiği gibi, bir kullanıcının cihazındaki görüntülerin bilinen çocuk cinsel istismarı materyali (CSAM) parmak izleriyle eşleşip eşleşmediğini belirlemek için NeuralHash adlı bir “sinir eşleştirme işlevi” kullanacak olan önerilen araç, güvenlik uzmanları arasında bir miktar şaşkınlığa neden oldu.
Johns Hopkins Bilgi Güvenliği Enstitüsü’nde doçent olan Matthew Green, 4 Ağustos’ta attığı bir tweet dizisinde, aracın sonunda “şifreli mesajlaşma sistemlerine gözetim eklemenin” öncüsü olabileceği konusunda uyardı.
“Birden çok kişiden, Apple’ın yarın CSAM taraması için bir istemci tarafı aracı yayınlayacağına dair bağımsız bir onay aldım. Bu gerçekten kötü bir fikir,” diye tweet attı Green. “Bu araçlar, Apple’ın belirli bir algısal karma ile eşleşen fotoğraflar için iPhone fotoğraflarınızı taramasına ve çok fazla görünürse bunları Apple sunucularına bildirmesine olanak tanır.”
Ancak Apple’a göre, Cathcart’ın yazılımı cihazları “taramak” için kullanıldığı şeklinde tanımlaması tam olarak doğru değil.Şirket, taramanın bir sonuç anlamına gelse de, yeni yazılımın yalnızca belirli bir kullanıcının NeuralHash aracını kullanarak iCloud’a yüklemeyi seçtiği tüm görüntülerin bir karşılaştırmasını çalıştıracağını söyledi.
Bu taramanın sonuçları bir kriptografik güvenlik fişinde (esas olarak cihazdaki yorumlanabilir veri bitlerinden oluşan bir çanta) yer alacak ve bu fişin içeriğinin okunabilmesi için gönderilmesi gerekecekti. Başka bir deyişle, Apple, Çocuk Cinsel İstismarı Malzemesi (CSAM) biriktirmedikçe, böyle bir taramanın sonucu olarak bireysel kullanıcıların fotoğraf kitaplıklarından herhangi bir veri toplamayacaktır.
DİĞER YAZILARIMIZ: