Apple, çocuk pornografisi tespit projesinden vazgeçildiğini açıkladı

Apple, kullanıcıların iPhone’larındaki çocuk pornografisi fotoğraflarını tespit etmeye yönelik tartışmalı projesine geri dönüyor. Nihayet geçen yılın sonunda bu girişimden vazgeçildi.

Geçen Aralık ayında Apple, kullanıcıların iCloud arşivindeki çocuk pornografisi fotoğraflarını tespit etme projesini sessizce sonlandırdı. O dönemde üretici, ABD basınına gönderilen ve şirketlerin kişisel verileri soymadan çocukların korunabileceğine dair güvence veren bir açıklamayı paylaştı.

Oku Apple, çocuk pornografisine karşı mücadeleye yönelik tartışmalı planına son veriyor

Konu, Apple ile üreticiyi ” tespit edin, bildirin ve kaldırın » iCloud çocuk pornografisi içeriğinden (CSAM Çocukların Cinsel İstismarı Materyalleri). Apple’ın gizlilik ve çocuk güvenliği direktörü Erik Neuenschwander şöyle açıklıyor: şirket neden sonunda iCloud Fotoğraf Kitaplıkları incelemesini bıraktı?.

Her kullanıcı tarafından yerel olarak depolanan iCloud verilerinin izlenmesi, bilgisayar korsanlarının yararlanabileceği yeni saldırı vektörleri oluşturabilir “olasılığını açıklamadan önce belirtiyor” istenmeyen sonuçlar “: ” Bir tür içeriğin aranması, farklı türdeki içerikleri bulmak için diğer mesajlaşma sistemlerini tarayacak bir hava çağrısı oluşturarak kitlesel gözetlemenin kapısını açabilir. “.

CSAM fotoğraflarının Apple tarafından hayal edildiği gibi algılanması, yerel fotoğraf kitaplığının doğrudan iPhone üzerinden taranmasından geçti. Temel olarak görüntülerin yapay zeka algoritmaları kullanılarak çocuk pornografisi fotoğraflarından oluşan bir veritabanıyla eşleştirilmesi gerekiyordu. Bir eşleşme olması durumunda, hatalı pozitif sonuçları ortadan kaldırmak için manuel ve insan araştırması yapılmadan önce Apple’ın sunucularında ikinci bir inceleme gerçekleştirildi.

Apple, bu yeniliği Ağustos 2021’de, açıkçası bu teknolojinin kullanıcıların genel gözetimi açısından ima ettiği sonuçları bir an bile düşünmeden duyurmuştu. Çok çabuk, uzmanlar ve uzmanlar bu sistemin tehlikelerine dikkat çektive şirket ancak aylarca düşündükten sonra bu fikirden vazgeçti.

Apple artık FaceTime, Mesajlar, AirDrop ve Fotoğraflar seçicideki çıplaklığı (her zaman cihazda yerel olarak) algılayan İletişim Güvenliği adı altında gruplandırılmış bir dizi işlevi öne çıkarıyor. Bir API, geliştiricilerin bu teknolojiyi entegre etmesine olanak tanır (Discord bunu uygulama sürecindedir).

Mesajları Okuyun: Apple, küçükleri korumak için çıplak fotoğraf algılama aracını Fransa’da kullanacak

Neuenschwander, CSAM fotoğraf algılamaya yönelik hibrit yaklaşımın, kullanıcı güvenliği ve gizliliğini tehlikeye atmadan uygulamaya entegre edilemeyeceğini doğrulayarak sözlerini bitiriyor.

Kaynak :

kablolu


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir