AI AI üretilen çocuk istismarı tanıyor: ABD Polisi zaten teknolojiyi kullanıyor

Üretken AI, çocuklara karşı cinsel şiddetin gösterildiği resimlerin üretimine neden olmuştur. Şimdi Amerika Birleşik Devletleri'nde çocuk istismarına karşı önde gelen soruşturmalardan biri, yeni bir hükümet şablonuna göre AI kullanımını deniyor-ancak bu kez gerçek kurbanları gösteren AI tarafından üretilen materyal görüntülerini ayırt etmek için. Uluslararası olarak çocuk istismarı ile mücadele eden Vatan Bakanlığı'nın Siber Suçlar Merkezi, San Francisco merkezli Hive AI'ya 150.000 dolar değerinde bir emir verdi. Yazılımı, bir içeriğin KI tarafından üretilip gelmediğini belirleyebilir.

19 Eylül'de yayınlanan ped çok kararmış. HIVE'in kurucu ortağı ve CEO'su Kevin Guo, sadece Technology Review'un ABD baskısına sipariş hakkında herhangi bir ayrıntı sağlayamayacağını söyledi. Bununla birlikte, şirketin cinsel çocuk istismarı olan materyaller için AI tanıma algoritmalarının kullanımı ile ilgili olduğunu doğruladı (İngilizce Teknik Konsept: CSAM). Hükümet makalesi, 2024 için üretken AI ile ilgili olaylarda yüzde 1325 oranında artış bildiren Ulusal Kayıp ve İstismar Çocuklar Merkezi'nden veri alıntı yapıyor. “Çevrimiçi olarak dolaşan çok sayıda dijital içerik, bu verileri verimli bir şekilde işlemek ve analiz etmek için otomatik araçların kullanılmasını gerektirir.”

Araştırmacıların çocuklara karşı cinsel şiddet mücadelesi alanındaki en büyük önceliği, mevcut istismarı ortaya çıkarmak ve önlemektir. Bununla birlikte, AI tarafından üretilen CSAM seli, resimlerin şu anda tehlikede olan gerçek kurbanları gösterip göstermediğini fark etmelerini zorlaştırıyor. Gerçek kurbanları başarıyla tanımlayabilecek bir araç, vakaları önceliklendirmek için büyük yardım olacaktır. Hükümet belgesinde, yapay zeka üretilen görüntülerin tanımlanması “soruşturma kaynaklarının, programın etkisini en üst düzeye çıkaran ve nesli tükenmekte olan kişileri koruyan davalarda gerçek kurbanlarla yoğunlaşmasını sağlar” diyor.

Hive yapay zeka, şiddet, spam ve cinsel materyalin tanımlanabileceği ve ünlülerin de tanımlanabileceği ve içeriği ılımlı bir içerik için videolar ve görüntüler oluşturmak için yapay zeka sunar. Geçtiğimiz Aralık ayında, Technology Review'ın ABD baskısı, şirketin zaten derinleme tanıma teknolojisini ABD ordusuna sattığını bildirdi.

CSAM'ı tanımak için Hive, çocuk koruması için kar amacı gütmeyen bir kuruluş olan Thorn ile işbirliği içinde geliştirilen ve şirketler tarafından platformlarına entegre edilebilecek bir araç sunar. Bu araç, araştırmacılar tarafından CSAM olarak tanımlanan içeriği atayan ve net kimlikleri engelleyen ve bu malzemenin yüklenmesini engelleyen içeriği atayan bir “karma” sistemi kullanır. Bu araç ve diğer benzer araçlar teknoloji şirketleri için standart sistemler haline gelmiştir.

Ancak, bu araçlar bir içeriği yalnızca CSAM olarak tanımlar; AI tarafından üretilip getirilmediğini bilmiyorsunuz. Hive bu nedenle görüntülerin genel olarak AI tarafından üretilip üretilmediğini belirleyen başka bir araç geliştirmiştir. Guo'ya göre, CSAM ile çalışmak için özel olarak eğitilmiş olmasa da, işe yarıyor. “Bu resimlerde yapay zeka olarak tanımlayabileceğimiz belirli bir piksel kombinasyonu var” diyor. “Bu genelleştirilebilir.”

Guo'ya göre yeni araç, CSAM'ı değerlendirmek için Siber Suçlar Merkezini kullanacak. Hive, müşterilerinin aklındaki her uygulama için algılama araçlarını üstlendiğini de sözlerine ekledi. CSAM'ın dağılımını içerme çabalarına katılan Ulusal Kayıp ve İstismar Çocuk Merkezi, bu tür kimlik modellerinin konuşma sırasında gerçek etkinliği hakkında sorulara yanıt vermedi.

ABD hükümeti, makaledeki ihale prosedürleri olmadan AI'yi kovalama emrinin verilmesini haklı çıkarıyor. Bu sebeplerin bazı kısımları kararmış olsa da, öncelikle Hive Ai'nin bir sunumunda da bulunabilen iki noktaya atıfta bulunur. Biri, 2024 yılından itibaren Chicago Üniversitesi tarafından yapılan bir çalışma ile ilgilidir ve AI tanıma aracının AI üretilen malzemelerin tanımlanmasında dört dedektörü boğduğu bulunmuştur. Diğeri, DeepFakes'ı tanımlamak için Pentagon ile yapılan sözleşme. Hive-ai Erker'in planlı bir test aşaması üç ay sürecektir.

Bu yazı ilk olarak t3n.de'de yayınlandı.


(JLE)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir