UNICEF “Deepfake kötüye kullanımı kötüye kullanımdır” diye uyarıyor

Deepfake kötüye kullanımından kaynaklanan zarar gerçek ve acildirBM ajansı bir açıklamada söyledi. “Çocuklar kanunun yetişmesini bekleyemez.”

BM kurumu, Uluslararası Polis Bürosu, INTERPOL ve dünya çapında çocukların cinsel sömürüsünü sona erdirmek için çalışan küresel ağ ECPAT tarafından yürütülen 11 ülkeyi kapsayan bir araştırmaya göre, geçen yıl en az 1,2 milyon genç, görüntülerinin cinsel içerikli deepfake'lere dönüştürüldüğünü ortaya çıkardı.

Araştırma, bazı ülkelerde bu rakamın 25 çocuktan birini veya normal bir sınıftaki bir çocuğa eşdeğer olduğunu ortaya çıkardı.

'Çıplaklaştırma' aletleri

Yapay zeka ile oluşturulan veya manipüle edilen ve gerçek görünecek şekilde tasarlanan Deepfake'ler (resimler, videolar veya sesler), uydurma çıplak veya cinselleştirilmiş görüntüler oluşturmak için fotoğraflardaki kıyafetleri çıkarmak veya değiştirmek için yapay zeka araçlarını kullanan “çıplaklaştırma” adı verilen yöntem de dahil olmak üzere, çocukları içeren cinselleştirilmiş içerik üretmek için giderek daha fazla kullanılıyor.

Bir çocuğun imajı veya kimliği kullanıldığında o çocuk anında mağdur oluyor. UNICEF, kimliği belirlenebilir bir kurban olmasa bile, yapay zeka tarafından üretilen çocuk cinsel istismarı materyallerinin çocukların cinsel sömürüsünü normalleştirdiğini, istismar edici içeriğe yönelik talebi artırdığını ve kolluk kuvvetleri için yardıma ihtiyacı olan çocukların tespit edilmesi ve korunması konusunda önemli zorluklar oluşturduğunu belirtti.

“Deepfake kötüye kullanımı kötüye kullanımdır ve Sebep olduğu hasarla ilgili sahte hiçbir şey yok.”

Sağlam garantilere yönelik talep

BM ajansı, sistemlerinin kötüye kullanımını önlemek için tasarım gereği güvenlik yaklaşımları ve sağlam korkuluklar uygulayan yapay zeka geliştiricilerinin çabalarını güçlü bir şekilde memnuniyetle karşıladığını söyledi.

Ancak bugüne kadar verilen yanıtlar düzensiz oldu ve çok fazla yapay zeka modeli yeterli güvenlik önlemleriyle geliştirilmiyor.

Üretken yapay zeka araçları, manipüle edilmiş görüntülerin çoğaldığı sosyal medya platformlarına doğrudan yerleştirildiğinde riskler daha da artabilir.

Çocuklar da bu riskin farkındadırUNICEF, bazı anket ülkelerinde gençlerin üçte ikisinin yapay zekanın sahte cinsel görüntüler veya videolar oluşturmak için kullanılabileceğinden endişe duyduklarını söylediğini de sözlerine ekledi.

Hızla büyüyen bir tehdit

Bakım düzeyi ülkeden ülkeye büyük ölçüde değişirBu da daha güçlü farkındalık, önleme ve koruma tedbirlerine acil ihtiyaç olduğunun altını çiziyor.”

Hızla büyüyen bu tehdide karşı koymak için BM kurumu bir karar yayınladı. Yapay Zeka ve Çocuklara Yönelik Rehberlik 3.0 Aralık ayında çocuk haklarını koruyan politika ve sistemlere ilişkin tavsiyelerle birlikte. Raporun tamamını okuyun Burada.

Şu anda, UNICEF acil eylem çağrısında bulundu artan tehdide karşı koymak için:

  • Hükümetler, çocukların cinsel istismarı materyallerinin tanımlarını yapay zeka tarafından oluşturulan içeriği de kapsayacak şekilde genişletmeli ve bunların oluşturulmasını, edinilmesini, bulundurulmasını ve dağıtımını suç saymalıdır.
  • Yapay zeka geliştiricileri, yapay zeka modellerinin kötüye kullanılmasını önlemek için tasarım gereği güvenlik yaklaşımları ve sağlam korkuluklar uygulamalıdır
  • Dijital şirketler, yapay zeka tarafından oluşturulan çocuk cinsel istismarı materyallerinin yayılmasını sadece silmekle kalmayıp önlemeli ve tespit teknolojilerine yatırım yaparak içerik denetimini güçlendirmelidir.

UNICEF'in yapay zeka ve çocukların cinsel istismarı ve sömürüsü hakkındaki son mektubunu okuyun Burada.


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir