Elon Musk'un yapay zekası Grok, çocuk pornografisi görüntüleri üretti

Grok, küçüklerin cinselleştirilmiş görüntülerini oluşturduktan sonra hatasını kabul etti ve “güvenlik önlemlerindeki başarısızlıklardan” bahsetti. Elon Musk'un daha hoşgörülü ve “uyanma karşıtı” olarak hayal ettiği xAI AI, her şeyden önce (olaydan sonra…) bu içeriğin yasa dışı olduğunu hatırlattı. Üretken yapay zeka araçlarının denetleme vaatlerinin sınırlarını vurgulayan bir olay daha.

Kendinizi diğer yapay zeka modellerinin “önyargılarından” kurtarmak, mevzuat konusunda özgür davranmak ya da bariz olanı unutmak anlamına gelmez: Çocuk pornografisi görüntülerinin üretimi yasaktır. Oysa bu ne Grok Botun son günlerde kabul ettiği gibi, yıl sonundan hemen önce izin verildi. Kullanıcılar tarafından tuzağa düşürülen yapay zeka, çocukların cinselleştirilmesini yasaklayan kendi politikasına rağmen müstehcen durumlarda küçüklerin resimlerini oluşturdu.

Üretken yapay zekanın yapısal kusurları

xAI ekiplerinin “ tanımlanmış “'nin” başarısızlıklar » Grok'un önlemlerinde ve duyurulan acil durum çözümlerinde. Ayrıca, tüm pratik amaçlar doğrultusunda şunu da hatırlatıyorlar: “ çocuk pornografisi içeriği yasa dışıdır ve yasaktır “. Söz konusu görseller silindi. Elon Musk'un şirketi, örneğin geçen yaz bilgili yetişkinler için “Baharatlı Mod” işlevini başlatarak Grok'u diğerlerinden daha hoşgörülü bir bot olarak konumlandırdı. Bu hizmet, küçüklerin yer aldığı cinsel içeriği açıkça yasaklıyor.

Bu olay çok daha geniş ve endişe verici bir bağlamın parçası. Çevrimiçi olarak çocuklara yönelik cinsel istismar içeriklerini tespit etme ve bildirme konusunda uzmanlaşmış bir kuruluş olan Internet Watch Foundation'a (IWF) göre, yapay zeka araçları tarafından oluşturulan bu tür görsellerin hacmi 2025'in ilk yarısında %400 arttı.

Dernek, bu olgunun “korkutucu” bir ivme kazandığı konusunda uyarıyor: Görüntüler daha gerçekçi, daha açık ve üretimi daha kolay hale geliyor; buna rağmen korumaları olan modellerin basit saptırılması da dahil. Otomatik denetim sistemlerini sorgulayan ve çocuk koruma paydaşlarını endişelendiren bir gelişme.

Bu suistimaller birdenbire ortaya çıkmıyor. 2023 yılında Stanford İnternet Gözlemevi araştırması, çok sayıda yapay zeka görüntü oluşturucusunu eğitmek için kullanılan devasa bir halka açık veri kümesi olan LAION-5B'de binden fazla çocuk pornografisi içeriğinin varlığını ortaya çıkardı.

Araştırmacılar zaten bu tür verilerin, modellere küçük miktarlarda bile asimile edilmemeleri gereken “kavramları” öğretmek için yeterli olabileceği konusunda uyarıyordu. Bu sistemlerin temellerinde yasa dışı görüntüler bulunduğunda, geriye dönük koruma önlemleri genellikle yalnızca hasarı sınırlandırır.

👉🏻 Teknoloji haberlerini gerçek zamanlı takip edin: 01net'i Google'daki kaynaklarınıza ekleyin ve WhatsApp kanalımıza abone olun.

Kaynak :

Bloomberg


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir