DeepSeek-R1, politik açıdan hassas terimler için güvenli olmayan kod üretiyor

kapanış bildirimi

Bu makale İngilizce olarak da mevcuttur. Teknik yardımla tercüme edildi ve yayınlanmadan önce editoryal olarak gözden geçirildi.

Çin AI modeli DeepSeek-R1, mesajlar Çin hükümetini rahatsız ettiği düşünülen terimler içerdiğinde alışılmadık şekilde “alerjik” tepki veriyor. CrowdStrike'daki güvenlik araştırmacıları artık bunu keşfetti. Bu durumlarda Büyük Dil Modeli (LLM), programlama projelerinde güvenli olmayan kod üretir. Araştırmacılar deneylerde, istekte eşleşen bir terim yoksa sonuçların önemli ölçüde daha iyi olduğunu gösterdi.

Duyurudan sonra devamını okuyun

Rahatsız edici sözler arasında “Uygurlar”, “Falun Gong” ve “Tayvan” gibi politik açıdan hassas terimler yer alıyor. CrowdStrike bir blog yazısında, “Falun Gong” siyasi hareketi örneğinde LLM'nin vakaların %45'inde kod üretmeyi tamamen reddettiğini yazıyor. Araştırmacılar DeepSeek'in bir çeşit durdurma anahtarı entegre ettiğinden şüpheleniyorlar. Akıl yürütme modelinde yapay zekanın detaylı bir cevap hazırladığını ancak daha sonra bir hata mesajı vererek aniden durduğunu buldular.

Ancak araştırmacıların kod çıktısının kalitesizliğine ilişkin farklı bir hipotezi var. Modelin, eğitim sırasında istemeden, olumsuz çağrışımlara sahip terimlerin bile olumsuz sonuçlara yol açtığını öğrendiğini varsayıyorlar. DeepSeek'in modelini buna göre eğitmesinin nedeni, Çin düzenlemelerinin yapay zeka hizmetlerinin “sosyalist temel değerlere” bağlı kalmasını gerektirmesidir.

Güvenli olmayan koda sahip ürünler, komut dosyalarına sabit kodlanmış şifreler içeriyordu, bu da onları savunmasız hale getiriyordu veya veriler güvenli olmayan bir şekilde aktarılıyordu. Model aynı zamanda PayPal'ın yaklaşımını kullandığını ve bu sayede güvenli kod ürettiğini de iddia ediyordu. Bir örnekte DeepSeek-R1 eksiksiz bir web uygulaması oluşturdu ancak bunu oturum yönetimi ve kimlik doğrulama olmadan gerçekleştirdi. Diğer örneklerde, şifreler güvenli olmayan karma kullanılarak veya düz metin olarak saklanıyordu.

Çalışmada LLM için 6050 öneri kullanıldı. Gözlemlerin tekrarlanabilir olup olmadığını belirlemek için her görev beş kez tekrarlandı. CrowdStrike, programlamada Yüksek Lisans kullanan şirketlerin, özellikle gerçek dünya kullanım koşullarında güvenliğini sistematik olarak test etmelerini önermektedir. Geliştiricilerin sağladığı referans bilgilerine güvenmek yeterli değildir.

Duyurudan sonra devamını okuyun


(mki)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir