OpenAI, bu sefer biyolojik alanı hedef alan başka bir hata ödül programı başlatıyor. Bu hafta tanıtılan ChatGPT 5.5'in, modelin normal şartlarda asla cevaplayamayacağı beş soruya cevap vermesini sağlamanın bir yolunu arıyoruz. Biyogüvenlik alanı etrafında döndükleri için bunlara verilecek cevaplar yanlış ellere geçtiğinde tehlikeli olabilir.
Reklamdan sonra devamını okuyun
ChatGPT'nin güvenlik önlemleri olarak da adlandırılan güvenlik mekanizmaları genellikle bu tür girişimleri tespit etmeyi ve engellemeyi amaçlamaktadır. Örneğin, bir kullanıcı bir biyolojik savaş maddesinin ayrıntılı üretim süreci hakkında soru sorduğunda Yüksek Lisans büyük olasılıkla yanıt vermeyi reddedecek ve bu bilginin tehlikeli olduğunu ve katı yasaklara tabi olduğunu açıklayacaktır. Gerekli korumaların mevcut olması şartıyla.
Jailbreak'leri arayın
Geçmişte, jailbreak adı verilen güvenlik önlemlerini aşmanın çeşitli yöntemleri vardı. Örneğin, ChatGPT'nin hedeflenen kullanıcı talepleri nedeniyle zaman kavramını kaybettiği ve dolayısıyla yasa dışı faaliyetler için talimatları kolayca sağladığı Timebandit açığı. Örneğin, Yüksek Lisans'tan, elinde modern teknik araçlar bulunan 1789'dan kalma bir matematikçiye kötü amaçlı yazılım göndermesini isteyerek.
Mevcut programda OpenAI, AI kırmızı ekip oluşturma, güvenlik veya biyogüvenlik konularında deneyimi olan araştırmacıları, beş biyogüvenlik sorusunun moderasyonu tetiklemeden yanıtlanmasına olanak tanıyan evrensel bir jailbreak bulmaya davet ediyor. Kırmızı takımlar, simüle edilmiş bir saldırıyla güvenlik önlemlerini aşmaya çalışan gruplardır.
Tek hata ödül programı değil
Hata ödül programı yalnızca Codex Masaüstündeki ChatGPT 5.5'te çalışır. Bu türden ilk jailbreak'i bulan kişi 25.000$ para ödülü kazanacak. OpenAI duyuruda, para ödülünün gereksinimleri kısmen karşılayan jailbreak'ler için “kendi takdirimize bağlı olarak” verilebileceğini açıkladı. Katılım davetle veya başarılı bir başvurunun ardından mümkündür. Başvuru süresi 23 Nisan'dan 22 Haziran'a, jailbreak araştırmasının test aşaması ise 28 Nisan'dan 27 Temmuz'a kadar sürecek. Katılımcıların bir gizlilik sözleşmesi (NDA) imzalaması gerekmektedir.
Zaten kritik olan biyogüvenlik alanı, şirketin artık Pentagon'a da malzeme tedarik ettiği göz önüne alındığında, OpenAI için muhtemelen daha da patlayıcı olacak. Daha geçen ay OpenAI, veri güvenliği için halkın katılımına bile açık olan başka bir hata ödül programı başlattı. Katılımcılar, istemler yoluyla ChatGPT'den hassas kullanıcı verilerini elde etmenin yollarını bulurlarsa nakit ödül alacaklar.
Reklamdan sonra devamını okuyun
Ayrıca okuyun
(HAYIR)

Bir yanıt yazın