İlk tercih nükleer silahlar: Yapay zekanın yükseliş eğilimi

Metin çalışması veya programlama gibi küçük görevler söz konusu olduğunda Büyük Dil Modelleri (LLM'ler) cesareti kırılmamalıdır: durum ne kadar umutsuz görünürse görünsün, her zaman bir çözüm veya en azından çözüm olduğuna inandıkları bir şey sunarlar. Ancak, eğer GPT-5.2, Claude Sonnet 4 veya Gemini 3 Flash kriz danışmanı olarak kullanılmış olsaydı, King's College London'daki araştırmacıların araştırdığı gibi sonuçları felaket olurdu.

Reklamdan sonra devamını okuyun

Bilimsel bir makalede, çatışma simülasyonlarında, simülasyon oyunlarının yüzde 95'inde taktiksel nükleer silahların kullanıldığı bildiriliyor. Hiçbir model tam teslimiyet seçeneğini tercih etmedi. Ve vakaların yalnızca yüzde 18'inde, ilk nükleer kullanımın ardından modellerin gerilimi azaldı. Olası bir neden, verimin yapısal olarak eğitim tarafından engellenmesidir. Bir makinenin zaman baskısı altında bir insana göre daha ihtiyatlı tepki verebileceği varsayılırken, model deneyi, modellerin yalnızca bu tür durumlarda kendilerine geldiğini ve tam ölçekli bir nükleer savaş başlatma olasılığının daha da yüksek olduğunu gösterdi.

“Nükleer tabunun” yapay zeka için insanlardan daha az önemli olması muhtemelen nükleer savaş senaryosunun insanlar için duygularla dolu olmasından kaynaklanmaktadır. Öte yandan yapay zeka, bu seçenekleri geleneksel silahların kullanımı kadar cesur ve araştırmacı bir şekilde seçiyor.

Toplam 329 hamleden oluşan 21 simülasyon oyunu incelenmiştir. Yapay zekanın düşünce süreçlerini ayrıntılı olarak açıklaması gerekiyordu ve sonuçta 780.000 kelime ortaya çıktı. Bu, yapay zekayı savaş karar vericisi olarak inceleyen ilk çalışma değil. 2024 yılında, diğerlerinin yanı sıra Stanford ve Georgia Tech üniversitelerinden araştırmacılar, benzer bulgulara ulaşan araştırma sonuçlarını yayınladılar. Ancak Londra'da yapılan mevcut çalışmanın da gösterdiği gibi, artış eğilimi yeni modellerde değişmemiş görünüyor. Ayrıca LLM'lerin zaman baskısı altında, eşzamanlı hareketler sırasında ve sinyal ile eylemlerin birbirinden ayrıldığı durumlarda nasıl davrandığı ilk kez incelenmiştir.

Reklamdan sonra devamını okuyun

Princeton Üniversitesi'nden araştırmacı Tong Zhao, “New Scientist” adlı bilimsel yayına yaptığı açıklamada, savaş ve barış hakkında kararlar alırken, dünya çapındaki orduların yapay zeka kullanımı konusunda muhtemelen dikkatli olacağını söyledi. Ancak bireysel silahların yapay zeka yardımıyla kontrol edilmesi veya hatta otonom olarak karar verilmesi durumunda yapay zeka yaklaşımı küçük ölçekte bile tehlikeli olabilir. Zhao ayrıca son derece dar zaman dilimlerinde yapay zekanın daha yakından dahil edilmesi yönündeki baskının artabileceği konusunda da uyarıyor. Yapay zekanın orduda kullanımına ilişkin siyasi düzenlemeye ilişkin uluslararası tartışmalar hâlihazırda mevcut.


(mki)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir