Amerikan ulusal güvenliğinin geleceği, Silikon Vadisi'nin yeni devleri ile Washington'daki askeri liderler arasındaki savaş alanı haline geldi.
Anlaşmazlığın merkezinde Claudedilsel modeli Antropikve taraflar arasındaki ilişkileri donduran varsayımsal bir soru: Yapay zeka nükleer bir saldırıda son sözü söyleyebilir mi?
Halatlarda Antropik olan bir nükleer saldırı hipotezi
Tarafından yayınlanan özel bir yeniden yapılanmaya göre Washington PostAntropik ile Trump'ın adını “Savaş Bakanlığı” olarak değiştiren Amerikan Savunma Bakanlığı arasındaki kesin kırılma noktası, geçen Aralık ayında yapılan gizli bir toplantıya dayanıyor.
Toplantıda, Araştırma ve Mühendislikten Sorumlu Savaş Müsteşarı, Emil Michaeltabi olurdu Dario AmodeiAnthropic'in CEO'su, aşırı bir ulusal kriz senaryosu: ABD topraklarını hedef alan yakın bir balistik füze saldırısı. Michael, insanların tepki sürelerinin yetersiz olduğu bir durumda şirketin yapay zeka modellerinin tehdidi etkisiz hale getirmek için savunma sistemlerinin kontrolünü ele almasına izin verip vermeyeceğini test etmek istedi.
Senaryo, Anthropic'e insan yaşamını büyük ölçekte korumak ve silahları otonom hale getirmek için yapay zeka kullanımına karşı protokollerini sıkı bir şekilde uygulamak arasında bir seçim yapma şansı sundu.
Tepki sürelerinin stratejik ağırlığı
Pentagon, yapay zekanın füze savunma sistemlerine entegrasyonunun ideolojik bir tercih değil, insan komuta zinciri müdahale etmeden hedefleri vurabilen hipersonik silahların hızının dayattığı teknik bir zorunluluk olduğunu savunuyor.
Operasyonda zaten rol oynamış olan Claude'a sınırsız erişim talebi Nicolas Maduro'nun yakalanması – tam olarak herhangi bir bürokratik veya teknolojik gecikmenin ortadan kaldırıldığını varsaymayı amaçladı.
Aksine, Anthropic'in kesin reddi, denetlenmeyen bir yapay zekanın verileri yanlış yorumlayarak halüsinasyon nedeniyle kazara nükleer bir tırmanışı tetikleyebileceği korkusunu yansıtıyor; yani sivil bağlamlarda zararsız görünen ancak savaş bağlamında felaket olabilecek sistemin mantığındaki bir hata.
Pentagon: “Amodei kibirli”
Askeri “teste” yanıt olarak Amodei'nin, böyle bir olayla karşı karşıya kalındığında hükümetin güvenlik protokollerinden geçici muafiyet konusunu görüşmek ve “birlikte bir çözüm bulmak” için doğrudan şirketle iletişime geçebileceğini öne sürdüğü bildirildi.
Bu pozisyon, Savunma liderleri tarafından kabul edilemez kibrin kanıtı olarak yorumlandı. Pentagon'a göre, ulusal savunmanın özel bir yöneticinin telefon iznine bağlı olması fikri, savunulamaz bir stratejik kırılganlığı temsil ediyor.
Sonunda, Amodei'nin kaçamak olduğu düşünülen ve etik çekincelerle dolu tepkisi, Anthropic'in hükümet sözleşmelerinden çıkarılmasına yol açan bir krizin başlangıcına işaret etti.
Siber suç
Anthropic'in Claude'u Meksika devlet kurumlarına saldırmak için kullanıldı
kaydeden Giuditta Mosca
Geçilmez kırmızı çizgiler
Ancak bu kırılmanın kökeninde, Anthropic'in teslim olmaya hiç niyetinin olmadığı sözde “korkuluklar”, yani yapay zekanın belirli eylemleri gerçekleştirmesini engelleyen BT güvenlik sınırları yer alıyor.
Amodei liderliğindeki şirket, tüm kurumsal kimliğini, sistemleri güvenilir ve insani değerlerle uyumlu hale getirmeyi amaçlayan bir yaklaşım olan “Yapay Zeka Güvenliği” üzerine kurdu. Askeri kullanıma ilişkin olarak, Anthropic aşılmaz iki kırmızı çizgi çizmiştir: Claude, Amerikan vatandaşlarının kitlesel gözetimi için ve tamamen özerk, yani doğrudan insan müdahalesi olmadan öldürmeye karar verebilen ölümcül silahlar tasarlamak veya yönetmek için kullanılamaz.
Anthropic'in yapay zekasını tüm “yasal” amaçlarla kullanmak istediğini iddia eden Pentagon için şirketin kısıtlamaları, savaş acil durumlarında kritik süreçleri engelleyebileceğinden ulusal güvenlik riski oluşturuyor.
Pentagon'un Antropik'e öfkesi
Bu nedenle kısaca ABD yönetiminin tepkisi sert oldu. Savunma Bakanı, Pete HegsethAnthropic'i, Amerikan askerlerini tehlikeye atarak hizmet şartlarını hükümete dayatmaya çalışmakla suçladı.
Yakın tarihte ilk kez Pentagon, Antropik'i “tedarik zinciri riski” olarak tanımladı; bu etiket genellikle Rusya gibi düşman ulusların şirketlerine mahsustur. Kaspersky veya Çince Huawei.
Bu hareket, Anthropic ürünlerinin federal kurumlardaki tüm kullanımının derhal durdurulmasına yönelik idari emirle birleştiğinde, Anthropic'i savunma pazarından etkili bir şekilde izole ediyor. 200 milyon dolarlık sözleşme sadece geçen yaz imzalandı.
Pentagon ve OpenAI arasındaki anlaşma
Anthropic ile ilişkiler bozulurken OpenAI tamamen zıt bir yol seçti.
Sam AltmanKurduğu şirketin CEO'su ChatGptModellerini askeri gizli ağlara entegre etmek için Savaş Bakanlığı ile anlaşmaya vardığını duyurdu.
Altman, Dario Amodei'nin kitlesel gözetim ve ölümcül otonom silahların geliştirilmesine ilişkin etik kaygılarını paylaştığını açıklarken, yönetimle çatışmamaya karar verdi.
OpenAI aslında ulusal güvenliğin ihtiyaçları ile kendi güvenlik protokolleri arasında bir denge arayarak hükümetin izlediği yasal çerçeve dahilinde çalışmayı kabul etti.
Sam Altman'ın uzlaşması
Bu uzlaşmanın teknik özü sözde “emniyet yığınıYapay zeka ile son kullanıcı arasındaki etkileşimi düzenlemek için tasarlanmış, üst üste binen katmanlardan oluşan bir yapıdır.
Basit bir ifadeyle, bir takas odası gibi davranan bir filtreler ve ara kontroller sistemidir: Hükümet komutlar verebilir ve modelin bilgi işlem kapasitesini meşru kabul edilen amaçlar için kullanabilir, ancak her girdinin bir dizi otomatik doğrulama protokolünden geçmesi gerekir.
Bu güvenlik katmanları, ayrım gözetmeyen siber saldırılar için kod üretmek veya özellikle sivil nüfusu hedef alan operasyonlar planlamak gibi şirketin temel ilkelerini ihlal eden her türlü talebin önceden engellenmesinden sorumludur.
Görüş
Yapay zekanın yeni efendileri ve inşa ettikleri gelecek
kaydeden Gary Rivlin

Meslektaşlardan rakiplere: Altman ve Amodei arasındaki soğuk savaş
Pentagon'un gölgesindeki çatışma, yıllardır süren kişisel rekabetin son bölümünü oluşturuyor.
Dario Amodei aslında OpenAI'nin üst düzey yöneticilerinden biriydi ancak 2021'de kız kardeşi Daniela ve bir grup kıdemli araştırmacıyla birlikte şirketten ayrılmaya karar verdi.
Bölünmenin nedeni tam olarak Altman'ın vizyonu üzerindeki anlaşmazlıktı; aşırı kâr odaklı olduğu ve yapay zekanın varoluşsal risklerine daha az dikkat ettiği değerlendiriliyordu.
O zamandan bu yana, Antropik ve OpenAI iki karşıt felsefeyi temsil ediyor: Birincisi tedbir ve etik kontrole, ikincisi ise kitlesel yayılmaya ve yerleşik güçle bütünleşmeye odaklandı.
Son dönemde iki lider arasındaki gerginlik iyice ortaya çıktı.İÇİN Zirve Altman ve Amodei'nin sahnede el sıkışmaktan kaçındığı Yeni Delhi'de gerçekleşen olay, artık sadece teknolojik değil, ideolojik ve politik bir kırılmayı da görünür kıldı.
Kâr amacı gütmeyen misyona ihanet
Çoğu kişi için Sam Altman tarafından imzalanan anlaşma, OpenAI'nin orijinal tüzüğüyle karşılaştırıldığında geri dönüşü olmayan bir noktayı temsil ediyor.
2015 yılında kâr amacı gütmeyen bir kuruluş olarak kurulan şirket, şeffaflığı ve sonuçların paylaşılmasını sağlayarak, yalnızca insanlığın yararına, ekonomik açıdan en ilgili görevlerde insanlardan daha iyi performans gösterebilen özerk bir sistem olarak tanımlanan yapay genel zekayı geliştirme konusunda açık bir yetkiye sahipti.
Gerçekte, daha sonra kaynak kodlarının kapatılması ve yakın zamanda sosyal amaçlara sahip olmasına rağmen kar elde etmek için faaliyet gösteren bir kuruluş olan “Kamu Yararına Çalışan Kuruluş”a dönüştürülmesi, kuruluşun etik bütünlüğüne ilişkin şüpheleri zaten artırmıştı.
Beklenti
OpenAI'nin tarihini anlatan kitapta Sam Altman ile Steve Jobs'un buluşması “Denemeye değerdi”
Italian Tech editör ekibi tarafından düzenlendi

Bununla birlikte, Savaş Bakanlığı'nın gizli sistemlerine doğrudan entegrasyon bugün birçok gözlemci tarafından OpenAI'nin orijinal misyonuna kesin bir ihanet olarak görülüyor: Aşırı teknolojik güce karşı bir denge oluşturması beklenen laboratuvar, ABD askeri-endüstriyel kompleksinin direği haline geldi.

Bir yanıt yazın