Geçtiğimiz 28 Şubat'ta, ABD ve İsrail'in İran'a yönelik ortak askeri saldırısı kapsamında, ülkenin güneyindeki Minab'daki Shajareh Tayyebeh kız ilkokuluna sabah saat 10 sıralarında dersler devam ederken bir füze çarptı.
İçeride çoğu 7 ila 12 yaş arası kızlar olmak üzere yaklaşık 170 öğrenci vardı ve çarpma sonucu yapının yarısından fazlası yanarak çatının çökmesine neden oldu. İran devlet medyası 168 ölü ve en az 95 yaralıdan bahsediyor.
Okulu kimin yıktığı henüz kesin olarak belirlenemedi.
Çatışmanın merkezinde yapay zeka
Ancak bazıları, eğer patlama yakındaki İran askeri üssüne düşen gibi bir Amerikan tomahawk'ından kaynaklanmışsa, sorumluluğun bir kısmının ABD silahlı kuvvetleri tarafından kullanılan yapay zekanın yanlış hesaplamalarına atfedilmesi gerektiğini ima ediyor.
Kısacası katliam bir halüsinasyonun sonucu olabilir mi? [vale a dire la tendenza, da parte di un’IA, di produrre un’informazione plausibile e credibile ma totalmente errata, ndr]
Bunu belirlemek zor olacak ama kendinize sormanız önemli.
Orta Doğu'daki savaş, ABD askeri teknolojisinin komuta ve kontrol zincirleri içinde Gemini ve ChatGpt gibi chatbotların temelini oluşturan büyük dil modellerinin (LLM'ler) entegrasyonuyla kritik bir dönüm noktasına ulaştığı bir zamanda geldi.
İran'a yönelik saldırıların ilk yirmi dört saatinde ABD'nin yaklaşık bin hedefi vurmak için yapay zekadan yoğun şekilde yararlandığına inanılıyor.
Halihazırda Venezuela'da Nicolas Maduro'nun yakalanmasına yol açan operasyonlarda kullanılan bu teknoloji, Washington'un İsrail ile birlikte yürüttüğü saldırının planlanması ve yürütülmesinde kilit rol oynadı.
Yapay Zeka Savaşı
İran Baskınlarının Arkasında Anthropic'in Yapay Zekası: Trump'ın Yasaklamasından Sonra Pentagon'un Paradoksu
kaydeden Pier Luigi Pisa
Project Maven ve Claude'un rolü
Bu dönüşümün merkezinde Palantir tarafından geliştirilen Maven Akıllı Sistem (MSS) yer alıyor. [l’azienda fondata da Peter Thiel e Alex Karp che ha un contratto da 10 miliardi di dollari con il Pentagono per i prossimi dieci anni].
Bu, bilgisayarlı görüntü projesi olarak kökenlerini aşarak ABD Savunma Bakanlığı'nın küresel operasyonlarının “bilişsel motoru” haline gelen ve Trump tarafından Savaş Bakanlığı (DoW) olarak yeniden adlandırılan bir platformdur.
İlk olarak 2017 yılında, ilgilenilen nesneleri tespit etmek amacıyla drone görüntülerine bilgisayarlı görüntü uygulamak gibi nispeten basit bir amaç ile kurulan Project Maven, son yıllarda Anthropic'in yapay zekası Claude sayesinde çok daha geniş bir karar destek mimarisine dönüştü: uydu görüntüleri, radar izleri ve elektronik istihbarat raporları gibi farklı verileri yorumlamasına ve bunları savaş alanındaki tek bir tutarlı varlığa bağlamasına olanak tanıyor.
Ateş hızı, hata riskleri
Modern savaşta, savaş alanından gelen verileri gerçek zamanlı olarak kullanarak, rakipten daha iyi ve daha hızlı kararlar verenler galip gelir.
Yapay zekanın belirleyici bir araç olmasının nedeni budur: Muazzam miktarda bilgiyi analiz etmemize, operasyonel kalıpları belirlememize ve gözlemden karara ve son olarak eyleme giden giderek hızlanan döngüde komuta desteği sağlamamıza olanak tanır.
Claude tarafından desteklenen Maven, hedefler önerebilir, kesin konum koordinatları sağlayabilir ve bunları önem derecesine göre önceliklendirebilir.
Yapay zeka araçları, bir saldırıyı başladıktan sonra bile hızlı bir şekilde değerlendiriyor, diye yazdı Washington Post.
Daha önce haftalarca süren toplantılara ve onlarca kişiye ihtiyaç duyulurken saldırıların kısa sürede planlanmasına olanak sağlayan bu olağanüstü verimlilik, ancak yeni ve ciddi sorunlar da yaratabiliyor.
Son zamanlarda duyulan kaynaklara göre Wall Street Dergisi“Yapay zeka projelerinde yer alan birçok askeri yetkili, teknolojinin yeteneklerinin, sağladığı bilgilere aşırı güvenmeye yol açma riski olduğu konusunda uyarıyor; bu eğilim, 'Bilgisayar bunu yapmasını söyledi' ifadesiyle özetleniyor.”
Hataların sorumlusu kim?
Kısacası, savaş alanında şekillenen dinamik, işyerinde birisinin chatbotların yeteneklerine körü körüne güvendiği ve her birinin hala küçük harflerle “Hata yapabilir” uyarısını taşıdığını unuttuğu işyerinde olan veya olabilecek şeye son derece benzer.
Elbette ki sorun, yapay zeka hatalarının savaşta hayatlara mal olabilmesidir. Masumlar.
Peki yapay zeka çatışma sırasında hata yaparsa, bu tam olarak kimin 'hatası' olur?
Oxford İnternet Enstitüsü Dijital Etik ve Savunma Teknolojileri profesörü Mariarosaria Taddeo şöyle açıklıyor: “Avrupa Yapay Zeka Yasası'ndan Güney Kore Yapay Zeka Temel Yasası'na kadar yapay zekaya adanmış birkaç yasa, savunmayı açıkça uygulama alanlarının dışında bırakıyor. Uluslararası insancıl hukuk prensipte geçerlidir, ancak otonom sistemlere genişletilmesi hâlâ geliştirilecek yorumlar gerektirir.”
Her durumda, saldırıların ardındaki teknolojinin savaş suçlarından sorumlu tutulması pek olası değil.
Devlet Müteahhit Savunması doktrini aslında Amerika Birleşik Devletleri'nin (bu durumda askeri faaliyetlerle ilgili) egemenlik dokunulmazlığını üç koşulun yerine getirilmesi koşuluyla özel ortaklara devretmektedir: Hükümet sistemin özelliklerini onaylamıştır; ürünün bu spesifikasyonlara uygun olması; yüklenici bilinen riskler konusunda hükümeti bilgilendirdi.
Uygulamada, eğer Palantir, Anthropic veya başka herhangi bir şirket yapay zekayı Savunma Bakanlığı'nın spesifikasyonlarına göre geliştirmişse ve Pentagon'a hata payları konusunda bilgi vermişse, bunu ABD'de başarılı bir şekilde dava etmek neredeyse imkansızdır.
Bununla birlikte, trajik bir hata yapılırsa (otonom bir silah veya insan operatörler tarafından takip edilen hedefleri belirleyen gelişmiş bir sistem tarafından) Anthropic, sistem üzerinde herhangi bir operasyonel kontrol uygulamasa bile küresel kamuoyuna cevap vermek zorunda kalma riskiyle karşı karşıya kalacaktır.
Antropik için itibar riski
Anthropic'in CEO'su Dario Amodei bunu çok iyi biliyor ve belki de bu nedenle, etik ilkelerin ötesinde, Pentagon'dan otonom silahlar geliştirmek için teknolojisini asla kullanmayacağını taahhüt etmesini istedi.
Çatışma
Savaş için yapay zeka, Anthropic Pentagon'a dava açtı: “İfade özgürlüğünü cezalandırıyor”
kaydeden Pier Luigi Pisa

CBS ile yakın zamanda yapılan bir röportajda Amodei, otonom silahların yanlışlıkla yanlış insanları hedef alabileceğinden endişe duyduğunu söyledi. Anthropic'in CEO'suna göre, insan gücüyle çalışan silahların aksine, yapay zeka tarafından yönlendirilen ve düşürülen cihazlar tarafından alınan kararlardan kimin sorumlu olduğu belli değil.
Amodei, “Güvenilir olmadığını düşündüğümüz bir şeyi satmak istemiyoruz ve kendi insanlarımızın ölümüne veya masum insanların ölmesine neden olabilecek bir şey satmak istemiyoruz” dedi.
Yapay zekanın yanlış bir hedef belirlemesi durumunda – Minab okulunda olduğu gibi – tüm sistemin, insan komuta zincirinin veya bir operatörün nihai kararının değil, bir makinenin ölüme ve yıkıma neden olduğunu kanıtlamak çok karmaşık olacaktır.
Ancak Anthropic, otonom silahlara doğrudan entegre edilmiş teknoloji sağlarsa tablo değişebilir.
Uluslararası insancıl hukuk, her saldırının insana özgü bağlamsal bir yargıyla (ayrım ve orantılılık ilkelerine göre) değerlendirilmesini gerektirmektedir.
Bu ilkelerin aşılmasını teknik olarak mümkün kılan bir şirket, henüz hukuki açıdan olmasa da, en azından ahlaki ve itibar sorumluluğu açısından kendisini çok daha tehlikeli bir bölgede bulabilir.
Tetiği çekenin ve dolayısıyla sivilleri öldürenin Anthropic'in yapay zekası olduğu açıkça ortaya çıkarsa, yıllarca süren “önce güvenlik” şirketi konumu boşa gider.
Ve San Francisco şirketi için Pentagon'la Temmuz 2025'te imzalanan 200 milyon dolarlık sözleşmeden çok daha değerli olan kurumsal müşteriler kaçacak.
Müşterilerin ve yatırımcıların güveni sarsılırsa bu Anthropic'in sonu olurdu. Ancak hiçbir ekonomik kayıp, telafisi veya tamiri mümkün olmayan bir kayıpla kıyaslanamaz: bir insan hayatı. Eğer bir yapay zeka sistemi sivilleri askeri bir hedef olarak algılıyorsa, o zaman gerçek başarısızlık bütçeyle ilgili değildir. Bu insanlıkla ilgili.

Bir yanıt yazın