Yaklaşık bir haftadır Anthropic ile Amerikan Savaş Bakanlığı arasındaki anlaşmazlık uluslararası bilgilerin odağındaydı. Konuyla ilgili çok şey yazıldı, ancak şirket tarafından duyurulan ve daha sonra fiilen desteklenen yasal işlem, tartışmanın doğasını ve genel olarak yapay zekanın (yalnızca askeri sektörde değil) kullanımındaki mevcut kritik sorunların neler olduğunu anlamak için somut unsurlar içeriyor.
Antropik'in açıklamaları
Anthropic'in Trump yönetimine yönelik “iddianamesinde” belirttiği gerçekleri özetleyelim.
Gerçek numarası 1: Anthropic, yapay zekayı ulusal güvenlikten sorumlu yapıların göstergelerine dayanarak geliştirdi (Anthropic ayrıca özel “Claude Gov”a özel modeller de geliştirdi özellikle ulusal güvenlik bağlamı için. Bu modeller doğrudan temel alınarak oluşturulmuştur. Gerçek dünya gereksinimlerini karşılamak için ulusal güvenlik kurumlarından geri bildirimgeliştirilmiş gibi Gizli bilgilerin işlenmesi, kritik dillerde gelişmiş yeterlilik ve karmaşık Siber güvenlik verilerinin analizi. Claude Gov modelleri tutarlı ve sıkı güvenlik testlerinden geçer Anthropic'in sorumlu yapay zekaya olan bağlılığıyla.)
Tamamlanan numara 2: Claude Gov modelleri, “normal” müşterilere sunulanlardan daha az kısıtlamayla (ama ne kadar daha az?) üretilmiştir. Bu nedenle, örneğin yapay zekanın saldırı planları oluşturmasını, kritik güvenlik açıklarının analizini veya ölümcül taktiksel desteği engelleyen, normalde ticari versiyonlarda engellenen bloklar ortadan kaldırılabilirdi (temyizde şunu okuyoruz: Claude'u federal hükümetin askeri ve istihbarat bileşenleri için daha kullanışlı hale getirmek amacıyla Anthropic, sivil müşterilere uyguladığı kısıtlamaların aynısını ordunun Claude kullanımına da dayatmıyor..)
Gerçek numarası 3: Anthropic, silahları çalıştıracak bir insan olduğu sürece yapay zekasının silah geliştirmek için kullanılmasına izin veriyor (Anthropic şöyle yazıyor: Politika, şartlarına göre, Anthropic hizmetlerinin, insan gözetimi ve Amerikalıların kitlesel gözetimi olmaksızın ölümcül otonom savaş için kullanılmasını her zaman yasaklamıştır.), Ve gerçek numarası 4Amerikalı olmadığı sürece herkes ve Amerikalı olmadığı sürece Amerikan vatandaşları üzerinde kitlesel gözetleme programlarının uygulanmasına izin veriyor kitlesel olarak.
Gerçek numarası 5: Antropik, Claude'un bir gün bağımsız olarak öldürüp gözetleyebileceği ihtimalini göz ardı etmiyor ancak bunu mutlaka yapmak da istemiyor (Anthropic, Claude'u (veya özel Claude Gov modellerini) insan gözetimi olmadan ölümcül otonom savaş uygulamak için geliştirmedi. Claude eğitim almamış veya bu kullanım için test edilmiştir. En azından şu anda Claude bu tür görevleri yerine getirebilecek durumda değil insan gözetimi olmadan sorumlu bir şekilde.)
Gerçek numarası 6: Otonom silahlarda olduğu gibi, kitlesel gözetlemede de Claude kendisini (henüz) denetimsiz operasyona uygun hale getirmeyecek düzeyde hatalar yapabilir (İkincisi, Anthropic, Claude'un kitlesel gözetleme amacıyla kullanılmasını kabul etmek istemiyor. Amerikalılar. … Yapay zeka kullanılarak yürütülen gözetim, geleneksel tekniklere göre çok daha fazla hata yapma ve herhangi bir hatanın etkisini artırma potansiyeli taşıyor.)
Anthropic'in açıklamaları ne anlama geliyor?
Koordineli bir şekilde okunan ve hukuk dilinden insan diline tercüme edilen Anthropic'in açıklamaları, Atlantik'in bizim yakamızda dikkate alınması gereken ekonomik strateji ve teknolojik jeopolitiğin bazı yönlerini açıkça vurguluyor.
Aşağıda, Anthropic tarafından mutlaka “istenmeyen”, ancak Büyük Teknoloji ile kamu otoriteleri arasındaki ilişkinin genel tablosundan çıkarılabilecek analitik düşünceler yer almaktadır.
Amerikalı olmayanlara koruma yok
Birincisi, Anthropic'in etik kaygılarının yalnızca Amerikan vatandaşlarını (askeri veya sivil) ilgilendirdiğidir. Bu nedenle hiçbir şey Claude Gov'un başkalarına karşı kullanılacak silahlar (çeşitli özerklikler) ve gözetleme sistemleri geliştirmek için kullanılmasını engellemez. Bu, Open AI'nin bir kolundan doğan ve “güvenliğe” odaklanma hedefiyle doğan ve hâlâ “Benefit Corporation” yasal statüsüne sahip bir şirket için masumiyet çağının sonunu işaret ediyor.
ABD dışındaki ortaklar için zayıflatılmış sürümler mi var?
Claude Gov müttefik ülkelere de satılacak olsaydı hangi sürümü kullanmalarına izin verilirdi? Elbette Amerikan savunma ve güvenlik yapılarının elinde olan bir seçim değil ve bu nedenle böyle bir tercihin, ortak askeri operasyonlarda stratejik ve taktik koordinasyonda sorun yaratabileceğini düşünmek gerçekçi. Farklı analitik kapasite, bu yönüyle sınırlı olsa bile, ortakların bu konuda gerçek bir söz hakkı olmaksızın esasen almak zorunda kalacakları operasyonel kararlara dönüşecektir.
Anthropic'in Claude Gov'u tam özerkliğe doğru geliştirmek isteyip istemediği kesin değil
Claude Gov hala birçok hata üretiyor ve bu nedenle, bunun çalışması için bir insan operatörün, yani bir günah keçisinin varlığı gerekiyor. Ve Claude Gov'un nasıl kullanılacağına karar vermekten sorumlu olan insanın bir günah keçisi olduğu, bir süredir bilinen oldukça sıradan bir düşünceyle kanıtlanıyor: Bir yapay zekanın değeri, çok büyük miktarlarda veriyi analiz etme ve seçenekler önerme yeteneğidir; ama karar vermesi gerekenler hangi tercihin doğru olduğunu nasıl anlayacak? Böyle bir süreçte insan varlığının tamamen resmi olduğu açıktır çünkü operatörün (acil durumlarda) bilinçli ve bilgili bir şekilde karar verme konusunda gerçek bir yeteneği veya olanağı olmayacaktır.
Döngüdeki insan, insanların arıza hasarlarını ödemesini sağlamanın bir yoludur devletTamamen endüstriyel bir perspektiften bakıldığında, Claude Gov'un tam operasyonel özerkliğe ulaşacak şekilde inşa edilmesi pek mümkün görünmüyor.
Claud Gov'un operasyonunu başlatan bir insan operatörün varlığıyla Anthropic, operasyonel hataların mağdurları tarafından açılan davalardan kendisini hariç tutuyor (veya en azından hükümeti olaya dahil etme olasılığını saklı tutuyor). Aslında Claud Gov tamamen özerk bir şekilde çalışsaydı, ölümcül otomatizmlerinin masum kurbanlarının uğradığı zararları ödemek Anthropic'e kalmıştı. Aksine, eğer Claude Gov'un işlevini yerine getirebilmesi için onu “çalıştıracak” bir insana ihtiyacı varsa, o zaman sorumluluk o insana, yani günah keçisinin ait olduğu yönetime aittir. Başka bir deyişle, bu bir etik sağduyu meselesi değil, hukuki riski sınırlamak için hukuki tedbir meselesidir.
Antropik vakadan hangi genel göstergeler çıkarılabilir?
Anthropic'in meşru ekonomik çıkarlarını korumayı amaçlayan bu yasal işlemin sonucu ne olursa olsun, Avrupa'yı ilgilendiren daha genel bazı konular üzerinde düşünmeye değer.
Birincisi, yapay zekanın Üye Devletler tarafından öldürücü amaçlarla kullanılmasının tabu olamayacağıdır. Bu, AB dışındaki (çünkü AB Anlaşmasının 4. Maddesi buna izin veriyor) bireysel ülkelerin, isterlerse, karar alma ve silah platformlarına yapay zekayı dahil eden teknolojilerin geliştirilmesine yönelik anlaşmaları doğrudan imzalayabilecekleri anlamına geliyor. Bu ayrıca, bu kısıtlı anlaşmalar kapsamında, kamuya açık olmayan veriler ve bilgiler üzerine eğitilmiş özel savunma yapay zekasının geliştirilmesinin gerekli olacağı anlamına geliyor.
İkincisi, özellikle savunma sektöründe, tamamen özerk bir BT ekosistemi (işletim sistemleri, geliştirme ortamları, veri kümeleri, modeller ve bunların kullanımına yönelik platformlar) geliştirmeye karar vermezsek, kullanabileceğimiz en fazla ABD'nin bize vermek istediği minimum miktar olacaktır.
Başka bir deyişle, kendimizi İkinci Dünya Savaşı sırasında İtalyan Donanmasının içinde bulduğu durumu hatırlatan taktiksel bir tabiiyet içinde bulma riskiyle karşı karşıyayız. Şifrelemesi İngilizler tarafından “kırılan” Enigma şifrelerinin daha az güçlü versiyonlarının kullanılması, Matapan Burnu'ndaki yenilgiyle sonuçlanan feci sonuçlar doğurdu. Bu durum, gereğinden fazla hata yapan ve/veya yeterince güçlü olmayan yapay zekalarda da meydana gelebilir.
Üçüncüsü, AB'nin yapay zeka düzenlemesine rağmen, daha doğrusu, tam da bu düzenleme nedeniyle, ilkeyi uygulama zorunluluğunun olmasıdır. döngüdeki insan Şu andaki Büyük Teknoloji'nin yasal sorumluluğunu ortadan kaldırır veya her durumda büyük ölçüde azaltır. Avrupa'daki gibi düzenleyici bir çerçevede, teoride operatörün kontrolü altında olan sistemleri benimsemeye yönelik gerçek bir teşvikin olduğunu düşünmek zordur, oysa gerçekte bu sistemler, amacı dişlileri harekete geçirmek olan bir anahtara dönüştürülür.
Son olarak sektörde faaliyet gösteren diğer şirketlerin de Anthropic'in tarafını tutmaya karar vermesi, spesifik vakada ortaya çıkan sorunların tüm sektör için ne kadar endişe kaynağı olduğunu ortaya koyuyor. Aslında Trump yönetiminin desteklediği, savunma taleplerine uymayı reddetmenin askeri sektörde çalışma olasılığının kaybı anlamına geldiği yönündeki çizginin “geçmesi” durumunda, kârlar ve (her şeyden önce) rekabet üzerindeki etkisi çok büyük olacak ve bu nedenle ne pahasına olursa olsun kaçınılmalıdır.
Antropik durum Avrupa için de son derece faydalıdır çünkü geleceğe bakmamıza ve yapay zeka teknolojilerini gerçekten kullanmak istiyorsak yüzleşmek zorunda kalacağımız gerçek sorunların neler olduğunu anlamamıza olanak tanır. Alternatif, bugün yaptığımız gibi devam etmek, soyut terimlerle akıl yürütmek, yapay zeka olgusunun karışık algılarına dayanarak dünyanın geri kalanının biz olmadan yoluna devam etmesine izin vermektir.

Bir yanıt yazın