Hindistan, Askeri Yapay Zekada (AI) etik ve stratejik bir lider olma çabalarında ilerlerken, küresel olduğumuzu değerlendirmek önemlidir. Daha önceki bir makalede, Hindistan'ın DRDO'nun ETAI ve Hindistan'daki Büyük Hindistan Misyonu gibi çerçeve koşullarını nasıl tetiklediğine baktık ve AI'nın savunmada sorumlu, şeffaf ve etkili bir şekilde tanıtımı için temel bilgileri verdik. Ayrıca, sağlam kağıt yönergelerini pratik uygulamaya dönüştürme ve onu ajan silolarının ötesinde koordineli bir etik hükümete dönüştürme ihtiyacını da gördük.
Ordudaki AI ile ilgili tartışmalar dünya çapında sadece yeniliklerin ötesine geçti. Şimdi etik, kurallar ve güvene odaklanıyor. NATO başkentleri, G7 forumları, Pentagon brifingleri veya Birleşmiş Milletler (Birleşmiş Milletler toplantısı) olsun, ülkeler aynı temel sorulara geri döner: Kim sorumlu, insan denetimi nasıl kullanılır ve AI sistemlerinin güvenilir, açıklanabilir ve sorumlu olmasını nasıl sağlayabiliriz?
2021'de, NATO'da savunmada AI'nın sorumlu kullanımı için NATO'da imzalanmış (2024'te revize edildi)-kesinlikle yasal hazırlık, sorumluluk ve hesap verebilirlik, açıklama ve izlenebilirlik, güvenilirlik, hükümet yeteneği ve önyargılara ulaşmaktadır. Bunlar iç endişelerdi, harici olarak uygulanmadı.
Amerika Birleşik Devletleri, sivil toplum ve endüstriden gelen kapsamlı katkılara göre 2020'de AI için etik ilkelerini resmileştirdi. Beş merkezi değer – sorumluluk, eşitlik, izlenebilirlik, güvenilirlik ve hükümet yeteneği – artık her düzeyde tedarik ve kullanım için entegre edilmiştir. İzlenebilirlik, örneğin, sadece bir AI'nın bir karara nasıl geldiğine zulüm vermekle kalmaz, aynı zamanda komutanları savaş alanındaki bu kararları gerçekten anlamak için de donatır. Hükümet yeteneği, insanların her AI belirtisi ile tırmanmak ve kapatmak için güvenilir bir yol tutmasını sağlar. Tüm bu ilkeler, etik tarafından yönlendirilmelerine rağmen, sözleşmeler, proje kontrolleri ve belgelenmiş denetimlerle uygulanmaktadır.
BM çağrıyı da kabul etti. 2016 yılından bu yana, hükümet uzmanları grubu (GGE), ölümcül otonom silah sistemleri (yasalar) için hedefleri seçip yaklaşabilen silahlar için olası yeni kuralları tartıştı. Bir sözleşme henüz ortaya çıkmamış olsa da, GGE 2019 on bir yol gösterici ilke için ortaya çıkmıştır: uluslararası insancıl hukuk tüm silah sistemleri için geçerli olmalıdır ve anlamlı insan kontrolü ve yasal hesap verebilirlik pazarlık edilebilir değildir.
Hindistan'ın bu konuşmalardaki sesi her zaman dengeli ve pragmatik olmuştur. Hindistan, otonom silahların tamamen yasağını desteklemek yerine, herhangi bir teknolojiyi sadece özerk olup olmadığını değil, gerçek kullanımına ve etkilerine göre değerlendirmemiz gerektiğini savundu. Hintli temsilciler de temel bir sorunu vurguladılar: ölümcül özerk silahların genel olarak tanınmış bir tanımı yoktur, bu nedenle katı bir sözleşme artık erken olabilir.
AB kısa süre önce AI'yı risk seviyeleri gereklilikleriyle düzenlemek için mevzuat yayınladı. AB'nin genel veri koruma düzenlemelerinin dünya çapında veri koruma veri korumasını nasıl etkilediğine benzer şekilde AI yönetişimi için küresel bir standart belirlenmesi beklenmektedir. Bununla birlikte, savunma bir kesilmedir: Madde 2 (3), yasanın sadece askeri veya ulusal güvenlik amaçları için oluşturulmuş AI sistemleri için geçerli olmadığını söylüyor.
Evde, Hindistan'ın yaklaşımı hala genç, ancak doğru yönde ilerliyor. Savunma -ai Konseyi (DAIC) ve Savunma AI Proje Ajansı (DAIPA) güvenilir AI'ya hizmet etme çabalarını hızlandırdı. DRDO'nun ETAI çerçevesi açık kurallar içerir: güvenilirlik, güvenlik, şeffaflık, adalet ve gizlilik. Bu ilkeler, Ki'nin yaratıldığı, test edildiği ve kullanıldığı ve Niti Aayog tarafından hesap verebilirlik ve kapsayıcı açısından dile getirilen değerleri tekrarladığı için yönlendirir. Güçlü kurumsal desteğe rağmen, uygulama mevzuat yoluyla değil, esas olarak iç standartlar ve uygulamalar yoluyla yapılır. Bununla birlikte, Hindistan bu yaklaşımla yalnız değil. Amerika Birleşik Devletleri satın alma ve sözleşmelerde etik ilkeleri başlatır; NATO, AI testi ve validasyon gövdeleri oluşturur; AB Yasadaki resmi ilkeler (esas olarak askeri olmayan amaçlar için olsa da). Hindistan doğru kurumlara sahiptir – Meity, Drdo, Daic – ancak zorunlu kılavuzun bir sonraki adımını yapmak zorundadır.
Gelecek açısından Hindistan üç seçenek kullanabilir. Birincisi, tüm askeri AI sistemleri için tedarik ve operasyonel protokollerdeki etik ilkelerde. İkincisi, silahlı kuvvetler, DRDO, meity ve hukuk uzmanları gibi tüm önemli paydaşların temsili ile sabit bir AI ajanslar arası komisyon oluşturun. Üçüncüsü, küresel standartların tasarımında derin kalırlar. Sadece kendi çıkarlarını koruma perspektifinden değil, aynı zamanda bakış açısından da. Sivil ve askeri yapay zekanın özünde bağlantılı olduğu ve becerilerin hızlı bir şekilde geliştiği bir dünyada, gerçeğe göre düzenlemek yeterli değildir. Hindistan, güvenliği etik ile uyumlu hale getiren sağlam, açık ve uygulanabilir bir çerçeveyle liderlik etme fırsatına sahiptir. Yeni askeri AI döneminde, güven, şeffaflık ve net kurallarda, kısıtlayıcı değiller, gerçek stratejik güç kaynaklarıdır.
Bu makale Zain Pandit, Ortak ve Aashna Nahar, Ortak, JSA Avukatları ve Avukatlar tarafından yazılmıştır.
Bir yanıt yazın