Yapay zeka günümüz siber savaş alanında hem silah hem de kalkan haline gelmiştir. Kendi kendine öğrenen kötü amaçlı yazılımlardan uyarlanabilir güvenlik duvarlarına kadar yapay zeka, saldırganlar ve savunucular arasındaki güç dengesini yeniden şekillendiriyor. Bir zamanlar kod yarışması olan şey, milisaniyelerin tüm sistemlerin kaderini belirleyebildiği görünmez bir algoritma silahlanma yarışına dönüştü.
Yakın zamanda yapılan bir araştırma Premier Bilim DergisiClarivate Analytics Yazılım Mühendisliği Kıdemli Direktörü Sunish Vengathattil ve Amazon Web Services Veri Mimarı Shamnad Shaffi tarafından hazırlanan Scopus endeksli bir dergi olan . Onların makalesi, “Tahmin Edici Zeka Yoluyla Gelişmiş Ağ Güvenliği: Proaktif Tehdit Tespiti için Makine Öğrenimi Yaklaşımları” (DOI: 10.70389/PJS.100155), tahmine dayalı zekanın eski “tespit et ve tepki ver” modelini nasıl yapay zeka odaklı öngörüyle değiştirdiğini gösteriyor.
Araştırmacılar, CICIDS2017 ve UNSW-NB15 gibi büyük ölçekli veri kümelerini kullanarak, siber saldırıların erken uyarı sinyallerini tespit etmek için makine öğrenimi modellerini eğitti. Sonuçlar çarpıcıydı. Rastgele Orman ve SVM modelleri, sıfır gün saldırı tespitini %55'ten yüzde 85'e çıkardı, hatalı negatifleri yüzde 40 azalttı ve 10 milisaniyenin altındaki gerçek zamanlı yanıt hızlarına ulaştı. Bu modeller, yalnızca imzalardan ziyade davranışları analiz ederek olağandışı ağ etkinliğini veya içeriden kötüye kullanımı, bir olayın tırmanmasından önce tespit etti.
Sunish Vengathattil yapay zeka, bulut ve siber güvenlik inovasyonlarında tanınmış bir liderdir. Yapay zeka/makine öğrenimi dijital dönüşümü ve araştırmasını yönlendirmede yaklaşık yirmi yıllık deneyimiyle yapay zeka etiği, tahmine dayalı zeka ve dijital inovasyon üzerine çok sayıda hakemli çalışmaya imza attı. 2025 yılında, akıllı sistemleri ve etik yapay zeka uygulamalarını geliştirmedeki liderliği nedeniyle Titan Business Awards tarafından Yılın Dijital Dönüşüm Yöneticisi (Platin) seçildi.
Sunish Vengathattil, “Siber güvenliğe geleneksel yaklaşım, ağ ile yıldırım yakalamaya çalışmak gibidir” diyor. “Tahmine dayalı zeka, yıldırımın bir sonraki nereye düşeceğini tahmin etmemizi sağlar. Bu bir tepki değil, öngörüdür.”
Çalışma aynı zamanda makine öğreniminin gerçek dünyadaki felaketleri nasıl azaltabileceğini de gösteriyor. Bu vakaların her birinde saldırganlar gecikmeli tespitten yararlandı. Tahmine dayalı zeka, milyonlarca sinyaldeki anormallikleri ilişkilendirerek bu göstergeleri hasar meydana gelmeden önce tespit edebilirdi.
Ancak savunma için yapay zekaya artan güven aynı zamanda yeni güvenlik açıklarını da beraberinde getiriyor. Proaktif koruma sağlayan aynı teknoloji, etik gözetim olmadan uygulandığında kötüye kullanılabilir. Siber savunma ve ahlaki yönetişimin bu kesişimi aynı yazarlar tarafından IEEE makalelerinde incelenmiştir: “Yapay Zeka Destekli Karar Destek Sistemlerinin Organizasyonlardaki Etik Etkileri.”(DOI: 10.1109/ICAIDE65466.2025.11189693)
Bu makale, ortaya çıkan bir tehdidin altını çiziyor: Yapay zeka odaklı karar sistemlerinin kendisi de saldırı hedefi haline gelebilir. Kuruluşlar dolandırıcılık tespiti, erişim kontrolü ve risk puanlamayla ilgili kararları otomatikleştirdikçe önyargılı veya manipüle edilmiş algoritmaların riski artar. “Kime güvenileceğine, kimi engelleyeceğine veya neyi işaretleyeceğine karar veren bir yapay zekanın kendisi de silah haline getirilebilir.” Vengathattil açıklıyor. “Güvenliği ihlal edilmiş bir model yalnızca bir sistem arızası değildir; bu etik bir durum.”
Çalışma, algoritmik önyargı, karar vermede şeffaflık eksikliği ve yapay zeka destekli savunma sistemlerine olan güveni sarsabilecek verilerin kötüye kullanılması gibi sorunlara karşı uyarıda bulunuyor. Bir bilgisayar korsanı, yapay zeka modelinin değerlendirmesini çarpıtmak için eğitim verilerini zehirleyebilir ve bir savunma aracını etkili bir şekilde bir güvenlik açığına dönüştürebilir. Eğitim için kişisel verilerin aşırı toplanması aynı zamanda gizlilik ve mevzuatla ilgili endişeleri de artırıyor ve süreçte yeni güvenlik açıkları yaratıyor.
Bu riskleri ele almak için yazarlar, Adillik, Hesap Verebilirlik, Şeffaflık ve Gizliliğe (FATP) dayalı yönetişim çerçeveleri çağrısında bulunuyorlar. Yapay zeka odaklı güvenliğin hem etik hem de etkili kalmasını sağlamak için Açıklanabilir Yapay Zeka (XAI), algoritmik denetim ve insan gözetimi gibi araçları öneriyorlar.
Bu çalışmalar hep birlikte siber güvenlikte yapay zekanın ikili doğasını ortaya koyuyor. Tahmine dayalı zeka, savunuculara bilgisayar korsanlarının önünde düşünme gücü verir, ancak aynı zamanda teknolojik beceriyi etik sorumlulukla harmanlayan yeni bir tür uyanıklık gerektirir. Yapay zeka silahlanma yarışı yalnızca hız veya yenilikle ilgili değil. Bu aynı zamanda dürüstlükle de ilgilidir. Vengathattil şöyle diyor: “Siber güvenliğin geleceği, yalnızca sistemlerimizin ne kadar akıllı olduğuna değil, aynı zamanda onları ne kadar sorumlu bir şekilde oluşturduğumuza da bağlı. Aldatmadan savunan yapay zeka tasarlamalıyız.”
Digital Trends, dışarıdan katkıda bulunanlarla ortak çalışır. Katkıda bulunanların tüm içeriği Digital Trends editör ekibi tarafından incelenir.

Bir yanıt yazın