Ajantik yapay zeka sistemleri, karmaşık görevleri minimum düzeyde insan müdahalesiyle giderek daha fazla gerçekleştirebiliyor. Aynı zamanda yapay zeka ajanlarına yönelik güvenlik ve davranış standartlarına ilişkin bir fikir birliği de yok. Bunlar ve diğer sonuçlar, Massachusetts Teknoloji Enstitüsü'ndeki (MIT) Bilgisayar Bilimi ve Yapay Zeka Laboratuvarı (CSAIL) tarafından yapılan bir çalışma olan AI Agent Index 2025'ten geliyor.
Reklamdan sonra devamını okuyun
AI Agent Index için çeşitli üniversitelerden bilim adamlarından oluşan bir ekip, otuz AI ajanını inceledi. Araştırmaları kamuya açık bilgilere veya geliştiricilerle yapılan yazışmalara dayanıyordu. Araştırmacılar, ortak ajansal yapay zeka sistemlerinin kökenlerine, işlev aralıklarına, sistem mimarilerine ve güvenlik önlemlerine odaklandı.
Hızlı gelişmeler
Açık olan bir şey var ki, ajansal yapay zeka sistemlerinin popülaritesi geçen yıl büyük ölçüde arttı. Araştırmaya göre ilgi sadece genel kamuoyuyla sınırlı değil. Bu, karşılık gelen Google aramalarındaki artışa yansıyor. Ancak ajan tabanlı yapay zekaya ilişkin bilimsel yayınların sayısı da arttı. 2020-2024 dönemine kıyasla 2025 yılında iki kattan fazla arttı. Ancak şu açık ki sonuçta 2023'ten önce bu tür sistemler yoktu.
Bilim insanlarına göre, ajansal yapay zeka sistemlerinin gelişimi de hızla gerçekleşiyor. Çalışma kapsamında incelenen yapay zeka ajanlarının yüzde 80'i 2024 ile 2025 yılları arasında piyasaya sürüldü veya ajan yeteneklerinde önemli güncellemeler aldı. Aynı zamanda büyük yapay zeka şirketlerine önemli bir yapısal bağımlılık da ortaya çıkıyor. Yapay zeka temsilcilerinin çoğunluğu, büyük ABD yapay zeka şirketlerinin GPT, Claude veya Gemini model ailelerini kullanıyor. Bilindiği gibi bunlar, yeni yapay zeka modelleri ve ayrıca ajan yeteneklerine sahip olanlar için bir tür yarış içerisindeler.
Üreticiler nadiren güvenlik bilgilerini açıklar
Bilim adamlarına göre, yapay zeka ajanlarına olan ilginin artmasına rağmen, yapay zeka ajanlarının geliştirilmesi ve kullanımına ilişkin önemli hususlar hala belirsizliğini koruyor. Özellikle araştırmacılar ve politika yapıcılar için kamuya açık bilgi eksikliği bulunmaktadır. Sonuçta bahsedilen modellerin tümü tescillidir; yapısı ve eğitim verileri hakkında son derece az şey bilinmektedir.
Bilim insanlarına göre, incelenen yüksek özerkliğe sahip on üç yapay zeka ajanından yalnızca dördü güvenlik derecelendirmelerini açıkladı. Otuz ajanlı yapay zeka sisteminden yirmi beşi, dahili ürün güvenliği araştırmalarının herhangi bir sonucunu yayınlamadı.
Reklamdan sonra devamını okuyun
Açık olmayan davranış ve sorumluluk standartları
AI Agent Index 2025'e göre, AI ajanlarına yönelik davranış standartları da yetersiz şekilde düzenleniyor. Aracıların birçoğu web sitelerindeki robots.txt dosyalarını görmezden gelir. Robots.txt, bir web sitesinin ana dizininde bulunan ve web tarayıcılarına hangi alanların otomatik olarak aranıp analiz edilebileceği ve hangilerinin edilemeyeceği konusunda talimatlar veren bir metin dosyasıdır. MIT bilim adamlarına göre incelenen yapay zeka ajanlarından bazıları açıkça anti-bot sistemlerini atlatacak şekilde tasarlanmış.
Ajansal yapay zeka sistemlerinin suistimal ve güvenlik sorunlarının sorumluluğu da temelde zordur. Çoğu aracı OpenAI, Google veya Anthropic gibi büyük geliştiricilerin yapay zeka modellerini temel aldığından sorumluluğu kimin üstleneceği belli değil.
OpenAI CEO'su Sam Altman bile ajan sistemlerin kullanımına karşı uyarıda bulunuyor. Bunlara, örneğin hızlı enjeksiyonlar kullanılarak saldırmak özellikle kolaydır. Temsilciler gizli talimatlar alırlar. Ancak, aracıların mantıklı bir şekilde kullanılabilmesi için bilgiye erişmeleri ve belli bir hareket alanına (örneğin, e-postalara, takvimlere veya benzerlerine erişim) ihtiyaçları vardır.
(rah)

Bir yanıt yazın