Yorum: FOMO güvenliği yiyor | merhaba çevrimiçi

Geniş dil modellerine dayanan yapay zeka sistemleri, yeni türde güvenlik açıkları ve güvenlik riskleri ortaya çıkarır. Zamanında yapılan enjeksiyonlarla, jailbreak'lerle veya model zehirlenmeleriyle en iyi nasıl başa çıkılacağı güncel araştırmaların konusudur. Ancak yeni, nispeten az çalışılmış güvenlik sorunlarının tartışılması ne kadar önemli olursa olsun, bu durum yapay zeka sistemlerinin her zaman klasik yazılımlar da içerdiği ve elbette klasik güvenlik açıkları içerdiği gerçeğini kolayca gizlemektedir.

Duyurudan sonra devamını okuyun

Sylvester Tremmel bilgisayar bilimi ve felsefesi okudu ve geliştirici ve yönetici olarak çalıştı. Artık c't ve Haberler için çevrimiçi olarak yazıyor ve aynı zamanda BT güvenliği, Linux, ağ politikası ve veri koruma konularını da kapsıyor.

Çok fazla abartılan yapay zeka ajanı OpenClaw'da son haftalarda arz sıkıntısı yaşanıyor 380 Birçoğu ciddi olan 450 güvenlik açığı bulundu. Çoğu durumda, bunlar OpenClaw'ın yapay zeka bileşenine yönelik yeni ve yaratıcı saldırılar değildir (hatta saf istem enjeksiyonları OpenClaw güvenlik raporlarında açıkça “kapsam dışıdır”). Bunun yerine uyarılar, yetersiz izinler, yeniden oynatma korumasının olmaması, oturumların doğru şekilde sonlandırılmaması vb. gibi klasik sorunları belgeliyor. Güvenlik açıklarının sayısındaki saçma derecede hızlı artış muhtemelen OpenClaw'a özgü değildir. Proje, bu boşlukları bu kadar kapsamlı bir şekilde belgelemesi açısından özeldir. Diğer pek çok yapay zeka projesinin daha iyi konumlandırılması pek mümkün değil, sadece eksikliklerini daha az kapsamlı bir şekilde ele alıyorlar.

Sadece bir örnek vermek gerekirse: Mart ortasında, Güvenlik Araştırma Laboratuvarları'ndaki araştırmacılar, büyük ve belirtilmemiş bir kuruluşun chatbotunda ciddi bir kusur keşfettiler: kullanıcı sohbetleri, yönetici oturum açma verileri, milyonlarca çalışan hesabı, hepsi araştırmacıların erişimine açık. Ancak bu, sohbet robotunun yapay zekasına yapılan akıllıca bir saldırıya değil, tamamen güvenli olmayan ve son derece konuşkan bir hata ayıklama arayüzüne dayanıyordu. Araştırmacılar, uygun bir alaycılıkla, “Yapay zeka temsilcinizi hacklemek için yapay zeka temsilcinizi hacklememize gerek yok” diye başlık attılar.

Bu arada, McKinsey danışmanlık firmasından bir yapay zeka asistanının birkaç saat içinde saldırıya uğramasının ardından, yapay zeka asistanlarındaki güvenlik açıklarını arama fikri ortaya çıktı. Bu durumda neden, hızlı enjeksiyon değil, SQL enjeksiyonuydu. Kulağa benzer geliyor ancak SQL enjeksiyonları, çözülmesi zor AI sorunları değil, iyi bilinen ve güvenilir çözümlere sahip klasik güvenlik sorunlarıdır.

Çok sayıda benzer örnek var; Mevcut ortamda yapay zeka sistemleri son derece hızlı bir şekilde geliştirilmekte, genişletilmekte ve üretken verilerle doldurulmaktadır. BT şirketleri ve BT dışı şirketler, esassız bir fırsatı kaçırma korkusuyla (FOMO), övünmek için iş süreçlerini ve üretim sistemlerini yapay zeka ile donatmak için yarışıyor. Bu kadar aceleci bir şekilde gelişenler neredeyse kaçınılmaz olarak kötü kod, teknik borç ve güvenlik açıkları biriktirir.

Vibe kodlaması olmadan böyle bir geliştirme hızına ulaşmak muhtemelen mümkün değildir, ancak bu mümkün olsaydı bile: Mümkün olduğu kadar hızlı bir şekilde oldukça işlevsel ve her şeyden önce sunulabilir bir sistem elde etmek istiyorsanız, geliştirme süreci nasıl görünürse görünsün kötü kod, teknik borç ve güvenlik açıkları biriktireceksiniz.

Duyurudan sonra devamını okuyun

Böyle bir durumda zamanında enjeksiyonlara ve benzerlerine karşı dirençle ilgilenmek, veranda kapısı ve tüm pencereler açıkken, önünde iki koruma bulunan yeni, özellikle güvenli bir ön kapı aramaya benziyor: kötü bir adım değil, tek başına bir adım olarak oldukça işe yaramaz.

Siber suçlular halihazırda yapay zeka bileşenlerine yönelik saldırıları repertuarlarına dahil ediyor ancak bu tür saldırılar hâlâ nispeten basit ve sayıca az. Sistemin açık hata ayıklama arayüzü istedikleri her şeyi gümüş bir tepside sunarken, saldırganlar neden yeni ve çoğunlukla olasılığa dayalı güvenlik açıkları konusunda endişelensin ki?

Çelişkili bir şekilde yapay zeka artık güvenlik açıklarının belirlenmesinde oldukça etkili görünüyor. Gerçekten yapay zeka tarafından yönlendirilen kaba hızda gelişmek istiyorsanız, en azından yapay zekayı kullanarak güvenlik açıklarını kontrol edebilirsiniz (ve – çılgın fikir – Önce verimli bir şekilde kullanırsınız). Ancak bunun gerçekleşebilmesi için güvenlik konusuna şu anda pek çok aktörün sahip olmadığı bir öncelik verilmesi gerekiyor.

Karar verme süreci henüz FOMO tarafından üstlenilmemiş olan herkese, yalnızca yapay zekanın geliştirilmesi ve tanıtılması sırasında kanıtlanmış güvenlik uygulamalarının uygulanmasının ertelenmesine izin vermemeleri tavsiye edilebilir. Bunun yerine, bilinen ve önlenebilir eksikliklerden en azından fiili olarak kaçınmaya zorlanmalıdırlar. Bu, AI ürününün yeni sürümünün bir veya iki ay sonra ortaya çıkacağı anlamına geliyorsa, bu küçük bir bedel olacaktır. Yapay zekadan bıkmış bazı müşteriler aslında buna katılabilir.


(Evet)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir