Analiz: Tarama sunucuları aşırı yükleyebilir

Dolandırıcı Bildirim

Bu makale bu nedenle İngilizce olarak mevcuttur. Yayınlamadan önce teknik yardım ve editoryal revizyon ile çevrildi.

Sohbet botları ve altta yatan modeller sadece bilgi arayışını değil, aynı zamanda genel olarak internette de değiştirir. Bu, web hizmeti sağlayıcılarına ve içerik sağlayıcılarına bazı zorluklar vardır. Bir bulut platformu raporu, BOT AI aracılığıyla otomatik veri kaçakçılığının nasıl geliştiğini hızlı bir şekilde göstermektedir. Hızlı bir şekilde, müşterileri için tarayıcının düzenlenmesi için çözümler sunmayı taahhüt eder.

Yapay zeka robotları iki ana gruba ayrılmıştır: KI taramaları, yapay zeka modellerinin oluşumu için veri toplamak için sistematik olarak internette arar. ChatGPT aracıları gibi Getcher robotları, kullanıcıların isteklerine yanıt vermek için Web'deki gerçek zaman içeriğini çağırır.

Paletli içeriğinin yoğun kazıyıcısı, sunucu aşırı yüklenmesine yol açabilir. Nisan ve Temmuz 2025 arasında, analize göre hızlı bir şekilde, Total Bots kaçakçılığının yüzde 80'i bu tarayıcıdan kaynaklanıyordu. Meta, Facebook Ana Topluluğu, Instagram ve Whatsapp, AI paletli tüm taleplerinin yüzde 52'siyle en büyük nedendir. Bu cilt Google (yüzde 23) ve Openai'den (yüzde 20) önemli ölçüde daha fazladır.

ChatGPT aracıları gibi Getcher robotları, kullanıcıların isteklerine yanıt vermek için gerçek zaman içeriğini çağırır. Bu çok sayıda soruya yol açar. Bir durumda, sınava göre, bu çağrı botu en yüksek yük sırasında dakikada 39.000 talep sağladı. Bu büyük yük, bir DDOS saldırısı gibi, orijinal sunucuları kötü bir niyet olmadan bile dizlere zorlayan büyük bir bant genişliği tüketimi olarak sorunlara yol açabilir.

“Endişe verici bir eğilim, büyük ölçekli yapay zeka robotları ile veri kaçakçılığında ani artıştır”, yazarlar 6,5 trilyondan fazla aylık talep yazdılar. Bir durumda, tek bir tarama yapay zeka dakikada yaklaşık 1000 talep zirvesine ulaştı. Bu, veritabanı sorgularına bağlı veya git deposunu sürüş olarak aramak için arayüzler sağlayan web siteleri için önemli bir yük olabilir. Bu sistemlerle, etkili bot kontrolleri veya küçülme önlemleri olmayan faaliyetlerin kısa önerileri bile yavaşlamaya, zaman aşımına veya rahatsızlıklara yol açabilir.

Yazarlar başka bir zorluk olarak eksik. Robotlar için tek tip bir doğrulama yoktur. Bu, güvenlik uzmanlarının meşru robotları potansiyel olarak zararlı veri trafiğinden ayırmasını zorlaştırır. BOT'un doğrulamasını basitleştirmek için, operatörler IP adres alanlarını yayınlamalı veya DNS ters aramalar gibi doğrulama yöntemlerini desteklemelidir.

AI paletli trafiğinin neredeyse yüzde 90'ı Kuzey Amerika'dan geliyor. AI modelleri esas olarak Amerika Birleşik Devletleri'nin içeriği ile eğitilmişse, çıkış da karşılık gelir. Bozulmalar var.

Amerika Birleşik Devletleri'ndeki büyük yapay istihbarat şirketleri, tüm insanlardan faydalanması koşuluyla, telif hakkı korumalı işleri de kullanabilecekleri, sözde adil kullanım prensibine dayanmakla birlikte, telif hakkı şu anda metin ve veri madenciliği satışları ile yasal taban oluşturur. Bu, araştırma amacıyla telif hakkı ile korunan çalışmaların kullanılmasını sağlar.

İçeriğinizin paletli olarak kullanılmasını önlemek istiyorsanız, robot.txt dosyası aracılığıyla yapabilirsiniz. Ancak, bu sadece bir taleptir ve paletli önleyemez. Zaten yeni standartlar geliştirme çabaları var. Robotlar arasındaki ayrım da tartışmalıdır. Örneğin Google, web sitesinin operatörlerine yalnızca AI ve gerçek zamanlı araştırmaların eğitimi için her iki paletleyiciyi hariç tutma veya her ikisine de izin verme fırsatı sunar.

Robotların kontrolü için açık standartlar olmadan, şirketlerin veri kaçakçılığını kontrol etmek ve altyapılarını korumak neredeyse imkansız olacak, acele bir güvenlik araştırmacısı olan Arun Kumar. Otomatik trafik, diğer tüm altyapı veya güvenlik tehdidiyle aynı hassasiyet ve aciliyetle ustalaşmalıdır.


(EMW)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir