“Endişelenen trend”: AI gittikçe daha fazla trafiğe neden oluyor

Dolandırıcı Bildirim

Bu makale bu nedenle İngilizce olarak mevcuttur. Teknik yardım ile tercüme edildi ve yayınlanmadan önce Editory inceledi.

Chatbots ve altta yatan AI modelleri sadece bilgi aramasını değil, aynı zamanda genel olarak İnternet'i de değiştirir. Bu, web hizmeti sağlayıcılarına ve içerik sağlayıcılarına bazı zorluklar sunar. Bulut platformunun bir raporu, AI botları aracılığıyla otomatik veri trafiğinin nasıl geliştiğini hızlı bir şekilde göstermektedir. Kendi müşterileriniz için tarayıcıların düzenlenmesi için hızla çözümler sunmaya çalışır.

AI botları iki ana gruba ayrılmıştır: KI taramaları, AI modellerinin eğitimi için veri toplamak için sistematik olarak internette arama yapar. ChatGPT aracıları gibi getirici botlar, kullanıcılardan gelen soruları cevaplamak için Web'de gerçek zamanlı olarak içerik çağırır.

Paletli yoğun içerik kazıması aşırı yükleme sunucularına yol açabilir. Nisan ve Temmuz 2025 arasında, hızlı analize göre, gözlemlenen toplam AI bot trafiğinin yüzde 80'i bu tür tarayıcılardan kaynaklandı. Facebook, Instagram ve Whatsapp'ın ana şirketi Meta, tüm AI paletli taleplerinin yüzde 52'siyle en büyük nedendir. Bu cilt Google (yüzde 23) ve Openai'den (yüzde 20) önemli ölçüde daha fazladır.

ChatGPT aracıları gibi getirici botlar, kullanıcılardan gelen soruları cevaplamak için gerçek zamanlı olarak içerik çağırır. Bu çok sayıda soruşturmaya yol açar. Bir durumda, sınava göre, böyle bir çağrı botu, üst yük sırasında dakikada 39.000 soru sundu. Bu yüksek yük, bir DDOS saldırısı gibi, orijinal sunucuları kötü bir niyet olmadan bile dizlerine zorlayan büyük bant genişliği tüketimi gibi sorunlara yol açabilir.

“Endişe verici bir eğilim, büyük ölçekli AI botları yoluyla veri trafiğindeki ani artıştır.” Bir durumda, tek bir AI paletli dakikada yaklaşık 1000 talep zirvesine ulaştı. Bu, veritabanı sorgularına bağlı veya Gitea gibi git depolarını aramak için arayüzler sağlayan web sitelerinde önemli bir yük olabilir. Bu tür sistemlerle, etkili bot kontrolleri veya ölçeklendirme önlemleri olmayan kısa aktivite ipuçları bile yavaşlamaya, zaman aşımlarına veya bozukluklara yol açabilir.

Yazarlar başka bir zorluk olarak eksik. Botlar için tek tip bir doğrulama yoktur. Bu, güvenlik uzmanlarının meşru botları potansiyel olarak zararlı veri trafiğinden ayırmasını zorlaştırır. Bot doğrulamasını kolaylaştırmak için, operatörler IP adres alanlarını yayınlamalı veya ters DNS aramaları gibi doğrulama yöntemlerini desteklemelidir.

Değerlendirilen AI paletli trafiğinin neredeyse yüzde 90'ı Kuzey Amerika'dan geliyor. AI modelleri esas olarak ABD'den içerikle eğitilmişse, çıktı da karşılık gelir. Bozulmalar var.

Amerika Birleşik Devletleri'ndeki büyük AI şirketleri, telif hakkıyla korunan işleri de kullanabilecekleri adil kullanım ilkesine güvenirken, tüm insanlara fayda sağlaması koşuluyla, telif hakkı şu anda metin ve veri madenciliği satışları ile yasal dayanak oluşturmaktadır. Bu, araştırma amacıyla telif hakkı korumalı çalışmaların kullanılmasına izin verir.

Kendi içeriğinizin tarayıcılar tarafından kullanılmasını önlemek istiyorsanız, bunu robots.txt dosyası aracılığıyla yapabilirsiniz. Ancak, bu sadece bir taleptir ve tarayıcıların önlenememesi. Zaten yeni standartlar geliştirme çabaları var. Botlar arasındaki ayrım da tartışmalıdır. Örneğin Google, yalnızca web sitesi operatörlerine AI eğitimi ve gerçek zamanlı arama veya her ikisine de izin verme için her iki tarayıcıyı hariç tutma fırsatı verir.

Botları kontrol etmek için açık standartlar olmadan, şirketler veri trafiğini kontrol etmek ve altyapılarını korumak neredeyse imkansız olacak,, hızlı bir şekilde bir güvenlik araştırmacısı olan Arun Kumar. Otomatik trafik, diğer tüm altyapı veya güvenlik tehdidiyle aynı hassasiyet ve aciliyetle ustalaşmalıdır.


(EMW)


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir