Google, çoğu web sitesinin bir milyondan fazla sayfaya sahip olmadıkça bütçeyi tarama konusunda endişelenmesine gerek olmadığını doğruladı. Ancak, bir bükülme var.
Google Arama İlişkileri Ekibi üyesi Gary Illyes, son podcast'te veritabanınızın ne kadar hızlı çalıştığının sahip olduğunuz sayfa sayısından daha önemli olduğunu açıkladı.
Bu güncelleme, Google'ın tarama bütçeleri hakkında benzer rehberlik paylaşmasından beş yıl sonra geliyor. Web teknolojisindeki önemli değişikliklere rağmen, Google'ın tavsiyesi değişmeden kalır.
Milyon sayfalık kural aynı kalır
Kayıt podcast'inin arama sırasında Illyes, ortak ev sahibi Martin Splitt'in tarama bütçe eşiklerini sorduğunda Google'ın uzun süredir devam eden pozisyonunu sürdürdü.
Illyes şöyle dedi:
“1 milyonun iyi olduğunu söyleyebilirim.”
“Muhtemelen” önemlidir. Google, genel bir kılavuz olarak bir milyon sayfa kullanırken, yeni veritabanı verimlilik faktörü, altyapıları verimsizse daha küçük sitelerin bile tarama sorunlarıyla karşılaşabileceği anlamına gelir.
Şaşırtıcı olan, bu sayının 2020'den beri değişmeden kalmasıdır. Web, JavaScript, dinamik içerik ve daha karmaşık web sitelerinde bir artış ile önemli ölçüde büyüdü. Yine de Google'ın eşiği aynı kaldı.
Veritabanı hızınız önemlidir
İşte büyük haber: Illyes, yavaş veritabanlarının çok sayıda sayfaya sahip olmaktan daha fazla sürünmeyi engellediğini açıkladı.
Illyes açıkladı:
“Pahalı veritabanı aramaları yapıyorsanız, bu sunucuya çok mal olacak.”
500.000 sayfaya sahip ancak yavaş veritabanı sorgusu olan bir site, 2 milyon hızlı yükleme statik sayfasına sahip bir siteden daha fazla tarama sorunuyla karşılaşabilir.
Bu ne anlama gelir? Sadece sayfa sayısını saymakla kalmaz, veritabanı performansınızı değerlendirmeniz gerekir. Dinamik içeriğe, karmaşık sorgulara veya gerçek zamanlı verilere sahip siteler, hız ve performansa öncelik vermelidir.
Gerçek Kaynak Domuzu: Dizeksleme, tarama değil
Illyes, birçok SEO'nun inandığı şeyle çelişen bir duygu paylaştı.
Dedi ki:
“Kaynakları yiyen sürünme değil, endeksleme ve potansiyel olarak hizmet veriyor ya da bu verileri işlerken verilerle ne yaptığınız.”
Bunun ne anlama geldiğini düşünün. Trawling çok fazla kaynak tüketmezse, Googlebot'u engellemek yardımcı olmayabilir. Bunun yerine, Google'ın tarandıktan sonra işlenmesi için içeriğinizi kolaylaştırmaya odaklanın.
Buraya Nasıl Geldik
Podcast ölçek hakkında bazı bağlamlar sağladı. 1994 yılında, World Wide Web Solucanı sadece 110.000 sayfa endekslerken, WebCrawler 2 milyon endeksledi. Illyes bu sayıları bugüne kıyasla “sevimli” olarak nitelendirdi.
Bu, bir milyon sayfalık işaretin neden değişmeden kaldığını açıklamaya yardımcı olur. Bir zamanlar erken web'de çok büyük görünen şey şimdi sadece orta ölçekli bir site. Google'ın sistemleri eşiği değiştirmeden bunu yönetmek için genişledi.
Eşik neden sabit kalır?
Google, sürünen ayak izini azaltmaya çalışıyor. Illyes bunun neden bir meydan okuma olduğunu açıkladı.
Açıkladı:
“Yaptığınız her istekten yedi bayt kaydettiniz ve daha sonra bu yeni ürün sekiz geri ekleyecek.”
Verimlilik iyileştirmeleri ve yeni özellikler arasındaki bu push-and-pull, tarama bütçesi eşiğinin neden tutarlı kaldığını açıklamaya yardımcı olur. Google'ın altyapısı gelişirken, tarama bütçesinin ne zaman değişmediğine dair temel matematik.
Şimdi ne yapmalısın
Bu anlayışlara dayanarak, odaklanmanız gerekenler:
1 milyon sayfanın altındaki siteler:
Mevcut stratejinize devam edin. Mükemmel içerik ve kullanıcı deneyimine öncelik verin. Tarama bütçesi sizin için bir endişe değil.
Daha büyük siteler:
Yeni önceliğiniz olarak veritabanı verimliliğini geliştirin. Gözden geçirmek:
- Sorgu Yürütme Süresi
- Önbellek etkinliği
- Dinamik içerik üretimi hızı
Tüm Siteler:
Odağı taramayı önlemeden indeksleme optimizasyonuna yönlendirin. Trawling kaynak sorunu olmadığından, Google'a içeriğinizi daha verimli işleme konusunda yardımcı olun.
Anahtar teknik kontroller:
- Veritabanı Sorgu Performansı
- Sunucu Yanıt Süreleri
- İçerik Teslimat Optimizasyonu
- Uygun önbellek uygulaması
İleriye Bakış
Google'ın tutarlı tarama bütçesi rehberliği, bazı SEO temellerinin gerçekten temel olduğunu göstermektedir. Çoğu sitenin endişelenmesine gerek yoktur.
Ancak, veritabanı verimliliğine ilişkin içgörü, daha büyük siteler için konuşmayı kaydırır. Bu sadece sahip olduğunuz sayfa sayısıyla ilgili değil; Onlara ne kadar verimli hizmet verdiğinizle ilgili.
SEO profesyonelleri için bu, veritabanı performansını teknik SEO denetimlerinize dahil etmek anlamına gelir. Geliştiriciler için, sorgu optimizasyonu ve önbellek stratejilerinin öneminin altını çizmektedir.
Bundan beş yıl sonra, milyon sayfalık eşik hala durabilir. Ancak bugün veritabanı performanslarını optimize eden siteler, bir sonraki adım için hazırlanacak.
Aşağıdaki tüm podcast bölümünü dinleyin:
https://www.youtube.com/watch?v=giggonz1e
Öne çıkan resim: Novikov Aleksey/Shutterstock
Bir yanıt yazın