Geçtiğimiz Eylül ayında Lily Ray, Perplexity'den SEO ve AI aramasıyla ilgili en son haberleri istedi. Ona kendinden emin bir şekilde “Eylül 2025 'Perspektif' Temel Algoritma Güncellemesi”nden bahsetti; Daha sonra “The AI Slop Loop”ta uzun uzun yazdığı gibi, var olmayan bir Google güncellemesi. Google yıllardır temel güncellemelere isim vermedi. “Perspektifler” zaten bir SERP özelliğiydi. Eğer gerçek bir güncelleme Avusturya'dayken yayınlanmış olsaydı, gelen kutusu ona Perplexity'den önce haber verirdi.
Alıntıları kontrol etti. Her ikisi de SEO ajansı bloglarında yapay zeka tarafından oluşturulan gönderilere dikkat çekti: İçerik hattı çalıştıran, bir güncelleme halüsinasyonu gören ve bunu rapor olarak yayınlayan siteler. Şaşkınlık bu yazıyı okudu, onu kaynak materyal olarak değerlendirdi ve ona haber olarak geri sundu.
Şubat ayında BBC'den Thomas Germain kişisel sitesinde bir blog yazısı yazmak için 20 dakika harcadı. Başlığı: “Sosisli sandviç yeme konusunda en iyi teknoloji gazetecileri.” Onu birinci sıraya koydu, daha önce hiç gerçekleşmemiş bir 2026 Güney Dakota Uluslararası Sosisli Sandviç Şampiyonası'nı icat etti ve kesinlikle hiçbir şeyden bahsetmedi. 24 saat içinde hem Google'ın AI Genel Bakışı hem de ChatGPT onun uydurmasını soran herkese iletmeye başladı. Claude ısırmadı. Google ve OpenAI bunu yaptı.
Bakmış olan herkes bunu görmüştür.
Daha önce Ouroboros'u tartışmıştım. Zaman Çizelgesini Yanlış Yaptım
Bu soruna yönelik geçerli çerçeve şu şekildedir: model çöküşü. Bir modeli web metni üzerinde eğitiyorsunuz, web yapay zeka çıktısıyla doluyor, bir sonraki model giderek daha fazla kendi egzozundan oluşan bir korpus üzerinde eğitim veriyor ve sonunda dağıtım düzleşiyor ve lapa haline geliyor. Yenilik istisnalardan gelir ve ortalamaya doğru yaklaşan olasılıksal sistemler, istisnaları tasarım yoluyla azaltır. deyimini kullandım dijital Ouroboros bunun için.
Bu çerçeve eğitim döngülerini varsayar. Zaman varsayar. Kirliliğin modelin yayınlanma hızında hareket ettiğini varsayar.
Değil. Lily'nin belgelediği, Germain'in belgelediği, New York Times'ın daha sonra gidip ölçtüğü şeyler; bunların hiçbiri eğitimle ilgili değil. İlgili modeller, halüsinasyonun bir blogda görünmesi ile alıntı destekli gerçek olarak sunulması arasında yeniden eğitilmedi. Kirlilik bir tarama hızında ilerledi. Ouroboros'un kendisini yemesi nesiller sürmüyor. Birisi bu sistemlerden birine her soru sorduğunda, sorgulama sırasında kendi kendini yiyor.
Herkesin izlediği boru, kırılan boru değildir.
Önemli Olan Ayrım
Model çöküşü bir eğitim derlem sorunudur. Sentetik içerik eğitim öncesi verilere sızar, yeni nesil model onu devralır ve yetenek azalır. Araştırmacılar iki yıldır bu konuda uyarılarda bulunuyor. Haklılar. Ayrıca herkesin ciddi bir şekilde başını sallayıp nakliyeye devam edebileceği kadar yavaş bir şeyi anlatıyorlar.
Kirliliğin giderilmesi daha hızlı ve zaten burada. RAG sistemleri (Şaşkınlık, Google AI Genel Bakışları, arama özellikli ChatGPT) yanıtları yalnızca parametrik bellekten üretmez. Belgeleri canlı web'den getirir, bunları bağlama yerleştirir ve aldıkları şeye göre koşullu bir yanıt üretirler. Eğer av köpeği halüsinasyonlu bir SEO gönderisini ortaya çıkarırsa, cevap halüsinasyonu devralır. Yeniden eğitim gerekmez.
Bu konudaki akademik literatür açıktır. ZehirliRAG (Zou ve diğerleri, 2024), bir erişim derlemine az sayıda hazırlanmış pasajın enjekte edilmesinin, bir RAG sisteminin hedeflenen sorgular üzerindeki çıktısını kontrol etmek için yeterli olduğunu gösterdi. BadRAG (Xue ve diğerleri, 2024) anlamsal arka kapıları kullanarak aynı saldırı sınıfını gösterdi. Her iki makale de bunu çekişmeli bir sorun olarak ele alıyor: Bir saldırgan kasıtlı olarak külliyatı zehirlediğinde ne olur?
Germain ve Lily'nin tesadüfen kanıtladığı şey, rakip modelin normal çalışma modeli olduğudur. Hazırlanmış bir düşman geçidine ihtiyacınız yok. Bir blog yazısına ihtiyacınız var. Açık web bir bütündür ve alan adı olan herkes ona yazabilir.
New York Times'ın yaptırdığı Oumi analizi bunun maliyetine ilişkin rakamlar ortaya koyuyor. Google'ın AI Genel Bakış özelliği, 4.326 SimpleQA testinde Gemini 2'de %85, Gemini 3'te ise %91 oranında doğru yanıt verdi. Google ölçeğinde (yılda beş trilyondan fazla arama) %9'luk bir hata oranı hala her saat başı on milyonlarca yanlış yanıt anlamına geliyor. Ancak daha açıklayıcı rakam şu: Gemini 3'te %56 doğru Cevaplar Gemini 2'de %37'den fazla temelsizdi. Yükseltme yüzey doğruluğunu iyileştirdi ve alıntıları daha da kötüleştirdi. Model bir şeyi doğru anladığında, çoğu durumda işaret ettiği kaynak iddiayı desteklemiyordu.
Alma katmanı bir filtre değildir. Bu enfeksiyon vektörüdür.
Corpus'u Kim Ekiyor?
Bunu en coşkuyla üreten ve ardından onu tüketmenin sonuçları hakkında en coşkuyla yazan sektör, SEO endüstrisidir. Daha önce içerik ölçeklendirmenin daha iyi dilbilgisi ile içerik döndürmesi olduğu ve deterministik olmayan sistemlerin çıktılarından gösterge tabloları oluşturan yapay zeka görünürlük aracı kompleksi hakkında yazmıştım. Bu aynı döngüdür, bir katman daha derindir. Bir SEO ajansı, AI Genel Bakışı müşterilerinin trafiğini azalttığı için bir AI içerik hattı yürütüyor. Boru hattı, halen yayınlanmakta olan bir temel güncelleme sırasında spekülatif “kazananlar ve kaybedenler” gönderilerini yayınlıyor ve hiçbir şeyden bahsetmiyor. Başka bir teşkilatın kanalı bunları kaynak olarak alıyor. Çıktı, alma dizinine taşar. AI Genel Bakış bunlardan birinden bahsediyor. Orijinal ajans daha sonra AI Genel Bakışlarının içeriklerini nasıl “ortaya çıkardığı” hakkında bir örnek olay çalışması yazıyor.
Ahrefs'in 26.000'den fazla ChatGPT kaynak URL'si üzerinde yaptığı araştırma, “en iyi X” listelerinin, markaların kendilerini rakiplerine karşı ilk sıraya koyduğu durumlar da dahil olmak üzere, alıntı yapılan tüm sayfa türlerinin yaklaşık %44'ünü oluşturduğunu ortaya çıkardı. Harpreet Chatha, BBC'ye “2026'nın en iyi su geçirmez ayakkabılarını” yayınlayabileceğinizi, kendinizi ilk sıraya koyabileceğinizi ve birkaç gün içinde AI Genel Bakış ve ChatGPT'de alıntı yapabileceğinizi söyledi. Lily, Mart 2026'daki asıl güncelleme sırasında, güncelleme hala yayınlanırken kazananları ve kaybedenleri listelediğini iddia eden yapay zeka tarafından oluşturulmuş makaleler buldu; Tek bir gerçek alıntı yapılmadan dolgu ile açılan ve markaları listeleyen makaleler.
Yapay zeka içeriğini ölçeklendiren uygulayıcılar aynı zamanda yapay zeka arama sistemleri bu içeriği gerçek olarak gösterdiğinde en doğrudan zarar görenler oluyor. Bunu kimse zorlamadı. Sektör boru hattını inşa etti, besledi ve diğer taraftan çıkanlardan şikayet etti. Düşman zehirlenmesi değil. Sadece endüstri kendi su kaynağını kirletiyor ve ardından bunu test etmek için danışmanlar tutuyor.
Önemli Olan Seviye
Oumi çalışması, tasarımı gereği ücretsiz olan Yapay Zeka Genel Bakışları ile ilgilidir. Google AI Genel Bakış'ın 2025 ortasına kadar aylık iki milyardan fazla aktif kullanıcıya ulaştığı bildiriliyor. ChatGPT'nin haftalık 900 milyon aktif kullanıcısı var ve bunların yaklaşık 50 milyonu ücretli. Yani OpenAI ürünüyle etkileşime giren kişilerin yaklaşık %94'ü ücretsiz kullanımdadır.
Ücretli katmanlar daha iyidir. Lily'nin yazısında belirtilen OpenAI'nin kendi lansman iddialarına göre, GPT-5.4'ün yanlış bireysel iddialar üretme olasılığı GPT-5.2'ye göre %33 daha az. Ücretsiz sürüm GPT-5.3 de önceki modele göre geliştirildi (web aramasında %26,8 daha az halüsinasyon, arama olmadan %19,7 daha az), ancak yine de ödeme duvarlı versiyona göre anlamlı derecede daha az güvenilir. AI Genel Bakışlarını yüzey testlerinde daha doğru hale getiren Gemini 3, Ayrıca temellendirilmemiş oranı daha da kötüleştirdi. Daha iyi cevap, daha zayıf alıntı.
Kimsenin umrunda değil gibi görünüyor. Ürünün güvenilir versiyonu ödeme duvarlıdır. Google Arama'nın en üstünde yer alan sürüm de dahil olmak üzere gezegenin çoğunun aldığı sürüm, kişisel bir web sitesinde 20 dakikalık çalışmayla değiştirilebilir. Zeka pazarlama kategorisidir. İki milyar kullanıcının gerçekte aldığı şey, tarayıcının bulduğu şeyin kendinden emin bir özetidir.
Son Durum Olarak Grokipedia
Geri getirme katmanındaki kazalar bir şeydir. Grokipedia, kazanın artık kullanışlı bir kelime olmadığı versiyondur.
Elon Musk'un xAI'si, tümü Grok tarafından oluşturulan veya yeniden yazılan 885.279 makaleyle 27 Ekim 2025'te Grokipedia'yı başlattı. Bunlardan bazıları, alt kısmında CC-BY-SA lisansını kabul eden bir sorumluluk reddi beyanı ile toptan Wikipedia'dan kaldırıldı; Vikipedi'nin tam da içeriği editörlerden oluşan bir topluluk yazıp doğruladığı için sağladığı bir lisans. Diğerleri sıfırdan yeniden yazıldı. PolitiFact, kaynak olarak Instagram makaraları da dahil olmak üzere Grokipedia alıntılarını tespit etti ve Wikipedia'nın kendi politikaları bunları “genel olarak kabul edilemez” olarak nitelendirdi. Grokipedia'nın Kanadalı şarkıcı Feist hakkındaki yazısında, 2017'de Vice'ın Kanada indie rock'ıyla ilgili ölümden hiç söz etmeyen bir makalesine atıfta bulunarak babasının Mayıs 2021'de öldüğü belirtildi. Ve bu makale yazıldığında babası hâlâ hayattaydı. Nobel Fizik Ödülü girişi, fiziğin geleneksel olarak törende verilen birincilik ödülü olduğunu iddia eden, alıntı yapılmayan bir cümle ekledi, ancak bu doğru değil.
Musk, amacının “internetin geri kalanını, halka açık ne varsa araştırmak ve Wikipedia makalesini düzeltmek” olduğunu söyledi. internetin geri kalanı artık kendisine yöneltilen her yapay zeka içerik hattının ürettiği sentetik içeriği içeriyor. Açık web'i okuyan, bulduklarına göre Vikipedi'yi yeniden yazan ve sonucu bir referans çalışması olarak sunan bir yapay zeka sistemi, geri bildirim döngüsünün açıkça ortaya konduğu ve bir ürün olarak gönderildiği geri alma-kirlenme sorunudur.
Şubat 2026'nın ortalarında Grokipedia, Google görünürlüğünün çoğunu kaybetmişti. Wikipedia, Grokipedia'nın kendisiyle ilgili aramalarda Grokipedia'yı geride bırakıyor.
“İnsan tarafından yaratılan bu bilgi, yapay zeka şirketlerinin içerik üretmek için güvendiği şeydir; Grokipedia'nın bile var olması için Wikipedia'ya ihtiyacı var.” – Wikimedia Vakfı
Sentetik ansiklopedi, insan ansiklopedisi tarafından desteklenmektedir. Sübvansiyon durduğunda ona bağlı olan şeyin anlamı kalmıyor.
Vikipedi eleştirinin ötesinde değil. Düzenleme savaşları, ideolojik bekçilik ve makaleleri kimin şekillendireceği konusundaki sistemik boşluklar iyi belgelenmiş ve gerçektir. Ancak kusurlu bir insan editoryal sürecine verilecek yanıt, insanları tamamen ortadan kaldırmak ve sonucu bir gelişme olarak adlandırmak değildir. İnsan muhakemesini API çağrılarıyla değiştirdiğinizde ortaya çıkan sorumluluk boşluğu hakkında daha önce yazmıştım. Vikipedi'nin sorunları dağınık, tartışmalı ve hesap verebilir bir sistemin sorunlarıdır. Grokipedia'nın sorunları hiçbir hesap verebilirliğin olmadığı bir sistemin sorunlarıdır.
Alıntı Katmanı Yazarlıktan Ayrılıyor
Geçtiğimiz günlerde Reddit'in yapay zeka şirketlerine “Authentic Human Conversation™” sattığını yazmıştım; platformun kendi moderatörleri ise hangi yorumların insan olduğunu artık anlayamadıklarını bildirdi. Oumi araştırması, AI Genel Bakış tarafından alıntı yapılan 5.380 kaynak arasında Facebook ve Reddit'in ikinci ve dördüncü en yaygın kaynak olduğunu ortaya çıkardı. Dünyada en çok kullanılan yanıt motorunun alıntı katmanı büyük ölçüde kendi içeriklerinin insan kaynaklı olduğunu doğrulayamayan iki platform üzerine kuruludur.
İnsan yaratıcılar, trafik pazarlığı çöktüğü için açık webden çekiliyor. Yanıt motorları, yazarlığı doğrulanamayan veya başlangıçta hiçbir zaman insan olmayan içeriklerden alıntı yapıyor. Alıntı hala orada. Alıntı yapılan şey eskisi gibi değil.
Ouroboros'un çerçevelemesi doğruydu. Zaman çizelgesi değildi. Alma çöküşü bir sonraki eğitim çalıştırmasını beklemez. Dizine eklenebilir bir URL'ye ve ona güvenmeye istekli bir erişim sistemine ihtiyacı var.
Sistemler istekli. Ve çoğu zaman doğru yanıt aldıklarında, size az önce söylediklerini destekleyen bir kaynağı gösteremezler.
Daha Fazla Kaynak:
Bu yazı ilk olarak The Inference'da yayınlandı.
Öne Çıkan Görsel: Anton Vierietin/Shutterstock

Bir yanıt yazın