Google'dan Liz Reid Yüksek Lisansların Ses ve Video Dizine Eklemenin Kilidini Açtığını Söyledi

Bir podcast röportajında ​​Google Arama Başkan Yardımcısı Liz Reid, LLM'lerin Google'ın neyi dizine ekleyebileceğini ve sonuçları bireysel kullanıcılar için nasıl sıraladığını iki şekilde değiştirdiğini anlattı.

Reid, Access Podcast'e çok modlu yapay zeka modellerinin artık Google'ın ses ve video içeriğini daha önce mümkün olandan daha derin bir düzeyde anlamasına olanak tanıdığını söyledi. Ayrıca, arama sonuçlarının kullanıcının ücretli aboneliklerine göre uyarlanacağı bir geleceğe de dikkat çekti.

Ne var ne yok

Çok Modlu Anlayış, Google'ın Dizine Ekleyebileceklerini Genişletiyor

Reid, Yüksek Lisans'ın çok modlu olmasının, Google'ın daha önce işlemekte zorlandığı içerik formatlarının önünü açtığını söyledi.

Reid ev sahiplerine şunları söyledi:

“LLM'nin en güzel yanı çok modlu olmaları. Böylece ses içeriğini ve video içeriğini aslında yıllar önce anlayamadığımız bir düzeyde anlayabiliyoruz.”

Daha da ileri giderek Google'ın artık videoyu analiz ederken temel transkripsiyonun ötesine nasıl geçebileceğini açıkladı.

“Artık sesi çok daha iyi anlayabilirsiniz. Artık videoyu çok daha iyi anlayabilirsiniz. Artık yalnızca videonun transkripsiyonunu değil, videonun neyle ilgili olduğunu, tarzının ne olduğunu veya buna benzer diğer şeyleri de anlayabilirsiniz.”

Reid bunu, İngilizce konuşmayan kişiler için aramanın işleyişinde uzun süredir devam eden bir boşluğa bağladı. Hindistan'da Hintçe veya diğer dilleri konuşan kullanıcılar için web genellikle kendi dillerinde ihtiyaç duydukları bilgilerden yoksundur. Daha önce tüm web içeriğini her dile çevirmek ölçeklenebilir değildi. LLM'ler bunu değiştirdi.

“Artık Yüksek Lisans ile bilgiyi bir dilde alabilir, anlayabilir ve ardından başka bir dilde çıktısını alabilirsiniz. Bu, bilginin önünü açar.”

Google bir süredir bu yönde ilerliyor. Ekim 2025'te Reid, Wall Street Journal'a Google'ın sıralamayı daha kısa biçimli video, forum ve kullanıcı tarafından oluşturulan içeriği öne çıkaracak şekilde ayarladığını söyledi.

Yorumlar aynı zamanda Google'ın geçtiğimiz Haziran ayında Arama Laboratuvarlarında başlatılan ve arama sonuçlarının sözlü yapay zeka özetlerini oluşturan Ses Genel Bakış deneyine de bağlam katıyor.

Birkaç yıl önce bu mümkün değildi. 2021'de Google ve KQED, ses içeriğinin aranabilir hale getirilip getirilemeyeceğini test etti ve özellikle özel isimler ve bölgesel referanslar için konuşmayı metne dönüştürme doğruluğunun yeterince yüksek olmadığını buldu. Reid'in yorumları bariyerin kalktığını gösteriyor.

Abonelik Bilinçli Arama, Sonuçların Kişiselleştirilme Şeklini Değiştirebilir

Reid ayrıca Google'ın mevcut Tercih Edilen Kaynaklar özelliğinin ötesine geçen bir kişiselleştirme yönünün de altını çizdi.

Sunuculara, Google'ın, erişemedikleri kaynaklardan gelen ödeme duvarlı sonuçları değil, kullanıcının ödeme yaptığı yerlerden gelen içeriği ortaya çıkarmak istediğini söyledi.

“Bu kaynağı seviyorsanız ve onunla bir ilişkiniz varsa o zaman bu içerik sizin için Google'da daha kolay ortaya çıkacaktır.”

Reid pratik bir örnek verdi. Bir konuyla ilgili 20 röportajın ödeme duvarlı olduğunu ancak bir kullanıcının tek bir kanala abone olduğunu varsayalım. Google okuyabileceklerini bulmayı kolaylaştırmalı.

“Daha fazlasına erişemedikleri altı kişiyi değil, parasını ödediklerini ortaya çıkarmalıyız.”

Şirketin, hedef kitlelerin ve güvenilir kaynakların arama yoluyla bağlantı kurma biçimini güçlendirmek için “şu ana kadar küçük adımlar attığını ancak daha fazlasını yapmak istediğini” öne sürdü. Ayrıca, modelin tarihsel olarak başarılı olmadığını kabul etmesine rağmen, bireysel makaleler için mikro ödeme olasılığından da bahsetti.

Google, Aralık ayında Tercih Edilen Kaynaklar'ı İngilizce konuşan kullanıcılar için küresel olarak genişletti ve kullanıcıların ücretli haber aboneliklerinden gelen bağlantıları vurgulayan bir özelliği duyurdu. Google, Gemini uygulamasından başlayarak AI Genel Bakış ve AI Modu ile bu bağlantılara özel bir atlıkarıncada öncelik vereceğini söyledi. O zamanlar Google, tercih edilen bir kaynağı seçen kullanıcıların o siteye ortalama iki kat daha sık tıkladığını söylemişti. Reid'in yorumları, şirketin abonelik odaklı aramayı aynı yönde daha geniş bir evrim olarak gördüğünü gösteriyor.

Bu Neden Önemli?

Reid, çok modlu yeteneklerin, arama yoluyla keşfedilecek içerik formatlarını genişletmeye işaret ettiğini belirtti. Podcast'leri, video serilerini ve öncelikli ses içeriklerini meta veriler ve transkriptlerin ötesinde değerlendirmek Google için tarihsel olarak daha zor olmuştur. Google'ın ses ve videonun alaka düzeyini ve derinliğini değerlendirme konusunda giderek artan yeteneği, arama yoluyla kimin bulunabileceğini doğrudan değiştiriyor.

Metin dışı formatlara yatırım yapan markalar ve içerik oluşturucular için Google'ın bu çalışmayı ortaya çıkarma yeteneği, kitlenin halihazırda bulunduğu noktaya yetişiyor.

Aboneliğe duyarlı kişiselleştirme yönü, ödeme duvarı veya üyelik modeli olan tüm yayıncılar için önemlidir. Bireysel kullanıcıların ödediği ücrete uyum sağlayan arama sonuçları, aboneleri elde tutma ile arama görünürlüğü arasındaki bağlantıyı sıkılaştıracaktır. Ödeme duvarlı içerik, çoğu kullanıcı erişemediği için önceliklendirilmek yerine, yayıncı için en önemli olan hedef kitle için daha iyi performans gösterebilir.

İleriye Bakış

Reid her iki gelişmeye de zaman çizelgesi eklemedi. Bahsettiği çok modlu indeksleme yetenekleri güncel gibi görünürken, aboneliğe duyarlı kişiselleştirme, mevcut bazı özelliklerin halihazırda mevcut olduğu belirtilen bir yöndür.

Google I/O'nun 19-20 Mayıs'ta yapılması planlanıyor. Reid, podcast'te şirketin “aktif olarak inşa edildiğini” ancak yapay zeka geliştirme hızının, bazı özelliklerin Nisan ayına kadar bir araya gelebileceği ve yine de sahneye çıkabileceği anlamına geldiğini söyledi.


Öne Çıkan Resim: Mevddah F/Shutterstock


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir