Bilgisayar bir ofis çalışanıdır. Bu bir metafor değil; Talkie-LM'nin bildiği tek anlam bu. Araştırmacılar Nick Levine, David Duvenaud ve Alec Radford tarafından geliştirilen dil modelinin dünya hakkındaki bilgisi tam olarak 31 Aralık 1930'da sona eriyor. İkinci Dünya Savaşı, penisilin, internet: her şey yazılı değil. Akademik bir numara gibi görünen bu şey aslında yapay zeka araştırmalarındaki en acil açık soruyu hedef alan bir kesme bıçağıdır.
Bunun arkasında endüstrinin kendi getirdiği bir kriz yatıyor: Modern dil modelleri, insanlığın dijitalleştirilmiş bilgisinin neredeyse tamamını işlediğinden, bir makinenin mantıksal bir görev yerine getirip getirmediğini kontrol etmek pek mümkün değil. anlıyor – ya da internetin unutulmuş bir alt sayfasında zaten okuduğu istatistiksel olarak en olası çözümü basitçe yeniden üretip üretmediğini. Talkie-LM'nin bu kirlenmiş deney odasını temizlemesi gerekiyor.
Model 13 milyar parametreye sahip ve 1931'den önce yalnızca kitaplardan, gazetelerden ve patentlerden alınan 260 milyar kelimeyle eğitilmişti. Tarih tarihi bir tesadüf değil, yasal bir hesaplamadır: ABD yasalarına göre bu çalışmalar kamu malıdır. Böylece akademik geliştiriciler, ticari teknoloji şirketlerinin korumalı verileri okuması nedeniyle başına bela olan telif hakkı davalarından kaçınıyor. Endüstride bu tür sistemlere halihazırda “vegan yapay zeka” adı veriliyor.
Makinenin bilemeyeceği ve yine de yaptığı şey
Talkie-LM, eğitim aşamasında hiçbir zaman modern program kodunu görmedi. Bununla birlikte, verilen birkaç örneğe dayanarak çalışan Python komut dosyaları yazar. Görünüşe göre makine, biçimsel mantığı 19. yüzyıl matematik metinlerinden alıyor ve o sırada henüz var olmayan bir sözdizimine aktarıyor.
Araştırmacılar bunun ne anlama geldiği konusunda hararetle tartışıyorlar. Bir taraf, tanınmayacak kadar abartılmış, yalnızca model tanımayı görüyor. Diğeri ise soyutlamaya korkutucu derecede yaklaşan bir şey görüyor; taklit etmeyen, çıkarım yapan bir makine. Google DeepMind'ın CEO'su Demis Hassabis, bu gerilimi somut bir zorluğa dönüştürdü: Bilgisi 1911'de dondurulan bir model, Einstein'ın 1915'te yaptığı gibi, şablon olmadan, sadece düşünerek genel görelilik teorisini özerk bir şekilde türetebilir mi? Talkie-LM, bu sorunun artık yalnızca spekülatif olarak sorulamayacağı ilk platformdur.
Zaman kapsülünde çatlaklar
Modelin izolasyonu elbette sıkı değil. Geliştiriciler sürekli olarak “zamansal sızıntı” ile mücadele ediyor: Eğer tarihi bir roman daha sonraki bir baskıda modern bir önsöz alırsa ve dijitalleştirilirse, geleceğe dair bilgiler kaçınılmaz olarak dışarı sızar. Talkie-LM'nin yer yer Roosevelt'in başkanlığı veya Almanya'nın savaş sonrası bölünmesi hakkında yaygın, kafa karıştırıcı bir bilgisi var; bilmemesi gereken ve sınıflandıramayacağı bir tarihin parçaları.
Kimse onu yavaşlatmadığında modelin söyledikleri çok daha açıklayıcıdır. Hindistan'ın geleceği sorulduğunda, Talkie-LM sarsılmaz İngiliz yönetimi hakkında ders veriyor ve herhangi bir bağımsızlık girişiminin umutsuz olduğunu ilan ediyor – bir provokasyon olarak değil, bir hata olarak değil, apaçık bir gerçek olarak. Burada bahsettiğimiz kötü niyetli bir algoritma değil. Bu, bir dönemin donup yeniden çözülen cilasız söylemidir: ırkçılık, emperyalizm, çöküşün eşiğindeki bir dünyanın kesinliği. Model yalan söylemez. Yansıyor. Tarihçiler için bu bir arşivdir. Diğer herkes için bu bir dayatmadır ve belki de tam da bu yüzden değerlidir.
Geçmiş bir dünyanın tahminleri
Aynı zamanda kendine özgü bir güzelliğe sahip olan tahminlerle şaşırtıyor. Talkie-LM, 1920'lerin büyüme tahminlerine dayanarak, 2025'te 6,6 milyar insanın demiryoluyla Londra'dan Konstantinopolis'e 40 saatte seyahat edeceği ve evrensel bir dünya diliyle birbirine bağlanacağı bir dünya öngörüyor. Araştırmacılar bu öngörü gücünü de ölçülebilir hale getirdiler: Modeli New York Times'ın 5.000'e yakın olay açıklamasıyla karşılaştırdılar ve gerçek hikayenin ne kadar “şaşırdığını” matematiksel olarak hesapladılar.
Tehlikede olan ne?
Talkie-LM geçmişe dair bir deney değil. Bu, tüm sektörün üzerine inşa edildiği bir varsayımla ilgilidir: Daha fazla veri, daha fazla zeka anlamına gelir. Belki bu doğru değildir. Belki de anlayış tam da sınırların çizildiği yerde, yani bir makinenin olaylara bakamadığı ve bunun yerine kapatmak zorunda kaldığı yerde ortaya çıkıyor. Her şeyi bilmeyen bir yapay zeka, bilginin gerçekte ne olduğunu nihayet açıklığa kavuşturmak için araştırmayı zorlar.
Konu hakkında daha fazlasını okuyun
Bir yanıt yazın