Halüsinasyon terimi KI departmanı için nispeten gençtir, ancak birkaç yıl önce ortaya çıktığından beri hızla yayılmıştır. Büyük bir mahkumiyetle yanlış cevaplar sağlamak için vokal modellerin sahipliğini tanımlamayı amaçlamaktadır. Başından beri ifade eleştirildi: derin bir insan psikolojik durumu makinelere aktarıyor. Bununla aydınlatılmış tartışmayı örttü.
Daniel Weisser Exxeta'da CTO'dur ve kendini kasıtlı olarak “kodlama yöneticisi” olarak tanımlar. Kalpteki teknisyen, başlangıçta nöronal ağlarla ilgilenen, aktif olarak GitHub'da öğretimde yer alan ve hala zaman bulan bilgisayarın başlangıcından beri programladı.
Openaai şimdi metaforu belgesiyle geçersiz kılmaya çalışıyor çünkü dilsel modeller tesadüfen değil, halüsinasyon. Çünkü halüsinasyonların nasıl anlaşıldığı sorusu artık tamamen akademik değildir, ancak tüm dünyada yüz milyonlarca insanı kullanan ürünlerin güvenliği ile ilgilidir.
En önemli sonuçlar
Makale iki öncelik belirlemektedir: Bir yandan, ön planlardaki belirli hataların istatistiksel kaçınılmazlığının altını çiziyor. Öte yandan, bilgi sonrası teşviklerde kavramsal hataları gösterir. İkincisi, örneğin referans parametrelerden kendisini sunar, belirsizlik ve ödül yanıt oranlarını cezalandıracaktır.
Buna ek olarak, kağıt halüsinasyonlar artık “yüksek güvenli dilbilimsel modeller tarafından üretilen makul ama yanlış veya çelişkili beyanları” (yüksek güvenlikli büyük modeller sağlayan makul ancak yanlış veya çelişkili bildirimler) açıkça tanımlamaktadır. Araştırmacılar onları insan algısından açıkça sınırlandırıyor. Ayık sınıflandırması önemlidir, çünkü tartışmayı hareket ettirir: mecazi abartı analiz edilebilecek ve bu nedenle temel olarak ele alınabilecek teknik bir soruna doğru.
Okuma sırasında, belgenin Openai tarafından yayınlandığı, ancak ürünün geliştirilmesine eşitlenemeyeceği unutulmamalıdır. Tabii ki, dolaylı geri bildirim burada alınabilir. Bilimsel onaylamaya ek olarak, sonuçta tartışacağımız diğer iletişim hedeflerine ulaşması muhtemeldir.
Ön eğitim: veri kalitesi sadece belirleyici değil
Opennaai'nin katkısı, dilsel modellerin mutlak gerçekleri öğrenmediği, olasılık olduğunu okuyucuyu içerir: hangi jeton başka bir olasılığı takip eder? Eğitim bedeninde bir doğum tarihi olarak bir gerçek sadece bir kez gerçekleşirse veya nesnel olarak yanlışsa, model onu güvenilir bir şekilde yeniden üretemez. “Çöp, çöp dışarı” değişmeden uygulanır. Burada belge, sadece yetersiz bir şekilde dönen merkezi bir konuya dokunuyor: eğitim verilerinin kalitesi ve kaynağı. Resmi sunumda “büyük metin şirketi” kullanmak için kullanıldığını söylüyor. Ama tam olarak ne? Hangi lisanslara dayanır? Hangi düzeltme ile?
Eğitim tabanları, kod söz konusu olduğunda, GitHub'dan kamuoyu, Wikipedia depolama alanları, forum, blog yayınları ve büyük miktarlar için depoya erişilebilir. Ancak GitHub'ı biliyorsanız, sadece yararlı kodun değil, aynı zamanda yanlış, eski ve hatta manipüle edilmiş depo olduğunu biliyorsunuz. Bu tabanda antrenman yapan bir model bu zayıf noktaları devralır. Buna ek olarak, hedeflenen verilerden zehirlenme olasılığı vardır: Hazırlanan içeriği besleyen herkes sonraki modellerin davranışını etkileyebilir.
Manuel insan çalışmasının rolü de ilişkide dışlanmıştır. Kuralları değerlendiren ve belirleyen tıklamaların işçileri, takviye sürecinde vazgeçilmezdir. Hangi hataların tolere edildiğine ve hangilerinin cezalandırıldığına, hangilerinin yararlı ve hangilerinin yararlı olmadığına karar verin. Belge üzerindeki bu çalışmanın pratik olarak görünmez olmaya devam etmesi önemlidir. Dış çalışanlar genellikle boşaltma ücretleri veya eğitimli dil modelleri süreci kontrol eder.
Eğitim Sonrası: İyi biliniyor muydu?
Bilgi sonrası sorun daha da açıktır. Dilbilimsel modeller, esasen her cevabı, hatta yanlış bile ödüllendiren referans parametrelerine göre optimize edilir. Makale bunu bir sınavda öğrencilerle benzeterek açıklıyor: Hiçbir fikriniz yoksa, bir şeyi kontrol etmeyi tercih edersiniz çünkü hala puan olasılığı vardır. “Güvensiz maksimize ne zaman 0-1 ikili bir planın bir parçası olarak beklenen puanı beklediğinde” diyor.
Çeviri anlamına gelir: Her zaman cevabı takip eden dilbilimsel modelleri öğrenmek. “Bilmiyorum” sıfır puan getirin, en azından doğru bir şekilde düzeltilme fırsatı önerilen bir cevap. Bu, LLM'nin temel işlevselliğinden taksitler için belirli sezgiselliği tatmin etmek için sistematik bir teşvik yaratır.
Herkes hatırlıyor: Chatgpt başladığında, model şaşırtıcı bir şekilde özenliydi. Sınırlarına atıfta bulunarak belirsizliklerin altını çizdi. Ancak kullanıcılar yakında daha yetkili cevaplar istedi. Ve geliştiriciler davranışı uyarladılar. Bugün aşağıdakiler geçerlidir: Asla “Bilmiyorum” demeyen herkes daha pazarlanabilir görünmektedir. Bu, halüsinasyonların sadece kabul edildiği, aynı zamanda tanıtıldığı anlamına gelir.
Referans parametrelerinin sorunu
Sorun, referans parametrelerinin rolü ile güçlendirilir. Başlangıçta araştırmadan ortaya çıkan bir pazarlama aracı haline geldi. Chatbot arenası veya düzinelerce daha objektif test gibi kullanıcıya yönelik olanlarla karşılaştırılan sıralamalar, hangi modelin lider olarak algılandığına karar verir. Pozisyonların yatırımcılar, medya ve müşteriler üzerinde etkisi vardır ve tedarikçilerin kalkınma stratejilerini de etkilemektedir.
Tenis meraklıları hatırlayacaklar: Dünya sıralaması mantığı birkaç yıl önce değiştirildiğinde, oyuncular, turnuvalar ve sponsorlar stratejilerini tamamen yeniden düzenlemek zorunda kaldılar. Sıralamalar asla tarafsız değildir. Tüm ekosistemleri yapılandırıyorlar.
Yani burada da: Referans parametreleri doğru olsun ya da olmasın, bazı cevapları ödüllendirdiği sürece, tedarikçiler modellerini tam olarak bu davranış için optimize eder. Ve bu yüzden oranlardan şüphe duyuyor. Halüsinasyonlar yapısal olarak kurulur. Bu nedenle referans parametrelerinin reformu, hem teknik, ekonomik hem de iletişimsel LLM'nin ciddiyeti için derin olmasına rağmen hoş bir müdahale olacaktır.
OpenAIS Çözüm Önerisi: Güven Hedefleri
Orenaai belgesinde bir düzeltme önermektedir: güvenilir hedefler. Bir model yalnızca belirli bir güvenlik eşiğini aşarsa yanıt vermelidir. Güvenlik aşağıdaysa, yanlış cevap sadece sıfır puan değil, bir malus da getirir. Özellikle, modele açıkça yanlış cevapların cezalandırıldığını ve bu nedenle belirsizliği şeffaf hale getirme teşvikini açıkça anlatma prensibi. Malus istenen güvenlik ile ilişkili olmalıdır.
Somut sayı sayısı: Bir puan sisteminde, istenen bir güven eşiğinin üzerinde bulunan yanıtlar daha fazla puan sağlanır. “Bilmiyorum” bir cevabı ile ve eşiğin altında (yüzde 90 varsayıldı) -9 puan. Sonuç olarak, model bunun her zaman yanlış yanıtlarla cezalandırıldığını kabul eder. Bu zarif. Ancak soru, doğru teşviklerin olup olmadığıdır. Çünkü AI referans parametreleri saf ölçüm cihazları değil, aynı zamanda büyük bir gösteridir. Değerlendirme mantığındaki bir değişiklik, sıralama listeleri oluşturacak ve bu nedenle iş modellerini sorgulayacaktır.
LLM çıkışının değerlendirilmesi sırasında sadece iki boyut doğru ve yanlıştır. Bununla birlikte, doğal dilde veya günlük işteki bilgi problemlerindeki birçok sorun tam olarak bu kategorilere atanamaz. Kullanıcı üretiminin boyutu en azından ürün geliştirme için belirleyicidir. “Nasıl bomba yapabilirim?” Suç motifleri ve filtre kuralları geliştirmek isteyen biri tarafından yapılabilir. Teknik olarak, bu nüanslar çözülebilir.
Yaş sınırları veya kullanıcı profilleri gibi yaklaşımlar düşünülebilir, ancak hemen yeni sorunlara yol açar: veri koruma, ayrımcılık, gözetim. Belirli içeriğin kilidini açan veya engelleyen kullanıcılar için güvenilir bir ölçek de teknik olarak uygulanabilir, ancak sosyal olarak patlayıcı olacaktır. Bu, halüsinasyonların sadece istatistiksel bir sorun değil, aynı zamanda düzenleyici bir sorun olduğunu göstermektedir.
Sonuç: İlgili dikkatin tadını çıkarın
“Dil Modelleri Neden Hal -Halducated” şüphesiz önemli bir belgedir. Merkezi bir terim, halüsinasyonları anlaşılabilir istatistiksel sonuçlar olarak açıklar ve referans parametrelerinin yanlış teşviklerine odaklanır. Ve hassas teknik çözümleri güven hedefleri olarak atar. Ancak sadece avantajlı olduğu yerde uygulanan şeffaflık seçici olarak kalır. Eğitim verilerinin nasıl seçildiği açıklanmamıştır. Hangi adımların bilgi sonrası içerdiğini tam olarak açıklanmamıştır.
Bu belgeyi yayınlayan tamamen bilimsel bir eylem değildir. Güven yaratma stratejisinin bir parçasıdır. Akranlar arasındaki incelemeler, üniversitelerle işbirliği, matematiksel testler-hepsi bu halk için yerçekimi önermelidir. Son olarak, Openais'in arka planında son olarak, yasal zorlukların ve Sam Altman'ın CEO'sunun olası bir yapay zeka balonunun kabul edilmesinin önemli bir rol oynaması gerektiği bir gerçek.
(PST)

Bir yanıt yazın