Açık kaynak topluluğu tarafından güçlü bir yapay zeka modeli çevrimiçi olarak yayınlandı. Bu dilsel modelin, Google Bard’a güç veren PaLM 2 kadar verimli, ChatGPT’nin standart sürümünden ise daha güçlü olduğu ortaya çıkıyor…
Yeni bir açık kaynak dil modeli ortaya çıktı. vaftiz edilmiş Şahin 180B, bu AI modeli, Fransız-Amerikalı bir start-up olan Hugging Face tarafından sunulan bir topluluk platformu olan Hugging Face AI topluluğundan birkaç geliştirici tarafından geliştirildi. Açık kaynak olarak da mevcut olan Falcon dil modeli mimarisini temel alır.
Ayrıca okuyun: OpenAI okullarda ChatGPT’yi nasıl empoze etmek istiyor?
En büyük açık kaynaklı yapay zeka modeli
Model, geliştiriciler ve araştırmacılar topluluğunun erişebileceği diğer dilsel modellerden güçlü bir şekilde öne çıkıyor. Yaratıcıların duyuruda açıkladığı gibi Falcon 180B “Ücretsiz olarak kullanılabilen en büyük dil modeli”. O yola çıkıyor 180 milyar parametre.
Bu, daha önce 70 milyar parametreyle en büyük açık erişimli yapay zeka modeli olarak kabul edilen Meta’nın dil modelinin en son sürümü olan Llama 2’den 2,5 kat daha fazla. Falcon’un yeni versiyonu ayrıca GPT-3.5’in önündeChatGPT’nin arkasındaki, 175 milyar parametreyi sınırlayan tescilli model. Öte yandan Google’ın toplam 540 milyar parametreye sahip PaLM 2 gibi bazı özel modellerine göre daha az etkileyici. Bir hatırlatma olarak, parametreler bir modelin işleme kapasitesini belirler. Ne kadar çok parametre varsa, model o kadar kesin yanıtlar verebilir.
Ayrıca oyundan da çıkıyor “Eğitim öncesi daha uzun süre” Açık bir model için. Yapay zekayı eğitmek için araştırmacılar toplam 3,5 milyar jetona güvendiler. Bir yapay zeka modelinin eğitiminin bir parçası olarak, Fransızca’daki bir belirteç veya jeton, bir kelimeyi, bir cümleyi ve hatta bir karakteri temsil eder. Bu unsurlar aslında öğrenme sürecinin yukarısındaki belirteçlere bölünmüştür.
PaLM 2 kadar verimli mi?
Falcon 180B şunları yapabilir: Tescilli yapay zeka modellerine sahip çıkın, projenin arkasındaki geliştiricilerin altını çizin. Model, PaLM 2’nin iki versiyonundan ve PaLM’in önceki yinelemesinden daha iyi performans gösteriyor. Öte yandan 540 milyar parametreyle PaLM 2’nin geniş format versiyonunu takip ediyor. Araştırmacılar için yapay zeka, sonuçta Google çözümüyle aynı seviyededir.
Açık kaynak modeli GPT-3.5’i geride bırakma lüksüne sahiptir. Öte yandan GPT’nin son sürümü olan GPT-4’ten daha iyisini yapmayı başaramadı. Duyuruda Falcon 180B’nin geliştirici topluluğunun yardımıyla yakın gelecekte gelişmesinin beklendiği belirtiliyor.
Bir Google mühendisinin öngördüğü gibi, açık kaynak dünyası büyük ölçüde OpenAI, Microsoft veya diğer teknoloji devlerinin yenilikleriyle rekabet edebilecek, hatta onları geride bırakabilecek kapasitededir. Mayıs ayında yayınlanan bir raporda mühendis Luke Sernau, en büyük yapay zekanın dijital devler tarafından değil, açık kaynak topluluğundan geliştiriciler tarafından geliştirileceğini tahmin etti. Ona göre Silikon Vadisi’nin devlerine karşı hatırı sayılır bir liderliği ele geçirdiler…
Kaynak :
Sarılma Yüz AI
Bir yanıt yazın