Büyük dil modellerine bakıldığında, yeni modellerin belirli nişlere yerleşmeden veya yeni teknikleri denemeden neredeyse bir hafta geçmiyor. Bu bizi bu güncellemeleri düzenli olarak raporlamaya motive etti. Önemli değişiklikler olması durumunda beklenen iki haftalık döngüye ara verip yeni modelleri doğrudan inceleyeceğiz.
Duyurudan sonra devamını okuyun
Prof. Dr. Christian Winkler özellikle doğal dildeki metinlerin (NLP) otomatik analiziyle ilgilenmektedir. Nürnberg Teknik Üniversitesi'nde profesör olarak araştırması kullanıcı deneyimini optimize etmeye odaklanıyor.
Bu ilk güncelleme biraz daha geniş kapsamlıdır. Mevcut modeller Hugging Face'te veya çok aktif olan LocalLLaMa alt dizini sürekli okuyarak bulunabilir. Daha yakından bakmamız gereken modellerle ilgili önerileri de kabul etmekten mutluluk duyarız.
Küçük özel modeller
Trendin giderek daha büyük modellere doğru olması gerekmiyor. Hugging Face'in çok popüler, ancak özellikle harika olmayan bazı modelleri var.
Burada ön planda WeiboAI'nin VibeThinker'ı var. Akıl yürütme modeli öncelikle matematiksel soruları yanıtlamak veya program kodu oluşturmak için tasarlanmıştır. Bu görevler için çok uygundur. Karşılaştırmalara göre (eski) Gemini 2.5 Flash ile aynı seviyede oynuyor ve hatta bazen DeepSeek R1'i bile geçiyor.
(Resim: Bridgman/AdobeStock)
Minds Mastering Machines, 22 ve 23 Nisan 2026 tarihlerinde Karlsruhe'de gerçekleşecek. iX ve dpunkt.verlag tarafından düzenlenen konferans, klasik makine öğreniminden yüksek lisans ve ajan yapay zekasına kadar pratik konulara odaklanıyor. Program, diğer şeylerin yanı sıra aşağıdaki konularda dersler sunmaktadır:
- Uygulamada kestirimci bakım
- Ajansal yapay zeka için iletişim protokolleri
- Yerleştirmeleri doğru şekilde anlayın
- MCP'yi şirketinizde güvenle kullanın
- Uygulamada yerel Yüksek Lisanslar
Şaşırtıcı olan ise modelin yalnızca 1,5 milyar parametreye ihtiyaç duymasıdır. Bahsedilen diğer modeller 400 kat daha fazla işlem ağırlığına sahiptir ve bu nedenle buna bağlı olarak yavaştırlar. Boyut, özellikle kodlama şablonlarında çok önemli bir rol oynar: birincisi, şablonları muhtemelen optimize ettikten sonra yerel olarak çalıştırmak isteyebilirsiniz ve ikinci olarak, bu şablonlar çok fazla belirteç üretir: bu ne kadar hızlı yapılırsa, oluşturulan kod için bekleme süresi o kadar kısa olur.
Duyurudan sonra devamını okuyun
Biraz daha büyük ama daha da uzmanlaşmış, dört milyar parametreyle AesCoder, GRPO (Grup Göreli Politika Optimizasyonu) kullanarak web tasarımı görevlerini yönetme konusunda uzmanlaşmıştır.
Olmo'nun rekabetçi açık modelleri
Her ne kadar sıklıkla açık kaynaklı modellerden bahsetsek de genellikle modellerin yalnızca ağırlıkları ücretsiz olarak mevcuttur. Modelleri eğitmek için kullanılan eğitim verilerini ve algoritmaları yalnızca birkaç satıcı yayınlıyor. SmolLM ile Hugging Face'e ek olarak, İsviçre'den Apertus modeli için ve özellikle Allen AI Enstitüsü'nden Olmo modelleri için açık eğitim verileri mevcuttur. Microsoft'un kurucu ortağı Paul Allen'ın yatırımları sayesinde ikincisinin finansman konusunda fazla endişelenmesine gerek yok.
Özellikle en yeni Olmo 3 modelleri birçok yenilikçi teknolojiyi entegre ederek ileriye doğru büyük bir adım atıyor. 7 ve 32 milyar parametreli iki boyutta mevcuttur. Daha büyük modelin akıl yürütme versiyonu mevcuttur, daha küçük olanın ise akıl yürütmeden talimatları takip eden bir model olarak da mevcuttur. Modellere ince ayar yapmak isteyenler için Olmo, diğer çoğu tedarikçiden farklı olarak temel modelleri sağlıyor.
Qwen3 gibi diğer modellerle karşılaştırıldığında Olmo 3, eğitim sırasında önemli ölçüde daha az token aldı: Dolma 3 Mix veri kümesinden 5,9 trilyon. Ne yazık ki bu durum, ilk testlere göre aynı aralıktaki Qwen3 modellerine ayak uyduramayan modelin performansında da fark ediliyor. Model, çilek sorununu sürekli olarak “çilek”teki “e” sayısı (veya “çilek”teki “r” sayısı) sorusuyla yanlış yanıtlıyor. En küçük modellerin dil becerileri bile özellikle gelişmemiştir:

Olmo'nun cevabı 3 7B'de sadece içerik yanlış değil, aynı zamanda dilsel uygulama da yetersizdir (Şekil 1).
(Resim: verileştirme)

Olmo 3 32B modeli de hata yapar, ancak daha sık düzeltilir ve önemli ölçüde daha iyi cümleler formüle eder (Şekil 2).
(Resim: verileştirme)
Olmo 3 makalesi, modelin mimarisi ve eğitimi hakkında birçok ayrıntı içermektedir. Bu, eğitim sürecine ilişkin ilginç bilgiler sağlar. Olmo kaliteyi artırmak için farklı veri kümeleriyle çalıştığı için özellikle eğitim sonrası eğitim oldukça zorludur. Akıl yürütme modelinin (Olmo tarafından “düşünme” olarak adlandırılan) pekiştirmeli öğrenmesinde birçok yenilik vardır.
GRPO optimizasyonlarından bazıları diğer modellerden de biliniyor ancak ilk kez Olmo'da bu kombinasyonda kullanılıyor. Model aynı zamanda yeni DeepSeek eğitiminde de kullanılan Ödüllendirme Doğrulamayla Güçlendirme Öğrenimi (RLVR) sürecinin daha gelişmiş versiyonunu kullanıyor. RLVR ile dil modellerinin doğru sonuçları tahmin edip etmediğini otomatik olarak kontrol edebilirsiniz. Daha da geliştirilen versiyonun özelliği, belirli sınırlar dahilinde ve belirli teknik alanlarda otomatik olarak eğitim verileri oluşturmak için kullanılabilmesidir.

Bir yanıt yazın