Ajan bir sohbet robotu, bulutta yapay zeka kodlaması ve güçlü, yeni bir açık ağırlıklı model: Fransız yapay zeka girişimi Mistral, üç yeni özelliği tanıttı. Odak noktası, yalnızca dört GPU ile kendi kendine barındırılabilen yeni Mistral Medium 3.5 dil modelidir.
Duyurudan sonra devamını okuyun
Mistral Medium 3.5, talimat takibi, akıl yürütme ve kodlamayı tek bir modelde birleştiren 256.000 jeton bağlam penceresine sahip 128 milyar parametreli bir modeldir. Özelliği, muhakeme için hesaplama çabasının istek başına yapılandırılabilmesidir, böylece aynı model hem hızlı bir sohbet yanıtı sağlayabilir hem de karmaşık aracı görevleri üzerinde çalışabilir. Mistral Medium 3.5, büyüyen model ailesinin varisi: Şirket, Mistral 3 ile 2025'in sonunda ABD ve Çin rekabetiyle yüzleşmesi beklenen dört yeni modeli tanıttı.
Veri egemenliği ve düşük API fiyatları
Şablon, Vibe'nin CLI'sinde Devstral 2'nin yerini alıyor ve aynı zamanda Mistral'in yapay zeka asistanı Le Chat'te de yeni varsayılan şablon olacak. Mistral, şirket tarafından geçen yıl sunulan yapay zeka ajanlarının geliştirilmesine yönelik bir çerçeve üzerine inşa ediliyor. Ağırlıklar değiştirilmiş bir MIT lisansı altında Sarılma Yüzünde Açık Ağırlıklar olarak yayınlanmaktadır. API aracılığıyla, modelin maliyeti bir milyon giriş tokenı başına 1,50 ABD Doları ve bir milyon çıkış tokenı başına 7,50 ABD Dolarıdır. Karşılaştırma için: DeepSeek-V4'ün Pro sürümünde milyon giriş tokenı başına 1,74 dolar maliyeti var; bu da benzer bir fiyat aralığındadır ancak önemli ölçüde daha geniş bir bağlam penceresi sunar.
Mistral, modeli öncelikle Avrupa veri egemenliğine, düşük API maliyetlerine ve saf referans performansı yerine kendi kendini barındırma olanağına değer veren müşteriler için konumlandırıyor. Mistral, Avrupa'daki bu altyapıyı uzun vadede güvence altına almak için büyük yatırımlar yapıyor: Şirket, Paris yakınlarındaki bir veri merkezi için 830 milyon dolarlık kredi talep ediyor.
Kodlama oturumlarını buluta ışınlayın
Şimdiye kadar Vibe gibi şifreleme aracıları yalnızca yerel olarak çalışıyordu. Artık işler değişiyor: oturumlar bulutta birkaçı paralel olarak çalıştırılabilir ve tamamlandığında kullanıcıya bilgi verilebilir. Yerel CLI oturumlarını çalıştırmak, oturum geçmişi, görev durumu ve bekleyen onaylar dahil olmak üzere buluta “ışınlanabilir”. Bu, kullanıcıların yerel ve bulut düzenleme arasında sorunsuz bir şekilde geçiş yapmasına olanak tanır.
Duyurudan sonra devamını okuyun
Her kodlama oturumu yalıtılmış bir sanal alanda çalışır. İş tamamlandıktan sonra aracı, GitHub'da otomatik olarak bir çekme isteği açabilir ve geliştiriciyi bilgilendirebilir; böylece geliştirici her bir adımı değil yalnızca sonucu inceler.
Temsilci görevleri bağımsız olarak tamamlar
Bir diğer yeni özellik ise Le Chat asistanının “Çalışma Modu”. Mod, aracının birden fazla aracı aynı anda kullanmasına ve e-postaları ve takvimleri tek seferde kontrol etmek, web aramalarını ve dahili belgeleri birleştirmek veya özetleri doğrudan Slack'te göndermek gibi karmaşık görevleri birden çok adımda tamamlamasına olanak tanır.
Her bir araç çağrısı ve ilgili gerekçeler görünür kalmalıdır. Mesaj göndermek veya verileri değiştirmek gibi eylemler için aracı açıkça izin ister.
Ayrıca bakınız:
(mki)

Bir yanıt yazın