OpenAI, hız ve daha düşük maliyetler için GPT-5.4'ü küçültüyor

OpenAI, farklı bir hedefe ulaşmak, daha hızlı yanıt vermek ve çok daha düşük maliyetlere ulaşmak için en yeni modellerinin ölçeğini küçültüyor. Yeni GPT-5.4 mini ve nano, muhakeme gücünün son kırıntısını bile kullanmaktan ziyade yanıt verme becerisine önem veren geliştiriciler için tasarlandı.

Her iki model de bugünden itibaren satışa sunulacak. GPT-5.4 mini, temel kıyaslamalarda tam GPT-5.4'e yakın kalırken önceki modele göre iki kattan daha hızlı çalışır. GPT-5.4 nano, verimliliğin en önemli olduğu sınıflandırma ve veri çıkarma gibi daha basit görevlere odaklanarak bunu daha da ileri götürüyor.

Bu yaklaşım, hızın deneyimi şekillendirdiği uygulamalara uyar. Kodlama asistanları, arka plan aracıları ve gerçek zamanlı görme araçları hızlı geri bildirime bağlıdır ve bu durumlarda biraz daha küçük bir model genellikle daha iyi bir genel sonuç sunar.

Gerçekte ne kadar performans kaybedersiniz?

Modeller arasındaki performans farkı beklediğinizden daha dar. GPT-5.4 mini, SWE-Bench Pro'da yüzde 54,4 puan alırken, tam modelde bu oran yüzde 57,7'dir. OSWorld-Verified'da mini yüzde 72,1'e ulaşırken, daha büyük sürüm yüzde 75'e ulaşarak görevler arasındaki farkı koruyor.

Maliyetler çok daha dramatik bir şekilde düşüyor. GPT-5.4 mini, bir milyon giriş tokenı başına 0,75 $ ve bir milyon çıkış tokenı başına 4,50 $ olarak fiyatlandırılırken nano, 0,20 $ ve 1,25 $ olarak fiyatlandırılıyor. Her iki model de metin ve görüntü girişlerini, araç kullanımını, işlev çağrısını ve 400.000 jeton bağlam penceresini destekler; böylece düşük fiyat, temel yetenekleri ortadan kaldırmaz.

Codex'te mini model, GPT-5.4 kotasının yalnızca yüzde 30'unu kullanıyor. Bu, geliştiricilerin rutin kodlama işini daha ucuz bir aşamaya kaydırmasına ve daha zorlu muhakeme için tam modeli kaydetmesine olanak tanır.

Daha küçük modeller ağır yükü kaldırdığında

OpenAI ayrıca çok modelli bir iş akışını da zorluyor. Geliştiriciler, tek bir sisteme güvenmek yerine, planlama için daha büyük bir modeli yürütmeyi yöneten daha küçük bir modelle eşleştirerek işi katmanlara bölebilir.

Bu kurulum, halihazırda kaç tane gerçek uygulamanın davrandığını yansıtıyor. Bir model bir kod tabanını inceleyebilir veya değişikliklere karar verebilirken, bir diğeri verileri veya tekrarlanan adımları destekleyerek işleyebilir. Daha küçük olan model öngörülebilir işi hallederken, daha büyük olan ise muhakeme ve koordinasyona odaklanır.

Erken geri bildirimler bu karışımın etkili olduğunu gösteriyor. Hebbia CTO'su Aabhas Sharma, GPT-5.4 mini'nin çeşitli görevlerde daha düşük maliyetle rakip modellerle eşleştiğini veya daha iyi performans gösterdiğini ve hatta bazı durumlarda tam GPT-5.4'ten daha güçlü uçtan uca sonuçlar sağladığını bildirdi.

Ne kullanılmalı ve ne zaman

GPT-5.4 mini artık API, Codex ve ChatGPT'de mevcut. Free and Go kullanıcıları buna Thinking seçeneği aracılığıyla erişebilirken, diğer kullanıcılar bunu GPT-5.4 Thinking sınırlarına ulaştıklarında bir geri dönüş olarak görebilirler.

Nano model şu anda API ile sınırlıdır ve maliyet kontrolünün kritik olduğu yüksek hacimli iş yüklerini çalıştıran ekiplere yöneliktir. Her iki model de tam dokümantasyonla birlikte bugün yayında.

Gerçek zamanlı yapay zeka özellikleri geliştiren geliştiriciler için bu değişim açıktır. Daha küçük modeller artık günlük işlerin daha büyük bir kısmını karşılayacak kapasiteye sahip; bu da hız, maliyet ve kapasite arasında doğru dengeyi seçmeyi giderek daha pratik bir karar haline getiriyor.


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir