MTIA 300 AI hızlandırıcı, meta veri merkezlerinde zaten verimli bir şekilde çalışıyor; Meta şimdi de laboratuvar testlerini tamamlayan ve sahada kullanılmaya başlanan MTIA 400'ü sunuyor. Ancak hepsi bu kadar değil: Meta, 2027 gibi erken bir tarihte iki nesli daha veri merkezlerine getirmek istiyor ve bazı kullanım durumlarında, örneğin AMD ve Nvidia'nın yapay zeka hızlandırıcılarına güveniyor.
Duyurudan sonra devamını okuyun
MTIA, “Meta Training and Inference Accelerator” anlamına geliyor ancak duyuruya göre Meta, gelecekte çıkarımlara odaklanmak istiyor. Çipler, örneğin kullanıcıların sohbet sorularını yanıtlamak için eğitilmiş yapay zeka modellerini çalıştırıyor. Meta, çiplerinin en önemli uygulama alanı olarak üretken yapay zekaya yönelik çıkarımı belirtiyor. MTIA 400'ün bu odaklanmanın olmadığı son “genel amaçlı” hızlandırıcı olması amaçlanıyor.
RISC-V ile chipletifikasyon
MTIA 400, toplam beş çiplet artı yüksek bant genişliğine sahip dört bellek yığınından oluşur (HBM; Meta, nesli özel olarak adlandırmaz). Bilgi işlem birimleri en büyük iki yongada bulunur. İşleme Öğesi (PE) adı verilen bir öğe, yönetim için iki RISC-V çekirdeğine dayanır. Kodu yürütürler ve belirli görevleri bir komut işlemcisi aracılığıyla özel devrelere yaptırırlar, ancak aynı zamanda vektör birimlerini kullanarak SIMD (tek talimat-çoklu veri) benzeri hesaplamalar da gerçekleştirebilirler.
MTIA 300
Yarım
)
Ayrıca, birikim hesaplamaları ve diğer PE'lerle iletişim için matris birimleri (Nokta Çarpım Motorları), indirgeme motorlarının yanı sıra veri hareketleri için DMA (Doğrudan Bellek Erişimi) motorları da vardır. Her PE'nin yerel önbelleği vardır ve tüm PE'ler ortak bir SRAM önbelleğini paylaşır. HBM'nin bellek denetleyicileri de bu bilgi işlem yongalarında bulunur.
İki ek yonga, toplam on iki adet 800 Gbit/sn bağlantı için ağ denetleyicileri içerir; bu sayede Meta, 72'ye kadar AI hızlandırıcıya bağlanır. Çip üzerinde sistem kalıbı, diğer şeylerin yanı sıra, tüm AI hızlandırıcıyı kontrol etmek için PCI Express denetleyicileri ve birkaç RISC-V çekirdeğinden oluşan daha yüksek seviyeli bir Kontrol Çekirdek İşlemcisi (CCP) içerir.
Bir MTIA 400, 1200 watt tüketir, 288 GB HBM ile birlikte gelir ve saniyede 12 katrilyon dört bitlik kayan nokta işlemini (12 FP4 petaflop) gerçekleştirir. Meta'nın MX4 spesifikasyonu, Open Compute Project'in (OCP) FP4'e dayalı olarak belirttiği mikro ölçeklendirme formatlarını ifade eder.
Duyurudan sonra devamını okuyun

Meta AI hızlandırıcı özellikleri.
(Resim: Meta)
MTIA 450 ve 500 2000 watt'a yakın
MTIA 450, yeniden tasarlanmış işleme yongalarını ve daha hızlı HBM'yi kullanır. Aynı 288 GB kapasiteyle aktarım hızının ikiye katlanarak 18,4 TByte/s'ye çıkarılması yeni bir neslin, muhtemelen HBM4'ün habercisidir.
Meta esas olarak burada FP4'ün hızını artırmak istiyor. 21 petafloptan, yani %75'lik bir artıştan bahsediyoruz. Elektrik tüketimi %17 artarak 1400 Watt'a ulaşır. MTIA 450'nin 2027 başlarından itibaren kullanıma hazır olması bekleniyor.
MTIA 500 ise 2027'nin sonlarında gelecek. Meta, %40'tan fazla performans artışı hedefliyor. O andan itibaren bilgi işlem yongaları iki yerine dört parçaya bölünecek. Ayrıca depolama kapasitesi 384 GB'tan 512 GB'a çıkar; aktarım hızı 27,6 TByte/s'dir. Meta 1700 watt'lık bir güç bütçesini hedefliyor.

72 Meta AI hızlandırıcıya sahip eksiksiz bir sunucu.
(Resim: Meta)
Daha kısa geliştirme süreleri
Chiplet yaklaşımıyla Meta, özellikle yeni yapay zeka hızlandırıcılarının gelişimini kısaltmak istiyor. Çevresindeki donanımın geri kalanı da hızlı değişiklikler için tasarlanmıştır: dört neslin tümü aynı sunucularda çalışmalıdır. Meta, yapay zekanın gelişimindeki hızlı ilerlemeye bu şekilde ayak uydurmak istiyor. Grup hâlâ diğer şirketlerin yapay zeka hızlandırıcılarını kullanmak istiyor.
Broadcom, yapay zeka hızlandırıcılarıyla diğer birçok hiper ölçekleyicinin yaptığı gibi, Meta'ya tasarım konusunda yardımcı oluyor. Meta yapısal genişlikler hakkında yorum yapmıyor; Ancak TSMC'nin 2 veya 3 nanometrelik üretim teknolojisi mantıklı görünüyor.
(mma)

Bir yanıt yazın