Microsoft Azure, Nvidia’nın en yeni Blackwell işlemcilerini kullanan sunucularını devreye soktuğunu duyurdu. Nvidia'nın Blackwell tabanlı GB200 çipleri, yapay zeka gibi yüksek performans gerektiren uygulamaların eğitiminde kullanılacak. Microsoft ise bu güçlü donanımı kullanan ilk bulut hizmet sağlayıcısı olduğunu resmen açıkladı.
Microsoft Azure tarafından yapılan duyuruda, GB200 işlemcili yapay zeka sunucularının çalışmaya başladığı ve bu sunucuların gelişmiş sıvı soğutma sistemi ile donatıldığı belirtildi.
Nvidia’nın B200 GPU’su, önceki nesil H100 işlemcilerine göre FP8 ve INT8 performansında 2.5 kat daha yüksek işlem kapasitesi sunuyor. 4.500 TFLOPS/TOPS seviyesine ulaşan bu işlemciler, büyük dil modellerinin daha hızlı ve verimli bir şekilde eğitilmesini mümkün kılıyor. Ayrıca, FP4 veri formatında ise inanılmaz bir performans sunarak 9 PFLOPS işlem gücüne erişiyor.
Sistemin üçte ikisi soğutma
Microsoft’un bu yeni sunucularında kullandığı sıvı soğutma sistemi de dikkat çekiyor. GB200 tabanlı NVL72 sunucularının yaklaşık 120 kW enerji tüketimi ve ısısı göz önüne alındığında, bu tür gelişmiş soğutma çözümleri büyük önem taşıyor. Zaten görsele bakacak olursanız NVL72 platformunun üçte ikisinin soğutmaya ayrıldığını görebilirsiniz.
Bu yeni donanım altyapısı, yapay zeka eğitim süreçlerini hızlandırırken aynı zamanda daha karmaşık modellerin oluşturulmasına olanak tanıyacak. Bilindiği üzere ChatGPT üreticisi OpenAI, modellerini Azure üzerinde geliştiriyor. Dolayısıyla Microsoft’un bu erken adımı OpenAI’a ve dolayısıyla Microsoft’un Copilot’una yarayacak.
Blackwell tabanlı bu sunucuların ticari kullanım için yaygınlaştırılması 2024 yılı sonunda ya da 2025’in başında gerçekleşecek. Microsoft’un 18-22 Kasım 2024 tarihlerinde düzenleyeceği Ignite konferansında daha fazla detay paylaşması bekleniyor.