Dell, NVIDIA Blackwell B100 GPU’ların Bu Yıl Geleceğini ve 2025’in Yapay Zeka Veri Merkezleri için Yükseltilmiş B200’ü Doğruladı

Dell, NVIDIA Blackwell B100 GPU’ların Bu Yıl Geleceğini ve 2025’in Yapay Zeka Veri Merkezleri için Yükseltilmiş B200’ü Doğruladı

Dell’in açıkladığı üzere, NVIDIA’nın Blackwell AI GPU serisinde iki büyük hızlandırıcı yer alacak: 2024 için B100 ve 2025 için B200.

Dell, NVIDIA’nın Yeni Nesil Blackwell AI GPU Hızlandırıcılarına, 2024’te B100’e ve 2025’te B200’e Bakıyor

Son kazanç açıklaması sırasında Dell, NVIDIA’nın yeni nesil Blackwell serisinin yalnızca B100 AI hızlandırıcıya sahip olmayacağını, daha sonra yükseltilmiş bir sürümün de sunulacağını açıkladı. Görünüşe göre NVIDIA, bu bilgiyi, NVIDIA’nın en yeni yapay zekasını ve bilişime hazır donanımını kullanarak sunucuları ve veri merkezlerini işletecek olan Dell gibi en büyük ortaklarına zaten açıklamış görünüyor.

Görüntü Kaynağı: NVIDIA

NVIDIA’nın Blackwell GPU’larının bu yıl piyasaya sürüleceğini ve resmi olarak piyasaya sürüleceğini biliyoruz. bu ay GTC 2024’te görücüye çıkacak ki bu sadece birkaç hafta uzakta. Mevcut yol haritaları NVIDIA B100, GB200 ve GB200NVL’ye işaret ediyor; B100 GPU’nun kod adı, GB200 Superchip platformu ve GB200NVL ise süper bilgi işlem kullanımı için birbirine bağlı platform.

Şu anda NVIDIA’nın Blackwell GPU’larının monolitik bir tasarım kullanabileceğine dair raporlar var ancak henüz somut bir şey yok. Bilinen şey, Hopper H200 GPU’lar gibi, ilk nesil Blackwell B100’ün de HBM3e bellek teknolojilerinden yararlanacağıdır. Dolayısıyla yükseltilmiş B200 modeli, muhtemelen daha yüksek bellek kapasiteleri, yükseltilmiş teknik özellikler ve gelişmiş özelliklerle birlikte HBM belleğin daha da hızlı bir versiyonunu kullanabilir. Samsung olduğu söyleniyor Blackwell GPU’lar için büyük bellek sağlayıcısı.

Açıkçası, H200’de olup bitenler ve performans artışı konusunda heyecan duyduğumuz değişikliklere dair herhangi bir bakış açısı. Orada olacaklar konusunda heyecanlıyız B100 ve B200, ve mühendislik güvenini ayırt etmek için aslında başka bir fırsatın da burada olduğunu düşünüyoruz. Termal taraftaki karakterizasyonumuz, GPU başına 1000 watt’lık enerji yoğunluğuna ulaşmak için gerçekten doğrudan sıvı soğutmaya ihtiyacınız yok.

Gelecek yıl bu gerçekleşecek B200. Sıvı soğutmanın geniş ölçekte performans göstermesini sağlamak için uzmanlığımızı ortaya koymak amacıyla mühendisliğimizi ve ne kadar hızlı hareket edebileceğimizi ve sektör lideri olarak yaptığımız çalışmaları gerçekten sergileme fırsatı, ister akışkan kimyası, ister performans, ara bağlantımız olsun Yaptığımız iş, telemetri, yaptığımız güç yönetimi işi, bu inanılmaz hesaplama kapasitesinden veya yoğunluğundan veya pazarda var olacak kapasiteden yararlanmak için bunları pazara geniş ölçekte sunmaya gerçekten hazırlıklı olmamızı sağlıyor .

Robert L. Williams – Dell Technologies Inc. – IR Kıdemli Başkan Yardımcısı

Görüntü Kaynağı: NVIDIA

İlginç bir şekilde, Dell’in Kıdemli Başkan Yardımcısı ayrıca NVIDIA Blackwell B100 ve B200 gibi yeni nesil GPU’ların güç yoğunluğunun 1000 W olacağını ve bunun çok büyük bir rakam olacağını ancak dünyanın en hızlı yapay zeka hızlandırıcılarından beklemediğimiz bir şey olduğuna dikkat çekiyor. . NVIDIA Hopper H200 ve AMD Instinct MI300X halihazırda en yüksek güçte 800 W’a kadar enerji tüketebilmektedir; Blackwell’in getirmesi beklenen performans artışları göz önüne alındığındaVerimlilik artışı göz önüne alındığında, güçteki 200W’lık bir artış oldukça nominal bir artış olacaktır.

Her ikisi için de güç gereksinimleri Gigabyte’ın yol haritasında bir süre önce belirtildiği gibi CPU’lar ve GPU’lar gelecekte de artmaya devam edecek. Bunların üstesinden gelmek için şirketler, daha yüksek güç verimliliği sağlarken çip geliştirme maliyetinin optimal kalmasını sağlamak için gelişmiş süreç ve paketleme teknolojilerinden yararlanacak.

NVIDIA Veri Merkezi / AI GPU Yol Haritası

GPU Kod Adı X Yedirmek Blackwell Hazne Amper Zaman Pascal’ın
GPU Ailesi GX200 GR100 GB200 GH200/GH100 GA100 GV100 GP100
GPU SKU’su X100 R100 B100/B200 H100/H200 A100 V100 P100
Hafıza HBM4e mi? HBM4 mü? HBM3e HBM2e/HBM3/HBM3e HBM2e HBM2 HBM2
Öğle yemeği 202X 2025 2024 2022-2024 2020-2022 2018 2016

Haber kaynağı: Barron’un

Bu hikayeyi paylaş

Facebook

heyecan

Yorum gönder