Supermicro推出直接液冷最佳化的NVIDIA Blackwell解決方案
Supermicro的SuperCluster配備了NVIDIA HGXTM B200 8-GPU、NVIDIA GB200、NVL4和NVL72系統,提供空前的AI運算密度
加州聖荷西和亞特蘭大2024年11月22日 /美通社/ -- Supermicro, Inc. (NASDAQ:SMCI)為AI、雲端、儲存和5G/邊緣領域的全方位IT解決方案製造商,宣布推出最高效能的SuperCluster。此端對端AI資料中心解決方案採用NVIDIA Blackwell平台,專為兆級參數規模的生成式AI時代所設計。全新SuperCluster將可大幅增加液冷機架中的NVIDIA HGX B200 8-GPU系統數量,與Supermicro目前領先業界,搭載NVIDIA HGX H100和H200的液冷型SuperCluster相比,GPU運算密度得到大幅提升。此外,Supermicro正在擴大其NVIDIA Hopper系統產品組合,以因應加速型HPC應用和主流企業級AI技術的快速普及。
Supermicro總裁暨執行長梁見後表示:「Supermicro 擁有必要的專業技術、交付速度和產能,能部署包含100,000個GPU的全球最大液冷AI 資料中心專案,而透過Supermicro與NVIDIA的協作,該專案最近剛完成部署。這些Supermicro SuperCluster能透過高效直接液冷(DLC)技術降低電力需求。同時,我們現在推出了採用NVIDIA Blackwell平台的解決方案。透過我們的建構組件(Building Block)技術,我們能快速設計搭載NVIDIA HGX B200 8-GPU的伺服器,並能自由搭配液冷或氣冷散熱配置。我們的SuperCluster提供空前的密度、效能和效率,為未來更密集的AI運算解決方案奠定基礎。Supermicro的運算叢集搭配直接液冷技術,可幫助整個資料中心實現更高的效能和更低的功耗,並降低營運成本。」
欲了解更多資訊,請瀏覽:www.supermicro.com/hpc
經認可的大規模AI效能:Supermicro NVIDIA HGX B200系統
經升級後的SuperCluster可擴充單元採用機架級設計,具有創新垂直冷卻液分配歧管(CDM),可使單一機架內的運算節點數量增加。新開發的高效散熱冷板和先進的軟管設計可進一步改善液冷系統效率。適合大型部署的新型In-Row式冷卻液分配裝置(CDU)亦可被納入運算叢集的散熱配置內。傳統氣冷資料中心也能運用搭配新型氣冷系統機箱的全新NVIDIA HGX B200 8-GPU系統。
全新Supermicro NVIDIA HGX B200 8-GPU系統相較於前一代,提供了多項升級。這些新系統包含對散熱和電源配置的優化,並支援雙500W Intel® Xeon® 6(具備DDR5 MRDIMM,傳輸速度達8800 MT/s)或AMD EPYCTM 9005系列處理器。而全新一款氣冷式10U機型Supermicro NVIDIA HGX B200系統則採用經重新設計的機箱,具有更佳的散熱空間以支援8 個1000W TDP Blackwell GPU。這些系統在GPU搭配NIP的架構上採用1:1比例設計,並支援NVIDIA BlueField®-3 SuperNIC或NVIDIA ConnectX®-7 NIC,可在高效能運算結構內進行擴充。此外,每個系統所配備的兩個NVIDIA BlueField-3資料處理器(DPU),能使附加型高效能AI儲存裝置之間的資料傳輸處理效率得到提升。
採用NVIDIA GB200 Grace Blackwell超級晶片的Supermicro解決方案
Supermicro亦提供搭配所有NVIDIA GB200 Grace Blackwell超級晶片的解決方案,包括最新發表的NVIDIA GB200 NVL4超級晶片和NVIDIA GB200 NVL72單機架百萬兆級電腦。
Supermicro的NVIDIA MGX系列設計將支援NVIDIA GB200 Grace Blackwell NVL4 超級晶片。這款超級晶片啟動了融合式高效能運算與AI的未來,並透過NVLink-C2C技術,以及四個由NVIDIA NVLink™ 連接的Blackwell GPU與兩個NVIDIA Grace™ CPU,提供了革命性的效能。這些超級晶片與Supermicro的液冷型NVIDIA MGX模組化系統相容,且相較於上一代產品,能為科學運算、圖神經網路(GNN)訓練和推論應用提供最高2倍的效能。
搭配Supermicro端對端液冷解決方案的NVIDIA GB200 NVL72 SuperCluster能在具有SuperCloud Composer(SCC)軟體的單個機架中組成一個百萬兆級超級電腦,為液冷資料中心提供全面的監控與管理能力。72個NVIDIA Blackwell GPU和36個NVIDIA Grace CPU皆透過第五代NVIDIA NVLink和NVLink Switch連接,能有效地作為單個強大GPU運行,並擁有高度容量的HBM3e記憶體集區,以實現低延遲的130TB/s總GPU通訊頻寬。
搭載NVIDIA H200 NVL的加速運算系統
Supermicro的 5U PCIe加速運算系統現可搭載NVIDIA H200 NVL,適用於需要彈性配置的低功耗、氣冷型企業級機架設計,並能為許多AI和高效能運算工作負載進行加速(無論機體尺寸大小)。NVIDIA H200 NVL能藉由NVIDIA NVLink,將最多四個GPU相連,並搭配1.5倍記憶體容量,以及透過HBM3e得到提高的1.2倍頻寬,可實現數小時內的LLM快速微調,同時也提供比前一代快1.7倍的LLM 推論效能速度。NVIDIA H200 NVL亦包含NVIDIA AI Enterprise的五年服務,而NVIDIA AI Enterprise是一個用於開發與部署生產型AI的雲端原生軟體平台。
Supermicro 的X14和H14 5U PCIe加速運算系統透過NVLink技術支援多達兩個4路NVIDIA H200 NVL系統,在單個系統內可搭載八個GPU,提供最高900GB/s的GPU互連傳輸速度,而每4-GPU NVLink域的組合集區具有 564GB 的 HBM3e 記憶體。全新PCIe 加速運算系統支援最高10個PCIe GPU,現在也可搭載最新Intel Xeon 6或AMD EPYC 9005系列處理器,能為高效能運算和AI應用提供彈性且多功能的選項。
Supermicro已參與2024年超級運算大會
Supermicro在超級運算大會上展示了完整的AI和高效能運算基礎架構解決方案組合,包括我們用於AI SuperCluster的液冷GPU伺服器。
透過我們展位的演講議程,能夠了解客戶、Supermicro專家及我們的技術合作夥伴所介紹的最新突破性運算技術。
歡迎蒞臨Supermicro在SC24展場B廳的2531號展位。
關於Super Micro Computer, Inc.
Supermicro(納斯達克股票代碼:SMCI)為應用最佳化全方位IT解決方案的全球領導者。Supermicro的成立據點及營運中心位於美國加州聖荷西,致力為企業、雲端、AI和5G電信/邊緣IT基礎架構提供領先市場的創新技術。我們是全方位IT解決方案製造商,提供伺服器、AI、儲存、物聯網、交換器系統、軟體及支援服務。Supermicro的主機板、電源和機箱設計專業進一步推動了我們的發展與產品生產,為全球客戶實現了從雲端到邊緣的下一代創新。我們的產品皆由企業內部團隊設計及製造(在美國、亞洲及荷蘭),透過全球化營運實現極佳的規模與效率,並藉營運最佳化降低總體擁有成本(TCO),以及經由綠色運算技術減少環境衝擊。屢獲殊榮的Server Building Block Solutions®產品組合,讓客戶可以自由選擇這些具高度彈性、可重複使用且極為多元的建構式組合系統,我們支援各種外形尺寸、處理器、記憶體、GPU、儲存、網路、電源和散熱解決方案(空調、自然氣冷或液冷),因此能為客戶的工作負載與應用提供最佳的效能。
Supermicro、Server Building Block Solutions和We Keep IT Green皆為Super Micro Computer, Inc. 的商標和/或註冊商標。
所有其他品牌、名稱和商標皆為其各自所有者之財產。
SOURCE 美超微電腦股份有限公司
分享這篇文章