http://m.casecurityhq.com 2024-03-26 10:22 來源:英偉達
北京時間3月19日凌晨,英偉達(NVIDIA)公司創(chuàng)始人兼首席執(zhí)行官黃仁勛在 GTC2024 發(fā)表主題演講,發(fā)布了加速計算以及機器人領域的最新突破性成果,其中最大的爆點無疑是全新 Blackwell 架構的推出。
基于 Blackwell 架構,英偉達還正式發(fā)布了全球最強的B200 和 GB200 超級芯片,以及由36組 Grace CPU 和72組 Blackwell GPU 組合而成的液冷機架級系統 GB200 NVL72 。
據英偉達介紹
Nvidia NVL72 機架級 AI 系統擁有1440petaflops(又名1.4exaflops)的推理能力,能夠支持大規(guī)模的訓練和推理任務,可處理高達27萬億個參數的大語言模型。與用于推理用途的相同數量的 H100 Tensor Core 圖形處理單元相比,GB200 NVL72性能提升高達30倍。此外,該系統還可將成本和能耗降低多達25倍。
GB200 NVL72 液冷機架服務器
想要發(fā)揮最大性能并非易事,需要考慮眾多因素,為充分發(fā)揮 Blackwell 架構的潛力,英偉達的GB200 NVL72 機架級服務器采用液態(tài)冷卻系統。事實上,對于 Blackwell 架構的芯片來說,采用液態(tài)冷卻系統不僅是最佳選擇,而且?guī)缀跏沁\行的必備條件。
粗略估算,在全負荷運轉下,GB200 包括兩個1200W的GPU,以及300W的Arm CPU,可能的總功耗大約為2700W,遠超傳統風冷能力所及。然而借助液冷系統配置,即便在滿負荷運作時,芯片的熱輸出也可以達到1200W,同時實現20petaflops 的強大性能。通過采用液冷技術,英偉達得以繼續(xù)突破AI加速器的性能極限,而無需擔憂冷卻系統的限制,據悉,英偉達計劃在后續(xù)全系列產品上應用液冷散熱技術。
服務器液冷技術
如今,在人工智能訓練負載任務日益復雜、相應硬件功耗不斷上升的背景下,液冷技術已經成為解決人工智能服務器高功耗散熱的核心方案,可以使核心芯片發(fā)揮出最佳性能水平。
史陶比爾作為全球快速連接解決方案的佼佼者,在液冷技術領域具備超過30年的深入研究和批量部署經驗,專注于為服務器液冷系統提供安全、可靠,且優(yōu)于行業(yè)標準的液冷連接器解決方案。在AIGC等先進人工智能模型需求不斷攀升的驅動下,憑借技術實力和產品可靠性,史陶比爾能夠為液冷系統在服務器領域的加速發(fā)展提供強力的技術支持和保障,為構建能效更高的AI服務器系統貢獻力量。