MoneyDJ新聞 2026-03-17 16:04:28 新聞中心 發佈
隨著生成式AI與Agentic AI應用快速擴展,AI訓練與推論工作負載正推動資料中心架構邁向更高運算密度與更高頻寬互連。仁寶(2324)於輝達NVIDIA GTC 2026展會中,展示其基於NVIDIA HGX Rubin NVL8平台所打造的高密度AI伺服器解決方案,並與NVIDIA提出的「六款全新晶片、一部出色的AI超級電腦」NVIDIA Vera Rubin架構願景相呼應,展現仁寶在新世代AI超級運算基礎設施上的工程整備能力。
仁寶表示,NVIDIA Vera Rubin架構整合了NVIDIA Vera CPU、NVIDIA Rubin GPU、NVIDIA NVLink 6 Switch、NVIDIA BlueField-4 DPU、NVIDIA Spectrum-X Ethernet與NVIDIA ConnectX-9 SuperNIC,形成完整的異質運算架構。透過NVLink 6交換技術,NVL72機櫃級配置可提供最高260 TB/s的總互連頻寬,並實現每顆GPU 3.6 TB/s的全互連頻寬(all-to-all bandwidth),可有效支援Mixture-of-Experts(MoE)模型與大規模AI訓練與推論工作負載。
此次仁寶推出的SG231-2-L1系統即基於NVIDIA HGX Rubin NVL8平台設計,其核心技術亮點包括高密度加速架構、高效AI推論與訓練能力、高頻寬GPU互連、可擴展記憶體架構、高功率密度液冷設計、機櫃級部署整備。在展位現場,仁寶亦展示基於NVIDIA HGX系統架構的NVIDIA Vera CPU HPM模組,展現其在NVIDIA Vera CPU與NVIDIA Rubin GPU平台上的工程整備與製造能力。隨著運算架構持續演進,CPU與GPU的協同設計正逐步成為資料中心架構優化的重要關鍵。
仁寶電腦基礎架構事業群副總經理張耀文表示,AI基礎設施的競爭焦點,已從單一節點效能的比較,轉向整體部署效率與長期可擴展性的能力。隨著NVIDIA HGX Rubin NVL8平台在運算效能與功率密度上的持續提升,資料中心架構也必須同步演進。我們不僅強化運算能力,也持續提升整體基礎設施在承載能力與擴展性上的設計,使客戶能建立面向下一世代AI工作負載的可持續部署架構。
仁寶指出,隨著AI工作負載持續規模化,資料中心競爭力正逐漸由生態系協同與整體架構整合能力所決定。透過此次GTC 2026展示,仁寶展現其在高密度GPU系統設計與液冷散熱技術上的工程實力,並進一步深化其在NVIDIA技術生態系中的長期策略合作。