《GTC大會》輝達B200比H100快4倍 採台積4NP製程

2024/03/19 08:02

MoneyDJ新聞 2024-03-19 08:02:23 記者 郭妍希 報導

輝達(Nvidia Corp.)週一(18日)在眾所矚目的「GPU Technology Conference」(又稱GTC大會)上發表旗艦款AI GPU「Blackwell B200」,執行長黃仁勳(Jensen Huang)為這場年度開發者盛會揭開序幕。

CNBC、Tom`s Hardware等外電報導,B200擁有2,080億顆電晶體、是前世代AI晶片(有800億顆電晶體)的兩倍以上,預計今(2024)年稍晚開始出貨。這些電晶體幾乎可在同一時間存取B200附加的記憶體,進而提高生產力。B200尺寸相當大,將兩顆分開製造的裸晶整合進一顆由台積電(2330)代工的晶片。

Blackwell B200之所以採用雙裸晶組態,是因為使用台積電的4NP製程代工。4NP製程是現有Hopper H100及Ada Lovelace架構GPU使用的4N製程進化版。4NP提供的晶片密度應未大幅提升,代表若想要效能更強大的晶片、尺寸也需更大。

黃仁勳在會議上表明,「Hopper非常棒、但我們需要更大的GPU。」

B200 GPU單顆的AI運算效能可達20 petaflops,而前一代H100的AI運算性能最多只有4 petaflops。B200還將搭配192GB HBM3e記憶體,提供最高8 TB/s頻寬。

輝達並推出一款「Grace Blackwell GB200」超級晶片,將兩顆B200 GPU及一顆Arm架構Grace CPU結合在一起。

輝達指出,與H100解決方案相較,基於GB200系統的新一代DGX SuperPOD超級電腦平台,採用水冷(liquid-cooled)設計,AI訓練效能提升4倍、推論速度更加快30倍,能源效率則改善25倍。

輝達也從原本以銷售單顆晶片為重心,逐漸偏向販售一整個系統。黃仁勳直指,「Blackwell」並非一款晶片,而是平台的名字。

輝達最新系列伺服器GB200 NVLink 2 (見圖)將內建72顆Blackwell GPU、36顆Grace CPU,也採用水冷設計,能為AI大型語言模型(LLM)處理最多27兆個參數的模型。

輝達並表示,將為商用軟體訂閱服務新增一款名為「Nvidia Inference Microservice」(簡稱NIM)的產品,讓客戶更加輕鬆使用舊款輝達GPU進行推論,允許企業繼續使用手上已有的數億顆輝達GPU。NIM讓企業執行自家AI模型,不需向OpenAI等業者購買AI服務。

輝達指出,包括亞馬遜(Amazon.com)、Alphabet旗下Google、Facebook母公司Meta Platforms、微軟(Microsoft)、OpenAI、甲骨文(Oracle)及特斯拉(Tesla)在內的大客戶,預料都會使用這款最新晶片。

輝達18日在正常盤上漲0.7%、收884.55美元;盤後下挫1.61%至870.31美元。

(圖片來源:輝達)

*編者按:本文僅供參考之用,並不構成要約、招攬或邀請、誘使、任何不論種類或形式之申述或訂立任何建議及推薦,讀者務請運用個人獨立思考能力,自行作出投資決定,如因相關建議招致損失,概與《精實財經媒體》、編者及作者無涉。

個股K線圖-
熱門推薦