AI+EDA運算爆發 聯發科打造核心算力平台

2026/05/07 13:46

MoneyDJ新聞 2026-05-07 13:46:11 萬惠雯 發佈

聯發科(2454)苗栗銅鑼AI資料中心正式對外開放,聯發科表示,目前AI算力規模已從去年底與NVIDIA共同發佈約600億Token,在不到半年時間就快速提升至1380億Token,反映生成式AI、大型語言模型與EDA運算需求正快速成長,聯發科也已將AI算力正式視為企業核心基礎設施。

聯發科指出,目前資料中心除支援生成式AI模型訓練與推論外,更重要的是支援IC設計所需的大規模EDA運算。公司表示,每年EDA Job需求規模相當龐大,CPU與伺服器長時間運算同樣具高耗能特性,因此AI GPU叢集、CPU伺服器與高密度散熱系統,實際上同時支援AI模型開發與晶片設計兩大核心任務。

在硬體布局方面,聯發科也透露,目前已導入NVIDIA Blackwell世代B200伺服器系統,並為台灣首批導入B200 GPU卡的企業之一。B200主要鎖定AI訓練、大型模型推論與HPC高效能運算等應用。

聯發科表示,目前GPU產業技術演進速度極快,包括GPU架構、封裝、功耗與散熱需求皆快速變化,因此公司持續評估不同GPU與AI加速器架構,包括NVIDIA、AMD,以及Trainium與ASIC AI晶片等方案,以因應不同工作負載需求。

聯發科指出,目前AI資料中心採多供應商模式運作,並不綁定單一硬體廠商,所有設備皆須符合公司KPI與驗證標準後才會導入,因此未來不同年度與不同系統架構,皆可能由不同供應商取得訂單。

此外,對於市場關注為何聯發科選擇自建AI資料中心,而非完全依賴外部雲端GPU資源,公司則透露,AI模型、EDA運算與IP資料皆屬高度機密,自建資料中心可強化資料安全與算力自主性,同時在AI需求長期持續擴張下,自建資料中心的總持有成本(TCO)亦具競爭力。

聯發科表示,AI基礎建設未來不只是單純GPU採購,而是涵蓋GPU叢集、高密度供電、浸沒式冷卻、智慧維運與AI安防等完整系統架構,公司正打造能支撐未來十年AI與EDA研發的核心算力平台。

個股K線圖-
熱門推薦