MoneyDJ新聞 2026-05-14 20:23:56 周佩宇 發佈
生成式 AI 正快速從雲端走向終端裝置,挑戰也來自在有限的 DRAM 與功耗條件下,讓大型語言模型(LLM)真正落地於行動裝置。群聯(8299)與聯發科(2454)攜手,於MediaTek天璣開發者大會(MDDC 2026)宣佈,已在MediaTek天璣9500平臺上,單機運行 20B (200億個參數)大型語言模型,展現新一代地端 AI 推論的關鍵突破。
通過群聯專利 aiDAPTIV Hybrid UFS 解決方案,結合 aiDAPTIV Cache Memory 與 aiDAPTIV Middleware 技術,成功將部分 MoE 模型權重動態卸載至 UFS 存儲層,有效降低對 DRAM 的依賴,原需 16GB+ DRAM 的大模型,可在 12GB DRAM 環境下流暢運行,大幅提升大模型在終端設備部署的可行性。
不僅為技術展示,更代表 AI 正加速從資料中心延伸至智慧手機、IoT等邊緣設備。未來,AI 將不再只是雲端服務,而是真正存在於每一台裝置之中。