MoneyDJ新聞 2026-04-30 16:00:36 新聞中心 發佈
資策會產業情報研究所(MIC)於今(30)日2026 MIC FORUM Spring《智動新序》研討會中,關注可信任AI治理發展,提供企業布局治理能力指引。資策會MIC指出,全球企業AI採用速度已遠超過AI治理成熟度,從近年有名的AI治理失靈事件如:保險公司理賠快速自動核駁、客服機器人幻覺,到AI Agent誤刪資料,皆反映出AI一旦失控,責任終將回歸到部署者身上。資策會MIC資深產業分析師郭唐帷表示,各國法規已陸續進入實質課責階段,可信任AI治理不再是「是否要做」,而是「如何做對」的問題。然而,AI治理涉及模型、資料與環境三大層面,非單一機制可涵蓋,也無法一蹴可幾,須隨著對話拉長、任務複雜化與資料動態灌入,進行三層工程疊加,才能降低AI失控風險。
資策會MIC表示,隨著應用落地與法規推進,三層工程已非技術選項,而是成為企業標配。針對模型治理,須以「決策智慧」為核心,校準價值取向。當模型缺乏自我偵測機制,將可能於做判斷時發生系統性傾斜而未察覺,隨著模型被納入連續決策流程,個別模型合規不等同AI系統決策合規,因此治理單位須由模型提升至決策;資料治理須以「情境工程」錨定AI的事實認知邊界。
當情境資訊過時或不完整,模型將對不確定的事實輸出自信回應,歷史資料合規並不等同當下情境合規,因此治理對象須由資料提升至情境;環境治理須以「駕馭工程」約束AI Agent的行為權限。資策會MIC指出,當AI Agent在高資訊密度、長程任務中運作時,設計初始的安全邊界並不等同運行時的實際行為,因此治理焦點須由指令層提升至架構層,使每一次AI Agent行動皆可被追蹤、攔截與終止。
2026年初臺灣AI基本法已啟動,將有2年過渡期讓企業布局治理能力。郭唐帷表示,治理資源有限的企業,應先辨識自身AI應用類型與關鍵瓶頸,再投入對應資源。此外,同一AI系統往往同時面臨多重風險屬性,企業須辨識各風險樣態,組合搭配對應機制,例如:對於變化緩慢、事後可回溯的風險,以稽核型治理定期審視修正;對於變化快速但尚可攔截的風險,以監測型治理即時觀察介入;對於不可逆或影響重大的風險,以約束型治理,在設計階段預先寫入行為邊界。
資策會MIC表示,「由AI即時監督AI」正在成為AI治理的新機制。過去可信任AI治理主要聚焦於法遵與第三方認證,由企業產出人類可讀的合規文件以回應外部規範。隨著AI Agent能在毫秒內自主完成決策與行動,人類審查週期已難跟上AI速度,因此,產業發展逐漸轉變為把治理邏輯內嵌於AI系統本身,確保每一次運算皆能自我校準,滿足可信任原則,此轉變也將使人類治理能力的定位從執行者轉為授權者與稽核者。