資誠:僅20%受訪企業對AI應用具明確風險管理程序

2020/03/05 13:21

MoneyDJ新聞 2020-03-05 13:21:46 記者 新聞中心 報導

人工智慧(AI)可應用在各種領域,成為每一種新興科技的創新應用來源與計算技術基礎建設,可說是未來十年內最具破壞性的技術,也是最有價值的投資之一。不過,根據資誠PwC《2019全球企業AI診斷調查報告》,只有20%的受訪企業對於AI相關的應用與策略具備明確風險管理程序,藉以識別與AI相關的風險情境。相對地,逾60%企業則使用由開發商、供應商提供的非標準、非正式流程或非書面記載的風險管理程序。

資誠智能風險管理諮詢執行董事張晉瑞表示,根據麻省理工史隆管理學院在2019年發布的企業AI成熟度調查,高達80%企業對AI的各項技術研發仍處於探索與試驗階段,這表示基於風險的企業管理必須針對新興的AI數位科技風險有更詳盡、更完整的風險分析與風險評鑑方法,以及更標準的AI風險治理架構。他也指出,全球企業對AI如何衝擊就業、不平等、隱私、網路安全、道德、社會責任和環境發展的疑慮與時俱增。

有鑒於此,PwC針對新興的AI數位科技風險,提出詳盡、完整的風險分析、風險評鑑方法以及標準的AI風險治理架構。針對全球140個國家,研究各種AI相關產業做出分析,提出五大AI風險管理面向,包括績效風險管理、安全風險管理、控制風險管理、道德風險管理以及社會風險管理。

在AI績效風險上,提出四大風險情境分析,包含誤差風險、偏差風險、模糊風險及效能不穩風險,其中偏差風險為學習樣本偏失或不足,需透過AI系統的設計降低不必要的偏差,並盡力達成公平的決策;而針對AI安全風險有以下四大風險情境分析,包含對抗攻擊風險、網路入侵風險、隱私風險、開放原始碼軟體風險;其中,開放原始碼軟體風險指企業應有第三方軟體授權與管理機制,並需要符合各種國際標準規範。

此外,在AI控制風險方面,有三大風險情境分析,包含人員風險、能力風險及惡意使用風險,其中能力風險指無法針對演算法的限制,偵測出所產生的過度依賴與誤用情境流程瑕疵;而針對AI道德風險有二大風險情境分析,包括價值判斷風險、價值衡量風險;在AI社會風險上,提出三大風險情境分析,包含企業聲譽風險、自主武器擴散風險、智能分割風險,其中企業聲譽風險指企業針對AI技術的使用上,可能傷害人類生命與企業聲譽的風險容忍度。

張晉瑞建議,企業的AI策略基礎,有賴於完善的AI風險分析與管理,除上述五大風險管理面向、各種風險情境分析的考量,還需透過完善設計的組織架構、人力資源規劃、可靠的AI演算法、資料收集方法及數據分析方法,才能夠收集或產生適當資料與數據來訓練演算法,藉此推動數位轉型與企業再造,讓AI成為真正能帶動營收與獲利成長的科技,並且和其他現有或新興科技整合,為企業創造出更多價值,邁向永續發展的道路前進。

個股K線圖-
熱門推薦