義大利智庫評論人工智慧發展及歐盟《人工智慧法案》
羅馬第三大學政治經濟學教授兼智庫「競爭力研究所」(I-Com)所長,並受企業暨義大利製造部委任,協助編寫義大利人工智慧策略所成立之專家小組成員之一Stefano Da Empoli在接受有關人工智慧發展議題的訪問時認為,生成式人工智慧,包括具有自我調整功能的適應性機器人技術、軟體開發及架構、採用速度等方面之優勢均可極大促進B2B發展,但歐盟卻選擇採取保守政策,此舉將造成各國投資協調阻礙,特別是針對生成式人工智慧進行投資協調的可能性在萌芽階段即已被壓制,恐進一步擴大與美中兩國間難以彌補之發展差距。
Da Empoli教授表示,生成式人工智慧係藉由使用先進的演算法及機器學習所獲數據後,能夠自主創造新內容的人工智慧,換言之,可自主生成圖像、文本、聲音或其他類型之數據,且無需專門製作程式編碼以生成預先確定之結果。目前最廣為人知的模型為ChatGpt,其他還有Google Bard、Microsoft Bing Chat、Sage、Jasper.ai、Claude、NeevaAI、Perplexity AI等模型。由於此項技術可影響一系列關鍵功能,將可在製造業發揮重要作用,包括通訊流程自動化、先進技術支援、軟體及架構開發、優化供應鏈(例如透過監控庫存)、研發(透過分析大量數據)、問題偵測與解決(透過問題報告分析),以及智慧型使用者介面,因此可在機器人技術中應用生成式人工智慧,並在未來更完善的技術及應用下,最終使機器人具備創造性的靈活度,可以針對具體挑戰去適應並解決問題。
此外,製造業當然同樣存在如資安問題等風險,使用合成資料(synthetic data)可能會對隱私保護及匿名帶來挑戰;人工智慧模型可能會在訓練過程中無意間學習到敏感資訊,進而破壞隱私保護,並引發攻擊者利用人工智慧生成技術開發先進網路釣魚技術、社交工程及其他類型之攻擊方式,例如產出看似來自可信賴來源之假冒電郵,鑑此,將須考慮智慧財產權問題。另生成式人工智慧模型通常需要大量資料進行訓練,因此保護這些資料以避免侵犯智慧財產權或被第三方濫用係十分重要,此亦可能涉及保密及資料管理政策等問題。對於製造業來說,不可忽視用於訓練模型生成之資料品質,倘若訓練資料包含錯誤、偏差或扭曲現實等資訊,將會對產生資料之品質產生負面影響。此外,根據訓練資料的數量及品質,產生模型可能會出現過適(overfitting)或乏適(underfitting)之問題,將影響模型產生可靠數據之能力;另若生成式人工智慧模型接觸到包含錯誤訊息的訓練數據,將可能反映在資訊產出即導致錯誤,對企業造成經濟損失,因此不應低估此類問題。但此類問題並不表示企業就不應使用ChatGpt或類似產品,反之,代表企業須具備驗證資訊準確性之能力,須持續落實監控及評估流程,以確保長期產生之數據可靠且準確。機器模型更新及持續改進對於減少潛在問題相當重要,因此至少目前為止,人力監督是無法被取代的。
對於歐盟所制定之《人工智慧法案》(AI Act),Da Empoli教授回顧在2018年4月,由前任執委會主席Juncker提出《歐洲人工智慧發展策略》(European AI Strategy),其中包括規範及投資兩大發展支柱,又再於2020年由現任主席馮德萊恩首次發布了《人工智慧白皮書》(White Paper on Artificial Intelligence),將其創建在兩個待加強之生態系統之上,即信任生態系統(An Ecosystem of Trust)(即規範)及卓越生態系統(An Ecosystem of Excellence)(即創新及競爭力)。鑑於歐盟最擅長之能力為監管及規範,於前者(規範),歐盟以《人工智慧法案》(AI Act)已取得很大進展,但對於後者(創新及競爭),至少相對於美國和中國,歐洲仍處於落後,旨在縮小美中發展差距的投資進展亦不順利,歐盟想法係結合公共及私人部門,但在2018年至2020年間初步推動後即呈空轉,歐盟各國各自為政,投資協調的可能性已在萌芽期即被扼殺。目前顯然應該反其道而行,應共同建立一個公私合營體系,重視發展卓越中心(Excellence Centre),歐盟會員國共同合作,無私發展最具潛力之中心。此外,亦須檢討歐洲的地區性招標投資方式,特別是在生產及開發方面,不應將資金分散,群聚效應更為關鍵,須將雄厚的資金及優秀的人力資源等因素集中在一起才能產生重大影響。
歐洲理事會及歐洲議會歐盟在經過漫長談判,於2023年12月中旬就《人工智慧法案》達成初步臨時協議,奠定歐盟協調監管人工智慧(含生成式)的法律基礎。該法希望在事先評估不同用途的相關風險基礎上,針對用途別而非按技術別進行監管,並將風險分級為四類:過高(因此被禁止)、高、有限、低或無風險。 因此,除特定情況及嚴格程序外,禁止使用生物辨識技術,亦禁止使用人工智慧對人進行分類;使用演算法預測犯罪可能性、犯罪者及犯罪地點的預示治安應用亦被禁止。生成式人工智慧系統將根據用於訓練模型的計算量進行分類,若被視為具有「高影響力能力」(設置計算能力閾值大於或等於10^25 FLOPs),則在進入市場之前,必須遵守有關網路安全、培訓過程透明度及共享技術文件之嚴格規定。就低影響力能力之人工智慧而言,《人工智慧法案》只有在開發商將其產品推出市場時才開始具備強制性。針對違反禁止之AI應用,最嚴重違規行為可能會被處以高達3500萬歐元或全球年營業額7%之罰款。(資料來源:經濟部國際貿易署)