陸發布AI倫理審查新規,鎖定人機融合等三大領域

2026/04/08 13:10

MoneyDJ新聞 2026-04-08 13:10:31 新聞中心 發佈

綜合陸媒報導,中國工信部等十部門聯合發布《人工智慧(AI)科技倫理審查與服務辦法(試行)》,提出建立和完善AI科技倫理標準體系,支持AI科技倫理審查技術創新,強化以技術手段防範AI科技倫理風險。專家表示,這標誌著中國AI倫理治理從原則宣導邁向制度化、規範化、可操作的新階段,為推動AI健康發展提供了重要制度遵循。

 

《辦法》附件中列出了三個領域需要展開科技倫理專家覆核,這些領域既是展開AI領域科技倫理審查的重點,亦是防範AI科技倫理缺失的關鍵所在。一是要對有關人類主觀行為、心理情緒和生命健康等具有較強影響的人機融合系統的研發進行嚴格覆核;二是要對具有輿論社會動員能力和社會意識引導能力的演算法模型、應用程式及系統的研發進行嚴格覆核;三是要對具有高度自主能力的自動化決策系統研發進行嚴格覆核。

 

《辦法》對AI科技倫理審查的適用範圍、服務促進、實施實體、工作程序、監督管理等作出規定,並結合AI科技活動特點,明確了申請與受理、一般程序、簡易程序、專家覆核程序、應急程序等不同程序要求,有效規範AI科技活動倫理治理。

 

《辦法》提出,展開AI科技倫理審查,重點關注人類福祉、公平公正、可控可信、透明可解釋、責任可追溯、隱私保護等6個方面,包括訓練數據的選擇標準,演算法、模型、系統的設計是否合理;是否採取措施防止偏見歧視、演算法壓榨,保障資源配置、機會獲取、決策過程的客觀性與包容性;是否合理披露演算法、模型、系統的用途、運行邏輯、互動方式說明、潛在風險等資訊等。

 

中國工信領域科技倫理專家委員會主任委員魏一鳴表示,此次《辦法》是中國國家科技倫理治理體系在AI領域的落實,是中國科技倫理制度鏈的重要延伸與細化完善;立足AI技術演進快、跨界融合深等特點,在通用審查規則基礎上實現領域化、精細化適配,填補了AI科技倫理審查的制度空白。

 

為推進AI科技倫理服務體系建設,《辦法》從標準建設、服務體系、鼓勵創新、宣傳教育、人才培養五個方面制定支持舉措,幫助企業切實提升科技倫理風險防控能力。其中提出,強化AI科技倫理風險監測預警、檢測評估、認證、諮詢等服務供給;促進AI科技倫理審查高品質資料集有序開源開放,加強通用性風險管理、評估審計工具研發,探索基於應用場景的科技倫理風險評估評測等。

個股K線圖-
熱門推薦