|
未來人工智能治理須回歸到全球合作的正確軌道上,以應對跨境風險。(圖片來源:大公報) |
中評社北京9月5日電/大公報9月5日發表清華大學蘇世民書院院長、中國科技政策研究中心主任薛瀾評論文章。人工智能治理是實現人工智能健康、有序、可持續發展過程中不可或缺的制度性支撐。當前,如何在推動人工智能技術創新的同時建立科學有效的治理機制,已成為技術政策研究與實踐的重要議題。
在現實語境中,人工智能治理(AI Governance)存在一定程度的認知誤區。一種較為典型的觀點認為,人工智能的發展和應用仍在初始階段,此時提出治理問題可能會過早地對技術創新形成不必要的束縛。
本質上說,上述看法一方面低估了人工智能技術給社會可能帶來的風險,另一方面也低估了治理機制在引導和塑造技術發展過程中可以起到的關鍵作用。事實上,治理並非創新的對立面,而是實現人工智能健康、有序、可持續發展過程中不可或缺的制度性支撐。
值得關注的是,人工智能在人類認知領域的進展速度令人驚嘆。在數學奧林匹克競賽題目測試中,人工智能模型已逐步具備解決複雜題目的能力,部分模型在解題準確率上甚至超越了人類參與者的平均水平。這種技術的躍升,不僅增強了人們對通用人工智能(AGI)可行性的預期,也加強了社會各界在應對人工智能發展時加強治理的緊迫感。
治理框架的三個維度
人工智能治理是多維度、多工具、多主體參與的動態系統性過程。目的不僅在於防範潛在風險,更在於塑造人工智能的發展方向與應用邊界,使技術進步與社會價值相協調。
治理既包括倫理與原則的制定,也包括政策激勵與市場規制,還涉及標準建設與國際協調。可以說,人工智能治理是規範、引導、協調人工智能發展的制度總和。目前較為通行的人工智能治理框架,通常可以分為三個層次:
|