“加強人工智能治理規則的全球協作日益成為各方共識。”張欣說,人工智能技術的突破式發展導致新舊風險叠加,影響社會倫理秩序,帶來了一系列安全和倫理挑戰。例如,生成式人工智能的發展既導致傳統技術風險加劇,又帶來了一系列新興風險。尤其在人工智能研發和應用環節對個人隱私和數據安全帶來了數據洩露、數據濫用、侵犯個人隱私等隱患。而與傳統技術風險有所不同,人工智能技術風險具有隱蔽性、跨域性、全球性、長期性,需要從國際層面展開持續性、系統性和協同性的治理努力。此外,由於人工智能的技術迭代以日為單位,若不在早期實施有效的介入治理,則可能出現後期風險難以控制的治理困境。各國雖在人工智能治理思路和具體方案上存在差異,但從數據安全和個人隱私保護的視角對人工智能訓練環節施加規制和約束已成為共識。
“全球人工智能治理還呈現‘法治化’特徵,從早期以科技倫理、技術標準、自律承諾等為代表的軟法治理,逐步轉向一種更為成熟的‘軟法與硬法雙軌並行、剛柔並濟’的新型治理模式。”張欣說,各國雖就人工智能治理提出了多元化的治理理念和治理路徑,但通過法治化道路為人工智能治理提供“制度圍欄”已在國際層面形成廣泛共識。中國推出了《科技倫理審查辦法(試行)》和《生成式人工智能服務管理暫行辦法》,提出了人工智能治理的中國方案。《全球人工智能治理倡議》中關於逐步建立健全人工智能領域的法律和規章制度的提議,不僅是為國際社會貢獻中國智慧和中國經驗的重要舉措,也是中國在推動全球人工智能治理法治化進程中扮演關鍵角色的重要體現。
各國需在形成充分共識基礎上通力協作
由於技術發展水平和文化背景差異,各國對人工智能風險的感知也顯著不同。斯坦福大學人工智能研究所發布的《2023年人工智能指數報告》引用調查機構易普索(IPSOS)2022年的調查指出,部分發展中國家對人工智能普遍更加樂觀。如78%的中國受訪者同意“使用人工智能產品和服務的好處多於壞處”的觀點,76%的沙特阿拉伯受訪者和71%的印度受訪者認為人工智能產品“利大於弊”。德國、荷蘭、澳大利亞、比利時和加拿大等一些發達國家對人工智能產品和服務的評價則稍顯負面。
“當前,全球人工智能治理面臨不少挑戰。”姚旭說,一是一些國家將人工智能等科技領域安全泛化,在合作當中設置了諸多藩籬。二是人工智能全球治理的總體架構尚不明確。各個層面建立何種機制更為有效尚未明確,全球範圍內人工智能治理的制度競爭正變得愈發激烈。三是人工智能全球治理的思路尚未統一,具體的治理方案和標準上還有很多爭論,例如如何進行人工智能安全分級標準界定,如何確立重點治理的人工智能風險類別,如何將立法節奏和創新動力進行適配等。
張欣表示,現階段,全球人工智能發展面臨的監管挑戰集中體現在5個方面:一是步伐困境。人工智能監管框架發展跟不上技術發展迭代的速度。二是技術鴻溝。人工智能模型越來越複雜,參數量越來越大,這導致原來構建的基於透明度的人工智能治理框架應對乏力。三是資本逐利。人工智能發展過程中資本的逐利可能導致技術異化。四是歸責框架仍不清晰,對人工智能產生的風險和損害如何有效歸責仍然是一項亟待解決的問題。五是協作治理機制尚不健全。由於人工智能帶來的很多風險具有全球性,各國需要在形成充分共識的基礎上通力協作。但目前的人工智能全球治理格局初步形成,仍然有碎片化特徵,需要採取更多措施構建共建共治共享的全球治理機制。
《人工智能全球治理上海宣言》提出,倡導開放與共享的精神,推動全球人工智能研究資源的交流與合作。建立合作平台,促進技術轉移與成果轉化,推動人工智能基礎設施公平分配,避免技術壁壘,共同提升全球人工智能的發展水平;倡導建立全球範圍內的人工智能治理機制,支持聯合國發揮主渠道作用,歡迎加強南北合作和南南合作,提升發展中國家的代表性和發言權;鼓勵國際組織、企業、研究機構、社會組織和個人等多元主體積極發揮與自身角色相匹配的作用,參與人工智能治理體系的構建和實施。 |