聚焦安全可靠可控性建設
大模型帶來的種種風險,對監管方、學術界、產業界是全新且不可迴避的問題。
近年來,《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》《科技倫理審查辦法(試行)》等政策法規相繼發布,搭建起我國人工智能治理的基本框架。一系列政策法規堅持發展與安全並重原則,強化科技倫理風險防控,從技術發展與治理、服務規範、監督檢查與法律責任等層面對大模型安全發展提出要求。
白皮書提出,構建大模型安全政府監管、生態培育、企業自律、人才培養、測試驗證“五維一體”的治理框架。
在監管方面,常永波介紹,敏捷治理正成為一種新型治理模式。該模式以柔韌、流動、靈活及自適應為特點,倡導多元利益相關者共同參與,能快速響應環境變化。在實施治理策略時,結合柔性倫理規範和硬性法律法規,構建完善的治理機制,在規制大模型風險的同時平衡創新與安全。
“為確保大模型在實際應用中發揮最大效能,防止潛在風險和濫用,大模型建設通常會聚焦三個重要維度:安全性、可靠性和可控性。”螞蟻集團安全實驗室首席科學家王維強解釋,安全性意味著確保模型在所有階段都受到保護,防止任何未經授權的訪問、修改或感染,保障人工智能系統無漏洞、免誘導;可靠性要求大模型在各種情境下都能持續提供準確、一致、真實的結果,這對於決策支持系統尤為重要;可控性關乎模型在提供結果和決策時能否讓人類瞭解和介入,以便人類根據需要進行調適和操作。
王維強特別提到時下備受關注的Agent(智能體)。他說,Agent是目前大模型落地的關鍵路徑,但複雜的Agent體系進一步擴大了大模型風險敞口。目前RAG(檢索增強生成)、指令遵循、知識圖譜嵌入等方法可有針對性地提升模型輸出的可控性和準確性。
|