】 【打 印】 
【 第1頁 第2頁 】 
如果AI作惡一定是人在作惡
http://www.CRNTT.tw   2018-11-12 11:52:38
 

  他強調“物競天擇,適者生存”:“我們應該擁抱變化,積極適應AI的快速發展。”

  北京大學法學院教授、互聯網法律中心主任張平教授從法律角度分享了自己對AI作惡的認識。她認為“AI作惡的實質是人類在作惡”。張平教授在發言中談道,AI的本質是人類的工具,而法律對人類利用工具作惡的規制主要是從技術、產品以及人機混合體(新生命)三個方面進行。

  她分析,從現有法律看,AI作惡可分為“大惡”與“小惡”。“大惡”是達到了人類無法控制的頂級作惡,例如“反人類罪”,按照現行人類法律對於反人類行為當必除之;“小惡”的基本特征是將AI作為人類的工具用來作惡,包括大數據的濫用等。

  張平提出,要想制止AI作惡,應當從人類開始。不過,她認為真正令人恐懼的是作惡的“人機混合體”。一些具有強大功能的“人機混合體”將更多享受地球以及宇宙的資源,而其他自然人將處於弱勢,從而成為“被作惡對象”。

  那麼在AI研發的規制上只可能從善良的角度盡可能做道德約束,但絕無法阻止人類中的“惡人”行為。大惡只能由人類命運決定,就像核武器一樣,全人類惡之。張平教授還給出了AI應當遵循的基本原則,即有益目的原則、安全性原則、價值歸屬原則和非顛覆原則等。

  參會者在討論中闡述了各自的觀點。現在有很多利用AI作惡的現象,比如人工智能武器、大數據濫用、隱私侵犯等;AI本身是一種工具,有脆弱性,即容易被不法分子利用;無論是多先進的技術,總會首先應用於作戰,這是不可避免的。

  在防止AI作惡方面,專家學者們也給出了自己的意見。不過,大家認為防止AI作惡的難度很大,因為AI的發展太過於迅速,進化很快,並且其有分散性和低門檻的特點,很難防止。

  因此,應該設立倫理委員會,對AI的研究進行審查,可以考慮設立AI的研究禁區,從危害性和應用領域對AI進行分級,防止別有用心的人控制AI。

  (來源:中青在線)


 【 第1頁 第2頁 】


          
】 【打 印】 【評 論

 相關新聞: