】 【打 印】 
【 第1頁 第2頁 】 
媒體:不能賦予機器人殺人的權力 
http://www.CRNTT.tw   2016-05-12 18:25:20
  中評社香港5月12日電/想象一下這樣的未來場景:以美國為首的聯軍正在逼近敘利亞的拉卡(Raqqa),決心消滅“伊斯蘭國”(ISIS)。多國部隊出動一批致命的自主機器人,圍著城市四處飛行,追蹤敵人。

  利用面部識別技術,這些機器人識別和殺死ISIS的指揮官,斬落了這個組織的頭目。在聯軍和平民傷亡最少的情況下,瓦解了不知所措、士氣低落的ISIS部隊。

  有誰不認為這是很好地運用了技術呢?

  事實上,有很多人不這麼認為,包括人工智能領域的很多專家,他們最瞭解研發這種武器所需要的技術。

  去年7月,眾多人工智能研究人員發表了一封公開信,警告稱這種技術已經發展到一定程度,幾年以後——而無需幾十年——就有可能部署“致命自主武器系統”(Lethal Autonomous Weapons Systems,它還有一個不相稱的簡稱,Laws,意為“法律”)。不像核武器,這類系統可以以低廉成本大規模生產,成為“明天的卡拉什尼科夫步槍(Kalashnikov,即AK-47)”。

  “它們早晚會出現在黑市上,落入恐怖分子、希望更好地控制民眾的獨裁者和想要進行種族清洗的軍閥的手中,”他們表示,“在軍用人工智能領域開啟一場軍備競賽是一個壞主意,應該對超出人類有效控制的攻擊性自主武器施加禁令,以防止這樣的軍備競賽。”

  美國大體上已承諾放棄使用攻擊性自主武器。本月早些時候,聯合國(UN)在日內瓦舉行了有94個軍事強國參加的新一輪談判,旨在擬定一項限制此類武器使用的國際協定。

  主要論據是道德層面上的:賦予機器人殺人的代理權,將越過一條永遠不應被越過的紅線。

  因為開展反對地雷的運動而獲得諾貝爾和平獎的喬迪•威廉斯(Jody Williams)是“阻止殺手機器人運動”(Campaign To Stop Killer Robots)的發言人,他表示自主武器比核武器更可怕。“如果一些人認為把人類的生殺大權交給一台機器是可以的,人性又何以處之?”
 


【 第1頁 第2頁 】 


          
】 【打 印】 【評 論

 相關新聞: