中評社香港5月12日電/想象一下這樣的未來場景:以美國為首的聯軍正在逼近敘利亞的拉卡(Raqqa),決心消滅“伊斯蘭國”(ISIS)。多國部隊出動一批致命的自主機器人,圍著城市四處飛行,追蹤敵人。
利用面部識別技術,這些機器人識別和殺死ISIS的指揮官,斬落了這個組織的頭目。在聯軍和平民傷亡最少的情況下,瓦解了不知所措、士氣低落的ISIS部隊。
有誰不認為這是很好地運用了技術呢?
事實上,有很多人不這麼認為,包括人工智能領域的很多專家,他們最瞭解研發這種武器所需要的技術。
去年7月,眾多人工智能研究人員發表了一封公開信,警告稱這種技術已經發展到一定程度,幾年以後——而無需幾十年——就有可能部署“致命自主武器系統”(Lethal Autonomous Weapons Systems,它還有一個不相稱的簡稱,Laws,意為“法律”)。不像核武器,這類系統可以以低廉成本大規模生產,成為“明天的卡拉什尼科夫步槍(Kalashnikov,即AK-47)”。
“它們早晚會出現在黑市上,落入恐怖分子、希望更好地控制民眾的獨裁者和想要進行種族清洗的軍閥的手中,”他們表示,“在軍用人工智能領域開啟一場軍備競賽是一個壞主意,應該對超出人類有效控制的攻擊性自主武器施加禁令,以防止這樣的軍備競賽。”
美國大體上已承諾放棄使用攻擊性自主武器。本月早些時候,聯合國(UN)在日內瓦舉行了有94個軍事強國參加的新一輪談判,旨在擬定一項限制此類武器使用的國際協定。
主要論據是道德層面上的:賦予機器人殺人的代理權,將越過一條永遠不應被越過的紅線。
因為開展反對地雷的運動而獲得諾貝爾和平獎的喬迪•威廉斯(Jody Williams)是“阻止殺手機器人運動”(Campaign To Stop Killer Robots)的發言人,他表示自主武器比核武器更可怕。“如果一些人認為把人類的生殺大權交給一台機器是可以的,人性又何以處之?”
|