】 【打 印】 
誰為機器人承擔倫理與法律責任?
http://www.CRNTT.tw   2017-09-22 14:58:56
  中評社北京9月22日電/《火魔戰車》(Maximum Overdrive)作為有史以來最大爛片之一被載入影史。這部1986年的科幻恐怖喜劇片想象了這樣一個世界:推土機、鏈鋸和電吹風機等無生命的物體活了過來,並且開始屠殺人類。就連擔任該片編劇和導演的暢銷書作家斯蒂芬•金(Stephen King)都說該片是一部“愚蠢的電影”。

  但在這部電影拍攝期間,酷似電影劇情的一幕在現實中悲劇性地上演,一台無線電控制的割草機闖入攝影棚,導致攝影導演重傷,一只眼睛失明。他將金和其他17人告上法庭,以不安全的工作方式為由,索賠1800萬美元,最終雙方達成了庭外和解。

  從某些方面來說,這部電影的拍攝經歷在一定程度上牽涉到了當下有關自動化、機器人和人工智能(AI)的熱門辯論。雖然我們似乎對這類技術在遙遠的未來可能給人類帶來生存威脅感到恐慌,但我們有可能忽視了一個更加迫在眼前的問題:如何管理我們創造的機器?

  誰應該為日益普及的機器人的行為承擔道德、倫理和法律責任?廠商、程序員還是用戶?從更長期來看,當機器人獲得了更強的認知能力乃至有了意識,是否該由機器人自身來承擔責任?
   
  三個場景:出了這些問題會有什麼結果?

  1.當聊天機器人出現反常行為

  問題
  去年3月,微軟(Microsoft)被迫從Twitter下線其AI聊天機器人Tay,此前Tay因為在線用戶的惡作劇而在Twitter上發出種族主義、性別歧視和仇外言論。今年8月,兩個中國聊天機器人也離經叛道,對用戶提出的有關南中國海和共產黨的問題給出了反愛國主義的回答。

  結果
  考慮到有關假新聞的爭議,人們不確定是否應該禁止AI聊天機器人傳播政治觀點。一些專家主張,聊天機器人的所有者應該享有言論自由,只要他們為誹謗言論承擔法律責任。
————

  澳大利亞新南威爾士大學(University of New South Wales)從事AI研究的托比•沃爾什教授(Toby Walsh)在即將出版的新書《機器人之夢》(Android Dreams)中主張,開發思維機器就像人類過去嘗試的種種冒險一樣大膽和雄心勃勃。“就像哥白尼(Copernican)的日心說革命一樣,這將從根本上改變我們在宇宙中看待自身的方式,”他寫道。
  ***

  無人機、無人駕駛汽車,以及醫療、教育和家用機器人的數量正在爆炸性增長,在我們的天空、街道和家中嗖嗖地游移,這使這類問題變得更加緊迫。儘管機器人革命有望改善人類的生活狀況,但也有可能釋放出顛覆性的經濟力量。

  華盛頓大學(University of Washington)的法學教授瑞恩•卡洛(Ryan Calo)表示,我們傾向於把機器人當做一種未來技術來討論,卻忽視了我們已經與它們共存幾十年的事實。
“如果你在上世紀20年代、40年代、80年代乃至2017年設想未來,你都會想到機器人。但事實上,自上世紀50年代以後,機器人就存在於我們的社會中了,”他說。

  在一篇標題為《美國法律中的機器人》(Robots in American Law)的論文中,卡洛研究了過去60年涉及機器人的九宗法律案件,發現大多數司法推理都建立在對科技貧乏(而且往往過時)的理解上。“機器人讓法院面臨獨特的法律挑戰,法官們還沒有做好應對的準備,”他總結道。

  這些案件大多圍繞著一個問題:機器人能否被視為替代人的角色的主體?比如,在徵收進口關稅的問題上,它們是否應被視為是“有生命的”?它們能否在音樂廳以藝人的身份“表演”?無人機器人潛艇能否“占有”一艘沉船,從而爭取打撈權?

  卡洛發現,法官們有一種很強的思維模式,傾向於將機器人視為可編程的工具或者不能自己做出決定的機器。但隨著機器擁有了具體形態(有時候是人形),呈現出機器人研究者所稱的“突現行為”(emergent behaviour),這種觀點看起來日漸陳舊。

  “突現是機器人以系統無法預測的方式行動的特質,”卡洛說,“這不是哲學意義上的自主。但這使沒有肇事者的受害者成為可能。”

  比如,一些高速交易算法正從金融市場的模式中“學習”,並以算法編制者無法預測、甚至可能無法理解的方式進行回應。研究人員正在研發這樣的無人駕駛車輛,讓它們能夠對各種狀況做出實時反應(希望如此),而不是通過預編程來預測每一種路況。

  2.機器的發現

  問題
  1857年“中美洲號”(S.S. Central America)在大西洋沉沒,船上載著從加利福尼亞州淘來的黃金。1987年,一艘無人潛艇幫助發現了這條海底沉船。該無人潛艇的運營者主張,根據海商法他們享有優先打撈權,他們的無人潛航器已經幫助他們實現“獨家保管、控制和占有這條沉船。”

  結果
  法院裁定這些打撈者確實做到了“遠程占有”,理由是他們找到了沉船位置,提供了實時影像,能夠在現場操縱物體,並有意識地實施了控制。一位海事律師表示:“這幾乎相當於法庭創造了一條新的法律依據,不用實際占有就可以證實為占有。”

  ————
  最近,116名來自機器人和AI公司的創始人簽署了一份請願書,呼籲徹底禁止殺手機器人,即“致命自主武器系統”(Laws)。他們稱使用這種武器系統越過了道德紅線。殺死人類的只能是人類。

  位於安大略的Clearpath Robotics的創始人瑞恩•加裡皮(Ryan Gariepy)表示:“我們不應忽視一個事實,即與其他仍只出現在科幻小說中的潛在AI技術不同,自主武器系統就要開發出來了。發展致命自主武器系統是不明智、不道德的,應該在全世界被禁止。”

  然而,在這個快速發展的世界中,想在人類與機器人之間畫出清晰的界線是很困難的。最新的技術正在模糊人與物之間的界限,讓機器人起到代理作用——即使算不上扮演代理人的角色。雖然今天的機器人還無法通過犯罪意圖的法律測試,但以一個外行人對這一術語的感覺,它們似乎仍應對其行為“負責”。

  ***
  機器人技術的第二大進展是讓AI具有機器外觀,有時還設計成人形,旨在與人類進行直接接觸,這一進展讓人與機器人的界線變得更加模糊了。

  卡內基梅隆大學(Carnegie Mellon University)機器人研究所助理教授亨尼•阿德莫尼(Henny Admoni)表示,以往大多數機器人都獨立於人類作業,主要在工業環境中從事一些枯燥、肮臟和危險的工作。但隨著聊天機器人、無人機和家用機器人的到來,上述情況正在迅速改變。

  她說:“過去10年裡我們看到被設計為與人類直接接觸的機器人的興起。”

  3.如果自動駕駛汽車出車禍,責任在誰?

  問題
  去年5月,一輛半自動特斯拉(Tesla)的司機在佛羅里達州喪生,原因是汽車的自動駕駛系統在光天化日之下沒有發現一輛卡車。該事故提出了一個問題:就算人類能在緊急情況下收回控制權,允許部分自動的汽車在公共道路上行駛究竟是否安全?

  結果
  美國國家公路交通安全管理局(National Highway Traffic Safety Administration)進行了為期六個月的調查,結論是沒有足夠的技術故障證據證明應該大量召回該款車。不過該部門補充說特斯拉應該加強對司機關於特斯拉局限性的培訓。NHTSA表示:“把它印在用戶手册中,希望司機去閱讀並遵守是不夠的。”

  ————
  這推動了一個快速發展的學術領域,即人機交互領域。大學和企業的機器人部門一直在聘請社會學家、人類學家、律師、哲學家和倫理學家,集思廣益,研究此類交互功能應如何發展。
阿德莫尼說:“從法律和道德的角度來說,機器人是由人類編程並由人類設計的機器。但我們希望機器人能自主行動。我們確實想製造出能夠處理新情況的機器人。在圍繞機器人的辯論中,倫理是新近才增加的一個元素,因為機器人現在可以獨立做事。”

  總部位於香港的Hanson Robotics的創始人大衛•漢森(David Hanson)已經製造了一些極為引人注目的類人機器人。他最出名的作品是今年4月在吉米•法倫(Jimmy Fallon)主持的《今夜秀》(The Tonight Show)上亮相的索菲亞(Sophia),一個逼真到讓人毛骨悚然的機器人。

  漢森表示得益於自然語言處理技術,AI系統在理解語言交流方面越來越好。但他認為機器人還應該學習非語言的交流方式,如面部表情和手勢。我們還需要它們理解人類的行為、文化和價值觀。而最好的方法就是讓機器人像嬰兒一樣,通過與人類生活在一起、和人類互動來學習。

  漢森表示通過開發“仿生智能算法”,並讓它們借助高級的傳感器吸收豐富的社會數據,我們可以創造出更智能、反應更快的機器人。而這會不可避免地讓這項技術變得“真正的充滿生氣、自給自足、有突現行為、有感覺、有意識。”

  他還說:“我想讓機器人學會愛,懂得被愛的意義,而且不只是狹義上的愛。是的,我們想要機器人能理解友情和親情,理解這種情感牽絆。”

  “但我們也希望機器人擁有大愛,希臘語‘agape’那種愛,也就是更高層次的愛。我們還希望它們學會重視信息、社會關係、人性。”

  漢森認為當機器開始理解其行為後果,並為其日常挑戰創造解決方案時,深刻的轉變就指日可待了。“當機器能夠這樣思考的時候,它們就能夠開始做出具有道德想象力的行為。雖說只是推測,但我相信在我們有生之年這一幕會到來。”

  如果這樣的“道德機器”真能造出來,那麼就會產生一大堆新的問題和挑戰。機器人或其所有者是否對其數據擁有權利?可以認為機器人將擁有它們自己的合法身份嗎?是否像漢森所說,它們甚至能爭取權利?

  ***
  在有關機器人的辯論中,漢森的觀點只能算是邊緣思想,在今天看來顯得荒誕離奇,但我們有充分的理由開始關注這些問題。出於各種法律原因,所有美國公司和印度一些神聖的河流已被賦予人格地位。英國也為一種無脊椎動物——章魚——提供了額外的法律保護,因為它具有較高的感覺形式。未來的機器人也會受到如此不同的對待嗎?

  倫敦帝國理工學院(Imperial College)認知機器人學教授、谷歌(Google)DeepMind高級研究員穆雷•沙納汗(Murray Shanahan)表示,到了現在,我們應該對我們創造的一些機器負起責任,就像我們要對那些偉大的藝術作品負責。

  他說:“我們有道德責任不能破壞《蒙娜麗莎》,因為它是一件非凡的藝術品,對史料、對人們寄托了強烈情感的任何物品也是如此。”

  但他認為將智能系統人格化會有很大危險,如果這導致人們對基礎技術的誤讀和曲解的話。製造商不應試圖欺騙用戶相信機器人的能力超乎它們所具備的。他說:“人們不應受蒙騙以為機器人比它們實際上更聰明。”

  沙納汗認為在確定我們對機器的責任方面,區分認知和意識至關重要。“目前我認為談論機器人的權利是完全不合適的。我們在這方面沒有任何道德責任。但我不是說這永遠不合適。

  “我同意機器人或許有一天會有意識。但它們首先必須要有玩耍、製造東西,以及從架子上的罐子裡拿一片巧克力餅幹的能力。”

  目前幾乎沒有政治家對這一話題表現出興趣,但學術界和企業家發起的草根運動正將這些問題推上議事日程。

  在美國,卡洛等學者一直呼籲成立一個“聯邦機器人委員會”,以研究關於智能機器應用的道德和法律問題。卡洛表示這個想法開始在國會——即使不是在特朗普政府——引起一些有限的興趣。
  
  今年歐洲議會成員通過了一項決議,呼籲歐盟委員會成立一個類似的由機器人與AI專家組成的機構,並制定全歐盟範圍通用的規則。特別是議員們還敦促歐盟委員會重點關注安全和隱私問題,以及考慮賦予機器人一種“電子人格”。

  一些有影響的美國企業家似乎也打算發起討論。特斯拉和SpaceX背後的科技創業者埃隆•馬斯克(Elon Musk)近日就呼籲要實施更廣泛的監管,他也支持禁止致命自主武器系統。

  他在推文上寫道:“沒有人喜歡受到監管,但一切會給公眾帶來危險的事物(汽車、飛機、食品、藥物等)都是受到監管的。AI也應如此。”(來源:FT中文網)

          
】 【打 印】 【評 論

 相關新聞: