在人工智能帶來的誘惑面前,有一批人始終保持著對人工智能的高度警惕。包括比爾·蓋茨、史蒂芬·霍金、馬斯克在內的很多人都對人工智能的發展提出了擔憂。未來,機器很可能將人類從勞動中解放,但也很可能出現人類的生存反過來遭到機器這個人類創造物的威脅,人類將面臨前所未有的變革,需要主動做出改變去迎接AI時代帶來的問題和挑戰。具體而言,主要有以下三個方面問題。
第一個問題就是精英結盟。具體而言就是資本精英和知識精英結盟,變成了“神人”,“二八定律”將被打破,世界將只有1%的“神人”和剩下99%的“閑人”,如果制度變革滯後,很可能造成富者巨富、貧者赤貧的嚴重兩極分化,帶來許多社會問題。
第二個問題是大量失業。過去的技術革命都有新的技術替代,比如英國的工業革命雖然被形容為“羊吃人”,但新的技術也造就了新的就業機會,失去土地的農民至少還能到城裡當紡織工人。而人工智能革命就不存在職業轉換了,所有工作都可以由機器人代替,人類徹底沒事可做。牛津大學的一份報告稱,到2033年,很多行業會徹底消失。
第三個問題是倫理問題。1956年,人工智能之父馬文·明斯基就提出了一個著名觀點:“人不過是肉做的機器,而鋼鐵做的機器有一天也會思考,人與機器的邊界將不複存在,未來世界將人機共存。”這個觀點一旦成為現實,一系列的倫理問題就會接踵而至。有自主意識的機器人完全符合生命的一切特征,它算不算一個新的生命物種?它能否被人格化?它有沒有隱私權等人權所對應的“機器人權”?人類可不可以傷害人格化的機器人?機器人犯罪怎麼處罰?比如無人駕駛汽車撞人了,應該由誰來承擔責任?由車主承擔?由安裝自駕系統的汽車製造商承擔?還是由編寫軟件的程序員承擔?又該如何實施懲罰?
以色列作家尤瓦爾·赫拉利在《人類簡史》中提出了一種生命的概念,即以能夠自行獨立演化的計算機程序為代表的無機生命。如果這一概念成真,那麼程序算是一個人嗎?如果我們删除了這個程序,算是謀殺嗎?我們還可以進一步假想,如果我們將自己的大腦整個備份到硬盤上,再用計算機來讀取運作,讓計算機像我們一樣去思考和感受,那樣的計算機是我們嗎?或者算是別人?如果備份了我們的大腦記憶的計算機控制了我們,到底算是我們的永生還是人類的滅亡呢?著名科技作家凱文·凱利寫過一本書叫《科技想要什麼》,提出一個觀點說科技其實是一種生命形態,它符合生命的一切特征,人類只不過是科技的父母,是它生命第一個階段的保育員,緊接著它會踏上自己的生命演化的進程,人類就再也控制不住科技了。
第四個問題是價值觀問題。人工智能時代,人都不一定再是真人了,還要不要追求真善美?真善美的外延和內涵是什麼?新的標準又是什麼?比如利用技術可以把人類大腦中痛苦的記憶删除,留下的都是美好的記憶,這是不是人類的自我欺騙?失去痛苦記憶的人又如何分得清好壞真假?
第五個問題是哲學問題。新陳代謝是自然規律,高度智能化的機器人提供服務,使人類不再需要靠結婚來繁衍後代,人類的正常延續將會中斷。同時,高度發達的醫學可以讓人長生不老,人若不死,生有何意義?總之,從哪兒來、到哪兒去的人類終極哲學命題將面臨挑戰,人們的思維方式需要重新調整。推演到地球生命的進化,人類是從原始的有機物到單細胞,再逐步到靈長類動物,並且發展出超越其他一切生物的智慧,這條進化路徑是唯一的嗎?AI告訴我們,如果有合適的條件,極有可能還會有其他生命的進化,並且產生不一樣的進化結果。這也說明人類離最頂級的生命形態和智慧還有很遠的距離,也很可能不是唯一可以進化到頂級形態的生命。
如何應對人工智能的崛起
著名科學家霍金曾表達對AI崛起的警惕和擔憂,他認為,各國應該共同採取行動,甚至組建“世界性政府”,監管和控制AI技術的無序而快速的擴張。2017年2月,歐洲議會就一項提案進行投票,提出要設計一套全面法律,界定人工智能帶來的責任和道德問題。關於機器人的定位問題,提案提出要把機器人定義為“電子人”,也就是說把這些機器當成某種特殊的人,而且建議新機器人要登記註冊。歐盟基本權利憲章裡的“人權、尊嚴、平等、知情權和隱私”等原則也將被考慮賦予機器人。在設計層面,提案提出兩點建議:一是設計者應該確保機器人有一個緊急切斷裝置,在必要的時候可以將其關閉。二是要確保機器人在使用時沒有風險,使用者不必擔心受到身體或心理上的傷害。在倫理層面,提案提出機器人不得用於武器和軍事用途,既要防止機器人傷害人類,也要防止機器人為它們主人的利益最大化而行事。提案還提到涉及人工智能破壞行為的保險問題,未來機器人的生產者和所有者需要為機器人可能造成的破壞性行為繳納保險。
牛津大學公共政策學者馬切伊·庫辛斯基認為,必須從制度設計上回應一個根本性的問題,是什麼讓人之所以為人?是對超高效率的追求,還是非理性、不完美和懷疑等等任何非生物實體的特質?只有回答了這些問題,才能在AI時代確定必須保護和維護哪些價值,從而確保更大的安全和公平。而創造更平等未來的關鍵之一是數據,人工智能的進步,依賴於對大量人類活動的在線和離線數據的獲取與分析。人類必須完全掌控自己創造的這些大數據,才能占據對人工智能的主動權。
AI技術是一把雙刃劍,人工智能可能在幾十年內超越人類,如果不為此做好準備,人類控制自己創造物的能力將受到挑戰,進而危及人類掌控自己的命運,甚至生存權利。我們看到了AI技術的風險,但不能就此因噎廢食,擱置這項技術的研究,更何況AI技術迅猛發展的趨勢已經是不可逆的,擋也擋不住的。AI時代,基因工程、再生醫學和納米科技等領域的科學技術將會進展飛快,除了醫治疾病,也能讓衰老的組織再生,人的壽命會趨向於無限延長。屆時我們對於生物人種的死亡,需要重新思考。
要解決這些諸多領域的問題就需要一大批有知識、有技術、有良知的社會學家、自然科學家、工程技術人員和政治家進行世界性的協作、協調和協商,用一套共用的語匯體系和一個共同的概念框架,從科學的視角找到平衡點,制訂出一系列能處理技術、治理和倫理之間相互關係的政策,如已經出現的“AI夥伴計畫”“AI道德規範與治理基金”等,都是可供參考的應對思路。在這一輪人工智能的變革中,中國和世界第一次站在同一個起點上,第一次平等地擁有了資本、公司、技術、人才等要素。人工智能的爭奪是未來世界最主要的爭奪,中國沒有任何的空間猶豫和後退,需要政府、企業、個人都參與到這個巨大的變化中,攜手引領人工智能革命。
(作者為國務院參事室特約研究員、中國農業經濟學會副會長)
|