人工智能全球格局:未來趨勢與中國位勢(6k字)


人工智能全球格局:未來趨勢與中國位勢(6k字)

人工智能是一個需要持續積累和技術迭代的過程,註定是一件漫長的事。各科技巨頭和創業公司在人工智能領域的不同應用場景中深耕,探索出了不同的發展路徑。中科院自動化所曾毅博士認為,當前基於數據的人工智能與生物智能有著本質的區別,未來人工智能的發展方向將是“基於機制的人工智能”,也就是探尋生物智能的本質——理解人腦是如何協調數百項認知功能去解決沒見過的問題的,基於此,實現機器的擬人化和人類認知的機械化兩個方向的逼近,發展出具有意識的超級智能生命體。

本文摘自《人工智能全球格局》,該書得到倪光南、鄔賀銓兩位院士的共同推薦,得到百度CTO王海峰博士盛讚。這到底是一本怎樣的書,能同時得到兩位院士的推薦?這本書由國務院發展研究中心國際技術經濟研究所、中國電子學會、智慧芽共同撰寫,是一本通俗易懂的人工智能科普讀物,從源頭上思考人工智能的本質和發展歷程,全面解讀各國政府、科技巨頭的人工智能佈局,理性思考、審慎看待我國的人工智能科技和產業實力,講述了以科技創新領跑世界的中國故事。讓我們先從曾毅博士的這篇文章中一睹為快。

智能數據分析與真正意義的人工智能存在本質區別

關於媒體上流行的產業驅動的人工智能故事,大家都聽過非常多了,我對它的總結是:當前幾乎所有這些工作,準確地說叫作基於數據的人工智能(databased artificial intelligence),簡稱數據智能。因為,這些工作是基於大規模數據,找到一個合適的數學函數來擬合數據,產生擬定的預期。如AlphaGo,如果反問:通過AlphaGo一系列的工作,我們對人類的決策機制有了哪些新的認識?其實是幾乎沒有的。因此,基於數據構建的看似智能的模型,其實質只是信息處理,是大規模的數據分析,與“智能”的本質無關。

但是,我相信未來的人工智能是向機制智能發展的。我們稱之為“基於機制的人工智能”(mechanismbased artificial intelligence)。也就是說,我們真正需要追尋的是生物智能的本質。對於任意一項認知功能,包括對人腦如何去協調數百項的認知功能去解決沒見過的問題的探索,都是在回答它的科學本質是什麼。

人工智能研究從開始至今不過短短几十年,而真正人類的智能已經經過了數億年的演化,在演化過程中通過基因突變等獲得了不同的嘗試,生成了不同物種的腦。為什麼數億年的演化,把人腦塑造成這樣,而不是果蠅或者小鼠的樣子?人腦又有什麼樣的優勢?我們做的工作是從不同類型物種的大腦的建模開始,從中抽象出認知結構與機理,然後應用到機器智能當中去。

數億年的演化使得人類大腦把人體系統的結構和機制有機地組合起來,使得人體系統表現出更好的魯棒性和抗噪能力。在目前最理想的狀況下,深度學習系統在有足夠多的數據訓練,並且測試數據與訓練數據都理想的狀況下,能夠獲得與人類大腦同等水平的魯棒性和抗噪能力。但是,在任何客觀的現實世界中,理想的狀態都不存在。腦結構與機制的結合使得高度魯棒性和抗噪性可以從我們構建的類腦模型中湧現出來,這並非特定的函數設計所能實現的。

人類顯然有很強的決策能力。人的決策是通過若干腦區的協同來實現的。我們把這樣的決策模型放到無人機、機器人等不同平臺上,使得無人機等學會自主避障、自主穿越複雜場景。所有的規則都是在線學習的,機器人學習的速度剛開始跟人類似,後面則比人快,因為其計算能力比人強。把同樣的模型用到機器人上,讓它去理解人類的意圖等不同的應用,其實都只是類腦人工智能在狹義人工智能中的一些進展。目前正在探索的問題,就是如何使得模型變得通用。比如,谷歌DeepMind提出的模型,它希望一種網絡可以應對多個任務。可問題是:當它學習第二個任務的時候,第一個任務的性能也會下降,如果它還想同時完成第一個任務的話,第二個任務也不能得到最好應對。這都不是人類智能的特點。人腦至少可以分成近250個腦區。這些腦區是自組織協同的,可以去應對不同的任務,也就是說,人腦的自組織原理才是最重要的。

人類的認知功能至少有150項,到目前為止,全世界的人工智能頂多挑戰了其中的30項,剩餘的絕大多數很少有人去研究,比如說意識的問題。在神經科學領域,可以通過2~5周的訓練使得以往被認為沒有自我意識的恆河猴通過鏡像測試,從而被認為湧現出了自我意識。在這樣的實驗的啟發下,我們構建了猴腦的點神經元脈衝神經網絡模型,該模型具有363個腦區。應用近似猴腦的計算模型以及相關的訓練實驗,機器人通過了鏡像測試。目前,雖然機器人可以通過鏡像測試,但問題是,我們能說機器人有了自我意識嗎?我們可以說,猴子通過了鏡像測試,所以我們認為這個物種有自我意識;但反過來,機器人通過了能夠說明嗎?實際上不行。所以,現在我們的結論是:一個不具備人類認為的意識能力的機器人,它也能通過鏡像測試。因此,傳統鏡像測試判斷物種是否具有自我意識的假設實際上是不嚴謹的。實現機器的自我意識是我們重要的努力方向,很顯然這還只是初步自我感知的開始。總體而言,我們希望未來能通過計算建模來發現智能演化的規律,預測智能演化的趨勢,並應用到未來人工智能模型的自主智能演化上。

探索未來智能的兩個方向

當前我們在智能的探索上做了兩個方向上的努力,一個是從機器向擬人化發展,一個是從人類向機械化方向發展,擴展人類的智能。一方面,機器的擬人化(humanization)使得機器越來越像人,使它能夠與未來的人類更好地交互。另一方面,人類也在通過延展認知能力提升著自身,所以這部分工作叫作mechanization,就是機械化。未來人工智能的發展就是從上述兩個方向逼近,向具有意識的超級智能生命體發展。

兩個方向需要回答的科學問題出發點是不一樣的。從機器智能的角度出發,我們需要回答它們到底是誰、我們到底怎麼構建一個具有智能的生命的問題。從人類的角度出發,問題是我們人的大腦是怎麼工作的、我們是誰。未來,有意識的超級智能生命體的發展不是割裂的,不是兩個方向無關的努力,而是兩個方向朝著統一的目標深度融合探索的未來。

我國的人工智能社會倫理問題研究亟待加強

未來的超級智能體很顯然會超越現代人類智力水平,其風險和倫理問題將是非常關鍵的一環。我國已採取很多舉措,《

新一代人工智能發展規劃》中也對人工智能的社會風險與倫理高度關注。但必須承認,我國在這方面的研究仍然是落後的。

現在的人工智能發展,看上去如火如荼,但實際上往哪個方向走才是正確的道路大家並不確定。是否走了彎路,是否出現方向錯誤,決定了一個國家未來的人工智能是不是真正能夠發展好。如果做的根本不是人工智能,而是看似智能的大數據分析、大規模信息處理,那我們就應該老老實實地講和做這件事情,而不是去冒充人工智能,否則的話,會對我國人工智能的科學發展造成本質干擾和深遠影響。

另一件讓人擔心的事,是在2018年9月新加坡政府未來戰略研究中心與劍橋大學合辦的人工智能未來論壇上,一位美國投資人做報告時說,她在烏鎮智庫的大會上與我國人工智能相關企業負責人交流時,發現他們幾乎沒有表現出對人工智能風險與倫理問題的太多實質的考慮,這讓當時大多數與會人員相當吃驚。我當即回答,中國的新一代人工智能發展不可能容忍國家的人工智能平臺對未來社會的影響不做深度戰略思考。這位投資人說的情況反映出來一個現實問題,就是我國人工智能從業人員在對人工智能潛在的社會風險與倫理問題以及對未來治理方面的考慮與國際社會是有距離的。如果未來我們在人工智能風險與倫理領域僅僅是跟隨研究,將會非常被動和麻煩,由此可能產生的對社會負面影響也將很難估量。

舉兩個例子來看從技術角度對安全、倫理問題進行考慮的必要性。現在深度學習模型在產業界當中運用得已經非常普遍,但現實是,一張飛機的圖片,當其中一個關鍵像素被改變時,深度學習模型把它識別成了狗;一張青蛙的圖片,當其中一個關鍵像素被改變時,深度學習模型認為這是一輛卡車……試想,當未來大規模的視覺監控系統甚至是機器警察在馬路上開展監控任務時,發現一個三歲的小孩手裡拿著一隻烏龜,這時候有一張白紙片恰好落到合適的位置上,深度學習系統認為小孩拿著的是一把槍,那時技術決策和真實場景之間的差異又會引起什麼樣的潛在風險?這樣一個設想值得我們去深度思考現有人工智能模型的安全性和透明性。

有些人認為,有意識的人工智能是一件非常危險的事情,但我的看法是:沒有一定程度自我意識的智能模型才是最危險的。因為具有自我意識的類腦模型具有自我識別的能力、擁有動機與價值觀的能力、區分自己和他人的能力、看待他人和看待自己一樣的能力,以及與他人共情的能力。機器人如果不能識別自己、不能為他人建模,那麼它為了完成任務就可以犧牲所有人類的意義,因為它根本不理解人類和它們之間的關係。德國哲學家

托馬斯·梅岑格(Thomas Metzinger)說,我們給機器人植入人工智能倫理只有一次機會,如果失敗了,那麼人類未來就會被顛覆了。我的觀點是:如果採用植入的手段,則可能一次機會都沒有!因為人工智能的模型可以演化,你可以植入,它就可以構建一個接口,使得你植入的部分被包圍,未來這個被植入的部分就不能正常工作;並且它可以自組織出一個網絡,在輸入和輸出的層面掩蓋一切變化,使得判斷模塊仍在繼續工作,但實際上從整體的模型角度,它已經不再符合人類的規定了。這就是我認為“一次機會都沒有”的原因,這也是為什麼我認為一個機器人應該具有揣測別人的思維、認知共情甚至情感共情的能力的原因。

每個國家、機構、企業不同的倫理法則版本,都是在闡述我們對人工智能倫理和準則的認識。包括未來生命研究所(Future of Life Institute,FLI)阿西洛馬會議制訂的23條原則,看上去覆蓋得比較全面,但仍有很多重要的要素被遺漏。對未來超級智能體的規劃與風險的評價是這些法則之間區別最明顯的點,阿西洛馬原則的領先性也由此顯現。

與之相比,目前中國在人工智能倫理方面的研究存在如下問題:(1)缺乏相對全面和長遠的考量,沒有對全方位風險的預測。(2)中國準則如何與國際上各版本協同。大多數其他國家在做此類研究時,參與者至少有一半是人工智能從業人員,但是我國目前絕大多數人工智能倫理與治理的研究參與者沒有人工智能的研究和行業背景。如果出現這樣的情形:提出的倫理準則在技術上是不可行的,而倫理與治理研究人員對技術上的潛在風險又不理解,就會對未來社會形成潛在危險與嚴峻的挑戰。

未來的人工智能發展,需要有正確的模型,以及在正確模型基礎之上發展起來的倫理法則。最糟糕的情形是,我們現在的人工智能,看似是有智能的,但其實它自己也不知道自己在做什麼,以及它會帶來怎樣的風險。誠然,就像人工智能系統不能依賴規則系統去羅列所有的規則一樣,我們也不可能構建一個極其完善、沒有任何漏洞的倫理準則。我們盼望的是,未來的人工智能系統構建於我們人類的智能之上,它的機制與人類是一致的,它從演化的角度可以出現更多的利他行為。如果它的模型是從人類基礎之上發展起來的,那麼它至少已經有了很多的利他行為基礎及協同發展的動機。即便也還是會出現一些非預期狀況,這恐怕也是發展人工智能最安全的途徑之一。


分享到:


相關文章: