05.22 AI先驅Judea Pearl:機器人一定會有自由意志

AI先驅Judea Pearl:機器人一定會有自由意志

AI先驅Judea Pearl:機器人一定會有自由意志

在一篇專訪中,人工智能先驅Judea Pearl認為,人工智能已困在泥淖之中達數十年:大多研究困於概率關聯,而忽視了因果關係的重要性。那麼,他會為這個領域出現的症狀開出什麼處方呢?他表示,應該教會機器理解因果關係。

Judea Pearl為人工智能的發展貢獻了很多智慧。在20世紀80年代,在他的帶領下機器終於能夠進行概率推理。現在,他卻成為這一領域最尖銳的批評者之一。在他的最新著作“The Book of Why:The New Science of Cause and Effect”中,他認為人工智能的發展正因人們沒有完全理解智能的真正含義而遭遇阻礙。

三十年前,人工智能研究面臨的主要挑戰是讓編程機器找到一系列可觀察條件與潛在原因之間的聯繫。Pearl用一種稱為貝葉斯網絡的方案解決了這個問題。貝葉斯網絡使得機器能夠根據一位從非洲回來的人發燒並感到身體疼痛的症狀,推斷出此人最有可能患有瘧疾。2011年,Pearl贏得了計算機科學領域的最高榮譽——圖靈獎,在很大程度上得益於這項工作成果。 (https://amturing.acm.org/award_winners/pearl_2658896.cfm)

但是,正如Pearl所看到的那樣,人工智能領域陷入了概率關聯的泥淖之中。如今,到處都是機器學習和神經網絡最新突破的頭條報道,以及計算機可以下棋、操控自動駕駛車輛的消息。這讓Pearl感到煩惱不已。在他看來,今天人工智能領域的技術水平只不過是上一代機器已有功能的增強版:在大量數據中發現隱藏的規律性。“所有令人印象深刻的深度學習成果都只是曲線擬合。”他最近說道。

在他的新書中,現年81歲的Pearl詳細闡述了智能機器如何真正思考的願景。他認為,做到這一點的關鍵在於用因果推理來取代推理。機器不僅需要具備將發熱和瘧疾關聯起來的能力,還需要具備推斷瘧疾引起發燒的能力。一旦構建了這種因果關係框架,機器就有可能提出反事實的問題——詢問某種干預引起的因果關係將如何改變。這被Pearl視為科學思想的基石。Pearl還提出了一種形式化的語言,讓這種思維成為可能——一種21世紀的貝葉斯框架讓機器可以用概率思考。

Pearl期望因果推理可以賦予機器人類智能。他解釋道,它們可以更有效地與人類溝通,甚至可以獲得具有自由意志和作惡能力的道德實體(moral entities)地位。Quanta Magazine對Pearl進行了採訪,以下為採訪的精要內容。

Q:為什麼你的新書叫做“The Book of Why”?

它是對過去25年來我從事的關於因果關係的工作,它在一個人生活中的含義,它的應用以及我們如何回答固有因果問題的總結。奇怪的是,這些疑問已經被科學拋棄了。所以這本書是對這種科學的忽視做出的彌補。

AI先驅Judea Pearl:機器人一定會有自由意志

Q:您認為科學已經放棄了因果關係這一說法很有戲劇性。難道這不正是科學的全部內容嗎?

當然,但是在科學方程式中你看不到這種高尚的願望。代數的語言是對稱的:如果由X得到Y,那麼由Y可以得到X的信息。我說的是確定性關係。我們無法用數學寫出一個簡單的事實——例如,即將到來的暴風雨會導致氣壓下降,而不是相反。

數學還沒有開發出一種能理解人類的非對稱語言,即X得到Y並不意味著Y得到X。我知道,這聽起來像是對科學的一種可怕說法。我要對我媽這麼說,她會削我的。

但是科學更加寬容:如果我們缺乏對非對稱關係的微積分,科學會鼓勵我們創造這種關係。這就是數學可以發揮作用的地方。對於我來說,看到簡單的因果演算解決了我們這個時代即使最偉大的統計學家也認為不明確或無法解決的問題,讓我興奮不已。所有這一切就像是在高中幾何中找到證明方法那樣讓人愉悅。

Q:幾十年前,你在AI領域因為教會機器概率推理而一舉成名。告訴我們當時人工智能領域發生了什麼事。

20世紀80年代初出現的問題具有預測性或診斷性。醫生觀察到患者的症狀,並提出患者患有瘧疾或其他疾病的可能性。我們希望自動系統和專家系統能夠替代專業人員——無論是醫生還是礦物探險家,還是其他類型的付費專家。所以當時我提出了通過概率做到這些的想法。

不幸的是,標準概率計算需要指數空間和指數時間。我想出了一個稱為貝葉斯網絡的方案,它需要多項式時間,並且非常透明。

Q:然而,在你的新書中,你稱自己為如今AI社區的叛徒。這是為什麼?

當我開發出讓機器推理不確定性的工具之後,我就離開了這個領域去追求更具挑戰性的任務:推理和因果關係。從這點上來說我是個叛徒。我的許多AI同事仍致力於研究不確定性。有些研究圈子繼續研究診斷,而不關心問題的因果關係。他們想要的只是得到好的預測和診斷結果。

舉個例子來說,我們今天看到的所有機器學習的工作都是在診斷模式下進行的——比如說將對象標記為“貓”或“老虎”。他們不關心干預;他們想做的只是識別一個對象並預測它將如何發展。

當我開發出用於預測和診斷的強大工具時,我感覺自己像一個叛徒,因為我知道這僅僅是人類智能的冰山一角。如果我們想要機器推理干預措施(“如果我們禁菸了會怎樣?”)和內省(“如果我讀完了高中會怎樣?”),我們必須引用因果模型。關聯是不夠的——這是一個數學事實,而不是我個人的想法。

Q:人們對AI概率感到興奮,難道你不是嗎?

當我深入瞭解深度學習相關研究之後,我發現幾乎所有研究都只停留在關聯這一層——曲線擬合。這聽起來像是褻瀆,即深度學習的所有令人印象深刻的成就只是為數據擬合一條曲線。從數學層次結構的角度來看,不管操作數據的方式多麼巧妙,以及在操作時寫入的數據是什麼,它仍然只是一次曲線擬合練習,複雜且平庸。

AI先驅Judea Pearl:機器人一定會有自由意志

Q:聽您談論曲線擬合,好像您對機器學習並不是很感興趣?

不,我對機器學習印象深刻,因為我們不能指望曲線擬合來解決這麼多問題。事實證明,機器學習可以。但我說的是未來——接下來會怎樣呢?我們會有一個可以計劃的實驗,並找到未解決科學問題答案的機器人科學家嗎?這才是下一步。我們也希望與一臺機器進行一些有意義的溝通,有意義是說符合我們的直覺。如果你剝奪機器人關於原因和結果的直覺,你和它們永遠不會有真正意義上的交流。機器人無法像你我那樣表達“我應該做得更好”。我們因此失去了一個重要的溝通渠道。

Q:出現和我們一樣具有因果關係直覺的機器人時會發生什麼?

我們必須為機器配備環境模型。如果一臺機器沒有現實的模型,那麼你不能指望機器在現實中表現得很聰明。第一步,我猜可能會在10年內發生,人類將會編程具有理解和概念能力的模型。

下一步,機器將自行假設這些模型,並根據經驗證據對它們進行驗證和改進。這就是科學,一開始我們認為地心說是真理,到最後卻將日心模型奉為圭臬。

機器人也將相互溝通,並解讀這個隱喻模型的假想世界。

Q:當你今天與從事AI工作的人分享這些想法時,他們有何反應?

AI研究目前處於分裂狀態。首先,有人陶醉在機器學習、深度學習和神經網絡取得的成就中。他們不明白我在說什麼,只希望繼續擬合曲線。但是當你與在統計學習以外從事人工智能工作的人交談時,他們會立即會意。我閱讀了過去兩個月中關於機器學習侷限性的幾篇論文。

Q:你是否認為出現了偏離機器學習的趨勢?

這不是一種趨勢,而是一種嚴肅認真尋求真相的努力,他們在尋找諸如我們要去向何方?下一步是什麼等問題的答案。

Q:這是我想問您的最後一個問題。

我很高興你沒有問我關於自由意志的事情。

Q:既然提到了,您如何看待自由意志?

機器人一定會有自由意志。我們必須瞭解如何對它們進行編程,以及我們從中能獲得什麼。出於某種原因,進化上這種自由意志是計算所需要的。

Q:以什麼方式?

你擁有自由意志,進化讓我們具備了這種能力。顯然,它提供了一些計算功能。

Q:當機器人擁有自由意志時會表現得很明顯嗎?

我想第一個跡象是機器人開始進行反事實交流,比如“你應該做得更好”。如果一個踢足球的機器人開始用這種語言溝通,那麼我們就會知道他們已經有了自由意志。

“你應該把球傳給我,我一直等著你,但你沒有!”

“你應該”意味著你可以控制所有驅使你去做你需要做的事,而你卻沒有做。所以第一個標誌就是溝通,接下來是踢球的表現變好。

Q:既然提到了自由意志,那我想請問作惡的能力是什麼,我們通常認為這種能力取決於作出選擇的能力。什麼是作惡?

即一個人的貪婪或不滿超越了所有社會標準規範。例如,有人拿出一個類似於軟件模塊的東西說:“你餓了,所以你有權採取行動來滿足你的貪婪或不滿。”但其他的軟件模塊勸告你應該遵循社會法則。其中一個模塊被稱為同理心(compassion)。當你的慾望超越社會普遍規範時,就是邪惡。

Q:那麼我們怎麼知道什麼時候人工智能會犯罪呢?

當我們明顯發現機器人持續忽略一些軟件模塊時。當機器人似乎遵循某些軟件模塊的建議但忽略其他模塊時,當機器人忽略人類編程時制定好的行為規範,或本應從過去經驗中學習的那些模塊時。如果機器人不再遵循這些規則,那麼這就是人工智能犯罪的跡象。

原文鏈接:

https://www.quantamagazine.org/to-build-truly-intelligent-machines-teach-them-cause-and-effect-20180515/


分享到:


相關文章: