05.16 專訪貝葉斯網絡之父Judea Pearl:我是AI社區的叛徒

人工智能領域的先驅、貝葉斯網絡之父 Judea Pearl 認為 AI 深陷於概率關聯的泥潭,而忽視了因果。Pearl 認為研究者應該研究因果(Cause and Effect),這可能是實現真正智能的機器的可能路徑。

人工智能的能力很大一部分要歸功於 Judea Pearl。上世紀 80 年代,他帶頭推動機器進行概率推理。而現在他是這個領域最尖銳的批評者之一。他在最新著作《The Book of Why:The New Science of Cause and Effect》中指出,由於未能完全理解智能真正的含義,人工智能的發展已經受到阻礙。

專訪貝葉斯網絡之父Judea Pearl:我是AI社區的叛徒

30 年前,人工智能研究的一個主要挑戰是對機器進行編程,以便將潛在的原因與一系列可觀察到的情況聯繫起來。Pearl 用一種叫做貝葉斯網絡的方案來解決這個問題。貝葉斯網絡讓機器可以回答問題——給出一個從非洲回來的發燒且身體疼痛的病人,最有可能的解釋是瘧疾。2011 年,Pearl 獲得圖靈獎這一計算機科學領域最高榮譽,這很大程度上要歸功於貝葉斯網絡。

但在 Pearl 看來,人工智能領域已經陷入了概率關聯(probabilistic association)的泥潭。近來,新聞頭條吹捧機器學習和神經網絡的最新突破,比如計算機可以下圍棋和駕駛汽車。但 Pearl 對此感到膩味。在他看來,當今人工智能領域的最新技術僅僅是上一代機器所做事情的強化版:在大量數據中找到隱藏的規律。他最近稱:「所有令人印象深刻的深度學習成果都只是曲線擬合。」

現年 81 歲的 Pearl 在新書中闡述了一個關於真正智能的機器如何思考的願景。他認為,關鍵是用因果推理來代替關聯推理。機器不能只有把發燒和瘧疾聯繫起來的能力,還要有推理「瘧疾引起發燒」的能力。一旦這種因果框架到位,機器就有可能提出反事實的問題——詢問在某種干預下因果關係將如何變化,Pearl 認為這是科學思考的基礎。他還提出了一種使這種思維成為可能的正式語言——21 世紀版的貝葉斯框架,允許機器進行概率思維。

Pearl 期望因果推理能為機器提供人類水平的智能。他解釋說,它們可以更有效地與人類溝通,甚至可以獲得道德實體(moral entity)的地位,具有自由意志和作惡的能力。《量子雜誌》(Quanta Magazine)對 Pearl 進行了電話採訪。以下是採訪內容。

為什麼您的新書名為《The Book of Why》?

它是對我過去 25 年來在因果關係方面所做研究的一次總結,因果在生命中代表什麼、它的應用,以及我們如何解決固有的因果關係問題。奇怪的是,這些問題被科學拋棄了。所以我要做的是彌補科學對它們的忽視。

專訪貝葉斯網絡之父Judea Pearl:我是AI社區的叛徒

科學已經放棄了因果關係,這聽起來很有戲劇性。因果難道不正是科學正在研究的嗎?

當然,在科學方程式中你看不到這種崇高的願望。代數語言是對稱的:如果 X 告訴我們 Y,那麼 Y 告訴我們 X。這些是確定性關係。沒有辦法在數學中寫出一個簡單的事實——例如,即將到來的風暴會導致氣壓計下降,而不是上升。

數學還沒有發展出非對稱語言來捕捉我們的理解,即 X 引起 Y 並不代表 Y 導致 X。我知道,反對科學聽起來是一件很可怕的事情。如果我對媽媽說我要反對科學,她會打我。

但科學更寬容:鑑於我們缺乏對不對稱關係的計算,科學鼓勵我們創造。這就是數學的來源。看到一個簡單的因果關係演算解決了我們那個時代連最偉大的統計學家也定義不清或無法解決的問題,我非常激動。所有這一切都和在高中幾何中找到一個證明一樣讓人感到輕鬆、充滿樂趣。

幾十年前,您通過教機器進行概率推理而聞名於人工智能領域。能否解釋當時人工智能發生了什麼?

20 世紀 80 年代初出現的問題具有預測或診斷性質。根據病人的一系列症狀,醫生想找出病人患瘧疾或其他疾病的概率。我們希望自動系統、專家系統能夠取代專業人員——無論是醫生、礦產勘探人員,還是其他類型的付費專家。所以那時,我提出了一個通過概率來實現這些的想法。

不幸的是,標準概率計算需要指數空間和指數時間。所以我提出了一個叫做貝葉斯網絡的方案,它需要多項式時間,而且非常透明。

您在新書中把自己描述成 AI 社區的叛徒。為什麼這麼說?

在研發出能夠使機器對不確定性進行推理的工具後,我很快離開了 AI 社區,轉而研究更有難度的任務:對因果進行推理。而我很多研究 AI 的同事仍然在研究不確定性。仍有很多研究者在繼續研究診斷問題,而不去考慮問題的因果關係。他們只想得到好的預測效果和診斷結果。

舉個例子,今天我們看到的所有機器學習研究都是用診斷模式實施的,即把物體標註為「貓」或「老虎」。他們不考慮干預,只想識別物體,預測它如何隨時間演化。

當我開發出強大的預測和診斷工具並意識到這只是人類智能的一小部分時,我感覺自己是個叛徒。如果我們想讓機器對干預(「如果禁菸會怎樣?」)和反省(「如果我讀完高中,會怎麼樣呢?」)進行推理,那我們必須開發出因果模型。僅有關聯性(association)不夠,並且這是一個數學事實,而非觀點。

人們對 AI 帶來的可能性感到振奮。您不是嗎?

當我查看深度學習在做什麼時,發現相關研究者都陷在關聯性級別的問題中。曲線擬合。說所有深度學習的矚目成果都只是對數據的曲線擬合似乎是一種褻瀆。但從數學層級的角度來看,不管你控制數據的技能有多熟練、控制數據時你從中讀取到什麼信息,這都只是曲線擬合,可能是複雜和繁瑣的曲線擬合罷了。

專訪貝葉斯網絡之父Judea Pearl:我是AI社區的叛徒

根據您對曲線擬合的觀點,聽起來您對機器學習並不感冒。

不,我對機器學習印象深刻,因為僅靠曲線擬合無法解決那麼多問題。而現在很多問題已被成功解決。但是我在考慮未來,未來會怎麼樣?會出現一個能夠規劃實驗、解決懸而未決科學難題的機器人科學家嗎?我認為這是機器學習的下一步。我們還想與機器進行有意義的交流,有意義指機器與我們的認知水平相匹配。如果你剝奪了機器人對因果關係的認知,那麼你們之間就不會出現有意義的交流。機器人沒法像你我這樣說出「我應該做得更好」。因此我們就丟失了一個重要的交流渠道。

共享人類因果認知的機器有什麼前景?

我們必須使機器具備環境模型。如果機器不具備現實模型,那麼你不能指望它在現實環境中有智能行為。首先,人類編程的現實概念模型可能在 10 年內出現。

下一步是機器將假設此類模型屬於它們自己,並基於實驗驗證和修改模型。這就是科學中一直髮生的事情:例如人類最初認同地心說,後來發現了日心說。

機器人也是一樣,它們將彼此溝通,將這個假設的世界轉換成隱喻模型(metaphorical model)。

您是何時與當前研究 AI 的人們分享這些觀點的?他們有什麼反應?

AI 目前是分裂的。首先,一部分人陶醉於機器學習、深度學習和神經網絡的成功之中。他們不理解我的觀點,只想繼續進行曲線擬合。但是和在統計學習範疇以外研究 AI 的人們談論這些時,他們立刻可以理解。我讀了一些近兩個月關於機器學習侷限性的論文。

您是說出現了一種拋棄機器學習的趨勢嗎?

不是趨勢,而是一個嚴肅的內省過程,涉及這些問題:我們去向何處?下一步是什麼?

這是我最不想問您的問題。

我很高興你沒有問我關於自由意志的問題。

那麼您怎麼認為自由意志呢?

我們將開發出具備自由意志的機器人,絕對會。我們必須理解如何編程機器人,以及我們能從中得到什麼。由於某種原因,就進化方面而言這種自由意志在計算層面也將是需要的。

以何種方式?

你具備自由意志,進化已經賦予我們這種感覺。很顯然,它提供了一些計算功能。

機器人具備自由意志時會有明顯的跡象嗎?

我認為第一個跡象將是機器人開始反事實地彼此溝通,如「你應該做得更好」。如果一組踢足球的機器人開始用這種語言溝通,那麼我們將知道它們具備了自由意志。「你應該傳球給我,我剛才一直在等,但你沒有把球傳給我!」「你應該……」(You should have)意味著你本應該做什麼,但是沒做。因此第一個徵兆是溝通,第二個是踢出更好的足球。

既然您提到了自由意志,我想我應該問您關於作惡能力的問題。我們通常認為作惡的能力是選擇的能力。什麼是惡呢?

人們認為惡是貪婪或不滿取代了社會的所有規範。例如,某人具備一個類似會說「你餓了,因此你可以做一些事來滿足自己的貪慾或發洩自己的不滿。」的軟件模塊。但是你具備其他軟件模塊,可以指導自己遵循社會規範。其中一個叫做同理心(compassion)。當你抬高自己的貪慾,超過了社會通用規範,那麼這就是邪惡。

那麼我們如何知道 AI 何時掌握作惡能力?

當機器人一直忽略一些軟件模塊時,這對我們來說就是一個明顯的跡象。還有當機器人遵循一部分軟件模塊的建議而不聽另外模塊的建議時,當機器人忽略那些維持行為規範的模塊的建議時,當機器人停止遵循這些模塊時。


分享到:


相關文章: