“貝葉斯網絡之父”:不透明機器學習的侷限性

“貝葉斯網絡之父”:不透明機器學習的侷限性

本文選自湛廬文化策劃出版圖書《AI的25種可能》。本篇作者朱迪亞·珀爾,他是計算機科學家,加州大學洛杉磯分校認知實驗室主任。

《為什麼》朱迪亞·珀爾、《直覺泵》丹尼爾·丹尼特,《當下的啟蒙》史蒂芬·平克,罕見對話!羅振宇、尼克、王小川、胡泳 聯袂推薦!

作為一名前物理學家,我對控制論非常著迷。雖然它沒有把圖靈機的全部性能發揮出來,但它高度透明,這也許是因為它是建立在經典的控制理論和信息理論基礎之上的。現在,機器學習的深度學習模式已經失去了這種透明度。從根本上說,深度學習是一個曲線擬合問題,在一長串輸入輸出鏈的中間層調整權重。

我發現許多使用者會說“很好用,但我們也不知道原因”。深度學習有自己的動力學機制,一旦你餵給它大量的數據,它就活躍起來,還能自我修復,找出最優化組合,絕大多數時候都會給出正確的結果。可一旦結果錯了,你不會知道哪裡出了問題,也不知道該如何修復。尤其是,你不知道問題是出在程序上還是方法上,抑或是因為環境發生了改變。我們應該致力於找到一種完全不同的透明度。

一些人認為,我們並不需要透明。我們不瞭解人類大腦的神經構造,它也運行得挺好,所以我們可以原諒自己的淺薄,最大限度地利用機器。同理,他們還認為,我們為什麼不利用深度學習系統,建造一種不用瞭解它們工作原理的智能呢?在某種程度上,我認可這種觀點。我個人並不喜歡不透明,所以我不會浪費時間在深度學習上,但我也知道它在智能中佔有一席之地。我知道,不透明的系統也能做出色的工作,我們的大腦就是這樣的奇蹟。

但這種觀點有其侷限性。我們可以原諒自己不瞭解人類大腦的運作原理,這是因為人類大腦的運作原理是一樣的,無須瞭解我們也可以與他人交流、向他人學習、給他人指導、用我們的語言鼓勵他人。但如果我們的機器人都像“阿爾法圍棋”(AlphaGo)一樣不透明,我們便無法與它們進行有意義的交流,這很不幸。無論何時,任務或操作環境有些許改變,我們都需要重新培訓它們。

所以,我沒有用這些不透明的學習機器做實驗,我在努力瞭解它們理論的侷限性,想著怎樣去克服這種侷限。我使用了因果推理方法,這種方法是科學家思考世界所使用的方法,有著豐富的直覺案例,可以在分析中監控進展情況。這樣,我發現確實存在一些基本障礙,除非攻克這些障礙,不然無論我們怎樣努力,都無法讓機器擁有人類一樣的智能。我相信,瞭解這些障礙和攻克這些障礙同樣重要。

當前的機器學習系統幾乎完全在統計模式或者說模型盲(model-blind)的模式下運行,這在許多方面類似於將函數擬合到大量點數據。這樣的系統不能推理“如果……會怎樣?”的問題,因此不能作為強人工智能的基礎,強人工智能是模擬人類推理和能力的人工智能。為了達到人類智能水平,學習機器需要現實藍圖的指導,這種藍圖是一個模型,類似於當我們在陌生城市開車時給我們指路的道路地圖。

更準確地說,當前的學習機器是通過優化從環境中接收到的感覺輸入流的參數來提高其性能。這是一個緩慢的過程,與達爾文進化論的自然選擇過程相似。它解釋了鷹和蛇等物種,如何在幾百萬年的進化過程中擁有超強視力的過程。但它無法解釋超級進化過程,這一過程使人類在短短的一千年內製造出眼鏡和望遠鏡。人類擁有而其他物種沒有的正是他們對環境的心理表徵,他們可以隨意操縱這種心理表徵,想象出假設環境來進行規劃和學習。

尤瓦爾·赫拉利(Yuval Noah Harari)和史蒂文·米森(Steven Mithen)等研究“智人”的歷史學家們一般認為,使人類祖先4萬年前能統治全球的決定性因素是:他們擁有創造和儲存自身環境的心理表徵能力,他們能反覆探究這種心理表徵,通過想象扭曲它,最終可以回答“如果……會怎樣?”這樣的問題。比如他們會問一些介入性問題:“如果我這樣做了,會怎樣?”還會問一些回顧性或反事實性的問題:“如果我沒那樣做,會怎樣?”今天沒有一臺學習機器能回答得了這樣的問題。而且,大多數學習機器不具有這樣的表徵,它們無法從這樣的問題中得到答案。

至於因果推理,我們發現對於任何形式的模型盲曲線擬合或者任何統計推斷,無論擬合過程有多複雜,你能做的都微乎其微。我們還發現了組織這些侷限的理論框架,這些框架形成一個層級結構。

第一層是統計推理。統計推理能告訴你的,只是你看到的一件事如何改變你對另一件事的看法。例如,某症狀能告訴你得了哪一種疾病。

然後,是第二層。第二層包含了第一層,但第一層卻不包含第二層。第二層處理的是行動。“如果我們抬高價格會怎樣?”“如果你讓我笑了,會怎樣?”第二層需要的是干預信息,這些信息是第一層所沒有的。這些信息可被編碼成概率圖模型,它僅僅告訴我們哪個變量對另一個變量有響應。

第三層是反事實的。這是科學家們使用的語言。“如果這個東西重兩倍,會怎樣?”“如果當初我沒有這樣做,會怎樣?”“治好了我頭疼的是阿司匹林還是剛剛打的盹?”反事實在感覺中屬於最高層次,即使我們能夠預測所有行動的結果,但卻無法得到反事實。它們需要一種額外的東西,以等式的形式告訴我們對於其他變量發生的變化,某個變量會如何反應。

因果推理研究的一個突出成就是對干預和反事實的算法化,也就是對層級結構最高兩層的算法化。換言之,一旦我們把科學知識編碼成模型(這個模型可以是定性的),那麼就會存在檢查模型的算法,對於一個給定的查詢,無論該查詢是關於干預的還是反事實的,這種算法都可以根據可用的數據來估算是否有結果,以及如果是的話,如何得出結果。這一成就極大改變了科學家們做科學研究的方法,尤其是在社會學和流行病學等數據密集型科學中,因果模型已經成為第二語言。這些學科把它們的語言轉換看成是“因果革命”。正如哈佛社會科學家加里·金(Gary King)所說:“在過去幾十年裡,人們對因果推理的瞭解,比先前有史以來學到的一切加起來都多。”

當我思考機器學習的成功並試圖把它推廣到未來的人工智能時,我問自己:“我們是否意識到了在因果推理領域中發現的基本侷限性?我們準備繞過阻礙我們從一個層級升到另一個層級的理論障礙嗎?

我認為機器學習是一種工具,使我們從研究數據走到研究概率。

但是,從概率到實際理解,我們仍然需要多邁出兩步,非常大的兩步。一是預測行動的結果,二是反事實想象。除非我們邁出最後兩步,否則我們不能說了解了現實。

哲學家斯蒂芬·圖爾敏(Stephen Toulmin)在他充滿洞察力的著作《前瞻和理解》(Foresight and Understanding,1961)中提出,透明性與不透明性之間的對比是理解希臘與巴比倫科學之間古老競爭的關鍵。按照圖爾敏的說法,巴比倫天文學家是做出黑匣子預測的大師,在天文觀測的準確性和一致性方面遠遠超過了對手希臘。然而,科學卻偏愛希臘天文學家創造性的推測,這種推測大膽且充滿隱喻性的意象:充滿了火焰的圓管、天火透過小孔被視作星星以及半球狀的地球騎在龜甲上。正是這種大膽的建模策略,而不是巴比倫的外推,震驚了埃拉托色尼(Eratosthenes),使他做了一個當時世界上最具創造力的實驗,測算出了地球的周長。巴比倫的那些以數據為準則的科學家們永遠不會做這樣的實驗。

模型盲法把內在限制加在強人工智能執行的認知任務上。我覺得,達到人類水平的人工智能不會僅僅從模型盲學習機器中出現,它還需要數據和模型的共生協作。

數據科學只是一門有助於解釋數據的科學,而解釋數據是一個兩體問題,將數據與現實聯繫起來。但無論數據有多“大”,人們操控數據多麼熟練,數據本身並不是一門科學。不透明的學習系統可能會把我們帶到巴比倫,但絕不是雅典。

關於本書

《AI的25種可能》這本書集結了包括史蒂芬·平克、朱迪亞·珀爾、丹尼爾·丹尼特、邁克斯·泰格馬克等25位計算機科學家、心理學家、物理學家、科技史學家的前沿洞見,給你帶來一場關於人工智能多角度的大思考!關注這本書,因為AI的25種可能,就是人類未來的25種可能!

*本文已獲得湛廬文化轉載許可,拒絕二次轉載。


分享到:


相關文章: