人工智能的機器可能有意識嗎?菲爾茨獎得主大衛·芒福德教授撰文探討

轉自:依圖科技

哲學園鳴謝

人工智能的列車高速向前,模擬一個人腦、讓計算機產生“意識”的可能性似乎比以前大了一點點。意識是什麼、機器是否可能擁有意識,也就成了計算機科學家、神經科學家、數學家、哲學家越來越多探討的課題,其中就包括1974年菲爾茨獎得大衛·芒福德(David Mumford)教授。

芒福德教授是早年哈佛的數學系擔當,學術生涯起步於純數學(代數曲線),隨後將主要精力轉向與計算機科學密切相關的應用數學。此外,他還熟悉物理、神經科學等領域,這篇文章就是他在綜合學科背景下對於機器意識問題的思考。

探索的動機來源於對智慧無限的好奇。依圖出於知識分享的目的編譯此文(該文觀點僅代表作者立場),希望能給讀者帶來一些不一樣的風景。同時,我們對於問題保持開放探討的立場,歡迎各位踴躍質疑、拋出觀點。

人工智能的机器可能有意识吗?菲尔茨奖得主大卫·芒福德教授撰文探讨

人工智能的機器可能有意識嗎?

大衛·芒福德(David Mumford)

人工智能理論在我的人生裡已經經歷了六七個繁榮和蕭條的輪迴,有些時期人們信心滿滿地說計算機的智能很快就會達到人類水平,有些時期只有幻滅,似乎這是永遠做不到的。在今天,我們正在最新的一輪繁榮之中,一些有遠見的計算機科學家甚至更進一步,探問AI(這個縮寫聽起來就像新的生物形態)除了能達到人類的智能水平以外,是否還能擁有像我們這樣的意識。還有些未來學家考慮的是一場更奇異瘋狂、能改變生活的繁榮:我能不能將大腦和意識下載到硅片上,就此獲得永生,也就是說人能不能變形為AI?

在上一次輪迴的繁榮時期中,當時的瘋狂預言是我們正在走向“奇點”,就是超級AI會創造一個全新世界的時間點,這會導致人類種族被取代而滅絕(預計會發生在2050年前後)。我承認在上半生曾經希望見證計算機第一次獲得意識的那一刻,但現在我對此越發懷疑。也許這就是老人的消極看法,但可能也是因為我並不認為這個問題只跟計算機科學有關,而是同樣關乎生物學、物理學、哲學,對了還有宗教。誰又有這樣的專業知識來推算所有這些東西如何影響我們對意識的理解?

即使是談論宗教對科學進步的任何影響,對於今天的知識分子來說都是要被逐出圈子的。但考慮一下這個問題:是否存在這樣的信仰體系,其中人類很快就能永生的硅谷之夢與“靈魂不滅”的基督信條同時成立?對我來說,這兩種信念似乎處於不同的宇宙,並不衝突。

頂級 AI 缺少了什麼?

我先評述一下當前的AI熱潮,還有為什麼它即使目前大獲成功,仍然終將走向破滅。在支撐新AI的代碼中,最關鍵的角色是被稱為“神經網絡”的算法。然而,每個網絡都有海量的被稱為“權重”的參數需要先設定好,神經網絡才能工作。要進行設定,我們就得用現實生活的數據集來“訓練”這個網絡,用的是另一個叫做“反向傳播”的算法。由此得到的神經網絡在得到一系列代表某種觀察結果的數值作為輸入之後,會輸出給這串數據打上的一個標籤。比如說,它可以將某個人面部圖像的像素值表達作為輸入,然後輸出它對這個人性別的猜測。要訓練這樣的一個網絡,需要向它灌輸成千上萬正確標註性別的人臉,然後逐步調整權重,使它作出的預測越來越準確。

神經網絡是受大腦皮層真實迴路的簡化版啟發而來的一種簡單設計,它可以追溯到1934年麥卡洛克(McCulloch)和皮茨(Pitts)的一篇經典論文。而更重要的是在1974年,保羅·維博斯(Paul Werbos)在撰寫博士論文時引入了反向傳播,用以優化不計其數的權重,令它們能更好地處理一系列的輸入,比如說人工標註過的數據集。

人們玩這個已經玩了40年,由楊立昆(Yan LeCun)等人推廣,也取得了一些成效。但統計學家很懷疑它能否解決那些困難的問題,原因是所謂的偏差-方差權衡(bias-variance trade-off)。他們說,必須將算法訓練用到的數據集大小與待學習的權重數量進行比較:如果權重數量不夠,那麼不可能對複雜的數據集進行精確建模;如果權重數量足夠,那麼就會對數據集獨有的性質建模,而這些性質不會在新的數據上體現。那麼現實中發生了什麼?計算機速度極大提高,能訓練擁有海量權重的神經網絡,而數據集因為互聯網的出現而變得越發龐大。

可謂天機玄妙,與統計學家的預測背道而馳的是,神經網絡算法效果非常好,以某種方式神奇地迴避了偏差-方差問題。我認為可以說沒有人知道神經網絡避免這個問題的方式或者原因。這是對理論統計學家的挑戰。但人們用神經網絡構建了各種具有實際意義的應用,比如說視覺、語音、語言的處理,醫學診斷,還有遊戲博弈,這些應用此前都被認為非常難以建模。最後是公關上的畫龍點睛:神經網絡的訓練現在改稱為“深度學習”。這樣一來,誰又會懷疑AI的美麗新世界已經到來呢?

但是還有一座高峰需要攀登。在此前題為《語法並不只是語言的一部分》(Grammar isn't merely part of language)的文章中,我討論了一種信念:所有形式的思考都需要語法。這意味著你的心靈會在世界中發現一些重複出現但不一定完全相同的模式。這些模式可以是物體外觀的視覺排列,比如說處於同一直線上的點,或者人臉上眼睛的位置;也可以是言談中的詞語或者是簡單的動作,比如說開車踩油門;甚至可以是抽象概念,比如說“忠誠”。不管帶有模式的是哪一種觀察結果或者思想,你會預計它重複出現,可以用來理解新的情景作為成年人,我們思想中所有事物的構建都來自學到的可重複利用的模式,它們組成了一個層級結構,而情景、時間、計劃或者思想,都可以用一棵由這些模式組成的“語法分析樹”來表示。

但問題在於,最基本形式的神經網絡並不能找到新的模式。它的運作就像黑箱,除了給輸入貼標籤以外什麼都做不到,比如說不能告訴你“這個圖像看上去有一張人臉”。在發現人臉的過程中,它也不會說:“我首先找到了眼睛,這樣我就知道這張臉的其他部分應該在什麼地方了。”它只會告訴你它得出的結論。我們需要能輸出如下結果的算法:“我在絕大部分數據中找到了這樣的模式,來給它起個名字吧。”這樣它能輸出的就不止是一個標籤,還有對輸入數據組成部分的分析。

跟這個願景相關的是,我們可以閉上眼睛,想象一輛汽車的樣子,上面有輪子、車門、引擎蓋等等,利用這個我們就能將新數據組合起來。這就像是逆向運行一個神經網絡,對每個輸出標籤都能產生對應的新輸入數據。人們正在嘗試改進神經網絡來做到這一點,但現在效果仍未盡如人意。我們仍不知道這座高峰有多難攀登,但我覺得這個問題不解決,人工智能就無法靠近人類智能。

如果人工智能的目的是展示人類水平的智能,那麼我們最好先定義人類智能到底是什麼。心理學家當然在定義人類智能上花了大功夫。長久以來有個很流行的想法,也就是人類智能可以用一個度量——也就是智商——來完全確定。但是,智能的意思是不是說能解開電視節目《危險邊緣》(Jeopardy!)中的謎題?還是能記住人生中更多事件的更多細節?或者是以高超技巧譜曲或者繪畫?這些當然都是,但細想一下:什麼是我們人類擅長並佔據了我們大部分日常思考的事?應該是猜測另一位人類同胞有什麼感受、目標和感情。更進一步的,什麼才能影響這個人的感情和目標,使得我們可以與之協作、達成我們的目標?

許多時候,這就是決定你人生是否成功的技能。

計算機科學家的確考慮過為其他客體的知識和計劃建模的這項需要。一個有名的例子就是,想象有兩位將軍A和B,他們在兩座面對面的山頂上,需要同時攻擊山谷處的敵人,但他們之間的通訊只能穿過敵方陣線進行。A給B發了個信息:“明天出擊?” B回答:“可以。”但B不知道自己的回覆有沒有到達,而A必須給B發送另外一道信息來確認已經收到了B之前的信息,為的是確保B會行動。為此需要發送更多的信息(實際上,要達到完全的共識,他們需要發送無窮無盡的信息)。

計算機科學家很清楚我們需要向AI賦予新的能力,使它能維護並構建各種模型,描述周遭其他客體的知識、目標與計劃。這種能力必須包括知道自身知道什麼不知道什麼。但某種程度上來說,以目前的編程水平還是做得到這些的。

我們需要情緒#$@*&!

然而這個博弈論的世界缺少了人類思考的關鍵要素之一:情緒。沒有情緒,就永遠不可能和人類搞好關係。我覺得奇怪的是,就我所知,只有一位計算機科學家為情緒建模做過努力,那就是麻省理工學院媒體實驗室的羅莎琳德·皮卡德(Rosalind Picard)。即使是對人類情緒總體的科學研究,似乎也陷於停滯,大體上被許多學科所忽視。比如弗蘭斯·德瓦爾(Frans de Waal)在討論動物情緒的新書《Mama的最後一次擁抱》(

Mama's Last Hug)中對人類和動物的情緒就有這樣的說法:

我們給不少情緒命了名,描述了它們的表達方式,記錄了它們會出現的各種情況,但還缺少一個框架,用來定義這些情緒並探索它們帶來的好處。

(這是不是因為有很多從事科學和數學工作的人都有自閉症譜系障礙?)有一位心理學家明確指出了情緒在人類智能中扮演的角色。霍華德·加德納(Howard Gardner)的經典著作《智能的結構》(Frames of Mind: The Theory of Multiple Intelligences)中就引入了“人際智能”(主要是理解他人的情緒)和“自我認知智能”(理解自身)的概念,與其他能力並列。這些能力現在被心理學家稱為“情緒智能”,但正如德瓦爾所言,精確定義的缺失給它的研究蒙上了一層陰影。最近維基百科的“情緒智能”頁面上的“定義”如下:

情緒智能可以被定義為監測自身以及他人情緒、區分不同情緒並正確分類、利用有關情緒的信息……來加強對人際互動的思考與理解的能力。

區分情緒狀態最古老的嘗試可以追溯到希波克拉底(Hippocrates)的四體液說(the Four Humors):四種體液關聯著四種不同的人格特徵和對應的特有情緒。它們是多血質(主動、善於社交、隨和)、膽汁質(意志堅定、支配他人、易怒)、黏液質(被動、避免衝突、平靜)和抑鬱質(憂鬱、深思、可能焦慮)。它們被兩根軸線分隔。第一根軸是外向與內向的對立,在經典著作中也叫熱與寒的對立,其中多血質和膽汁質屬於外向,而黏液質和抑鬱質屬於內向。第二根軸是放鬆與拼搏的對立,在經典著作中也叫溼與乾的對立,多血質和黏液質屬於放鬆,而膽汁質和抑鬱質屬於拼搏。

在近代,漢斯·艾森克(Hans Eysenck)發展了這套分類方法,他的版本(畫得五彩斑斕)在這裡:

人工智能的机器可能有意识吗?菲尔茨奖得主大卫·芒福德教授撰文探讨

現代對情緒的研究可以追溯到達爾文(Darwin)的著作《人和動物的感情表達》(The Expression of the Emotions in Man and Animals),其中他利用伴隨情緒的表情來進行情緒分類。保羅·埃克曼(Paul Ekman)延伸並嚴謹化了達爾文的理論,導出的理論有六種基本情緒,每種都有獨特的面部表情:憤怒、恐懼、高興、悲傷、驚訝和厭惡。還有許多次級情緒,由強度不同的基本情緒組合而來。

羅伯特·普拉奇克(Robert Plutchik)將基本情緒擴充為八種,為各種情緒較弱和較強的變種命名,得到了這個驚人而多彩的圖表。實際上,有無窮無盡的次級情緒,比如羞恥、愧疚、感恩、寬恕、報復心、自傲、羨慕、信任、希望、後悔、孤獨、挫敗感、激動、尷尬、失望等等,它們並非基本情緒的簡單混合,而是掛接到多個客體與因素混雜的社交情景上的情緒。

人工智能的机器可能有意识吗?菲尔茨奖得主大卫·芒福德教授撰文探讨

弗蘭斯·德瓦爾在他的書(第85頁)中參照上面這個列表作出了情緒的如下定義:

情緒是外部刺激給機體帶來的一種臨時狀態,標誌是軀體和心智中特定的轉變——大腦、激素、肌肉、器官、心臟、警覺水平等。通過機體自身所在的情景及它在行為上的變化和表現,可以推知被觸發的情緒。

雅克·潘克塞普(Jaak Panksepp)開拓了另一條相當不同的探索途徑,參看他與露西·比文(Lucy Biven)的著作《心靈考古學:人類情緒的神經進化論起源》(The Archeology of Mind: Neuroevolutionary Origins of Human Emotions)。他的研究方向並不是以面部表情為出發點,而更靠近希臘的體液學說。潘克塞普長期以來都在尋找大腦活動中的模式,特別關注皮質下結構的活動及其向更高級腦區傳遞的神經遞質,這些都會導致不同的當下情感狀態以及對應的行為模式。他們的情緒列表跟達爾文的相當不同,儘管也有重疊。他們辨認出了七種主要情感狀態:(一)尋求/探索;(二)憤怒;(三)恐懼/焦慮;(四)關懷/愛;(五)悲傷/苦惱;(六)玩樂/高興;(七)色慾。

順便說一句:我不清楚為什麼他沒有加上

第八種情感狀態:痛苦。即使我們通常不說痛苦是情緒,但它的確是心智中源於皮層下結構的一種情感狀態,一種引起厭惡的獨特感受,會觸發特定的行為,也會導致特定的面部表情和軀體反應。在書中第十一章,兩位作者走得更遠,提出中腦的一個特定腦區,也就是導水管周圍灰質(也許還有它旁邊的腹側被蓋區和中腦自主活動區),它協調了上述所有情感狀態,產生了他們所謂的核心自我(core self),或者說意識。難怪德瓦爾會說目前還沒有關於情緒狀態的明確框架。

建立一個能用於人工智能代碼的合適理論,需要的可能就是從海量數據出發,這也是神經網絡解開語音和視覺領域眾多結構的關鍵。我們的目標是定義這樣的三向關連:(一)大腦活動(特別是杏仁核及其他皮層下腦區,但也包括大腦皮層中的島葉和扣帶回);(二)軀體反應,其中包括激素、心跳(威廉·詹姆斯(William James)強調它是情緒的核心標誌)以及面部表情;(三)社交情景,包括此前和將來的活動。情緒狀態應該由這樣的一堆三元組所定義——在某種類型的社交情景中產生的某種類型的神經與軀體反應。

我們一開始可以先從志願者那裡收集大量數據,方法是給他們插上靜脈導管,讓他們一邊通過耳機聽小說,一邊進行核磁共振成像。一位心理學的同事提醒我,他的博士生要在凌晨核磁共振儀空閒時在機器圓筒裡度過許許多多個小時。跟所有聚類算法一樣,這種努力的結果不一定是一組明確區分的情緒,而更可能是一種稍顯模糊的分類,分類中還有許多變體。

所有人類似乎都能在同一位朋友身上認出幾乎相同的基本和次級情緒,而人工智能也需要能夠做到這一點。沒有情緒分析的話,計算機科學家在給機器人編程就會出錯,無法使之能在與人類互動時正確模仿並回應情緒,我們把這種至關重要的能力叫做人工共情(artificial empathy)。我甚至承認,如果我們希望AI真正擁有意識,我相信它必須在某種意義上擁有自己的情緒。探索意識與情緒之間聯繫的一個好辦法,就是看看對於非人類的動物我們知道些什麼。

動物中的意識

我想指出的是,如果想探索AI能不能獲得意識,我們應該先回答動物有沒有意識。先讓我給所有正在讀這篇博文的人說一句開場白:

這位朋友,我相信你是有意識的。除了那些彆扭的唯我論者,我們都承認,在每位人類同胞的腦袋裡都有意識棲居,而且跟我們自己的意識沒什麼區別。但現實是,除了我們的共情以外,並沒有證據支持這一點。所以我們是否應該利用共情,將意識的信念延伸到動物上?

可以說,有貓狗之類寵物的人絕對會認定寵物有意識。為什麼?因為他們在寵物身上看到了某些行為,可以直接被理解為某種類似於他們也擁有的情緒導致的結果。他們覺得動物行為學的研究者將動物“感到恐懼”說成“展示了對捕食者的迴避行為”荒謬絕倫。他們不覺得說寵物“感到恐懼”是一種擬人化,反而覺得是常識,並且相信他們的寵物除了感受以外還擁有意識。

我們談論這些問題時用到的語言沒多大用處。考慮下面一系列詞語:情緒、感受、覺知、意識;還有這些短語:我們“感受到情緒”、“覺知到自己的感受”、“擁有意識覺知”,這些短語連接了之前那一串中前後相繼的詞語。換句話說,語言將所有這些概念連接在了一起,讓人思考的時候容易不夠清晰。同樣需要注意的是,在這個信息時代,許多老年病人的陪伴者是相當原始的機器人,或者是屏幕上的頭像,但這些病人很容易誤認這些信息造物有真正的感情。

所以我們傾向於說,我們單純就是不清楚非人類的動物有沒有感受或者意識。或者我們也可以兩頭下注,承認它們擁有感受,但將界線劃在意識上。無論如何,至少一位神經科學家,也就是雅克·潘克塞普,嘲諷這種立場是不可知論症末期。這個問題本該有個答案,但這種立場終結了討論。

直到最近,情緒和意識才獲得了作為科學研究合理課題的地位。最近幾十年,通過堅持不懈的觀察和測試,人們對動物情緒的研究達到了驚人的細緻。此前提到的弗蘭斯·德瓦爾和雅克·潘克塞普各自的書中,都細緻描述了種類繁多的情緒行為,橫跨從黑猩猩到大鼠的諸多物種,其中不僅有基本情緒,還有之前談到的某些次級情緒(比如說黑猩猩和狗的羞愧和驕傲情緒)。潘克塞普指出,大鼠幼崽也怕癢,在撓它們的腹部時,也會做出類似人類嬰兒的反應(見前述書籍第367頁)。

對我來說,這些著作以及其他文獻,當然還有我自己養狗養豬養馬的粗淺經歷,再加上在動物園看的動物,這些都是動物情緒令人信服的佐證。因為所有哺乳動物大腦內結構之間都有詳實的同源證據,我看不到有什麼理由去懷疑所有哺乳動物都能體驗跟我們一樣的那些基本情緒,即使它們的次級情緒遠沒有我們豐富。

而且,如果我們和動物都有情緒,正如我們會認為人類同胞有意識,出於同樣的理由我們也可以認為動物有意識。這就是“奧卡姆剃刀”(Occam’s Razor)的完美實例:這是目前為止解釋觀察數據最簡單的辦法。

人工智能的机器可能有意识吗?菲尔茨奖得主大卫·芒福德教授撰文探讨

除了哺乳動物,審視生命之樹其他部分是否有可能有意識也對我們很有幫助,無論那些物種是今日尚存還是從化石構建而來。啟發我這一點的,是哲學家與潛水員彼得·戈弗雷-史密斯(Peter Godfrey-Smith)的著作《章魚,心智,演化:探尋大海及意識的起源》(

Other Minds: the Octopus, the Sea and the Deep Origins of Consciousness)。

在生命之樹的基幹上有兩個表面上相似的界:細菌界與古菌界。它們都是原核生物,由簡單的細胞組成,沒有細胞核、線粒體、核糖體和其他細胞器。另一方面,兩者都擁有來自主要蛋白質家族的蛋白質,使用了通用遺傳密碼(由同一組轉運RNA分子實現),還有令人矚目的一點是,它們用於合成作為能量之源的三磷酸腺苷(ATP)的複雜電化學機制與所有高等生命一致。這個機制利用了離子泵將細胞內膜轉化為電容,這也是高等動物神經系統中信息傳遞的關鍵機制(在尼克·萊恩(Nick Lane)的著作《生命之源》(The Vital Question)中有生動的描述)。這些形式最簡單的生命也能通過細胞膜上的通道來感知周遭的化學環境,而絕大部分也能利用鞭毛四處移動,就此作出反應,尋求更好的環境。

這就是開端,一種原始形式的知覺,在35億年前出現。儘管我個人在此更傾向於不可知論立場,但在這些細胞中完全有可能存在意識的毫末。

下一步就是更大更復雜的單細胞機體的組成,也就是20億年前出現的真核生物。現在的假說是它們起源於一個吞噬了細菌的古菌,細菌通過不斷摺疊細胞膜,變成了新機體中的線粒體,極大擴充了整個細胞的ATP工廠,也就是能量來源。這個細胞的感知和移動能力得到了極大的提高,但我所知的改變並沒有使它變得更有意識。

然而在此之後,大約在6.5億年前,多細胞生物出現了。它們體積更大,當然需要遠超於此前的相互協調、感知與自主運動方式。人們相信第一個神經系統與此幾乎同時產生,以協調這個複雜的機體。這些生物是軟體生物,沒有留下化石,但現代的水母和海綿可能跟它相似。海綿沒有神經系統,但水母(還有櫛水母)的確有神經系統,也是目前擁有神經系統的最簡單的生物。人們對當時環境的描述是覆蓋淺海的一張細菌巨毯,而類似水母的生物以之為食。誰認為這樣的世界裡有意識?

捕食行為出現之後,整個世界對我們來說變得更熟悉了,大動物吃小動物,而所有動物都長出了外殼來保護自身,這都發生在5.4到4.85億年前的寒武紀。

現在我們發現了最早的擁有脊髓的脊椎動物。但我們也能找到最早的擁有外骨骼的節肢動物,還有最早的頭足類,這些頭足類是軟體動物門的獵手,長有一圈觸手,當時有著長錐型的貝殼(下圖是之後在奧陶紀出現的頭足類動物直角石的重建影像)。所有三個門類都擁有意識存在的嚴肅論據。

人工智能的机器可能有意识吗?菲尔茨奖得主大卫·芒福德教授撰文探讨

其中之一從能感受到疼痛的動物出發,然後論證對疼痛的感受就意味著意識。在某些實驗中,人們證明了受傷的魚會被吸引到溶有止痛劑的水域,即使魚在此前出於別的原因會避開這片水域。另外,我們也可以測試動物在什麼時候會嘗試保護或者撫慰身體受傷的部位:某些螃蟹的確會這樣做,而昆蟲不會(參見戈弗雷-史密斯的著作第93-95頁,以及其中註釋裡的參考文獻)。不幸的是,這就說明活煮龍蝦很有問題,這是所有新英格蘭人(包括我)都會做的事情,真混賬。

另一條路線就是鏡子測試——如果動物鏡子裡的影像有不尋常的地方,它是否會觸摸自己身體上對應的地方。驚人的是,有人報告某些螞蟻能通過鏡子測試,它們在鏡子裡看到身體上有一個藍點的時候,會嘗試撓那個地方來去掉藍點(見下圖,來自M.-C. Cammaerts and R. Cammaerts, J. of Science, v. 5, 2015, pp.521-532)。

人工智能的机器可能有意识吗?菲尔茨奖得主大卫·芒福德教授撰文探讨

在章魚一類動物中,我們能發現大腦大小與行為都接近犬類的物種。戈弗雷-史密斯引用了公元二世紀羅馬博物學家克勞狄烏斯· 埃利亞努斯(Claudius Aelianus)的話:“惡作劇與詭計明顯是(章魚的)特點。”的確,章魚擁有高度智能,喜歡互動、與人或玩具玩遊戲。它們能通過行為來認知辨別不同的人,即使這些人穿的潛水服完全相同。

除了戈弗雷-史密斯的書以外,大家也應該讀讀西·蒙哥馬利(Sy Montgomery)的暢銷書《章魚星人》(The Soul of an Octopus: A Surprising Exploration into the Wonder of Consciousness)。它們的大腦中神經元數目與狗相當,然而它們大腦的相當一部分處於觸手之中,取代了調節複雜行動的小腦。這與人類不無相似,我們的大腦皮層扮演監督的角色,而讓小腦和基底神經節掌管具體的移動細節和最簡單的反應。

如果你讀了這兩本寫章魚的書,還是覺得章魚並不像狗那樣有內心活動、覺知與意識的話,那麼我會很驚訝。這裡最重要的一點是,脊椎動物的解剖結構並沒有特殊之處,意識可以在完全不同的生物門類中出現,即使這些門類在寒武紀後就已分道揚鑣。

我個人的見解是,上述內容也暗示了意識並非非黑即白,不是要麼有意識要麼沒有。它應該以程度來衡量。人類在睡眠時或在許多藥物對主觀狀態影響下的體驗也符合這一點。舉個例子,速眠安是一種麻醉劑,能使人達到有意識和無意識的中間狀態。在大腦變大的過程中,我們的確獲得了更好的記憶能力,但在果蠅之類的動物中也能發現某種程度的記憶。在額葉擴張的過程中,我們也開始作出越來越多的計劃,預想未來並嘗試操控它。但即使蚯蚓也會稍微預想未來:它“知道”往前推進的時候,頭部感受到土壤的壓力會更大,這並不是因為土壤在把它往回推,也就是說,它們預期著這樣的回推(戈弗雷-史密斯的著作第83頁)。

我個人的信念是,所有擁有神經系統的動物都有某種程度的意識。另一方面,如果不算托爾金(Tolkien)和他的樹人的話,我覺得難以想象樹有意識。我讀到過,它們的根系會長得很靠近,就此能辨別鄰居的生化狀態(比如說旁邊的樹是否患上了某種疾病),但要說這是有意識的樹之間在交談,這也太浪漫主義了。

時間體驗與意識

我想回到一開始的問題,就是AI能不能擁有意識。最後這一節的大部分內容會讓許多讀者不高興:我需要再跨越一道界線,談論一些通常不僅僅被分為哲學、同時也屬於宗教或者靈性的內容。我不想成為“不可知論症末期”。

從人類社會出現開始,宗教就是它的特點之一。直到二十世紀,除了偶然出現的無神論社會,宗教向來是人們生活的軸心。之後,現代醫學的崛起使醫生取代了牧師,成為疾病來襲時人們的首選,同時,正如我之前所說,現代的知識分子開始對宗教視而不見。然而,對於像理查德·道金斯(Richard Dawkins)這樣的瘋狂無神論者,他們不尊重宗教的整個歷史與生活於其中的人們,我也無法尊敬他們。

我想先重複在之前一篇博文《讓神秘歸於神秘》(Let the Mystery Be)中提到的觀點:知覺是感知外界並根據這些感知作出回應的能力,儘管它跟對應的大腦活動一道,通常被認為是意識的根本特性,但我不相信這種說法。我相信入定高僧可以將自我置於某種狀態,其中心智中的思考被清理乾淨,然後能感知到純粹獨一的意識,擺脫其他人在醒覺時心智中充滿的那種喋喋不休。接受這一點的話,意識就必須是某種比我們能彙報的一組特定的想法要更微妙的東西,而有關意識的科學實驗強依賴於這些能彙報的想法(例如德阿納(Dehaene)的研究)。

我不能說我有過這種體驗,雖然我嘗試過,但對我來說這說得通,因為開始走上冥想這條路時,我曾在一段時間獲得某種心靈的平靜祥和。取而代之的是,我在這裡提出對時間流動的感知才是意識的真正內核,這與埃克哈特·托勒(Eckhart Tolle)的《當下的力量》(The Power of Now)在某種意義上一脈相承。它的基礎想法就是,我們每個人都擁有對瞬息萬變的當下的連貫體驗,但物理學和生物學都無法對它進行解釋。

這種體驗與知覺在本質上截然不同,而且比它更基本,這就是讓我們擁有意識的東西。

為了支撐這個想法,我想引用兩位最著名的物理學家的話。首先,牛頓(Newton)在《自然哲學的數學原理》(Mathematical Principles of Nature Philosophy)中寫道:

絕對的、真實的、數學上的時間,遵循自身性質自行均勻流動,與任何外界事物無關。

OK,這的確很好地描述了像我們這樣的凡人感受到的擁有當下的時間。我們都在一條河流裡漂流——沒有船槳——而河水帶我們走上了一條無可改動的路徑。但現在愛因斯坦完全改變了這種世界觀,他引入了統一的時空,其中每一點都是在特定位置於特定時刻發生的事件。他斷定在物理學上沒有自然的方法來劃分時間和空間,當兩個時間發生在不同的地方時,沒有辦法確定它們同時發生,也不能說兩個事件發生在同一個地方的不同時間。所以,在物理學中沒有任何東西能對應牛頓的時間。

然而愛因斯坦完全認識到人們體驗到的就是牛頓描述的時間,他懷疑這種時間,還有“現在”這個概念,在物理學中是否能獲得一席之地。雖然他從未就此寫過文章,但他與魯道夫·卡納普(Rudolf Carnap)討論過這個問題,提出了他的觀點。(感謝史蒂文·溫斯坦(Steven Weinstein)告訴我有過這個討論。)卡納普是這樣描述這場討論的:

愛因斯坦說“現在”的問題(the problem of the Now)嚴重困擾著他。他跟我解釋道:“現在”的體驗對人來說很特殊,跟過去和未來都截然不同,但這個重要的區分在物理學中不會也不可能出現。這種體驗不能被科學所掌握,對他來說這是一種痛苦但不可避免的放棄。他懷疑“現在”有某種本質上的東西處於科學領域之外。

對對對,這就是我想說的!從愛因斯坦那裡聽到這個真是美妙。

這會將我們在最後這一節的討論引向何方?我不想說知覺與意識毫無瓜葛。我認為兩者高度相關,而佛教僧人所做的是一種心靈體操。我想列出我辯護過的一些意識的性質,這些性質某種程度上描繪了意識的輪廓:

1)意識是在出生時降臨在許多生物上的一種現實,在生物死亡時就會離開,它創造了一種沿著時空中的一條路徑從過去“移動”到未來的感覺,還有感覺、情緒和身體運動。

2)意識有程度之分,從真真切切(比如愛之類的積極感受和痛之類的消極感受)到覺知邊緣。此外,大腦除了有意識的部分,也有無意識的部分,它的活動甚至思考都無法到達意識表面。

3)許多生物都有意識,比如章魚,還有人類。

4)意識賦予了我們擁有自由意志這一信念,也就是相信我們能作出選擇改變世界的這種想法。這與量子力學有關。

5) 意識無法被科學描述,它是處於另一位面的現實。

第一點和第五點可以從上面關於愛因斯坦的引文得出,而第二點和第三點來自之前章節(還有德阿納的著作《意識與腦——破解腦如何編碼我們思想的奧秘》(Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts)的思想。第四點是我在之前博文中討論過的主要議題之一,我希望以後會寫到(可以參見斯塔普(Stapp)的著作《心智的宇宙》(Mindful Universe))。

我覺得可以說宗教一致信奉第一點和第五點,並且認為意識,至少是人類意識,是某種靈性賦予的結果,使我們的軀體獲得生機並活躍起來,就像米開朗基羅描繪的這樣:

人工智能的机器可能有意识吗?菲尔茨奖得主大卫·芒福德教授撰文探讨

我自己的版本是這樣的:意識來自“靈性與物質墮入愛河”。為什麼是愛?這是一個比喻,表達了意識與相關的生命意志的強度,它們似乎普遍存在於動物中。“愛”只是一種擬人的說法,表達了靈性與物質建立了一條如此緊密的紐帶,使得死亡如此痛苦。重點是,如果你承認對時間的體驗不能用科學解釋,但卻以確定而非隨機的方式發生,那麼這種體驗必須來自某個地方。所以在這裡,奧卡姆剃刀指引我們最簡單的路徑就是利用所有宗教都提出的那個詞,把它叫做靈性。這是種簡潔的做法,並不基於任何個人獲得的啟示。

所以這篇博文標題裡的問題就變成了:什麼能夠讓機器人變得讓靈性願意使之獲得生機?可能除了泛神論者以外,沒有人會認為石頭有覺知。我在這篇博文寫的所有東西都指出,要想達到這一點,機器人最好有某種真實的情緒,無論方式是什麼。這可是個挑戰,阿門。

聲 明

本文為博客文章“Can an artificial intelligence machine be conscious?”(作者:David Mumford, Professor Emeritus from Brown and Harvard Universities,[email protected])的全文英譯中翻譯,並無其他修改。

本譯文僅作為知識分享,不用於任何商業性目的。

本內容可在遵循署名-非商業性使用-相同方式共享 3.0 (CC BY-NC-SA 3.0)的前提下自由使用。


分享到:


相關文章: