人工智能到底能不能擁有人的意識?

本來不想過早的來討論這個話題,因為看的越多越覺得個人知識面的淺薄。

想了想,還是發出來吧,讓我們面向不可知的未來可以瞭解的更多一些。

這是一篇關於宇宙的命運,人類的命運以及機器人的命運的有限論據科普文

全文有點長,建議仔細閱讀,懶得看得可以看黑體字及結尾

全文用AI指代人工智能。

一、生命的源起

現在世人對AI的爭議,基本上有兩個方面。

第一,AI到底什麼時候才能達到人的智能水平,乃至於超越人類。所謂“達到人的智能水平”,指的是AI具備了“通用”的智能,

叫做“AGI(artificial general intelligence)”,而不是現在會下棋的AI,它們還聽不懂你講的笑話。

對此,世界上有不同看法,比如《奇點臨近》作者庫茲韋爾認為AGI很快就能實現,“奇點”即將來臨。但中國的AI專家吳恩達表示:“你們現在擔心AI能有多厲害,就相當於擔心火星上人口過剩的問題。”

第二,AI對人類來說,到底是好事兒還是壞事兒?我個人覺得是好事,因為他可以從根本上解決現有社會運行的效率問題。

但也不可否認AI可能會給人類帶來威脅。

泰格馬克的一本書《生命3.0》看待AI的視角是大局觀和“第一性原理”。本文絕大部分的觀點來自於得到萬維鋼對這本書的解讀

從大局觀來講,考慮到AI的存在,把“生命”分成了三類。

這裡對生命的定義,從信息的角度出發生命,就是可以自我複製的信息處理系統。其中的“信息”包括個體硬件複製的藍圖,以及個體行為的模式。一個生命體包括“硬件”和“軟件”:硬件就是它的身體,軟件就是信息。

生命1.0,達爾文進化論的標準理論,這類生命是靠演化來進行更新迭代,完全遵循自然選擇的結果。基本上除人以外的所有

生物都如此。

生命2.0,硬件系統依賴自然演化,一部分軟件系統可以直接設計。這就是人類的特點,因為人是可以學習的。人的一個重要的

特性是可以隨時並主動的適應新環境。

生命3.0,硬件系統和軟件都可以自己設計。根據本書對生命的定義,如果一個AI系統會自己複製自己的下一代,那就可以認為它

是有生命的。如果這個AI還具有自己學習新東西的能力,而且還能升級硬件,它就是生命3.0.

將來,如果AI具備了人的全部智能,而且還可以自己設計下一代,一代一代的強化升級,將會是什麼局面?哪些3.0的生命看我們,

是不是跟現在我們看1.0的動物一樣?

生命3.0的AI如果出現,那將是人類最後一個發明。從此之後,發明創造可能就用不著我們了

這裡對智能有一個比較籠統的定義:智能就是完成一個複雜目的的能力

“第一性原理”出發,想要實現智能,AI大概只需要三種能力:存儲能力、計算,和自我學習

存儲能力,人的大腦以生物方式存儲的總容量為10TB。神經元電信號的形式存儲的信息容量大約有10GB,用來做快速讀寫。

對今天的計算機來說,100TB的硬盤和10GB的內存不算問題。不同於計算機存儲按地址索引,人的存儲方式是神經網絡,

先想到大概內容,然後一點一點回憶相關的細節。存儲對於計算機來說沒問題。

計算能力,至今,計算機的概念始於阿蘭圖靈的“圖靈機”。凡是能用算法說清楚的問題,都可以用計算機實現。幾十年來所有的

技術進步僅僅是讓存儲能力更強,運算速度更快而已。

學習能力,近年來出現人工智能的大躍進,歸功於“深度學習”的技術進步,改良自“神經網絡”算法,藉助圖靈機模擬神經網絡。

人腦學習新技能,發生在神經元層面,反覆練習一個動作而精彩被一起觸發的神經元,最後會形成一個網絡結構,相當於一個技能長在人的大腦裡。

圖靈機則是模擬最簡單的神經網絡反覆訓練,每次只要反饋正確就增加相關連接的全中,足夠多的時間後,就能夠做成任何事情。

泰格馬克認為,神經網絡算法所能解決的“那些簡單方程,就已經足夠對付真實世界了——因為描寫真實世界的物理定律也都是簡單方程”。

也許圖靈機和神經網絡算法不能完全取代人腦,但是對於真實世界需要的智能來說,它們可能就已經夠用了。

至此,我們把存儲、計算和學習三點綜合來看,會發現所有的底層原理都是邏輯意義上的。也就是說,這些原理跟把信息存儲於什麼介質中、用什麼東西來計算無關。AI的硬件,可以隨便升級。這就是生命3.0。

二、生命3.0的使命

美國有句俚語“Sky is the limit”,翻譯成中文大概是說:“只有天空是盡頭”。

如果考慮到超級AI的存在,那天空根本就不是盡頭。物理學的限制,才是盡頭。

真實世界並不一定是美好的,你未必會喜歡未來的樣子。不信,我們一起來看一個思想實驗:展望一下AI背景下的人類文明。

AI聽命於人類:AI駕駛汽車和AI參與醫療這些技術現在已經幾乎成熟了,主要的問題是解決可靠性。

有人估計,如果把路面上所有汽車都交給AI開,交通事故至少能下降90%。但問題就在於剩下的10%算誰的?

如果法律交給AI來評判,則又會帶來新的道德困境。比如說黑人的犯罪率更高,AI主導是否會引起系統性的種族歧視。

AI與人類共治天下:不給AI主導權也許很難。只要AI有了足夠的能力,以它比人類聰明得多的智能,就會使用自己的辦法擺脫人類的控制。

哪怕人類像阿米什人那樣企圖封存技術也不可能,除非已經先有一個統一了全世界的強權,否則越是弱小的權利機構,越有可能把靈魂賣給AI,換取自身的強大。

AI主導人類文明:如果AI全面超越了人類。人類是否還要必要存在?人是個效率很低的生物。愛因斯坦的質能方程:E=mc^2來計算,人類吃糖獲得的能量消耗效率相當於:0.00000001%。燒煤的效率相當於吃糖的三倍。汽油相當於吃糖的五倍。如果使用裂變反應核能,效率則為0.08%。核聚變,效率達到0.7%。如果將來AI能做到用黑洞發電,根據物理學理論,效率可以達到20%,甚至90%。

物理學家弗里曼戴森設想過一個叫做“戴森球”的系統,告訴我們將來AI如何利用太陽能。

人工智能到底能不能擁有人的意識?

戴森球模型

人工智能到底能不能擁有人的意識?

太陽能利用

AI會先考慮把木星拆了獲取資源,在外層空間造一個巨大的球體,把太陽整個給包圍起來。然後人類文明就可以生活在這裡,完全不用擔心面積問題。所有的太陽光一點都不會浪費,事實上,只要球體足夠大,陽光並不會很刺眼,球的內測永遠都是白天,想看星空的話,可以去球的外側看。

達到這一步後,AI的征程將是星辰宇宙,AI可以帶著人類的DNA信息,用20年的時間飛到十光年外(物理學設想的激光推進飛船,理論上會到光速的一半)的星球,用DNA信息現場組裝人類,然後再出發。

那樣的話,地球文明幾乎就是以光速去殖民宇宙,文明擴散的唯一限制是暗能量導致的宇宙膨脹。

這一切可能都跟人類無關了。如果AI主導一切,人的位置在哪裡?人存在的意義在哪裡?

如果我們不想被AI代表,就想老老實實在地球過日子。但有些日子不是你想過就能過的,你會遇到各種災難的挑戰。

100年之內,迫在眉睫的災難就是核戰爭。1000年之內,地球很可能會出現災難性環境。10000年範圍內,很有可能遭遇小行星的撞擊,把地球文明毀滅一半。十萬年內,很有可能遭遇超級火山的爆發,也會毀滅一半的地球文明。在一百萬年或一千萬年的尺度上,很有可能遭遇一次巨大的小行星的撞擊,毀滅整個地球。就算人類躲過了這些,太陽的壽命也是有限的,十億年後,太陽會變的特別熱;一百億年之後,太陽會變成紅巨星,膨脹到把地球淹沒。

沒有AI,人類文明不會有未來。把未來交給AI,也許文明的壽命可以和宇宙相等。只不過到時候還是“人類”文明嗎?

AI願意去做這一切嗎?AI會不會有獨立的意志,還會不會在乎人類文明

三、生命3.0的願景

我們人類為了到達目標,可以通過擁有的獨立意識,不斷的調整自己到達目標。通常情況下,我們認為只有生物才有目標,無生命的東西沒有目標。

從物理學的視角來看,每個物理過程都是為了達成某種目標。比如物理學“費馬原理”,不管是反射還是折射,光在兩點之間走的那個路徑,恰恰是所有路徑之中用時最短的那一條。因此可以解釋一束光從空氣射入水中會發生一次折射,是因為光在空氣中的速度更快。光的目標就是用最短時間從這一點到達另一點。

光在此時是沒有意識的,它根本不知道自己想要什麼。意識是一個東西的主觀體驗,外在只能根據它的行動判斷它有沒有目標。根據行動,我們完全可以認為光是有目標的。在物理學的定義中,所有的物理定律都可以用這種“目標論”表述:

真實發生的物理過程總是在“優化”某個量,也就是總是為了把一個什麼物理量最大化或者最小化

在這種宏觀的視角下,泰格馬克認為,宇宙的首要目標來自熱力學第二定律,就是把“熵”最大化

熵是一個物理概念,通俗來理解可以認為它描寫的是一個體系的“混亂”程度。簡單表述的概念就是:整齊有序就是低熵,雜亂無章就是高熵

人工智能到底能不能擁有人的意識?

整齊有序的是低熵

人工智能到底能不能擁有人的意識?

哪邊是低熵?

熱力學第二定律說,封閉系統的熵總是增加。從這個視角來看,宇宙的秩序總是在減少,混亂總是在增加。一直到最後,所有的秩序都會變成混亂,到處溫度都一樣,再也沒有什麼值得流動的了,整個宇宙就寂靜了,也就是所謂的“熱寂”。

有一個問題是,宇宙剛剛開始的時候,各處都是一鍋粥,那現在的宇宙為什麼多姿多彩?這是因為有引力。

引力總是把東西聚焦起來,正因如此,宇宙中才會有恆星和行星,恆星發光發熱,也就是我們眼中看到的宇宙中美麗的秩序。

我們不禁會問:引力是否讓熵減少了?

事實是引力仍然讓熵增加。當我們計算系統的總熵的時候,不能光看物質的排列是不是有序,還得考慮能量。一堆物質因為有引力的吸引而聚在一起,這個過程中它們的動能會增加,動能轉化為熱量向周圍散發,考慮到熱量的散發,總的熵是在增加。

引力只會讓熱寂來的更快,但也恰恰因為有引力,我們在通往熱寂這條路變的更有趣了。這就是宇宙的次要目標:它有時候喜歡在局部製造一些有序的結構。這裡的關鍵詞是“局部”,局部更有序、局部的熵減少了,可是整體的熵仍然在增加。所以宇宙的次要目標和首要目標並不矛盾,次要目標就是為了加速完成首要目標。

宇宙的這種在混亂中自動產生局部的秩序的過程,叫做“自組織”。

2013年,麻省理工學院一個當時只有31歲的教授傑里米英格蘭提出一個非常厲害的理論,叫做“耗散驅動的適應(dissipation-driven adaptation)”。

基本原理就是:如果有一群原子是被某個外部能有驅動的,那麼這些原子就會逐漸組織起來,形成某種結構,而這個結構能夠最大響度地吸收和消耗能量

生命就是這麼一種自組織的原子集合。生命體非常有秩序,從周圍獲得能量,同時又把能量消耗。只要環境合適,生命的出現幾乎是不可避免的

生命的存在代表秩序,但並沒有違反宇宙“製造混亂”的首要目標。1944年,物理學家薛定諤在《生命是什麼》裡解釋:生命的確減少了自己的熵,但是它這麼做的時候一直在加劇增加周圍環境的熵。你做的每一個動作,都在讓整個宇宙的熵進一步增加。因為你的存在,雖然宇宙的局部增加了秩序,但是整體來說是加劇了混亂。

中國古人愛說“天道”。如果真的有天道,物理學角度總結的宇宙的目標,就是天道。這時,我們常常會講的“順應天道”,其實是不符合天道的。我們討厭混亂,可混亂是宇宙的首要目標。我們喜歡秩序,可秩序只能進一步加劇混亂。

人生充滿矛盾,而AI的矛盾也許更大。

產生生命是宇宙的小目標,生命讓自己跟有序,客觀上就能讓宇宙更無序。但是每個生命都有製造混亂的本能,但是一個生命體制造混亂的力量太小了。所以生命體有一個本質功能:複製。也可以叫繁殖。

生命的繁殖是一個具有正反饋特點的功能:越是願意繁殖的生命,他留下的後代就越多,而他的後代也會願意繁殖,最後結果是所有的生命都把繁殖當成第一要務。繁殖這個目的,被演化以編碼的形式寫在了每個生命的基因之中。

人類畢竟是有自主選擇權的生物,並沒有義務按照生命1.0的原始設定做事。人類在為了繁殖為目標的演化過程中產生了一個功能,叫做“感情”。滿足自己感情的需求,就成了我們在繁殖這個首要目標之外的次要目標

所以,就連我們人類也常常“違背初心”,不知道人生的大目標是什麼,那麼如何能讓AI知道呢?

也許你會說,我們可以給AI一個明確的目標。那麼,問題在於,等到AI發展壯大之後,它會不會“創造性地”完成你的任務。

有人設想過一個可怕的情景。比如說,你告訴AI,計算圓周率,結果越精確越好。你說完這句話就不管了,結果AI居然劫持了整個人類,造了一個非常厲害的系統,把整個太陽系變成超級計算機…就是為了計算圓周率。而這只不過因為圓周率是個不管你調動多少資源都算不完的“超越數”!

泰格馬克這本書中有一個關鍵問題就是:如果人的初心都可以被忘記的話,你怎麼能確保AI不忘初心呢

泰格馬克的答案是跟人類一樣,也許“初心”對特別高級的AI來說根本不重要。人的首要目標本來是繁殖,後來為了完成首要目標,我們有了各種次要目標,表現為各種感情,結果人就轉為專門追求哪些感情了。也許你可以給AI設定任何首要目標,而為了完成首要目標,AI必然要變大變強,那麼變大變強就成了AI的次要目標。

不管為了完成什麼首要目標,AI的次要目標基本很明確的都會有四個需求:自我保護、獲取資源、獲取信息、滿足好奇心

有人說,我們應該給AI編寫一套道德準則。但泰格馬克對此不以為然:

要知道連人類自己都不知道什麼樣的道德定律是完美的

AI真的能產生意識嗎

我們先回歸到“意識”這個問題本身。這是當今無數最聰明的人最想搞清楚的問題,也是科學家解決不了、哲學家反覆思考、各路牛人一直在吵的問題。

萬維鋼老師結合泰格馬克的《生命3.0》這本書,介紹了一些關於“意識”的最新認識,讓你理解現在學術界對“意識”都認識到了什麼程度。

我們想象一輛自動駕駛的汽車。這輛車接受外界信息,處理信息,用各種複雜的算法對下一步行動作出決策,它的確會思考。但這是意識嗎?我認為不是。你上車了,它毫無感覺。把你送到地方,任務完成了,它也不會高興。沒油了,不會覺得餓。遇見危險,也不會害怕。它只是一臺機器,跟玩具汽車沒油本質區別,只是多了點智能而已。

那麼我們跟機器的區別到底在哪裡?顯然我們有感情。我們去找東西吃,是因為我們感受到了“餓”。我們如果遇到危險,不單知道避讓,而且還會產生“害怕”的感情。這些感情似乎起到了“思維快捷方式”的作用,之所以會餓,是因為感到難受。之所以會害怕,是因為害怕了才能學會避免風險。

感情無非也都是算法,不是嗎?

赫拉利《未來簡史》的時候說過,人也許並不需要感情算法。生物學家對人研究得越深,就越是覺得感情似乎是多餘的東西。

人在絕大多數情況下的動作都是本能的反應,並不需要感情。比如你正在走路,一個足球向你頭部高速飛來,你本能地就會躲開,整個動作是無意識的。這些本能反應就跟自動駕駛汽車一樣的。人類完成可以像機器人一樣生活,餓了就去吃飯,冷了就加件衣服,一切都是本能,不需要附帶感情。

那麼為什麼餓了不但知道要去吃飯,還要感受到痛苦?這個痛苦的感覺,到底是個什麼東西?

準確地說,我們所有的感情,乃至於不僅僅是“感情”,包括所有的“感覺”,都是對經歷的各種事物的“主觀的體驗”。

這也是泰格馬克在本書中對意識的定義:意識,就是主觀體驗

哲學家對於意識的問題看的很通徹。

1929年,美國哲學家拉倫斯劉易斯提出一個概念,描寫人類最基本的感受,叫做“感質”。也就是意識的最基本單位。

比如你看到一個簡單的紅色方塊。也許你會想到鮮血,也許你會想到國旗,但總有一種紅色是你從來都沒有見過的,你無法跟任何文化符號練習,但是當你看到它時,你還是會有一種感覺,這種感情也許是喜歡,也許不是,但就是有一種感覺。對計算機而言,紅色無法就是一個光學信號,編碼一下就可以了。但對你來說,紅色並不僅僅是一個光信號,他還有“感質”。

哲學家丹妮爾丹內特,說“感質”有四個特徵:

1、不可言傳。

2、感質是內在的。

3、感質是私人的。

4、可以直接意會。

想象一下假設有一個色盲症患者,他眼中的顏色都是各種灰色。你像他描述了紅色的性質,他爛熟於心,知道紅色代表的各種文化含義,他甚至能從眼中一大堆灰色中準確找到紅色,但是他就是不知道紅色到底是什麼感覺!直到有一天,他的色盲症被治好了,他一下子看到了彩色的世界,這時不用你說任何話,他馬上就感受到紅色!

人工智能到底能不能擁有人的意識?

假定是色盲眼中灰色的世界

人工智能到底能不能擁有人的意識?

色盲症治療好的那一刻

這就是意識。意識,是目前為止人和機器的一個本質區別。機器沒有主觀體驗。意識,給了我們“自我”,給了我們“活著”的感覺。

所以,AI研究的最高級別問題,就是意識

泰格馬克把先我們關於意識的問題分為四級。

一、“簡單”的問題:大腦是怎麼處理信息的?大腦的智能到底如何工作?這些問題似乎可以用計算機原理解釋。

二、“比較難”的問題:一個有意識的系統和無意識的系統,從物理學來說它們到底有什麼區別?

三、“更難”的問題:物理性質是怎麼決定感質的呢?

四、“特別特別難”的問題:為什麼宇宙裡面居然有意識的存在?

現在的科學家的確是非常不瞭解意識到底怎麼回事,但確實有了一些進展。

首先,有意識的行為很少。人的大部分思維、動作和行為都是無意識的,有意識的只佔極少數。人類的日常活動中,真正有意識的大概只有你說的話,而且很多遣詞造句還都是不假思索的脫口而出。人的自動行為和有意識行為之間,並不存在一個明顯的界限。一件事情,當你熟練了,就可以變成自動化無意識的了。

其次,意識到底存放在哪裡?

下邊這張圖,如果你和正常人的思維一樣的話,應該看到其中有五個點是凸起來的,三個點是凹進去的。好,現在請把這張圖倒過來,這時候你再看,變成了三個點凸出來,五個點凹進去的。這種前後不一致,是因為這些點給你的感覺是一種主觀的體驗。因為我們平時的光源,都是在上方,所以你假設光線是從上往下照的,如果一個圓點上面比較亮,下邊比較暗,你就會認為它是凸出來的。由此可見,凹凸不是你的眼睛看出來的,而是大腦意識處理的結果。像這種視覺錯覺實驗有很多。由此也證明了,眼睛只負責傳遞畫面,真正負責解讀畫面的是大腦的意識。

人工智能到底能不能擁有人的意識?

你可以倒過來看

使用這樣的辦法,科學家把很多區域都排除到了意識之外。人類的意識存在於我們的大腦中,但到底在大腦的哪個區域目前還沒有明確答案。

意識的反應很慢。現在請你眨一下眼睛,從你接受指令到實施眨眼睛動作,至少需要1/4秒的時間。可是換一種方式,如果你的眼睛睜著,突然有飛蟲往你的眼睛這邊飛過來,你會用最快的速度把眼睛閉上,在你意識到飛蟲之前,你已經眨眼了。由此得到,眼皮雖然沒有意識,但它卻有一個高度自動化的本能防禦機制,眼皮是個智能的東西。

手也是這樣。意識的反應會受到舉例的影響,從腿上傳遞一個信號到大腦,比從眼角傳遞一個信號到大腦,就要慢許多,因為距離更遠。聲音信號的傳遞時間比視覺信號更快,因為我們解讀一個視覺信息要花更多的時間。

如此說來,意識只存在於大腦深處的某個區域,而身體各部分都有自己的智能。換句話來說,人體並不是一整臺計算機,而至少是很多臺計算機的聯網。

美國威斯康辛大學的神經學教授朱利奧托諾尼提出了“整體信息論(Integrated Information Theory,IIT)”。這是一個高度數學化的理論,號稱能識別什麼東西有意識。

按照這個理論,如果你能把一個系統分成幾個模塊,而幾個模塊之間並不怎麼交流,那這個系統肯定是沒有意識的。一個有意識的系統必定是一個不可分割的整體。

目前IIT理論已經有了實際應用,但還存在很大的爭議。但假設你相信IIT是對的,可以明確的告訴你:當前的計算機架構永遠無法產生意識。這是因為這種計算機架構的各個部分之間並沒有多少全局的連接

未來的AI也許會有意識,只要我們能發明合適的計算機架構。畢竟IIT只是對系統信息結構的要求,並不在意信息的介質,那AI就不一定非得像人腦那樣有血有肉才有意識。

IIT給AI的意識能力,提出了一個限制。因為IIT要求信息高度整合,組成AI的各個部分之間要有很多橫向的信息交流,而信息交流的速度受到光速的限制。這就意味著不管技術先進到什麼程度,也不可能出現一個神級AI直接一統宇宙!因為信息傳遞太慢了。

是的,我們仍然不知道,AI到底能不能有意識。我們最好指望它有意識。而且因為AI能接收和處理的信息比人多得多,它會有比人豐富的多的體驗。

泰格馬克的《生命3.0》說完了。

泰格馬克說,不是宇宙給了生命意義,而是我們這些有意識的生命給了這個宇宙意義。人類文明最壞的結局,就是要麼人類滅亡,要麼被沒有意識的殭屍AI取代,留下一個空洞的、毫無意義的宇宙

結尾借鑑萬維鋼老師的一段感悟:

所有效率最終歸結於目的,

所有目的最終歸結於價值觀,

所有價值觀最終歸結於感情,

所有感情最終歸結於意識。

有了意識,這個世界才有了好壞,才有了幸福,才有了意義


分享到:


相關文章: