赫拉利:AI演變成全球科技競爭會比核競賽還要危險

編者注:硅谷時間4月22日晚,在斯坦福可容納約2000人的超級大演講廳,以色列著名歷史學家尤瓦爾·赫拉利(Yuval Noah Harari),與斯坦福一個多月前神秘成立的 “以人為本” AI 研究院領導者李飛飛,展開了一場以人工智能為主題的對話。

赫拉利:AI演變成全球科技競爭會比核競賽還要危險

活動現場:左為赫拉利,中為李飛飛(圖片源自赫拉利Twitter)

我們不僅面臨著一場技術危機,同時還有哲學危機

Yuval:在我看來,現代社會的哲學框架仍然來源於17世紀和18世紀,人類能動性、個人自由意志等理念正在受到前所未有的挑戰,這種挑戰並非來源於其他哲學理念,而是來源於現代科學技術。越來越多原本屬於哲學領域的問題,正在轉變成工程類問題。這非常可怕,因為工程師不像哲學家那麼耐心,哲學家們可以為一個問題討論個幾千年,如果沒有找到滿意的答案,那麼他們就不會停歇,工程師們則爭分奪秒。

這也就是說,我們已經沒有太多的時間。為了簡單概括一下我們面臨的危機,我可以列出這麼一個等式:B×C×D=HH。其中B代表的是生物學知識,C代表的是計算機的能力,D代表數據,HH代表的是“hack human”。

而人工智能的革命並不只是涉足人工智能領域,這也和生物學有關,這是一種生物科技。人們更多的只是看到計算機和人工智能,這隻看到了這個技術的一半,它的另一半則與腦科學、生物學方面的知識有關係。一旦你將其與人工智能聯繫上,那麼你將獲得hack human的能力。這裡允許我解釋一下hack human是什麼意思,其字面意思是“黑入人類”,它指的是創建一種算法,能比你自己更瞭解你自己,因此它能夠操縱你,完善你,甚至取代你。這正是我們哲學上的信仰,也就是人類的能動性和自由意志,具體表現為“用戶就是上帝”、“投票者最瞭解自己”等等,而一旦我們具備了這種能力,這種信仰就會四分五裂。

這種能力就一定是被用來操縱或取締人類的?它就不能用於完善人類嗎?

Yuval:它當然可以用來提高人類的能力。但問題是,誰來斷定,這種強化到底是往好的方向還是往壞的方向?所以我們首先需要確定的是,我們必須迴歸到最傳統的人類理念,“用戶永遠是對的”,“用戶會自行決定自己的強化方向”。或者說“投票者永遠是對的”,他們自己會決定政治上的決策。如果這種強化方向感覺不錯,那麼就繼續做,我們只需要根據自己的想法去做事就好了。但如果人類被大規模地“被黑”,那麼這種情況將不復存在。你甚至不敢相信自己的感覺和投票權。那些信奉自由意志的人反而最容易被操控,因為他們不認為自己會被操控。所以說我們應該如何決策自己的改進方向,這是一個非常有深度的道德和哲學方面的問題——到底什麼是“好”的。我們應該強化自己身上的哪些方面。如果用戶不可信,投票不可信,自己的感覺也不可信,那我們該何去何從?

Yuval的公式是否成立?Yuval給我們指引的方向是否正確?

李飛飛:

我非常羨慕哲學家,因為他們只需要提出問題,卻不一定要回答問題。作為一個科學家及工程師,我覺得我們現在有必要解決這個危機。

為什麼在20年後人工智能會演化成一場危機?

這是一項革命性的技術,它還處於萌芽階段,相比物理學、化學、生物學,它還很不成熟。但在數據和計算機的支撐下,人工智能的確在改變人們的生活,影響深刻且廣泛。為了回答這些問題,以及應對人類的危機,我們能否改變教育、研究以及與利用人工智能的方式,讓它變得“以人為本”?當然我們不急著今天就找到答案,但我們可以逐漸改變人類學家、哲學家、歷史學家、政治科學家、經濟學家等各行各業的人來研究和推動人工智能進入新的篇章。

人們認為AI會帶來很多危機,例如失業、歧視,甚至擔心AI會出現自己的意識,這意味著什麼?

李飛飛:任何人類創造的技術最初都是一把雙刃劍。它能改善生活、工作,造福社會,但同時也會有不利的一面,人工智能也不例外。每天醒來我都要擔心各種問題,包括用戶的隱私、公正性,以及對勞動力市場的影響。我們必須考慮這些問題,但也正因為如此,我們要繼續研究,人工智能的開發策略和互動方式也不應該侷限於代碼和產品,還應該考慮到人類的生存空間以及社會問題。因此我絕對同意開放對話,並針對這些問題進行研究。

Yuval:我一部分的憂慮正是源於對話。人工智能專家和哲學家、歷史學家、文學評論家對話,都可以。我最害怕的是他們與生物學家交流。當他們產生共同語言,才真正有可能入侵人類的思想。人工智能將不僅僅是蒐集我們的搜索關鍵字、購買習慣和出行信息,它還會更深入一步,直接蒐集我們內心所想的數據。

AI的誕生,正是源於人工智能科學家與神經科學家的對話。AI給醫療保健行業帶來了巨大的改善。機器學習幫助收集了大量的生理學和病理學數據。

Yuval:這只是其中的一部分。一門科學技術如果沒有任何收益,那麼它就不會有任何危險,因為就沒有人去研究它。我認為AI會帶來巨大的利益,尤其是當它和生物學結合在一起的時候。目前全世界的醫療水平已經達到了歷史以來的新高,數十億人只需要點一點手機就能獲得便宜、可靠的服務。這也是我們無法抗拒它的原因。儘管有人認為這會引發隱私方面的問題,但在隱私和健康比起來,顯然後者更重要。但我必須指出它帶來的危險。特別是硅谷地區的人,已經習慣了AI帶來的好處,但他們很少考慮它的危害。

如果這種事情真的發生,那麼我們生活中的所有決策都將源於算法。這將產生兩種形式的反烏托邦。我們所有的決策都將是由算法幫我們決定的。這不僅包括早晨吃什麼、去哪裡購物,還包括去哪裡工作和學習、和誰約會、和誰結婚、投票給誰等。我想知道的是,人類思想中是否有什麼東西是無法被機器入侵的這種技術將來作出的決策是否會優於人類。這是其中一種反烏托邦。還有則是,基於一個能監控一切的系統,我們將產生一種高度集權的政體,這類似於上個世紀出現過的集權政體,但藉助生物傳感器,它能全天候地監控到每一個人。

李飛飛:當你問我這個問題時,我腦海裡蹦出來的第一個詞是“愛”。你覺得愛也會被機器取代嗎?

Yuval:這個問題得看你指的是哪一種愛。如果你指的是希臘哲學中的愛或者佛教中的愛,那麼這個問題會更加複雜。如果你指的是生物學意義上的,與哺乳動物之間求偶有關的,那麼我的回答是“yes”。

人類之所以是人類,那是因為我們不止會求偶,對嗎?這部分也會被機器取代嗎?

Yuval:我認為你在大多數科幻小說中看到過答案。當來自外星的邪惡機器人入侵地球時,人類節節敗退,但最後關頭人類絕地反擊,反敗為勝,因為機器不懂什麼是愛。

李飛飛:科幻小說中通常是一個白種人拯救人類。Yuval所說的兩種反烏托邦,我找不到答案。但我要強調的是,正是因此,我們現在就要尋找解決方案,現在就要尋找人類學家、社會科學家、商業巨頭、公共社會和國家政府進行會談,聯手譜寫人工智能的新篇章。我認為你的確引發了人們對這場潛在危機的關注。但我覺得,除了面對它,更重要的是採取行動。

Yuval:我也覺得我們應該讓工程師與哲學家、歷史學家進行更加密切的合作。從哲學的角度看,我認為工程師身上也存在一些很優秀的東西。工程師們少說多做。哲學家們總喜歡弄一堆稀奇古怪的比喻。所以如果工程師問哲學家“你到底想表達什麼?”那麼這些理論大多都站不住腳,因為他們很少能解釋這些理論——我們需要的就是這種合作。

如果我們都不能解釋愛,不能用代碼來表達愛,那麼AI可以感受它嗎?

Yuval:我不認為機器能感受到愛,但如果只是為了監控、預測和操縱這種感受,那麼機器也沒必要感受到它。正如機器不可能喜歡玩遊戲,但它就是具備這種功能。

李飛飛:個人而言,我們這段對話存在兩個非常重要的前提。

第一,人工智能已經達到了一個全知全能的地步,它具備了感知能力,甚至愛的能力。但我要強調的是,這和目前的人工智能存在非常遙遠的差距,這種技術還很不成熟,目前媒體對它的炒作居多,具體實施還需要很多年的努力。

第二,我們所處的這個世界將存在一個非常強大的人工智能,或者這個技術只屬於少部分人,然後他們企圖用它來統治全人類。但實際上,人類社會非常複雜,人類數量非常多。在歷史上,我們已經見過很多科技落入少數惡棍手中,在缺少監管、協作、法律法規和道德準則的約束下,這些技術的確給人們社會帶來了巨大的傷害。

但總體上看,我們的社會在朝著更好的方向發展,人們也更傾向於對話解決問題。所以我們不僅要談論人工智能成為“人類終結者”的問題,也要談論一些眼下更緊急的問題:多樣化、隱私、勞動力、法律調整和國際政治等。

如何避免數字專政?

Yuval:關鍵問題就是如何管理數據的歸屬權。因為我們不可能停止生物學領域的研發,也不能停止研究計算機科學和人工智能。所以之前的公式中,最好控制的就是數據,但這也非常困難。目前雖然已經作出了一些舉措,但要控制數據這同時涉及哲學和政治兩個方面。擁有數據,以及管理數據所有權,到底是什麼意思?在過去幾千年裡,我們已經充分理解了,什麼是土地擁有權,但很少了解什麼是數據擁有權,以及應該如何進行管理。但這正是我們要解決的問題。

我承認AI沒有某些人想的那麼強大。但我們必須把握這個度,我們不需要完全瞭解人類的AI,只需要它比我們更瞭解自己。這並不困難,因為很多人根本不瞭解自己,所以經常犯下決策錯誤,包括理財和愛情等方面。所以將這些判斷題交給算法,可能仍然很糟糕,但只要比我們做的好一些,那麼這種趨勢仍然會存在。

將來可能會出現這種情景,你可以寫出各種的算法幫助你瞭解自己。但如果這些算法不止把這些信息分享給你,也把它們交給廣告商或者政府會怎樣?我覺得我們不應該只思考太遙遠、太極端的情景,而是更關注我們生活中的例子。

人工智能存在著機遇和風險,目前最重要的事情是什麼?

李飛飛:我們現在有太多的事情可以做,這一點我非常同意Yuval的看法。斯坦福大學認為,未來的人工智能應該是以人為本的,我們需要堅持三個主要原則。

第一,要投資具有人類思維特徵的人工智能技術。目前大多數人工智能都依賴於數據,以及對數據的管理政策,這樣可以控制人工智能帶來的影響。但我們應該開發一種可以解釋人工智能的技術,以及能對人類智力產生更細微的理解的技術。同時還要投資那些不太依賴於數據的人工智能,它能反應人類的直覺、知識和創造性等。

第二,為人工智能的研究設立更多的準則。

讓經濟、道德、法律、哲學、歷史和認知科學等多個領域的人參與研究。任何單一領域的研究人員都不能單獨解決這個問題。

最後,除了上述操作性的建議,我認為我們在做這些事情時,我們應該抱著警惕和理解,同時又要將這種技術運用到正途。

如果我們自己都不瞭解自己,那麼計算機可能比我們更容易解釋這些決策嗎?

李飛飛:兩位數的乘法對我們來說很難,但對計算機來說很簡單。有些事情人類覺得困難的,未必難得倒機器。畢竟這些算法都是基於非常簡單的數學邏輯。對此我們採用了包含數百萬個節點的神經網絡。誠然,決策的解釋很困難,但相關研究已經在進行,一旦成功它將會帶來突破性的進展。而且有了這種技術,人們就很難用人工智能去作弊。

Yuval:但是人工智能的決策邏輯可能和人類完全不同,哪怕它解釋了,我們恐怕也無法理解。例如申請銀行貸款被拒,人工智能可能會告訴你,這些數據有數萬個來源,同時進行了加權和統計分析,某些數據的權重為什麼是這麼多……這完全可以寫一本書。

科學越來越難向公眾解釋很多理論和發現,這也是為什麼很多人對氣候變化持懷疑態度。這不是科學家的錯,而是科學技術越來越複雜,而人類社會更復雜。人類的思維無法理解它,正如它無法理解為什麼要拒絕一個人的貸款申請。

我們應該如何確保數據沒有種族傾向?

李飛飛:說實話我個人也回答不上這個問題,但機器學習系統存在偏見已經是個既定的事實。但這種偏見的成因非常複雜。斯坦福大學有人專門研究這個問題,如何去除數據的偏見,讓決策更加中立,同時也有人類學家在談論什麼是偏見,什麼是公平。什麼情況下的偏見是好的,什麼情況下是壞的。之前就有研究通過臉部識別算法發現好萊塢女演員的出鏡率更低。

Yuval:至於是否應該剔除數據中的種族特徵或是性別特徵,還需要具體分析。這也是一個需要工程師和倫理學家、心理學家以及政治科學家合作的地方。將來還可能包括生物學家。這又回到了一個問題上,我們應該怎麼做?也許我們應該在未來的程序員培訓過程中加入倫理課程。在那些設計人工智能工具的大公司裡,同樣也要配備倫理專家這樣的團隊,他們需要考慮設計人員會在不經意間加入哪些偏見,它會給政治或文化方面帶來什麼樣的影響。而不是等到惡果出現了,才追悔莫及。

是否存在道德和人工智能預測精準性的問題?與全力研發技術相比,邊研究技術邊考慮道德問題,進度是否會更慢?

Yuval:這就是一個類似軍備競賽的問題。我覺得,這是AI目前面臨非常危險的一個問題。越來越多的國家意識到這種技術的重要性,都擔心自己會被別的國家甩在後面。避免這種軍備競賽的唯一方法,就是進行更充分的交流。這聽起來有些虛幻,因為我們現在完全是在背道而馳。我們的工作就是要讓人們明白,AI的惡性競爭就類似於核戰爭,誰都不會成為贏家。美國人可能會說自己是好人,但這個人工智能領域的領先者,只服務於美國自己的利益,誰又能相信它的公正性?

Yuval:我認為全球合作可能非常脆弱。核武器的軍備競賽雖然會讓一大批核彈問世,但是人們從沒使用過它,人工智能不一樣,它一直在被使用,最終孕育出一個集權政體。因此我認為它更加危險。

如果不同的國家之間存在巨大的技術差距,那會發生什麼?會像19世紀工業革命那樣,少數掌握工業力量的國家統治了整個世界的經濟和政治?如何避免悲劇重演?哪怕沒有戰爭,全球大多數人仍然處於被剝削狀態,大部分人的勞動所得最終都屬於少數幾個國家。

李飛飛:不同地區的技術研究進度的確不同。不同於19世紀和20世紀,技術正在以非常快的速度全球化。任何基礎性的科研論文都能在網上查到。不同國家可能因為制度不同,在技術研究上可能存在一定差距,但我認為你所描述的情況,還是很難發生的。

Yuval:我說的可不只是科研論文。是的,論文是全世界共享的,但如果我生活在也門、尼加拉瓜、印尼或者加沙,我沒有數據和基礎設施,我就算上網下載了論文又能如何。你要看看那些擁有所有數據的大公司來自哪裡,基本只有兩個地方,其中不包括歐洲,畢竟歐洲沒有谷歌、亞馬遜、百度或者騰訊。你再看看拉美、非洲、中東和大部分東南亞地區,他們也能學到這些知識,但想要藉此對抗亞馬遜還遠遠不夠。

擁有數據和更高計算能力的人是否將獲得更多的權力,收入的不平等也會因此加劇?

Yuval:正如我所說的,這很可能還只是個開始。它在經濟和政治方面帶來的影響將是災難性的。那些依賴手工勞動力的國家的經濟體系可能會因此崩潰,它們沒有足夠的教育資金去參與人工智能競爭。洪都拉斯和班加羅爾的生產基地將搬回美國和德國,因為人力成本不再重要,加州生產的襯衫可能比洪都拉斯便宜。這些國家的人又該何去何從,新生的崗位是留給軟件工程師的,洪都拉斯的孩子可沒有錢去學習編程。

李飛飛:的確,Yuval預想到了很多我們面臨的危機,因此我們需要更多人來研究和思考這些問題。但目前全世界的國家、政府和公司都還有時間思考自己的數據及人工智能策略,意識到當下是他們的國家、地區和公司的關鍵時刻。而這些潛在危機正是因為他們還沒意識到要跟上數字時代的潮流,也是時候引起他們的注意了。

Yuval:是的,這非常緊急。某種程度上講,這就是一種數字殖民:從巴西、印尼等國家蒐集數據,然後由美國來處理,最後生產出更好的設備和技術,賣回殖民地。儘管它和19世紀的殖民存在差別,但這種類比值得我們留意。

人們如何建設AI公司,是推動數字殖民,還是改正它?又該怎麼看待人工智能,以及如何去學習?

Yuval:就我個人而言,我認為不論是否在斯坦福大學深造,是否是工程師,都一定要更加了解你自己,因為你正處於一場競爭中。這也是所有哲學書中最經典的建議。蘇格拉底、孔夫子、釋迦摩尼都給出過類似的看法。但在釋迦摩尼或蘇格拉底的時代,你不瞭解自己也沒關係,你只是錯過了頓悟的機會。如今你們處於競爭中,如果不瞭解自己,你就完了。對於工程師或學生,我希望實驗室和工程部門出現兩件東西。第一,我希望出現一種離心化的系統,而不是中心化的系統,我不知道該怎麼做,但我希望你們可以嘗試,我聽說區塊鏈在這方面挺有潛力的。這是對我們民主制度的保護。

第二,我希望出現一種專門為人服務的工具,而不是為企業或者政府服務。也許我們無法阻止人工智能瞭解自己,那麼我希望它瞭解我們是為了保護我們不受其它人工智能的侵襲。就像我的身體不能對抗電腦病毒,但是我的電腦可以裝殺毒軟件。

本文轉自“獵雲網”,編譯:胖虎


分享到:


相關文章: