新書《Human Compatible》書評:AI與我們的未來

神譯局是36氪旗下編譯團隊,關注科技、商業、職場、生活等領域,重點介紹國外的新技術、新觀點、新風向。

編者按:AI對人類未來的影響是一個熱門話題,圍繞這個話題的爭論正日益變得部落化。AI暢銷書《人工智能:一種現代的方法》合著者Stuart Russell(斯圖亞特·羅素)曾在該書的最後一章提出過這個問題,並給出了一個不怎麼受到認可的回答。為此,他用一本新書《Human Compatible》來認真地再回答一次這個問題。此文是Ian Sample對此書的書評,原文發表在衛報上,標題是:Human Compatible by Stuart Russell review – AI and our future

新书《Human Compatible》书评:AI与我们的未来

製造比我們更智能的機器可能是人類史上最重大的事件,也是最後一件事

這裡有個問題,科學家可能會經常問:要是我們成功了該怎麼辦?也就是說,如果我們實現自己的目標,世界會發生什麼樣的改變?研究人員躲在辦公室、實驗室裡可以洞見未來,對自己的作品做出最美好的展望。但是其意外後果和卑鄙濫用卻變成了事後之明——留在的一堆爛攤子卻要由社會來收拾乾淨。

如今,那些混亂已經到處蔓延:全球變暖、空氣汙染、海洋上漂浮的塑料、核廢料,DNA被惡劣改寫的嬰兒。所有這些,都是精巧技術的產物——技術解決舊問題的方式是製造新問題。在這場不可避免的爭相成為首創者的角逐當中,不利因素要麼沒有進行徹底研究,要麼被直接無視或者掩蓋住了。

1995年時,Stuart Russell寫了有關AI的書。他跟Peter Norvig合著的《人工智能:一種現代的方法(Artificial Intelligence: A Modern Approach)》成為全世界最受歡迎的課程教材之一(Norvig曾在NASA工作,2001年加入了Google)。在最後一章的最後幾頁,作者自己提出了一個問題:如果我們成功了該怎麼辦?不過他們的答案几乎算不上認可。他們的答案:“這種趨勢似乎並不算太消極。”但此後發生了很多事情:–首先就是Google和Facebook。

在《Human Compatible》一書中,Russell再次回到了那個問題,這次他不再退縮。其結果無疑是今年AI方面最重要的一本書。也許,就像理查德·布羅蒂根(Richard Brautigan)的詩所言那樣,當一切都被慈愛的機器注視著的時候,生活是美好的。但是加州大學伯克利分校教授Russell卻看到了更黑暗的可能性。製造超越我們智慧的機器將是人類歷史上最大的一個事件。但他警告說,這也可能是人類的最後一次事件。在書中,他提出了令人信服的案例,證明我們選擇如何去控制AI“可能是人類面臨的最重要的問題”。

Russell的時機選擇得很好。現在,全世界成千上萬最最聰明的頭腦都在開發AI。大多數AI都是隻有一技之長——“狹義”的AI,要麼處理語音,要麼翻譯語言,要麼識別人群,要麼診斷疾病,或者下圍棋玩星際爭霸厲害過人類的那種。但是,這些與該領域的最終目標——可媲美甚至超越人類腦力的通用AI仍相去甚遠。

這不是一個荒唐的追求。從一開始,Google母公司Alphabet旗下的AI團隊DeepMind 就打要“解決智能”問題,然後再用它來解決其他所有問題。七月份,微軟與美國公司OpenAI 簽署了一份10億美元的合同,要開發一種模仿人腦的AI。這是一場高風險的比賽。就像弗拉基米爾·普京所說那樣:誰成為AI領導者,誰就“將成為世界的統治者”。

Russell並未宣稱我們距離那個目標不遠了。在某個章節裡面,他闡述了計算機工程師在開發人類水平的AI時面臨的巨大問題。機器必須知道如何將單詞變成一致、可靠的知識;它們必須學會如何去發現新的動作並按照適當的次序進行組合(燒開水,拿起杯子,把茶袋放進杯子)。跟我們一樣,他們必須管理好自己的認知資源,以便能夠快速做出好決策。這些還不是唯一的障礙,光是這些就能讓我們感受到未來的任務之艱鉅。Russell懷疑這會讓研究人員還得再忙活80年,但他強調時間點是沒法預測的。

哪怕天啟已經隱隱若現,這也是一場曲折的機智之旅,我們不知道人類的智能會帶我們去往何方? Russell說,掌握上述所有的本領的機器將會是“現實世界重要的決策者”。它會吸收來自互聯網、電視、廣播、衛星和閉路電視的大量信息,從而更全面地瞭解這個世界和住在那裡的人,這是任何人都難以企及的。

這種情況下有什麼可能會向好的呢?在教育領域,人工智能導師可以最大程度地發揮每個孩子的潛力。它們掌握來人體巨大的複雜性,讓人類消除疾病。作為數字個人助理,他們會讓Siri 和Alexa 感到羞愧:“事實上,你隨時都可以召喚一位高能的律師、會計師以及政治顧問到身邊。”

可能會出現的不好之處?在AI安全和監管方面沒有取得重大進展的情況下,Russell預見會出現混亂局面,他關於濫用AI那章讓人讀得很沮喪。先進的AI會賦予政府強悍的能力,進行監視、勸說和控制,強大到“斯塔西看起來也像是個業餘愛好者”。雖然終結者風格的殺手機器人未必要消滅人類,但基於面紋、膚色或者制服來挑選和殺人的無人機是完全可行的。至於工作,我們可能不再靠體力勞動或腦力勞動來謀生來,但我們還可以提供我們的人性。Russell指出:“將來我們需要變得擅長做人。”

還有比破壞社會的AI更糟的嗎?一個無法關閉的破壞社會的AI。這是一個可怕的,看似荒謬的前景,Russell為此投入了很多時間。其想法是,就像電影《2001太空漫遊》裡面的HAL一樣,智能機器將會意識到,如果某人拔掉插頭的話,如果有人拔掉插頭的話,其目標會很難實現。如果賦予超級智能AI一項明確的任務–比方說煮咖啡的話–它要做的第一步就是禁用關閉開關。Russell認為,答案要取決於一種全新的方法,要讓AI對自己的目標產生一些疑問,因此永遠不會反對自己被關掉。然後他提倡要研發“有益可論證”的人工智能,這種AI的算法可以使人類用戶受益在數學上必須是可以證明的。可以說這是一項正在進行的工作。我的AI會如何處置你的呢?

有一點要明確:有很多AI研究人員奚落這種恐懼。哲學家尼克· 博斯特羅姆(Nick Bostrom)在《超級智能》(2014年)一書中強調了通用AI的潛在危險之後,美國智庫信息技術創新基金會將其盧德獎授予了“鼓吹人工智能世界末日的危言聳聽者”。有關AI安全的沉悶爭論正瀕臨部落化,而這個獎是有指向性的。這裡遇到的危險更多的不是物種的突然滅絕,而是無法改變的走向衰落:喪失了奮鬥和理解,這侵蝕了文明的基礎,讓我們成為“機器駕駛的大船的乘客,無助且無盡地漂泊。”


分享到:


相關文章: