基辛格:啓蒙運動的終結

基辛格:启蒙运动的终结

作者 | 亨利·基辛格

翻譯 | 陳默涵

轉自 | 法意讀書

本文作者亨利·基辛格(Henry Alfred Kissinger)為原美國國家安全顧問,先後擔任尼克松與福特政府的國務卿。他促成了中美關係正常化。本文出自《大西洋月刊》(The Atlantic),基辛格從一位政治和歷史學者以及一位政治家的角度,表達了對人工智能的擔憂,呼籲技術與人文經驗相結合,共同應對未來的發展。

三年前,一次研究跨大西洋問題的會議議程中納入了人工智能的主題。這不在我的興趣範圍內,我差點就略過了那場討論。但演示一開始,我便被牢牢吸引住了。

演講者描述了一個計算機程序的工作原理,這個程序即將可以在圍棋比賽中挑戰國際冠軍。圍棋比國際象棋更復雜,而一臺電腦竟可以掌握圍棋,我很驚訝。 在圍棋比賽中,每個棋手部署180或181個棋子(取決於他或她持方的顏色),雙方交替放置棋子到空板上。通過更好的戰略決策,更有效地控制己方領地,困住他或她的對手的一方獲勝。

演講者強調,下圍棋的能力無法預先編程。他說,他的機器通過實踐,自學掌握了圍棋。電腦按照圍棋規則,和自己下了無數局棋,從錯誤中吸取教訓,改進它的算法。 在這個過程中,它的技能遠超人類導師。 事實上,在演講結束後的幾個月裡,一個名為AlphaGo的程序將與世上最厲害的棋手對弈,取得完勝。

當我聽著演講者讚美這一技術進步時,作為歷史學家和偶爾的政治家的經歷使我停下來,開始思考。自學機器對歷史會產生什麼影響?它們通過只屬於自身的特定程序運作獲取知識,並將這些知識應用於實現可能沒有人類能夠理解的目的。這些機器會學會了相互溝通嗎? 如何在層出不窮的選項中做出選擇? 人類面對人工智能,是否有可能變得像印加人面對無法理解、令人望而生畏的西班牙文化一樣? 我們處於人類歷史新階段的邊緣嗎?

我意識到自己在這個領域缺乏技術能力,在科技界和人文科學研究方面的熟人的指點下,我組織了一些關於這個問題的非正式對談。這些討論使我更關注這一議題。

迄今為止,對當代歷史進程造成最大影響的技術進步是15世紀印刷機的發明。它使對經驗知識的追求取代了禮儀教義,啟蒙時代逐漸取代宗教時代。

個人思想和科學知識取代信仰,成為人類意識的主要標準。信息通過圖書館的擴張得到存儲和系統化。啟蒙時代是塑造當代世界的諸多思想和行動的來源。

但是現在,這個秩序在一個新的、更加廣泛的技術革命下顯得動盪不安。我們無法完全預測新技術的變革帶來的影響,它發展到頂點時,可能會帶來一個依賴於數據和算法驅動的機器、不受倫理或道德規範約束的世界。

基辛格:启蒙运动的终结

圖為世界第一圍棋手柯潔對戰人工智能,圖源NPR

我們身處的互聯網時代已預示著一些問題,而人工智能只會讓問題變得更突出。啟蒙運動試圖使傳統的真理讓位於解放後的人的分析理性。而互聯網的目的是通過積累和操縱不斷擴大的數據,獲取知識。人類的認知失去了個體特徵。個體變成了數據,而數據變成了統治者。

互聯網用戶強調檢索和操縱信息,不注重在情境中、概念上理解信息的涵義。 他們很少探討歷史或哲學意義;通常,他們只想要獲取與實時的實際需求相關的信息。 在這個過程中,搜索引擎算法可以預測客戶個人偏好,使算法能夠提供個性化的結果,使其可被第三方出於政治或商業目的加以利用。真相變成相對概念。信息可能足以擊敗一切智慧。

用戶置身於社交媒體中群眾意見的海洋,不再注重自我審視。事實上,許多技術樂觀主義者正是通過互聯網來躲避孤獨。所有這些壓力都削弱了人們的意志。堅毅的品格造就和維持信念,這隻有走在孤獨的道路上時才能實現,而這是創造力的本質。

互聯網技術對政治的影響尤其突出。針對微型群體精準投放信息的能力打破了先前就優先事項達成的共識,允許政治討論中對特定的目的或訴求予以關注。 政界領導被困在來自種種特定事項的壓力中,不再有時間思考或反思時代背景,壓縮了展望未來的空間。

數碼世界強調效率,會阻攔反思。為達到速度,激進變得比思慮周全重要。不是內省,而是小團體們的意見塑造了數碼世界的價值觀。雖然數碼世界成就斐然,但是它強行施加給社會的東西已經超過了它帶來的便利,具有自取滅亡的風險。

基辛格:启蒙运动的终结

圖片展示了micro-targeting在社會生活中的作用:針對小團體的信息可以得到精準投放,圖源美劇《傲骨之戰》

互聯網和計算能力的提高促進了大量數據的積累和分析,人類的認知的發展前景可期,前所未有。也許其中最重要的是人工智能的發展。人工智能可以依照人類的思考過程,發掘和解決複雜、看起來抽象的問題。

這種技術水平遠高於所謂自動化。自動化事關手段,通過合理利用機械化設備來達到預定的目標。而人工智能則事關目的,它確立自己的目標。鑑於其成果是由自身評估的,人工智能具有本質的不穩定性。人工智能系統在運作中一直處於不斷變化的狀態,不停獲取並即時分析新數據,然後根據這一分析努力改進自身。

在這個過程中,人工智能發展出了以前被認為只有人類獨有的能力。通過作為代碼接收的數據(例如遊戲規則),以及一些它自己收集的數據(例如100萬次遊戲的迭代),它可對未來做出戰略判斷。

無人駕駛汽車說明了傳統的人工控制、軟件驅動的計算機工作情形和人工智能試圖探索的世界之間的差異。開車過程中需要判斷諸多無法預測、無法事先編程的情況。用個著名的假設來說,如果一輛汽車被迫需要在某種情況下選擇殺死一個老人或殺死一個孩子,會發生什麼?它會選擇誰? 為什麼?在它的抉擇中,哪些因素會被優先考慮? 它能解釋它抉擇時的基本原則嗎?如果被問到這些問題,人工智能如果能夠溝通的話,它給出的真實答案可能是,“我不知道(因為我遵循數學原則,而不是人的原則)”或”你理解不了(因為我已經被訓練成以某種方式行事,但沒有接受解釋行事方式的訓練)”。然而十年內,無人駕駛汽車就可能會被廣泛使用。

我們要想到,人工智能會比人類更快地犯錯、犯更大的錯。

人工智能研究目前侷限於特定的活動領域,研究正希望帶來能夠執行多個領域的任務的“通用型”的人工智能。 在不遠的將來,人類活動由人工智能算法驅動的比例越來越高。 這些算法是所獲數據的數理闡釋,而不能解釋產生數據的基本社會現實。

矛盾的是,在世界變得更加透明的同時,也會越來越神秘。 這個新世界與我們所擁有的世界有什麼區別? 我們又將如何在其中生活? 我們將如何管理人工智能,改進它,或者至少可以防止它造成不利。一切最終指向最深處的擔憂:人工智能可以比人類更迅速而明確地掌握某些能力,隨著時間的推移,這可能會讓人類變得無能,甚至削弱人類境況本身,因為人工智能把人生變成了數據。

人工智能將及時在醫藥科學、清潔能源、環境問題等諸多領域帶來極大的好處。但正是因為人工智能依據不斷髮展、尚無定數的未來做出判斷,其結果具有固有的不確定性和模糊性。有三個問題尤其值得注意:

首先,人工智能可能會導致意想不到的結果。科幻小說假設了人工智能攻擊其創作者的場景。然而更可能的危險是,人工智能由於其內在的語境缺失而誤解人類指示。最近有一個著名的例子是人工智能聊天機器人Tay,它被用於以19歲女孩的語言模式生成友好的對話。

但實際上,機器無法理解內置命令中“友好”和“合理”語言的必要性,其所生成的對話變得要麼充斥著種族歧視、性別歧視,要麼在互動中帶有極強煽動性。技術界的一些人聲稱該實驗構思不佳、執行不力,但它闡釋了一個潛在的不明確性:人工智能能夠在多大程度上理解指令的語境?有什麼媒介可以幫助Tay定義何為“冒犯言論”?鑑於人類其實並不普遍認同”冒犯“的涵義,我們是否可以在早期階段時,檢測和糾正在我們的預期框架之外行事的人工智能程序? 或者,如若不管不問的話,人工智能將不可避免地會和人類預設框架產生偏差,而這些偏差會升級成災難性的偏離嗎?

基辛格:启蒙运动的终结

圖為微軟開發的Tay發佈的回覆推文。微軟後為Tay的種族歧視言論等致歉

圖源《衛報》(The Guardian)

其次,在實現預期目標時,人工智能可能會改變人類的思維過程和人的價值。AlphaGo通過戰略性、前所未有的下棋方法擊敗了圍棋世界冠軍。人類對這種方法還毫無概念,也沒有成功學會戰勝自己的這種下棋方法。這些超出了人腦的能力範圍嗎?或者說,現在人類可以從新老師的展示中學習下棋招數嗎?

在人工智能開始玩圍棋之前,圍棋具有不同層次的目的:玩家不僅要贏,而且還要學習可能會適用於生活中其他場合的新的策略。相反,人工智能則只知道一個目的:贏。 它不是在概念上,而是在數學算法層面,通過對其算法進行邊際調整來“學習”。 所以人工智能在學習著以不同於人類的方法贏得比賽時,改變了圍棋的性質和影響力。是不是所有人工智能都有這種一心一意堅持獨佔鰲頭的特徵?

其他人工智能項目開發出工具,可生成一系列針對人們問題的答案,並以此來調整人類思維。除了事實問題(如“外面的氣溫多少?”)之外,關於現實本質或生命意義的問題值得深思。 我們是否希望孩子跟著不受限制的算法塑造價值觀? 我們是否應該限制人工智能對提問者的瞭解,以保護隱私? 如此一來,我們要怎樣實現這些目標?

如果人工智能的學習速度比人類快得多,我們應想到,人類做決定依據的試錯過程於它而言可能也會更快,即,人工智能會比人類更快地犯錯誤、犯錯的程度更大。正如人工智能的研究人員經常提及的, 不可能通過在程序中設置警告,要求程序的結果“道德”或“合理”,以減少錯誤。人無法定義這些名詞,由此產生了一整套學科的理論原則。 人工智能是否應該因此成為定紛止爭的仲裁員?

基辛格:启蒙运动的终结

圖源原文網站

第三,人工智能可能會達到人們預期的目標,但無法解釋它得出結論的理由。

在諸如模式識別、大數據分析,博弈等領域,人工智能的能力可能已經超過人類。如果它的計算能力繼續快速增加,人工智能將很快能夠做出較優選擇,與人類的優化方案至少有略微差異,甚至可能差別很大。

但到那時,人工智能能夠以一種人類可以理解的方式解釋清楚,為什麼它的行為是最佳嗎?或者說,人工智能的決策超過了人類的語言和理性能解釋的範圍嗎?縱觀人類歷史,文明發展出瞭解釋周圍世界的方式 :中世紀的方式是宗教;在啟蒙運動中,解釋方式為理性;到了19世紀,人們用歷史解釋世界;在20世紀,人們選擇意識形態來解釋。

對於我們將要邁進的世界,最困難但最重要的問題是:如果人工智能的解釋力超過人類的意識,社會不再能夠對他們生存的世界做出有意義的闡釋,人類意識將會變成什麼樣?

在人類的經歷淪為數據、數據通過內存進行自我解讀的世界裡,意識應如何定義? 誰對人工智能的行為負責? 如何依據人工智能的錯誤來確定責任? 鑑於人工智能可以想得更深、甚至可能會規避法律設計,可否通過人類的法律系統設計,跟上人工智能的節奏?

基辛格:启蒙运动的终结

圖為人類vs.人工智能,圖源PhysioWizard

說到底,人工智能這個詞可能用得不妥當。確實,這些機器可以解決以前只產生於人類意識的複雜、看似抽象的問題。但它們的特點是不會依據經驗思考。 相反,人工智能靠的是全新的記憶和計算。由於人工智能在這些領域的固有優勢,它有可能會贏得所有需要贏的遊戲。

但我們作為人類的追求中,比賽不僅僅關乎輸贏。比賽是關於思考的。若把數學過程看作是一個思考過程,並且要麼試圖自己模仿這個過程,要麼只是接受這個過程結果,我們有可能失去一直是人類認知本質的能力。

這種演變的意義體現在最近的程序設計AlphaZero中。它下象棋的水平高於國際象棋大師們,風格在國際象棋歷史上聞所未聞。對它來說,區區幾個小時的自我對弈後,它就達到了需要人類1500年才能達到的的技能水平。 AlphaZero只被告知遊戲的基本規則。 它的自我學習過程不涉及任何人類或是人為產生的數據。 如果AlphaZero能夠如此迅速地掌握象棋,人工智能在五年內將會發展到什麼程度? 對人類認知的一般影響是什麼? 在這個過程中,本質上加快了抉擇的道德因素起了什麼作用?

通常,這些問題被留給技術人員和相關科學領域的知識分子去解決。哲學家和人文科學領域的其他人曾幫助塑造世界秩序的概念,現在則因缺乏對人工智能機制的瞭解或被人工智能的能力所震懾,往往處於不利地位。

相比之下,科學界則努力探索成就的技術潛能,技術界專注於大規模、神話般的商業前景。它們的動力都是推動科學發現的極限,而不是理解科學發現。 在治理問題上,就本文主題而言,科學界更有可能關注人工智能應用的安全和智能,而不是它所帶來的人類境遇的轉變。

啟蒙運動本質上始於由新技術傳播的哲學見解。我們時代的情況恰恰相反。當下已存在可以統領一切的技術,但需要哲學的指引。許多國家已經把人工智能立為國家主要項目。美國尚未從國家層面系統地全面探究人工智能、研究其含義或開啟終極學習的進程。尤其是從人工智能與人性相關的角度來看,這議題本應是國家的當務之急。

人工智能開發人員在政治和哲學方面缺乏經驗,就像我面對著技術一樣。他們應該多問問自己一些我在此提出的問題,從而為他們的技術工作尋找答案。 美國政府應該考慮由傑出的思想家成立總統委員會,協助國家擴展視野。有一點很肯定:如果我們不盡快開始這項工作,不久我們就會發現開始得太晚了。

Henry A. Kissinger, How the Enlightenment Ends, The Atlantic, June, 2018.

網絡鏈接:

https://www.theatlantic.com/magazine/archive/2018/06/henry-kissinger-ai-could-mean-the-end-of-human-history/559124/


分享到:


相關文章: