02.06 人工智能史上的二次低谷——第一次低谷

人工智能的誕生:1943 – 1956

在20世紀40年代和50年代,來自不同領域(數學,心理學,工程學,經濟學和政治學)的一批科學家開始探討製造人工大腦的可能性。1956年,人工智能被確立為一門學科。

控制論與早期神經網絡

最初的人工智能研究是30年代末到50年代初的一系列科學進展交匯的產物。神經學研究發現大腦是由神經元組成的電子網絡,其激勵電平只存在“有”和“無”兩種狀態,不存在中間狀態。維納的控制論描述了電子網絡的控制和穩定性。克勞德•香農提出的信息論則描述了數字信號(即高低電平代表的二進制信號)。圖靈的計算理論證明數字信號足以描述任何形式的計算。這些密切相關的想法暗示了構建電子大腦的可能性。

人工智能史上的二次低谷——第一次低谷

IBM 702:第一代AI研究者使用的電腦

這一階段的工作包括一些機器人的研發,例如W。Grey Walter的“烏龜(turtles)”,還有“約翰霍普金斯獸”(Johns Hopkins Beast)。這些機器並未使用計算機,數字電路和符號推理;控制它們的是純粹的模擬電路。

Walter Pitts和Warren McCulloch分析了理想化的人工神經元網絡,並且指出了它們進行簡單邏輯運算的機制。他們是最早描述所謂“神經網絡”的學者。馬文•閔斯基是他們的學生,當時是一名24歲的研究生。1951年他與Dean Edmonds一道建造了第一臺神經網絡機,稱為SNARC。在接下來的五十年中,閔斯基是AI領域最重要的領導者和創新者之一。

遊戲AI

1951年,Christopher Strachey使用曼徹斯特大學的Ferranti Mark 1機器寫出了一個西洋跳棋(checkers)程序;Dietrich Prinz則寫出了一個國際象棋程序。Arthur Samuel在五十年代中期和六十年代初開發的國際象棋程序的棋力已經可以挑戰具有相當水平的業餘愛好者。遊戲AI一直被認為是評價AI進展的一種標準。

圖靈測試

1950年,圖靈發表了一篇劃時代的論文,文中預言了創造出具有真正智能的機器的可能性。由於注意到“智能”這一概念難以確切定義,他提出了著名的圖靈測試:如果一臺機器能夠與人類展開對話(通過電傳設備)而不能被辨別出其機器身份,那麼稱這臺機器具有智能。這一簡化使得圖靈能夠令人信服地說明“思考的機器”是可能的。論文中還回答了對這一假說的各種常見質疑。圖靈測試是人工智能哲學方面第一個嚴肅的提案。

人工智能史上的二次低谷——第一次低谷

圖靈測試

符號推理與“邏輯理論家”程序

50年代中期,隨著數字計算機的興起,一些科學家直覺地感到可以進行數字操作的機器也應當可以進行符號操作,而符號操作可能是人類思維的本質。這是創造智能機器的一條新路。

1955年,Newell和(後來榮獲諾貝爾獎的)Simon在J. C. Shaw的協助下開發了“邏輯理論家(Logic Theorist)”。這個程序能夠證明《數學原理》中前52個定理中的38個,其中某些證明比原著更加新穎和精巧。Simon認為他們已經“解決了神秘的心/身問題,解釋了物質構成的系統如何獲得心靈的性質。” (這一斷言的哲學立場後來被John Searle稱為“強人工智能”,即機器可以像人一樣具有思想。)

1956年達特茅斯會議:AI的誕生

1956年達特矛斯會議的組織者是Marvin Minsky,約翰•麥卡錫和另兩位資深科學家Claude Shannon以及Nathan Rochester,後者來自IBM。會議提出的斷言之一是“學習或者智能的任何其他特性的每一個方面都應能被精確地加以描述,使得機器可以對其進行模擬。” 與會者包括Ray Solomonoff,Oliver Selfridge,Trenchard More,Arthur Samuel,Newell和Simon,他們中的每一位都將在AI研究的第一個十年中作出重要貢獻。會上紐厄爾和西蒙討論了“邏輯理論家”,而麥卡錫則說服與會者接受“人工智能”一詞作為本領域的名稱。1956年達特矛斯會議上AI的名稱和任務得以確定,同時出現了最初的成就和最早的一批研究者,因此這一事件被廣泛承認為AI誕生的標誌。

黃金年代:1956 – 1974

達特茅斯會議之後的數年是大發現的時代。對許多人而言,這一階段開發出的程序堪稱神奇:計算機可以解決代數應用題,證明幾何定理,學習和使用英語。當時大多數人幾乎無法相信機器能夠如此“智能”。研究者們在私下的交流和公開發表的論文中表達出相當樂觀的情緒,認為具有完全智能的機器將在二十年內出現。 ARPA(國防高等研究計劃署)等政府機構向這一新興領域投入了大筆資金。從50年代後期到60年代湧現了大批成功的AI程序和新的研究方向。下面列舉其中最具影響的幾個。

搜索式推理

許多AI程序使用相同的基本算法。為實現一個目標(例如贏得遊戲或證明定理),它們一步步地前進,就像在迷宮中尋找出路一般;如果遇到了死衚衕則進行回溯。這就是“搜索式推理”。

這一思想遇到的主要困難是,在很多問題中,“迷宮”裡可能的線路總數是一個天文數字(所謂“指數爆炸”)。研究者使用啟發式算法去掉那些不太可能導出正確答案的支路,從而縮小搜索範圍。Newell和Simon試圖通過其“通用解題器(General Problem Solver)”程序,將這一算法推廣到一般情形。另一些基於搜索算法證明幾何與代數問題的程序也給人們留下了深刻印象,例如Herbert Gelernter的幾何定理證明機(1958)和Minsky的學生James Slagle開發的SAINT(1961)。還有一些程序通過搜索目標和子目標作出決策,如斯坦福大學為控制機器人Shakey而開發的STRIPS系統。

自然語言

AI研究的一個重要目標是使計算機能夠通過自然語言(例如英語)進行交流。早期的一個成功範例是Daniel Bobrow的程序STUDENT,它能夠解決高中程度的代數應用題。 如果用節點表示語義概念(例如“房子”,“門”),用節點間的連線表示語義關係(例如“有 — 一個”),就可以構造出“語義網(semantic net)”。第一個使用語義網的AI程序由Ross Quillian開發;[54] 而最為成功(也是最有爭議)的一個則是Roger Schank的“概念關聯(Conceptual Dependency)”。Joseph Weizenbaum的ELIZA是第一個聊天機器人,可能也是最有趣的會說英語的程序。與ELIZA“聊天”的用戶有時會誤以為自己是在和人類,而不是和一個程序,交談。但是實際上ELIZA根本不知道自己在說什麼。它只是按固定套路作答,或者用符合語法的方式將問題複述一遍。

人工智能史上的二次低谷——第一次低谷

自然語言

微世界

60年代後期,麻省理工大學AI實驗室的Marvin Minsky和Seymour Papert建議AI研究者們專注於被稱為“微世界”的簡單場景。他們指出在成熟的學科中往往使用簡化模型幫助基本原則的理解,例如物理學中的光滑平面和完美剛體。許多這類研究的場景是“積木世界”,其中包括一個平面,上面擺放著一些不同形狀,尺寸和顏色的積木。在這一指導思想下,Gerald Sussman(研究組長),Adolfo Guzman,David Waltz(“約束傳播(constraint propagation)”的提出者),特別是Patrick Winston等人在機器視覺領域作出了創造性貢獻。同時,Minsky和Papert製作了一個會搭積木的機器臂,從而將“積木世界”變為現實。微世界程序的最高成就是Terry Winograd的SHRDLU,它能用普通的英語句子與人交流,還能作出決策並執行操作。

樂觀思潮

第一代AI研究者們曾作出瞭如下預言:

1958年,H. A. Simon,Allen Newell:“十年之內,數字計算機將成為國際象棋世界冠軍。” “十年之內,數字計算機將發現並證明一個重要的數學定理。”

1965年,H. A. Simon:“二十年內,機器將能完成人能做到的一切工作。”

1967年,Marvin Minsky:“一代之內……創造‘人工智能’的問題將獲得實質上的解決。”

1970年,Marvin Minsky:“在三到八年的時間裡我們將得到一臺具有人類平均智能的機器。”

經費

1963年6月,MIT從新建立的ARPA(即後來的DARPA,國防高等研究計劃局)獲得了二百二十萬美元經費,用於資助MAC工程,其中包括Minsky和McCarthy五年前建立的AI研究組。此後ARPA每年提供三百萬美元,直到七十年代為止。ARPA還對Newell和Simon在卡內基梅隆大學的工作組以及斯坦福大學AI項目(由John McCarthy於1963年創建)進行類似的資助。另一個重要的AI實驗室於1965年由Donald Michie在愛丁堡大學建立。[65]在接下來的許多年間,這四個研究機構一直是AI學術界的研究(和經費)中心。經費幾乎是無條件地提供的:時任ARPA主任的J. C. R. Licklider相信他的組織應該“資助人,而不是項目”,並且允許研究者去做任何感興趣的方向。這導致了MIT無約無束的研究氛圍及其hacker文化的形成,但是好景不長。

第一次AI低谷:1974 – 1980

到了70年代,AI開始遭遇批評,隨之而來的還有資金上的困難。AI研究者們對其課題的難度未能作出正確判斷:此前的過於樂觀使人們期望過高,當承諾無法兌現時,對AI的資助就縮減或取消了。同時,由於Marvin Minsky對感知器的激烈批評,聯結主義(即神經網絡)銷聲匿跡了十年。70年代後期,儘管遭遇了公眾的誤解,AI在邏輯編程,常識推理等一些領域還是有所進展。

問題

70年代初,AI遭遇了瓶頸。即使是最傑出的AI程序也只能解決它們嘗試解決的問題中最簡單的一部分,也就是說所有的AI程序都只是“玩具”。AI研究者們遭遇了無法克服的基礎性障礙。儘管某些侷限後來被成功突破,但許多至今仍無法滿意地解決。

計算機的運算能力

當時的計算機有限的內存和處理速度不足以解決任何實際的AI問題。例如,Ross Quillian在自然語言方面的研究結果只能用一個含二十個單詞的詞彙表進行演示,因為內存只能容納這麼多。1976年Hans Moravec指出,計算機離智能的要求還差上百萬倍。他做了個類比:人工智能需要強大的計算能力,就像飛機需要大功率動力一樣,低於一個門限時是無法實現的;但是隨著能力的提升,問題逐漸會變得簡單。

計算複雜性和指數爆炸

1972年Richard Karp根據Stephen Cook於1971年提出的Cook-Levin理論證明,許多問題只可能在指數時間內獲解(即,計算時間與輸入規模的冪成正比)。除了那些最簡單的情況,這些問題的解決需要近乎無限長的時間。這就意味著AI中的許多玩具程序恐怕永遠也不會發展為實用的系統。

常識與推理。許多重要的AI應用,例如機器視覺和自然語言,都需要大量對世界的認識信息。程序應該知道它在看什麼,或者在說些什麼。這要求程序對這個世界具有兒童水平的認識。研究者們很快發現這個要求太高了:1970年沒人能夠做出如此巨大的數據庫,也沒人知道一個程序怎樣才能學到如此豐富的信息。

莫拉維克悖論

證明定理和解決幾何問題對計算機而言相對容易,而一些看似簡單的任務,如人臉識別或穿過屋子,實現起來卻極端困難。這也是70年代中期機器視覺和機器人方面進展緩慢的原因。

框架和資格問題

採取邏輯觀點的AI研究者們(例如John McCarthy)發現,如果不對邏輯的結構進行調整,他們就無法對常見的涉及自動規劃(planning or default reasoning)的推理進行表達。為解決這一問題,他們發展了新邏輯學(如非單調邏輯(non-monotonic logics)和模態邏輯(modal logics))。

停止撥款

由於缺乏進展,對AI提供資助的機構(如英國政府,DARPA和NRC)對無方向的AI研究逐漸停止了資助。早在1966年ALPAC(Automatic Language Processing Advisory Committee,自動語言處理顧問委員會)的報告中就有批評機器翻譯進展的意味,預示了這一局面的來臨。NRC(National Research Council,美國國家科學委員會)在撥款二千萬美元后停止資助。1973年Lighthill針對英國AI研究狀況的報告批評了AI在實現其“宏偉目標”上的完全失敗,並導致了英國AI研究的低潮(該報告特別提到了指數爆炸問題,以此作為AI失敗的一個原因)。DARPA則對CMU的語音理解研究項目深感失望,從而取消了每年三百萬美元的資助。到了1974年已經很難再找到對AI項目的資助。

Hans Moravec將批評歸咎於他的同行們不切實際的預言:“許多研究者落進了一張日益浮誇的網中”。還有一點,自從1969年Mansfield修正案通過後,DARPA被迫只資助“具有明確任務方向的研究,而不是無方向的基礎研究”。60年代那種對自由探索的資助一去不復返;此後資金只提供給目標明確的特定項目,比如自動坦克,或者戰役管理系統。

來自大學的批評

一些哲學家強烈反對AI研究者的主張。其中最早的一個是John Lucas,他認為哥德爾不完備定理已經證明形式系統(例如計算機程序)不可能判斷某些陳述的真理性,但是人類可以。Hubert Dreyfus諷刺六十年代AI界那些未實現的預言,並且批評AI的基礎假設,認為人類推理實際上僅涉及少量“符號處理”,而大多是具體的,直覺的,下意識的“竅門(know how)”。 John Searle於1980年提出“中文房間”實驗,試圖證明程序並不“理解”它所使用的符號,即所謂的“意向性(intentionality)”問題。Searle認為,如果符號對於機器而言沒有意義,那麼就不能認為機器是在“思考”。

AI研究者們並不太把這些批評當回事,因為它們似乎有些離題,而計算複雜性和“讓程序具有常識”等問題則顯得更加緊迫和嚴重。對於實際的計算機程序而言,“常識”和“意向性”的區別並不明顯。Minsky提到Dreyfus和Searle時說,“他們誤解了,所以應該忽略”。在MIT任教的Dreyfus遭到了AI陣營的冷遇:他後來說,AI研究者們“生怕被人看到在和我一起吃中飯”。 ELIZA程序的作者Joseph Weizenbaum感到他的同事們對待Dreyfus的態度不太專業,而且有些孩子氣。雖然他直言不諱地反對Dreyfus的論點,但他“清楚地表明瞭他們待人的方式不對”。

Weizenbaum後來開始思考AI相關的倫理問題,起因是Kenneth Colby開發了一個模仿醫師的聊天機器人DOCTOR,並用它當作真正的醫療工具。二人發生爭執;雖然Colby認為Weizenbaum對他的程序沒有貢獻,但這於事無補。1976年Weizenbaum出版著作《計算機的力量與人類的推理》,書中表示人工智能的濫用可能損害人類生命的價值。


分享到:


相關文章: