AI泰斗張鈸:AI最重要的能力是知識,而不是數據

AI泰斗张钹:AI最重要的能力是知识,而不是数据

阿爾法狗打敗圍棋高手、索菲亞任你問答、無人車陸續量產,人工智能正日益為人類社會帶來不可思議的改變。人工智能一方面在不斷挑戰人類的想象力,一方面又顯得十分智障,人工智能呈現出兩種不同的面貌。

日前,中國科學院院士、清華大學人工智能研究院院長張鈸發表了題為《人工智能產業化面臨的挑戰》的演講,用AI的經典案例,闡述了人工智能的“特點”與“雷區”。

帶著鎖鏈跳舞:人工智能的五把枷鎖

張鈸院士認為,目前的AI的應用場景主要在,交通、家庭、健康、教育、低資源群體、安全、僱員與工作場所、娛樂、金融與智能製造領域。

以醫療場景的例子而言,AI可進行腫瘤檢測,但醫院目前無法大規模應用這項技術。首先由於深度學習具有不可解釋性,即AI不能像醫生一樣對病因進行有效解釋,其更傾向於做出直接的的判斷;其次因為AI其魯棒性不夠強,稍許噪聲都會對機器產生很大幹擾,其差別甚至會大到使機器將“雪山”識別成“狗”。

因而,AI在醫療中需要解決三個問題,包括AI系統的可解釋性和魯棒性;個人數據的隱私和保護;規章與制度改革問題。尤其要解決解釋性的問題,就需要AI學習醫生的知識,用醫生的知識去對病情進行解釋,不然AI無法解釋,也無法與醫生進行交互。

因而,實際上說,對人工智能來說最重要的能力是知識,而不是數據。機器應用數據的能力強於人類、人類應用知識的能力強於機器,如果不能兩者結合起來,人工智能就無法很好與產業進行結合。

而在更廣的領域,人工智能要應用到具體場景,必須要滿足下面的5個限制:有豐富的數據或者豐富的知識、完全信息、確定性信息、靜態與結構性環境、單任務與有限領域。AI要實現,這五個條件缺一不可。

AlphaGo:深度學習的大師,但橋牌不敵人類

如AlphaGo打敗李世石,成為AI發展史上的一個里程碑,AlphaGo拋棄了傳統下棋程序的編程方法,創造性的利用機器學習來獲取下棋的經驗與直覺。其不僅學習了以往圍棋大師們已下過的所有棋局——約幾千萬棋局,還通過強化學習(自己與自己對弈),學習了上億個新棋局。

這就意味著,AlphaGo下過的棋是任何一位圍棋大師一生下過棋的幾百上千倍。由於圍棋棋局空間很大(約2x10170),在圍棋幾千年的歷史中人類只是探索了其中的一部分,AlphaGo利用計算機的超強計算能力,不僅把人類已經探索過的空間加以優化,還探索了新的空間(即新的棋局)。正由於此,人類棋手在AlphaGo面前才顯得十分被動。

但張鈸院士認為,研究AlphaGo不過是為了研究人工智能解決這類問題的方法以及可能達到的水平,其為完全信息博弈,信息完全和確定,遵循著完全確定的遊戲規則演化,擁有靜態與結構性環境。而計算機打麻將就難以超越人類,因為牌類是不完全信息博弈,因而人工智能學習比棋類困難。

Watson:有限問答,對話系統推理能力差

再舉Watson的例子,Watson為IBM創建的對話系統,其中知識庫包括百科全書、有線新聞、文學作品等,所有知識用紙質來表示可達2億頁,用存儲量表示可達到4TB,並且其具有一定的推理機制。

而Watson能回答什麼問題呢?

如“1974年9月8日誰被總統赦免”,計算機用「1974年9月8日」、「被總統赦免」幾個關鍵詞就可以在文獻中檢索出“尼克松”這個答案。

而要回答“與美國沒有外交關係的國家中哪個最靠北”此類問題,就需要智能推理了。與美國沒有外交關係的國家可以檢索出有4個,但哪個國家最靠北,沒有直接答案,於是要用到推導,從各個國家所處的緯度、氣候寒冷的程度等分析出,答案是“北朝鮮”。

但Watson的智能僅體現在初步的智能推理上,開放領域的人機對話難以實現,如面向開放領域人機對話的索菲亞機器人就體現了這一缺陷。

此前曾有一箇中國記者給索菲亞提出了4個問題,其只答對了一個。詢問「你幾歲了」,索菲亞的回答是「你好,你看起來不錯」;「你能回答多少問題呢」,其回答是「請繼續,沒聽懂」;詢問「你希望我問你什麼問題呢」,索菲亞回答「你經常在北京做戶外活動嗎」……

如上,目前開放領域的問答只能進行少量的智能推理,Watson已經算其中的佼佼者。而索菲亞,只能做娛樂和研究,不能進行產業應用,不然“離騙子也不會太遠”。

自動駕駛:不適應不確定性環境,犯錯就是必然性錯誤

而對於目前較為樂觀的自動駕駛領域,可以通過數據驅動的方法,學習不同場景下的圖象分割,並判別是車輛還是行人、道路等,然後建立三維模型,在三維模型上規劃行駛路徑,應用硬件可以做到實時。

但目前自動駕駛依然不能解決所有問題,如果路況比較簡單,行人、車輛很少,勉強可以使用,複雜的路況就難以實現。其主要原因在於,行人或司機都會有意無意破壞交通規則,使得數據驅動方法失效,各種各樣的行為是難以用數據訓練就能學習的。如果行人違反規則,計算機不能正確反應,就會造成不可避免的危險。而駕駛員的經驗和知識,此時就變得尤為重要。

從犯錯誤的概率來說,人類也優於人工智能:人類犯錯誤是偶然的;而機器一旦犯錯誤,就是系統性錯誤,必然錯誤。

AlphaGo、Watson、自動駕駛……這些人工智能領域的典型代表和場景,也都存在著侷限。因而,目前人工智能只能在豐富的數據或者豐富的知識、完全信息、確定性信息、靜態與結構性環境、單任務與有限領域下才能更好發揮能力。

但在不滿足條件的情況下,人工智能產業化會很難走,這些就是創業的雷區。避開這些雷區,才能更少的造出“人工智障”。


分享到:


相關文章: