“深度學習”到底是什麼?這篇文章講明白了

點擊上方“i黑馬”,選擇“置頂公眾號”

黑馬智庫,創業必讀

更多創業內容請訪問www.iheima.com

“深度學習”到底是什麼?這篇文章講明白了

隨著阿爾法狗、無人駕駛、智能翻譯的橫空出世,“人工智能”這個已經存在60多年的詞語,彷彿一夜之間重新成為熱詞。同時被科技圈和企業界廣泛提及的還有“機器學習”“深度學習”“神經網絡”…… 但事實是,如此喧囂熱烈的氣氛之下,大部分人對這一領域仍是一知半解。

如果要說誰有資格談論目前正在進行的“人工智能革命”,特倫斯·謝諾夫斯基(Terry Sejnowski)必然是其中一個。

在智能翻譯、無人駕駛、阿爾法狗、微軟小冰還被認為是遠在天邊的願景時,謝諾夫斯基就已經在為深度學習領域奠定基礎了。

“深度學習”到底是什麼?這篇文章講明白了

Professor Terry Sejnowski.

Image: Salk Institute

謝諾夫斯基是20世紀80年代挑戰構建人工智能主流方法的一小撮研究人員之一。他們認為,受大腦生物學啟發的、那些被稱為“神經網絡”“連接主義”和“並行分佈處理”的AI實現方法,會最終解決困擾基於邏輯的AI研究的難題,從而提出了使用可以從數據中學習技能的數學模型。正是這一小群研究人員,證明了基於大腦式的計算的全新方法是可行的,從而為“深度學習”的發展奠定了基礎。

藉由《深度學習:智能時代的核心驅動力量》一書出版機會,美國科技媒體《The Verge》採訪了特倫斯·謝諾夫斯基,與他討論了“人工智能”“神經網絡”“深度學習”“機器學習”究竟有何區別?為何“深度學習”突然變得無處不在,它能做什麼?不能做什麼?以下是採訪全文:

“深度學習”到底是什麼?這篇文章講明白了

《深度學習:智能時代的核心驅動力量》

中信出版集團 2019.2

Q:首先,我想問一下定義。人們幾乎可以互換地使用“人工智能”,“神經網絡”,“深度學習”和“機器學習”等詞語。 但這些是不同的東西。你能解釋一下嗎?

人工智能可以追溯到1956年的美國,那時工程師們決定編寫一個試圖仿效智能的計算機程序。

在人工智能中,一個新領域成長起來,稱為機器學習。不是編寫一個按部就班的程序來做某事——這是人工智能中的傳統方法——而是你收集了大量關於你試圖理解的事物的數據。例如,設想您正在嘗試識別對象,因此您可以收集大量它們的圖像。然後,通過機器學習,這是一個可以剖析各種特徵的自動化過程,就可以確定一個物體是汽車,而另一個是訂書機。

機器學習是一個非常大的領域,其歷史可以追溯到更久遠的時期。最初,人們稱之為“模式識別”。後來算法在數學上變得更加廣泛和複雜。

在機器學習中有受大腦啟發的神經網絡,然後是深度學習。深度學習算法具有特定的體系結構,其中有許多層數據流經的網絡。

基本上,深度學習是機器學習的一部分,機器學習是人工智能的一部分。

Q: 有什麼“深度學習”能做而其他程序不能做的嗎?

編寫程序非常耗費人力。在過去,計算機是如此之慢,內存非常昂貴,以至於人們採用邏輯,也就是計算機的工作原理,來編寫程序。他們通過基礎機器語言來操縱信息。計算機太慢了,計算太貴了。

但現在,計算力越來越便宜,勞動力也越來越昂貴。而且計算力變得如此便宜,以至於慢慢地,讓計算機學習會比讓人類編寫程序更有效。在那時,深度學習會開始解決以前沒有人編寫過程序的問題, 比如在計算機視覺和翻譯等領域。

機器學習是計算密集型的,但你只需編寫一個程序,通過給它不同的數據集,你可以解決不同的問題。並且你不需要是領域專家。因此,對於存在大量數據的任何事物,都有對應的大量應用程序。

Q:“深度學習”現在似乎無處不在。 它是如何變得如此主導潮流?

我可以在歷史上精確地找到這一特定時刻:2012年12月在NIPS會議(這是最大的AI會議)上。在那裡,計算機科學家Geoff Hinton和他的兩個研究生表明你可以使用一個名為ImageNet的非常大的數據集,包含10,000個類別和1000萬個圖像,並使用深度學習將分類錯誤減少20%。

通常,在該數據集上,錯誤在一年內減少不到1%。 在一年內,20年的研究被跨越了。

這真的打開了潮水的閘門。

Q:深度學習的靈感來自大腦。那麼計算機科學和神經科學這些領域如何協同工作呢?

深度學習的靈感來自神經科學。最成功的深度學習網絡是由Yann LeCun開發的卷積神經網絡(CNN)。

如果你看一下CNN的架構,它不僅僅是很多單元,它們以一種基本上鏡像大腦的方式連接起來。大腦中被研究的最好的一部分在視覺系統,在對視覺皮層的基礎研究工作中,表明那裡存在簡單和複雜細胞。如果你看一下CNN架構,會發現有簡單細胞和複雜細胞的等價物,這直接來自我們對視覺系統的理解。

Yann沒有盲目地試圖複製皮質。他嘗試了許多不同的變種,但他最終收斂到的方式和那些自然收斂到的方式相同。這是一個重要的觀察。自然與人工智能的趨同可以教給我們很多東西,而且還有更多的東西要去探索。

Q:我們對計算機科學的理解有多少取決於我們對大腦的理解程度?

我們現在的大部分AI都是基於我們對大腦在60年代的瞭解。 我們現在知道的更多,並且更多的知識被融入到架構中。

AlphaGo,這個擊敗圍棋冠軍的程序不僅包括皮質模型,還包括大腦的一部分被稱為“基底神經節”的模型,這對於制定一系列決策來實現目標非常重要。 有一種稱為時間差分的算法,由Richard Sutton在80年代開發,當與深度學習相結合時,能夠進行人類以前從未見過的非常複雜的玩法。

當我們瞭解大腦的結構,並且當我們開始瞭解如何將它們集成到人工系統中時,它將提供越來越多的功能,超越我們現在所擁有的。

Q:人工智能也會影響神經科學嗎?

它們是並行的工作。創新神經技術已經取得了巨大的進步,從一次記錄一個神經元到同時記錄數千個神經元,並且同時涉及大腦的許多部分,這完全開闢了一個全新的世界。

我說人工智能與人類智能之間存在著一種趨同。 隨著我們越來越多地瞭解大腦如何工作,這些認識將反映到AI中。 但與此同時,他們實際上創造了一整套學習理論,可用於理解大腦,讓我們分析成千上萬的神經元以及他們的活動是如何產生的。 所以神經科學和人工智能之間存在這種反饋循環,我認為這更令人興奮和重要。

Q:你的書討論了許多不同的深度學習應用,從自動駕駛汽車到金融交易。你覺得哪個特定領域最有趣?

我完全被震撼到的一個應用是生成對抗網絡,或稱GANS。使用傳統的神經網絡,你給出一個輸入,你得到一個輸出。 GAN能夠在沒有輸入的情況下開展活動 - 產生輸出。

是的,我在這些網絡創建假視頻的故事背景下聽說過這個。他們真的會產生看似真實的新事物,對吧?

從某種意義上說,它們會產生內部活動。事實證明這是大腦運作的方式。你可以看某處並看到一些東西,然後你可以閉上眼睛,你可以開始想象出那裡沒有的東西。你有一個視覺想象,當週圍安靜時,你鬧鐘聲會浮現想法。那是因為你的大腦是生成性的。現在,這種新型網絡可以生成從未存在過的新模式。所以你可以給它,例如,數百張汽車圖像,它會創建一個內部結構,可以生成從未存在的汽車的新圖像,並且它們看起來完全像汽車。

Q:另一方面,您認為哪些想法可能是過度炒作?

沒有人可以預測或想象這種新技術的引入會對未來的事物組織方式產生什麼影響。當然這其中有炒作。我們還沒有解決真正困難的問題。我們還沒有通用智能,就有人說機器人將不久後會取代我們,其實機器人遠遠落後於人工智能,因為複製身體被發現比複製大腦更復雜。

讓我們看一下這一種技術進步:激光。它是在大約50年前發明的,當時佔據了整個房間。從佔據整個房間到我現在演講時使用的激光筆需要50年的技術商業化。它必須被推進到體積足夠小並可以用五美元購買它的程度。同樣的事情將發生在像自動駕駛汽車這樣的被炒作的技術上。它並不被期望在明年或者未來10年,就變得無處不在。這過程可能需要花費50年,但重點是,在此過程中會有逐步推進,使它越來越靈活,更安全,更兼容我們組織運輸網絡的方式。炒作的錯誤在於人們的時標設定錯了。他們期待太多事情太快發生,其實事物只在適當的時候。

【福利時間】

為幫助讀者更好地理解《深度學習:智能時代的核心驅動力量》一書, 阿信特別為大家請到了微軟(中國)CTO韋青老師,權威領讀《深度學習》,並與大家分享,2019年人工智能的新商業機會,以及個人應該如何做好準備,迎接AI時代。直播限時免費,手慢無!

識別海報,點擊右上角“我的邀請卡”,即可生成專屬海報,邀請朋友共同學習。邀請榜前3名的聽眾將獲得 價值88元、特倫斯·謝諾夫斯基親筆簽名《深度學習:智能時代的核心驅動力量》1本哦。

本文整理自《深度學習:智能時代的核心驅動力量》一書,及科技網站《The Verge》及《TechRepublic》對特倫斯·謝諾夫斯基的專訪,點擊閱讀原文獲得原文地址。


分享到:


相關文章: