Facebook首席人工智能科學家:深度學習可能需要一種新的編程語言

點擊上方關注,All in AI中國

Facebook首席人工智能科學家:深度學習可能需要一種新的編程語言

Facebook 首席研究主管Yann LeCun今天表示,“深度學習可能需要一種比Python更靈活,更易於使用的新編程語言。”

Yann LeCun表示,目前尚不清楚這種語言是否必要,但這種可能性與研究人員和工程師非常根深蒂固的願望背道而馳。

自20世紀80年代以來,LeCun一直致力於神經網絡。

在科技媒體VentureBeat的採訪中,LeCun表示,目前,谷歌、Facebook和其他一些公司已經開展了新編譯語言的設計工作,可以有效地進行深度學習。當然,各家的研究成果還未成熟。

“現在的問題是,這是一種有效的方法嗎?”

根據GitHub最近的Octoverse報告,Python目前是開發機器學習項目的開發人員使用的最流行的語言,該語言構成了Facebook的PyTorch和Google的TensorFlow框架的基礎。

看起來,Python的地位還是那麼必要,但是,並不意味著它永遠是那麼受關注。

2019 ISSCC 大會近日在美國舊金山開幕,Facebook 首席 AI 科學家 Yann LeCun 在會上發表了主題演講「深度學習硬件:過去、現在和未來」,介紹了深度學習研究的發展將如何影響未來硬件架構。LeCun今天在會上發表了一篇探討最新趨勢的論文。

本文的第一部分專門介紹LeCun從貝爾實驗室學到的經驗,包括他觀察到AI研究人員和計算機科學家的想象力往往與硬件和軟件工具聯繫在一起。

人工智能已有50多年的歷史,但其目前的增長與計算機芯片和其他硬件提供的計算能力的增長密切相關。

20世紀80年代在貝爾實驗室工作,並使ConvNet(CNN)AI能夠讀取郵政信封和銀行支票上的郵政編碼。LeCun表示,更好的硬件導致更好的算法,導致更好的性能,導致更多人構建更好的硬件,這樣的良性循環只有幾年的歷史。

在21世紀初,在離開貝爾實驗室並加入紐約大學後,LeCun與該領域的其他傑出人物合作,如Yoshua Bengio和Geoffrey Hinton,進行研究以恢復對神經網絡的興趣,並讓深度學習變得更受歡迎。

近年來,硬件方面的進步 - 如現場可編程門陣列(FPGA),谷歌的張量處理單元(TPU)和圖形處理單元(GPU) - 在該行業的發展中發揮了重要作用。據報道,Facebook也在研發自己的半導體產品。

“現有的硬件對人們所做的研究有很大的影響,因此未來十年左右,AI方向將受到硬件可用性的極大影響,”他說。 “對於計算機科學家來說,這是很麻煩的一件事,因為我們總是抽象地認為,我們不受硬件限制的束縛,但事實上我們無法擺脫。“

LeCun強調了硬件製造商未來幾年應該考慮的一系列AI趨勢,並就不久的將來所需的架構類型提出了建議,並建議考慮不斷擴大深度學習系統的規模。

他還談到了專門為深度學習和硬件設計的硬件的需求,以及能夠處理一批訓練樣本的硬件,而不是需要批量處理多個訓練樣本才能有效運行神經網絡,這是目前的標準。

LeCun表示,“如果你運行單個圖像,那麼你將無法利用GPU中可用的所有計算。基本上,你會浪費資源,因此批量生產會迫使你考慮訓練神經網絡的某些方法。“

他還建議動態網絡和硬件可以調整,以僅利用任務所需的神經元。

在論文中,LeCun重申了他的觀點,即自我監督學習將在推進最先進的人工智能方面發揮重要作用。

“如果自我監督的學習最終允許機器通過觀察學習關於世界如何運作的大量背景知識,人們可能會假設,某種形式的機器常識可能出現,”LeCun在論文中寫道。

LeCun認為,未來的深度學習系統將主要通過自我監督學習進行訓練,並且需要新的高性能硬件來支持這種自我監督學習。

上個月,LeCun討論了VentureBeat自我監督學習的重要性,並將其作為2019年人工智能預測故事的一部分。可以處理自我監督學習的硬件對於Facebook以及自動駕駛、機器人和許多其他形式的技術。

Facebook首席人工智能科學家:深度學習可能需要一種新的編程語言

編譯出品



分享到:


相關文章: