Yann LeCun、吳恩達的AI預測:強調“少樣本學習”,AI恐慌在減少


Yann LeCun、吳恩達的AI預測:強調“少樣本學習”,AI恐慌在減少


大數據文摘出品

編譯:魏子敏、蔣寶尚、王嘉儀

新年伊始,海外媒體VentureBeat電話訪談了包括吳恩達、Yann Lecun在內的四位人工智能領域領軍者,詢問了他們對於過去一年人工智能領域發展的看法,以及他們認為新一年人工智能和機器學習可能產生的突破。

不約而同,幾位大咖都同意,過去一年公眾對於人工智能的理解有了很大進步,包括恐慌的減少和對其侷限的認知。對於未來可能產生的突破,吳恩達和Yann Lecun都強調了“少樣本學習”,讓算法可以通過更少量的數據得出結果,其他擔憂還涉及AI背景下的資產分配等問題。

一起來看。

吳恩達:“少樣本學習”和“計算機視覺場景適應研究”有望推進全領域發展

Yann LeCun、吳恩達的AI預測:強調“少樣本學習”,AI恐慌在減少


吳恩達是斯坦福大學的兼職計算機科學教授,可能是當今AI圈最有名的人物之一。

Google Brain的聯合創始人、Landing AI的創始人、Coursera創始人及最受歡迎機器學習課程的講師,創立了deeplearning.ai、Drive.ai的董事會成員。

本月早些時候,Ng在發佈人工智能轉型手冊時與VentureBeat進行了交談,這是一篇關於公司如何通過人工智能重塑自身的簡短讀物。

他希望在2019年看到的一個主要進展是AI被用於科技或軟件公司以外的領域。他說,人工智能領域待開發範圍遠超軟件行業,他引用了麥肯錫報告中的數據,人工智能到2030年將產生13萬億美元的GDP。

“我認為明年(2019年)很多故事都將出現在軟件行業以外的人工智能應用中。在業內,谷歌、百度以及Facebook和微軟等公司方面做得不錯,但即使像Square和Airbnb,Pinterest這樣的公司也開始投身人工智能。我認為,下一次巨大的價值創造浪潮的推動者將會是製造公司或農業設備公司或醫療保健公司,通過人工智能解決方案來輔助這些領域的業務增長。”

關於過去一年大眾對AI理解的精進,吳恩達表示非常驚喜,人們的討論開始離開殺手機器人場景或對人工智能的恐懼了。

吳恩達說,他希望給出一些其他人沒有給過的回答。

“我希望引入某些我認為對實際應用非常重要的領域。我認為人工智能的實際應用存在障礙,而在某些領域,這些問題有很大進步潛力。”

在未來一年,吳恩達認為AI / ML研究中有兩個特定領域的進步有助於推動整個領域的發展。

一個是用較少的數據得出準確的結論的人工智能的發展,有人稱其為“少樣本學習(few shot learning)”。

“我認為第一波深度學習進展主要來自大公司,他們有大量的數據訓練非常大的神經網絡,因此,如果您想構建語音識別系統,需要用100,000小時的數據進行訓練。想培訓機器翻譯系統?用平行語料庫的大量句子訓練它,這會產生很多突破性的結果。但是現在,我看到越來越多嘗試用小量數據,比如1000張圖像,也產生了很好的結果。”

另一個是計算機視覺領域關於適應性的研究進展,被稱為“generalized visibility”。

當我們使用斯坦福大學高端X光機的原始圖像訓練模型時,計算機視覺系統會工作得很好。(在高精度圖片的前提下,)該領域的許多先進公司和研究人員已經創建了比人類放射科醫生更優秀的系統,但這些系統還不夠敏銳。

“比如,一旦將這些訓練好的模型應用到不同的醫院、低端X光機拍攝的圖片上,圖片可能比較模糊、或者角度有點偏離,(這時候)人類放射科醫師在適應新環境上比這些學習算法要好得多。因此我認為,有很多有趣的研究嘗試提高新領域學習算法的普遍性。”

Yann LeCun:開源能幫助AI進步,自我監督學習有望取得大進展

Yann LeCun、吳恩達的AI預測:強調“少樣本學習”,AI恐慌在減少

Yann LeCun作為紐約大學的教授、Facebook 的首席AI 科學家、Facebook AI Research (以下簡稱FAIR)的創董,對人工智能的理解是非常深刻。

他相信開源能幫助AI進步,認為FAIR的的開源政策在一定程度推動了其他大公司對人工智能的重視。在 NeurIPS 會議以及FAIR五週年的慶典上,Yann LeCun多次就機器學習等話題發表看法。

注:FAIR除了PyTorch 1.0 和Caffe2 之外,還有非常多新穎的人工智能系統,例如文本轉換工具、playGo等。

Yann LeCun表示:交流促進進步,只有研究者的思想進行碰撞,人工智能才能更加快速的發展,今天的發展離不開人工智能領域開源、開放的趨勢。

在人工智能倫理道德方面,LeCun很高興看到在此領域取得的進步,這些進步包括對道德意義的思考以及對有偏決策帶來危險的思考。

LeCun認為倫理道德和偏見問題,並不是當下最需要解決的。但是,人們已經為解決此類問題做好了行動準備。

當下最緊急的是解決那些事關生死的問題,這些問題必將發生,人們必須在它們到來之前做好預防。

和吳恩達一樣,LeCun也希望人工智能系統更加靈活、更加“健壯”。他希望人工智能系統未來不需要那麼多的限制,即不需要原始的輸入數據,也不需要對輸出條件做苛刻的要求。

當前,研究人員已經可以通過深度學習很好地管理感知,但一整套的AI系統架構尚不存在。自我監督的學習或基於模型的強化學習是通過“觀察”來教學機器的關鍵。不同的人或許給它起不同的名字,但核心思想都是,嬰兒和其他動物通過觀察和了解大量背景信息來了解世界的運作機制。機器如何做到這一點尚未得知,這也是目前面對的一個巨大的挑戰。

當前的獎項設立大多是鼓勵人工智能和機器方面如何取得實際進展。如果對一些常識和虛擬助手方面的工作進行鼓勵,相信會有更廣泛的話題和討論。

LeCun表示在自我監督學習方面取得的重大進展非常重要,因為人工智能需要用更少的數據返回更準確的結果。

“我們希望找到一些方法減少特定任務所需的數據量,如機器翻譯或圖像識別等等,其實已經在這方面取得了進展,我們已經通過弱監督或自我監督學習進行翻譯和圖像識別,而且這些工作已經對Facebook提供的服務產生了影響。因此,影響不僅是長期的,在短期也是非常明顯。”

LeCun希望看到在建立事件之間的因果關係方面取得進展。這不僅是一種通過觀察來學習的能力,還是具有實際理解的能力,例如,如果人們使用雨傘,就說明很可能是在下雨。

這是非常重要,因為如果你想讓一臺機器通過觀察學習世界,那麼,它必須能夠知道它可以通過影響什麼來改變世界的狀態,而且有些東西是不能做的。LeCun舉例道:桌子上有一個水瓶,想移動水瓶,最好的辦法是直接動水瓶。而不是推桌子,因為桌子很重。

Rumman Chowdhury:重塑AI背景下的財富分配,家用人工智能爆發

Yann LeCun、吳恩達的AI預測:強調“少樣本學習”,AI恐慌在減少


Rumman Chowdhury博士是埃森哲應用智能部門的常務董事,也是人工智能計劃的全球負責人,於2017年入選BBC的100名女性名單。

在一次波士頓的Affectiva會議上,她就2019人工智能預測的話題與世界各地的觀眾進行探討。她非常高興公眾對人工智能有了更全面的瞭解和認識,不少人一度認為AI的發展將威脅人類,畢竟像“終結者”這樣的智能機器接管全球的畫面,或多或少都會在人們的腦海中出現過。她也對AI領域的技術公司和從業者更快的注意到工作涉及的倫理問題感到驚喜。

公眾對人工智能的認識是否充分仍然不是她最關注的地方。在未來,她希望看到更多的人利用教育資源來理解人工智能系統,並能夠對人工智能決策有分辨能力。

Chowdhury最關心的是人工智能的發展將增加隱私和安全的問題,以及其在塑造我們和後代方面可能產生的作用。

“至於道德和人工智能的關係,先不考慮著名的電車難題,我希望看到人們現在就重視AI將帶來的問題以及尚未有明確答案的問題。”她不斷拋出這樣的問題,例如:人工智能和全球科技巨頭所掌握的權力引發了很多關於如何規範行業和技術的問題。

我們應該如何重塑這種從前端技術獲得的財富分配,以至於不再讓新的資源鴻溝橫亙於人群加大貧富差距?我們能接受自己的孩子多大程度成為AI原始住民,同時還可以避免被操縱或同質化?我們能否用AI擴展自動化教育卻能保留住激發創造力和獨立思想?

她還希望看到人工智能在地緣政治問題上的能夠繼續發揮作用。在未來一年,Chowdhury預計將在全球範圍內看到更多的政府審查和技術監管。

“在2019年,我們將不得不開始思考:當技術是一種多用途工具時,你該如何規範技術?你如何制定有利規則避免扼殺公司創造性,以及讓那些小公司也能生存而不被(可以承擔合規成本)大型公司吃掉。我們在什麼級別進行監管,國際、國民、本地?在AI或物聯領域裡什麼行動才能夠被允許?是那些所謂的安全性(卻保留懲罰性的監控狀態甚至還強化了種族歧視)嗎?”

“這不僅僅是一項技術,而是一種經濟和社會的塑造。我們在這項技術中反思,擴展和執行我們的價值觀,我們的行業需要對我們構建的內容以及我們如何構建不那麼天真。”

為了實現這一目標,她認為人們需要超越人工智能行業中常見的想法,即如果我們不構建它,中國就會好像只有創造就是力量所在。

“我希望監管機構,技術專家和研究人員意識到,我們的AI競賽不僅僅是計算能力和技術敏銳性,就像冷戰不只是核能力一樣,”她說。 “我們有責任以更公正,更公平的方式重建世界,同時我們有難得的機會。這個時刻是短暫的,我們不要浪費它。”

在消費者層面,她認為2019年人們將會在家中更多地使用人工智能。許多人已經習慣於使用Google Home和Amazon Echo等智能產品,以及其他一系列智能設備。

“我想我們都在等待一個機器人管家”她說。

Hilary Mason:產品經理將在AI方面做出更多貢獻

Yann LeCun、吳恩達的AI預測:強調“少樣本學習”,AI恐慌在減少


2017年Cloudera收購Fast Forward Labs之後,Hilary Mason成為了該公司的機器學習負責人。在Mason的帶領,Fast Forward繼續運作,為客戶提供未來六個月到兩年的應用機器學習報告。

Mason對於人工智能多任務學習的高速發展表示驚訝,但她考慮到更多——有必要為AI建立道德框架。Fast Forward Labs的報告中早就開始為客戶提供有關AI系統倫理影響的建議。“這是自從我們創建Fast Forward以來一直關注的事情,所以五年前我們開始撰寫關於道德規範的報告。”

直到今年(2018)人們真正開始接受並關注這個領域。“明年我們會開始看到,那些不關注這個問題的公司會出現問題”,Mason說。“我希望道德和偏見問題成為數據科學和人工智能的實踐發展中潛意識考慮的問題。”

隨著更多AI系統成為未來一年業務運營的一部分,Mason預計產品經理和產品負責人將開始在AI方面做出更多貢獻,因為這正是他們的優勢。

她說:“人們能夠分辨誰是瞭解整個產品並看到其對於企業未來價值的人,也能看出誰最有能力做出應該投資何處的決定。我們也一樣期望這些人至少能用像表單一樣的東西來建個模,然後他們也能勝任識別出他們產品中使用AI的機會。”

人工智能的民主化是幾家公司所強調的。涉及到數據科學團隊以外的公司,包括Kubeflow Pipelines和AI Hub等Google Cloud AI產品,以及CI&T諮詢公司的建議,以確保AI系統實際上是在公司內使用。

梅森還認為,越來越多的企業需要結構化的管理多個人工智能系統。

就像DevOps從業者,Mason說,管理單個系統可以使用手動部署的自定義腳本完成,而cron作業可以管理幾十個。但是,當您管理數十個或數百個系統時,考慮到安全性和治理風險,一個企業就需要更專業、強大的工具。

她說,企業正在朝著更系統追求機器學習和人工智能的方向轉變。

由於Cloudera最近推出了自己的基於container-based的機器學習平臺,因此強調部署AI的CB對Mason來說很有意義。她相信這種趨勢將在未來幾年繼續,因此公司可以選擇在預置的AI或已經運行的AI中部署。

最後,Mason認為,人工智能的業務將繼續發展,這將是整個行業共同實踐,而不僅僅是個別公司。

“我認為我們將看到人工智能專業實踐的不斷髮展,現在,如果你是一家公司的數據科學家或ML工程師,當你跳槽到另一家公司,你的工作將完全不同:不同的工具,不同的期望,不同的報告結構。我期待看到未來的一致性。”

相關報道:

https://venturebeat.com/2019/01/02/ai-predictions-for-2019-from-yann-lecun-hilary-mason-andrew-ng-and-rumman-chowdhury/


分享到:


相關文章: