Hinton、吳恩達、LeCun 被點名,馬斯克躺槍

賴可 發自 凹非寺
量子位 報道 | 公眾號 QbitAI

“著名AI批評家“馬庫斯又開批了。

Geoff HintonHinton、吳恩達、LeCun、馬斯克通通被點名。

他說,Hinton關於深度學習的說法可能會導致放射科醫生緊缺;
吳恩達預測AI能解決開放式問題是錯的;
LeCun說強人工智能會出現到現在還八字沒一撇;

不止這些,他還說《經濟學人》誤導報道、IBM沃森過度承諾……

他舉這些例子,都為了印證自己的觀點:AI宣傳中存在大量的信息誤導。他認為,這怪研究者和記者,他們都喜歡強調突破性,卻不談論侷限性。

量子位把長文重新梳理,看清老馬這回到底在批些啥。

Hinton導致放射科醫生缺乏?

先來弄清楚馬庫斯是怎麼批評深度學習教父Geoff Hinton的。為什麼說是他要對放射科醫生的緊缺負責?

是這樣的,2016年,Hinton在論壇上打了一個比喻.

放射科醫生就像”已經在懸崖邊緣的狼,卻還沒有回頭看,沒有發現下面已經沒有陸地了”。

Hinton建議,現在就要停止培養放射科醫生。

兩年過去了,馬斯庫的結論是:Hinton的話驚嚇了很多放射科系,結果可能是負面的;目前世界上很多地方都缺放射科醫生。

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

Hinton的話和放射科醫師缺乏,這兩者之間究竟有啥關係呢。一時之間還真的有點難弄明白。

不過我們可以回到當時現場,看一看Hinton究竟是在什麼樣的情境下說了怎樣的話

在2016年機器學習和智能市場的論壇上,Hinton被提問:你認為最激動人心的事情會是什麼?

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

他就說了上面的那個比方,並且說,

完全顯而易見的是,五年內,深度學習能夠比放射科醫生做的更好,因為它可以變得更有經驗。也許是十年內。

AI取代放射科醫師的爭議,量子位以前寫過文章:吳恩達被diss了

AI醫生難實現

至於AI醫療,馬庫斯還批評了IBM沃森在2014年過度承諾,如今交付不足。

IEEE SPectrum的相關報道指出,在2014年,沃森公司宣佈了要研發AI醫生的目標。公司承諾,首個健康護理的商業服務,將在18到24個月實現。

而在2016年,和MD安德森癌症研究所等機構合作的項目卻受挫。提供的服務被認為不可靠。

沃森的一些專家也意識AI在醫療方面的侷限性。比如其衛生保健和生命科學研究副總裁Ajay Royyuru,他表示

診斷不是要去的地方,這是專家們做得很好的事情。這是一項艱鉅的任務,無論您用AI做得如何,它都不會取代專家。

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

前不久,在北大醫學院舉行的,醫生和AI工作人員共同出席的“智慧醫療,潛力與挑戰論壇上”,雙方對於AI在醫療中扮演什麼樣的角色也做了類似的討論。

騰訊優圖實驗室醫療AI總監鄭冶楓表示,他們目前的關注的場景大多還是AI輔助醫生。

醫生培訓非常重要,AI是一個新的工具出來,不可能不培訓直接用。醫生需要用個半年一年,摸透它的脾氣了,什麼情況下,會更準確,而不是簡單的把AI的結果加一點信息,需要一個熟悉的過程。

而在使用流程上,他們也會做相關設置,避免醫生過度依賴AI。

有時候,在具體場景中,比如當天醫生就直接把AI的結果交上去了,這肯定是不行的。我們在流程上是可以做的,醫生必須讀一遍片子,讀完了,我再給出我的答案。而不是我直接給出答案,你在這上面改,這個容易被醫生用偏。這樣可以避免一些誤用。

而清華大學臨床醫學院院長董家鴻則提出了“人機協同”的視角,

通過人機協同的機制,看協同後產生的效果。基層醫生,給了他AI,然後看人機協同之後的診斷率是不是超過原來的水平。

任何一個高明的醫生的診斷也不可能完全正確,有一個容許的出錯率。在這樣的條件下,再去評價AI在基層醫療的效用和價值。

批評NLP,懟吳恩達、LeCun

馬庫斯的批評還集中在NLP方面。首當其衝當然是Hinton,他4年前說過的關於自然語言的話,也被拿出來批評了

2015年,Hinton在接受衛報時曾表示:谷歌正處於開發出有邏輯能力,能自然對話,甚至調情的算法的邊緣

4年後,馬庫斯說

我們距離能夠進行自然對話且無需人工干預,確保連貫性的機器還有很長的路要走,沒有現成的系統能可靠地推理物理世界。

(反正你的總結都很對)

新舊搭配,他還舉了一個最近媒體誤導的例子。怎麼誤導的呢?

是這樣,《經濟學人》最近對open AI的句子生成系統GPT-2進行了一次主題為2020年的採訪,並將人機對話刊登出來,標明瞭”未經編輯”,給人的感覺是,AI已經可以進行如此連貫自然的對話了,甚至顯出了幽默感。

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

實際上,這種效果是編輯對文本進行編輯和過濾的最終效果,AI對每一個問題給出五個回答,人工從中進行篩選連綴成文。

(有時候,一個細節對理解事實很關鍵。所以希望大家,以後對所有認真做事實和細節核查的媒體多一丟丟尊重啦~)

馬庫斯還批評了吳恩達、LeCun 對於AI的能力增長做了過於樂觀的判斷,比如吳恩達曾經認為AI未來能夠解決開放式問題,LeCun 說強人工智能會很快出現。

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

恩……還有,這種批評名場面怎麼能少了馬斯克。

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

他批評了馬斯克預言自動駕駛汽車在2020年實現不切實際。

“AI批評家”馬庫斯

感受了一通批評大拼盤,是不是覺得滋味一言難盡。

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

他個人網站的介紹是:

加里·馬庫斯,科學家,暢銷書作者,企業家,AI逆勢者。

作為批評的慣例,怎能只破不立?換個胃口,看一下他提出了六條“意見”。馬庫斯提出,在研究者和報道者談論AI時,都應該考慮到下面六個問題。

1、人工智能系統實際上在做什麼?“閱讀系統”真的閱讀嗎?

2、結果有多普遍?

3、有沒有感興趣的讀者可以自己探索的演示?

4、如果說人工智能系統比人類更好,哪個人類,好多少呢?(相比之下,低薪工人缺乏良好表現的動力可能無法真正探究人類能力的極限)


5、實際上,成功完成特定任務可以使我們邁向建立真正的AI多遠?

6、系統的魯棒性?無需大量重新培訓,它是否可以與其他數據集一樣好用?AlphaGo在19x19的板上可以正常工作,但是需要重新訓練才能在矩形板上運作。缺乏轉移正說明了這一點。

有網友問,

這個馬庫斯很重要麼?他對機器學習或者AI的貢獻是啥?

網友答曰:
他的貢獻可以總結為,寫了一些文章,懷疑AI的人讀起來會開心。

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

馬庫斯寫了很多批評AI的文章,量子位之前也都介紹過:

這十大挑戰,擺在DL面前:馬庫斯長文質疑深度學習

“眾矢之的”馬庫斯回應14個問題,將深度學習質疑到底

馬庫斯:DeepMind新出的機器心智網絡不錯,但有誤導性

但是好像有一句話怎麼說來著不因人廢言,不因言廢人(對的,孔子說的)

網友也說了,談一談對文章的不滿意比攻擊作者更好。

網友評論


Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI


儘管我同意馬庫斯說媒體過度宣傳AI,以及研究者應在防止錯誤信息做得更好,但是他的方式不合理。他似乎沉迷於尋找神經網絡(NN)研究者的漏洞。用這種方式,和他進行有益的對話很困難,而且NN研究者也會有防禦心態。

除此以外,符號學AI太過簡單,不能產生AGI,這意味著用NN來完成是有幫助的。研究不是辯論。

Hinton、吳恩達、LeCun 被點名,馬斯克躺槍 | 馬庫斯連擊批AI

文章裡援引的例子大多來自2015到2017年的AI炒作期。回溯來看,那是一個有很多突破的時期,比如DQN,AlphaGo,Resnets,有很多目標檢測和GAN執行上的突破。人們剛開始基於這些進展進行推斷,我不怪他們。
沒錯,進展變得緩慢,但是所有的這些最終會實現。

你知道碼字至此的我,內心的OST是啥?

(長這麼大,從來沒有梳理某個人的長篇批評弄這麼久!!)

你看完了有啥感受?請多多評論吧,如果有那麼一點點收穫,也算欣慰了。(手動比芯芯)

參考鏈接:

https://w.url.cn/s/AGxr2q4
https://worldin.economist.com/article/17521/edition2020artificial-intelligence-predicts-future
https://www.youtube.com/watch?v=2HMPRXstSvQ&t=29s
http://garymarcus.com/bio/bio.html

量子位 QbitAI · 頭條號簽約

關注我們,第一時間獲知前沿科技動態


分享到:


相關文章: