言論真可怕,人工智慧「威脅論」深受其害!

今年6月,國外一篇《AI寒冬將至》的文章曾引發業內對人工智能發展的爭議,自動駕駛事故頻發、AI軍事化以及AI會導致人類失業等話題,也不斷被媒體所報道,受眾對AI的質疑和不信任感在增加。媒體掌握輿論話語權,AI研究員掌握著專業技術,但兩者的矛盾越來越大,面對媒體的誤讀和炒作,甚至很多科學家都要專門發文或出書進行闢謠和糾正。但這樣的情況是怎麼發生的?媒體的角色應該是什麼?又該怎麼避免呢?

去年6月,Facebook人工智能研究部門的五位研究人員發表了一篇研究報告,展示了機器人模擬人類進行談判的對話情形,發現機器人偶爾會說一些很奇怪的話,比如:“對我來說,對我來說,對我來說,對我來說,對我來說球沒什麼用。”這在當時被認為是開發出了一種機器人之間進行交流的“方言”。

言論真可怕,人工智能“威脅論”深受其害!

這項研究並沒有新的突破,所以業內覺得沒什麼,但傳到媒體那就變成了另外一件事,他們覺得這是一件很嚴重的事情。比如,Fast Company發表了一篇題為《人工智能發明了人類無法理解的語言,我們應該阻止嗎?》的文章,全篇都在描述機器人不斷出現偏離標準英語的交流,更重要的是,Facebook的研究員是在認為這些機器人失控的情況下,決定“拔掉插頭”,結束這項研究

這篇文章出來後持續發酵,並且引發很多媒體的跟風,甚至煽動大家的恐懼情緒,稱Facebook的工程師因為機器人進行了新創語言的自主交流而感到恐慌,不得已叫停了他們的AI研究項目。《太陽報》還說“這與電影《終結者》的情節非常相似,其中有一個機器人出現自我意識後對人類發起了戰爭”。

對於這些由媒體制造的“聳人聽聞”消息,卡耐基梅隆大學機器學習系的助理教授Zachary Lipton感到萬分沮喪。根據他的說法,近年來“機器學習”和“深度學習”等話題越來越受關注,導致了這種“見縫插針”的低質新聞的泛濫—— Lipton稱之為“AI誤報風向”(AI misinformation epidemic)——不但歪曲了研究目的,還對人們正確理解該行業的發展造成了負面影響。

在這種情況下,越來越多的AI研究員也同樣體會到了Lipton的挫敗感,並開始擔心人工智能猜測性的虛假報道,會促使人們對其發展前景抱有錯誤的預期,最終威脅到人工智能未來的進步以及其他新興技術的應用。

由來已久的誇張報道,科學家出書闢謠

事實上,媒體對計算機智能的誇大宣傳並非我們這個時代所獨有的,早在“計算”這一概念出現時就已經存在。而最早可追溯到1946年2月,當體型巨大的電子數字積分計算機Eniac發佈時,記者紛紛將其描述為“電子大腦”、“數學怪人”、“天氣預測者和控制者”,甚至是“巫師”。為了遏制對這一新機器的炒作,避免大眾受到虛假新聞的誤導,著名英國物理學家DR Hartree在《自然》雜誌上發表了一篇文章,描述了Eniac簡單而有效的工作方式。

言論真可怕,人工智能“威脅論”深受其害!

但讓他難過的是,《倫敦時報》在他的研究基礎上發表了一篇題為《電子大腦:解決謎題,帶有記憶的閥門》的文章。對此,Hartree特意給該編輯寫信,稱“電子大腦”一詞具有誤導性,機器“無法替代人類的思想”。遺憾的是,誤導已經形成,在媒體眼中Eniac永遠成為了“大腦機器”的象徵。

無獨有偶,美國康奈爾航空實驗室的工程師Frank Rosenblatt在1958年提出了一種名為“感知器”(perceptron)的基本機器學習算法,按照設計,它只能通過培訓來識別有限的模式範圍,但《紐約時報》發表了一篇文章聲稱該算法是一個“電子大腦”,可以“自學”,並很快“能學會走路、說話、看、寫作、自我複製,同時也能意識到自己的存在“。

到了20世紀60年代末,許多AI先驅者越來越明顯地意識到自己低估了在機器中模擬人腦的難度。1969年,曾公開表示機器智能將超越人類的馬文·明斯基與計算機科學家西摩爾·帕普特共同撰寫了一本書,來證明Rosenblatt的感知器無法實現專家們曾經的設想,同時還表示,其智能程度遠沒有媒體宣傳的那麼誇張。

這本書出版後,迅速在人工智能及其他領域傳播開來,掀起了一場戳穿人工智能“神話”的潮流。1972年,哲學家Hubert Dreyfus發表了一篇名為《計算機所無法勝任的事情》的文章,對機器研究產生了深遠的影響。一年後,英國數學家James Lighthill發表了關於機器智能發展現狀的報告,得出結論——迄今為止,人工智能和機器智能領域所取得的成果,並沒有產生預期的重大影響。

“神話”幻滅後,人工智能便迎來了第一個寒冬。在這期間,該領域的研究經費幾乎全部放緩。就連那麼曾經對“電子大腦”興致勃勃的媒體,也失去了報道興趣。雖然在20世紀80年代和90年代出現了小規模的“復興”跡象,但AI或多或少還是成為了科幻小說家們嘴邊的話題 ,而計算機科學家也盡力避免使用人工智能一詞,因為害怕被視為“白日夢空想家”。

寒冬過後,深度學習出現引發媒體狂熱追捧

人工智能第一個寒冬的結束,是在新一代研究人員發表關於成功應用“深度學習”技術的論文之後。雖然從本質上說,這也是一種類似於Rosenblatt感知器的數據統計技術,但計算能力的提高和龐大數據集的可用性,也意味著深度學習使語音識別、圖像識別和語言翻譯等任務變得切實可行。

言論真可怕,人工智能“威脅論”深受其害!

而隨著深度學習的火熱,比如越來越多的企業斥資研究以及越來越多的學生展開學習,這也讓沉寂了很長時間的媒體開始了大肆的報道。2013年,John Markoff在《紐約時報》上撰寫了一篇關於深度學習和神經網絡的專題文章《像人腦的計算機:從經驗中學習》,不僅回顧了60年前的媒體炒作,還提出了新技術所帶來的可能性。其中提到“在未來幾年中,深度學習將會催生新一代人工智能系統,完成一些簡單的人工任務,包括看、聽、說和操控等等。”

從那時起,關於“AI末日”,“人工大腦”,“超級人工智能”和“令人毛骨悚然的Facebook 人工智能機器人”等誇張報道便開始每天出現在各大媒體上。而隨著越來越多的媒體對人工智能進行大肆宣傳,研究員的失望和沮喪也越來越明顯。

讓人感到不安的不僅是記者的“知識盲區”,而是總有無知媒體自稱是AI領域的“大V”,但實際上,他們只會在其博客上引用馬斯克的話進行內容質量低下的炒作。對此,Lipton表示:“人工智能要想取得實際進展需要一個清醒和知情的話題環境。但現在,大眾瞭解的都是與事實不符的信息。對於信息的真偽與重要性,他們無從得知。”

Lipton並不是第一個對人工智能新聞炒作感到擔憂的人。去年,美國機器人專家Rodney Brooks撰寫了一篇文章,批評了麻省理工科技評論對人工智能未來發展前景的過度猜想。2013年,紐約大學教授Gary Marcus也寫了一篇文章,認為炒作將帶來不切實際的期望,進而讓人工智能進入又一個寒冬。

媒體與研究員加強合作,才能行業正確的方向

但對於Lipton來說,AI寒冬的風險並不可怕,可怕的是媒體將如何誤導人們對人工智能的理解。為了解決這個問題,他在去年3月創辦了自己的博客,試圖能憑藉一己之力緩和那些聳人聽聞的AI新聞。

到目前為止,Lipton的博客得到了媒體的一些關注,並有了固定的讀者群,但Lipton知道他的影響是有限的,“這個行業真正需要的是培訓記者,讓他們更誠實,在這種情況發生之前,我的博客只是一塊鵝卵石,激不起千層浪”。

言論真可怕,人工智能“威脅論”深受其害!

新興技術領域的專欄作家Joanne McNeil對此十分贊同,她也認為科技新聞中存在很大的問題,記者自身素質需要提高。雖然她也會在Twitter上調侃一些帶有《終結者》風格的文章,但還是不會直接批判科技記者,因為在她看來,人工智能炒作的原因之一是資源分配不均。

按照她的話來說,如果你將記者的收入與人工智能研究員的收入進行比較,很快就會清楚為什麼新聞記者無法寫出具有專業深度文章,畢竟他們不能與專業人士相提並論。研究人員可以從炒作中受益,但對想要對這項技術進行批判的記者來說,只是在“受苦“。事實上,相關知識過硬的媒體人很少,如果研究員真關心記者寫出來的文章內容,那他們應該參與到新聞撰寫中。同時,還要適當提高記者的收入,以便鼓勵他們花費時間去認真挖掘與之相關的內容和專業知識。

雖然記者和研究人員之間更密切的互動,將是朝著正確方向邁出的一步,但澳大利亞國立大學工程與計算機科學教授Genevieve Bell表示,消除人工智能新聞的炒作是不可能的,因為關於電子大腦或Facebook機器人的文章並不是關於技術的,而是關於大眾的文化希望與焦慮。

總的來說,現在,毫無根據的猜測與真正的研究之間的界限有些模糊,但從歷史的發展角度來說,這種模糊的界限終究要明確起來,以便大眾合理區分,哪些內容是重要的,哪些只是幻想。


分享到:


相關文章: