都說人工智慧越來越近,但有9種謬誤還在遍地開花

都說人工智能越來越近,但有9種謬誤還在遍地開花

近幾十年人工智能的發展經歷多次沉浮,最近一次被公眾認知,是2015年多位大佬多次公開表示對人工智能的擔憂。

霍金:人工智能會導致人類滅亡,

比爾・蓋茨:人類需要敬畏人工智能的崛起,

馬斯克:人工智能是人類生存最大威脅。

大佬們對人工智能的擔憂引起社會的廣泛討論。

隨後眾多媒體號跟進,迅速分析人工智能的優勢,以及目前的發展還不能給人類造成生存困擾。

隨後三年,直到今天,人工智能伴隨著移動互聯網、大數據等,迅速發展。

都說人工智能越來越近,但有9種謬誤還在遍地開花。

誤區一

我們造出了像人腦一樣的計算機

都說人工智能越來越近,但有9種謬誤還在遍地開花

1980 年就已經出現的神經網絡計算和人腦只有極為模糊的聯繫。一個大問題是科學家目前根本不知道人腦裡那張由無數神經元突觸組成的網絡究竟是怎麼“計算”的

正如伯克利大學人工智能與機器學習專家邁克爾·喬丹(Michael I. Jordan)所說的:“我們完全不知道大腦是怎樣存儲信息和運作的,這裡頭的規則是什麼?是什麼算法?因此我們現在還不能說用大腦的理論去指導人工智能系統。

誤區二

它通過了圖靈測試,所以它有智力

都說人工智能越來越近,但有9種謬誤還在遍地開花

計算機科學之父艾倫·圖靈在 1950 年首次提出了這個關於機器人是否可以思考的著名實驗“圖靈測試”:人類測試員在不知情的情況下面對計算機,用文字和其交談,如果計算機成功欺騙了測試人員假裝成一個真實的人類,那麼該計算機便被證實“會思考”。

後來英國皇家學會將圖靈的標準具體化:在一系列時長為 5 分鐘的鍵盤對話中,只要計算機被誤認為是人類的比例超過 30%,那麼這臺計算機就被認為通過了圖靈測試。

都說人工智能越來越近,但有9種謬誤還在遍地開花

“百度內部有個‘百度大腦’的項目,用技術模擬人腦思維,現在大約已經相當於 2 - 3 歲孩子的智力水平。未來十幾二十年,這樣的大腦或許比人腦還要聰明。”這話出自百度 CEO 李彥宏。

給人工智能程序定義年齡的還有不少,但是,智力測試本身就存在爭議。

智力由三種能力組成:短期記憶力、推理能力和語言能力

三個變量相互作用,也許你會在推理方面天賦秉異,但記憶力並不好。一套由 11 個項目組成的考試題並不能全面反映智力的水平。

人類的大腦能學習幾乎所有東西,比如兩三歲的孩子已經能夠掌握至少一門的語言、能從極其複雜的環境中一眼認出父母,不管他們的站姿和表情。

現在的人工智能在數據處理速度,數據存儲能力等方面,人類望塵莫及,但是像前面提到的在人群一眼認出父母,人工智能還不能辦到。

誤區三

算法正在控制一切

都說人工智能越來越近,但有9種謬誤還在遍地開花

“通過算法,我們可以比人做出更好的選擇”,每隔幾年,這樣的論調都會重複一次。從 2005 年創立、用機器聚合科技網站新聞的 Techmeme,到每次接受採訪都會談個性化推薦的今日頭條,都使用了算法自動抓取互聯網上的新聞內容。但事情在這幾年發生了些變化。

2008 年,Techmeme 招聘了前《連線》雜誌的科技記者 Megan McCarthy,她的任務是對計算機挑選的新聞進行人工干預。

Techmeme 創始人 Gabe Rivera 說,純算法推送的內容存在問題,比如質量參差不齊以及推送時機不對。理想的新聞聚合網站是採用“自動+人工”混合模式,這能夠更有效地處理新聞,彌補人或計算機的不足。

尤其是信息流形式的諮詢平臺,完全依靠算法進行內容推薦,會使用戶陷入“信息繭”,自己看到的內容永遠是已經知道的,或是感興趣的。現在意識到這一點的人越來越多,也在盡力避免讓用戶進入“信息繭”.

現在,Techmeme 維持著一個 9 人的編輯團隊,而今日頭條也在招聘越來越多的編輯,用人工進一步挑選新聞。

至少相當長的一段時間,算法與人工還是相互輔助的關係。

誤區四

這臺機器人已經學會自我繁殖

都說人工智能越來越近,但有9種謬誤還在遍地開花

最近劍橋大學的實驗室裡就誕生了一臺被媒體冠以“會生孩子”名頭的機器人,它的“母體”是一隻機械手臂,“嬰兒”則是一個個 3D 打印的藍色小立方塊,每個方塊內有一個獨立的電動馬達。

關於機器人繁殖的腦洞,現代計算機之父馮諾依曼曾指出:任何能夠自我繁殖的系統應該同時具有兩個基本功能:

1.它必須能夠構建某一個元素,並且用這些元素組裝和自己一樣的下一代;

2.它必須能夠把對自身的描述傳遞給下一代。

這麼來看,這臺所謂“會生孩子”的機器人並不符合“繁殖”的定義。

就算哪天會有“天網”這樣能像病毒一樣傳播的人工智能,它的影響也非常有限,因為能毀滅人類的計算機需要實體。

誤區五

人工智能的外形,一定要像人

日本有位知名的人工智能專家石黑浩,他做的事情就是把機器人造的十分接近人類,他甚至喪心病狂地複製了一個自己。

根據“恐怖谷”理論,機器人如果真能達到 100% 的和人類相似,人類的反應是積極而正面的,但在此之前“像又不是很像”的階段,比如石黑浩的機器人,反而會讓人感覺見到行屍走肉一樣恐怖。

是不是還是覺得圓滾滾的掃地機器人溫暖又可愛呢?

誤區六

機器人會遵循阿西莫夫的三定律

都說人工智能越來越近,但有9種謬誤還在遍地開花

科幻小說家阿西莫夫在 1942 提出了著名的“機器人三定律”:

機器人不得傷害人類,或因不作為使人類受到傷害;

除非違背第一法則,機器人必須服從人類的命令;

在不違背第一及第二法則下,機器人必須保護自己。

但是從軍隊角度,人工智能決定生死有諸多好處,比如它會堅決地執行任務,並且殺人的機器不會有負罪感。

完全由人工智能決定生死意味著不再需要無人機操作員扣下扳機。白天在弗吉尼亞的封閉樓宇裡遠程操控無人機,晚上和家人一起吃飯看到誤炸新聞並不是一份輕鬆的工作。

人工智能決定生死毫無疑問會引起許多爭議。2013 年 5 月,由它引發的道義、倫理、人權問題首次被提到聯合國人權理事會。

但是面對未來人工智能的世界,阿西莫夫的三定律不一定有效。

誤區七

我的人工智能可以……因為它會深度學習

都說人工智能越來越近,但有9種謬誤還在遍地開花

有超過 30 年人工智能研究經驗的學者,Facebook 人工智能總監 Yann LeCun 這麼解釋深度學習:創造學習機器,用同一種方法訓練它學習一切。

作為一個訓練系統,海量的訓練依然是基礎。

並且即便有海量的訓練,原先的限制依然存在。

當 Google 經過海量訓練,用深度學習讓機器辨認貓的時候,機器只能在貓正臉朝著鏡頭的時候確保認出它。

誤區八

埋頭苦幹幾個月,機器人就有自我意識了

都說人工智能越來越近,但有9種謬誤還在遍地開花

科幻電影中的人工智能總給人這樣的印象:開發出一個有模有樣的機器人非常簡單。

比如在《超能查派》中,主角機器人在一個類似車庫的雜物間裡被改裝,從誕生起它就可以快速的自我學習,沒幾天就長成了成年人。

《鋼鐵俠》系列中有著英式口音的超級人工智能管家 JARVIS 出自 Tony Stark 那間浮誇的實驗室。

《超驗駭客》裡,Johnny Depp 飾演的科學家能輕鬆地在自己家裡上傳意識,繼而成為了不死的虛擬人。

然而事實是,單槍匹馬、閉門造車地開發人工智能機器人實在太不現實,這樣的工作往往需要一個科學家團隊,成果的出現也必然是長久和緩慢的過程。

關於上傳意識,更是“無稽之談”,因為人類自己連“意識”到底是什麼還說不清楚。

誤區九

我們複製你的記憶,用人工智能技術讓你作為虛擬人永生

都說人工智能越來越近,但有9種謬誤還在遍地開花

先別做這麼好的美夢。因為現在沒人知道大腦究竟怎麼存儲記憶。事實上,就連記憶存在大腦的什麼地方都是未解之謎,更別提什麼保存記憶。

或者讓我們更哲學一點體溫:到底什麼才算是“記憶”?你記得的那些,還是你認為你記得的那些?

寫在最後

最後小俠想說,大佬們對人工智能的擔憂是有道理。雖然現在的人工智能還很不“智能”,但是隨著科技進步、迭代的速度越來越快,能夠擁有與成年人同等水平的人工智能出現的那一天,應該很快就能到來。


分享到:


相關文章: