在經歷了蠻荒的PC互聯網時代,混戰的移動互聯網時代,到現今最火的人工智能時代。大數據、雲計算、機器學習的技術應用,已經使得IT從業者的門檻越來越高。套用一句樊登讀書會的宣傳口號“keep learning”,保持對新鮮技術的好奇心,保持對技術應用的責任心,持續關注、學習是每個IT從業者的必備技能。
一、什麼是人工智能?
人工智能(Artificial Intelligence),英文縮寫為AI。
它是一個融合計算機科學、統計學、腦神經學和社會科學的前沿綜合學科。
它使得計算機像人一樣擁有智能能力,可以代替人類實現識別、認知,分析和決策等多種功能。
比如當你說一句話時,機器能夠識別成文字,並理解你話的意思,進行分析和對話等。
二、人工智能發展簡史
1956年,幾個計算機科學家相聚在達特茅斯會議(Dartmouth Conferences),提出了“人工智能”的概念。其後,人工智能就一直縈繞於人們的腦海之中,並在科研實驗室中慢慢孵化。
之後的幾十年,人工智能一直在兩極反轉,或被稱作人類文明耀眼未來的預言;或者被當成技術瘋子的狂想扔到垃圾堆裡。坦白說,直到2012年之前,這兩種聲音還在同時存在。
上世紀90年代,國際象棋冠軍卡斯帕羅夫與”深藍” 計算機決戰,”深藍”獲勝,這是人工智能發展的一個重要里程碑。而 2016 年,Google 的 AlphaGo 贏了韓國棋手李世石,再度引發 AI 熱潮。
過去幾年,尤其是2015年以來,人工智能開始大爆發。很大一部分是由於GPU的廣泛應用,使得並行計算變得更快、更便宜、更有效。
當然,無限拓展的存儲能力和驟然爆發的數據洪流(大數據)的組合拳,也使得圖像數據、文本數據、交易數據、映射數據全面海量爆發。
三、人工智能發展條件
1、硬件發展:AI 不斷爆發熱潮,是與基礎設施的進步和科技的更新分不開的,從 70 年代 personal 計算機的興起到 2010 年 GPU、異構計算等硬件設施的發展,都為人工智能復興奠定了基礎。
2、數據發展:互聯網及移動互聯網的發展也帶來了一系列數據能力,使人工智能能力得以提高。
3、運算髮展:計算機的運算能力從傳統的以 CPU 為主導到以 GPU 為主導,這對 AI 有很大變革。
4、算法發展:算法技術的更新助力於人工智能的興起,最早期的算法一般是傳統的統計算法,如 80 年代的神經網絡,90 年代的淺層,2000 年左右的 SBM、Boosting、convex 的 methods 等等。隨著數據量增大,計算能力變強,深度學習的影響也越來越大。尤其是2011 年之後,深度學習的興起,帶動了現今人工智能發展的高潮。
四、機器學習:一種實現人工智能的方法
機器學習(Machine Learning, ML)是一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、算法複雜度理論等多門學科。
機器學習是人工智能的核心,是使計算機具有智能的根本途徑,其應用遍及人工智能的各個領域,它主要使用歸納、綜合而不是演繹。
機器學習最基本的做法,是使用算法來解析數據、從中學習,然後對真實世界中的事件做出決策和預測。
與傳統的為解決特定任務、硬編碼的軟件程序不同,機器學習是用大量的數據來“訓練”,通過各種算法從數據中學習如何完成任務。
機器學習最成功的應用領域是計算機視覺,雖然也還是需要大量的手工編碼來完成工作。人們需要手工編寫分類器、邊緣檢測濾波器,以便讓程序能識別物體從哪裡開始,到哪裡結束;寫形狀檢測程序來判斷檢測對象是不是有八條邊;寫分類器來識別字母“STOP”。使用以上這些手工編寫的分類器,人們總算可以開發算法來感知圖像,判斷圖像是不是一個停止標誌牌。
【機器學習有三類】:
第一類是無監督學習,指的是從信息出發自動尋找規律,並將其分成各種類別,有時也稱”聚類問題”。
第二類是監督學習,監督學習指的是給歷史一個標籤,運用模型預測結果。如有一個水果,我們根據水果的形狀和顏色去判斷到底是香蕉還是蘋果,這就是一個監督學習的例子。
最後一類為強化學習,是指可以用來支持人們去做決策和規劃的一個學習方式,它是對人的一些動作、行為產生獎勵的回饋機制,通過這個回饋機制促進學習,這與人類的學習相似,所以強化學習是目前研究的重要方向之一。
五、深度學習:一種實現機器學習的技術
值得一提的是機器學習同深度學習之間還是有所區別的,機器學習是指計算機的算法能夠像人一樣,從數據中找到信息,從而學習一些規律。雖然深度學習是機器學習的一種,但深度學習是利用深度的神經網絡,將模型處理得更為複雜,從而使模型對數據的理解更加深入。
深度學習是機器學習中一種基於對數據進行表徵學習的方法。深度學習是機器學習研究中的一個新的領域,其動機在於建立、模擬人腦進行分析學習的神經網絡,它模仿人腦的機制來解釋數據,例如圖像,聲音和文本。
同機器學習方法一樣,深度機器學習方法也有監督學習與無監督學習之分.不同的學習框架下建立的學習模型很是不同.例如,卷積神經網絡(Convolutional neural networks,簡稱CNNs)就是一種深度的監督學習下的機器學習模型,而深度置信網(Deep Belief Nets,簡稱DBNs)就是一種無監督學習下的機器學習模型。
如上圖,人工智能是最早出現的,也是最大、最外側的同心圓;其次是機器學習,稍晚一點;最內側,是深度學習,當今人工智能大爆炸的核心驅動。
六、人工神經網絡:一種機器學習的算法
人工神經網絡(Artificial Neural Networks)是早期機器學習中的一個重要的算法,歷經數十年風風雨雨。神經網絡的原理是受我們大腦的生理結構——互相交叉相連的神經元啟發。但與大腦中一個神經元可以連接一定距離內的任意神經元不同,人工神經網絡具有離散的層、連接和數據傳播的方向。
例如,我們可以把一幅圖像切分成圖像塊,輸入到神經網絡的第一層。在第一層的每一個神經元都把數據傳遞到第二層。第二層的神經元也是完成類似的工作,把數據傳遞到第三層,以此類推,直到最後一層,然後生成結果。
每一個神經元都為它的輸入分配權重,這個權重的正確與否與其執行的任務直接相關。最終的輸出由這些權重加總來決定。
我們以“停止(Stop)標誌牌”為例,將一個停止標誌牌圖像的所有元素都打碎,然後用神經元進行“檢查”:八邊形的外形、消防車般的紅顏色、鮮明突出的字母、交通標誌的典型尺寸和靜止不動運動特性等等。神經網絡的任務就是給出結論,它到底是不是一個停止標誌牌。神經網絡會根據所有權重,給出一個經過深思熟慮的猜測——“概率向量”。
回過頭來看這個停止標誌識別的例子。神經網絡是調製、訓練出來的,時不時還是很容易出錯的。它最需要的,就是訓練。需要成百上千甚至幾百萬張圖像來訓練,直到神經元的輸入的權值都被調製得十分精確,無論是否有霧,晴天還是雨天,每次都能得到正確的結果。
只有這個時候,我們才可以說神經網絡成功地自學習到一個停止標誌的樣子;或者在Facebook的應用裡,神經網絡自學習了你媽媽的臉;又或者是2012年吳恩達(Andrew Ng)教授在Google實現了神經網絡學習到貓的樣子等等。
吳教授的突破在於,把這些神經網絡從基礎上顯著地增大了。層數非常多,神經元也非常多,然後給系統輸入海量的數據,來訓練網絡。在吳教授這裡,數據是一千萬YouTube視頻中的圖像。吳教授為深度學習(deep learning)加入了“深度”(deep)。這裡的“深度”就是說神經網絡中眾多的層。
現在,經過深度學習訓練的圖像識別,在一些場景中甚至可以比人做得更好:從識別貓,到辨別血液中癌症的早期成分,到識別核磁共振成像中的腫瘤。Google的AlphaGo先是學會了如何下圍棋,然後與它自己下棋訓練。它訓練自己神經網絡的方法,就是不斷地與自己下棋,反覆地下,永不停歇。
七、人工智能的研究領域和分支
人工智能研究的領域主要有五層:
1、最底層是基礎設施建設,包含數據和計算能力兩部分,數據越大,人工智能的能力越強。
2、往上一層為算法,如卷積神經網絡、LSTM 序列學習、Q-Learning、深度學習等算法,都是機器學習的算法。
3、第三層為重要的技術方向和問題,如計算機視覺,語音工程,自然語言處理等。還有另外的一些類似決策系統,像 reinforcement learning(編輯注:增強學習),或像一些大數據分析的統計系統,這些都能在機器學習算法上產生。
4、第四層為具體的技術,如圖像識別、語音識別、機器翻譯等等。
5、最頂端為行業的解決方案,如人工智能在金融、醫療、互聯網、交通和遊戲等上的應用,這是我們所關心它能帶來的價值。
八、人工智能的應用場景
1、計算機視覺2000年左右,人們開始用機器學習,用人工特徵來做比較好的計算機視覺系統。如車牌識別、安防、人臉等技術。而深度學習則逐漸運用機器代替人工來學習特徵,擴大了其應用場景,如無人車、電商等領域。
2、語音技術2010 年後,深度學習的廣泛應用使語音識別的準確率大幅提升,像 Siri、Voice Search 和 Echo 等,可以實現不同語言間的交流,從語音中說一段話,隨之將其翻譯為另一種文字;再如智能助手,你可以對手機說一段話,它能幫助你完成一些任務。與圖像相比,自然語言更難、更復雜,不僅需要認知,還需要理解。
3、自然語言處理目前一個比較重大的突破是機器翻譯,這大大提高了原來的機器翻譯水平,舉個例子,Google 的 Translation 系統,是人工智能的一個標杆性的事件。2010 年左右, IBM 的”Watson”系統在一檔綜藝節目上,和人類冠軍進行自然語言的問答並獲勝,代表了計算機能力的顯著提高。
4、決策系統決策系統的發展是隨著棋類問題的解決而不斷提升,從 80 年代西洋跳棋開始,到 90 年代的國際象棋對弈,機器的勝利都標誌了科技的進步,決策系統可以在自動化、量化投資等系統上廣泛應用。
5、大數據應用可以通過你之前看到的文章,理解你所喜歡的內容而進行更精準的推薦;分析各個股票的行情,進行量化交易;分析所有的像客戶的一些喜好而進行精準的營銷等。機器通過一系列的數據進行判別,找出最適合的一些策略而反饋給我們。
九、人工智能的未來之路
1、在計算機視覺上,未來的人工智能應更加註重效果的優化,加強計算機視覺在不同場景、問題上的應用。
2、在語音場景下,當前的語音識別雖然在特定的場景(安靜的環境)下,已經能夠得到和人類相似的水平。但在噪音情景下仍有挑戰,如原場識別、口語、方言等長尾內容。未來需增強計算能力、提高數據量和提升算法等來解決這個問題。
3、在自然語言處理中,機器的優勢在於擁有更多的記憶能力,但卻欠缺語意理解能力,包括對口語不規範的用語識別和認知等。人說話時,是與物理事件學相聯繫的,比如一個人說電腦,人知道這個電腦意味著什麼,或者它是能夠幹些什麼,而在自然語言裡,它僅僅將”電腦”作為一個孤立的詞,不會去產生類似的聯想,自然語言的聯想只是通過在文本上和其他所共現的一些詞的聯想, 並不是物理事件裡的聯想。所以如果要真的解決自然語言的問題,將來需要去建立從文本到物理事件的一個映射,但目前仍沒有很好的解決方法。因此,這是未來著重考慮的一個研究方向。
4、當下的決策規劃系統存在兩個問題,第一是不通用,即學習知識的不可遷移性,如用一個方法學了下圍棋,不能直接將該方法轉移到下象棋中,第二是大量模擬數據。所以它有兩個目標,一個是算法的提升,如何解決數據稀少或怎麼自動能夠產生模擬數據的問題,另一個是自適應能力,當數據產生變化的時候,它能夠去適應變化,而不是能力有所下降。所有一系列這些問題,都是下一個五或十年我們希望很快解決的。
在最後的時候,如果有想學的人工智能,對人工智能感興趣的朋友,最新的學習資料和大家一起分享,全部都是免費的,希望大家一起學習,一起進步,一起變得更好!
獲取方式:私信小編 “ 學習 ”,即可免費獲取!
小編回覆的可能比較慢,喜歡小編的可以關注,謝謝大家支持!
閱讀更多 王星講編程 的文章