天才就是當世上所有人都覺得他瘋了的時候,他依然清晰地知道自己不是真的瘋了,而是比旁人看的更長遠。
——致敬為科學一直堅持的先輩
神經網絡的發展可以追溯到二戰時期,那時候先輩們正想著如何用人類的方式去存儲和處理信息,於是他們開始構建計算系統。
由於當時計算機機器和技術的發展限制,這一技術並沒有得到廣泛的關注和應用。
幾十年來,神經網絡之父Hiton始終堅持計算機能夠像人類一樣思考,用直覺而非規則。
儘管這一觀點被無數人質疑過無數次,但隨著數據的不斷增長和數據挖掘技術的不斷進步,神經網絡開始在語音和圖像等方面超越基於邏輯的人工智能。
幾乎是一夜間,神經網絡技術從無人相信變成了萬人追捧。
人工神經網絡是什麼?
人工神經網絡:是一種模仿動物神經網絡行為特徵,進行分佈式並行信息處理的算法數學模型。
這種網絡依靠系統的複雜程度,通過調整內部大量節點之間相互連接的關係,從而達到處理信息的目的,並具有自學習和自適應的能力。
簡單來說,就是通過大量的樣本訓練神經網絡,得到結論。接著就可以輸入新的信息,看最後得出怎樣的回應。
例如,周杰倫週末在北京開演唱會,班主任會考慮時間、地點、價格、天氣、是否有同伴,這些因素然後根據這些判斷因素,做出是否去看演唱會的決定。
從班主任接收到演唱會信息,到做出相應判斷,這整個過程就是神經網絡運行的過程。
人工神經網絡組成
一個典型的神經網絡,由成百上千萬的人工神經元構成,他們排列在一系列的層中,每個層之間彼此相連。
基本上由三個相互連接的層組成:輸入層、隱藏層和輸出層。
班主任畫了一個簡單的圖來幫助同學們理解:
由上圖,可以看出,輸入層向隱藏層輸入信息,隱藏層會向輸出層輸送數據。下面班主任來介紹人工神經單元的這三個組成部分:
A、輸入層
輸入層是接收每個觀測值的解釋屬性的值作為輸入。一般情況下,輸入層從外界接收各種各樣的信息,神經網絡會用這些信息進行學習、識別或進行其它的處理。
B、隱藏層
隱藏層將給定的轉換應用於網絡內的輸入值。隱藏層的節點數目不定,但隱藏層越多,神經網絡越強健。
C、輸出層
輸出層接收來自隱藏層的連接,它返回一個對應於響應變量預測的輸出值,再通過輸出層的活動節點結合並改變數據以產生輸出值。
人工神經網絡,就是通過這三個層面模擬著人類的思考過程。
常見的神經網絡類型
A、BP神經網絡
BP神經網絡,是按誤差反向傳播算法的學習過程,由信息的正向傳播和誤差的反向傳播兩個過程組成,是一種應用最為廣泛的神經網絡。
先來看一下BP神經網絡的流程圖:
由BP神經網絡流程圖可以看出,正向傳播處理過程和人工神經網絡的流程相同。其本質的區別是,增加了誤差的反向傳播階段。
當實際輸出與期望輸出不符時,誤差通過輸出層,按誤差梯度下降的方式修正各層權值,向隱層、輸入層逐層反傳。
簡單來說,即通過信息正向傳播和誤差反向傳播,不斷地進行學習訓練,一直到網絡輸出的誤差減少到可以接受的程度。
B、卷積神經網絡
卷積神經網絡是一種前饋神經網絡,它的人工神經元可以響應一部分覆蓋範圍內的周圍單元。
換個角度思考,卷積神經網絡就是多層的神經網絡,前面的層訓練出的特徵作為下一層的輸入,所以越到後面的層,特徵越具體。
卷積神經網絡在大型圖像處理方面展示出了非凡的效果。
例如,我們需要在眾多圖像中鑑別出一隻貓,人類可以通過已有的常識判斷出特徵,比如貓頭、貓身、貓尾巴等從而鑑別出一隻貓。
而卷積神經網絡完全不知道什麼是貓頭、貓身、貓尾巴,卷積神經網絡通過學習物體的抽象特徵,這種特徵在現實世界有可能都沒有特定的名詞,但是通過這些自學的的特徵組合在一起,計算機就會判定這是一隻貓!
由上面的圖可以看出,神經網絡A,可以查看輸入層的X,輸出h。一個遞歸的神經網絡可以被認為是同一個神經網絡的多個副本,每一個副本都傳遞一個消息給輸出層。
D、長短期記憶網絡
長短期記憶網絡,是一種時間遞歸神經網絡,適合於處理和預測時間序列中間隔和延遲相對較長的重要事件。它能夠解決傳統的神經網絡中的後面的時間節點感知力下降的問題。
值得一提的是,長短期記憶網絡在算法中加入了一個處理器,放置了三扇門:輸入門、遺忘門、輸出門,以此來判斷信息是否有用。
只有符合規則的信息才會被留下,不符合的會通過遺忘門被遺忘。
精彩搶先看:
咱們AI大學2018年第二期「未來課棧」將於6月14日在成都舉辦!
人工智能領域知名學者和專家將與同學們一起分享AI理念、研討基礎科學、剖析趨勢變化、指引全新方向,盛夏六月,AI不虛此行。
報名通道和相關信息將在後續的推文裡透露給大家哦~
閱讀更多 AI研究所 的文章