學人工智能,為什麼要先學數學?

順子40271791


根據《人工智能影響力報告》顯示:

人工智能科學家主要畢業於清華大學、中國科學院、中國科技大學、麻省理工大學、北京大學等知名學校,學歷上看,73%的人工智能科學家都擁有博士學歷,可見人工智能領域是高端人士的聚集地,普通人根本玩不了,你有沒有懼怕人工智能的高門檻?

學習人工智能需要具備最最最總要的是學習態度和學習能力,畢竟是前沿科學行業,其次才是數學知識和編程能力,數學知識如果你是做學問做算法突破,那麼對於你的數學能力要求是相當高的,如果是做工程等,數學這塊要求並不高,大概大專文化水平就行。而編程能力是後面長期累積的,這個不是必要條件

首先要掌握必備的數學基礎知識,

具體來說包括:

線性代數:如何將研究對象形式化?

概率論:如何描述統計規律?

數理統計:如何以小見大?

最優化理論: 如何找到最優解?

信息論:如何定量度量不確定性?

形式邏輯:如何實現抽象推理?

線性代數:如何將研究對象形式化?

事實上,線性代數不僅僅是人工智能的基礎,更是現代數學和以現代數學作為主要分析方法的眾多學科的基礎。從量子力學到圖像處理都離不開向量和矩陣的使用。而在向量和矩陣背後,線性代數的核心意義在於提供了⼀種看待世界的抽象視角:萬事萬物都可以被抽象成某些特徵的組合,並在由預置規則定義的框架之下以靜態和動態的方式加以觀察。

著重於抽象概念的解釋而非具體的數學公式來看,線性代數要點如下:線性代數的本質在於將具體事物抽象為數學對象,並描述其靜態和動態的特性;向量的實質是 n 維線性空間中的靜止點;線性變換描述了向量或者作為參考系的座標系的變化,可以用矩陣表示;矩陣的特徵值和特徵向量描述了變化的速度與方向。

總之,線性代數之於人工智能如同加法之於高等數學,是一個基礎的工具集。

概率論:如何描述統計規律?

除了線性代數之外,概率論也是人工智能研究中必備的數學基礎。隨著連接主義學派的興起,概率統計已經取代了數理邏輯,成為人工智能研究的主流工具。在數據爆炸式增長和計算力指數化增強的今天,概率論已經在機器學習中扮演了核心角色。

同線性代數一樣,概率論也代表了一種看待世界的方式,其關注的焦點是無處不在的可能性。頻率學派認為先驗分佈是固定的,模型參數要靠最大似然估計計算;貝葉斯學派認為先驗分佈是隨機的,模型參數要靠後驗概率最大化計算;正態分佈是最重要的一種隨機變量的分佈。

數理統計:如何以小見大?

在人工智能的研究中,數理統計同樣不可或缺。基礎的統計理論有助於對機器學習的算法和數據挖掘的結果做出解釋,只有做出合理的解讀,數據的價值才能夠體現。數理統計根據觀察或實驗得到的數據來研究隨機現象,並對研究對象的客觀規律做出合理的估計和判斷。

雖然數理統計以概率論為理論基礎,但兩者之間存在方法上的本質區別。概率論作用的前提是隨機變量的分佈已知,根據已知的分佈來分析隨機變量的特徵與規律;數理統計的研究對象則是未知分佈的隨機變量,研究方法是對隨機變量進行獨立重複的觀察,根據得到的觀察結果對原始分佈做出推斷。

用一句不嚴謹但直觀的話講:數理統計可以看成是逆向的概率論。 數理統計的任務是根據可觀察的樣本反過來推斷總體的性質;推斷的工具是統計量,統計量是樣本的函數,是個隨機變量;參數估計通過隨機抽取的樣本來估計總體分佈的未知參數,包括點估計和區間估計;假設檢驗通過隨機抽取的樣本來接受或拒絕關於總體的某個判斷,常用於估計機器學習模型的泛化錯誤率。

最優化理論: 如何找到最優解?

本質上講,人工智能的目標就是最優化:在複雜環境與多體交互中做出最優決策。幾乎所有的人工智能問題最後都會歸結為一個優化問題的求解,因而最優化理論同樣是人工智能必備的基礎知識。最優化理論研究的問題是判定給定目標函數的最大值(最小值)是否存在,並找到令目標函數取到最大值 (最小值) 的數值。 如果把給定的目標函數看成一座山脈,最優化的過程就是判斷頂峰的位置並找到到達頂峰路徑的過程。

通常情況下,最優化問題是在無約束情況下求解給定目標函數的最小值;在線性搜索中,確定尋找最小值時的搜索方向需要使用目標函數的一階導數和二階導數;置信域算法的思想是先確定搜索步長,再確定搜索方向;以人工神經網絡為代表的啟發式算法是另外一類重要的優化方法。

信息論:如何定量度量不確定性?

近年來的科學研究不斷證實,不確定性就是客觀世界的本質屬性。換句話說,上帝還真就擲骰子。不確定性的世界只能使用概率模型來描述,這促成了信息論的誕生。

信息論使用“信息熵”的概念,對單個信源的信息量和通信中傳遞信息的數量與效率等問題做出瞭解釋,並在世界的不確定性和信息的可測量性之間搭建起一座橋樑。

總之,信息論處理的是客觀世界中的不確定性;條件熵和信息增益是分類問題中的重要參數;KL 散度用於描述兩個不同概率分佈之間的差異;最大熵原理是分類問題彙總的常用準則。

形式邏輯:如何實現抽象推理?

1956 年召開的達特茅斯會議宣告了人工智能的誕生。在人工智能的襁褓期,各位奠基者們,包括約翰·麥卡錫、赫伯特·西蒙、馬文·閔斯基等未來的圖靈獎得主,他們的願景是讓“具備抽象思考能力的程序解釋合成的物質如何能夠擁有人類的心智。”通俗地說,理想的人工智能應該具有抽象意義上的學習、推理與歸納能力,其通用性將遠遠強於解決國際象棋或是圍棋等具體問題的算法。

如果將認知過程定義為對符號的邏輯運算,人工智能的基礎就是形式邏輯;謂詞邏輯是知識表示的主要方法;基於謂詞邏輯系統可以實現具有自動推理能力的人工智能;不完備性定理向“認知的本質是計算”這一人工智能的基本理念提出挑戰。



elverys


這是一個非常好的問題,作為一名科技從業者,我來回答一下。

首先,人工智能是一個非常典型的交叉學科,不僅涉及到數學,同時還涉及到計算機、控制學、經濟學、哲學、神經學、語言學等多個學科,所以人工智能技術不僅難度較高,知識量也非常龐大,這也是為什麼長期以來,人工智能人才的培養都集中在研究生教育領域的重要原因。

人工智能當前有六個大的研究領域,包括自然語言處理、計算機視覺、機器學習、知識表示、自動推理和機器人學,這些研究方向都離不開數學知識,所以要想在人工智能的研發領域走得更遠,一定要有一個紮實的數學基礎。

以機器學習為例,機器學習的步驟包括數據收集、算法設計、算法實現、算法訓練、算法驗證和算法應用,所以機器學習的基礎是數據,而核心則是算法,所以也可以把機器學習問題看成是一個數學問題。機器學習在人工智能領域的應用非常廣泛,所以很多初學者在進入人工智能領域之前,都會先從機器學習開始學起,而要想順利入門機器學習的相關知識,數學基礎是非常關鍵的。

雖然人工智能對於數學的要求比較高,但是即使數學基礎不好,也可以在學習人工智能技術的過程中,逐漸補齊自己的數學短板,在學習人工智能技術的初期,也並不會遇到非常複雜的數學問題,只需要具有一些線性代數、概率論的基礎知識就可以了。

最後,人工智能技術的學習對於場景有比較高的要求,所以學習人工智能技術並不建議完全通過自學的方式來掌握,最好能夠藉助研發團隊的實驗和交流環境,來不斷提升自身的研發能力。

我從事互聯網行業多年,目前也在帶計算機專業的研究生,主要的研究方向集中在大數據和人工智能領域,我會陸續寫一些關於互聯網技術方面的文章,感興趣的朋友可以關注我,相信一定會有所收穫。

如果有互聯網、大數據、人工智能等方面的問題,或者是考研方面的問題,都可以在評論區留言,或者私信我!


IT人劉俊明


學人工智能要先學數學嗎?


其實,我們現代的科技發展都需要學數學。數學確切地說,不屬於自然科學,它是一種語言,描述世界的一種語言,是對自然界事務的歸納和總結。像我們學物理,就必須要先學數學。牛頓發明微積分就是為了表達他的牛頓三定律。愛因斯坦不學黎曼幾何,也創建不了偉大的廣義相對論。現在很著名的物理學家愛德華·威滕,他獲得過數學中的最高獎菲爾茲獎。物理跟數學密不可分。


人工智能跟數學也是密不可分。


我們先看看人工智能的起源,人工智能起源可以追溯到萊布尼茨的時代。萊布尼茲是數學家。現代公認的人工智能之父是圖靈。圖靈是數學家,他的著名論文《計算機器與智能》中提出了一個問題:機器會思考嗎?提出了著名的圖靈測試。這是一篇徹頭徹尾的數學方面的論文,從數學的範疇引申到了人工智能和思維的問題。所以,人工智能一開始就是數學家們提出的,當然跟數學的關係非常緊密。


在科學界和產業界,人工智能跟普通老百姓想的不一樣,不是外形像人,而是在功能上,人工智能能夠模擬、代替或者加強人類某些方面的能力。比如會聽(語音識別、機器翻譯等)、會看(圖像識別、文字識別等)、會說(語音合成、人機對話等)、會思考(人機對弈、定理證明等)、會學習(機器學習、知識表示等)、會行動(機器人、自動駕駛汽車等)。


這些語音識別、圖像識別、機器學習等等,怎麼來實現呢?全部是用數學來實現,下圖就是人工神經網絡的一個學習的數學模型。有本暢銷書叫《數學之美》,作者是清華畢業生,曾在谷歌和騰訊當過研究員。這本書裡面講到了信息、搜索、文字識別、語言識別模型等的各種數學模型和公式。


人工智能需要的關鍵的數學知識,主要是偏向離散數學和統計數學。需要的數學知識包括:數學分析、高等代數、概率與統計、模式識別、泛函分析等等。


可以說,如果要在人工智能方面有所成就,數學一定要學好。所以,這也是我經常說的,要學人工智能最好是名校,最好是博士,因為在名校,數學基礎才有保證。


不過,由於人工智能的就業崗位很多,有很多崗位也不需要很多數學,有電子信息、控制和計算機編程能力就夠了。各人根據自己情況來定,不要被數學嚇唬住。


總之,人工智能是我們科技一個非常重要的發展方向,有志者都可以參與。


分享到:


相關文章: