機器學習數學篇—線性代數

介紹

嗑就不嘮了,直接上內容,可以參考之前的文章:

目錄

線性代數:

  1. 標量

  2. 向量

  3. 矩陣

  4. 張量

  5. 集合

  6. 範數

  7. 內積

  8. 向量正交

1.標量

單獨的數 b 構成的元素被稱為標量:一個標量 b 可以是整數, 實數

2.向量

多個標量 b1,b2,⋯,bn按一定順序組成一個序列,這樣的元素就被稱為向量,既有大小又有方向。向量可以看作標量的延伸。原始的一個數被替代為一組數,從而帶來了維度的增加,根據下標可以唯一地確定向量中的元素。

3.矩陣

每個向量都由若干標量構成,如果將向量的所有標量都替換成相同規格的向量,得到的就是矩陣。相對於向量,矩陣同樣代表了維度的增加,矩陣中的每個元素需要使用兩個索引確定,橫向一個索引,縱向一個。

4.張量

將矩陣中的每個標量元素再替換為向量的話,得到的就是張量。直觀地理解,張量就是高階的矩陣。

好,現在我們來總結一下它們的關係:

多個標量組成向量,多個向量組成矩陣,多個矩陣組成張量。

把它們比作魔方很容易理解,如下圖所示,魔方中一個方格代表標量,三個方格組成一條代表向量,三條方格組成一個平面代表一個矩陣,六個平面組成一個立體的魔方代表一個張量:

機器學習數學篇—線性代數

機器學習數學篇—線性代數

機器學習數學篇—線性代數

在計算機存儲中,標量佔據的是零維數組;向量佔據的是一維數組,如語音數據;矩陣佔據的是二維數組,如灰度圖像;張量佔據的是三維乃至更高維度的數組,如 RGB 圖像。

5.集合

集合是由某些特定對象彙總而成的集體。集合中的元素通常會具有某些共性,因而可以用這些共性來表示。

6.範數

範數是對單個向量大小的度量,描述的是向量自身的性質,其作用是將向量映射為一個非負的數值。

通用的 Lp 範數定義:

|x|_p=(∑_i|x_i|^p)^{\frac1p}

某個確定的向量,L1 範數計算的是向量所有元素絕對值的和,L2 範數計算的是通常意義上的向量長度,L∞範數計算的則是向量中最大元素的取值。

7.內積

內積計算的是兩個向量之間的關係,對應元素乘積的求和。通過計算向量之間的夾角,內積能夠表示兩個向量之間的相對位置。公式如下:

(x,y)=\sum_ix_iy_i

這個還是很有用的,夾角越小,說明這兩個向量可能會相似。

8.向量正交

結合上面的內積,特殊的情況是內積為 0,即 (x,y)=0。在二維空間上,這意味著兩個向量的夾角為 90 度,即相互垂直。而在高維空間上,這種關係被稱為正交。如果兩個向量正交,說明他們線性無關,相互獨立。

同學們可以想一下,在一個二分類問題中,如果證明不出“是”,那我們可以證“否”啊,如果兩個向量正交,那就可以確定為“否”,減少干擾項。

總結:

上面大部分講了向量,可能有同學聯想不太深入,換個理解,把向量都看作是特徵,正交,範數和內積能夠處理這些特徵,提取出它們的隱含關係。

介紹了標量,向量,矩陣,張量之間的關係,通過模仿來加強記憶。L1範數是計算向量的絕對值和和L2範數計算向量長度,內積能夠表示兩個向量的相對位置。


分享到:


相關文章: