在第1部分中,我们从在机器学习中使用线性代数的动机开始。我们详细研究了向量。什么是向量?可以对向量及其属性执行的操作。让我们继续学习并开始机器学习的数学第二部分。
我们将首先研究剩下的几个与向量相关的概念,然后继续研究本文中的矩阵,即机器学习数学第2部分。
更改坐标系:
在上一部分中,我们了解到向量实际上是信息列表,并且它正试图最适合太空。我们还没有真正描述过空间或坐标系及其对矢量的影响以及对其他矢量的投影。如果您还没有遍历机器学习数学系列的第一部分,那么您可能现在想要!考虑二维坐标系。
在此,坐标的选择是任意的。我们可以使用任何角度和任何长度的向量来定义轴。实际上,我们可以将向量r描述为一些用于描述空间的向量之和。
考虑下图。
向量集b1和b2可用于定义向量rb,如向量re。这些向量e和b是基本向量。只要我们知道es的bs值,就可以使用基向量b来定义r。但是这里最大的前提是两个基向量彼此成90度角。否则,我们必须在从e到b的轴上进行一些矩阵变换。
我们可以在这里找到投影乘积或点乘积的应用,以便根据bs查找r。
现在,尝试将r投影到向量b1上。它在b1上形成阴影并成直角。我们在这里得到标量投影。标量投影的数量给出了向量b1对向量r有贡献的概念。换句话说,我们需要多少b1。
类似地,r在b2上的投影将在投影长度的b2方向上给出一个矢量。在b1和b2上将这两个向量投影相加,将得到r。
如何确保我们正在考虑的基向量彼此成90度?我们可以使用点积。我们知道,
b1和b2的乘积应为0以得到cos(0)= 1
考虑以上值,b1.b2 = 2 * -2 + 1 * 4 = 0
因此,上面的基向量彼此成90度,我们可以在这里进行投影。
现在让我们以数学的方式来做,
这意味着re在b1上的投影是b1的2倍。现在,这是根据原始向量e1和e2进行的。
类似地,我们对re在b2上的其他投影进行了处理。
在原始基础e中,这是向量r(上方)。在基数b中,rb将是
这样,我们仅使用点积就可以将向量r从e组基础向量更改为b组基础向量。
这表明描述我们的数据的矢量未绑定到原始轴。我们总是可以使用其他基本向量作为轴来重新描述它。要注意的另一件事是,仔细选择轴可以帮助我们解决线性代数中的许多问题。当基本向量正交或彼此成直角时,我们可以使用点积或投影积来描述空间中的向量。
基础,向量空间和线性独立性:
在这一部分中,我们将详细了解基本,向量空间和线性独立性的含义。
基础是一组n个向量,它们相互之间及其空间线性独立。表示它们没有任何线性组合。这里考虑的空间是n维的。
考虑一个向量b1,另一个不是b1的倍数的向量b2,
这是一个二维空间。要考虑另一个向量b3作为基本向量,我们必须满足一个条件。
我们必须找到满足上述条件的数字a1和a2。如果找到a1和a2的这种组合,则可以将b3视为第三基矢量,并且它将是线性独立的。它不在与b1和b2相同的空间中,并且必须在该空间之外具有一个分量以定义三维空间。
对于第四基向量,它不应为b1,b2和b3的线性组合。等等。
从一组基础向量到另一组基础向量的任何映射都将空间保留为规则间隔的网格。事物可能会被颠倒,拉伸或旋转,但它们保持均匀的间隔并且线性组合仍然有效。在线性代数中,线性意味着什么。
变更基准的应用:
考虑一些数据点和通过它们的线。数据科学领域的产品线为我提供了有关数据的信息。数据点与线之间的距离是多少,与原点之间的距离是多少?
此信息告诉我有关数据的噪声。如果数据点远离线并沿着线,则数据会更加嘈杂。换句话说,它告诉数据的最佳拟合线。线的优劣可以通过数据点与线的距离来衡量。距离越短,好处越多。
假设我们有一个识别人脸的神经网络。我们可能希望将像素映射到新的基向量,以获得一些信息丰富的特征。像眼睛的颜色或面部形状等。目标是转换原始基础向量,并导出一组新的基础向量,以提取一些目标信息。
这使我们对向量和空间维数如何帮助我们进行机器学习有所了解。
矩阵:
现在,让我们进入矩阵。这些是帮助我们拉伸和旋转矢量的对象。他们还帮助我们解决了其他一些问题。
回顾最后一部分的杂货店购物问题。我们以8元的价格购买了2个苹果和3个香蕉。改天,我花了13元买了10个苹果和1个香蕉。假设我们想得到1个苹果或1个香蕉的价格。当然,在现实世界中,问题并不是那么简单。
2a + 3b = 8
10a + 1b = 13
我们可以将这些联立方程写成矩阵。
解决,
2a + 3b = 8
10a + 1b = 13
在此考虑,第一矩阵对第一向量进行运算以给出另一个向量。我们对这种矩阵变换感兴趣,以获得正确的向量。
现在,让我们看看将矩阵与单位基向量相乘会发生什么。
这意味着它将采用单位向量,例如e1并将其更改为e'1。
现在,取另一个基向量,
因此,我们看到此矩阵以某种方式将原始基础向量转换为另一个向量。它是对某些输入向量进行运算以提供输出向量的函数。
上面的联立方程以某种方式询问他们需要什么向量才能在空间中的位置8 13获得变换值。
线性代数实际上是一个操纵向量所描述的空间的系统。要求解联立方程,我们必须考虑向量以及矩阵如何转换它们,这实际上是线性代数的核心。
矩阵转换:
考虑矩阵A,输入向量r和改变的向量r'。
矩阵与n相乘得到,
A(nr)= nr'
同样地,添加向量会得到
A(r + s)=Ar +As
考虑一个例子,
因此,我们可以将矩阵乘法视为变换后的基础向量的向量和的乘积。矩阵A告诉我们基本向量是如何变换的。
矩阵转换的类型:
考虑不变或未变换的矩阵。它由一个基本矩阵组成,并且不会改变与其相乘的向量。
这称为以I表示的单位矩阵。它保留矢量并且不更改它。
现在考虑一个在对角线上带有前导数字的矩阵。
这将缩放基本向量。x轴为3倍,y轴为2倍。
类似地,在矩阵中具有负值将翻转基本向量。
考虑另一个矩阵,它将两个轴都翻转。这使其成为反矩阵。
这使我们对矩阵如何变换空间中的向量有一个想法。通过拉伸,旋转,剪切等检查这个矩阵变换很好的资源。
矩阵变换的组合:
回顾神经网络在面部识别中的应用。我们可以通过旋转,逆转等组合来更改表达式并进行转换。
考虑基础矢量坐标。然后应用第一个变换A,它将逆时针旋转90度。
让我们采用另一个矩阵并将其视为镜像。
现在,问一个问题。如果将A2应用于A1会发生什么?
A2将翻转A1的结果。
因此,矩阵乘法是不可交换的。
虽然,它是关联的。
A3(A2A1)=(A3A2)A1
但是我们不能更改顺序。
总结:
我们继续介绍线性代数。我们通过讨论向量空间以及变化的轴如何影响数据向量来总结向量。我们还研究了更改基向量的一些应用。接下来,我们从矩阵开始,了解它们实际上是空间中的矢量变换以及矩阵变换的类型。