點擊上方關注,All in AI中國
在今天的版本中,作者將帶領大家一塊去了解線性迴歸。本博客的目的是通過使用python實現快速概述線性迴歸的基本原理,讓我們一塊深入其中。
什麼是線性迴歸?
線性迴歸是一種監督學習算法,用於預測問題。
這是一種通過在獨立變量和因變量之間找到最佳擬合線來預測目標變量的方法,最佳擬合是所有點的最小誤差線。
什麼是最小二乘法?
最佳擬合度的計算方法是確保形狀與每個點的實際觀測值之間的所有距離之和儘可能小。
步驟1:計算x值和y值的平均值。
步驟2:計算線的斜率。即
步驟3:計算直線的y軸截距。即
例如,考慮以下數據:
繪製點數:
現在通過計算平均值:
x̄ = 5.86
ȳ = 6
計算線的斜率:
計算y軸截距:
c= 6 -(-0.83 * 5.86)
c= 10.86
該方程式為:
y = mx + c
y = -0.83x + 10.86
因此,我們從上面的例子中找到了最合適的線,在這條線的幫助下,我們可以預測這些值。
線性迴歸的優缺點:
優點:
易於實施
用於預測數值
缺點:
當獨立變量和因變量之間的關係是非線性時,不能使用。
現在讓我們使用python的動手示例練習線性迴歸:
數據集的功能:
父親 - 父親的身高以英寸為單位。
兒子 - 以英寸為單位的兒子的高度。
鑑於父親的身高,我們需要預測兒子的身高。
閱讀更多 AI中國 的文章