学习LinearRegression,把里面很难找到的一些概念提一下。
https://scikit-learn.org/stable/modules/linear_model.html#ordinary-least-squares 这个是scikit的官方文档,里面提到
from sklearn import linear_model
reg = linear_model.LinearRegression()
reg.fit([[0, 0], [1, 1], [2, 2]], [0, 1, 2])
LinearRegression()reg.coef_
array([0.5, 0.5])
已知y=w0+w1x1+w2yn+…+wnxn.
那么coef_带面着什么呢
笔者在多方查询后才明白,其中少了一个参数,应该显示出这样。
from sklearn import linear_model
reg = linear_model.LinearRegression()
reg.fit([[1, 0], [0, 1], [2, 2]], [2, 2, 3])
print(reg.coef_)
print(reg.intercept_)
from sklearn import linear_model
reg = linear_model.LinearRegression()
reg.fit([[1, 0], [0, 1], [2, 2]], [2, 2, 3])
print(reg.coef_)
print(reg.intercept_)
[0.33333333 0.33333333]
1.6666666666666667
这个才是完整的,intercept_代表w0,另两个参数分别是w1和w2。