首页 > 代码库 > 机器学些基石(9)--Linear Regression

机器学些基石(9)--Linear Regression

线性回归。

从本节课开始,我会适当的结合一些《机器学习实战》中的相关知识点对各个模型做一个更加全面的归纳和总结。

技术分享

继续试着用加权(打分)的方式对每一个输入x进行计算,得出的线性回归的模型为h(x)=WTX。衡量的目标是找一个向量W使得squared error最小。由于Ein≈Eout,所以我们还是只看Ein就好了。

技术分享

那么怎么最小化Ein呢?以下是一些数学推导:

技术分享

我们的目标变成了最小化Ein,也就是说要求下面式子的最小值。

技术分享

Ein的一些特点:连续,可微的凸函数,求最小的Ein就是求Ein函数上每一个点的梯度。

技术分享

梯度是0的时候,函数在该点上,不管是朝哪一个方向,都不能往下滚了。也就是说在凸函数谷底的梯度(偏微分)一定要是0。我们的目标又变成了找到一个wlin,使得梯度Ein(wlin)=0

技术分享

这是一个关于w的一元二次方程,求导之后得出:

技术分享

其中,X和y都是已知的,只有要求的w是未知的。

根据XTX的性质不同(是不是invertible),我们分两种情况进行求解:

技术分享

线性回归基本步骤:

技术分享

了解了线性回归的基本步骤,那么这个演算法真的是机器学习吗?

技术分享

只要Eout的结果是好的,机器学习就在这个演算法里发生了。

技术分享

抛开单个的Ein,我们想看一下Ein的平均,通过证明得出Ein和噪声程度,自由度和样本数量有关。

技术分享

技术分享

向量y表示所有的真实值,y hat表示所有的预测值。

y^=Xwlin是X的一个线性组合,而X中的每一个column对应一个向量,d+1个向量组合起来就是构成了一个平面span of X;

而我们的目标就是找到y和y hat最小的差值(距离最短),而这个最短的距离一定是垂直于平面span of X的;

H hat的意义就是做这个投影的动作;

I–H的意义就是得到与span垂直的那条向量。

技术分享

加上噪声之后做同样的转换,得出入下Ein和Eout的图形:

技术分享

样本量越大的时候,Ein和Eout都会越趋近于噪声的等级;

给出了Ein和Eout的平均差别是2(d+1)/N。

总结:

技术分享

 

线性回归的优缺点:

优点:结果易于理解,计算不复杂。

缺点:对非线性数据拟合不好。

适用:数值型和标称型数据。

 1 from numpy import * 2 def LinearRegression(x,y): 3     #读入x,y并将它们保存在矩阵中 4     xMat = mat(x) 5     yMat = mat(y).T 6     #计算x的内积 7     xTx = xMat.T * xMat 8     #判断x的内积是否为零,也就是判断x是否可逆 9     if linalg.det(xTx) == 0:10         print "This matrix is singular, cannot do inverse"11         return12     #求出w13     w = linalg.solve(xTx, xMat.T*yMat)14     return w

 

机器学些基石(9)--Linear Regression