首页 > 代码库 > 线性回归(HGL的机器学习笔记2)

线性回归(HGL的机器学习笔记2)

线性回归:是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。

梯度下降,http://www.cnblogs.com/hgl0417/p/5893930.html

最小二乘:

对于一般训练集:

    技术分享

    技术分享

    技术分享

    技术分享

参数系统为:

    技术分享

线性模型为:

    技术分享

线性回归的目的为最小化损失函数J(θ),即

    技术分享

相关知识:Tr(A):矩阵A主对角线乘积。

    技术分享

最小二乘的推导:(吴恩达)

由于

    技术分享

所以

    技术分享

其中

    技术分享

最小化损失函数J(θ)等价与一阶导数等于0,所以有

    技术分享

由于上式为实数

    技术分享

又因为

    技术分享

    技术分享

所以有:

    技术分享

整理后,对于一般线性系统

    技术分享

其中技术分享θ的估计值

线性回归的概率解释(Probabilistic interpretaion)[1]

假设:

    技术分享

其中,技术分享为误差(error),由许多原因引起,一般情况下服从正太分布(也有特殊情况,但是比较少见,引起误差的原因很多,每种原因相互独立,由中心极限可知,对于大多数问题,使用线性系统,尝试测量误差,误差一般服从正太分布,所以假设误差是正态分布是很好的假设)。所以:

技术分享

由于技术分享,可以得到:

    技术分享

可以理解为技术分享服从均值为技术分享,方差为技术分享的正太分布,即技术分享,可以得到:

    技术分享

    其中,技术分享中不把θ作为随机变量。技术分享可以理解为技术分享服从技术分享对于θ的高斯分布。

对于每一个技术分享是独立同分布的(Independently Identically Dstributed, IID),所以有:

    技术分享

这里取值越贴近技术分享的概率越大,所以选择θ使L(θ)最大,为了数学上的便利,将L(θ)转换为log 的形式,因为log 的形式不改变L(θ)的单调性,所以有:

    技术分享

所以最大化l(θ)等价于最小化函数:

    技术分享

得到了线性回归的目标函数。

[1] 网易公开课——斯坦福大学机器学习

**转载请注明出处!

线性回归(HGL的机器学习笔记2)