首页 > 代码库 > 线性回归(HGL的读书笔记2)

线性回归(HGL的读书笔记2)

线性回归:是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。

对于一般训练集:

????技术分享

????技术分享

参数系统为:

????技术分享

线性模型为:

????技术分享

线性回归的目的为最小化J(θ)

????技术分享

简单线性回归模型为:

????技术分享

定义残差均方和(residual sum of squares, RSS, J(θ))

技术分享

通过微分运算,使RSS最小的参数估计为

技术分享

技术分享

其中,技术分享技术分享技术分享技术分享的估计值。

对于一般线性系统

????技术分享

其中技术分享 技术分享 技术分享θ的估计值

线性回归的概率解释(Probabilistic interpretaion)[1]

假设:

????技术分享

其中,技术分享为误差(error),可能又许多原因引起,一般情况下服从正太分布(也有特殊情况,但是比较少见,引起误差的原因很多,每种原因相互独立,由中心极限可知,对于大多数问题,使用线性系统,尝试测量误差,误差一般服从正太分布,所以假设误差是正态分布是很好的假设)。所以:

技术分享

由于技术分享,可以得到:

????技术分享

可以理解为技术分享服从均值为技术分享,方差为技术分享的正太分布,可以得到:

????技术分享

????其中,技术分享中不把θ作为随机变量。技术分享可以理解为技术分享服从技术分享对于θ的高斯分布。

对于每一个技术分享是独立同分布的(Independently Identically Dstributed, IID),所以有:

????技术分享

这里取值越贴近技术分享的概率越大,所以选择θ使L(θ)最大,为了数学上的便利,将L(θ)转换为log 的形式,因为log 的形式不改变L(θ)的单调性,所以有:

????技术分享

所以最大化l(θ)等价于最小化函数:

????技术分享

得到了线性回归的目标函数。

线性回归(HGL的读书笔记2)