首页 > 代码库 > 机器学习(2)之线性回归
机器学习(2)之线性回归
机器学习(2)之线性回归
上一章介绍了梯度下降算法的线性回归,本章将介绍另外一种线性回归,它是利用矩阵求导的方式来实现梯度下降算法一样的效果。
1. 矩阵的求导
首先定义表示m×n的矩阵,那么对该矩阵进行求导可以用下式表示,可以看出求导后的矩阵仍然为m×n
这里要用到矩阵迹的特性,trace. 对于一个n阶的方阵(n×n),它的迹(tr)为对角线元素之和:
1. 对于一个实数,它的迹即为它本身
tr a = a
2. 如果AB是一个方阵,那么
tr AB = tr BA
3. 由此可推导出
trABC = trCAB = trBCA
trABCD = trDABC = trCDAB = trBCDA
4. 假设A 和 B为方阵,a为实数,那么又可以推导出以下的特性:
trA = trAT
tr(A + B) = trA + trB
tr aA = atrA
5.对迹进行求导,具有以下特性:
2. Least squares revisited
现在就可以利用1中矩阵求导的相关知识来重新求解线性回归问题。
假设训练样本:
定义目标集合:
因为,所以
又因为,根据最小二乘规则,代价函数可以写成:
对J(θ)进行求导:
上述推导使用了第1部分的特性。
miniminzes J(θ) 即
机器学习(2)之线性回归
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。