首页 > 代码库 > Kernel Logestic Regression
Kernel Logestic Regression
一、把 soft margin svm 看做 L2 Regression 模型
先来一张图回顾一下之前都学了些什么:
之前我们是通过拉格朗日乘子法来进行soft Margin Svm的转化问题,现在换一个思路:
好了,观察我们得到的这个没有条件的最小化问题:
这似乎和L2正则比较相似:
所以,可以把SVM看为一个正则化模型:
二、 SVM 与 Logestic Regression 对比
Kernel Logestic Regression
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。