首页 > 代码库 > SVM -支持向量机原理详解与实践之四

SVM -支持向量机原理详解与实践之四

SVM -支持向量机原理详解与实践之四

  1. SVM原理分析

    1. SMO算法分析

SMO即Sequential minmal optimization, 是最快的二次规划的优化算法,特使对线性SVM和稀疏数据性能更优。在正式介绍SMO算法之前,首先要了解坐标上升法。

  1. 坐标上升法(Coordinate ascent)

坐标上升法(Coordinate Ascent)简单点说就是它每次通过更新函数中的一维,通过多次的迭代以达到优化函数的目的。

  1. 坐标上升法原理讲解

为了更加通用的表示算法的求解过程,我们将算法表示成:

 

技术分享

3.13-1

坐标上升法的算法为:

技术分享

这个算法中最为关键的地方就是内循环对于技术分享的求解,意思是固定除了技术分享之外的所有a(从i=1~m),也就是说将技术分享除外的其他变量看成是常数,并且将W看做是关于技术分享的函数,那么直接对技术分享求导优化得到极大值,在上面算法的版本中,内循环优化变量的顺序是技术分享但是一个更高级的版本可能选择其它的顺序,例如我可以根据我们的期望来选择下一个变量来更新,并让W(a)有最大的增加。

当函数W在内循环中能够最快的达到最优,则坐标上升是一个有效的算法,下面是一个坐标上升的示意图:

技术分享

上图中的椭圆形线代表我们需要优化问题的二次函数的等高线,变量数为2,起始坐标是(2,2),途中的直线是迭代优化的路径,可以看到每一步都会相最优值前进一步,而且前进的路线都是平行与相应的坐标轴的,因为每次只优化一个变量。

 

  1. C++算法编程实践

问题:求解函数技术分享的最大值。

解:回顾我们前面分析的求取函数最大值的关键是,求解每一个迭代变量的导数,当求解某一变量的导数的时候,其他的变量看做是常数:

技术分享

VS2013控制台工程参考代码如下:

// Coordinate ascent.cpp : Defines the entry point for the console application.

//

 

#include "stdafx.h"

 

 

#include <iostream>

using namespace std;

#define f(x1,x2,x3) (-x1*x1-2*x2*x2-3*x3*x3+2*x1*x2+2*x1*x3-4*x2*x3+6)

int _tmain(int argc, _TCHAR* argv[])

{

    double x1 = 1;

    double x2 = 1;

    double x3 = 1;

    double f0 = f(x1, x2, x3);

    double err = 1.0e-10;

    while (true)

    {

        x1 = x2 + x3; //x1求导的表达式,每次迭代后更新

        x2 = 0.5*x1 - x3; //x2求导的表达式,每次迭代后更新

        x3 = 1.0 / 3 * x1 - 2.0 / 3 * x2; //x3求导的表达式,每次迭代后更新

        double ft = f(x1, x2, x3); //求函数值

        if (abs(ft - f0)<err) //判断f是否收敛

        {

            break; //收敛即完成求解过程

        }

        f0 = ft; //更新f0

    }

    cout << "\nmax{f(x1,x2,x3)}=" << f(x1, x2, x3) << endl;

    cout << "取得最大值时的坐标:\n(x1,x2,x3)=(" << x1 << "," << x2 << "," << x3 << ")" << endl;

    system("pause");

    return 0;

}

运行结果如下:

技术分享

  1. SMO算法详解

回到我们软间隔与正则化章节(还有最优间隔分类器),我们的对偶问题,就是通过固定拉格朗日乘子a,得到w和b的最优化表达式(关于a的表达式),所以最后我们只需要确认a,我们就可以最终确定w和b,但是在讨论SMO算法之前,我们并没有真正求解出技术分享。这一章我们就会通过介绍SMO算法对对偶问题最后需要解决的问题:

技术分享

做出一个求解,也就是在参数技术分享上求W最大值的问题,注意其中的技术分享就是训练样本的输入,x即为样本的输入特征,y即样本对应的标签(结果)。

按照前面介绍的坐标上升的思路,我们首先固定除了技术分享以外的所有参数,然后在技术分享上求极值。现在下面先固定技术分享以外的所有参数,看看具体的求解步骤:

  1. 首先由优化问题的约束条件技术分享可知:

    技术分享

即可推出

 

技术分享

 

两边乘以:

技术分享

 
 

技术分享

(3.13.2-1)

因为技术分享,所以技术分享,因此到这一步,技术分享就由其它的技术分享决定,如果我们固定主技术分享,无论如何不能违背优化问题的约束技术分享

    因此如果我们想要更新一些技术分享的对象,为了保持满足约束条件就必须至少快速的更新它们中的两个,这个就激发出SMO算法,那么SMO算法可以简单的描述成:

重复大括号中的操作直到收敛{

  1. 选择一对技术分享技术分享来更新下一个(用启发式的方法,也就是尝试选取两个允许我们朝着全局最大方向做最大前进的参数)
  1. 固定所有其它的参数技术分享,优化关于技术分享技术分享的函数W(a)

}

为了测试该算法的收敛性,我们可以检查KKT条件:

技术分享

是否满足收敛容错参数,典型值为0.1~0.001之间。

SMO作为一个高效的算法的关键原因在于计算更新技术分享技术分享的效率非常高。假设当前我们有一些技术分享满足(3.10.3-5)的约束,固定技术分享,想要优化关于技术分享技术分享的函数,用技术分享表示技术分享技术分享有:

 

技术分享

 

由于右边固定,我们可以直接用一个常数表示,例如用技术分享表示:

技术分享

于是我可以将技术分享技术分享的约束画出来:

技术分享

根据约束条件:

技术分享

可知上图中表示技术分享技术分享的横轴和纵轴必须限制在0到C的方框内,并且也要在直线上。并且技术分享的纵轴也必须满足技术分享,否则就不能满足约束条件。

下面用技术分享表示技术分享,过程是:

技术分享

其中技术分享,因为技术分享,所以有:

技术分享

所以目标问题W可以表示为:

技术分享

其中技术分享为常数。

实际的问题中W展开后就是一个关于技术分享的二次函数技术分享, A、B、C是固定值,这样通过对W进行求导可得技术分享,然而要保证技术分享满足技术分享,我们使用技术分享 表示求导求出的技术分享, 然而最后的技术分享,需要根据下面的情况得到:

技术分享

技术分享求出以后,我们可以就可以得到技术分享

 

  1. 支持向量机实践

这里限于篇幅,实践的内容将在下一篇展开…

SVM -支持向量机原理详解与实践之四