最基本的SVM(Support Vector Machine)旨在使用一个超平面,分离线性可分的二类样本,其中正反两类分别在超平面的一侧。SVM算法则是要找出一个最优的超平面。

线性可分SVM

优化函数定义

  给定一个特征空间线性可分的数据集:

$T = {(x_1,y_1),(x_2,y_2),...,(x_N,y_N)}$

  特征分布类似下图:

  如上图,当特征空间为二维时,超平面就是比二维空间第一维度的直线。任意维超平面定义如下(其中$x$是$n$维特征向量,$w,b$是超平面系数):

$wx+b = 0$

  对于正例应有$wx_i+b > 0$,反例应有$wx_i+b < 0$,也就是说,如果分类正确,应有:

$y_i(wx_i+b)> 0$

  从直观上看,最优超平面,应该是在将所有样本都正确分类的基础上,使与之距离最近的样本点的距离最大化。点到面的距离公式中学学过

$displaystyle frac{|wx+b|}{|| w ||}$

  综上,优化的问题用数学方式表达:

$displaystylemaxlimits_{w,b}minlimits_{i}(frac{y_i(wx_i+b)}{||w||})$

  或者

$begin{align*} &maxlimits_{w,b};gamma \ &;text{s.t.};;;y_i(frac{w}{||w||}x_i+frac{b}{||w||})ge gamma,;;i=1,2,...,N end{align*}$

  其中$gamma$为最小距离。令$ hat{gamma}=gamma||w|| $,即所谓“函数距离”,上式可变为:

$begin{align*} &maxlimits_{w,b};frac{hat{gamma}}{||w||} \ &;text{s.t.};;;y_i(wx_i+{b})ge hat{gamma },;;i=1,2,...,Nend{align*}$

  $hat{gamma}$没有被$||w||$规范化,因此大小与$||w||$有关。而$w,b$等比例变化时,超平面并没有变。因此,可以固定$||w||=1$,最大化$hat{gamma}$,即:

$begin{align*} &maxlimits_{w,b};hat{gamma}\ &;text{s.t.};;;y_i(wx_i+{b})ge hat{gamma },;;i=1,2,...,Nend{align*}$ 

  或者固定$hat{gamma}=1$,最小化$||w||$,也就是:

$begin{align*} &minlimits_{w,b};frac{1}{2}||w||^2 \ &;text{s.t.};;;y_i(wx_i+{b})ge 1,;;i=1,2,...,Nend{align*}$

  通常是最小化$||w||$。这是一个凸二次规划问题,即待优化的函数$frac{1}{2}||w||^2$是二次函数,不等式约束条件$1-y_i(wx_i+{b})le 0$为可微凸函数(注意!小于等于0要求凸函数,如果大于等于0就要求是凹函数了)。

对偶算法

  上述带约束优化满足原始问题最优值与对偶问题最优值取等的条件,因此可以使用拉格朗日对偶性(点击链接)将原始优化问题转换为其对偶问题求解。原始问题的拉格朗日函数为:

$displaystyle begin{gather}L(w,b,alpha) = frac{1}{2}||w||^2- sumlimits_{i=1}^{N}alpha_iy_i(wx_i+b)+sumlimits_{i=1}^{N}alpha_i,,,alphage 0  label{}end{gather}$

  因此原始问题为:

$displaystyle begin{gather} minlimits_{w,b}maxlimits_{alphage 0 }L(w,b,alpha)  label{}end{gather}$

  则对偶问题为:

$displaystyle begin{gather}maxlimits_{alphage 0 } minlimits_{w,b}L(w,b,alpha)  label{}end{gather}$

  由KKT条件1式令梯度为0,计算对偶问题内部的$min$函数

$begin{aligned} &nabla_wL(w,b,alpha) = w-sumlimits_{i=1}^{N}alpha_iy_ix_i=0 \ &nabla_bL(w,b,alpha) = -sumlimits_{i=1}^{N}alpha_iy_i=0 \ end{aligned}$

  得

$begin{gather} &w = sumlimits_{i=1}^{N}alpha_iy_ix_i \ &sumlimits_{i=1}^{N}alpha_iy_i=0 label{}end{gather}$

  代入$(3)$式,经过计算,对偶问题变为:

$begin{gather} begin{array}{lcl} minlimits_{alpha}displaystylefrac{1}{2}sumlimits_{i=1}^{N}sumlimits_{j=1}^{N}alpha_ialpha_jy_iy_j(x_ix_j)-sumlimits_{i=1}^{N}alpha_i \ begin{aligned} text{s.t.};&sumlimits_{i=1}^{N}alpha_iy_i=0\ &alpha_ige 0,i = 1,2,...,N end{aligned} end{array} end{gather}$

  这样,只需先优化对偶问题,计算出最优的$alpha^*$,再代入$(4)$式即可算出最优$w^*$。对于$b$,因为至少有一个$alpha_j^*>0$(如果全都为0,由$(4)$式有$w=0$,不符合约束),对应KKT条件2式

$alpha_i(y_i(wx_i+b)-1)=0$

  于是有

$y_j(w^*x_j+b^*)-1=0$

  实际上这个$x_j$就是与超平面最近的的样本,也就是所谓的支持向量。另外也说明了这个优化问题的解一定在不等式约束的边界上,而不在其内部。于是,提取$b^*$并代入$(4)$式,得:

$begin{gather}displaystyle b^* = y_j-sumlimits_{i=1}^{N}alpha_i^*y_i(x_ix_j)end{gather}$

  综上,计算最优$w^*,b^*$的操作就是:先$(6)$式算出$alpha^*$,再代入$(4),(7)$式算出$w^*,b^*$。

  但是$(6)$实际上并不好算,当样本量一大,$alpha$需要分类讨论的情况数以指数级上升(即每个$alpha$是否为0),后面介绍开销小的算法。

线性SVM

参数计算

  有时样本会有特异点,不能保证每个样本都满足不等式约束。因此修改上面的“硬间隔最大化”为“软间隔最大化”,则线性可分SVM变为线性SVM。即添加一个松弛变量$xi$,允许原来的不等式约束不一定严格满足,当然在优化函数中也要把这一损失加上,乘上惩罚参数$C$。得到如下最优化问题:

$begin{gather} begin{array}{lcl} minlimits_{w,b,xi};displaystylefrac{1}{2}||w||^2+Csumlimits_{i=1}^{N}xi_i \ begin{aligned} text{s.t.};;;&y_i(wx_i+{b})ge 1-xi_i,;;i=1,2,...,N\ &xi_ige 0,;;i=1,2,...,N\ end{aligned} end{array}end{gather}$

  显然待优化函数与不等式约束都是凸函数(仿射函数也是凸函数)。因此同样符合KKT条件,可以对偶化计算。拉格朗日函数为:

$ begin{aligned} displaystyle L(w,b,xi,alpha,mu) =& frac{1}{2}||w||^2+Csumlimits_{i=1}^{N}xi_i-sumlimits_{i=1}^{N}alpha_i(y_i(wx_i+b)-1+xi_i)-sumlimits_{i=1}^{N}mu_ixi_i,\ &text{where};;alpha_ige 0,mu_ige 0 end{aligned} $

  则原始问题变为:

$ minlimits_{w,b,xi}max limits_{alphage 0 ,mu ge 0}L(w,b,xi,alpha,mu) $

  其对偶问题为:

$begin{gather} max limits_{alphage 0 ,mu ge 0}minlimits_{w,b,xi}L(w,b,xi,alpha,mu) end{gather}$

  由KKT条件1式令梯度为0,计算对偶问题内部$min$函数,得:

begin{align} &nabla_wL(w,b,xi,alpha,mu) = w-sumlimits_{i=1}^{N}alpha_iy_ix_i=0 \ &nabla_bL(w,b,xi,alpha,mu) = -sumlimits_{i=1}^{N}alpha_iy_i=0 notag\ &nabla_{xi_i}L(w,b,xi,alpha,mu) = C-alpha_i-mu_i=0 notag end{align}

  代入$(9)$式,对偶问题变为:

begin{gather} begin{array}{lcl} minlimits_{alpha}displaystylefrac{1}{2}sumlimits_{i=1}^{N}sumlimits_{j=1}^{N}alpha_ialpha_jy_iy_j(x_ix_j)-sumlimits_{i=1}^{N}alpha_i \ begin{aligned} text{s.t.};&sumlimits_{i=1}^{N}alpha_iy_i=0\ &0lealpha_ile C,;;i = 1,2,...,N end{aligned} end{array} end{gather}

  其中$alpha_ile C$是由于$C-alpha_i=mu_ige0 $。类似地,接下来的操作就是:

  1、算出$(11)$式的最优$alpha^*$。

  2、$alpha^*$代入$(10)$式计算$w^*$。

  3、找出满足$alpha_j^*$满足$0<alpha_j^*<C$。

    此时$mu_j^* = C-alpha_j^*>0$,由KKT条件2式,有$mu_j^*xi_j^*=0$,因此$xi_j^*=0$。

    同样地,由KKT2式,有$alpha_j^*(y_j(w^*x_j+b^*)-1+xi_j^*)=0$,因$alpha_j^*>0$,于是有:

$displaystyle b^* = y_j-sumlimits_{i=1}^{N}alpha_i^*y_i(x_ix_j)$

支持向量

  在线性SVM中,因为有松弛变量$xi$,不等式约束取等时样本不一定在其类别的边界上。上面只讨论了使用小于$C$的$alpha_j^*$,下面做个总结:
  1、若$alpha_i^* = 0$ ,则$xi_i = 0$ ,分类正确,$x_i$在分离间隔边界的外侧;

  2、若$0<alpha_i^* < C$ ,则$xi_i = 0$ ,分类正确,支持向量$x_i$恰好落在间隔边界上;

  3、若$alpha_i^* = C,0<xi_i<1$ ,则分类正确,$x_i$在间隔边界与分离超平面之间;

  4、若$alpha_i^* = C,xi_i=1$,则分类错误,$x_i$在分离超平面上;

  5、若$alpha_i^* = C,xi_i>1$,则分类错误,$x_i$位于分离超平面误分一侧。

  其中2~5都是支持向量。

合页损失函数

  线性SVM还有另一种等价的优化目标函数:

$begin{gather}displaystyle minlimits_{w,b}sumlimits_{i=1}^{N}left[1-y_i(wx_i+b)right]_++lambda||w||^2end{gather}$

  其中

$[z]_+= left{ begin{aligned} &z,;;z>0 \ &0,;;zle0 end{aligned} right.$

  感觉可以直接梯度下降。

等价性证明

  令$(12)$中

$left[1-y_i(wx_i+b)right]_+=xi_i$

  则

  1、有$xi_ige 0$(一个不等式约束成立);

  2、当$1-y_i(wx_i+b)>0$时,可得$y_i(wx_i+b)=1-xi_i$;

  3、当$1-y_i(wx_i+b)le0$时,$xi_i=0$,有$y_i(wx_i+b)ge1-xi_i$。

    综合2、3,不论$1-y_i(wx_i+b)$如何取值,总有$y_i(wx_i+b)ge1-xi_i$(另一个不等式约束成立)。

  于是$(12)$可写成:

begin{array}{lcl} minlimits_{w,b,xi}displaystylesumlimits_{i=1}^{N}xi_i+lambda||w||^2\ begin{aligned} text{s.t.};;;&y_i(wx_i+{b})ge 1-xi_i,;;i=1,2,...,N\ &xi_ige 0,;;i=1,2,...,N\ end{aligned} end{array}

  然后优化项常系数权重改一下就和$(8)$一模一样了。

非线性SVM

  对于特征分布是非线性的样本,需要将非线性可分特征映射到另一个空间(维度不变或变高都可),变成线性可分特征。然后才能用线性SVM来优化参数。如图下左图到右图:

  理论上需要定义确定的映射函数将输入映射成线性可分的特征,实际上这一中间环节可以隐去。下面说明这一方法。

核技巧

  定义从输入空间到特征空间的映射$phi(x):mathcal{X}to mathcal{H}$,观察线性可分SVM的对偶问题和最终的判别函数,里面关于样本特征之间的运算都是内积。因此映射后的线性可分的样本特征要做的同样是内积。定义这一内积为:

$K(x,z)=<phi(x),phi(z)>$,后面内积直接用$phi(x)phi(z)$表示

  样本的维度比较小还好,比如上图的二维,可以直接想出一个映射,但是当维度很高时就很难想了。因此想到,可以跳过定义映射,直接定义这个$K(x,z)$,称之为核函数。那么什么样的核函数一定可以表示成两个映射后的向量的内积呢?这样的核函数叫做正定核。

正定核的充要条件

  设$K:mathcal{X}timesmathcal{X}to R$为对称函数,则$K(x ,z) $为正定核函数的充要条件是:

  对任意$x_i in mathcal{X}, i=1, 2,..., n, K(x, z) $对应的Gram 矩阵

$ left[ begin{matrix} K(x_1,x_1)&cdots&K(x_1,x_n)\ vdots&&vdots\ K(x_n,x_1)&cdots&K(x_n,x_n)\ end{matrix} right]succeq 0$

  $succeq 0$表示半正定。具体证明请看《统计学习方法》P136~139

常用正定核

  线性核(即直接内积):

$K(x,z)=xz$

  多项式核:

$K(x,z)=(xz+1)^p$

  高斯核:

$displaystyle K(x,z)=exp(-frac{||x-z||^2}{2sigma^2})$

  使用核函数后,待优化的对偶问题变为:

$ begin{array}{lcl} minlimits_{alpha}displaystylefrac{1}{2}sumlimits_{i=1}^{N}sumlimits_{j=1}^{N}alpha_ialpha_jy_iy_jK(x_i,x_j)-sumlimits_{i=1}^{N}alpha_i \ begin{aligned} text{s.t.};&sumlimits_{i=1}^{N}alpha_iy_i=0\ &0lealpha_ile C,;;i = 1,2,...,N end{aligned} end{array} $

  分类决策函数变为:

$displaystyle f(x) = text{sign}left(sumlimits_{i=1}^{N}alpha^*_iy_iK(x_i,x)+b^*right)=text{sign}left(sumlimits_{iin S}alpha^*_iy_iK(x_i,x)+b^*right)$

  即原来的直接内积$x_ix$变成了先映射再内积的$K(x_i,x)$。其中$S$为支持向量集合($alpha$不为0的样本集合,即2.2支持向量中的2~5)。

  然而,选择合适的正定核以使输入映射成线性可分还需要作其它的努力。。。。。。。。。。

SMO算法

  正如前面所说,在对偶问题中,$alpha$需要分类讨论的情况数随着样本量的增大以指数级上升(即每个$alpha$是否为0),SMO(sequential minimal optimization)算法可以加快对偶问题的优化。它采用迭代的方式,每次将待优化问题分离出一个小问题求解,最终求解原问题。

具体流程

初始化

  初始化所有的$alpha_i$为常数(通常为0),此时这些$alpha_i$满足对偶问题的两个不等式约束:

$begin{gather}&sumlimits_{i=1}^{N}alpha_iy_i=0\ &0lealpha_ile C,;;i = 1,2,...,N\ label{}end{gather}$

  实际上就是满足KKT条件的1和4,因为$(13)$是条件1使梯度为0得出的,$(14)$是条件1和4共同得到的。但是,它们并不一定同时满足KKT条件的2和3(因为原问题没有等式约束,所以没有条件5):

$begin{gather}displaystylealpha_i(1-xi_i-y_i(sumlimits_{j=1}^Nalpha_jy_jK_{ji}+b))=0label{}end{gather}$

$begin{gather}displaystyle1-xi_i-y_i(sumlimits_{j=1}^Nalpha_jy_jK_{ji}+b)le0label{}end{gather}$

  也就是:

$begin{gather}y_i(sumlimits_{j=1}^Nalpha_jy_jK_{ji}+b)left{begin{aligned}&ge1,;;alpha_i=0\&=1,;;0<alpha_i<C\&le1,;;alpha_i=C\end{aligned}right.label{}end{gather}$

  如果条件2和3也都满足的话,就迭代结束,也就达到最终的解了。其中每次迭代都会保持$(13),(14)$两个约束成立。

迭代优化

  每次迭代,选出最“不好”的两个$alpha$来进行优化,固定剩下的$N-2$个$alpha$(这样的操作有点像小批量梯度下降)。如何才算“不好”的$alpha$放后面讲,因为选择$alpha$基于优化的效率,为了说明效率所在,所以先说优化。

  不失一般性,假设选择的两个变量是$alpha_1,alpha_2$。则这个子问题可以写为(最小化中将与$alpha_1,alpha_2$无关的项去了):

$begin{array}{lcl} begin{aligned} minlimits_{alpha_i,alpha_2}W(alpha_1,alpha_2) = &frac{1}{2}K_{11}alpha_1^2+frac{1}{2}K_{22}alpha_2^2+y_1y_2K_{12}alpha_1alpha_2-\ &(alpha_1+alpha_2)+y_1alpha_1sumlimits_{i=3}^Ny_ialpha_iK_{i1}+y_2alpha_2sumlimits_{i=3}^Ny_ialpha_iK_{i2} \ end{aligned}\ begin{aligned} text{s.t.};;&alpha_1y_1+alpha_2y_2 = -sumlimits_{i=3}^Ny_ialpha_i = varsigma\ &0lealpha_ile C,;;;i=1,2 end{aligned} end{array}$

  由$(13)$式,$alpha_1$又可以被$alpha_2$表达,于是这个子优化就变为一个带约束的一元二次函数最值问题,初中生的题目。主要操作就是先用导数求出二次函数的驻点,如果在约束内就为最终解,在约束外就选约束中与之较近的端点为解。尽管这么简单,但是为了后面的选择,还是要推导一下。约束可以在二维坐标系中表示出来:

  因为$y_1,y_2$绝对值为1,所以只要关于它们的符号进行分类。分成两种情况,$y_1ne y_2$和$y_1=y_2$,于是可取的点分别如上图a、b中斜线所示。设$alpha_2$取值为$[L,H]$,则当$y_1ne y_2$时

$L=max(0,alpha_2-alpha_1),H=min(C,C+alpha_2-alpha_1)$

  你可能会有为什么不用$varsigma$而用$alpha_2-alpha_1$来算的疑问。这是因为每次迭代都保持$(13)$的成立,因此直接用$alpha_2-alpha_1$方便,而$varsigma$需要算$N-2$个求和。又因为计算时利用了$(13),(14)$,所以这样算出来的$alpha_1,alpha_2$依然能维持$(13),(14)$的成立。当$y_1=y_2$时

$L=max(0,alpha_2+alpha_1-C),H=min(C,alpha_2+alpha_1)$

  然后就是简单的先替换$alpha_1$,再求导等于0,整理后得到:

$(K_{11}+K_{22}-2K_{12})alpha_2^*=(K_{11}+K_{22}-2K_{12})alpha_2+y_2(E_1-E_2)$

  其中

begin{gather} displaystyle E_i=left(sumlimits_{j=1}^Nalpha_iy_iK(x_j,x_i)+bright)-y_i label{} end{gather}

  $E_i$理解为预测函数对$x_i$的预测值与其真实标签$y_i$之差。再定义

$ eta = K_{11}+K_{22}-2K_{12}$

  $eta$理解为$x_1,x_2$映射到特征空间中的向量之间的距离(距离二范的平方),于是

$begin{gather}displaystylealpha_2^*=alpha_2+frac{y_2(E_1-E_2)}{eta}label{}end{gather}$

   然后更新$alpha_2,alpha_1$:

$ alpha_2^{update}= left{ begin{aligned} &H,&alpha_2^*>H\ &alpha_2^*,&Llealpha_2^*le H\ &L,&alpha_2^*<L\ end{aligned} right. $

$alpha_1^{update} = (varsigma - alpha_2^{update}y_2)y_1 = alpha_1+y_1y_2(alpha_2-alpha_2^{update})$

  最后还有$(18)$的$b$的计算,《统计学习方法》对$b$的计算感觉没有说清楚。

  在我理解,这个$b$的更新就是用更新后的$alpha_1$或$alpha_2$,看哪个在$(0,C)$区间,就用KKT条件2式即$(15)$直接计算$b$;如果两个$alpha$都是0或$C$,则取依然用$(15)$计算两个$b$,取这两个$b$的平均值。

  我的疑问是:首先,更新完$alpha_1,alpha_2$后,$alpha_1,alpha_2$是否保证满足$(15),(16)$式呢,也就是没说明能不能用$(15)$来算$b$?其次,假设它们更新完后满足$(15),(16)$式,但是如果$alpha_1,alpha_2$都不在$(0,C)$区间为什么还能用$(15)$来算$b$呢?最后,书中只说了更新$b$,刚开始的$b$初始化为多少呢?还请懂的大佬不吝赐教。

变量的选择

  变量的选择就是先遍历所有的$alpha_i$,查看哪个$alpha_i$违反$(17)$最严重,作为待更新的$alpha_1$;然后再选择使$(19)$中的$|E_1-E_2|$最大的$alpha_2$,以使$alpha_2$变化最大。

内容来源于网络如有侵权请私信删除

文章来源: 博客园

原文链接: https://www.cnblogs.com/qizhou/p/12927018.html

你还没有登录,请先登录注册
  • 还没有人评论,欢迎说说您的想法!