支持向量机(SVM)3

四、SMO算法

4.1 坐标上升法

SMO算法的两步是从坐标上升法引申出来的,所以这里先介绍一下坐标上升法。

假设要求解下面的优化问题:

这里W是 α 向量的函数。之前我们在回归中提到过两种求最优解的方法,一种是梯度下降法,另外一种是牛顿法。现在我们再讲一种方法称为坐标上升法(求解最小值问题时,称作坐标下降法,原理一样)。

方法过程:

一、最里面语句的意思是固定除 αi 以外的所有 αj(j≠i),此时 ,W可看做只是关于αi的函数,所以直接对αi进行求导优化即可。

二、这里,我们进行最大化求导的顺序i是从1到m,可以通过更改优化顺序来使W能够更快地增加并收敛。如果W在内循环中能够很快地达到最优,那么坐标上升法会是一个很高效的求极值方法。

这里通过一个二维向量进行展示。

椭圆代表了二次函数的各个等高线,变量数为2,起始坐标是(2,-2)。图中的直线式迭代优化的路径,可以看到每一步都会向最优值前进一步,而且前进路线是平行于坐标轴的,因为每一步只优化一个变量。

4.2 SMO算法

SMO算法是很快的二次规划优化算法。

和上面的坐标上升法的两点是能够对应起来的:
一、在SMO算法中,因为受等式αi yi =0的约束,如果只固定一个αi,那这个αi就不会是变量了。所以,我们选取两个参数假设为:α1和α2 ,固定其余参数。此时,α2 可以由α1 和其他参数表示出来,这样会带到W中,W就只是关于α1 的函数了。直接对α1 进行求导优化即可。

二、坐标上升法中可以通过更改优化顺序来使W能够更快地增加并收敛。同样,SMO算法中,通过挑选参数,确定参数的优化顺序,也能够使W来更快的收敛。这就是下面要讲的“启发式搜索了”。

这里也是按照上面这两个步骤讲解SMO算法

  • 1、先讲解怎样更新αi(求导优化的过程)
  • 2、再讲解怎么挑选参数αi(启发式搜索)

现在,终于可以求出 αi 了。回到上面的软间隔的最后的优化问题:

等价于求解:

1998 年,Microsoft Research 的John C. Platt 在论文《Sequential Minimal Optimization:A Fast Algorithm for Training Support Vector Machines》中提出针对上述问题的解法:SMO 算法,它很快便成为最快的二次规划优化算法,特别是在针对线性SVM 和数据稀疏时性能更优。

4.3 SMO算法的推导1,求解参数

咱们首先来定义特征到结果的输出函数:

注意,这个u 与我们之前定义的f(x) = wTx + b 的实质是一样的。

-----------------------------------------------------------------------------------------------------
为什么是选择两个参数,而不是想坐标上升法那样只选择一个参数,一次更新一个参数呢?

理由如下:

-----------------------------------------------------------------------------------------------------

因为此时,α1和α2是参数,其余的参数是固定住被看成常数的,所以上面式(3.29)可以表示为:

为了解决这个子问题,首要问题便是每次如何选取�1 和�2。实际上,其中一个乘子是违法KKT 条件最严重的,另外一个乘子则由另一个约束条件选取。

由上一篇(支持向量机2)文章可知,最后求得的最优解 α 向量一定是满足KKT条件的。即 :

但是,问题刚开始解,所以此时的 α 向量不是最优解,所以 α 向量里的一些参数,一定是不满足KKT条件的。比如下面这类 αi 就是不满足KKT条件的:

---------------------------------------------------------------------------------------------------------------------
假设,我们不断地挑出这些不满足条件的参数 αi 并更新他们,直到最后,α 向量里的所有参数都满足了KKT条件,那么不就意味着此时α 向量就是最优解了吗?
-------------------------------------------------------------------------------------------------------------------

------------------------------这算是挑选参数的一个标准了。-------------------------------

此外,更新的同时还要受到第二个约束条件的限制,即:

因为两个因子不好同时求解,所以可以先求的第二个乘子 α2 的解,得到一个新的参数αnew。再用 α2 的解(αnew)表示α1 的解。

但是,又有一个新的问题出现了:

原来,在一开始更改传统的拉格朗日公式时,添加了一个变化: αi ≥0
。后来,为了适应实际情况,变成了软间隔,αi 的取值范围有了变化,此时有0 ≤ αi ≤ C。也就是此时:
0 ≤ α1 ≤ C,0 ≤ α2 ≤ C

但是,现在又加入了一个约束条件:

所以此时,αi 的取值范围还是会有变化。因为说到先求α2,所以这里也是先假设 L ≤ α2new ≤ H.

也就是说,新的参数α2new 要同时满足上面两种约束条件。

此时因为截距的不同,这条直线有两种情况,
蓝线的情况下,L=0,H=C-ξ
红线的情况下,L=-ξ,H=C

当y1和y2同号时,是这两种情况:

综上,根据标签y1和y2同号或者异号,可得出新的参数α2new 上下界分别为:

s = y1y2

因此�1 可以用�2 表示,α1 = ω - sα2 ,于是可以把式(3.30)转换为只含有α2的的问题:

于是,可以求解α2了。

考虑到前面求得的新的参数α2new 上下界,这里求出的α2new也需要满足这个上下界才行:

求得了α2new ,便可求得α1new
α1 = ω - sα2

4.4 SMO算法的推导2,选择参数

且每次更新完两个乘子的优化后,都需要再重新计算b,及对应的Ei 值。从而进行下次循环。

-----------------------------------------------------------------------------------------------
解目标函数时,这个目标函数,是需要计算m个样例的。
也就是说,有m个α,m个样例x(i),m个样例标签y(i)
-----------------------------------------------------------------------------------------------

4.4 贴一下SMO算法的总结。

大致步骤:

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,015评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,262评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,727评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,986评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,363评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,610评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,871评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,582评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,297评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,551评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,053评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,385评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,035评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,079评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,841评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,648评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,550评论 2 270

推荐阅读更多精彩内容

  • 本章涉及到的知识点清单:1、决策面方程2、函数间隔和几何间隔3、不等式约束条件4、SVM最优化模型的数学描述(凸二...
    PrivateEye_zzy阅读 12,961评论 3 10
  • 参考Jerrylead和july-支持向量机通俗导论 一、由逻辑回归,引申出SVM(线性可分的SVM) 1.1 逻...
    小碧小琳阅读 1,383评论 0 2
  • 上次说到支持向量机处理线性可分的情况,这次让我们一起学习一下支持向量机处理非线性的情况,通过引进核函数将输入空间映...
    011b8ee4cba4阅读 604评论 0 0
  • 注:题中所指的『机器学习』不包括『深度学习』。本篇文章以理论推导为主,不涉及代码实现。 前些日子定下了未来三年左右...
    我偏笑_NSNirvana阅读 39,713评论 12 145
  • 在上一次的介绍中,我们稍微了解到了关于support vector machine 的一些入门知识。今天,我们将真...
    011b8ee4cba4阅读 761评论 1 1