
上一讲我们介绍了最优化问题的两种形式,无约束的和等式约束条件下的,这一讲,我们主要介绍不等式约束条件下的最优化问题,并介绍一下我们的KKT条件。...
在前面的几讲中,我们终于引出了支撑向量的概念,同时得到了求解最大间隔分类器的目标规划式,接下来,我们就要对该式进行求解,但在正式求解之前,我想介...
有关Adaboost的相关原理,详见:http://www.jianshu.com/p/f2017cc696e6我们首先来回顾一下Adaboos...
上一节我们讲到,我们要像线性分类器一样找到一个超平面,不仅能够对数据点进行一个准确的分隔,同时我们希望所有的点尽量都能够远离我们的超平面,即所有...
我们的SVM算法在前面的十讲中已经基本介绍完毕了,现在还剩下两个小问题,一个是SVM的损失函数问题,一个是求解α的SMO算法。这一讲我们先来介绍...
之前参加了一个蚂蚁金服的数据挖掘比赛,最后初赛拿到了37名,全是靠的stacking呀,不过懒癌晚期患者直到现在才把学到的东西整理出来,简直无药...
SVM作为最为经典的机器学习算法之一,面试中会经常被面试官问道,最近想要细心钻研机器学习算法,不如就先从这一经典的机器学习算法写起吧,我本人的数...
整理自李航老师的《统计学习方法》一书 在前面的几讲中我们介绍了EM算法的一些基础知识以及两个小故事,我们了解了EM算法的基本原理,不过我们并没有...
AdaBoost算法还有一个解释,即可以认为AdaBoost模型为加法模型,损失函数为指数函数,学习算法为前向分步算法时的二类分类学习方法。 首...
文集作者