统计学习方法笔记之感知机(附代码实现)

更多文章可以访问我的博客Aengus | Blog

定义

假设输入空间是\mathcal{X} \subseteq R^n,输出空间是\mathcal{Y} = \{+1, - 1\},由输入空间到输出空间的如下函数:
f(x) = sign(w \centerdot x + b)
称为感知机。w \in R^n称作权值或权值向量,b \in R称作偏置,w \centerdot xwx的内积,sign是符号函数:
sign(x) = \left\{ \begin{align} +1,x \geq 0 \\- 1, x < 0\end{align} \right.
感知机的假设空间是全体线性函数。

感知机学习策略

感知机的损失函数一个选择是误分类的点的个数,但是由于这样的损失函数不是参数wb的连续可导函数,不易优化。损失函数的另外一个选择是误分类点到超平面S的总距离,这是感知机所采用的。我们知道,一个点x_0到一个平面的距离为:
\frac{1}{||w||}|w \centerdot x_0 +b|
而且,对于误分类的数据(x_i, y_i)总有
-y_i (w \centerdot x_i + b) > 0
成立。这是因为如果点本来为正类,即y_i = 1,若误分类,则得到的sign(w \centerdot x_i + b)=-1,这样上式就大于0;反之,如果本来y_i = -1,误分类得到的结果sign(w \centerdot x_i + b)=1,上式结果仍大于0。因此,所有误分类的点(记集合为M)到超平面的距离就是
-\frac{1}{||w||} \sum_{x_i \in M}y_i(w \centerdot x_i + b)
不考虑\frac{1}{||w||},就得到了感知机的损失函数。

感知机学习算法

利用梯度下降法对感知机进行求解:
\nabla_w L(w, b)= - \sum_{x_i \in M}y_i x_i \\ \nabla_b L(w, b) = -\sum_{x_i \in M}y_i
随机选择一个误分类点(x_i, y_i),对w,b进行更新:
w \gets w + \eta y_i x_i \\ b \gets b + \eta y_i
其中\eta称为步长,又称作学习率。通过迭代可以让L(w, b)不断减小,直至为0。

原始形式

假设输入线性可分的数据集为\{ (x_1, y_1), (x_2, y_2), \cdots, (x_N, y_N)\},其中x_i \in R^ny \in \{+1, -1\},学习率0 < \eta \leq 1。则采用以下步骤进行求解:

  1. 选取初值w_0, b_0

  2. 在训练集中选取数据(x_i, y_i)

  3. 如果y_i(w \centerdot x_i) +b \leq 0
    w \gets w + \eta y_i x_i \\ b \gets b + \eta y_i

  4. 回到步骤2,直至训练集中没有误分类点;

最终输出为w,b;感知机模型f(x) = sign(w \centerdot x +b)

对偶形式

在每次迭代w, b的更新中:
w \gets w + \eta y_i x_i \\ b \gets b + \eta y_i
设修改n次,则w,b关于(x_i, y_i)的增量分别是\alpha_iy_ix_i\alpha_iy_i,这里\alpha_i=n_i \eta,那么最后的结果可以表示为:
w = \sum^N_{i=1}\alpha_iy_ix_i \\ b = \sum^N_{i=1} \alpha_i y_i
因此我们就可以用对偶形式来叙述感知机算法:

假设输入线性可分的数据集为\{ (x_1, y_1), (x_2, y_2), \cdots, (x_N, y_N)\},其中x_i \in R^ny \in \{+1, -1\},学习率0 < \eta \leq 1。则采用以下步骤进行求解:

  1. \alpha = 0, b = 0

  2. 在训练集中选取数据(x_i, y_i)

  3. 如果\sum^N_{j=1}\alpha_j y_j x_j + b \leq 0,则
    \alpha_i \gets \alpha_i+ \eta \\ b \gets b+\eta y_i

  4. 回到步骤2,直至训练集中没有误分类点;

最终输出为\alpha, b,感知机模型f(x) = sign(\sum^N_{j=1}\alpha_jy_jx_j \centerdot x + b),其中\alpha = (\alpha_1, \alpha_2, \cdots, \alpha_N)^T

由于对偶形式中训练集仅以内积的形式出现。为了方便可以预先将训练集的内积计算出来并以矩阵的形式保存,这个矩阵称为Gram矩阵:
G = \left[ \begin{matrix}x_1 \centerdot x_1 &x_1 \centerdot x_2 & \cdots & x_1 \centerdot x_N \\ x_2 \centerdot x_1 &x_2 \centerdot x_2 & \cdots & x_2 \centerdot x_N \\ \vdots & \vdots & \cdots & \vdots \\ x_N \centerdot x_1 &x_N \centerdot x_2 & \cdots & x_N \centerdot x_N \end{matrix}\right]

代码实现

下面是利用Python实现的感知机算法:

import numpy as np


def sign(w, x_i, b):
    """
    符号函数
    :param w: 权重矩阵,形如[1, 2, 3, 4, 5]
    :param x_i: 训练集的一个样本,列数(行数)和权重矩阵相同
    :param b: 偏置
    :return: +1,-1
    """
    if np.matmul(w.T, x_i) + b > 0:
        return 1
    else:
        return -1


def perceptron(w0, b0, eta, x, y):
    """
    感知机算法原始形式:
        1. 选取初值w0, b0;
        2. 在训练集中选取数据(xi, yi);
        3. 如果y_i(w * x_i) <= 0,更新w, b;
        4. 回到2,直到训练集中没有误分类点;
    :param w0: 初始w0,维数与x相同
    :param b0: 初始b0,常数
    :param eta: 步长
    :param x: 训练集
    :param y: 训练集标签
    :return: 包含w, b的元祖
    """
    m, n = x.shape
    w = w0
    b = b0
    iterations = 0
    while True:
        iterations = iterations + 1
        for i in range(m):
            if y[i] * sign(w, x[i], b) > 0:
                continue
            else:
                w = w + eta*y[i]*x[i]
                b = b + eta*y[i]
        corr_num = 0
        for j in range(m):
            if y[j] * sign(w, x[j], b) > 0:
                corr_num = corr_num + 1
        if corr_num == m:
            break
    print("经过了", iterations + 1, "次迭代算法收敛")
    return w, b


def perceptron_duality(eta, x, y):
    """
    感知机算法的对偶形式:
        1. 初始化alpha,b;
        2. 在训练集中选取(x_i, y_i);
        3. 如果 y_i * (\sum^N_{j=1}(\alpha_j y_j x_j * x_i) + b) <= 0,更新alpha,b;
        4. 转回2,直至没有误分类数据;
    :param eta: 步长
    :param x: 训练集
    :param y: 训练集的标签
    :return: w和b的二元元祖
    """
    m, n = x.shape
    alpha = np.zeros(m)
    b = 0
    # Gram矩阵
    gram = np.zeros((m, m))
    for i in range(m):
        for j in range(m):
            gram[i, j] = np.matmul(x[i].T, x[j])
    iterations = 0
    while True:
        iterations = iterations + 1
        for i in range(m):
            if y[i] * (sum(alpha[j]*y[j]*gram[j, i] for j in range(m)) + b) > 0:
                continue
            else:
                alpha[i] = alpha[i] + eta
                b = b + eta*y[i]
        corr_num = 0
        for i in range(m):
            if y[i] * (sum(alpha[j]*y[j]*gram[j, i] for j in range(m)) + b) > 0:
                corr_num = corr_num + 1
        if corr_num == m:
            break
    w = sum(alpha[i] * y[i] * x[i] for i in range(m))
    b = sum(alpha[i]*y[i] for i in range(m))
    print("经过", iterations+1, "次迭代后,算法收敛")
    return w, b

参考

李航《统计学习方法(第二版)》第二章

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 162,475评论 4 372
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 68,744评论 2 307
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 112,101评论 0 254
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,732评论 0 221
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 53,141评论 3 297
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 41,049评论 1 226
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,188评论 2 320
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,965评论 0 213
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,716评论 1 250
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,867评论 2 254
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,341评论 1 265
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,663评论 3 263
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,376评论 3 244
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,200评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,990评论 0 201
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 36,179评论 2 285
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,979评论 2 279

推荐阅读更多精彩内容

  • 【概述】 1、感知机模型特征:感知机对应于输入空间中将实例划分为正负两类的分离超平面,属于判别模型。 2、感知机策...
    sealaes阅读 3,050评论 2 3
  • 线性模型 根据周志华老师的定义来说,线性模型是指其通过属性的线性组合来进行预测的函数,即用一般向量形式,则写成其中...
    怀柔小龙虾阅读 3,998评论 1 24
  • 【概述】 SVM训练分类器的方法是寻找到超平面,使正负样本在超平面的两侧(分类正确性即“分得开”),且样本到超平面...
    sealaes阅读 10,609评论 0 7
  • 什么是感知机 是一种人工神经网络   感知机可以通过数学统计学方法完成对函数的估计或近似,能在外界信息的基础上改变...
    efan阅读 2,318评论 0 2
  • 感知机 概述 感知机是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1和-1二值。感知机学...
    _Joe阅读 5,062评论 2 7