Regularizing your neural network

Regularizing

如果怀疑神经网络过度拟合了数据,即存在高方差问题那么最先想到的方法可能就是正则化,另一个解决高方差的方法就是准备更多数据,这也是非常可靠的办法,但你可能无法时时准备足够多的训练数据或者获取数据的成本很高。

  • 接下来使用逻辑回归实现一下正则化:

L2正则化是最常见的正则化类型,加的L2范数;及L1正则化。
如果用的L1正则化,W最终会是稀疏的,W向量中会有很多0。越来越倾向于使用L2正则化
注:在python编程语言中,λ(lambda)是一个保留字段,所以我们用 lambd代替 lambda正则化参数

  • 神经网络中怎么实现正则化

代价函数是m个训练样本上 的损失之和,至于正则化 再加上lambda/2m 乘以所有参数W的范数的平方之和 。这里W是你的参数矩阵 ,这里矩阵范数的平方:定义为 对于i和j 对矩阵中每一个元素的平方求和 。如果你想为这个求和加上索引 ,这个求和是i从1到n[l-1], j从1到n[l] 。因为w是一个n[l-1]列 、n[l]行的矩阵 。这些是第l-1层和第l层的隐藏单元数量单元数量 。或 这个矩阵的范数称为矩阵的弗罗贝尼乌斯范数 ,使用角标F标记。

Why regularization reduces overfitting?


如果lamda被设置的足够大,权重矩阵被设置为接近于0的值,直观理解就是把多隐藏单元的权重设置为0,于是基本消除了这些隐藏单元的许多影响,这个被大大简化了的神经网络会变成一个很小的网络,小到如同一个逻辑单元,可是深度却很大。它会使这个网络从过拟合状态更接近左图的高偏差状态。但是lamda会有一个中间值,于是会有一个接近与“just right ”的状态


再来看一个例子:
假设我们用的是这样双曲激活函数,g(z)表示tanh(z),我们发现,只要z非常小,并且只取一个小范围的参数,利用了双曲正切函数的线性状态,同理,lamda增大,W会变小,相对于Z也会变小,在一个线性区间。


Understanding Dropout

  • 反向随机失活(inverted dropout)
    定义一个向量d,d3表示第三层的dropout向量

d3 = np.random.rand( a3.shape[0],a3.shape[1])

Other regularization methods

除了 𝐿2正则化和随机失活( dropout),还有几种方法可以减少神经网络中的过拟合。

  • 数据扩增

假设你正在拟合猫咪图片分类器,如果你想通过扩增训练数据来 解决过拟合,但扩增 数据代价高,而且有时候 我们无法扩增数据,但我们可以添加这类图片来增加数据集。例如 ,水平翻转图片,并把它添加到训练集。除了水平翻转,你也可以随意裁剪图片,可以把原图旋转并随意放大后裁剪的。
对于光学字符识别,我们还可以通过添加数字,随意旋转或扭曲数字来扩增数据

  • early stopping
    运行梯度下降时,代价函数J的优化过程单调下降趋势,如图。



    我们不但可以绘制代价函数loss,还可以绘制验证集误差,你会发现验证集误差通常会呈先下降,然后在某个节点 处开始上升。early stopping的作用就是,就在那个点停止训练。

Normalizing inputs

训练神经网络,其中一个加速训练的方法就是归一化输入,假设一个训练集有两个特征,输入特征为2维,归一化需要两个步骤:

  • 零均值
  • 归一化方差
    我们希望无论是训练集还是测试集都是通过相同的μ,σ2定义的数据装换
    1.第一步是零均值化 :

    它是一个向量,x等于每个训练数据 x减去μ,意思是移动训练集,直到完成零均值化
    2 .第二步是归一化方差 ,注意特征x1的方差比特征x2的方差要大得多 。

    每个特征都有方差,注意,我们已经完成了零均值 ,x2就是y2的方差,然后把所有数据除以σ2向量

tips:如果用它来调整数据,那么用相同的μ,σ2来归一化测试集,而不是在测试集和训练集分别预估μ,σ2。尤其是,你不希望训练集和测试集的归一化有什么不同。其中:μ,σ2是由训练集数据计算得来的。

为什么做归一化:然而如果你归一化特征,代价函数看起来更对称,更容易优化,前提是特征都在相似范围内,不是从1到1000,,0到1的范围而是在-1到1的范围内或相似偏差。
所以如果输入特征处于不同范围内,可能有些特征值从1到1000,那么归一化特征值就非常重要了,如果特征值处于相似范围内 ,那么归一化就不是很重要了,执行这类归一化并不会产生设么危害,我通常会做归一化处理,虽然我不确定能否提高训练或算法速度。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 162,050评论 4 370
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 68,538评论 1 306
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 111,673评论 0 254
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,622评论 0 218
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 53,047评论 3 295
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,974评论 1 224
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,129评论 2 317
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,893评论 0 209
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,654评论 1 250
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,828评论 2 254
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,297评论 1 265
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,619评论 3 262
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,326评论 3 243
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,176评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,975评论 0 201
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 36,118评论 2 285
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,909评论 2 278

推荐阅读更多精彩内容