《深度学习》之第六章深度前馈网络

机器学习中常见的逻辑回归和线性回归,都是线性的,它们简单高效。 但也有明细缺陷,表达能力弱,无法描述非线性问题。为了扩展它们的表达能力, 通常可以通过非线性地改变输入φ(x),比如:添加核函数。 设计选择φ(x)的方法:
使用一个通用的 φ,例如无限维的 φ。 总是有足够的能力 来拟合训练集,但是对于测试集的泛化往往不佳。
手动地设计 φ。在深度学习出现以前,这一直是主流的方法, 通常是根据各个领域的问题,设计不同的φ
深度学习的策略是去学习 φ。此时,我们定义函数族 φ(x; θ), 并且使用优化算法来寻找 θ。这种方法可以同时获得上面两张方法的好处。

  1. 实例:学习 XOR(异或)
    线性模型是无法拟合XOR函数的,但是可以通过多层非线性模型来拟合。实例中使用ReLU激活函数来实现非线性变换。

  2. 基于梯度的学习
    神经网络的非线性导致大多数损失函都变得非凸。但是,用于非凸损失函数的随机梯度下降不保证收敛性,并且对参数的初始值很敏感。因而对于前馈神经网络,将所有的权重值初始化为小随机数是很重要的。偏置则可以初始化为零或者小的正值。

2.1 代价函数
大多数现代的神经网络使用最大似然来训练。这意味着代价函数就是负的对数似然,它与训练数据和模型分布间的交叉熵等价。这个代价函数表示为:

交叉熵

对输出分布的最大似然估计和对线性模型均方误差的最小化是等价的

代价函数的梯度必须足够的大和具有足够的预测性。饱和(变得非常平)的函数破坏了这一目标,因为它们把梯度变得非常小。这在很多情况下都会发生,因为用于产生隐藏单元或者输出单元的输出的激活函数会饱和。很多输出单元都会包含一个指数函数,这在它的变量取绝对值非常大的负值时会造成饱和。负对数似然代价函数中的对数函数消除某些输 出单元中的指数效果。

学习条件统计量
使用最小化均方误差代价函数(L2)将得到一个函数, 它可以用来对每个 x 的值预测出 y 的均值
使用L1的代价函数将得到一个函数可以对每个 x 预测 y 取值的中位数

2.2 输出单元
2.2.1 用于高斯输出分布的线性单元
给定特征 h,线性输出单元层产生一个向量 yˆ = W⊤h + b,线性输出层经常被用来产生条件高斯分布的均值
2.2.2 用于 Bernoulli 输出分布的 sigmoid 单元:

Sigmoid单元

σ(x) = 1/(1+ e ^-x)
当我们使用其他的损失函数,例如均方误差之类的,损失函数会在 σ(z) 饱和时饱和。sigmoid 激活函数在 z 取非常小的负值时会饱和到 0,当 z 取非常大的正值时 会饱和到 1。这种情况一旦发生,梯度会变得非常小以至于不能用来学习,无论此模型给出的是正确还是错误的答案。因此,最大似然几乎总是训练 sigmoid 输出单元的优选方法。
2.2.3 用于 Multinoulli 输出分布的 softmax 单元

softmax
softmax

负对数似然代价函数总是强烈地惩罚最活跃的不正确预测。如果正确答案已经具有了 softmax 的最大输入,那么 −zi 项和 log ∑ exp(zj ) ≈ maxj zj = zi j项将大致抵消。这个样本对于整体训练代价贡献很小,这个代价主要由其他未被正确分类的样本产生。

  1. 隐藏单元
    大多数的隐藏单元都可以描述为接受输入向量 x,计算仿射变 换 z = W⊤x + b,然后使用一个逐元素的非线性函数 g(z)。大多数隐藏单元的区别 仅仅在于激活函数 g(z) 的形式。
    激活函数:
    整流线性单元激活函数: g(z) = max{0, z},优点:计算简单,梯度不消失,缺点:在 z = 0 处不可微, 不能通过基于梯度的方法学习那些使它们激活为零的样本。
    绝对值整流(absolute value rectification): g(z) = |z|
    渗漏整流线性单元:g(z, α)= max(0, z) + αmin(0, z), a是个很小的数,如:0.01
    参数化整流线性单元(parametric ReLU)或者 PReLU: g(z, α)= max(0, z) + α
    min(0, z),将 α 作为学习的参数。
    maxout 单元(maxout unit)
maxout

sigmod: σ(x) : x很大或很小的时候梯度饱和, 取值范围不是0对称。
双曲正切函数:g(z)=tanh(z)=2σ(2x)-1 , 取值范围0对称

一个使用sigmod激活函数的列子
  1. 架构设计
    在这些链式架构中,主要的架构考虑是选择网络的深度和每一层的宽度。即使只有一个隐藏层的网络也足够适应训练集。更深层的网络通常能够 对每一层使用更少的单元数和更少的参数,并且经常容易泛化到测试集,但是通常也更难以优化。

万能近似定理(universal approximation theorem):一个前馈神经网络如果具有线性输出层和至少一层具有任何一种 “挤压” 性质的激活函数(例如logistic sigmoid激活函数)的隐藏层,只要给予网络足够数量的隐藏单元,它可以以任意的精度来近似任何从一个有限维空间到另一个有限维空间的 Borel 可测函数。在 Rn 的有界闭集上的任意连续函数是 Borel 可测的, 因此可以用神经网络来近似。

总之,具有单层的前馈网络足以表示任何函数,但是网络层可能大得不可实现, 并且可能无法正确地学习和泛化。在很多情况下,使用更深的模型能够减少表示期 望函数所需的单元的数量,并且可以减少泛化误差。

  1. 反向传播和其他的微分算法
    反向传播(back propagation)算法,经常简称为backprop,允许来自代价函数的信息通过网络向后流动, 以便计算梯度。
微分链式法则

The chain rule of derivatives tells us how two small effects (that of a small change of x on y, and that of y on z) are composed. A small change Δx in x gets transformed first into a small change Δy in y by getting multiplied by ∂y/∂x (that is, the definition of partial derivative). Similarly, the change Δy creates a change Δz in z. Substituting one equation into the other gives the chain rule of derivatives — how Δx gets turned into Δz through multiplication by the product of ∂y/∂x and ∂z/∂x. It also works when x, y and z are vectors (and the derivatives are Jacobian matrices).

前向传播与反向传播

c: The equations used for computing the forward pass in a neural net with two hidden layers and one output layer, each constituting a module through which one can backpropagate gradients. At each layer, we first compute the total input z to each unit, which is a weighted sum of the outputs of the units in the layer below. Then a non-linear function f(.) is applied to z to get the output of the unit. For simplicity, we have omitted bias terms. The non-linear functions used in neural networks include the rectified linear unit (ReLU) f(z) = max(0,z), commonly used in recent years, as well as the more conventional sigmoids, such as the hyberbolic tangent, f(z) = (exp(z) − exp(−z))/(exp(z) + exp(−z)) and logistic function logistic, f(z) = 1/(1 + exp(−z)).

d: The equations used for computing the backward pass. At each hidden layer we compute the error derivative with respect to the output of each unit, which is a weighted sum of the error derivatives with respect to the total inputs to the units in the layer above. We then convert the error derivative with respect to the output into the error derivative with respect to the input by multiplying it by the gradient of f(z). At the output layer, the error derivative with respect to the output of a unit is computed by differentiating the cost function. This gives yl − tl if the cost function for unit l is 0.5(yl − tl) , where tl is the target value. Once the ∂E/∂zk is known, the error-derivative for the weight wjk on the connection from unit j in the layer below is just yj ∂E/∂zk

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,835评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,598评论 1 295
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,569评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,159评论 0 213
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,533评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,710评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,923评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,674评论 0 203
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,421评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,622评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,115评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,428评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,114评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,097评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,875评论 0 197
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,753评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,649评论 2 271

推荐阅读更多精彩内容