卷积神经网络的基础概念

卷积神经网络

在前面的神经网络,才用的是典型的full-connected:网络中的神经元与相邻的层上的每个神经元均连接

使用全连接层的网络来分类图像是很奇怪的。原因是这样的一个网络架构不考虑图像的空间结构
它在完全相同的基础上去对待相距很远和彼此接近的输入像素。这样的空间结构的概念必须从训练数据中推断。但是如果我们使用一个设法利用空间结构的架构,而不是从一个白板状态的网络架构开始,会怎样?

这次我们来看看用卷积神经网络效果如何.
卷积神经网络采用了三种基本概念:

  • 局部感受野(local receptive fields),
  • 共享权重(shared weights)
  • 混合(pooling)
局部感受野

这次不把每个输入像素连接到每个隐藏神经元。相反,我们只是把输入图像进行小的,局部区域的连接.
对于每个局部感受野,在第一个隐藏层中有一个不同的隐藏神经元。相当于做了一个局部的卷积.
之前一直把卷积层和隐藏层搞混淆了,最后总算明白了他俩之间的关系.
神经网络的通用架构就是 input layer -> hidden layer -> output layer
卷积层只是用来描述层与层之间的映射关系,层与层之间的关系在传统神经网络里是full-connect的映射.
上层输入的数据经过卷积之后,可以看成是特征的匹配,有另外一种说法,就是把卷积看成了过滤器(filter),剥离出他关注的东西.
上层的数据可能包含多个通道数据,经过卷积之后,形成对应的数据.
下图这种画法,对于新手,在可视化层面上更像是一个二维数据的输入(只有一个通道的数据),然后做了一次卷积.
但是当你了解了足够多的cnn资料之后,你会发现左边的输入层数据是一个三维数据(多通道的数据),做了一次卷积之后,形成了一个二维数据.
也就是如果我们的输入数据是一个多通道的数据,这些多通道数据会和卷积核进行运算,每运算一次,就会形成对应的通道数据.
有多少个卷积核,就会产生多个通道的数据.这个时候隐藏层的神经元就是一个二维形态,而不仅仅只有只有一列了.


另一方面,我们看到上图的跨距是1,也就是每次都是移动1的距离来匹配特征,其实在实现过程中跨距不一定是1, 也可以是2等等.

共享权重和偏置

隐藏神经元中的同一个channel中的每一个使用相同的权重和偏置.
这意味着隐藏层中同一个channel的所有神经元检测完全相同的特征.
卷积网络能很好地适应图像的平移不变性.
因为这个原因,我们有时候把从输入层到隐藏层的映射称为一个特征映射。我们把定义特征映射的权重称为共享权重。我们把以这种方式定义特征映射的偏置称为共享偏置。共享权重和偏置经常被称为一个卷积核或者滤波器。

目前上面俩张图描述的网络结构只能检测一种局部特征的类型。为了完成图像识别我们需要超过一个的特征映射。所以一个完整的卷积层由几个不同的特征映射组成.


共享权重和偏置的一个很大的优点是,它大大减少了参与的卷积网络的参数。直观地看,这有利于我们更快完成训练建立模型.

混合层

除了刚刚描述的卷积层,卷积神经网络也包含混合层(pooling layers)。混合层通常紧接着在卷积层之后使用。
它要做的是简化从卷积层输出的信息,把信息简化.
常用的有max-pooling以及L2 pooling.



卷积神经网络的输入层就是图像的原始像素,而输出层中的每一个节点代表了不同类别的可信度。


好了,分析一下Alex的CNN结构图,看看你能不能看懂


输入:224×224大小的图片,3通道
针对input_layer的输入数据,我们采用了一个1111的卷积核,跨距设置为4.但是你会发现初始位置以步长4为单位是无法刚好滑倒末尾位置.
这个时候我们需要对它做四周一下zero padding(填充),使得滑动窗口可以恰好停留到末尾.计算了一下需要增加3行,3列的zero padding.
增加了之后,经过卷积形成55
55单通道的数据

第一层卷积:5×5大小的卷积核96个,每个GPU上48个。
第一层max-pooling:2×2的核。经过卷积和池化以后,我们输出的数据是一个2727的单通道数据
第二层卷积:3×3卷积核256个,每个GPU上128个。
第二层max-pooling:2×2的核。
第三层卷积:与上一层是全连接,3
3的卷积核384个。分到两个GPU上个192个。
第四层卷积:3×3的卷积核384个,两个GPU各192个。该层与上一层连接没有经过pooling层。
第五层卷积:3×3的卷积核256个,两个GPU上个128个。
第五层max-pooling:2×2的核。
第一层全连接:4096维,将第五层max-pooling的输出连接成为一个一维向量,作为该层的输入。
第二层全连接:4096维
Softmax层:输出为1000,输出的每一维都是图片属于该类别的概率。

Refer
TensorFlow学习笔记2:构建CNN模型

Neural Networks and Deep Learning 英文版
Deep Learning (Adaptive Computation and Machine Learning series)
卷积神经
技术向:一文读懂卷积神经网络CNN
深度 | 从入门到精通:卷积神经网络初学者指南(附论文)

CNN笔记:通俗理解卷积神经网络
[透析] 卷积神经网络CNN究竟是怎样一步一步工作的?
Conv Nets: A Modular Perspective
Understanding Convolutions

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,117评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,328评论 1 293
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,839评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,007评论 0 206
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,384评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,629评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,880评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,593评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,313评论 1 243
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,575评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,066评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,392评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,052评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,082评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,844评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,662评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,575评论 2 270

推荐阅读更多精彩内容

  • 姓名:于川皓 学号:16140210089 转载自:https://www.cnblogs.com/nsnow/p...
    道无涯_cc76阅读 893评论 0 1
  • 卷积神经网络类似于一般的神经网络,由可学习的权重和误差组成,每一个神经元接受一些输入,完成一些非线性的操作。整个神...
    与尔岩说阅读 2,256评论 0 4
  • 买东西,价格选择你经济范围内的最上限。 01、先从我的故事讲起吧 中国当时三年大饥荒,刚好是我母亲的童年时期,可能...
    要没时间的孙悟空阅读 469评论 0 2
  • rusnag阅读 162评论 2 4
  • 我和黑夜 没有想起的事情 想发生点什么,被宇宙掩盖 在无痕迹的想象,脑细胞中 突然冒出 我和黑夜 宇宙的庞大 什么都没有
    金书js阅读 214评论 10 8