[图像算法]-从LeNet到VGG,看卷积+池化串联的网络结构

01-LeNet5

  LeNet5【1】有3个卷积层,2个池化层,2个全连接层。卷积层的卷积核都为55,stride=1,池化层都为Max pooling,激活函数为Sigmoid,具体网络结构如下图:

图片

  下面我们详细解读一下网络结构,先约定一些称呼。
  我们先约定一些叫法,比如featuremap为28
286,卷积参数大小为(551)6。其中2828是featuremap的高度,宽度,6是featuremap的通道数。(551)6卷积核表示55的高度,宽度,通道数为1的卷积核有6个。你可以把(551)想象成一个厚度为1,长度,宽度各为5的卷积块,以下依此类推。
  1.Input输入图像统一归一化为32*32。
  2.C1卷积层经过(5*5*1)*6卷积核,stride=1, 生成featuremap为28*28*6。
  3.S2池化层经过(2*2)采样核,stride=2,生成featuremap为14*14*6。
  4.C3卷积层经过(5*5*6)
16卷积核,stride=1,生成featuremap为10*10*16。
  5.S4池化层经过(2*2)采样核,stride=2,生成featuremap为5*5*16。
  6.C5卷积层经过(5*5*16)*120卷积核,stride=1, 生成featuremap为1*1*120。
  7.F6全连接层输入为1*1*120,输出为1*1*84,总参数量为120*84。
  8.Output全连接层。输入为1*1*84,输出为1*1*10,总参数量为84*10。10就是分类的类别数。

02-AlexNet

   2012年,Imagenet比赛冠军—Alexnet (以第一作者Alex命名)【2】直接刷新了ImageNet的识别率,奠定了深度学习在图像识别领域的优势地位。网络结构如下图:


图片

  1.Input输入图像为224*224*3。
  2.Conv1经过(11*11*3)*96卷积核,stride=4, (224-11)/4+2=55,生成featuremap为55*55*96。
  3.Pool1经过3*3的池化核,stride=2,(55-3)/2+1=27,生成featuremap为27*27*96。
  4.Norm1local_size=5,生成featuremap为27*27*96。
  5.Conv2经过(5*5*96)*256的卷积核,pad=2,group=2,(27+2*2-5)/1+1=27,生成featuremap为27*27*256。
  6.Pool2经过3*3的池化核,stride=2,(27-3)/2+1=13,生成featuremap为13*13*256。
  7.Norm2local_size=5, 生成featuremap为13*13*256。
  8.Conv3经过(3*3*256)*384卷积核,pad=1, (13+1*2-3)/1+1=13,生成featuremap为13*13*384。
  9.Conv4经过(3*3*384)*384卷积核,pad=1,(13+1*2-3)/1+1=13,生成featuremap为13*13*384。
  10.Conv5经过(3*3*384)*256卷积核,pad=1,(13+1*2-3)/1+1=13,生成featuremap为13*13*256。
  11.Pool5经过(3*3)的池化核,stride=2,(13-3)/2+1=6,生成featuremap为6*6*256。
  12.Fc6输入为(6*6*256)*4096全连接,生成featuremap为1*1*4096。
  13.Dropout6在训练的时候以1/2概率使得隐藏层的某些神经元的输出为0,这样就丢掉了一半节点的输出,BP的时候也不更新这些节点,以下Droupout同理。
  14.Fc7输入为1*1*4096,输出为1*1*4096,总参数量为4096*4096。
  15.Dropout7生成featuremap为1*1*4096。
  16.Fc8输入为1*1*4096,输出为1000,总参数量为4096*1000。

  总结:

  1.网络比LeNet更深,包括5个卷积层和3个全连接层。
  2.使用relu激活函数,收敛很快,解决了Sigmoid在网络较深时出现的梯度弥散问题。
  3.加入了dropout层,防止过拟合。
  4.使用了LRN归一化层,对局部神经元的活动创建竞争机制,抑制反馈较小的神经元放大反应大的神经元,增强了模型的泛化能力。
  5.使用裁剪翻转等操作做数据增强,增强了模型的泛化能力。预测时使用提取图片四个角加中间五个位置并进行左右翻转一共十幅图片的方法求取平均值,这也是后面刷比赛的基本使用技巧。
  6.分块训练,当年的GPU没有这么强大,Alexnet创新地将图像分为上下两块分别训练,然后在全连接层合并在一起。
  7.总体的数据参数大概为240M。

03-VGG

  VGGNet【3】主要的贡献是利用带有很小卷积核(33)的网络结构对逐渐加深的网络进行评估,结果表明通过加深网络深度至16-19层可以极大地改进前人的网络结构。这些发现也是参加2014年ImageNet比赛的基础,并且在这次比赛中,分别在定位和分类跟踪任务中取得第一名和第二名。
  VGGNet的网络结构如下图:

图片

  类型从A到E。此处重点讲解VGG16。也就是图中的类型D。如图中所示,共有13个卷积层,3个全连接层。其全部采用3
3卷积核,步长为1,和22最大池化核,步长为2。
  1.Input层输入图片为224*224*3。
  2.CONV3-64经过(3*3*3)*64卷积核,生成featuremap为224*224*64。
  3.CONV3-64经过(3*3*64)*64卷积核,生成featuremap为224*224*64。
  4.Max pool经过(2*2)max pool核,生成featuremap为112*112*64。
  5.CONV3-128。经过(3*3*64)*128卷积核,生成featuremap为112*112*128。
  6.CONV3-128经过(3*3*128)*128卷积,生成featuremap为112*112*128。
  7.Max pool经过(2*2)maxpool,生成featuremap为56*56*128。
  8.CONV3-256经过(3*3*128)*256卷积核,生成featuremap为56*56*256。
  9.CONV3-256经过(3*3*256)*256卷积核,生成featuremap为56*56*256。
  10.CONV3-256经过(3*3*256)*256卷积核,生成featuremap为56*56*256。
  11.Max pool经过(2*2)maxpool,生成featuremap为28*28*256
  12.CONV3-512经过(3*3*256)*512卷积核,生成featuremap为28*28*512
  13.CONV3-512经过(3*3*512)*512卷积核,生成featuremap为28*28*512。
  14.CONV3-512经过(3*3*512)*512卷积核,生成featuremap为28*28*512。
  15.Max pool经过(2*2)maxpool,生成featuremap为14*14*512。
  16.CONV3-512经过(3*3*512)*512卷积核,生成featuremap为14*14*512。
  17.CONV3-512经过(3*3*512)*512卷积核,生成featuremap为14*14*512。
  18.CONV3-512经过(3*3*512)*512卷积核,生成featuremap为14*14*512。
  19.Max pool经过2*2卷积,生成featuremap为7*7*512。
  20.FC-4096输入为7*7*512,输出为1*1*4096,总参数量为7*7*512*4096。
  21.FC-4096输入为1*1*4096,输出为1*1*4096,总参数量为4096*4096。
  22.FC-1000输入为1*1*4096,输出为1000,总参数量为4096*1000。
  总结:
  1. 共包含参数约为550M。
  2. 全部使用3
3的卷积核和2*2的最大池化核。
  3. 简化了卷积神经网络的结构。

04-总结

  LeNet5是早期用于工程应用的网络结构,发展到AlexNet,激活函数从sigmoid变为relu,加入了Dropout层等操作,引起了新一轮的深度学习热潮。VGG基本是AlexNet的加强版,深度上是其2倍,参数量大小也是两倍多。
  这三个网络结构本质上都是(卷积+池化)堆叠的网络结构,是深度学习复兴以来的第一个有重大工程意义的网络设计系列。

参考文献

【1】Lécun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition[J]. Proceedings of the IEEE, 1998, 86(11):2278-2324.

【2】Krizhevsky A, Sutskever I, Hinton G E. ImageNet classification with deep convolutional neural networks[C]// International Conference on Neural Information Processing Systems. Curran Associates Inc. 2012:1097-1105.

【3】Simonyan K, Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[J]. Computer Science, 2014.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,560评论 4 361
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,104评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,297评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,869评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,275评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,563评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,833评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,543评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,245评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,512评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,011评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,359评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,006评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,062评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,825评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,590评论 2 273
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,501评论 2 268

推荐阅读更多精彩内容