残差网络ResNet代码解读

残差网络效果

卷积神经网络CNN的发展历史如图所示:

从起初AlexNet的的8层网络,到ResNet的152层网络,层数逐步增加。当网络层数增加到一定程度之后,错误率反而上升,其原因是层数太多梯度下降变得越发困难。而ResNet解决了这一问题。

目前ResNet是应用最广的图像相关深度学习网络,图像分类,目标检测,图片分割都使用该网络结构作为基础,另外,一些迁移学习也使用ResNet训练好的模型来提取图像特征。

残差网络原理

首先,来看看比较官方的残差网络原理说明:

“若将输入设为X,将某一有参网络层设为H,那么以X为输入的此层的输出将为H(X)。一般的CNN网络如Alexnet/VGG等会直接通过训练学习出参数函数H的表达,从而直接学习X -> H(X) 。而残差学习则是致力于使用多个有参网络层来学习输入、输出之间的残差即H(X) - X即学习X -> (H(X) - X) + X。其中X这一部分为直接的identity mapping,而H(X) - X则为有参网络层要学习的输入输出间残差。”

第一次看到上述文字,我似乎明白了,但理解又不一定正确。在没看到代码之前,对VGG/ResNet的结构原理没什么感觉,几乎就是背下来哪个效果比较好,大概用了什么技术。后来看到了Pytorch中ResNet的代码,原来简单到"五分钟包会"的程度。用自然语言描述程序果然是把简单的问题搞复杂了。

解读核心程序

直接看代码,不学习TensorFlow的复杂结构,也不使用生涩的公式语言,而用顺序结构的Pytorch作为通往深度学习的捷径。下面来解读Pytorch官方版的ResNet实现。完整代码见;

https://github.com/pytorch/vision/blob/master/torchvision/models/resnet.py

Torchvision是Torch的图像工具包,上述代码包含在Torchvision之中,同一目录下还有alexnet,googlenet,vgg的实现。ResNet代码共300多行,其中核心代码不到200行,实现了三个主要类:ResNet、BasicBlock、Bottleneck。

1.残差是什么,如何实现?

BasicBlock类中计算了残差,该类继承了nn.Module(Pytorch基本用法请见参考部分),实现了两个函数:用于创建网络结构的init和实现前向算法的forward。如下所示:

image.png

其中x是输入,out是输出,从程序代码可以看出,与基本流程不同的是,它加入了indentity,而indentity就是输入x本身(也支持下采样),也就是说,在经过多层转换得到的out上加输入数据x,即上面所说的 H(X)+X。如果设输出Y=H(X)+X,则有H(X)=Y-X,构建网络H(X)用于求取输出Y与输入X的差异,即残差。而之前的网络都是直接求从X到Y的方法。

2.BasicBlock和Bottleneck

BasicBlock类用于构建网络中的子网络结构(后称block),子网络中包含两个卷积层和残差处理。一个ResNet包含多个BasicBlock子网络。因此相对于传统网络,ResNet常被描绘成下图的结构,右侧的弧线是“+X”的操作。

Bottleneck是BasicBlock的升级版,其功能也是构造子网络,resnet18和resnet34中使用了BasicBlock,而resnet50、resnet101、resnet152使用了Bottlenect构造网络。

Bottleneck和BasicBlock网络结构对比如下图所示:

左图中的BasicBlock包含两个3x3的卷积层,右图的Bottleneck包括了三个卷积层,第一个1x1的卷积层用于降维,第二个3x3层用于处理,第三个1x1层用于升维,这样减少了计算量。

3.主控ResNet类

ResNet中最常用的是ResNet50,它兼顾了准确性和运算量。下面以RenNet50作为示例,分析构建ResNet的具体方法。

在调用_resnet创建网络时,第二个参数指定使用Bottleneck类构建子网络,第三个参数指定了每一层layer由几个子网络block构成。

下图是ResNet的初始化部分init中,用于构建网络结构的代码(建议在github查看完整代码)。

可以看到程序用函数_make_layer创建了四个层,以resnet50为例,各个层中block的个数依次是3,4,6,3个,而每个block(Bottleneck)中又包含三个卷积层,(3+4+6+3)*3共48个卷积层,外加第141行创建的另一卷积层和第154行创建的一个全连接层,总共50个主要层,这也是resnet50中50的含义。

除此以外,上述torchvision程序还提供了下载预测训练的模型参数,通过设置pretrain=True/False选择是否使用预训练的模型。

图片.png

如此这般,一个ResNet就实现完成了。

参考

深度学习_卷积神经网络CNN
https://www.jianshu.com/p/49aa8f35d03e

Pytorch初探
https://www.jianshu.com/p/cd72618fe126

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,015评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,262评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,727评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,986评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,363评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,610评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,871评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,582评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,297评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,551评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,053评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,385评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,035评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,079评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,841评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,648评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,550评论 2 270