深度学习卷积优化算法winograd

对于深度学习神经网络,大部分都是包含卷积的,并且,卷积层往往是网络中最耗时的部分,当然还有全连接层(全连接层可以看成特殊的卷积层)。很多时候,卷积和全连接层会占用80%到95%的计算时间。这样看来,对卷积层的加速优化就显得很重要。
我们可以看看现在主流的深度学习框架,就可以知道现在业界主流的卷积层的优化算法。比如caffe中的卷积用的是im2col + GEMM(Image to Column + GEneral Matrix Mutiplication),比如移动端的深度学习框架NCNN(腾讯)、Paddlelite(百度)、MNN(阿里)等中用的是Winograd算法,再比如facebook用过的深度学习框架NNPACK中的卷积用的是FFT(Fast Fourier Transforms)——快速傅里叶变换。现在主流的卷积加速的实现大概就这三种,它们各有各的优缺点,各有各的适用场景。

im2col + GEMM

先来说im2col,这个名字可以说很形象了,image to column,就2维卷积来说,im2col就是把一个2维矩阵展开成列,如下图:图片来自https://blog.csdn.net/dwyane12138/article/details/78449898

image.png

展开成列后就容易了,我们只需要把卷积核也展开成列:
image.png

接下来就一目了然了,GEMM,进行矩阵乘法就行。
看到这里,im2col的缺点也就显而易见了,当stride<kernel size的时候(stride就是每一步卷积核移动的格子数),会有大量的重复像素被包含到转换之后的矩阵之中。这对于可以拥有大内存的PC端来说可能不算什么,但是对于资源利用寸土寸金的移动端来说,就显得不美好了。

FFT快速傅里叶变换

傅里叶变换,对于通信专业的人来说可能并不陌生,它的本质其实就是把时域中的卷积运算转换成频域中的乘积运算。通过卷积定理,我们知道两个离散信号在时域做卷积的离散傅里叶变换相当于这两个信号的离散傅里叶变换在频域做相乘。
那么FFT具体时怎么做的呢?
第一步:把image做离散傅里叶变换变换到频域
第二步:把卷积核做离散傅里叶变换变换变换到频域
第三步:把它们做离散傅里叶变换后进行相乘
第四步:把结果做逆离散傅里叶变换变换到时域
虽然FFT可以把时域运算转换到频域运算,减少了直接卷积的计算量,但是它的缺点是要在频域中对一副图像进行滤波,滤波器的大小和图像的大小必须要匹配,这样两者的相乘才容易。因为一般卷积核的大小比图像要小,所以我们需要拓展我们的kernel,让它和图像的大小一致,所以需要使用循环填充的方式将卷积核进行扩展,以便最后两个信号相乘时能够大小一致。

winograd

现在比较主流的移动端深度学习推理框架基本都采用了winograd算法来加速卷积。这个算法是在2016年CVPR的一篇paper中提出。
对于winograd算法,它的本质就是通过减少卷积运算中的乘法,来减少计算量。只用看一下论文中提出的一个卷积的例子就能大概明白:
假设待卷积的矩阵是:


image.png

卷积核是:


image.png

那么我们正常卷积的结果应该是:
image.png

计算如下:
image.png

可以看到正常卷积运算需要总共6次乘法,4次加法。
再来看winagrad怎么做:


image.png

image.png

可以看到结果转换到了m的域,通俗地说,就是我们把d核g用m的表达式表示了。那么为什么这样可以减少计算量呢,这得益于卷积运算中输入信号转换成的矩阵不是任意矩阵,其中有规律地分布着大量的重复元素。
比如
image.png
中的第一行的d1、d2在第二行中也有。当我们变换到m域的时候,本来m2和m3要被计算两次,但是我们知道它重复了,我们没必要再计算依次。所以这就有了乘法的减少。
在神经网络的推理阶段,卷积核上的元素是固定的,因此g上的运算可以提前算好,预测阶段只需计算一次,可以忽略,所以一共所需的运算次数为d与m上的运算次数之和,即4次乘法和8次加法。
可以看到相对于正常卷积,乘法减少了两次,加法增加了4次。在计算机中,乘法是比加法慢很多的,所以这样可以实现卷积的加速。
winograd减少了乘法的次数,但是加法会相应增加,并且我们需要存储m域的转换矩阵,当卷积核的尺寸很大时,我们就需要考虑加法、m域的转换和转换矩阵的问题。
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,736评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,167评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,442评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,902评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,302评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,573评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,847评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,562评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,260评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,531评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,021评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,367评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,016评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,068评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,827评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,610评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,514评论 2 269