四月份论文列表

  • 2019.4.5
    Attention to Scale: Scale-aware Semantic Image Segmentation
    这篇是2015年cvpr的文章,虽然发表时间比较早,但是没看作者时就觉得这篇文章写得很好,提出的attention to scale算是比较开创性的,最后看到一作,才发现原来是deeplab系列的一作,果然是大佬。文章内容的话,从现在的角度来看,其实不是很难理解。前一段时间一篇cvpr19的paper叫SK-Net,提出了一种多支路的融合方式,讲的很玄,其实说穿了就是attention to scale。主要是针对语义分割中的多支路的share-net这一类方法,多支路融合不是简单的相加,而是经过一个attention module学习一个不同的支路的attention分配,在每个位置进行softmax之后对原特征加权求和。

  • 2019.4.8
    Path Aggregation Network for Instance Segmentation
    这篇文章是2018年商汤做实例分割的,主要是FPN的延续。论文中贡献点写的比较杂乱,个人觉得比较有意义的也就是Adaptive feature pooling,原来FPN中得到不同level的特征图后,将不同大小的proposal分配给不同的特征图,听起来就比较麻烦,而且道理上也不太讲得通,大的proposal不一定就是语义信息弱的,小的proposal也不一定就是语义信息强的。因此,干脆所有proposal都分配给所有的特征图,最后做一个上采样融合。至于说top-down之后又加了一条bottom-up aggregation,可能的优势就是把长路径变得更长了,感觉这个insight不是很强,属于单纯增加路径长度的,网络变深了,精度也就高了。

  • 2019.4.9
    RefineNet: Multi-Path Refinement Networks for High-Resolution Semantic Segmentation
    这篇文章发表时间比较早,是2016年的工作。主要是解决语义分割中视野域和分辨率不能兼得的问题。另一个解决方案是dilated conv,但是这种卷积计算量和显存占用都比较大,而且实际应用时不能像论文中说的处理分辨率为原图1/4的特征图,最多到1/8。refinenet就是利用逐步融合的想法,bottom-up结合too-down的特征传播,跟FPN的连接方式很像,跟U-Net的区别就是上采样没有采用反卷积。问题就是,融合的方式麻烦了一点。不过,论文中有一个问题就是没有写计算量和显存占用,我感觉采用那么多卷积的融合方式,参数量也不会少。
    这两天看的几篇multi-branch文章基本上都在讲short-range和long-range相互补充,比如PANet就是延长了long-range的长度,RefineNet也是这么讲的。这也可以用作之后工作的一个解释。

    RefineNet

  • 2019.4.17
    Deep High-Resolution Representation Learning for Human Pose Estimation
    用来做human pose的一篇文章,不过感觉基本上这些不同任务最后都会归结到分类上。每个key-point生成一张原图大小的heatmap,跟分割有点像。所以也可以拿来看看。比较特别的就是连接方式,跟其他的方法不同,原图大小(好像也不是,可能是四分之一)的特征图一直在传递,不同分辨率之间相互增强,最后只用最大的分辨率进行预测。就是相互增强的方式可能会有点用,插值+conv1x1. 据说反卷积会造成空洞,这种做法倒是也可以避免引入反卷积。


    有一张图挺有意思的,总结了一下现在的bottom-up top-down方法,可以观赏一下。
    P.S. 吐槽一下,全文都是low-to-high和high-to-low,看得我头都大了,就不能说bottom-up和top-down吗~~

  • 2019.4.18
    High-Resolution Representations for Labeling Pixels and Regions
    上一篇工作的延续,拿来做分割和检测了。改动很小,只是把所有分辨率的分类结果都拿来融了一下,这也很正常,这个方法本来就比较适合做这类任务。实验量感人,到底是有卡的人。然而实验结果存疑,别的我没怎么看,只看了在pascal-context上的结果,miou报了59类和60类的,两个指标全都是SOTA,可是一部分baseline只报了59类,另一部分只报了60类。别的不说,encnet的原论文里两个结果都给了,60类的是比本文的方法高的,然而文章却没有展示这个结果。并且,encnet原文中只训了50epoch,不到两万次迭代,初始学习率0.001,本文6万次迭代,初始学习率0.004,怎么59类的miou就可以直接抄encnet原文的呢?放图:

    本文的结果,注意EncNet的结果

    EncNet59类

    注意,下图中refinenet的结果和本文给的refinenet的结果是一样的,可是encnet的结果本文却没放,很迷啊~~~
    EncNet60类

FishNet: A Versatile Backbone for Image, Region, and Pixel Level Prediction
这篇文章是万里老师组做的一个backbone的工作。感觉自从imagenet竞赛不办了以后,做backbone的文章就越来越水了,影响力也越来越小。不过这篇文章insight还是有的,主要关注于resnet系列和densenet系列为了方便梯度优化,一个引入了identity connection,一个直接把low-level的特征concat到高层。然而,由于下采样是不可避免的,因此实际上并没有那个底层的特征可以不经过变换直通到最后,也就是存在isolated convolution。因此,文章提出一个像鱼一样的结构,在body和head之间存在几条通路是可以直连的。网络连接比较复杂,可能受分割的启发更大一些。不过宗旨还是没变的,只是相比于resnet和densenet,这篇文章把shortcut这种想法进一步发挥了一下。

  • 2019.4.25
    More is Less: A More Complicated Network with Less Inference Complexity
    这篇文章是颜老板他们17年发在cvpr上的一篇文章,主要做的是模型加速(还是稀疏编码来着)。用一个小网络预测为0的位置(这里需要用relu来把负值都变成0),跟原特征图进行点乘。因为矩阵是稀疏的,所有为0的位置都不用乘了(可能是caffe底层这么写的),节省了很多计算量。能借鉴的就是用一个小网络预测每个位置的attention,可是基本上现在都这么搞了,还是用不上。


    不过,这篇文章还简单说了一下caffe卷积是怎么实现的,就是把矩阵展开,卷积操作变成矩阵乘法,提高并行度,空间换时间。输入特征UXYC大小,卷积核WkxkxCxT,对于U*来说,就是把每次移动卷积核覆盖到的kkC个值变成一行,一共移动XY次,卷积核每个大小kkC,一共T个。

  • 2019.4.27
    Deformable Convolutional Networks && Deformable ConvNets v2: More Deformable, Better Results
    没有很认真的看,细节方面没怎么看明白,工作是很好的工作,很硬核。主要是在原有卷积的基础上,学习一个offset,对卷积进行变换,使其覆盖到的区域为可形变的;除此之外,还搞了一个deformable ROI pooling,基本原理差不多,不过感觉实现起来都比较困难。至于v2,就没什么好说的了,做的特征图可视化比较有意思。
    Pay less attention with lightweight and dynamic convolutions
    这篇文章里提出了dynamic卷积,主要是去解决nlp中self-attention计算量的问题。对于每个time step,直接根据这个位置的输入进行预测,而不需要参考global的信息,每个位置的kernel参数是根据这个位置的输入进行动态学习的,卷积核采用共享参数的深度可分离卷积。很神奇的地方在于,没有global aggregation,效果反而比self-attention更好。可能因为self-attention还是会带来更多的冗余吧。当然,如果能把这两者的优势结合起来,就更好了。


    An Empirical Study of Spatial Attention Mechanisms in Deep Networks
    这篇也是代老师组的工作,方法上没什么创新,只是把现有的一些比较好的方法作了一下统一,包括self attention,transformer attention,普通conv,dynamic conv,deformable conv。提出self attention应该包括四个factor,目前的self attention只包含了第一项,即query content & key content。在这四项上对以上方法分别进行了形式上的统一,最后做了众多消融实验,这个我也没认真看。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,569评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,499评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,271评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,087评论 0 209
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,474评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,670评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,911评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,636评论 0 202
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,397评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,607评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,093评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,418评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,074评论 3 237
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,092评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,865评论 0 196
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,726评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,627评论 2 270