240 发简信
IP属地:河南
  • Resize,w 360,h 240
    谈谈Tensorflow的Batch Normalization

    tensorflow中关于BN(Batch Normalization)的函数主要有两个,分别是: tf.nn.moments tf.nn.ba...

    0.5 65373 9 62 1
  • 网络配置模型(configuration model)中两点之间存在连边的概率

    我看几年前就有人反映过简书输入公式比较复杂的问题,貌似这么多年过去了,依然很不方便。 给定一个配置网络的定义,如下: Definition:We...

  • 谈谈Tensorflow的dropout

    Dropout这个概念已经推出4年了,它的详细描述见论文。可是呢,它仿佛是个犹抱琵琶半遮面的美女,难以捉摸!!许多文献都对dropout有过描述...

  • 关于numpy mean函数的axis参数

    理解多维矩阵的"求和"、"平均"操作确实太恶心了,numpy提供的函数里还有一堆参数,搞得晕头转向的,这里做个笔记,提醒一下自己, 下面是例程 ...

  • Resize,w 360,h 240
    Tensorflow中卷积的padding操作

    之前一直对tensorflow的padding一知半解,直到查阅了tensorflow/core/kernels/ops_util.cc中的Ge...

    0.2 43677 9 33 1
  • Resize,w 360,h 240
    GoogLeNet的心路历程(四)

    本文主要介绍GoogLeNet续作二,inception v3。说实话,Szegedy这哥们真的很厉害,同一个网络他改一改就改出了4篇论文,这是...

    0.4 9034 3 10
  • Resize,w 360,h 240
    ResNet之Deeper Bottleneck Architectures

    去年的时候,微软一帮子人搞了个152层的神经网络!WTF!详情见论文! 论文太长了,今天只分析一下ResNet的核心内容之一,即“Deeper ...

  • GoogLeNet的心路历程(一)

    这一段时间撸了几篇论文,当我撸到GoogLeNet系列论文的时候,真是脑洞大开!GoogLeNet绝对可以称为已公开神经网络的复杂度之王!每当我...

    0.1 6642 3 22
  • Resize,w 360,h 240
    GoogLeNet的心路历程(二)

    本文介绍关于GoogLeNet第一篇正式论文,习惯称为inception v1,如下: [v1] Going Deeper with Convo...

个人介绍
很忙很忙,或许以后还有机会再拾起深度学习