240 发简信
IP属地:北京
  • Resize,w 360,h 240
    LSTM - 长短期记忆网络

    循环神经网络(RNN) 人们不是每一秒都从头开始思考,就像你阅读本文时,不会从头去重新学习一个文字,人类的思维是有持续性的。传统的卷积神经网络没...

  • Resize,w 360,h 240
    三种梯度下降算法的区别(BGD, SGD, MBGD)

    前言 我们在训练网络的时候经常会设置 batch_size,这个 batch_size 究竟是做什么用的,一万张图的数据集,应该设置为多大呢,设...

  • 数据降维:主成分分析法

    前言 什么叫做主成分分析法,我们先看一张图椭圆的图,如果让你找一条线,使得椭圆上所有点在该线上映射的点最分散,保留下来的信息最多,你会怎么选择这...

  • Sigmoid 函数

    前言 Sigmoid 函数(Logistic 函数)是神经网络中非常常用的激活函数,我们今天来深入了解一下 Sigmoid 函数。 函数形式 函...

  • 深度学习中的正则化(一)

    本文首发自公众号:RAIS,点击直接关注。 前言 本系列文章为《Deep Learning》读书笔记,可以参看原书一起阅读,效果更佳。本文我们聊...

  • 深度前馈网络

    本文首发自公众号:RAIS,点击直接关注。 前言 本系列文章为《Deep Learning》读书笔记,可以参看原书一起阅读,效果更佳。从本文开始...

  • 考研经历吐血总结

    前言 考研总算是结束了,现在真的脑壳疼,真的是那种生理上的脑壳痛,睡一觉应该就好了的那种。 上一篇 写考研的事情差不多是初试结束后的时间,当时觉...

  • Resize,w 360,h 240
    构建机器学习算法

    本文首发自公众号:RAIS,点击直接关注。 前言 本系列文章为《Deep Learning》读书笔记,可以参看原书一起阅读,效果更佳。我们前面也...

  • 随机梯度下降

    本文首发自公众号:RAIS,点击直接关注。 前言 本系列文章为 《Deep Learning》 读书笔记,可以参看原书一起阅读,效果更佳。 梯度...

个人介绍
出走半生,仍是少年