《deeplearning.ai》 课程一第四周 | Deep neural networks

96
V怪兽
2018.01.08 15:45 字数 713

deeplearning.ai 是机器学习领域大牛Andrew Ng在Coursera上公布的新的深度学习的课程,相比之前机器学习的课程,本课程更偏重于深度学习的领域。

本文是课程一《Neural Networks and Deep Learning》的第四周笔记,上周给大家介绍了Shallow Neural Networks,本周我们将为大家介绍Deep Neural Networks。

注:如果没有任何机器学习基础,直接学习本课程可能会有些费力,建议大家先去学习Andrew Ng机器学习课程,传送门在此 Coursera Machine Learning

一、基本概念

深层神经网络,顾名思义,就是有很多隐藏层的神经网络,所以其符号表示与神经网络是一样的,即使用中括号的上角标来表示第几层,比如a[0]表示第0层,即输入层;a[2]则表示第二层隐藏层。

下图即逻辑回归、浅层神经网络与深层神经网络的对比。


image.png

由于其符号表示、前向传播、反向传播、参数及向量化已在前一章介绍过了,这里就不再赘述了,不清楚的可以回顾下上一周的笔记。


image.png

这里只是多了层数而已,完全套用前一章神经网络的前向传播和反向传播即可。


image.png
image.png
image.png

二、直观解释

下图为深层神经网络的直观解释,举了图像识别、语音识别等例子,详细讲解可以去看下视频。 为什么使用深层表示.

image.png

三、参数与超参数

在神经网络中的参数指的是W,b,它们是在一次次梯度下降算法的迭代中不断优化的。
超参数指的是学习率、迭代数、隐藏层的层数和隐藏神经元的个数(神经网络的结构)及激活函数的选择等,超参数是需要我们在训练前手动设定的。


image.png

超参数的选择会决定了最终的参数W,b,还会影响模型的训练速度等,所以超参数的选择非常重要,在下一章中我们会讲解如何选择超参数。

四、本周内容回顾

通过本周学习,我们学习到了:

  • 深层神经网络的基本概念
  • 深层神经网络的前向传播和反向传播
  • 参数与超参数的解释

最后贴出网易云课堂的链接,有兴趣的可以关注下我的知乎或博客,链接在最下方,可以交流下学习经验哈

深度学习
Gupao