机器学习-6:DeepLN之CNN源码

我想说:

可能一直关注我更新文章的童鞋,可能看出我的布局,基本是先搭一个框架然后挖坑去填,这可能是我做事情一个优点,当接触到新事物总是能快速建立一个框架,然后去慢慢填,可能刚开始建立的框架是错的,但是没关系,后面随着认知的加深慢慢去改,这可能与我数学比较好有点关系(又开始了...对你无语!!!),跟着清华宁向东老师学习管理学半年,感觉在宁老师上课方式跟我学习知识有点相似(当然应该是我跟宁老师相似),框架搭好挖坑去填,然后多问为什么?另外我也一直反对老师上课用ppt,为什么不用板书,由以前的事半功倍,变成现在事倍功半,反而让学生课后要花更多时间去自己琢磨学习,爱学习的还好,就像我这种不爱学习的简直是大坑。清华老校长梅贻琦先生的话:大学者,非有大楼之谓也,而有大师之谓也。

今天我们来研究cnn的源码,不用dl框架,前边文章已经对卷积、池化、全连结、前向传播、后向传播等做了铺垫,还少了激活函数(稍微提一下,使解决非线性成为可能,同时选择不当会导致梯度后向传播失败的问题)、BN(解决训练过程中数据弥散、加速训练,抗过拟合、弥补激活函数造成梯度后向传播失败的问题)等文章,后面会慢慢填起来。

又是截图哈哈,个人观点:好代码是敲出来的;从来不是搬出来的;

开始顺代码:

image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png
image.png

推荐阅读:

  1. 机器学习-1:MachineLN之三要素

  2. 机器学习-2:MachineLN之模型评估

  3. 机器学习-3:MachineLN之dl

  4. 机器学习-4:DeepLN之CNN解析

  5. 机器学习-5:DeepLN之CNN权重更新(笔记)

  6. 机器学习-6:DeepLN之CNN源码

  7. 机器学习-7:MachineLN之激活函数

  8. 机器学习-8:DeepLN之BN

  9. 机器学习-9:MachineLN之数据归一化

  10. 机器学习-10:MachineLN之样本不均衡

  11. 机器学习-11:MachineLN之过拟合

  12. 机器学习-12:MachineLN之优化算法

  13. 机器学习-13:MachineLN之kNN

  14. 机器学习-14:MachineLN之kNN源码

  15. 机器学习-15:MachineLN之感知机

  16. 机器学习-16:MachineLN之感知机源码

  17. 机器学习-17:MachineLN之逻辑回归

  18. 机器学习-18:MachineLN之逻辑回归源码

版权声明:本文为博主原创文章,未经博主允许不得转载。有问题可以加微信:lp9628(注明CSDN)。

推荐阅读更多精彩内容