7篇文章 · 11242字 · 0人关注
这个需要翻墙的外国网站写的很好:http://ruder.io/optimizing-gradient-descent/index.html#m...
神经网络的参数也就是权重W很多,通过BP反向传播可以逐渐得到使Cost Function最小的参数,但是这些参数的初始值对于收敛的速度,最后的准...
激活函数的作用 激活函数的作用是能够给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。我们知道神经网络的神经元输入的是x的...
批量梯度下降和随机梯度下降是机器学习中很常用的学习方法,批量梯度下降更为准确,但是每一轮训练都要遍历全部的样本而随机梯度下降则没有这一问题,但是...
前言 学习机器学习一直是用梯度下降法的,对于牛顿下降法并没有什么了解,但是小学期同学的一个项目用到了牛顿下降法,同时好多大神同学的夏令营之旅问到...
算法步骤 算法很简单一共4步: 1)随机在图中取K个种子点。2)然后对图中的所有点求到这K个种子点的距离,假如点Pi离种子点Si最近,那么Pi属...
前言 PCA是一种无参数的数据降维方法,在机器学习中很常用,这篇文章主要从三个角度来说明PCA是怎么降维的分别是方差角度,特征值和特征向量以及S...
文集作者