一般来说凸优化(Convex Optimization, CO)中最一般的是锥规划 (Cone Programming, CP)问题, 前面我...
前面我们提到两大变( “变分の美”和 “Legendre变变变”), 那么一直在变的话,什么时候不再变呢? 这就是我们今天想概述的。 所谓物极...
前面“回归分析中的问题和修正的探讨(下篇)”,讲到了无偏性和有效性, 这里把评价参数估计的常用指标简述下下。 基本指标 1.1 无偏性 Unb...
后续会继续介绍, 主要有三种方式: 通过sampling技术,生成均衡的样本 调整算法,允许算法改变权重weight变得cost-sensit...
在集成学习(Ensemble Learning)中除了Bagging和Boosting对数据的横向划分划分之外,还有一个纵向划分(加深)的方法...
1 轻诉架构 1.1 应用之云飘啊飘 我们知道Cloud Foundry (CF)是一个PaaS平台。 CF命令行(CLI)作为开始部署使用C...
我们在“人工智能深度学习人物关系[全]”和“深度学习名校课程大全”反复提到伯克利大学在机器学习中的地位! 这不, 20天前, 伯克利大学总结了...
在“Hinton是如何理解PCA?”里面,我们体会到Hinton高人一等的见解。 Hinton, 这个深度学习的缔造者( 参考攒说 Geoff ...
在前面的最小二乘法讲解中 (回归分析中的问题和修正的探讨(下篇),最小二乘法的6个假设 (中篇)), 有遇到广义最小二乘法GLS 、2阶段最小...