收藏!836分钟的谷歌机器学习教程,带你10分钟看完!—— Jinkey 原创

原文链接 https://jinkey.ai/post/tech/shou-cang-!836fen-zhong-de-gu-ge-ji-qi-xue-xi-jiao-cheng-dai-ni-10fen-zhong-kan-wan
本文作者 Jinkey(微信公众号 jinkey-love,官网 https://jinkey.ai
文章允许非篡改署名转载,删除或修改本段版权信息转载的,视为侵犯知识产权,我们保留追求您法律责任的权利,特此声明!

0 引言

  • 为了尊重原意,部分名词不进行翻译。
  • 为了更通俗易懂的解释概念,使用低维度的情况来解释。

1 机器学习概念

1.1 主要术语

标签
预测的事物,即 y = ax + b 中的 y 变量,如房价、动物种类、是否垃圾邮件等。

特征
输入变量,即 y = ax + b 中的 x 变量,x 可以是一个,也可以是多个,用 {x1, x2, ..., xn} 组成的向量来表示。比如
电子邮件的文本字词、邮箱地址、发送时间等

样本
具体某一个示例,比如一封邮件。
有标签样本:邮件(x) + 是否垃圾邮件(y)
无标签样本:邮件(x)

模型
模型定义了特征与标签之间的关系。简单的理解为 y = ax + b 中的 a和 b。
训练:输入(0, 1) , (1, 3) , (2, 5) 求出 a = 2, b = 1
预测:输入 x = 10, 推断出 y = 10*2 +1 = 13

回归
预测连续值, 如:

  • 加利福尼亚州一栋房产的价值是多少?
  • 用户点击此广告的概率是多少?

分类
预测离散值, 如:

  • 某个指定电子邮件是垃圾邮件还是非垃圾邮件?
  • 这是一张狗、猫还是仓鼠图片?
  • 这是 Jinkey(公众号 jinkey-love) 写的文章还是其他人写的文章?

损失
预测值和目标值的差距。

左侧模型的损失较大;右侧模型的损失较小。

一种常见的损失函数就是我们的义务教育阶段都学过的"两点间的直线距离",其中 x1=x2:

1.2 降低损失

大家都玩过猜数字游戏,主持人出一个 1-100 内的数字,其他人轮流猜测,玩家 A 提出一个数字,主持人只会说大了还是小了。这个过程靠猜测不停地逼近真实值(也就是不停地缩小损失的过程)

Gradient Descent
其中一个常见的降低损失的方法就是梯度下降(Gradient Descent),用高中知识就可以理解了。
假如损失函数 loss = x^2 + 2x + 1 的梯度函数就是 loss' = 2x + 2

假如一开始输入x 等于 -3, -2, -1, 1, 2, 3,y’即梯度分别等于 -4, -2, 0, 2, 4,所以如果输入的样本是(-2, ?) 则梯度下降的方向就是从 -2 -> -1 移动,如果输入的样本是 (2, ?)就是从 2 -> -1 来降低损失函数的值,慢慢移动到 -1 得到了损失函数的极小值。

看到这里你是否觉得直接通过高中的知识求导得到极小值就可以了?但如果变量不止一个,如果上述垃圾邮件样本包含的特征:文本内容包含“贷款”的数量、邮箱地址、发送时间等等,损失函数就可能是三维甚至多维的,存在一个或多个“局部最低小”,并且导数或偏导数不能求出的情况下,只能通过“有技巧地猜数字”来逼近真实值:


梯度下降方法有 随机梯度下降 SGD小批量梯度下降 mini-batch SGD。至于具体差异,本文不展开说明,谷歌的教程也是为了速成。一般采用 mini-batch SGD 会更加高效。

你可能会问不知道算法怎么写代码?
在谷歌的 Tensorflow 框架里面,梯度下降就是一行代码而已, 所以初学者有个初步概念即可:

tf.train.GradientDescentOptimizer()

Learning Rate
上面所说

-2 -> -1 来降低损失函数的值

这里引入了学习率的概念-2到-1移动说明学习率是1。如果从-2移动到-1.8,学习率则是0.2。

学习率太大容易跳过最小值(or 极小值),如蓝线所示,学习率太小导致学习时间很长。

学习率 Playground:
https://developers.google.com/machine-learning/crash-course/fitter/graph

1.3 过拟合

损失很低,但仍然是糟糕的模型,因为过度拟合了训练集数据,导致在测试集或训练集等新样本上效果很差。


过拟合

1.4 拆分数据

训练集和测试集 (Training and Test Sets)

  • 训练集 - 用于训练模型的子集。
  • 测试集 - 用于测试训练后模型的子集。

训练集和测试集 Playground:
https://developers.google.cn/machine-learning/crash-course/training-and-test-sets/playground-exercise

某些情况下为了防止不小心在训练过程引入对测试集的拟合,引入验证集(就是把数据分成三份)

1.5 特征工程

所有类型的数据,最终都要转换为数字的形式,计算机才能学习。使用的特征要注意:

  • 在数据集中出现大约 5 次以上,比如不能用数据的唯一 id 作为特征
  • 具有清晰明确的含义
  • 不包含超出范围的异常断点或“神奇”的值,比如电影评分为 -1 或 NaN
  • 特征的定义不应随时间发生变化,比如地点:北京是固定的,但不要用地点:219

特征组合 Playground:
https://developers.google.cn/machine-learning/crash-course/feature-crosses/playground-exercises

1.5.1 数据类型

数值数据

离散数据(直接用或者先离散化)0、1、2
连续数据 0.001、0.2、1.0、2.2

文本数据

作为分类标签
{'Netherlands', 'Belgium', 'Luxembourg'}
转换为 {0, 1, 2}

作为自然语言学习
A = “Jinkey 是中国人”
B = “Jinkey 是中国的学生”
A + B 的词列表:(Jinkey, 是, 中国, 人, 的, 学生)
如果具有某个词就用1表示、不具有就用0表示,这样就把 A 表示成:
A = (1, 1, 1, 1, 0, 0)
B = (1, 1, 1, 0, 1, 1)

图像数据

彩色图片是分开 RGBA 四通道的值作为图片特征,灰度图把灰度作为图片特征,黑白图黑色的像素为1白色为0。


1.5.2 数据清洗

缩放特征值
有一个特征 A (字段)的值是500000, 有一个特征B(字段)的值是0.1,这时候需要根据所有样本的 A 特征的最大值和最小值把特征值缩放到[0, 1]之间:

缩放值 = (真实值 - 平均值)/ 标准差

处理极端值

  • 对每个值取对数
  • 对大于某个值的特征值进行截断,比如 (1, 2, 3, 666, 2,3)-> (1, 2, 3, 3, 2,3)

分箱
其实就是把数值离散化成一个个区间,然后用某个符号来标识


比如纬度37.4可以转换成两种形式:

  • 6(第6个区间)
  • [0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0] (作为一个11维张量,37.4属于第6个区间,所以为1)
    这种方式也成为 one-hot 编码(具有一个特征为1,否则为0)

特征组合
特征组合是指通过将两个或多个输入特征相乘来对特征空间中的非线性规律进行编码的合成特征。
[A X B]:将两个特征的值相乘形成的特征组合。
[A x B x C x D x E]:将五个特征的值相乘形成的特征组合。
[A x A]:对单个特征的值求平方形成的特征组合。

其他

  • 遗漏值。 例如,有人忘记为某个房屋的年龄输入值。
  • 重复样本。 例如,服务器错误地将同一条记录上传了两次。
  • 不良标签。 例如,有人错误地将一颗橡树的图片标记为枫树。
  • 不良特征值。 例如,有人输入了多余的位数,或者温度计被遗落在太阳底下。

1.5.3 正则化

L2 正则

为什么要正则化?
惩罚复杂的模型(过拟合的模型)

机器学习训练目标是损失函数最小化,如果复杂模型也算是一种损失,那么可以把模型复杂度加入到损失函数的公式里面。

如何衡量一个模型的复杂程度?
各变量权重的平方和(L2正则)

效果:

  • 使权重值接近于 0(但并非正好为 0)
  • 使权重的平均值接近于 0,且呈正态(钟形曲线或高斯曲线)分布

Lambda正则系数
在正则项前加系数 Lambda,其对权重的影响如图:

lambda 值过高 -> 模型会非常简单 -> 欠拟合
lambda 值过低 -> 模型会非常复杂 -> 过拟合

L1 正则

为什么有 L2 正则 还要 L1 正则
L2 正则化可以使权重变小,但是并不能使它们正好为 0.0,这样高维度特征矢量会消耗大量的内存

L1 正则项是绝对值

正则化 Playground:
L2 https://developers.google.cn/machine-learning/crash-course/regularization-for-simplicity/playground-exercise-overcrossing
L1 https://developers.google.cn/machine-learning/crash-course/regularization-for-sparsity/playground-exercise

1.6 逻辑回归 (Logistic Regression)

怎么分析一个句子属于褒义还是贬义?
把从句子推倒出(褒义词数量,贬义词数量)二维向量做为特征 X,把人工标记的特征标为 Y,就进行逻辑回归。

比如我们有一系列人工标记的样本:

罩杯 腿长(m) 是否美女
A 0.4
A 1.0
C 0.5
C 1.0
D 1.2
D 0.4

通过一个神奇的公式,机器学习到一些规律,比如机器学习到罩杯是 C 的女生是美女的概率为0.5; 腿长 为 1m 的女生被判断为美女的概率是 0.5。

当输入一个新的样本,系统就能根据学习到的模型1 / (1+exp(w0+w1*x1+w2*x2+...+wm*xm)),算出新加入的女生属于美女的概率是多少,比如说算出来是0.6的概率,那么如果定义阈值为 0.5, 那么0.6>0.5,所以就认为她是个美女。

0.5 称为分类阈值 classification threshold,为了将逻辑回归值(是美女的概率)映射到二元类别(是美女/不是美女),您必须指定分类阈值。

逻辑回归的损失函数

和线性回归采用平方损失不同,逻辑回归的损失函数是对数损失函数Log Loss,定义如下


入门的你,你大可不必记住这个公司,因为在 tensorflow 里面要使用这个损失函数,只需要一行代码:

loss = tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=model_output, labels=y_target))

混淆矩阵 Confusion Matrix

对于二分类,我们使用混淆矩阵来表示所有可能的分类结果。

名词 解析
真正例 模型将正类别样本正确地预测为正类别
真负例 模型将负类别样本正确地预测为负类别
假正例 模型将负类别样本错误地预测为正类别
假负例 模型将正类别样本错误地预测为负类别

以《狼来了》的故事为例:


精确率 Precision

在被识别为正类别的样本中,确实为正类别的比例是多少?

召回率 Recall

在所有正类别样本中,被正确识别为正类别的比例是多少?

精确率和召回率往往是此消彼长的情况。也就是说,提高精确率通常会降低召回率值

ROC 曲线
Receiver Operating Characteristic Curve, 用于绘制采用不同分类阈值时的 TPR 与 FPR。

AUC 面积
ROC 曲线下面积,Area under the ROC Curve。

1.7 神经网络

为什么有逻辑回归等传统机器学习方法还要神经网络?
处理非线性问题(y = ax + b 这种叫做线性模型)

彩色小球代表神经元


神经网络 Playground:
https://developers.google.cn/machine-learning/crash-course/introduction-to-neural-networks/playground-exercises

1.7.1 激活函数

把y = ax + b的 结果作为自变量输入激活函数: f(ax+b) 来作为神经元的输出值


1.7.2 训练神经网络

方法:反向传播

具体过程你可以拿起笔,自己按照本文作者(公众号jinkey-love)之前翻译的文章来推演一遍:《用笔一步步演示人工神经网络的反向传播算法——Jinkey 翻译》

可能出现的异常:


上图是之前网络很流行的图,说每天进步一点点,一年就会有很大收获;每天退步一点点,一年就会落后很多。这里就可以引出梯度消失梯度爆炸的概念。

梯度消失

在深度网络中,计算这些梯度时,可能涉及许多小项的乘积

当较低层的梯度逐渐消失到 0 时,这些层的训练速度会非常缓慢,甚至不再训练。

梯度爆炸

网络中的权重过大,则较低层的梯度会涉及许多大项的乘积

在这种情况下,梯度就会爆炸:梯度过大导致难以收敛。

批标准化可以降低学习速率,因而有助于防止梯度爆炸。

随机失活 Dropout

在梯度下降法的每一步中随机丢弃一些网络单元。丢弃得越多,正则化效果就越强:

  • 0.0 = 无丢弃正则化
  • 1.0 = 丢弃所有内容。模型学不到任何规律
  • 0.0 和 1.0 之间的值更有用

1.7.3 多类别神经网络

二分类 多分类
硬币正面 40%,反面 60% 猫 20%, 狗 50%, 猴 30%
概率和为 1 概率和为 1
激活函数为Sigmoid 激活函数为Softmax

1.7.4 嵌套 (Embedding)

高维空间向低维空间的转换,用于计算两个实体的相似度。
比如电影类别有科幻、成人、卡通
那么,
《小猪佩奇》就可以转换成one-hoting编码(0,0,1)
《星球大战》就可以转换成one-hoting编码(1,1,0)
《喜爱夜蒲》就可以转换成one-hoting编码(0,1,0)

《小猪佩奇》和《星球大战》的距离3,《星球大战》和 《喜爱夜蒲》的距离为1,所以当一个用户看了电影《星球大战》,可以给他推荐《喜爱夜蒲》而不是《小猪佩奇》。

2 机器学习工程

2.1 生产环境机器学习系统

  • 尽可能重复使用常规机器学习系统组件。
  • Google CloudML 解决方案包括 Dataflow 和 TF Serving
  • 可以在 Spark、Hadoop 等其他平台中找到组件
  • 了解机器学习系统的一些范例及其要求,找到自己需要哪些组件?

2.2 训练方法

静态模型 - 离线训练

  • 易于构建和测试 - 使用批量训练和测试,对其进行迭代,直到达到良好效果。
  • 仍然需要对输入进行监控
  • 模型容易过时

动态模型 - 在线训练

  • 随着时间推移不断为训练数据注入新数据,定期同步更新版本。
  • 使用渐进式验证,而不是批量训练和测试
  • 需要监控、模型回滚和数据隔离功能
  • 会根据变化作出相应调整,避免了过时问题

2.3 预测方法

离线预测

使用 MapReduce 或类似方法批量进行所有可能的预测。
记录到表格中,然后提供给缓存/查询表。

优点

  • 不需要过多担心推理成本。
  • 可以使用批量方法。
  • 可以在推送之前对数据预测执行后期验证。

缺点

  • 只能对我们知晓的数据进行预测,不适用于存在长尾的情况。
  • 更新可能延迟数小时或数天。

在线预测

使用服务器根据需要进行预测。

优点

  • 可在新项目加入时对其进行预测,非常适合存在长尾的情况。
  • 计算量非常大,对延迟较为敏感,可能会限制模型的复杂度。
    缺点
  • 监控需求更多。

2.4 数据依赖关系

可靠性

信号是否始终可用?信号来源是否不可靠?

比如

  • 信号是否来自因负载过重而崩溃的服务器?
  • 信号是否来自每年 8 月去度假的人群?

版本控制

计算此数据的系统是否发生过变化?

比如

  • 多久一次?
  • 您如何知道系统发生变化的时间?

必要性

特征的实用性是否能证明值得添加此特征?

相关性

是否有任何特征密不可分,以至于需要采取额外策略来梳理它们?

反馈环

一个模型是否会影响另一个模型
比如两个股价预测模型为例:

  • 模型 A - 不理想的预测模型
  • 模型 B

由于模型 A 有误,因此会导致错误地决定购买股票 X 的股票,而购买这些股票会抬高股票 X 的价格。模型 B 将股票 X 的股价用作输入特征,因此它很容易对股票 X 的价值得出错误结论。然后,模型 B 会根据模型 A 的错误行为购买或销售股票 X 的股份,反过来,模型 B 的行为会影响模型 A,而这样很可能会触发郁金香狂热效应或导致 X 公司的股价下滑。

3 机器学习系统在现实世界里的应用

3.1 癌症预测

特征:病人年龄、性别、 医疗状况、医院名称、生命体征、检验结果
预测:是否会患有癌症

以上设定存在什么问题?

模型中包含的一个特征是医院名称,比如"癌症中心"等专门治疗癌症的机构,已经暗含了在医生的诊断结论,这叫做标签泄露**。当模型尝试取代医生去判断新样本时(还未就医 ),模型无法得知该信息,导致预测的结果非常糟糕。

3.2 文学

特征:文学语句
预测:作者的政治派别

以上设定存在什么问题?

当我们创建测试训练和验证拆分内容时, 我们是通过逐句拆分样本来实现的。也就是说,同一个作者的语句会一部分会被编入训练集,一部分会编入测试集,这导致训练的模型可以了解某个作者在语言使用方面的特质, 而不仅仅是了解他使用的隐喻手法。所以应该在作者的层面,这个作者的所有语句要么都作为训练集,要么都作为测试集。

3.3 机器学习准则

  • 确保第一个模型简单易用
  • 着重确保数据管道的正确性
  • 使用简单且可观察的指标进行训练和评估
  • 拥有并监控您的输入特征
  • 将您的模型配置视为代码:进行审核并记录在案
  • 记下所有实验的结果,尤其是“失败”的结果

编程练习

Pandas 简介

使用 TensorFlow 的起始步骤

合成特征和离群值

验证:编程练习

特征集:编程练习

特征组合编程练习

逻辑回归编程练习

稀疏性和 L1 正则化:编程练习

神经网络简介:编程练习

提高神经网络性能:编程练习

MNIST 数字分类编程练习

嵌套编程练习

v

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 156,069评论 4 358
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,212评论 1 287
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 105,912评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,424评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,741评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,194评论 1 206
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,553评论 2 307
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,289评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 33,923评论 1 237
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,251评论 2 240
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,775评论 1 255
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,144评论 2 249
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,698评论 3 228
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 25,936评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,658评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,214评论 2 267
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,159评论 2 258

推荐阅读更多精彩内容