Python深度学习(第二部分-2)


传送门:
Python深度学习(第一部分)
Python深度学习(第二部分 -1)
Python深度学习(第二部分 -2)


深入部分,看这一本肯定不够,需要其他资料深入学习

第七章 高级的深度学习最佳实践

1. Keras 函数式 API

之前的例子都是线性结构的深度学习网络结构,显然并不"高级".


7-1.png

实践中,可以是多种多样的,Inception ,残差连接都属于这种.


7-2.png

函数式 API

  • 输入合并: layers.concatenate
  • 输出合并: Model(),第二个参数为输出列表.
  • 共享层权重: LSTM(),加入连体/共享模型

2. 使用 Keras 回调函数和 TensorBoard 来检查并监控深度学习模型

机器学习在Fit调用后是自动执行的,为了更加细致地监控/了解每次迭代的变化和改进,引入了回调函数(生命周期)

7-3.png
  • ModelCheckpoint 与 EarlyStopping : 用来判断过拟合进行中断.
  • ReduceLROnPlateau: 通过降低学习率,使得验证损失可以改善.
  • 编写你自己的回调函数: 扩展Callback类,实现需要覆盖的方法
7-4.png

TensorBoard是一个特殊的回调函数类,使用 TensorFlow 后端时,有个基于浏览器的可视化工具.

3. 让模型性能发挥到极致

  • 高级架构模式: 批标准化(即使在训练过程中均值和方差随时间发生变化,它也可以
    适应性地将数据标准化,适用于很深的网络结构,有助于梯度传播),深度可分离卷积(通过拆分,合并的办法,适用训练小型模型)
  • 超参数优化: 前面各种学习参数都是经验决定的,比如每层维度,卷积核大小,超参数优化就是把这个手工+经验的配置自动化.(由于使用验证数据调整参数,可能出现验证数据过拟合)
  • 模型集成: 多种模型加权计分,群策群力解决同一问题,从而优化结果.

第八章 生成式深度学习

前面解决了反应式问题,但是现实很多问题需要的是创造型活动,深度学习也能做到.而且这些应用也都达到"可用"级别,如果要完全搞懂,每个都需要大量的时间投入,目前我只能理解一下基本原理.

1. 使用 LSTM 生成文本(AI写小说)

生成文本,使用了循环网络可预测下一个数据的特性.通过采样->输入->采样的过程持续中训练好的网络得到输出.

  • softmax温度(对概率分布重新加权,控制随机性大小)
8-1.png

由于这种方式仅仅是统计数据采样,并非真正的语义创新.

2. DeepDream(AI画画)

使用反向运行卷积神经网络,从而从一个输出获得输入(生成神奇图片)

3. 神经风格迁移(AI图片合成)

针对目标+风格=组合


8-2.png

具体原理为定义风格与内容,并将总损失最小化:
loss = distance(style(reference_image) - style(generated_image)) + distance(content(reference_image) - content(generated_image))
因此需要从数学上定义style和content两个函数,其中content比较简单,它就是网络中靠近顶部的信息,风格就比较麻烦,需要格拉姆矩阵(Gram matrix)计算.

具体步骤:

  • 创建网络(使用预训练层),能同时计算风格图,内容图,生成图的VGG19层激活
  • 使用3张图像计算层激活的损失函数
  • 设置梯度下降过程,使得损失最小化

这种方法需要学习纹理,运算并不快,实际可以根据某种风格进行预训练,然后对内容进行快速迁移(一个小型卷积网络的一次前向传递)

4. 用变分自编码器生成图像

通过训练生成图像的潜在空间,再通过生成器/解码器反向映射回图像空间.VAE/GAN都可用,其中VAE由于具有连续性,可用生成逐渐变化的图片(网络上人老去的图片生成算法...)

变分自编码器:重构损失,正则化损失是VAE的参数.

5. 生成式对抗网络简介

为了使得深度学习获得更好的精度,对抗网络是强大的算法(通过培养对手-判别器,让自己更强大).起原理为构建2组神经网络.生成器网络,判别器网络,并且不固定优化最小值(通过动态调整梯度下降),因此,GAN训练很困难,很复杂.


8-3.png

流程:

  • 生成器网络将(latent_dim)的向量映射到(32,32,3)的图像
  • 判别器网络将(32,32,3)的图像映射到2进制分数,用来评价真/假.
  • 标记好已知的图像(真/假)用来训练判别器网络
  • 使用gan模型损失优化生成器网络的梯度.

技巧:

  • 使用tanh作为最后一层激活
  • 使用正态对潜在空间采样
  • 使用Dropout和随机噪声增加训练的随机性
  • 生成器使用步进Conv2DTranpose或Conv2d,是的像素空间均匀.

这些技巧原理并没介绍,这里直接说结论..

具体代码,生成器和判别器相对简单,重点在组合两个部分以及训练部分:


8-4.png
8-5.png

第九章 总结1

作者的总结,比我的笔记精要多了,我可没法做总结的总结..
局限性和未来部分,特别是揉纸团和登月任务的比喻,很精辟,值得借鉴使用.