GAN万字长文综述

生成对抗网络(GAN,Generative Adversarial Networks)作为一种优秀的生成式模型,引爆了许多图像生成的有趣应用。GAN相比于其他生成式模型,有两大特点:

  • 不依赖任何先验假设。传统的许多方法会假设数据服从某一分布,然后使用极大似然去估计数据分布。关于这点,我们后面还会讲到,没懂的同学先不用着急。

  • 生成real-like样本的方式非常简单。GAN生成real-like样本的方式通过生成器(Generator)的前向传播,而传统方法的采样方式非常复杂,有兴趣的同学可以参考下周志华老师的《机器学习》一书中对各种采样方式的介绍。

这篇综述主要参考最新的一篇有关GAN综述的paper[1],详细探讨了GAN的各种细节,以及改进,应用。本文对于论文内容做了一些调整以及补充,方便入门的同学阅读。目录如下(吐槽下简书竟然不支持markdown目录,csdn又广告太多,某乎markdown体验又差。要找一个好用的编辑器真是难!):




文中许多内容大都根据自己所学总结,有不当之处欢迎指出。此外,本文参考了许多博客资料,已给出参考链接。如有侵权,请私信删除。

1. GAN的基本介绍

1.1 GAN的基本概念

GAN(Generative Adversarial Networks)从其名字可以看出,是一种生成式的,对抗网络。再具体一点,就是通过对抗的方式,去学习数据分布的生成式模型。所谓的对抗,指的是生成网络和判别网络的互相对抗。生成网络尽可能生成逼真样本,判别网络则尽可能去判别该样本是真实样本,还是生成的假样本。示意图如下:


GAN overview.png

隐变量z(通常为服从高斯分布的随机噪声)通过Generator生成X_{fake}, 判别器负责判别输入的data是生成的样本X_{fake}还是真实样本X_{real}。优化的目标函数如下:
\mathop {\min }\limits_G \mathop {\max }\limits_D V(D,G) = \mathop {\min }\limits_G \mathop {\max }\limits_D {{\rm E}_{x\sim{p_{data}}(x)}}[\log D(x)] + {{\rm E}_{z\sim{p_z}(z)}}[\log (1 - D(G(z)))]
对于判别器D来说,这是一个二分类问题,V(D,G)为二分类问题中常见的交叉熵损失。对于生成器G来说,为了尽可能欺骗D,所以需要最大化生成样本的判别概率D(G(z)),即最小化\log (1 - D(G(z)))\log(D(x))一项与生成器G无关,可以忽略。

实际训练时,生成器和判别器采取交替训练,即先训练D,然后训练G,不断往复。值得注意的是,对于生成器,其最小化的是\mathop {\max }\limits_D V(D,G),即最小化V(D,G)的最大值。为了保证V(D,G)取得最大值,所以我们通常会训练迭代k次判别器,然后再迭代1次生成器(不过在实践当中发现,k通常取1即可)。当生成器G固定时,我们可以对V(D,G)求导,求出最优判别器D^*(x):
D^*(x)=\frac{p_g(x)}{p_g(x)+p_{data}(x)}
把最优判别器代入上述目标函数,可以进一步求出在最优判别器下,生成器的目标函数等价于优化p_{data}(x), p_{g}(x)的JS散度(JSD, Jenson Shannon Divergence)。

可以证明,当G,D二者的capacity足够时,模型会收敛,二者将达到纳什均衡。此时,p_{data}(x)=p_g(x)​,判别器不论是对于p_{data}(x)​还是p_g(x)​中采样的样本,其预测概率均为\frac{1}{2}​,即生成样本与真实样本达到了难以区分的地步。

1.2 目标函数

前面我们提到了GAN的目标函数是最小化两个分布的JS散度。实际上,衡量两个分布距离的方式有很多种,JS散度只是其中一种。如果我们定义不同的距离度量方式,就可以得到不同的目标函数。许多对GAN训练稳定性的改进,比如EBGAN,LSGAN等都是定义了不同的分布之间距离度量方式。

1.2.1 f-divergence

f-divergence使用下面公式来定义两个分布之间的距离:
D_f(p_{data}||p_g)=\int_xp_g(x)f(\frac{p_{data}(x)}{p_g(x)})dx
上述公式中f为凸函数,且f(1)=0。采用不同的f函数(Generator),可以得到不同的优化目标。具体如下:

f-divergence.png

值得注意的是,散度这种度量方式不具备对称性,即D_f(p_{data}||p_g)D_f(p_g||p_{data})​不相等。

LSGAN

上面提到,LSGAN是f-divergence中f(x)=(t-1)^2​时的特殊情况。具体来说LSGAN的Loss如下:
\mathop{\min }\limits_DJ(D)=\mathop{\min}\limits_D[{\frac{1}{2}}{{\rm E}_{x\sim{p_{data}}(x)}}[D(x)-a]^2 + {\frac{1}{2}}{{\rm E}_{z\sim{p_z}(z)}}[D(G(z))-b]^2]

\mathop{\min }\limits_GJ(G)=\mathop{\min}\limits_G{\frac{1}{2}}{{\rm E}_{z\sim{p_z}(z)}}[D(G(z))-c]^2

原作中取a=c=1,b=0。LSGAN有两大优点2

  • 稳定训练:解决了传统GAN训练过程中的梯度饱和问题
  • 改善生成质量:通过惩罚远离判别器决策边界的生成样本来实现

对于第一点,稳定训练,可以先看一张图:

lsgan loss compare.png

上图左边是传统GAN使用sigmoid交叉熵作为loss时,输入与输出的对照关系图。上图右边是LSGAN使用最小二乘loss时,输入与输出的对照关系图。可以看到,在左图,输入比较大的时候,梯度为0,即交叉熵损失的输入容易出现梯度饱和现象。而右边的最小二乘loss则不然。

对于第二点,改善生成质量。这个在原文也有详细的解释。具体来说:对于一些被判别器分类正确的样本,其对梯度是没有贡献的。但是判别器分类正确的样本就一定是很接近真实数据分布的样本吗?显然不一定。

考虑如下理想情况,一个训练良好的GAN,真实数据分布p_{data}和生成数据分布p_g完全重合,判别器决策面穿过真实数据点,所以,可以利用样本点离决策面的远近来度量生成样本的质量。

lsgan决策面示意图.png

上图b中,一些离决策面比较远的点,虽然被分类正确,但是这些并不是好的生成样本。传统GAN通常会将其忽略。而对于LSGAN,由于采用最小二乘损失,计算决策面到样本点的距离,如图c,可以把离决策面比较远的点“拉”回来,也就是把离真实数据比较远的点“拉”回来。

1.2.2 Integral probality metric(IPM)

IPM定义了一个评价函数族f,用于度量任意两个分布之间的距离。在一个紧凑的空间\chi\subset\mathrm{R^d}中,定义\mathcal P(\chi)为在\chi上的概率测度。那么两个分布p_{data}p_g之间的IPM可以定义为如下公式:
d_\mathcal F(p_{data},p_g)=sup_{f\in \mathcal F}\mathbb E_{x\sim p_{data}}[f(x)]-\mathbb{E}_{x\sim{p_{data}}}[f(x)]
类似于f-divergence,不同函数f​也可以定义出一系列不同的优化目标。典型的有WGAN,Fisher GAN等。下面简要介绍一下WGAN。

WGAN

WGAN提出了一种全新的距离度量方式——地球移动距离(EM, Earth-mover distance),也叫Wasserstein距离。具体定义如下:
W(p_{data},p_g)=inf_{\gamma\in\sqcap(p_{data},p_g)}\mathbb E_{(x,y)\in\gamma}[\lVert{x-y}\rVert]
\sqcap(p_{data},p_g)​表示一组联合分布,这组联合分布里的任一分布\gamma​的边缘分布均为p_{data}(x)​p_g(x)​

直观上来说,概率分布函数(PDF)可以理解为随机变量在每一点的质量,所以W(p_{data},p_g)则表示把概率分布p_{data}(x)搬到p_g(x)需要的最小工作量。

WGAN也可以用最优传输理论来解释,WGAN的生成器等价于求解最优传输映射,判别器等价于计算Wasserstein距离,即最优传输总代价4。关于WGAN的理论推导和解释比较复杂,不过代码实现非常简单。具体来说3

  • 判别器最后一层去掉sigmoid
  • 生成器和判别器的loss不取log
  • 每次更新判别器的参数之后把它们的绝对值截断到不超过一个固定常数c

上述第三点,在WGAN的后来一篇工作WGAN-GP中,将梯度阶段替换为了梯度惩罚。

1.2.3 f-divergence和IPM对比

  • f-divergence存在两个问题:其一是随着数据空间的维度x\in\mathcal X=\mathcal R^d的增加,f-divergence会非常难以计算。其二是两个分布的支撑集3通常是未对齐的,这将导致散度值趋近于无穷。
  • IPM则不受数据维度的影响,且一致收敛于p_{data}p_g两个分布之间的距离。而且即便是在两个分布的支撑集不存在重合时,也不会发散。

1.2.4 辅助的目标函数

在许多GAN的应用中,会使用额外的Loss用于稳定训练或者达到其他的目的。比如在图像翻译,图像修复,超分辨当做,对于生成器会加入目标图像作为监督信息。EBGAN则把GAN的判别器作为一个能量函数,在判别器中加入重构误差。CGAN则使用类别标签信息作为监督信息。

1.3 其他常见生成式模型

1.3.1 自回归模型:pixelRNN与pixelCNN

自回归模型通过对图像数据的概率分布p_{data}(x)进行显式建模,并利用极大似然估计优化模型。具体如下:
p_{data}(x)=\prod_{i=1}^np(x_i|x_1,x_2,...,x_{i-1})
上述公式很好理解,给定x_1,x_2,...,x_{i-1}条件下,所有p(x_i)的概率乘起来就是图像数据的分布。如果使用RNN对上述依然关系建模,就是pixelRNN。如果使用CNN,则是pixelCNN。具体如下5

pixRNN.png
pixCNN.png

显然,不论是对于pixelCNN还是pixelRNN,由于其像素值是一个个生成的,速度会很慢。语音领域大火的WaveNet就是一个典型的自回归模型。

1.3.2 VAE

PixelCNN/RNN定义了一个易于处理的密度函数,我们可以直接优化训练数据的似然;对于变分自编码器我们将定义一个不易处理的密度函数,通过附加的隐变量z对密度函数进行建模。 VAE原理图如下6

VAE.png

在VAE中,真实样本X通过神经网络计算出均值方差(假设隐变量服从正太分布),然后通过采样得到采样变量Z并进行重构。VAE和GAN均是学习了隐变量z到真实数据分布的映射。但是和GAN不同的是:

  • GAN的思路比较粗暴,使用一个判别器去度量分布转换模块(即生成器)生成分布与真实数据分布的距离。
  • VAE则没有那么直观,VAE通过约束隐变量z服从标准正太分布以及重构数据实现了分布转换映射X=G(z)

生成式模型对比

  • 自回归模型通过对概率分布显式建模来生成数据
  • VAE和GAN均是:假设隐变量z服从某种分布,并学习一个映射X=G(z),实现隐变量分布z与真实数据分布p_{data}(x)的转换。
  • GAN使用判别器去度量映射X=G(z)的优劣,而VAE通过隐变量z与标准正太分布的KL散度和重构误差去度量。

1.4 GAN常见的模型结构

1.4.1 DCGAN

DCGAN提出使用CNN结构来稳定GAN的训练,并使用了以下一些trick:

  • Batch Normalization
  • 使用Transpose convlution进行上采样
  • 使用Leaky ReLu作为激活函数

上面这些trick对于稳定GAN的训练有许多帮助,自己设计GAN网络时也可以酌情使用。

1.4.2 层级结构

GAN对于高分辨率图像生成一直存在许多问题,层级结构的GAN通过逐层次,分阶段生成,一步步提生图像的分辨率。典型的使用多对GAN的模型有StackGAN,GoGAN。使用单一GAN,分阶段生成的有ProgressiveGAN。StackGAN和ProgressiveGAN结构如下:

StackGAN PGAN.png

1.4.3 自编码结构

经典的GAN结构里面,判别网络通常被当做一种用于区分真实/生成样本的概率模型。而在自编码器结构里面,判别器(使用VAE作为判别器)通常被当做能量函数(Energy function)。对于离数据流形空间比较近的样本,其能量较小,反之则大。有了这种距离度量方式,自然就可以使用判别器去指导生成器的学习。

可以,AE作为判别器,为什么就可以当做能量函数,用于度量生成样本离数据流形空间的距离呢?首先,先看AE的loss:
D(u)=\|u-AE(u)\|
AE的loss是一个重构误差。使用AE做为判别器时,如果输入真实样本,其重构误差会很小。如果输入生成的样本,其重构误差会很大。因为对于生成的样本,AE很难学习到一个图像的压缩表示(即生成的样本离数据流行形空间很远)。所以,VAE的重构误差作为p_{data}p_g之间的距离度量是合理的。典型的自编码器结构的GAN有:BEGAN, EBGAN, MAGAN等

1.5 GAN的训练障碍(Obstacles)

1.5.1 理论中存在的问题

经典GAN的判别器有两种loss,分别是:
\mathbb E_{x\sim p_{g}}[log(1-D(x))] \\\mathbb E_{x\sim p_g}[-log(D(x))]

  • 使用上面第一个公式作为loss时:在判别器达到最优的时候,等价于最小化生成分布与真实分布之间的JS散度,由于随机生成分布很难与真实分布有不可忽略的重叠以及JS散度的突变特性,使得生成器面临梯度消失的问题
  • 使用上面第二个公式作为loss时:在最优判别器下,等价于既要最小化生成分布与真实分布直接的KL散度,又要最大化其JS散度,相互矛盾,导致梯度不稳定,而且KL散度的不对称性使得生成器宁可丧失多样性也不愿丧失准确性,导致collapse mode现象7

1.5.2 实践中存在的问题

GAN在实践中存在两个问题:

其一,GAN提出者Ian Goodfellow在理论中虽然证明了GAN是可以达到纳什均衡的。可是我们在实际实现中,我们是在参数空间优化,而非函数空间,这导致理论上的保证在实践中是不成立的。

其二,GAN的优化目标是一个极小极大(minmax)问题,即\mathop {\min }\limits_G \mathop {\max }\limits_DV(G,D),也就是说,优化生成器的时候,最小化的是\mathop{max} \limits_DV(G,D)。可是我们是迭代优化的,要保证V(G,D)最大化,就需要迭代非常多次,这就导致训练时间很长。如果我们只迭代一次判别器,然后迭代一次生成器,不断循环迭代。这样原先的极小极大问题,就容易变成极大极小(maxmin)问题,可二者是不一样的,即:
\mathop {\min }\limits_G \mathop {\max }\limits_DV(G,D)\neq\mathop{\max}\limits_D\mathop\min\limits_GV(G,D)
如果变化为极小极大问题,那么迭代就是这样的,生成器先生成一些样本,然后判别器给出错误的判别结果并惩罚生成器,于是生成器调整生成的概率分布。可是这样往往导致生成器变“懒”,只生成一些简单的,重复的样本,即缺乏多样性,也叫mode collapse。

1.5.3 稳定GAN训练的技巧

如上所述,GAN在理论上和实践上存在三个大问题,导致训练过程十分不稳定,且存在mode collapse的问题。为了改善上述情况,可以使用以下技巧稳定训练:

  • Feature matching: 方法很简单,使用判别器某一层的特征替换原始GAN Loss中的输出。即最小化:生成图片通过判别器的特征和真实图片通过判别器得到的特征之间的距离。
  • 标签平滑:GAN训练中的标签非0即1,这使得判别器预测出来的confidence倾向于更高的值。使用标签平滑可以缓解该问题。具体来说,就是把标签1替换为0.8~1.0之间的随机数。
  • 谱归一化:WGAN和Improve WGAN通过施加Lipschitz条件来约束优化过程,谱归一化则是对判别器的每一层都施加Lipschitz约束,但是谱归一化相比于Improve WGAN计算效率要高一些。
  • PatchGAN:准确来说PatchGAN并不是用于稳定训练,但这个技术被广泛用于图像翻译当中,PatchGAN相当于对图像的每一个小Patch进行判别,这样可以使得生成器生成更加锐利清晰的边缘。具体做法是这样的:假设输入一张256x256的图像到判别器,输出的是一个4x4的confidence map,confidence map中每一个像素值代表当前patch是真实图像的置信度。感受野就是当前的图像patch),将所有Patch的Loss求平均作为最终的Loss。

1.6 GAN mode collapse的解决方案

1.6.1 针对目标函数的改进方法

为了避免前面提到的由于优化maxmin导致mode跳来跳去的问题,UnrolledGAN采用修改生成器loss来解决。具体而言,UnrolledGAN在更新生成器时更新k次生成器,参考的Loss不是某一次的loss,是判别器后面k次迭代的loss。注意,判别器后面k次迭代不更新自己的参数,只计算loss用于更新生成器。这种方式使得生成器考虑到了后面k次判别器的变化情况,避免在不同mode之间切换导致的模式崩溃问题。此处务必和迭代k次生成器,然后迭代1次判别器区分开8。DRAGAN则引入博弈论中的无后悔算法,改造其loss以解决mode collapse问题9。前文所述的EBGAN则是加入VAE的重构误差以解决mode collapse。

1.6.2 针对网络结构的改进方法

Multi agent diverse GAN(MAD-GAN)采用多个生成器,一个判别器以保障样本生成的多样性。具体结构如下:

MAD_GAN.png

相比于普通GAN,多了几个生成器,且在loss设计的时候,加入一个正则项。正则项使用余弦距离惩罚三个生成器生成样本的一致性。

MRGAN则添加了一个判别器来惩罚生成样本的mode collapse问题。具体结构如下:

MRGAN.png

输入样本x通过一个Encoder编码为隐变量E(x),然后隐变量被Generator重构,训练时,Loss有三个。D_MR(重构误差)用于指导生成real-like的样本。而D_D则对E(x)z生成的样本进行判别,显然二者生成样本都是fake samples,所以这个判别器主要用于判断生成的样本是否具有多样性,即是否出现mode collapse。

1.6.3 Mini-batch Discrimination

Mini-batch discrimination在判别器的中间层建立一个mini-batch layer用于计算基于L1距离的样本统计量,通过建立该统计量,实现了一个batch内某个样本与其他样本有多接近。这个信息可以被判别器利用到,从而甄别出哪些缺乏多样性的样本。对生成器而言,则要试图生成具有多样性的样本。

2、关于GAN隐空间的理解

隐空间是数据的一种压缩表示的空间。通常来说,我们直接在数据空间对图像进行修改是不现实的,因为图像属性位于高维空间中的流形中。但是在隐空间,由于每一个隐变量代表了某个具体的属性,所以这是可行的。

在这部分,我们会探讨GAN是如何处理隐空间及其属性的,此外还将探讨变分方法如何结合到GAN的框架中。

2.1 隐空间分解

GAN的输入隐变量z​是非结构化的,我们不知道隐变量中的每一位数分别控制着什么属性。因此有学者提出,将隐变量分解为一个条件变量c​和标准输入隐变量z​。具体包括有监督的方法和无监督的方法。

2.1.1 有监督方法

典型的有监督方法有CGAN,ACGAN。

CGAN将随机噪声z和类别标签c作为生成器的输入,判别器则将生成的样本/真实样本与类别标签作为输入。以此学习标签和图片之间的关联性。

ACGAN将随机噪声z和类别标签c作为生成器的输入,判别器则将生成的样本/真实样本输入,且回归出图片的类别标签。以此学习标签和图片之间的关联性。二者结构如下(左边为CGAN,右边为ACGAN):

CGAN-ACGAN.png

2.1.2 无监督方法

相比于有监督方法,无监督方法不使用任何标签信息。因此,无监督方法需要对隐空间进行解耦得到有意义的特征表示。

InfoGAN对把输入噪声分解为隐变量z​和条件变量c​(训练时,条件变量c​从均匀分布采样而来。),二者被一起送入生成器。在训练过程中通过最大化c​G(z,c)​的互信息I(c;G(z,c))​以实现变量解耦(I(c;G(z,c))​的互信息表示c​里面关于G(z,c)​的信息有多少,如果最大化互信息I(c;G(z,c))​,也就是最大化生成结果和条件变量c​的关联性)。模型结构和CGAN基本一致,除了Loss多了一项最大互信息。具体如下10

InfoGAN.png

从上面分析可以看出,InfoGAN只是实现了信息的解耦,至于条件变量c​每一个值的具体含义是什么,我们无法控制。于是ss-InfoGAN出现了,ss-InfoGAN采用半监督学习方法,把条件变量c​分成两部分,c=c_{ss}\bigcap c_{us}​c_{ss}​则利用标签像CGAN一样学习,c_{us}​则像InforGAN一样学习。

2.2 GAN与VAE的结合

GAN相比于VAE可以生成清晰的图像,但是却容易出现mode collapse问题。VAE由于鼓励重构所有样本,所以不会出现mode collapse问题。

一个典型结合二者的工作是VAEGAN,结构很像前文提及的MRGAN,具体如下:

VAEGAN.png

上述模型的Loss包括三个部分,分别是判别器某一层特征的重构误差,VAE的Loss,GAN的Loss。

2.3 GAN模型总结

前面两节介绍了各种各样的GAN模型,这些模型大都是围绕着GAN的两大常见问题:模式崩溃,以及训练崩溃来设计的。下表总结了这些模型,读者可以根据下表回顾对照:

GAN_ALL.png

3. GAN的应用

由于GAN在生成样本过程成不需要显式建模任何数据分布就可以生成real-like的样本,所以GAN在图像,文本,语音等诸多领域都有广泛的应用。下表总结了GAN在各个方面的应用,后文会这些算法做相应介绍。


GAN Appl.png

3.1 图像

3.1.1 图像翻译

所谓图像翻译,指从一副(源域)图像到另一副(目标域)图像的转换。可以类比机器翻译,一种语言转换为另一种语言。翻译过程中会保持源域图像内容不变,但是风格或者一些其他属性变成目标域。

Paired two domain data

成对图像翻译典型的例子就是pix2pix,pix2pix使用成对数据训练了一个条件GAN,Loss包括GAN的loss和逐像素差loss。而PAN则使用特征图上的逐像素差作为感知损失替代图片上的逐像素差,以生成人眼感知上更加接近源域的图像。

Unpaired two domain data

对于无成对训练数据的图像翻译问题,一个典型的例子是CycleGAN。CycleGAN使用两对GAN,将源域数据通过一个GAN网络转换到目标域之后,再使用另一个GAN网络将目标域数据转换回源域,转换回来的数据和源域数据正好是成对的,构成监督信息。

3.1.2 超分辨

SRGAN中使用GAN和感知损失生成细节丰富的图像。感知损失重点关注中间特征层的误差,而不是输出结果的逐像素误差。避免了生成的高分辨图像缺乏纹理细节信息问题。

3.1.3 目标检测

得益于GAN在超分辨中的应用,针对小目标检测问题,可以理由GAN生成小目标的高分辨率图像从而提高目标检测精度

3.1.4 图像联合分布学习

大部分GAN都是学习单一域的数据分布,CoupledGAN则提出一种部分权重共享的网络,使用无监督方法来学习多个域图像的联合分布。具体结构如下11

coupleGAN.png

如上图所示,CoupledGAN使用两个GAN网络。生成器前半部分权重共享,目的在于编码两个域高层的,共有信息,后半部分没有进行共享,则是为了各自编码各自域的数据。判别器前半部分不共享,后半部分用于提取高层特征共享二者权重。对于训练好的网络,输入一个随机噪声,输出两张不同域的图片。

值得注意的是,上述模型学习的是联合分布P(x,y),如果使用两个单独的GAN分别取训练,那么学习到的就是边际分布P(x)P(y)。通常情况下,P(x,y)\neq P(x)\cdot P(y)​

3.1.5 视频生成

通常来说,视频有相对静止的背景和运动的前景组成。VideoGAN使用一个两阶段的生成器,3D CNN生成器生成运动前景,2D CNN生成器生成静止的背景。Pose GAN则使用VAE和GAN生成视频,首先,VAE结合当前帧的姿态和过去的姿态特征预测下一帧的运动信息,然后3D CNN使用运动信息生成后续视频帧。Motion and Content GAN(MoCoGAN)则提出在隐空间对运动部分和内容部分进行分离,使用RNN去建模运动部分。

3.2 序列生成

相比于GAN在图像领域的应用,GAN在文本,语音领域的应用要少很多。主要原因有两个:

  • GAN在优化的时候使用BP算法,对于文本,语音这种离散数据,GAN没法直接跳到目标值,只能根据梯度一步步靠近。
  • 对于序列生成问题,没生成一个单词,我们就需要判断这个序列是否合理,可是GAN里面的判别器是没法做到的。除非我们针对每一个step都设置一个判别器,这显然不合理。

为了解决上述问题,强化学习中的策略梯度下降(Policy gredient descent)被引入到GAN中的序列生成问题。

3.2.1 音乐生成

RNN-GAN使用LSTM作为生成器和判别器,直接生成整个音频序列。然而,正如上面提到的,音乐当做包括歌词和音符,对于这种离散数据生成问题直接使用GAN存在很多问题,特别是生成的数据缺乏局部一致性。

相比之下,SeqGAN把生成器的输出作为一个智能体(agent)的策略,而判别器的输出作为奖励(reward),使用策略梯度下降来训练模型。ORGAN则在SeqGAN的基础上,针对具体的目标设定了一个特定目标函数。

3.2.2 语言和语音

VAW-GAN(Variational autoencoding Wasserstein GAN)结合VAE和WGAN实现了一个语音转换系统。编码器编码语音信号的内容,解码器则用于重建音色。由于VAE容易导致生成结果过于平滑,所以此处使用WGAN来生成更加清晰的语音信号。

3.3 半监督学习

图像数据的标签获得需要大量的人工标注,这个过程费时费力。

3.3.1 利用判别器进行半监督学习

基于GAN的半监督学习方法[12]提出了一种利用无标签数据的方法。实现方法和原始GAN基本一样,具体框架如下13

GAN-semi-Supervised.png

相比于原始GAN,主要区别在于判别器输出一个K+1的类别信息(生成的样本为第K+1类)。对于判别器,其Loss包括两部分,一个是监督学习损失(只需要判断样本真假),另一个是无监督学习损失(判断样本类别)。生成器则只需要尽量生成逼真的样本即可。训练完成后,判别器就可以作为一个分类模型去分类。

从直观上来看,生成的样本主要在于辅助分类器学会区分真实的数据空间在哪里。

3.3.2 使用辅助分类器的半监督学习

上面提及的利用判别器进行半监督学习的模型存在一个问题。判别器既要学习区分正负样本,也要学习预测标签。二者目标不一致,容易导致二者都达不到最优。一个直观的想法就把预测标签和区分正负样本分开。Triple-GAN就是这么做的14

Triple-GAN.png

(X_g,Y_g)\sim p_g(X,Y), (X_l,Y_l)\sim p(X,Y),(X_c,Y_c)\sim p_c(X,Y)分别表示生成的数据,有标签的数据,无标签的数据。CE表示交叉熵损失。

3.4 域适应

域适应是一个迁移学习里面的概念。简单说来,我们定义源数据域分布为\mathbb D_S(x,y),目标数据域分布为\mathbb D_T(x,y)​。对于源域数据,我们有许多标签,但是对于目标域的数据没有标签。我们希望能通过源域的有标签数据和目标域的无标签数据学习一个模型,在目标域泛化的很好。迁移学习的“迁移”二字指的是源域数据分布向目标域数据分布的迁移。

GAN用于迁移学习时,核心思想在于使用生成器把源域数据特征转换成目标域数据特征,而判别器则尽可能区分真实数据和生成数据特征。以下是两个把GAN应用于迁移学习的例子DANN和ARDA:

Domain Adaption.png

以上图左边的DANN为例,I_s,I_t分别代表源域数据,目标域的数据,y_s表示源域数据的标签。F_s,F_t表示源域特征,目标域特征。DANN中,生成器用于提取特征,并使得提取的特征难以被判别器区分是源域数据特征还是目标域数据特征。

在行人重识别领域,有许多基于CycleGAN的迁移学习以进行数据增广的应用。行人重识别问题一个难点在于不同摄像头下拍摄的人物环境,角度差别非常大,导致存在较大的Domain gap。因此,可以考虑使用GAN来产生不同摄像头下的数据进行数据增广。[15]中提出了一个cycleGAN用于数据增广的方法。具体模型结构如下:


cycleGAN数据增广.png

对于每一对摄像头都训练一个cycleGAN,这样就可以实现将一个摄像头下的数据转换成另一个摄像头下的数据,但是内容(人物)保持不变。

3.5 其他应用

GAN的变体繁多,应用非常广泛,在一写非机器学习领域也有应用,以下是一些例子。

3.5.1 医学图像分割

[16]提出了一种segmentor-critic结构用于分割医学图像。segmentor类似于GAN中的生成器用于生成分割图像,critic则最大化生成的分割图像和ground truth之间的距离。此外,DI2IN使用GAN分割3D CT图像,SCAN使用GAN用于分割X射线图像。

3.5.2 图片隐写

隐写指的是把秘密信息隐藏到非秘容器,比如图片中。隐写分析器则用于判别容器是否含有秘密信息。一些研究尝试使用GAN的生成器生成带有隐写信息的图片,判别器则有两个,一个用于判别图片是否是真实图片,另一个则判别图片是否具有秘密信息[17]。

3.6.3 连续学习

连续学习目的在于解决多个任务,且在学习过程中不断积累新知识。连续学习中存在一个突出的问题就是“知识遗忘”。[18]中使用GAN的生成器作为一个scholars model,生成器不断使用以往知识进行训练,solver则给出答案,以此避免“知识遗忘”问题。

4. 讨论

在第一,二部分我们讨论了GAN及其变体,第三部分讨论了GAN的应用。下表总结了比较有名的一些GAN的模型结构及其施加的额外约束。

GAN结构对比.png

前面都是对于GAN的微观层面的探讨。接下来,我们会站在一个宏观的视角来讨论GAN。

4.1 GAN的评价

GAN的评价方法多种多样,现有的example-based(顾名思义,基于样本层面做评价)方法,均是对生成样本与真实样本提取特征,然后在特征空间做距离度量。具体框架如下:

example-based评价方法的框架

关于本小节的符号对照关系如下:

P_g:生成数据分布,P_r表示真实数据分布
E:数学期望
x:输入样本,x\sim P_g表示x为生成样本的采样,x\sim P_r表示x为真实样本的采样。
y:样本标签
M​:分类网络,通常选择Inception network

下面分别对常见的评价指标进行一一介绍:

4.1.1 Inception Score

对于一个在ImageNet训练良好的GAN,其生成的样本丢给Inception网络进行测试的时候,得到的判别概率应该具有如下特性:

  • 对于同一个类别的图片,其输出的概率分布应该趋向于一个脉冲分布。可以保证生成样本的准确性。
  • 对于所有类别,其输出的概率分布应该趋向于一个均匀分布,这样才不会出现mode dropping等,可以保证生成样本的多样性。

因此,可以设计如下指标:
IS(P_g)=e^{E_{x\sim P_g}[KL(p_M(y|x)\Vert{p_M(y)})]}
根据前面分析,如果是一个训练良好的GAN,p_M(y|x)趋近于脉冲分布,p_M(y)趋近于均匀分布。二者KL散度会很大。Inception Score自然就高。实际实验表明,Inception Score和人的主观判别趋向一致。IS的计算没有用到真实数据,具体值取决于模型M的选择

特点:可以一定程度上衡量生成样本的多样性和准确性,但是无法检测过拟合。Mode Score也是如此。不推荐在和ImageNet数据集差别比较大的数据上使用。

4.1.2 Mode Score

Mode Score作为Inception Score的改进版本,添加了关于生成样本和真实样本预测的概率分布相似性度量一项。具体公式如下:
MS(P_g)=e^{E_{x\sim P_g}[KL(p_M(y|x)\Vert{p_M(y)})-KL(p_M(y)\Vert p_M(y^*))]}

4.1.3 Kernel MMD (Maximum Mean Discrepancy)

计算公式如下:
MMD^2(P_r,P_g)=E_{x_r\sim{P_r},x_g\sim{P_g}}[\lVert\Sigma_{i=1}^{n1}k(x_r)-\Sigma_{i=1}^{n2}k(x_g)\rVert]
对于Kernel MMD值的计算,首先需要选择一个核函数k,这个核函数把样本映射到再生希尔伯特空间(Reproducing Kernel Hilbert Space, RKHS) ,RKHS相比于欧几里得空间有许多优点,对于函数内积的计算是完备的。将上述公式展开即可得到下面的计算公式:
MMD^2(P_r,P_g)=E_{x_r,x_r{'}\sim{P_r},x_g,x_g{'}\sim{P_g}}[k(x_r,x_r{'})-2k(x_r,x_g)+k(x_g,x_g{'})]
MMD值越小,两个分布越接近。

特点:可以一定程度上衡量模型生成图像的优劣性,计算代价小。推荐使用。

4.1.4 Wasserstein distance

Wasserstein distance在最优传输问题中通常也叫做推土机距离。这个距离的介绍在WGAN中有详细讨论。公式如下:
WD(P_r,P_g)=min_{\omega\in\mathbb{R}^{m\times n}}\Sigma_{i=1}^n\Sigma_{i=1}^m\omega_{ij}d(x_i^r,x_j^g)
s.t. \Sigma_{i=1}^mw_{i,j}=p_r(x_i^r), \forall i;\Sigma_{j=1}^nw_{i,j}=p_g(x_j^g), \forall j
Wasserstein distance可以衡量两个分布之间的相似性。距离越小,分布越相似。

特点:如果特征空间选择合适,会有一定的效果。但是计算复杂度为O(n^3)​太高

4.1.5 Fréchet Inception Distance (FID)

FID距离计算真实样本,生成样本在特征空间之间的距离。首先利用Inception网络来提取特征,然后使用高斯模型对特征空间进行建模。根据高斯模型的均值和协方差来进行距离计算。具体公式如下:
FID(\mathbb P_r,\mathbb P_g)=\lVert\mu_r-\mu_g\rVert+Tr(C_r+C_g-2(C_rC_g)^{1/2})
\mu,C分别代表协方差和均值。

特点:尽管只计算了特征空间的前两阶矩,但是鲁棒,且计算高效。

4.1.6 1-Nearest Neighbor classifier

使用留一法,结合1-NN分类器(别的也行)计算真实图片,生成图像的精度。如果二者接近,则精度接近50%,否则接近0%。对于GAN的评价问题,作者分别用正样本的分类精度,生成样本的分类精度去衡量生成样本的真实性,多样性。

  • 对于真实样本x_r,进行1-NN分类的时候,如果生成的样本越真实。则真实样本空间\mathbb R将被生成的样本x_g包围。那么x_r的精度会很低。
  • 对于生成的样本x_g,进行1-NN分类的时候,如果生成的样本多样性不足。由于生成的样本聚在几个mode,则x_g很容易就和x_r区分,导致精度会很高。

特点:理想的度量指标,且可以检测过拟合。

4.1.7 其他评价方法

AIS,KDE方法也可以用于评价GAN,但这些方法不是model agnostic metrics。也就是说,这些评价指标的计算无法只利用:生成的样本,真实样本来计算。

4.1.8 总结

实际实验发现,MMD和1-NN two-sample test是最为合适的评价指标,这两个指标可以较好的区分:真实样本和生成的样本, mode collapsing。且计算高效。

总体说来,GAN的学习是一个无监督学习过程,所以很难找到一个比较客观的,可量化的评估指标。有许多指标在数值上虽然高,但是生成效果却未必好。总之,GAN的评价目前依然是一个开放性的问题。

4.2 GAN与强化学习的关系

强化学习的目标是对于一个智能体,给定状态s,去选择一个最佳的行为a(action)。通常的可以定义一个价值函数Q(s,a)来衡量,对于状态s,采取行动a的回报是Q(s,a),显然,我们希望最大化这个回报值。对于很多复杂的问题,我们是很难定义这个价值函数Q(s,a)的,就像我们很难定义GAN生成的图片到底有多好一样。

说到这里,大家可能反应过来了。GAN生成的图片好不好,我确实找不到一个合适的指标,那我学习一个判别器去判断一下生成图片和真实图片的距离不就好了吗。强化学习里面的价值函数Q(s,a)难以定义,那直接用个神经网络去学习它就好了。典型的模型有DDPG,TRPO等等

4.3 GAN的优缺点

4.3.1 优点

GAN的优点在开头已有所介绍。这里再总结一下:

  • GAN可以并行生成数据。相比于PixelCNN,PixelRNN这些模型,GAN生成非常快,因为GAN使用Generator替代了采样的过程
  • GAN不需要通过引入下界来近似似然。VAE由于优化困难,引入了变分下界来优化似然。但是VAE对于先验和后验分布做了假设,使得VAE很难逼近其变分下界。
  • 从实践来看,GAN生成的结过要比VAE更清晰的多。

4.3.2 缺点

GAN的缺点在前文也有详细讨论,主要问题在于:

  • 训练不稳定,容易崩溃。这个问题有学者提出了许多解决方案,比如WGAN,LSGAN等
  • 模式崩溃。尽管有很多相关的研究,但是由于图像数据的高维度特性,这个问题依然还没完全解决。

4.4 未来的研究方向

  • GAN的训练崩溃,模式崩溃问题等依然有待研究改进。

  • Deep learning尽管很强大,但目前仍有许多领域无法征服,期待GAN在此基础上会有一些作为


[1]: Hong, Yongjun, et al. "How Generative Adversarial Networks and its variants Work: An Overview of GAN."

[12]: Salimans, Tim, et al. "Improved techniques for training gans." Advances in neural information processing systems. 2016.

[15]: Zheng Z , Zheng L , Yang Y . Unlabeled Samples Generated by GAN Improve the Person Re-identification Baseline in VitroC// 2017 IEEE International Conference on Computer Vision (ICCV). IEEE Computer Society, 2017.

[16]: Yuan Xue, Tao Xu, Han Zhang, Rodney Long, and Xiaolei Huang. Segan: Adversar- ial network with multi-scale l_1 loss for medical image segmentation. arXiv preprint arXiv:1706.01805, 2017.

[17]: Denis Volkhonskiy, Ivan Nazarov, Boris Borisenko, and Evgeny Burnaev. Steganographicgenerative adversarial networks. arXiv preprint arXiv:1703.05502, 2017.

[18]: Shin, Hanul, et al. "Continual learning with deep generative replay." Advances in Neural Information Processing Systems. 2017.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,233评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,013评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,030评论 0 241
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,827评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,221评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,542评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,814评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,513评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,225评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,497评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,998评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,342评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,986评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,055评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,812评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,560评论 2 271
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,461评论 2 266

推荐阅读更多精彩内容