Wasserstein GAN

介绍

本文关注的问题是无监督学习。 主要来说,学习概率分布是什么意思? 对此的经典答案是学习概率密度。 通常,这是通过定义一个参数密度系列(P_{\theta})_{\theta \in R^d}并找到使我们的数据的似然性最大的一个来完成的:如果我们有真实的数据示例(x^{(i)})_{i=1}^m,我们将解决问题
如果实际数据分布P_r允许密度,并且P_θ是参数化密度P_θ的分布,那么,渐近地,这等于使Kullback-Leibler散度KL(P_r|P_θ)最小。
{max}_{\theta \in R_d}\dfrac{1}{m}\sum_{i=1}^{m}logP_{\theta}(x^{(i)})
为此,我们需要模型密度Pθ存在。 在处理由低维流形支持的分布的相当普遍的情况下,情况并非如此。 这样,模型流形和真实分布的支撑就不可能有不可忽略的交点,这意味着KL距离没有定义(或简单地是无限的)。
典型的补救措施是在模型分布中添加一个噪声项。 这就是经典机器学习文献中描述的几乎所有生成模型都包含噪声分量的原因。 在最简单的情况下,为了覆盖所有示例,我们假定带宽较高的高斯噪声。 例如,众所周知,在图像生成模型的情况下,这种噪声会降低样本的质量并使样本模糊。 例如,我们可以在最近的论文中看到,当像素已被规范化在范围内时,当对生成的图像中的每个像素进行最大化似然时,添加到模型的噪声的最佳标准偏差约为0.1。 [0; 1]。 这是非常高的噪声,以至于当论文报告其模型样本时,他们没有添加噪声项来报告似然数。 换句话说,添加的噪声项对于该问题显然是不正确的,但是使最大似然法起作用是必需的。
我们可以定义具有固定分布p(z)的随机变量Z并将其传递给参数函数gθ:Z\rightarrowX(通常是某种神经网络) 可以按照一定的分布Pθ直接生成样本,而不是估计可能不存在的P_r的密度。 通过改变θ,我们可以改变该分布并使它接近实际数据分布P_r。 这有两种用法。 首先,与密度不同,此方法可以表示局限于低维多样性的分布。 其次,容易生成样本的能力通常比知道密度的数值有用(例如,在考虑给定输入图像的情况下,当考虑输出图像的条件分布时,在图像超分辨率或语义分割中)。 通常,在给定任意高维密度的情况下,很难生成样本。
变体自动编码器(VAE)和生成对抗网络(GAN)是这种方法的众所周知的示例。 由于VAE专注于示例的近似可能性,因此它们共享标准模型的局限性,并且需要摆弄额外的噪声项。 GAN在目标函数的定义上提供了更大的灵活性,包括Jensen-Shannon ,all f-divergences以及一些奇异的组合。 另一方面,出于GAN中理论研究的原因,训练GAN众所周知,它微妙且不稳定。
在本文中,我们将注意力集中在测量模型分布和实际分布有多接近或等效地定义距离或散度ρ(P_θ,P_r)的各种方法上。 这种距离之间最根本的区别是它们对概率分布序列收敛的影响。 当且仅当存在一个分布P_{\infty} 使得ρ(P_t,P_\infty)趋于零时,分布序列(P_t)_{t\in N}才会收敛,这取决于距离ρ的精确定义。
为了优化参数θ,当然希望定义模型分布P_θ时能使映射θ\rightarrow P_\theta连续。连续性是指当一系列参数θ_t收敛到θ时,分布(P_θ)_t也收敛到P_θ。 但是,必须记住,分布收敛的概念(P_θ)_t取决于我们计算分布之间距离的方式。 该距离越弱,则定义从θ空间到P_θ空间的连续映射就越容易,因为分布的收敛越容易。 这也是我们关心映射θ\rightarrow P_\theta的主要原因! 连续的P_θ如下。 如果ρ是我们在两个分布之间的距离的概念,则我们希望有一个损失函数θ\rightarrow ρ(P_θ,P_r)是连续的,这等效于当使用分布之间的距离ρ时,映射θ\rightarrow P_\theta是连续的。
本文的贡献是:
• 我们提供了与在学习分布中使用的流行概率距离和散度相比,Earth Mover(EM)距离的行为的综合理论分析。
• 我们定义了一种称为Wasserstein-GAN的GAN形式,该形式将EM距离的合理有效近似最小化,并且从理论上讲,相应的优化问题是合理的。
• 我们经验证明WGAN解决了GAN的主要培训问题。 特别地,训练WGAN不需要在鉴别器和生成器的训练中保持仔细的平衡,也不需要仔细设计网络体系结构。 大大减少了GAN中典型的模式下降现象。
WGAN最引人注目的实际好处之一是能够通过训练判别器达到最优来连续估计EM距离。 绘制这些学习曲线不仅对调试和超参数搜索很有用,而且与观察到的样本质量也具有显著的相关性。

不同的距离

现在我们介绍一下符号。 令\chi为紧凑度量集(例如图像[0; 1]^d的空间),令\sum表示\chi的所有Borel子集的集合。 令Prob(\chi)表示在\chi上定义的概率测度的空间。 现在我们可以定义两个分布P_r,P_g\in Prob(\chi)之间的基本距离和散度:

  • The Total Variation(TV) distance
    \delta (\mathbb{P}_r,\mathbb{P}_g)=sup_{A\in \sum}|\mathbb{P}_r(A)-\mathbb{P}_g(A)|
  • The Kullback-Leibler(KL) divergence
    KL(\mathbb{P}_r|\mathbb{P}_g) = \int log(\dfrac{P_r(x)}{P_g(x)}) p_r(x)d\mu (x)
    相对于在\chi上定义的同一度量µ,假定\mathbb{P}_r\mathbb{P}_g都是绝对连续的,因此可以使用密度。众所周知,当存在点P_ g(x)=0和P_r(x)>0时,KL散度是非对称的,并且可能是无限大的。
  • The Jensen-Shannon(JS) divergence
    JS(\mathbb{P}_r,\mathbb{P}_g) = KL(\mathbb{P}_r|\mathbb{P}_m)+KL(\mathbb{P}_g|\mathbb{P}_m)
    其中\mathbb{P}_m等于\dfrac{(\mathbb{P}_r+\mathbb{P}_g)}{2}。由于我们可以选择\mu = \mathbb{P}_m,所以这种散度是对称的,并且始终是定义好的。
  • The Earth-Mover(EM) distance or Wasserstein-1

W(\mathbb{P}_r,\mathbb{P}_g) = inf_{\tau \in \prod(\mathbb{P}_r,\mathbb{P}_g)}\mathbb{E}_{(x,y)\sim \tau}[||x-y||] \tag 1
其中\prod(\mathbb{P}_r,\mathbb{P}_g)表示边缘分别为\mathbb{P}_r\mathbb{P}_g的所有联合分布\tau (x,y)的集合。直观地,\tau (x,y)表示从x到y传输多少才能将分布\mathbb{P}_r转换为分布\mathbb{P}_g。EM距离就是优化转换的成本。
以下示例说明了概率分布的简单序列在EM距离下如何收敛而在上面定义的其他距离和散度下没有收敛。

示例1(学习平行线)。

令Z〜U [0; 1]单位间隔上的均匀分布。 令\mathbb{P}_0(0, Z)\in \mathbb{R}^2的分布(x轴为0,y轴为随机变量Z),在通过原点的垂直直线上均匀。 现在让gθ(z)=(θ; z),θ为单个实参。很容易看到这种情况:
W(\mathbb{P}_0,\mathbb{P}_\theta) = |\theta|
JS(\mathbb{P}_0,\mathbb{P}_{\theta})=\left\{ \begin{array}{c} log2 \quad if\ \theta \neq0,\\ 0 \qquad if\ \theta = 0, \end{array} \right.
KL(\mathbb{P}_0||\mathbb{P}_{\theta})=\left\{ \begin{array}{c} +\infty \quad if\ \theta \neq0,\\ 0 \qquad if\ \theta = 0, \end{array} \right.
\delta (\mathbb{P}_0,\mathbb{P}_\theta) = \left\{ \begin{array}{c} 1 \qquad if\ \theta \neq 0 , \\ 0 \qquad if\ \theta = 0, \end{array} \right.
\theta \rightarrow 0,序列((\mathbb{P}_θ)_t)_{t\in N}在EM距离下收敛到\mathbb{P}_0,但在JS,KL,反向KL或TV发散下根本不收敛。
下图说明了EM和JS距离的情况。

EM/JS

示例1给出了一个案例,其中我们可以通过对EM距离进行梯度下降来学习低维流形上的概率分布。 这不能用其他距离和散度来完成,因为所得的损失函数甚至不是连续的。 尽管此简单示例的特征是具有不连续支撑的分布,但是当支撑在一组零度量中包含非空交集时,得出相同的结论。 当两个低维流形在一般位置相交时,情况就是这样。
由于Wasserstein距离远小于JS距离,因此我们现在可以假设
W(\mathbb{P}_r,\mathbb{P}_θ)
为θ的连续损失函数。正如我们现在陈述和证明的那样,这甚至是更多。

定理1

\mathbb{P}_r\chi上的固定分布。令Z为另一空间Z上的随机变量(例如高斯)。令g:Z×\mathbb{R}^d\rightarrow \chi是一个函数,它将以g_θ(z)表示,其中z为第一个坐标,θ为第二个坐标。 令\mathbb{P}_θ表示\mathbb{g}_θ(Z)的分布。 然后:

  • 1.如果g在θ中是连续的,则W(\mathbb{P}_r,\mathbb{P}_θ)也是如此。
  • 2.如果g是局部Lipschitz并且满足正则性假设,则W(\mathbb{P}_r,\mathbb{P}_θ)在任何地方都是连续的,并且几乎在任何地方都是可微的。
  • 3.对于Jensen-Shannon发散JS(\mathbb{P}_r,\mathbb{P}_θ)和所有KL,陈述1-2为假。
推论1

g_θ是由θ参数化的任何前馈神经网络,并且p(z)在z之前具有先验,使得E_{z〜p(z)}[||z||] <\infty(例如,高斯,均匀等),则满足假设1 因此W(\mathbb{P}_r,\mathbb{P}_θ)在任何地方都是连续的,几乎在任何地方都是可微的。
所有这些都表明,对于我们的问题,EM至少比Jensen-Shannon散度更有意义。 以下定理描述了由这些距离和差异导致的拓扑的相对强度,其中KL最强,其次是JS和TV,而EM最弱。

定理2

\mathbb{P}作为压缩空间\chi上的分布,而(\mathbb{P}_n)_{n\in N}为x上分布的序列。然后让n\rightarrow \infty:
1.以下等式等价:
\delta(\mathbb{P}_n,\mathbb{P})\rightarrow0 \qquad \delta为TV距离
JS(\mathbb{P}_n,\mathbb{P})\rightarrow0\qquad \ JS是JS散度
2.以下语句等效:
W(\mathbb{P}_n,\mathbb{P})\rightarrow 0
\mathbb{P}_n \overset{D}\rightarrow\mathbb{P}\qquad当\overset{D}\rightarrow表示随机变量分布的收敛性
3.KL(\mathbb{P}_n||\mathbb{P}) \rightarrow \ 0 \ or \ KL(\mathbb{P}||\mathbb{P}_n)\rightarrow 0表示1中的语句

  1. 1中的描述暗含2中的描述
    这突显了以下事实:在学习由低维流形支持的分布时,KL,JS和TV距离不是明智的成本函数。
    但是,在该设置中,EM距离是明智的。 显然,这将引导我们进入下一部分,在该部分我们将介绍优化EM距离的实用方法 。

Wasserstein GAN

定理2指出了一个事实,即优化后的W(\mathbb{P}_r,\mathbb{P}_θ)可能比JS(\mathbb{P}_r,\mathbb{P}_θ)具有更好的属性。 并且,(1)中的极难处理。另一方面,Kantorovich-Rubinstein duality告诉我们 :
W(\mathbb{P}_r,\mathbb{P}_\theta) = \underset{||f||_L\le1}{sup}\mathbb{E}_{x\sim\mathbb{P}_r}[f(x)]-\mathbb{E}_{x\sim\mathbb{P}_\theta}[f(x)] \tag 2
其中上采样所有的1-Lipschitz函数f:\chi \rightarrow \mathbb{R}。如果将||f||_L \le1替换为||f||_L \le K(考虑常数K的K-Lipschitz),然后最终得到K*W(\mathbb{P}_r,\mathbb{P}_g)。因此,如果我们有一个参数化的函数群({f_w})_{\omega\in W},他们对于某些K都是K-Lipschitz,我们可以考虑解决这个问题:
\underset{\omega \in W}{max}\mathbb{E}_{x\sim\mathbb{P}_r}[f_\omega (x)]-\mathbb{E}_{z\sim p(z)}[f_\omega(g\theta(z)]

定理3

\mathbb{P}_r是任意分布,\mathbb{P}_\thetag\theta(Z)的分布,其中Z为密度p的随机变量,而g\theta为满足假设1的函数。那么对于这个问题有一个解f:\chi \rightarrow \mathbb{R}
\underset{||f||_L \le 1}{max}\mathbb{E}_{x\sim\mathbb{P}_r}[f(x)]-\mathbb{E}_{x\sim\mathbb{P}_\theta}[f(x)]
我们有
\nabla_\theta W(\mathbb{P}_r,\mathbb{P}_\theta)=-\mathbb{E}_{z\sim p(z)}[\nabla_\theta f(g\theta (z))]
当两个术语都定义明确。
现在出现的问题是寻找解决方程(2)中最大化问题的函数f。 粗略地估算一下,我们可以做的就是训练一个参数神经网络,其权重\omega位于紧凑空间W中,然后通过E_{z〜p(z)}[\nabla_θf_\omega(gθ(z))]反向传播,就像我们做的那样 典型的GAN。 请注意,W是紧凑的事实意味着,对于仅依赖于W而不取决于单个权重的某些K,所有函数f_\omega均为K-Lipschitz,因此近似于(2)直至不相关的缩放因子和' 评论家'f_\omega的能量。 为了使参数\omega位于紧凑的空间中,我们可以做的简单的事情是在每次梯度更新后将权重强加到固定的框上(例如W = [-0.01, 0.01]^l)。 Wasserstein生成对抗网络(WGAN)过程在算法1中进行了描述。
权重削减是强制执行Lipschitz约束的一种很糟糕的方法。 如果裁剪参数很大,那么任何权重都可能需要很长时间才能达到其极限,因此很难训练评论者,直到达到最优为止。 如果裁剪较小,则当层数很大或不使用批归一化时(例如在RNN中),很容易导致梯度消失。 我们尝试了几乎没有差异的简单变体(例如将权重投射到球体上),并且由于其简单性和良好的性能,我们坚持使用权重裁剪。

Alogorithm

EM距离是连续且可微的意味着我们可以(并且应该)训练评论家,直至达到最佳状态。 论点很简单,我们对评论家的训练越多,我们得到的Wasserstein的梯度就越可靠,这实际上是因为Wasserstein几乎在任何地方都可以区分。
对于JS,随着判别器变得更好,梯度变得更可靠,但由于JS局部饱和并且我们得到消失的梯度,因此真实梯度为0,如本文的图1的定理4所示。 在下图中,我们显示了这一概念的证明,其中我们训练了GAN鉴别器和WGAN评论家,直到达到最优。鉴别器很快就会学会区分真假,并且按预期没有提供可靠的渐变信息。但是,评论家无法饱和,而是会收敛到一个线性函数,该函数在任何地方都具有非常清晰的渐变。 我们限制权重的事实限制了函数在空间的不同部分最多可能呈线性增长的可能性,从而迫使最佳评论家必须具有这种行为。也许更重要的是,我们可以训练评论家直到达到最优,这一事实使得我们无法在崩溃时崩溃。 这是由于这样的事实,模式崩溃源于以下事实:固定标识符的最佳生成器是标识符分配最高值的点的增量之和,如[4]所观察到并在[11]中突出显示。
WGAN\GAN

在以下部分中,我们将展示新算法的实际好处,并且将其行为与传统GAN的行为进行深入比较。

实验结果

我们使用Wasserstein-GAN算法进行图像生成实验,结果表明,与标准GAN中使用的配方相比,使用它具有明显的实际好处。
我们声称有两个主要好处:
• 与发生器的收敛性和样品质量相关的有意义的损耗指标
• 优化过程的稳定性得到改善

实验步骤

我们进行图像生成实验。 要学习的目标分布是LSUN卧室数据集{室内卧室自然图像的集合。
我们的基线比较是DCGAN,这是一种具有卷积架构的GAN,使用-log D技巧通过标准GAN程序进行训练。 生成的样本是尺寸为64x64像素的3通道图像。 我们在所有实验中均使用算法1中指定的超参数。


对比

在训练的不同阶段的训练曲线和样本。 我们可以看到,较低的误差与较好的样品质量之间存在明显的相关性。 左上方:生成器是一个MLP,具有4个隐藏层,每层512个单元。 损失随着训练的进行和样品质量的提高而不断减少。 右上:生成器是标准的DCGAN。 损耗迅速降低,样品质量也提高。 在上面的两个图中,评论家都是没有S型曲线的DCGAN,因此可以对损失进行比较。
下半部分:生成器和鉴别器都是学习率很高的MLP(因此训练失败)。 损耗是恒定的,样本也是恒定的。 训练曲线通过中值滤波器以进行可视化。

有意义的损耗度量

因为WGAN算法尝试在每次生成器更新之前(算法1中的第10行)相对较好地训练评论家f(算法1中的第2 {8行),所以此时的损耗函数是EM距离的估计, 直至与我们约束f的Lipschitz常数的方式相关的常数因子。
我们的第一个实验说明了此估算值与生成的样本质量之间的相关性。 除了卷积DCGAN架构外,我们还进行了实验,用具有512个隐藏单元的4层ReLU-MLP替换了生成器或生成器和评论家。
图3绘制了所有三种架构在WGAN训练期间EM距离的WGAN估计值的演变。 这些图清楚地表明,这些曲线与生成的样本的视觉质量很好地相关。
据我们所知,这是GAN文献中首次显示这种性质,其中GAN的丢失显示了收敛性质。 当在对抗网络中进行研究时,此属性非常有用,因为不需要盯着生成的样本来找出失效模式并获得有关哪些模型比其他模型更好的信息。
但是,我们并不声称这是一种定量评估生成模型的新方法。 取决于评论者架构的恒定比例因子意味着很难将模型与不同评论家进行比较。 更重要的是,实际上评论家没有无限的能力,这使得我们很难知道我们的估计实际上与EM距离有多接近。 话虽如此,我们已经成功地使用了损失指标来反复验证我们的实验而没有失败,并且我们认为这是对训练以前没有这种功能的GAN的巨大改进。
相反,下图绘制了GAN训练期间JS距离的GAN估计值的演变。 更准确地说,在GAN训练过程中,对鉴别器进行训练以使其最大化:
L(D,g_\theta) = \mathbb{E}_{x\sim \mathbb{P}_r}[log\ D(x)]+\mathbb{E}_{x\sim \mathbb{P}_\theta}[log(1-\ D(x))]
在图中绘制的是\dfrac{1}{2}L(D,g\theta)+log2的量,这是JS距离的下限。
该数量显然比样品质量差。 另请注意,JS估算值通常保持恒定或上升而不是下降。 实际上,它经常保持非常接近log 2≈0.69,这是JS距离的最大值。 换句话说,JS距离已饱和,鉴别器的损失为零,所生成的样本在某些情况下是有意义的(DCGAN生成器,右上图),而在其他情况下则崩溃为单个无意义的图像[4]。 最后一种现象已在[1]中进行了理论解释,并在[11]中进行了重点介绍。
当使用− log D技巧[4]时,鉴别器损耗和发生器损耗是不同的。 附录E中的图8报告了用于GAN训练的相同图,但是使用生成器损耗而不是鉴别器损耗。 这不会改变结论。
最后,作为一个消极的结果,我们报告说,当有人使用评论家的基于动量的优化器(例如Adam(β1> 0),或者有人使用较高的学习率)时,WGAN训练变得不稳定。 由于评论家的损失是不稳定的,因此基于动量的方法似乎表现较差。 我们将动量确定为潜在原因,因为随着损耗增加并且样本变差,Adam阶跃与梯度之间的余弦通常变为负值。 余弦为负的唯一位置是在这些不稳定的情况下。 因此,我们改用了RMSProp ,即使在非常不稳定的问题上,RMSProp的性能也很好。

稳定性提升

WGAN的好处之一是,它使我们能够训练评论家,使其达到最佳状态。 当评论家被训练到完成时,它只会给生成器带来损失,我们可以像其他任何神经网络一样训练它。 这告诉我们,我们不再需要适当平衡生成器和鉴别器的容量。 评论家越好,我们用来训练生成器的渐变质量就越高。
我们观察到,当人们改变生成器的架构选择时,WGAN比GAN更加健壮。 我们通过在三种生成器体系结构上运行实验来说明这一点:
(1)卷积DCGAN生成器
(2)没有批量归一化并且具有恒定数量的滤波器的卷积DCGAN生成器
(3)4层ReLU -具有512个隐藏单位的MLP。
已知后两个在GAN上的表现非常差。 我们为WGAN评论家或GAN区分者保留卷积DCGAN架构。
下面图片显示了使用WGAN和GAN算法为这三种架构生成的样本。

image

在任何实验中,我们都没有看到WGAN算法模式崩溃的证据。

相关工作

有大量的工作叫做所谓的“整体概率指标”(IPM)。 给定\mathbb{F}一组从\chi\mathbb{R}的函数,我们可以定义:
d_\mathbb{F}(\mathbb{P}_r,\mathbb{P}_\theta)=\underset{f\in \mathbb{F}}{sup}\mathbb{E}_{x\sim \mathbb{P}_r }[f(x)]-\mathbb{E}_{x\sim \mathbb{P}_\theta [f(x)]} \tag 4

作为积分概率 容易证明,如果对于每个f∈F我们都有-f∈F(例如我们将考虑的所有示例),则d_F是非负的,满足三角不等式,并且是对称的。 因此,d_FProb(\chi)的伪度量。
虽然IPM似乎具有相似的公式,但是我们将看到不同的功能类别可能会导致根本不同的指标。

  • 通过Kantorovich-Rubinsteinduality ,我们知道当\mathbb{F}是1-Lipschitz函数的集合时,W(\mathbb{P}_r,\mathbb{P}_θ)= d_F(\mathbb{P}_r,\mathbb{P}θ)。 此外,如果F是K-Lipschitz函数的集合,我们得到·W(\mathbb{P}_r,\mathbb{P}_θ)= d_F(\mathbb{P}_r,\mathbb{P}_θ)

  • \mathbb{F}是在-1和1之间(或在-1和1之间的所有连续函数)的所有可测量函数的集合时,我们重新得到d_F(\mathbb{P}_r,\mathbb{P}_θ)=δ(\mathbb{P}_r,\mathbb{P}_θ)的总变化距离。这已经告诉我们,从1-Lipschitz函数到1-Bounded函数将极大地改变空间的拓扑,并且将d_{\mathbb{F}}(\mathbb{P}_r,\mathbb{P}_θ)的正则性作为损失函数。

  • Engergy-based GANs(EBGAN)可以看作是TV distance的生成方法。连接的核心是,鉴别器将发挥f最大化方程式(4)的作用,而对于某些常数m而言,它的唯一限制是在0和m之间。 这将获得与被限制在-1和1之间直至与优化无关的恒定缩放因子相同的行为。 因此,当鉴别器接近最优时,发生器的成本将接近TV diatance δ(\mathbb{P}_r,\mathbb{P}_θ)
    由于TV distance 显示出与JS相同的规律性,因此可以看出,EBGAN会遭受与经典GAN相同的问题,即无法训练区分器直至最优,从而将自身限制在非常不完美的梯度上。

  • 最大平均差异(MMD)是当\mathcal{F} = \{f∈\mathcal{H}:∥f∥_∞≤1\}时,\mathcal{H}与给定内核k:\chi *\chi \rightarrow \mathbb{R}相关的某些希尔伯特空间(RKHS)的整数概率度量的一种特殊情况。正如在MMD上证明的那样,我们知道MMD是一个适当的度量,而不仅仅是内核通用的伪度量。 对于\mathcal{X}上m的标准化Lebesgue测度,在\mathcal{H} = L^2(\chi,m)的特定情况下,我们知道f ∈ C_b(X),∥f\Vert_\infty<1将包含在\mathcal{F}中,因此d_\mathcal{F}(\mathbb{P}_r,\mathbb{P}_θ)≤δ(\mathbb{P}_r,\mathbb{P}_\theta),因此作为损耗函数的MMD距离的规律性至少会与TV distance一样差。尽管如此,这是一个非常极端的情况,因为我们需要一个非常强大的内核来近似整个L^2。 但是,最近证明,即使是高斯内核也能够检测到微小的噪声模式。 这表明一个事实,尤其是对于低带宽内核,该距离可能接近饱和状态,类似于总变化或JS。 显然,并非每个内核都如此,弄清楚如何以及哪些不同的MMD更接近Wasserstein或TV distance是一个有趣的研究主题。
    MMD的主要方面是,通过内核技巧,无需训练单独的网络即可最大化RKHS球的方程式(4)。 但是,这具有以下缺点:评估MMD距离的计算成本与用于估计(4)中期望值的样本数量成平方增长。 最后一点使MMD的可扩展性受到限制,并且有时由于它而不适用于许多现实生活中的应用程序。 对于MMD,存在线性计算成本的估计,这在很多情况下使MMD非常有用,但它们的样本复杂性也更差。

  • 生成力矩匹配网络(GMMN)是MMD的生成副本。 通过反向方程式(4)的核化公式,他们直接优化了d_{MMD}(\mathbb{P}_r,\mathbb{P}_θ)(当\mathcal{F}如前一项所述时的IPM)。 如上所述,其优点是不需要单独的网络来近似最大化方程式(4)。 但是,GMMNs的适用性有限。 对于不成功的部分解释是二次成本随样本数量和低带宽内核逐渐消失的数量而变化。 此外,实践中使用的某些内核可能不适合捕获高维样本空间(例如自然图像)中非常复杂的距离。要使典型的高斯MMD检验可靠(因为统计检验的功效接近1),我们就需要样本数与维数线性增长。 由于MMD的计算成本随着用于估计方程式(4)的批中样本数量的增加而平方增长,因此,使可靠的估计器的成本随着维数的数量呈平方增长,这使得它不适用于高维问题。 实际上,对于64x64图像的标准对象,我们需要的最小批处理尺寸至少为4096,并且每次迭代的总成本为 40962,使用64的标准批量时,比GAN迭代多5个数量级。

    话虽如此,从我们将GAN的经验样本复杂度与MMD的理论样本复杂度进行比较的意义上来说,这些数字对于MMD可能有点不公平。 但是,在原始GMMN论文中,他们的确使用了大小为1000的小批量,比标准的32或64大得多(即使这会导致二次计算成本)。 虽然存在具有线性计算成本随样本数量变化的函数的估计[5],但它们的样本复杂性更差,并且据我们所知,它们尚未应用于生成环境中,例如GMMN。

在另一项伟大的研究线上,Wasserstein训练受限的玻尔兹曼机器的最新工作探索了Wasserstein距离在离散空间受限玻尔兹曼机器学习中的应用。 乍一看,动机似乎大不相同,因为流形设置仅限于连续空间,而在有限的离散空间中,弱拓扑和强拓扑(分别为W和JS)重合。 但是,最终,在交流方面,我们的动机更多。 我们俩都希望通过利用基础空间的几何形状来比较分布,而Wasserstein允许我们做到这一点。
最后,论文随机优化用于大规模最优运输的工作展示了用于计算不同分布之间的Wasserstein距离的新算法。 我们认为这个方向非常重要,并且可能会导致评估生成模型的新方法。

我们介绍了一种我们认为WGAN的算法,它是传统GAN训练的替代方法。 在这个新模型中,我们证明了我们可以提高学习的稳定性,摆脱模式崩溃等问题,并提供有意义的学习曲线,这些曲线对于调试和超参数搜索非常有用。 此外,我们证明了相应的优化问题是合理的,并提供了广泛的理论工作,强调了与分布之间其他距离的深层联系。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,012评论 4 359
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,589评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,819评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,652评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,954评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,381评论 1 210
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,687评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,404评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,082评论 1 238
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,355评论 2 241
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,880评论 1 255
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,249评论 2 250
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,864评论 3 232
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,007评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,760评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,394评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,281评论 2 259