模拟上帝之手的对抗博弈——GAN背后的数学原理

作者:温利武    班级:1402019      学号:14020199041

【嵌牛导读】:深度学习的潜在优势就在于可以利用大规模具有层级结构的模型来表示相关数据所服从的概率密度。从深度学习的浪潮掀起至今,深度学习的最大成功在于判别式模型。判别式模型通常是将高维度的可感知的输入信号映射到类别标签。训练判别式模型得益于反向传播算法、dropout和具有良好梯度定义的分段线性单元。然而,深度产生式模型相比之下逊色很多。这是由于极大似然的联合概率密度通常是难解的,逼近这样的概率密度函数非常困难,而且很难将分段线性单元的优势应用到产生式模型的问题。基于以上的观察,作者提出了产生对抗网络。

【嵌牛鼻子】:对抗网络

【嵌牛提问】:对抗网络背后的数学原理

【嵌牛正文】:。顾名思义,产生对抗网络包含两个网络:产生器和判别器。产生器负责伪造一些数据,要求这些数据尽可能真实(尽可能服从只有上帝知道的概率分布),而判别器负责判别给定数据是伪造的(来自产生器生成的数据),还是来自由上帝创造的真实分布。至此,我们不得不佩服作者如此的问题形式化。整个过程中就是在博弈。产生器尽可能伪造出真实的数据,而判别器尽可能提高自身的判别性能。

这样一种问题形式化实际上是一种通用框架,因为判别器和生成器可以是任何一种深度模型。为了简单起见,该篇文章只利用多层感知机,而且生成器所生成的样本是由随机噪声得到的。利用这种方法,整个模型的训练融入了之前无法利用的反向传播算法和dropout. 这个过程中不需要近似推测和马尔科夫链。

产生对抗网络

这部分将具体介绍产生对抗网络模型,并详细推导出GAN的优化目标。

简单起见,生成器和判别器都基于多层感知神经元。对于生成器,我们希望它是一个由噪声到所希望生成数据的一个映射;对于判别器,它以被考查的数据作为输入,输出其服从上帝所定义的概率分布的概率值。下图清晰地展示了这个过程。

假设我们有包含m个样本的训练集

. 此外,任给一种概率密度函数

(当然,在保证模型复杂度的前提下,相应的概率分布越简单越好),我们可以利用随机变量

采样得到m个噪声样本

. 由此,我们可以得到似然函数


进一步,得到对数似然


由大数定律,当m→∞时,我们用经验损失来近似期望损失,得

回到我们的初衷:整个过程中就是在博弈。产生器尽可能伪造出真实的数据,而判别器尽可能提高自身的判别性能。注意到我们刚刚构造的似然函数是针对判别器D(⋅)的优化目标函数。因此,我们一方面希望对判别器的可学习参数优化,极大化对数似然函数,另一方面我们希望对判别器的可学习参数优化,极小化对数似然函数。将此形式化得到我们的优化目标:

相关理论结果

生成器G(⋅)实际上隐式定义了一个概率分布pg,将其称之为隐式是因为G是从噪声

到样本G(z)的映射。由此,我们自然会提出一个问题:通过这样的建模以及训练方式得到的pg能否最终达到上帝创造的那个分布pdata,或者说两者差距到底多少?

这个问题由下面的命题和定理回答。

首先,任意给定生成器G,我们考虑最优判别器D.

命题1. 对于给定G,最优判别器为

证明.

给定G,我们目标是最大化V(G,D)

其中,χ和Ω分别为x和z的积分域或者说是样本空间。

注意到第二项,利用映射关系x=G(z),我们可以得到

这一步并不显然。(详细推导见附录C:测度论中随机变量的换元)

所以,

由于G已经给定,上帝创造的分布也是确定的,因此pdata和pg都是非零定函数,我们的目标是找到一个函数D使得V(G,D)到达最大。因此,我们对D求变分(见附录A),令其为0,可以得到,极大值点

证毕。

有了这个定理,我们可以进一步将这个min max博弈重新形式化为最小化C(G),其中

下面,我们提出并证明定理1. 由此回答本节最开始提出的问题:通过这样的建模以及训练方式得到的pg能否最终达到上帝创造的那个分布pdata,或者说两者差距到底多少?

定理1. 对于C(G)的全局优化最小值可达,当且仅当pg=pdata,并且最小值为−log4.

证明.

等号成立的条件为

(见附录B)

证毕。

由此可见,生成器完美地浮现了上帝创造数据的过程!

下面我们正式给出GAN训练算法流程,如下图所示。

注意到,作者给出的算法和我们的优化目标并不一致。我们推导出的优化目标,是先对D优化并将其优化到底,然后再对G优化。之所以实际训练流程与其不一致,是因为实际中如果对D优化到底,这将会导致很高的计算代价,而且通常会导致过拟合。相反,该算法是先对D优化k步,然后再进行一步对G的优化。通过这种方法,只要G变化得足够慢,D总是在最优解的附近。自然地,我们会提出一个疑问,这样交叉地训练G和D和形式化得到的minmax博弈,两者得到的解差距有多少?这个问题由下面的命题回答。

我们不加证明地给出该算法的收敛性。

命题2. 假设G和D有足够的表达能力,并且假设算法1的每一步,给定G,D都可以达到最优,并且pg依照下面目标优化

那么,pg可以收敛到pdata.

我们通过下面的示意图,可以更加直观地理解整个训练的过程。

最下面的水平线代表噪声的域,x代表样本的域。可以看到G(z)将一个从均匀分布采集到的样本映射到了非均匀分布的支撑集上去了。绿色的曲线代表x=G(z)的概率密度函数pg;黑色曲线代表上帝创造的概率密度函数pdata;蓝色的曲线代表判别概率函数D。(a)接近收敛时,可以看到判别函数D是部分正确的;(b)此时进行算法的内循环优化,即对于当前状态的G,优化D,优化结果如(b)图的蓝线所示;(c)进行完内循环优化后,固定D,对G进行优化,可以看到D的梯度驱使G走向D的分界面;(d)最后,如果G和D都具有足够的表达能力,两者会达到一个平衡,即pg=pdata,此时判别器无法区分两者,即D(x)=1/2.

实验效果

下面我们来欣赏一下伪装上帝的效果吧!

每张图的最右侧一栏是在训练集中的与生成样本的最近邻样本。可见,模型在没有记忆训练集的情况下生成了多样化的类似风格的图片。不像其他生成模型的可视化那样,这些图片都是由模型分布直接生成的,而不是利用条件概率的方法。并且,这些图片不像利用马尔科夫链采样过程那样所生成的图像之间是不相关的。(a)(b)(c)(d)依次是MNIST, TFD, CIFAR-10(全连接模型), CIFAR-10(卷积判别器和反卷积生成器)

附录

A.K-L散度

在概率论和信息论中,K-L散度,也称之为信息增益,是衡量两个概率分布差异的一种“度量”。我们首先给出K-L散度的定义。分为离散形式和连续形式。

对于离散形式,给定两个离散型随机变量所对应的概率函数P和Q,两者的K-L散度定义为

对于连续形式,给定两个连续型随机变量所对应的概率密度p和q,两者的K-L散度定义为

定义很抽象,下面我们对其进行直观的解读。注意到之所以这种“度量”是加引号的,因为它并不符合数学上真正度量的公理之一,即对称性。也就是说DKL(p∥q)≠DKL(q∥p). 那么前后位置的差异代表什么实际含义呢?

前置位,如定义式中的P(或p)可以理解为数据的真实分布,而Q(或q)是模型对真实分布的一种近似。另一种理解是,DKL(P∥Q)表示从先验Q到后验P带来的信息增益。

K-L散度有如下几个重要性质:

(1) K-L散度是具有良好定义的,当且仅当,当对于某些x,q(x)=0, 一定有p(x)=0;

(2) 对于某些x,当p(x)=0,一定有

(因为limx→0xlnx=0)

(3)DKL(p∥q)≥0 等号成立的条件是p=q.

下面证明一下最后一条性质。

证毕。

B.泛函变分

泛函变分实际上是函数微分的一种自然的推广。

对于给定泛函

其中

我们可以仿照泰勒公式,定义泛函的展开形式,对于任意η(⋅),

其中x=G(z).

我们首先定义测度空间

,其中

为z的样本空间,F为σ-代数。进一步,易证G(⋅)是可测函数:

,其中

为x的样本空间,G为的σ-代数。因此,我们有

其中PG为x的分布。

证毕。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 160,165评论 4 364
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,720评论 1 298
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,849评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,245评论 0 213
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,596评论 3 288
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,747评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,977评论 2 315
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,708评论 0 204
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,448评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,657评论 2 249
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,141评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,493评论 3 258
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,153评论 3 238
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,108评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,890评论 0 198
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,799评论 2 277
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,685评论 2 272

推荐阅读更多精彩内容