GPflow解读—VGP

问题

将GP与不同的似然函数结合可以构建非常灵活的模型,然而这会使得模型的推理变得不可解(intractable),因为似然函数不再是高斯过程的共轭。所以我们需要变分推理来近似f的后验分布或者MCMC方法从f后验分布来采样,从而预测在新的点的函数值。

GPflow.models.VGP就实现了变分推理方法。

模型

从完全的贝叶斯角度看,一般GP模型的数据生成过程可以表示为:
\theta \sim p(\theta)
f \sim \mathcal {GP}\Big(m(x; \theta), k(x, x'; \theta)\Big)
y_i \sim p\Big(y | g(f(x_i)\Big)

首先从\theta的先验分布采样一个\theta,然后从高斯分布得到一组隐函数f,然后再由一个连接函数g(\cdot)映射到观测函数y

模型推理

首先明确我们要求的是f_\ast的后验分布

p(f_\ast | \bm{x}_\ast, \bm{X}, \bm{y}) = \int p(f_\ast | \bm{x}_\ast, \bm{X}, \bm{f}) p(\bm{f} | \bm{X}, \bm{y}) ~d{\bm{f}} (1)

(1)中通常p(\bm{f} | \bm{X}, \bm{y})是个非高斯分布,因此不好求积分。我们的目的就是用一个高斯分布来近似p(\bm{f} | \bm{X}, \bm{y})。这个高斯分布Opper and Archambeau已经在论文中给出:

\hat q(\mathbf f) = \mathcal N\left(\mathbf m, [\mathbf K^{-1} + \textrm{diag}(\boldsymbol \lambda)]^{-1}\right) (2)

其中我们根据Opper and Archambeau的建议将\mathbf m写为\mathbf m = \mathbf K \boldsymbol \alpha, 同时为保证方差为正,将\lambda写为\lambda^2。于是有

\hat q(\mathbf f) = \mathcal N\left(\mathbf K \boldsymbol \alpha, [\mathbf K^{-1} + \textrm{diag}(\boldsymbol \lambda)^2]^{-1}\right) (3)

只要把\hat q(\mathbf f)中的参数都求出来,问题就解决了。如何求参数呢?最大化\log p(\mathbf X)的ELBO即可。

现在来求\log p(\mathbf X)的ELBO。参考Variational Inference: A Review for Statisticians,我们知道




对应地,在这里有
\textrm{ELBO} = \sum_n\mathbb E_{q(f_n)}\left[ \log p(y_n\,|\,f_n)\right] - \textrm{KL}\left[q(\mathbf f)||p(\mathbf f)\right] (4)

Marginals of q(\mathbf f)

给定q(\mathbf f),如何快速稳定地求出这个高斯分布的边际分布q(f_1), q(f_2),...,q(f_n)?均值很好解,协方差矩阵则需要求两次矩阵逆运算。

\boldsymbol \Lambda = \textrm{diag}(\boldsymbol \lambda)\boldsymbol \Sigma 为协方差矩阵 \boldsymbol \Sigma = [\mathbf K^{-1} + \boldsymbol \Lambda^2]^{-1}。根据矩阵逆引理,有
\boldsymbol \Sigma = [\mathbf K^{-1} + \boldsymbol \Lambda^2]^{-1}

= \boldsymbol \Lambda^{-2} - \boldsymbol \Lambda^{-2}[\mathbf K + \boldsymbol \Lambda^{-2}]^{-1}\boldsymbol \Lambda^{-2}

= \boldsymbol \Lambda^{-2} - \boldsymbol \Lambda^{-1}\mathbf A^{-1}\boldsymbol \Lambda^{-1}

其中 \mathbf A = \boldsymbol \Lambda\mathbf K \boldsymbol \Lambda + \mathbf I

则我们只需求一次逆,且由于A的特征值上界是1(为什么?)故数值计算是稳定的。

KL divergence

通过与上面类似的处理,KL距离可以写为
\textrm{KL} = -0.5 \log |\boldsymbol \Sigma| + 0.5 \log |\mathbf K| +0.5\mathbf m^\top\mathbf K^{-1}\mathbf m + 0.5\textrm{tr}(\mathbf K^{-1} \boldsymbol \Sigma) - 0.5 N

又由于\textrm{tr}(\mathbf K^{-1} \boldsymbol \Sigma) = \textrm{tr}(\mathbf A^{-1}) |\mathbf K^{-1} \boldsymbol \Sigma| = |\mathbf A^{-1}|,所以有
\textrm{KL} = 0.5 (\log |\mathbf A| +\boldsymbol \alpha^\top\mathbf K\boldsymbol \alpha + \textrm{tr}(\mathbf A^{-1}) - N)\,.

不过这个表达式仍不十分完美,因为我们要求 \mathbf A^{-1}。理论上用extra backsubstitution (into the identity matrix)可以更快(为什么?),但在tensorflow中貌似不是这样的。

预测

现在再回到(1),我们有
q(f^\ast \,|\,\mathbf y) = \int \mathcal N(f^\ast \,|\, \mathbf K_{\ast}\mathbf K^{-1}\mathbf f,\, \mathbf K_{\ast\ast} - \mathbf K_{\ast}\mathbf K^{-1}\mathbf K_{\ast})\mathcal N (\mathbf f\,|\, \mathbf K \boldsymbol\alpha, \boldsymbol \Sigma)\,\textrm d \mathbf f
根据高斯条件边际概率规则,有
q(f^\ast \,|\,\mathbf y) = \mathcal N\left(f^\ast \,|\, \mathbf K_{\ast}\boldsymbol \alpha,\, \mathbf K_{\ast\ast} - \mathbf K_{\ast}(\mathbf K^{-1} - \mathbf K^{-1}\boldsymbol \Sigma\mathbf K^{-1})\mathbf K_{\ast}\right)
根据矩阵逆引理,有
q(f^\ast \,|\,\mathbf y) = \mathcal N\left(f^\ast \,|\, \mathbf K_{\ast}\boldsymbol \alpha,\, \mathbf K_{\ast} - \mathbf K_{\ast}[\mathbf K + \boldsymbol \Lambda^2]^{-1}\mathbf K_{\ast}\right)

参数优化

同GPR模型一样的问题,我们采用什么原则优化超参数呢?
答案是最大化模型超参数\theta的后验概率p(\theta|X, y)= \frac{p(y|X,\theta)p(\theta)}{p(y|X)}。同样由于分母无法计算且是关于\theta的常数,因此最大化分子部分。由于ELBO是p(y|X,\theta)的下界,因此分子部分的下界是ELBO和超参数先验分布p(\theta)的乘积。

代码解读

VGP_opper_archambeau._build_likelihood()实现的就是ELBO(4)

然后再用优化算法,求出使p(y|X,\theta)p(\theta)最大化的隐函数和模型超参数。

参考文献

[1] GPflow notebook: /GPflow-master/doc/source/notebooks/vgp_notes.ipynb
[2] Opper, Manfred, and Cédric Archambeau. "The variational Gaussian approximation revisited." Neural computation 21.3 (2009): 786-792.
[3] Blei, David M., Alp Kucukelbir, and Jon D. McAuliffe. "Variational inference: A review for statisticians." Journal of the American Statistical Association 112.518 (2017): 859-877.

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 151,511评论 1 330
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 64,495评论 1 273
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 101,595评论 0 225
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 42,558评论 0 190
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 50,715评论 3 270
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 39,672评论 1 192
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,112评论 2 291
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 29,837评论 0 181
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 33,417评论 0 228
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 29,928评论 2 232
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,316评论 1 242
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 27,773评论 2 234
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,253评论 3 220
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 25,827评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,440评论 0 180
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 34,523评论 2 249
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 34,583评论 2 249

推荐阅读更多精彩内容

  • 高斯过程回归 (GPR) 首先定义一个输入空间X,定义一个函数f,它将X上的点映射到空间F。 F上的每个点都是一个...
    我就爱思考阅读 3,394评论 0 1
  • 文章作者:Tyan博客:noahsnail.com[http://noahsnail.com] | CSDN[ht...
    SnailTyan阅读 56,844评论 6 96
  • 目录 [TOC] 引言 量化交易是指以先进的数学模型替代人为的主观判断,利用计算机技术从庞大的历史数据中海选能带来...
    雷达熊阅读 941评论 0 2
  • 问题 将GP与不同的似然函数结合可以构建非常灵活的模型,然而这会使得模型的推理变得不可解(intractable)...
    我就爱思考阅读 1,702评论 0 0
  • 初为云,凭劲风浮于九天之上, 复为雨,携奔雷驰向穹顶之下, 遇烈日,激荡成雾,散漫于天地之间, 遭北风,凝实为露,...
    陌邬阅读 137评论 0 0