【机器学习技术】高斯过程初探

概述

高斯过程是基于统计学习理论和贝叶斯理论发展起来的一种机器学习方法,适于处理高维度、小样本和非线性等复杂回归问题,且泛化能力强,与神经网络、支持向量机相比,GP具有容易实现、超参数自适应获取、非参数推断灵活以及输出具有概率意义等优点。
在统计学和机器学习两个领域中,一些基本理论和算法是共享通用的,但统计学的一个基本关注点在于对数据和模型关系之间的理解,而机器学习的目标主要是用于更准确的预测和对学习算法行为的理解上。机器学习是一种黑盒算法,而统计学更希望得到模型的理论解释。高斯过程模型在某种层面将统计学和机器学习联系到了一起,我们将看到,高斯过程在数学上等价于很多有名的模型,包括贝叶斯线性模型、样条模型、合适条件下的神经网络,并且其也与支持向量机有密切的联系。

随机过程基本概念

随机过程是一个比随机变量更广泛的概念。在概率论中,通常研究一个或多个这样有限个数的随机变量,即使在大数定律和中心极限定理中考虑了无穷多个随机变量,但也要假设随机变量之间互相独立。而随机过程主要是研究无穷多个互相不独立的、有一定相关关系的随机变量。随机过程就是许多随机变量的集合,代表了某个随机系统随着某个指示向量的变化,这个指示向量常用的是时间向量。

高斯过程

随机过程可以用一个随机变量簇{X(t,w), t∈T}来表示,而高斯过程区别于其他随机过程的地方就在于从这个随机变量簇中任意抽取有限个指标(如n个,t1,…tn)所得到的变量构成的向量(X_t1,..., T_tn)的联合分布为多维高斯分布。在一个高斯过程中,输入空间的每一个点都关联了一个服从高斯分布的随机变量,而任意有限个这些随机变量的组合的联合概率也服从高斯分布。当指示向量t是二维或多维时,高斯过程就变成了高斯随机场GRF。对高斯过程的刻画,如同高斯分布一样,也是用均值和方差来刻画。通常在应用高斯过程f~GP(m,K)的方法中,都是假设均值m为零,而协方差函数K则是根据具体应用而定。

线性回归模型和高斯过程模型的关系

在贝叶斯线性回归模型y(x,w) = wT·φ(x)中,先给定w的先验分布p(w)=N(w|0, α^(-1)I),然后得到y(x,w)的对应的先验分布。给定训练数据集,计算w上的后验概率分布,从而得到和回归函数对应的参数的后验概率分布。
得到模型的向量形式是y=Φ·w,这个式子说明y=(y1,...,yn)相当于是高斯变量w的线性组合,因此y也服从高斯分布,进而得到y的期望和方差:E[y]=Φ·E[w]=0cov[y]=E[y·yT]=Φ·E[w·wT]ΦT=Φ·ΦT/α=K
所以,线性回归可以看做是高斯过程的一个特殊例子,这里的高斯过程体现在函数y(x)上,对任意给定的n个样本构成的(y1,...,yn)的联合分布都是高斯分布,因此可以认为y(x)就是服从高斯过程分布的。

高斯过程回归

在高斯过程的观点中,抛弃参数模型,直接定义函数上的先验概率分布。乍一看来,在函数组成的不可数的无穷空间中对概率分布进行计算似乎很困难。但是,正如我们将看到的那样,对于一个有限的训练数据集,我们只需要考虑训练数据集合测试数据集的输入xn处的函数值即可,因此在实际应用中我们可以在有限空间中进行计算。
在高斯过程回归中,不用指定f(x)的具体形式,n个训练数据的观测值(y1,…,yn)被认为是从某个多维(n维)的高斯分布中采样出来的一个点(n维),而类似的f(x)也可以认为是从高斯过程中采样得到的一个无穷维的点。

高斯过程回归建模阶段的推导:

给定训练数据x1,...,xn,其对应的函数值是y1,...yn。
假设对观测t建模为某个目标函数y(x),加上高斯噪声:
<a href="http://www.codecogs.com/eqnedit.php?latex=t=y(x)+N(0,{\beta}^{-1})" target="_blank">

t=y(x)+N(0,{\beta}^{-1})
t=y(x)+N(0,{\beta}^{-1})
</a>
于是目标变量t的联合概率分布为:
<a href="http://www.codecogs.com/eqnedit.php?latex=p(\mathbf{t}|\mathbf{y})=N(\mathbf{t}|\mathbf{y},\beta^{-1}\mathbf{I}_N)" target="_blank">
p(\mathbf{t}|\mathbf{y})=N(\mathbf{t}|\mathbf{y},\beta^{-1}\mathbf{I}_N)
p(\mathbf{t}|\mathbf{y})=N(\mathbf{t}|\mathbf{y},\beta^{-1}\mathbf{I}_N)
</a>
根据高斯过程的定义,p(y)的边缘分布如下,其中协方差由K矩阵定义:
<a href="http://www.codecogs.com/eqnedit.php?latex=p(\mathbf{y})=N(\mathbf{y}|\mathbf{0},\mathbf{K})" target="_blank">
p(\mathbf{y})=N(\mathbf{y}|\mathbf{0},\mathbf{K})
p(\mathbf{y})=N(\mathbf{y}|\mathbf{0},\mathbf{K})
</a>
得到p(t)的边缘分布为:
<a href="http://www.codecogs.com/eqnedit.php?latex=p(\mathbf{t})=\int&space;p(\mathbf{t}|\mathbf{y})p(\mathbf{y})d\mathbf{y}=N(\mathbf{t}|\mathbf{0},\mathbf{C})" target="blank">
p(\mathbf{t})=\int p(\mathbf{t}|\mathbf{y})p(\mathbf{y})d\mathbf{y}=N(\mathbf{t}|\mathbf{0},\mathbf{C})
p(\mathbf{t})=\int p(\mathbf{t}|\mathbf{y})p(\mathbf{y})d\mathbf{y}=N(\mathbf{t}|\mathbf{0},\mathbf{C})
</a>
其中协方差矩阵C的元素为:
<a href="http://www.codecogs.com/eqnedit.php?latex=C(x_n,x_m)=k(x_n,x_m)+\beta^{-1}\delta
{nm}" target="_blank">
C(x_n,x_m)=k(x_n,x_m)+\beta^{-1}\delta_{nm}
C(x_n,x_m)=k(x_n,x_m)+\beta^{-1}\delta_{nm}
</a>

高斯过程回归预测阶段的推导:

预测的任务就是给定新的输入x*,得到预测变量t*的分布。
首先我们得到t_(N+1)={t1,...,tn,t*}的联合分布:
<a href="http://www.codecogs.com/eqnedit.php?latex=p(\mathbf{t}{N+1})=N(\mathbf{t}{N+1}|\mathbf{0},\mathbf{C}_{N+1})" target="blank">

p(\mathbf{t}_{N+1})=N(\mathbf{t}_{N+1}|\mathbf{0},\mathbf{C}_{N+1})
p(\mathbf{t}_{N+1})=N(\mathbf{t}_{N+1}|\mathbf{0},\mathbf{C}_{N+1})
</a>
其协方差矩阵是:
<a href="http://www.codecogs.com/eqnedit.php?latex=\mathbf{C}
{N+1}=\begin{pmatrix}&space;\mathbf{C}_N&space;&&space;\mathbf{k}\&space;\mathbf{k}^T&space;&&space;c&space;\end{pmatrix}" target="_blank">
\mathbf{C}_{N+1}=\begin{pmatrix} \mathbf{C}_N & \mathbf{k}\ \mathbf{k}^T & c \end{pmatrix}
\mathbf{C}_{N+1}=\begin{pmatrix} \mathbf{C}_N & \mathbf{k}\ \mathbf{k}^T & c \end{pmatrix}
</a>
根据多维高斯分布的条件分布公式,可以得到p(t*|t):
<a href="http://www.codecogs.com/eqnedit.php?latex=p(t*|\mathbf{t})=N(\mathbf{kTC_N{-1}t},c-\mathbf{kTC_N^{-1}k})" target="_blank">
p(t^*|\mathbf{t})=N(\mathbf{k^TC_N^{-1}t},c-\mathbf{k^TC_N^{-1}k})
p(t^*|\mathbf{t})=N(\mathbf{k^TC_N^{-1}t},c-\mathbf{k^TC_N^{-1}k})
</a>
于是我们就用该分布的均值来作为估计值。

参考资料

转载请注明作者Jason Ding及其出处
Github博客主页(http://jasonding1354.github.io/)
GitCafe博客主页(http://jasonding1354.gitcafe.io/)
CSDN博客(http://blog.csdn.net/jasonding1354)
简书主页(http://www.jianshu.com/users/2bd9b48f6ea8/latest_articles)
Google搜索jasonding1354进入我的博客主页

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,736评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,167评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,442评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,902评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,302评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,573评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,847评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,562评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,260评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,531评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,021评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,367评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,016评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,068评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,827评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,610评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,514评论 2 269

推荐阅读更多精彩内容