从AI高考透视人工智能进展

导语

最近,人工智能再一次刷屏了!

学霸君的人工智能程序Aidam以134分的成绩拿下了2017年的数学高考,而且更令人吃惊的是,Aidam仅仅用不到10分钟就完成了所有的考题。这是继AlphaGo挑战柯洁之后人工智能再一次成功吸引了大众的眼球,所有这些触动我们神经的事件都在一次次地向我们表明,人工智能的确已经取得了突飞猛进的发展。

接下来,就让我透过这些热点事件,说说AI下棋与AI高考背后的人工智能技术。

Aidam是如何工作的?

首先,让我们来看看Aidam是如何工作的。整个Aidam的工作可以分成如下三个流程:

首先,在读题阶段,Aidam需要读取试卷上的题目。而试卷上所有题目的表述都是运用我们人类的自然语言,但是这对于机器来说却是一个很大的挑战,他需要能够将自然语言转述成计算机能够理解的符号语言。事实上,这是整个解题过程最大的挑战。Aidam之所以还是有16分的失分,就是因为它没有读懂题意。

其次,在读题完成之后,所有的数学题就全部变成了机器可以理解的形式符号语言了。接下来,机器就开始进行它非常擅长的自动推理阶段。其实,自动推理、自动定理证明虽然在我们普通人看来是一件非常困难的事情,但是对于机器来说却是相对容易的。我们知道,早在1956年人工智能诞生的时候,机器已经可以进行数学定理的自动证明了。当时,Newell和Simon等人编制的程序“逻辑理论家”可以自动证明罗素的数学经典著作《数学原理》第二章中的38条定理;而到了1958年,美籍逻辑学家王浩在IBM 704计算机上以3-5分钟的时间证明了《数学原理》中的370条定理。可以说,自动定理证明是人工智能发展最早的一个领域。那么,相比较《数学原理》中的艰涩定理,高考数学题自然也是不在话下的。

最后一个环节就是要把机器自动推理得到的结论再次转换成人类能够理解的自然语言输出出来,它相当于把形式语言再次转化成人类的自然语言。这种自然语言的合成相对来说也并不算特别困难,因为形式语言不像人类语言那样具有任意性,而回答问题的自然语言本身也不过是对形式语言进行描述,并让阅卷人能够读懂回答,因此即使输出的话不太像我们人类的表述也并不妨碍整个结果。

所以,总体来说,真正的难点就是在第一步,即把题目的自然语言表述转化成机器能够理解的形式化语言。学霸君是如何完成这艰难的一步的呢?

答案就在于机器学习。与AlphaGo一样,学霸君耗费了大量的计算资源来训练一个所谓的RNN人工神经网络,从而完成了从自然语言到形式语言的转化。据学霸君的CEO张凯磊说,他们用了400台至强十二核64G内存的服务器加上1000台左右的辅助服务器,共同按成了每天30万至50万道题的训练,才有了今天的战绩。

人工智能的最新进展

无论是AlphaGo还是人工智能高考,虽然它们都有新闻炒作的嫌疑,但从这些事件的背后,我们却能都到有关人工智能的最新发展趋势,这就是深度学习技术与传统的搜索技术的深度结合!

事实上,人工智能的发展可谓一波三折,但总体可以归纳为两个大的发展阶段,第一阶段的人工智能的代表就是战胜人类世界国际象棋冠军卡斯帕罗夫的深蓝(Deep Blue)。这一代的人工智能主要运用自动推理和搜索技术,配备上超大规模的知识库完成了令人称奇的计算。第二代人工智能技术是以人工神经网络模型为代表。如果我们将传统第一代人工智能比喻成只会填鸭式获得知识的自动推理器,那么人工神经网络则更像是在“素质教育”下长大的小孩。它的所有知识并不需要人类的强行灌输,而是它自己学习而来。这两种人工智能各有利弊。第一代AI虽然学习很死板,无法进行举一反三,但是它的所有推理和知识表述都是透明的,我们人类可以读取并理解。但是,神经网络的知识表述方式却是隐形的,人类很难看懂网络中大量权重的含义。

而人工智能最新的进展就是将这两派人工智能进行深度的耦合。这样,新型的AI机器将会既具备超强的模式识别能力和举一反三的泛化的能力;同时机器也能够完成深度的思考和推理。

AlphaGo

例如,著名的AlphaGo就是一个典型的混血儿。在正式比赛之前,AlphaGo将主要调用其强大的自学习功能,通过一种“左右互搏”的方式完成自我上千万次的对局,从而训练两个深度神经网络:走棋网络和估值网络。

如下图所示:

走棋网络可以将任意棋局映射为每一个允许落子格点的落子概率;而价值网络则将棋局映射为一个局势评估数值,它们都是通过大量的训练而得到的。

在真正比赛的时候,AlphaGo则主要采取所谓的蒙特卡洛搜索技术来完成大量棋局的模拟与规划,并结合走棋网络和估值网络的最终训练结果,完成最终的落子。

棋局的搜索就属于第一代人工智能技术,它的本质就是在一个非常的棋局空间之中进行大量的下棋模拟,从而找到一种能够赢棋的走法。蒙特卡洛搜索则是对经典搜索技术的扩展,使得搜索技术可以更好地融合第二代人工智能机器学习框架。

最终的结果大家是有目共睹的。如果单纯地依靠机器学习、神经网络,则AlphaGo虽然可以有很好的表现,但仍然无法完成复杂局面的绞杀;如果单纯地依靠搜索技术,则AlphaGo就会失去所谓的大局观,从而导致在局势尚不明朗的时候不知道如何落子。

所以,AlphaGo就是一个典型的AI融合工程。

神经图灵机

所谓的图灵机是一种古老而经典的模型,它是我们计算机的理论雏形,它的样子如下图所示:

我们可想象一只蚂蚁在一条纸袋上爬来爬去,并是不是地会把纸袋上的黑白状态进行涂写改变。所有者一些都是输入给蚂蚁的指令代码来控制的,这就是图灵机。它是经典人工智能的鼻祖,能够模拟任何强大的计算程序。

神经图灵机则是谷歌工程师们发明的一种装置,它将经典的图灵机模型改造成了“软化而柔性”的版本,每一个部件(例如读写纸袋)都可以用一个神经网络来控制。这样的好处是我们可以对其进行训练,因此这套东西又称为“可微分计算机”,意思是我们可以用反向传播算法来训练里面的人工神经网络,它的样子如下图所示:

这种神经图灵机的功能非常强大,它不仅可以像经典的LSTM神经网络一样完成各式各样的序列生成、翻译等任务,还可以进行复杂问题的规划,甚至自己编程序。

例如,下图就展示了用神经图灵机如何完成在伦敦地铁地图上进行路径规划任务。

神经网络优化神经网络

神经网络虽然很强大,但是它往往具有一堆不好调的超参数,比如一共有多少层,每层有多少个神经元等等。那么,能否用人工智能的方式自动搜索这些参数呢?我们知道,搜索是经典人工智能的一种非常重要的任务,它可以在一个很大的参数空间中找到我们想要的参数。Google的工程师们探索了一种途径可以利用强化学习算法来实现对神经网络超参数空间的搜索。

如图所示结构,其基本构思是用强化学习的方法训练一个控制器网络,它是一个RNN,可以用于生成子网络的超参数(例如卷积神经网络中每一个层中的神经单元个数),然后让子网络在这个超参数下去完成一个图像分类的任务,从而得到精确度R。然后利用这个R再来训练控制器。也就是说,我们将控制器作为主体,将子网络当作是环境,子网络的表现(精度R)作为回报反馈给主体,从而让主体设计出越来越好的超参数。

利用这种强化学习的模式我们可以更加有效地对超参数空间进行搜索,从而设计出远高于现有网络表现的超参数集合。

柔性规划

规划又是一个经典的人工智能任务,它可以指导机器人完成复杂的序列化的任务。在经典人工智能中,我们是通过搜索来完成规划策略的制定的,然而它的弊端是规划出来的策略很难具有应付环境多样性的灵活性。于是,人们寻求一种能够用神经网络来改造自动规划的方案。

如上图,这是NIPS2006会议的最佳论文工作。UC伯克利的一个人工智能团队用卷积神经网络完成了“柔性规划”,并具有非常好的泛化能力。他们的基本想法是将经典的强化学习算法中的价值迭代算法类比为一个多层次的卷积神经网络,从而用深层的网络对应了多步价值迭代的能力。经过训练之后,这个价值迭代网络不仅能够指导着主体完成动态规划,而且还能够具备非常强大的规划能力,这要比单纯依赖CNN的算法更好。

总之,现在的人工智能技术发展的前沿就是将经典的人工智能和最新的深度学习、人工神经网络进行完美的融合。这种融合不仅可以让人工智能程序能够进行比较“深”的思考能力,而且又可以具备一定的柔性和适应能力,这是我们通往强人工智能的一个必经阶段。

相关论文与课程

关于自然语言处理如何提取深度语义信息,请看徐飞玉的课程:自然语言理解及其应用

http://campus.swarma.org/vdetail=10279?src=3

关于神经网络优化神经网络,请参看Google Brain的这篇论文:

Barret Zoph, Quoc V. Le: NEURAL ARCHITECTURE SEARCH WITHREINFORCEMENT LEARNING,https://arxiv.org/abs/1611.01578

关于价值迭代网络,请参看这篇论文:

Aviv Tamar, Yi Wu, Garrett Thomas, Sergey Levine, and Pieter Abbeel : Value Iteration Networks,https://arxiv.org/abs/1602.02867

也可参看张江的课程:价值迭代网络

http://campus.swarma.org/gcou=10292?src=3

关于神经图灵模型,请参看Deep Mind团队的这篇论文:

Alex Graves1*, Greg Wayne et al.: Hybrid computing using a neural network with dynamic external memory, Nature, Vol 538, 471, 2016

也可参看甄慧玲的解读视频:记忆与记忆网络

http://campus.swarma.org/gcou=10067?src=3

关于AlphaGo的原理,请参看Deep Mind的论文:

David Silver1*, Aja Huang et al: Mastering the game of Go with deep neural networks and tree search, Nature, Vol 529, 484, 2016

也可参看张江的解读:揭秘AlphaGo

http://campus.swarma.org/gcou=10283?src=3 



集智QQ群|292641157

搜索公众号:集智俱乐部

加入“没有围墙的研究所”

让苹果砸得更猛烈些吧!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 156,069评论 4 358
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,212评论 1 287
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 105,912评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,424评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,741评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,194评论 1 206
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,553评论 2 307
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,289评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 33,923评论 1 237
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,251评论 2 240
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,775评论 1 255
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,144评论 2 249
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,698评论 3 228
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 25,936评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,658评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,214评论 2 267
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,159评论 2 258

推荐阅读更多精彩内容