【NLP论文笔记】Effective Approaches to Attention-based Neural Machine Translation

本文主要用于记录发表于2015年的一篇神作(引用量上千)。该论文将注意力机制在机器翻译的领域进行了升级,而本笔记意在方便初学者快速入门,以及自我回顾。

论文链接:http://aclweb.org/anthology/D15-1166

基本目录如下:

  1. 摘要
  2. 核心思想
  3. 总结

------------------第一菇 - 摘要------------------

1.1 论文摘要

近年来注意力机制被运用于神经机器翻译模型已是常态,但却很少有论文专注于对注意力架构的改进。本论文就提出了两种简单但却有效的注意力机制,全局注意力(global)和局部注意力(local)。其中,局部注意力机制的运用使得神经机器翻译模型远胜于非注意力机制模型(5个BLEU点)。在融合了各个注意力机制模型之后,更是刷新了一波英文翻德文的记录。

------------------第二菇 - 核心思想------------------

2.1 注意力机制介绍

本文提出的两种注意力机制(global & local)其本质区别在于,全局注意力会参考所有输入词,而局部注意力只会考虑部分输入词。而全局注意力,其实可以简单理解为soft_attention的简化版(可参考本菇另一篇论文笔记] ,而局部注意力,可以简单理解介于hard_attention和sorf_attention之间,但是耗费更短的时间来训练。流程上来理解,全局和局部注意力机制唯一的不同就是生成c_t(语境向量)的方法,而一旦有了c_t之后,接下来的步骤都是一样的,我们新的隐状态即为,

\widetilde{h_t}= tanh(Wc[c_t;h_t])

然后这个注意力向量就会被传入一个softmax层,来预测当前词,

p(y_t|y_{<t}, x) = softmax(W_s\widetilde{h_t})

接下来,我们就来仔细聊一下这两种注意力机制。

2.2 全局注意力机制介绍

该注意力机制重点在于考虑所有输入的隐状态来生成语境向量。与soft_attention类似,该注意力机制也是有对齐向量(a_t)的概念,不同的是,该对齐向量的计算更简单,直接由当前隐状态(h_t)和每一个输入隐状态(\widetilde{h_t})计算得出权重,其计算公式如下,

score function.png

其中作者设计了三种打分函数(剧透一下,最后general的效果最好)。有了对齐向量以后,语境向量就很好生成了,这里再贴一张原论文的图,方便大家理解,

global.png

看了图应该就一目了然了,所以说,这种全局注意力的计算及实现方法是真的很简单,而且也没用高深的计算公式,也没用复杂的神经网络。这里论文作者多谈了几句和soft_attention的区别,重点就是本论文的计算路径简单了很多(虽然本菇还是有一点疑惑,这一点区别的理解,因为从本质上来看,本菇觉得计算开销都很大,可能还需仔细阅读源码,先mark,后期来补,欢迎大神解惑)。

2.3 局部注意力机制介绍

局部注意力机制其实就是为了解决全局注意力机制计算开销过大的问题,比如篇章级或者长句的翻译,遍历所有的隐状态来求对齐向量显然比较困难,因此,局部注意力,如其名,只会关注部分隐状态。因此,该机制的重点就在于如何找寻与预测词对应的隐状态。而论文中也给出了2种找寻的办法,

1)单一映射。即同一时刻的预测词与输入词应该具有强关联关系。确定了目标隐状态之后,再划定一个窗口D,则可以扩大视野,然后再用上面global的计算语境向量的方法即可。

2)显然单一映射,太过暴力了,更多的还是采用一种预测的办法。一种求解对应隐状态区间的计算公式为,

function.png

其中S为句子长度,W,v_p都是模型的参数。另外为了更好的计算对齐向量,还引入了高斯分布,如公式(11)。这里,再贴一张原论文的图,加深大家对局部注意力机制的理解,

local .png
2.3 论文实验结果分析

论文作者把自己提出的框架都挨个试了一遍,这里就不具体展现了。有兴趣的读者可以自行研读。总体看下来的感觉就是全局和局部的注意力机制也都各有优劣,大家还是要结合具体的业务,尝试过后,再做具体的选择。

------------------第三菇 - 总结------------------

3.1 总结

到这里,整篇论文的核心思想及其创新点已经说清楚了。本论文主要集中在于对注意力机制的改进,提出的全局和局部注意力机制,都足够新奇,但也都在情理之中。主要还是拓宽了我们设计注意力机制的思路。

简单总结一下本文就是先罗列了一下该论文的摘要,再具体介绍了一下注意力机制,尤其是全局和局部注意力机制那一块的理论。希望大家读完本文后能进一步加深对该论文的理解。有说的不对的地方也请大家指出,多多交流,大家一起进步~😁

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,015评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,262评论 1 292
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,727评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,986评论 0 205
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,363评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,610评论 1 219
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,871评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,582评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,297评论 1 242
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,551评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,053评论 1 260
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,385评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,035评论 3 236
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,079评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,841评论 0 195
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,648评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,550评论 2 270

推荐阅读更多精彩内容