【NLP论文笔记】Supervised Learning of Universal Sentence Representations from Natural Language Inferenc...

本文主要用于记录Facebook AI研究中心于2017年提出的一种基于监督学习的句向量表达方式。该文也是业界最先一批提出句向量预训练概念的论文。本笔记主要为方便初学者快速入门,以及自我回顾。

论文链接:https://arxiv.org/pdf/1705.02364.pdf
Github:https://github.com/facebookresearch/InferSent

基本目录如下:

  1. 摘要
  2. 核心思想
  3. 总结

------------------第一菇 - 摘要------------------

1.1 论文摘要

当代比较成熟的NLP系统的底层特征都仅仅依赖于从大规模语料库中训练出来的词向量。而对于那些长句或是段落的特征向量的表达,目前的研究还远远不够。仅有的一些依赖于非监督学习得到的句向量表达,也因为未能达到预期效果而被弃用。本论文提出了一种基于SNLI语料库预训练出来的通用的句向量的表达,且经过实验验证,该种方法训练得到的句向量,在多个NLP基础任务中都表现出了卓越的效果。同时,本论文还希望效仿ImageNet数据集(多数现今模型都在其上面预训练)在CV领域的地位一样,基于推理的数据集(SNLI),也能成为NLP领域的标杆(即通用的预训练数据集)

------------------第二菇 - 核心思想------------------

2.1 句向量的表达

自从word2vec词向量训练方法被提出以后,在NLP学术界就仿佛打开了潘多拉魔盒一般,各种基于分布式表达的词向量的训练如雨后春笋一般冒出,比较著名的都有(glove,fasttext。。等)。但是,如何去捕获在一句话或一个段落中词与词之间的关联关系,即如何去表达一个完整的句向量,始终是一个未解决的问题。

本文就是想去尝试,推出一种通用的句向量模型的有监督的训练方法。其中有俩个问题需要去解决,
1)选用哪一种神经网络模型?
2)选用哪一种数据集去训练该网络模型?

因此,说白了,该论文就是用多种模型在多种数据集上去训练得到一个句向量模型,再将训练得到的句向量模型运用于其他各个NLP的下游任务,通过比较在下游任务中的表现,来反推出,哪一种句向量模型是更具有通用性的~当然,从论文的标题我们也应该能看出来,训练的语料库其实就是SNLI(该语料库是斯坦福大学所维护的)。

简单来说,该语料库就是去推理判断每一组句子的关系(一共有570k个句子对),其中,对应的标签有3个,分别为(entailment, contradiction, neutral)。相信,在读的各位,如果是对句向量或是句句匹配任务有研究的同学,应该对该数据集并不陌生(甚至可以说是,检验新的模型的必测数据集哈哈)。而论文中,对该数据集训练出来的句向量效果最佳的表现,解释为,high-level understanding task that involves reasoning about the semantic relationship within sentences。意思就是,必须要完全理解了句子的意思,才能对俩句话的关系作出准确的判断。(而不像其他简单的任务,可能就是词词匹配,或是距离匹配)

2.2 预训练方法

有了训练语料,那就是选择神经网络模型的问题了。因为,该SNLI语料库中是句子对的形式,因此,有两种方式来生成最终的特征向量
1)单独分别对每一个句子生成句向量。
2)对俩个句子同时生成句向量。

基于本文的目标,是提出一种通用的句向量的表达模型,显然第一种方法更合适,而对于生成的每一组句向量,我们也会进行concact处理,整合生成特征句子,再输入到最后一层分类器中。基础的训练模型架构如下图所示,

Generic NLI training scheme.jpg

因此,本文其实是着重实验了多个(7个)句向量的生成模型架构。主要的模型架构阐述如下

1)LSTM +GRU
该模型架构就是最普通最简单的LSTM模型,当然是双向的。同时也参考了SkipThought中的方法,即将BI-GRU的,前向最后时刻状态与后向最后时刻状态相叠加。

2)BiLSTM with mean/max pooling
这个就是取BiLSTM结果的时候的处理方式不同,mean pooling就是把所有时刻的状态值取平均,max pooling就是取最大值。具体的示意图如下,也比较简单,

Bi-LSTM max-pooling network.jpg
  1. Self-attentive network
    该方法可以参考我的另一篇论文笔记。思路也比较简单,就是对句子中对每一个词都计算得出一个权重,再相加得出句向量。

4)Hierarchical ConvNet
其实就是一个4层的卷积网络,每一层经过max pooling都会得到一个句向量的表达,最后将4层得出的concact就是最终的句向量表达,思路也比较简单,示意图如下,

Hierarchical ConvNet architecture.jpg
2.3 实验方法

之后,就是具体的实验部分,作者将上述训练得到的句向量,分别运用于12项NLP任务之中,在比较上述几种模型的同时,也比较了其他各种生成句向量的方法。当然,结论肯定是上述利用SNLI的句向量表达要优于其他网络训练出的句向量,且最佳的模型为BiLSTM + Max Pooling。具体的实验过程本文不作展开,有兴趣的同学可以参考原论文,当然本文也有开源代码(基于pytorch),大家可以仔细研读,作为入门的baseline也是相当不错的。

------------------第三菇 - 总结------------------

3.1 总结

到这里,整篇论文的核心思想及其创新点已经说清楚了。本文主要是推出了一种预训练句向量的思路,并且给出了最佳的预训练数据及最佳的预训练模型,并且通过实验论证了其可行性。当然,不得不承认,离通用的句向量模型还有很长的路要走~哈哈~

简单总结一下本文就是先罗列了一下该论文的摘要,再具体介绍了一下本文作者的思路,也简单表述了一下,其中的模型细节及训练细节。希望大家读完本文后能进一步加深对该论文的理解。有说的不对的地方也请大家指出,多多交流,大家一起进步~😁

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,736评论 4 362
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,167评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,442评论 0 243
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,902评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,302评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,573评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,847评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,562评论 0 197
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,260评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,531评论 2 245
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,021评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,367评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,016评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,068评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,827评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,610评论 2 274
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,514评论 2 269

推荐阅读更多精彩内容