BERT 论文笔记

BERT:Pre-training of Deep Bidirectional Transformer for Language Understanding

谷歌AI团队发布,在机器阅读理解SQuAD1.1跑出的成绩,在两个指标上全面超越人类。

GLUE基准80.04%(7.6%绝对提升),MultiNLI准确率86.7%(5.6%绝对提升)

BERT= Bidirectional Encoder Representation from Transformers

Pre-training Objective : MLM(Masked Language Model), 随机mask input中一些tokens,目标就是根据context去预测mask位置原始的词汇id

除了MLM,引入next sentence prediction 任务联合训练pair级别的特征表示

贡献点:

1、证明了bidirectional对文本特征表示的重要性

2、证明了预训练的特征表示能够消除很多繁重的任务相关的网络结构

3、11个NLP任务上,提升了state of art水平

应用预训练模型的两个方案:

1、Feature based

ELMo方法希望通过语言模型提取上下文敏感的表示特征,把任务相关的结构和上下文word embedding结合起来.

2、Fine-tuning

在有监督的fine-tune指定任务前,先通过语言模型LM的目标,预训练模型

BERT核心

模型架构

双向的叫Transfer Encoder

单向的叫Transfer Decoder

BERT vs OpenAI GPT vs ELMo

image.png
输入表示Input Representation

多个Sentence可以拼成一个sentence

token Representation = token embedding + segment(句) + position embedding

1)tokens embedding用WordPiece embedding(Wu et al., 2016),3w token词汇

2)positional embedding支持序列长度到512个tokens

3)Segment embedding,第一句所有token都用A代替,第二句都用B代替

Pre-training 任务

不用传统的左向右或者右向左的LM来预训练 BERT,采用两个新的无监督的预测任务来实现预训练。

1)任务一:Masked LM

15%的比例,在每个sequence中,随机的mask掉 WordPiece中的tokens;同时也只predict被mask掉的位置上的words

这个方法有2个缺点downsides:
A:因为[MASK]字符在fine-tuning阶段根本不会存在,所以在pre-training阶段用[MASK]代替原来的word参与训练,会到只pre-training和fine-tuning阶段mismatch。
解决办法是:在整体15%的随机中,有80%用[MASK]替换选中的word,10%用一个随机的word代替选中的word,剩下10%的比例保持选中的word不变

B:因为在每一轮训练(each batch)只有15%的tokens会被预测,pre-training阶段的模型收敛就需要迭代更多的steps(相比于单向的模型,预测所有的word被预测)

2)任务二:Next Sentence Prediction

理解2个text sentence之间的relationship,这个relation是不能直接用LM模型学习到的。

构建有一个2分类任务binarized next sentence prediction task,训练数据可以从任何一个单语种的语料库中生成:对于AB两个sentence,50%的概率B就是实际在A后面的sentence,另外50%的概率B是从语料中随机选择的一个sentence。

最终这个任务的Accuracy达到97%~98%

Pre-training过程

数据:BooksCorpus(800M words) + English Wikipedia(2500M words)

Wikipedia的数据只取text段落,忽略列表、表格等

从语料中,抽样2个spans作为sentence,第一个sentence作为A Embeding,第二个作为B Embeding;50%的概率B是实际的sentence,另外50% B是随机sentence.

抽样时保证A+B的长度<512 tokens

LM masking:在用wordpiece 分词(tokenization)后,均匀按15%的比例(rate)mask掉其中的tokens。没有任何特殊的操作。

batchsize = 256 sequence(256*512tokens = 128,000 tokens/batch)

steps=1,000,000 (40 epochs / 3.3 billion word corpus)

Adam lr=1e-4, beta1=0.9 beta2=0.999

L2 weight decay = 0.01

lr adj step = 10,000 steps, linear decay

dropout p=0.1 all layers

activation = gelu (不是relu)

Loss = mean masked LM Likelihood + mean next sentence prediction likelihood

Fine-tuning过程
image.png
A:sequence Level的分类任务

为了得到一个固定维度的整句特征表示,直接取第一个token([CLS])的final hidden state(Transformer output),记作C。后面唯一需要加一个分类层W

P= softmax(CW)

BERT 和 W的所有参数,一起finetune

B:span-level 和 token-level的预测任务

需要针对任务做微小的调整

batch size、lr和 epochs不同,其他超参大部分相同

C:SQuAD v1.1——StandFord Question Answering Dataset

100K QA pairs

给定一个问题Q,以及一段包含答案A的文字段落paragraph,任务的目标是预测在段落中,是答案文本段span

做法:

a)将question和paragraph合并成一个sequence的特征表示,Q用A Embeding,P用B Embeding。

b)需要学习的新参数是一个起始向量S,以及一个结束向量E。每个token对应的Ti代表最后的hidden vector。

i是Answer起始位置的概率是P = softmax(S·T),对Ti和S的dot product做softmax

对结束位置的计算也用同样的公式

fine-tune 3 epochs, lr = 5e-5, batchsize = 32

在Inference阶段,因为end predict并不依赖start predict,所以需要加一个约束:end要在start之后。除了这个,再没有其他启发式heuristic的规则。

D:命名实体识别 CoNLL数据集

200k words,标记为5个entity类别:Person、Organization、Location、Miscellaneous、Other

每个Ti单独input进一个分类layer,预测时不依赖两边其他词的预测。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 158,233评论 4 360
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,013评论 1 291
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 108,030评论 0 241
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,827评论 0 204
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,221评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,542评论 1 216
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,814评论 2 312
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,513评论 0 198
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,225评论 1 241
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,497评论 2 244
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,998评论 1 258
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,342评论 2 253
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,986评论 3 235
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,055评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,812评论 0 194
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,560评论 2 271
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,461评论 2 266

推荐阅读更多精彩内容