【代码解析】Transformer-XL 之 Relative Positional Encodings

[论文] 《Transformer-XL:Attentive Language Models beyond a Fixed-Length Context》- CMU & Google Brain

  • Motivation

    • Transformer在预训练阶段,设置了固定序列长度max_len的上下文,finetuning阶段,模型不能获取大于max_len的上下文依赖;
    • Transformer在长文本编码过程中,可采用按照句子边界拆分和按照max_len截断的方式,进行片段的编码,论文指出第二种不考虑句子边界的编码方式效果更好,但仍然存在上下文碎片的问题context fragmentation
  • How to solve

    • Segment-level recurrence mechanism
    • 在单向编码长文本时,由于transformer设置了max_len,从而在训练时,第i个token只能attention到前i个token,且当transformer以max_len为窗口滑动时,每前进一步,绝对位置编码需要跟着前进一步,使得每一步都需要重新计算max_len中每个token的隐层表示,如下图。
    Figure 1: vanilla model with a segment length 4.
    • Transformer-XL通过设置memory-span使得当前max_len窗口中的每个token都能attention到前max_len个token,因此Transformer-XL在每前进一步时,只用计算当前位置的token的隐层表示,同时在更新梯度时,只更新当前窗口内的梯度,从而实现了输出隐层表示的更长上下文关联,和高效的编码速度。
    Figure 2: Transformer-XL model with a segment length 4.
    • Relative Positional Encodings

      • Segment-level recurrence mechanism机制中提到的,max_len窗口中的每个token都能attention前max_len个token,其中可能会有一些token在上一个seg,这样就存在位置编码不连续,或者相同token在当前seg和前一个seg具有相同的attention值的问题。因此为了实现transformer-XL训练和长文本编码运用之间的等效表示,将绝对位置编码替换为以当前token为基准的相对位置编码Relative positional encodings
      • 绝对位置编码 - attention-score
      • 相对位置编码 - attention-score

    其中E,U,R,W分别表示token emb, absolute pos emb, relative pos emb, proj matrix,对于每个编码的token相对位置编码都为0,因此R_{i-i}^{\top }W_{q}^{\top }\rightarrow u^{\top }\, \, \, \, \, \, \, \, \, u\in \mathbb{R}_{d}

    • 绝对位置编码在输入transformer之前就和token emb求和,相对位置编码需要在计算attention score加入和计算。在Transformer-XL的tensorflow代码是如何实现呢?
  • Relative positional emb 代码解析
    • 在解析代码前,先用图示展示relative pos emb的实现过程 (无memory版本) rel_shift(*)
      • 输入token emb和反向的absolute pos emb
      • 得到attention score矩阵后,在token emb维pad,产生1位错位;
      • 截取位置编码对齐后的矩阵。
      • 按顺序截取token emb个数个分数组成行,对角全是pad
  • 在tf中,rel_multihead_attn函数生成相对位置的attention score
def rel_multihead_attn(w, r, r_w_bias, r_r_bias, attn_mask, mems, d_model,
                   n_head, d_head, dropout, dropatt, is_training,
                   kernel_initializer, scope='rel_attn')
# w : token emb
# r : 反向的绝对位置emb
# r_w_bias :公式中的u
# r_r_bias : 公式中的v
# attn_mask : attention mask矩阵
# mems : memory
  • attentiton score矩阵的生成
def rel_shift(x):
    x_size = tf.shape(x)
    x = tf.pad(x, [[0, 0], [1, 0], [0, 0], [0, 0]]) #第二维padding
    x = tf.reshape(x, [x_size[1] + 1, x_size[0], x_size[2], x_size[3]]) #reshape产生偏移
    x = tf.slice(x, [1, 0, 0, 0], [-1, -1, -1, -1]) #截取attention score矩阵
    x = tf.reshape(x, x_size)
    return x
  • Segment-level recurrence mechanism - Memory代码解析
    • 同样在解析代码前,先用图示展示Memory的实现过程
      • 当前segquery,和[memory, seg+u]内积;
      • 按之前讲解的方式得到relative pos[seg+v]的内积;
      • 得到attention-score后,通过mask矩阵得到attention矩阵A
  • 在tf中,_cache_mem(*)函数返回上一个seg
def _cache_mem(curr_out, prev_mem, mem_len=None):
  if mem_len is None or prev_mem is None:
    new_mem = curr_out
  elif mem_len == 0:
    return prev_mem
  else:
    new_mem = tf.concat([prev_mem, curr_out], 0)[- mem_len:]
  return tf.stop_gradient(new_mem)
  • attentiton mask矩阵的生成
def _create_mask(qlen, mlen, same_length=False): 
  #same_length : 每个token是否采用相同长度的attn length
  # 代码中train阶段为False 测试时是True

  attn_mask = tf.ones([qlen, qlen]) # 1: mask 0: non-mask
  mask_u = tf.matrix_band_part(attn_mask, 0, -1) #上三角 = 1
  mask_dia = tf.matrix_band_part(attn_mask, 0, 0) #对角 = 1
  attn_mask_pad = tf.zeros([qlen, mlen]) # memory的mask
  ret = tf.concat([attn_mask_pad, mask_u - mask_dia], 1) #如果使token相同的attn_len,设置下三角mask
  if same_length:
    mask_l = tf.matrix_band_part(attn_mask, -1, 0)
    ret = tf.concat([ret[:, :qlen] + mask_l - mask_dia, ret[:, qlen:]], 1)
  return ret
  • relative pos encoding完整代码
def rel_shift(x):
x_size = tf.shape(x)
x = tf.pad(x, [[0, 0], [1, 0], [0, 0], [0, 0]])
x = tf.reshape(x, [x_size[1] + 1, x_size[0], x_size[2], x_size[3]])
x = tf.slice(x, [1, 0, 0, 0], [-1, -1, -1, -1])
x = tf.reshape(x, x_size)
return x

def rel_multihead_attn(w, r, r_w_bias, r_r_bias, attn_mask, mems, d_model,
                     n_head, d_head, dropout, dropatt, is_training,
                     kernel_initializer, scope='rel_attn'):
scale = 1 / (d_head ** 0.5)
with tf.variable_scope(scope):
  qlen = tf.shape(w)[0]
  rlen = tf.shape(r)[0]
  bsz = tf.shape(w)[1]

  cat = tf.concat([mems, w],
                  0) if mems is not None and mems.shape.ndims > 1 else w
  w_heads = tf.layers.dense(cat, 3 * n_head * d_head, use_bias=False,
                            kernel_initializer=kernel_initializer, name='qkv')
  # word线性映射
  r_head_k = tf.layers.dense(r, n_head * d_head, use_bias=False,
                             kernel_initializer=kernel_initializer, name='r')
  # pos线性映射

  w_head_q, w_head_k, w_head_v = tf.split(w_heads, 3, -1)
  w_head_q = w_head_q[-qlen:]

  klen = tf.shape(w_head_k)[0]

  w_head_q = tf.reshape(w_head_q, [qlen, bsz, n_head, d_head])
  w_head_k = tf.reshape(w_head_k, [klen, bsz, n_head, d_head])
  w_head_v = tf.reshape(w_head_v, [klen, bsz, n_head, d_head])

  r_head_k = tf.reshape(r_head_k, [rlen, n_head, d_head])

  rw_head_q = w_head_q + r_w_bias
  rr_head_q = w_head_q + r_r_bias

  AC = tf.einsum('ibnd,jbnd->ijbn', rw_head_q, w_head_k)
  BD = tf.einsum('ibnd,jnd->ijbn', rr_head_q, r_head_k)
  BD = rel_shift(BD)

  attn_score = (AC + BD) * scale
  attn_mask_t = attn_mask[:, :, None, None]
  attn_score = attn_score * (1 - attn_mask_t) - 1e30 * attn_mask_t

  attn_prob = tf.nn.softmax(attn_score, 1)
  attn_prob = tf.layers.dropout(attn_prob, dropatt, training=is_training)

  attn_vec = tf.einsum('ijbn,jbnd->ibnd', attn_prob, w_head_v)
  size_t = tf.shape(attn_vec)
  attn_vec = tf.reshape(attn_vec, [size_t[0], size_t[1], n_head * d_head])

  attn_out = tf.layers.dense(attn_vec, d_model, use_bias=False,
                             kernel_initializer=kernel_initializer, name='o')
  attn_out = tf.layers.dropout(attn_out, dropout, training=is_training)

  output = tf.contrib.layers.layer_norm(attn_out + w, begin_norm_axis=-1)
return output
  • 持续更新

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 160,646评论 4 366
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,979评论 1 301
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 110,391评论 0 250
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,356评论 0 215
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,740评论 3 293
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,836评论 1 224
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 32,022评论 2 315
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,764评论 0 204
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,487评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,728评论 2 252
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,200评论 1 263
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,548评论 3 260
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,217评论 3 241
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,134评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,921评论 0 201
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,919评论 2 283
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,766评论 2 274