BERT代码解读(3)-输出

google开源的tensorflow版本的bert 源码见 https://github.com/google-research/bert。本文主要对该官方代码的一些关键部分进行解读。

在上一篇中我们对bert模型的网络结构代码进行了解读,本文我们将分析将bert模型运用到下游任务上,对模型进行finetune的过程。

下游任务

如图所示,我们可以在不同的下游任务上fine-tune BERT模型:


Illustrations of Fine-tuning BERT

模型输出

我们可以通过如下函数得到bert网络的最后一层的输出:

# for classification task
# [batch_size, hidden_size]
output_layer = model.get_pooled_output()  

# for seq2seq or ner task to get token-level output
# [batch_size, seq_length, hidden_size]
output_layer = model.get_sequence_output()

简单分类任务

针对简单的分类任务,在获取bert最后一层sentence-level级别的输出后,只需要在后面加一层全连接层即可。然后计算loss,具体可参考bert官方提供的run_classifier.py

# In the demo, we are doing a simple classification task on the entire segment.

    output_layer = model.get_pooled_output()

    hidden_size = output_layer.shape[-1].value

    output_weights = tf.get_variable(
        "output_weights", [num_labels, hidden_size],
        initializer=tf.truncated_normal_initializer(stddev=0.02))

    output_bias = tf.get_variable(
        "output_bias", [num_labels], initializer=tf.zeros_initializer())

    with tf.variable_scope("loss"):
        if is_training:
            # I.e., 0.1 dropout
            output_layer = tf.nn.dropout(output_layer, keep_prob=0.9)

        logits = tf.matmul(output_layer, output_weights, transpose_b=True)
        logits = tf.nn.bias_add(logits, output_bias)
        probabilities = tf.nn.softmax(logits, axis=-1)
        log_probs = tf.nn.log_softmax(logits, axis=-1)

        one_hot_labels = tf.one_hot(labels, depth=num_labels, dtype=tf.float32)

        per_example_loss = -tf.reduce_sum(one_hot_labels * log_probs, axis=-1)
        loss = tf.reduce_mean(per_example_loss)

序列标注任务

这里以NER任务为例,在获取bert网络最后一层token-level级别的输出后,也仅需要在后面加一层全连接层即可。然后计算loss,但是这里计算loss时需要过滤掉padding出来的tokens上的loss。

# If you want to use the token-level output, use model.get_sequence_output()
    output_layer = model.get_sequence_output()

    hidden_size = output_layer.shape[-1].value

    output_weight = tf.get_variable(
        "output_weights", [num_labels, hidden_size],
        initializer=tf.truncated_normal_initializer(stddev=0.02)
    )
    output_bias = tf.get_variable(
        "output_bias", [num_labels], initializer=tf.zeros_initializer()
    )
    # loss 和 predict 需要自己定义
    with tf.variable_scope("loss"):
        if is_training:
            output_layer = tf.nn.dropout(output_layer, keep_prob=0.9)
        output_layer = tf.reshape(output_layer, [-1, hidden_size])
        logits = tf.matmul(output_layer, output_weight, transpose_b=True)
        logits = tf.nn.bias_add(logits, output_bias)
        # 
        logits = tf.reshape(logits, [-1, FLAGS.max_seq_length, num_labels])
       
        log_probs = tf.nn.log_softmax(logits, axis=-1)
        one_hot_labels = tf.one_hot(labels, depth=num_labels, dtype=tf.float32)
        per_example_loss = -tf.reduce_sum(one_hot_labels * log_probs, axis=-1)  # [bs, seq_length]
        mask = tf.cast(input_mask, dtype=tf.float32)
        per_example_loss = tf.reduce_sum(per_example_loss * mask, axis=-1)  # [bs]
        total_size = tf.reduce_sum(mask, axis=-1) + 1e-12
        per_example_loss /= total_size  # [bs]
        loss = tf.reduce_mean(per_example_loss)

        probabilities = tf.nn.softmax(logits, axis=-1)
        predict = tf.argmax(probabilities, axis=-1)

同时,token-level的评估指标可设置如下:

# 比如这里的labels总共8类,分别为["PAD", "B", "I", "E", "S", "O", "[CLS]", "[SEP]"]

            def metric_fn(per_example_loss, label_ids, logits):
                # [bs, max_seq_length]
                predictions = tf.argmax(logits, axis=-1, output_type=tf.int32)
                precision = tf_metrics.precision(label_ids, predictions, 8, [1, 2, 3, 4], average="macro")
                recall = tf_metrics.recall(label_ids, predictions, 8, [1, 2, 3, 4], average="macro")
                f = tf_metrics.f1(label_ids, predictions, 8, [1, 2, 3, 4], average="macro")
                eval_loss = tf.metrics.mean(values=per_example_loss)
                # eval_accuracy = tf.metrics.accuracy(labels=label_ids, predictions=predictions)

                return {
                    "eval_precision": precision,
                    "eval_recall": recall,
                    "eval_f": f,
                    "eval_loss": eval_loss,
                    # "eval_acc": eval_accuracy
                }

其实NER更应该用entity-level的评估指标,具体可参考 https://github.com/kyzhouhzau/BERT-NER

BiLSTM + CRF

对于序列标注任务,有时还想在后面加上bilstm以及crf层,请参考:
https://github.com/xuanzebi/BERT-CH-NER

如果想要了解crf的原理,强烈推荐博客CRF Layer on the Top of BiLSTM

https://github.com/kyzhouhzau/BERT-NER
Named Entity Recongnition Taggin
多分类的精确度P、召回率R、F1值计算
https://github.com/xuanzebi/BERT-CH-NER
CRF Layer on the Top of BiLSTM

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,198评论 4 359
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,663评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,985评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,673评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,994评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,399评论 1 211
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,717评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,407评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,112评论 1 239
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,371评论 2 241
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,891评论 1 256
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,255评论 2 250
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,881评论 3 233
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,010评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,764评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,412评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,299评论 2 260

推荐阅读更多精彩内容