240 发简信
IP属地:天津
  • Resize,w 360,h 240
    一种解决bert长文本匹配的方法

    引言 bert[1]提出来后打开了迁移学习的大门,首先通过无监督的语料训练通用的语言模型,然后基于自己的语料微调(finetune)模型来达到不...

  • ALBert论文阅读笔记-缩减版的bert,模型参数更少,性能更好

    引言 自从Bert被提出来后,后续的研究者大多基于bert进行改造,提升预训练语言模型性能,从而提高下游任务的性能。比如ERINE、BERT_W...

个人介绍
爱算法,爱nlp,爱生活