240 发简信
IP属地:北京
  • linux 下修改文件编码格式

    1. 为了确定文件的字符编码,我们使用一个名为 “file” 的命令行工具。因为 file 命令是一个标准的 UNIX 程序,所以我们可以在所有...

  • linux 鼠标十字,点击无响应

    在Python操作的时候,没有输入Python命令进入到Python命令操作界面 而是直接在Terminal下面直接输入import导致鼠标被锁...

  • 2022-03-08 心态需要改变

    2022-03-08 女生节,下午放半天假,我开完会后,大概3点半左右 出去溜达。感受最深刻的就是 自由职业真好,工作日不上班真好,一个人放空真...

  • 2021-01-06

    make plan and execute the plan! 2021年 my plan 早起 6点起床-8点读书完毕(1. 听英语,讲英语,...

  • Resize,w 360,h 240
    Transformer 解读-1

    一. Transformer 模型火爆原因: 1. 模型简单易懂. encoder 和decoder 模块高度相似且相通. 2. encoder...

  • pytorch关于torch.nn和torch.autograd

    本文参考pytorch官方文档https://pytorch-cn.readthedocs.io/zh/latest/notes/extendi...

  • Resize,w 360,h 240
    NLP-Attention

    Attention: 把注意力集中放在重要的点上, 而忽略不重要的因素. 其中重要成都取决于应用场景. 1. 为什么要用Attention机制?...

  • Resize,w 360,h 240
    Bert模型解读-2

    一 前言 从现在的大趋势来看,使用某种模型预训练一个语言模型看起来是一种比较靠谱的方法。从之前AI2的 ELMo,到 OpenAI的fine-t...

  • 2019-08-28

    hidden_init hidden_repackaged(detach) model loss_fn(output,target) loss....