240 发简信
IP属地:北京
  • path sum 系列

    题号 112/113/437 pathsum III :https://www.jianshu.com/p/400586f0a7c9[https...

  • Resize,w 360,h 240
    437. path sum III

    https://leetcode.cn/problems/path-sum-iii/[https://leetcode.cn/problems/...

  • Resize,w 360,h 240
    DeepMatch

    终于看懂了: 模型的直接输出(relu, softmax前一层)是user_emb 模型过softmax的权重矩阵是item_emb 这么理解:...

  • 过渡期间TODO

    框架 基本语法(随便看看)、高级接口,并记录 模型维度变换,记录 效果复现:最终实现的是效果,效果没出来,啥都是白搭 算法(ata/论文) 动机...

  • Resize,w 360,h 240
    交叉熵、KL散度和极大似然

    https://www.zhihu.com/question/65288314[https://www.zhihu.com/question/6...

  • Resize,w 360,h 240
    Normalization

    深度学习中的Normalization: (i. 更好train;ii. 防过拟合)1 对神经元输出规范化:BatchNorm/LayerNo...

  • Resize,w 360,h 240
    华为 PAL(position-bias aware learning framework)

    华为19年发表的消除position bias 论文,通过把有偏的ctr(即,bctr) 拆解为p(seen | pos) * p(y=1 | ...

  • Resize,w 360,h 240
    DIN

    两个版本:17年arXiv 和 18年kdd attention方式差异:使用[v_i, v_u, v_i-v_u];后者使用[v_i, v_u...