240 发简信
IP属地:北京
  • Resize,w 360,h 240
    关于HMM和CRF

    前言 看了一下午HMM和CRF,还是没太理解里面的知识,大概有以下认知: 朴素贝叶斯和HMM都有一个假设:当前观测值只和当前状态有关,因为朴素贝...

  • Resize,w 360,h 240
    多分类情况下的precision、recall和f1

    前言 一直在用的代码里面可以测出上面三个值,我就一直没细看,只是不断地加入自己的代码,想要提高precision,结果precision真的提高...

  • Resize,w 360,h 240
    TPUEstimator没法在tensorboard中画出训练loss图

    前言 由于最近在用Bert实现我的idea,其中很多都是直接调用tensorflow中的函数,TPUEstimator就是之一。由于我的代码只显...

  • Resize,w 360,h 240
    torch.nn.conv3d理解

    前言 需要用到3DCNN,于是找到了torch.nn.conv3d,网上太多人写参数解读,但没什么人能讲得清楚的,于是我边理解边写代码验证,得到...

  • Resize,w 360,h 240
    tf.nn.bidirectional_dynamic_rnn详解

    这个函数我已经查了三遍不止了,每次看网上说的那些都没看明白。也怪我自己不动脑子,现成的代码我复制粘贴了,连改都不改这怎么能懂其中的意思呢。我一开...

  • Resize,w 360,h 240
    BiLSTM+CRF笔记

    BiLSTM+CRF是2018年在英语NER任务上表现最好的模型,学它也有十多天了,之前只是了解个大概,然后忙于学其它东西,结果泛学让我有种什么...

  • Resize,w 360,h 240
    李宏毅机器学习课程(持续更新。。。)

    前言 虽然现在都在搞深度学习,但是总觉得之前机器学习的很多基础算法并没有掌握好,于是专门搜了李宏毅老师的机器学习课程(我的是官网的课程,是在Yo...

  • Resize,w 360,h 240
    关于skip-gram和负采样

    前言 skip-gram和CBOW都是生成词向量的神经网络,而负采样(negative sampling)则是skip-gram中为了优化训练过...

  • python中列表的初始化

    前言 昨天在做算法题的时候,整个思路、代码和参考答案都是基本一样的情况下,输出的结果就是不对,我还以为是思路有问题,又看了别人的题解,发现都没什...

个人介绍
篮球爱好者,不打游戏的研究生