240 发简信
IP属地:北京
  • Additive Attention 和 Dot-product Attention

    additive attention 和 dot-product attention 是最常用的两种attention函数,都是用于在atten...

  • Resize,w 360,h 240
    layer normalization 简单总结

    论文: https://arxiv.org/pdf/1607.06450v1.pdf 课代表的总结:https://zhuanlan.zhihu...

  • 推荐系统中的冷启动

    本文对一些相关的资料进行了整理,结合了自己的思考得到的推荐系统冷启动方面的学习笔记。 背景 任何互联网推荐应用, Item和User都是不断增长...

  • Resize,w 360,h 240
    Airbnb 推荐算法 Real-time Personalization using Embeddings for Search Ranking at Airbnb

    背景介绍 论文《Real-time Personalization using Embeddings for Search Ranking at...

  • 近似最近邻算法(ANN) 之局部敏感哈希LSH

    背景 在最近邻的搜索算法中,数据的维度不同,适用的算法也不同,一般来说,准确的暴力计算只适用于在维度较低的时候,在高维大规模情况下计算成本过高,...

  • Resize,w 360,h 240
    Deep Neural Networks for youtube Recommendations 精读笔记

    背景 youtube视频推荐碰到的挑战: 大数据量,涉及到海量的用户和视频,需要高效的分布式学习算法和线上服务系统; 新鲜度,包括新上传的视频和...

  • Resize,w 360,h 240
    DSSM模型和tensorflow实现

    DSSM 的原理很简单,通过搜索引擎里 Query 和 Title 的海量的点击曝光日志,用 DNN 把 Query 和 Title 表达为低纬...

  • Resize,w 360,h 240
    语义相似度度量

    在比较两个文本语义是否相同的时候,通常的做法是 使用传统方法:one-hot word vector -> tf-idf/BM25 加权 -> ...

  • 朴素贝叶斯为什么是线性分类器

    线性分类器是通过特征的线性组合来做出分类决定的分类器。 朴素贝叶斯公式中,只要p(xi|c)是服从指数分布簇的,就可以写成是线性分类器的形式。 ...