R&S | 论文阅读:用于YouTube推荐的深度神经网络

来自于YouTube的经典论文《Deep Neural Networks for YouTube Recommendation》的有关笔记,绝对不如看论文本身,这里提炼出比本人认为非常重要的点,架构,特征选择,模型以及一些小tricks。

纯翻译或者流水账肯定没啥意思,都是些个人理解和思考吧,希望大家喜欢,如有错误欢迎指出。

懒人目录

  • 简介
  • 系统概述
  • 候选集生成
  • 排序
  • 总结
  • 作者的重要参考文献
  • 我的参考文献

引言

从Youtube的现实场景来看,目前视频的推荐主要面临规模、新鲜度以及噪音三大问题,主要的讨论如下:

  • 规模:传统推荐方法难以满足目前大数据量的计算,无论是速度上还是效果上
  • 新鲜度:新视频或者新用户行为的响应需求非常高
  • 噪音:用户视频观看行为具有高度稀疏性,满意行为捕捉困难,而鲁邦性要求高。

这应该是Intro中最重要的内容,有关相关工作,本人计划在小结之前集中谈一下有关参考文献中可以进一步挖掘的彩蛋。

系统概述

这节虽然没有一个公式,但是却成了后续推荐系统基本架构形成的重要里程碑,将推荐系统的基本逻辑切成两个关键部分,召回+排序,论文中的说法是候选集生成+排序。

整体架构图是这样的,相信很多人都已经看过。

image

对一个用户,直接那百万级的数据进行计算排序肯定是不合理的,于是通过特定逻辑进行候选集的生成将会是一个很高效的手法,这里一般是采用用户历史行为、历史查询等行为进行分析计算的,逻辑相对简单,可以是类似协同过滤之类的方法,这里重点保证一个比较粗略的个性化,保证的是用户大概率“不会不喜欢”。(当然,即使是协同过滤,其实都可能花很长时间,甚至有人说协同过滤逻辑在有些场景甚至是周度更新的)

通过召回可以有效缩小范围,后续可以根据召回结果进行更为精细的推荐了,此时的任务就是排序,根据更为精细、丰富的用户、用户行为、视频等特征和信息进行打分,最终提供给用户,此时的内容将会更加精准,此时为用户提供的就是高质量的内容,从找回得到的百级别的信息,到最后推荐的只有10来个条目,真正实现了“大海捞针”,真正的“猜你喜欢”。

此时作者补充到的是,设备上可能有一些用户自己的数据,或者是其他数据源,这些也是需要放入个性化清单里面的,这个有利于进行一些特征挖掘,同时也是需要推送给用户的(甚至是广告),这些可以直接放入候选集中。

候选集生成

候选集的产生,是需要从百万级别的数据中筛选出几百个相关的视频,这块的思路来源于文献[23]的最小化秩损失(不知道这里rank翻译成这个对不对,这篇论文目前还没看),这种方法只针对用户的观看记录进行embedding,局限性比较强。

核心思想

用分类做推荐的思想在本文得以体现,这里的分类思路可以类比word2vector中的CBOW,但是不同的是,此处的逻辑转变为,对于用户U,预测看完N个视频后的最有可能看哪个视频,这就是一个分类问题,这是建模逻辑的关键。通过模型后,可以获得若干个用户可能会看的视频,并根据概率排序,排在前面的就是用户很可能喜欢的数据,通过这种逻辑能有效快速召回相关数据。

对于正样本,此处定义为看完视频的才叫做正类(还会有很多反馈机制,例如点击,手指滑动之类的,但最终选了这个),这算是一种隐式反馈,主要因为显性反馈太稀疏。

模型架构

看完结构就发现和CBOW非常像,通过分类的模式去训练一套向量,把最后一层softmax激活以后的结果作为视频vector,前面的作为用户vector训练好,然后后面就通过最近邻的方式召回响应的内容,模型结构如下:

image

当然的,里面提到了观看过的而视频序列、搜索序列、地理特征、视频生命、性别等多维特征,部分连续特征还有例如平方的操作,文章后面也会提到。

异构信号

这种深度学习的模式,可以通过深度学习的模式,能够涵盖大量的离散、连续、emb特征,搜索历史、观看历史被引入并分别进行了平均化,衡量用户近期的行为特点;demographic特征(可以理解为人群特征吧,有的地方形容是人口特征不太好)可以有效应对新用户的冷启动问题;另外用户地理区域和设备具有一定的特点因此也被引入(例如美国人可能不太会care英国的一些很小的事情),还有就是用户性别、登录状态等信息,对连续的有进行归一化处理。

文章重点提到了“样本年龄”特征,这里可以理解为视频已经上传的时长,视频的上传量很大,但是实际生效、产生热度的时间非常短暂,存在一定的“新鲜性”,这种“新鲜性”是非常不稳定的,新鲜期一过热度会非常快速的下降(文中给出了下面的图),然而对于候选集生成这个步骤是需要反映一定长时间下用户的观看情况,因此加入这个“样本年龄”的特征,有利于处理这个“新鲜度”的陡变问题。图4展示了使用了这个特征的结果,绿色线是实际的分布情况,在添加了“样本年龄”这个特征后能够更好地拟合出这种“新鲜”状态下的波动。

正负样本和上下文的选择

训练样本角度,考虑的是所有视频的观看记录,但是新视频一直是一个非常难处理的问题,因此专门为其设置了协同过滤的管道进行召回并且在后续进行传播,另外,对每个用户,应该只选择固定数量的样本,这样能避免过度活跃的用户主导损失函数值。

这里谈到了有关上下文的选择和构建的思路,主要有下面几个关键点。

  • 对于搜索信息和观看历史信息,通过平均的方式忽略顺序信息,毕竟对于视频而言用户不会很喜欢刚看完的视频在给他看一遍。
  • 剧集系列是按照顺序看的,用户喜好的开始通常从这个领域最流行的内容开始变化的,因此根据历史行为预测下一个可能看的视频的概率最为合适。
  • 有些通过协同过滤的方法从历史观看记录中抽取样本作为正类会导致泄露未来信息(说白了就是剧透),因为非常相似,而直接拿用户的历史记录的某个视频作为正类可以有效避免这个问题,且只用这个视频之前看过的视频作为负类。

排序

排序阶段要求的是高度精准、高度个性化,这里需要涵盖的特征也因此会增多,但是要哪些不要那些,怎么处理和转化就是个很重要的问题。

特征工程

众所周知特征工程是最终结果好坏的关键。只实验表明原始数据并不会有好的结果,需要花费大量时间进行转化才是关键。

其中,用户以前与Item本身以及相关Item的互动是进行用户喜好推荐的关键点,例如用户在该频道中看过多少视频,上次看过该主题的视频是何时,这种连续型特征对item间的泛化能力很强;另外是候选集生成时的打分信息在排序阶段同样适用,哪些数据源产生的这个候选item,以及这个每个数据源给这个item打多少分等。

另外是一些对“流失”有关的特征也非常有用,例如近期给他推了类似的item但他没看或者没有交互,此时就要降低推荐概率。

离散特征embedding

离散特征,尤其是ID类的特征,都是通过embedding的方式抽取的,但是值得注意的是,文章中只选择频率TOPN个ID的embedding,其余都用0做default表示,对于多值离散型特征,通过平均来处理。

另外,所有ID类特征均共享同一套embedding方案,这对于泛化能力、训练速度、内存占用都有好处。

连续特征归一化

神经网络对输入的分布和范围等非常敏感,这点不同于树类模型。会通过特定方式映射到[0,1)上,同时还会添加诸如平方、开方作为特征映射,同时也被证明能提升离线精度。

观看时长建模

观看时长建模被用作是最终的排序依据,此处使用的是加权逻辑回归。

image

此处的特色是用观看时长对正样本加权。

总结

文章的主要特点感觉还是在于将整体流程的切分,这种切分结合个人理解主要有如下优势:

  • 粗筛能把“肯定不喜欢”的内容剔除,降低大海捞针的困难
  • 精确排序只需要涉及少量样本,降低精排成本
  • 粗筛中保障召回,精排中提升准确,能一定程度避免召回和准确的矛盾问题

当然还有很多有用的技巧可供参考。

首先是召回阶段。

  • “预测看完N个视频后的最有可能看哪个视频”的方式进行emb
  • item产生时长(或者说年龄age)是一个非常重要的特征
  • 召回时要忽略观看历史的顺序信息,但是负类样本要用该历史视频之前的历史视频

排序阶段在这里。

  • emb只去TOPN,其他全部置0
  • emb只用一套方案,所有输入共享
  • 连续特征归一化,然后可以尝试加入平方、开方的特征
  • 观看时长建模

作者的重要参考文献

另外,参考文献似乎有一些比较有意思的观点和议题,可以拿来看看,这里放2篇吧。

[22] H. Wang, N. Wang, and D.-Y. Yeung. Collaborative deep learning for recommender systems. In Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD ’15, pages 1235-1244, New York, NY, USA, 2015. ACM. (深度学习做协同过滤)
[21] A. van den Oord, S. Dieleman, and B. Schrauwen. Deep content-based music recommendation. In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems 26, pages 2643-2651. Curran Associates, Inc., 2013. (单纯想看看音乐推荐)

我的参考文献

[1] Deep Neural Networks for YouTube Recommendation(论文原文)
[2] http://13zone.com/2018/09/02/8/(别人的翻译,准确性还行,建议还是看论文)

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 159,569评论 4 363
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 67,499评论 1 294
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 109,271评论 0 244
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 44,087评论 0 209
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,474评论 3 287
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,670评论 1 222
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,911评论 2 313
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,636评论 0 202
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,397评论 1 246
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,607评论 2 246
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 32,093评论 1 261
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,418评论 2 254
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 33,074评论 3 237
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,092评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,865评论 0 196
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,726评论 2 276
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,627评论 2 270