报告者: 小红书 - 姚旭
无限下拉feed流的个性化推荐:主要针对兴趣,次针对follow关系
曝光 $\rightarrow$
点击 $\rightarrow$
交互 $\rightarrow$
用户价值【最优化的目标】$\rightarrow$
用户留存
Q: 为什么纯优化点击、提升点击率(CTR, Click-Through-Rate)不是最好的优化目标?
A:
- 点击高的内容未必优质,点击率高的东西可能很好,也可能很坏、很怪,好的推荐要对抗人性
- 不仅需要优化读者端的体验,还要将读者的能量传递给作者,形成loop,纯点击不够
优化停留时长?是kill time而已
好的推荐:尽量引导客户行为,考虑读者、作者双边价值
优化目标:让用户产生价值
转化为公式:对不同行为赋予不同的value权重,加权求和 $$ \begin{aligned} S=&\Pr(click)\times V(click)\newline &+\Pr(like)\times V(like) \newline &+\Pr(comment)\times V(comment)\newline &+\Pr(share)\times V(share)\newline &+\Pr(follow)\times V(follow)\newline &+\Pr(hide)\times V(hide) \end{aligned} $$
- 区分正常的点击,以及点击欺诈
- 对负面的评论,价值为负
- 权重可以看作超参的超参,根据业务情况不断调整;根据不同用户调整,比如新用户,可以增加click的价值
- 只要各种行为的价值取向排序不变,值变化
- 将用户留存作为间接参考
- 80%时间:内容理解和索引,召回策略,特征
- 20%时间:排序模型,价值模型
排序模型的迭代
- 人工规则
- LR, FM/FFM, GBDT
- DNN: 不要一开始就选择DNN,响应慢,调参是黑匣子,投入产出不成正比
- Logistic regression
- 优点:简单,速度快,模型解释性强;可dense,可sparse
- 缺点:
- 线性模型
- 对特征scale有要求
- 需要在raw features上做大量处理、组合【特征工程黑魔法】,且特征变换在后续复用率低
scaling对逻辑回归的作用:
- 梯度下降收敛速度更快
- 使用正则化项,则必须要做scaling
- GBDT
- 优点:
- 树模型,非线性
- 不要求scaling
- 模型本身包含了特征组合
- 模型解释性强【?】
- 缺点:
- 对dense feature友好,无法用特别sparse features
- id类的sparse feature无法直接使用
- DNN
- 优点:
- 为sparse场景而生
- 自动特征组合
- 缺点:
- 模型可解释性弱
- 要学习的参数量级大,需要特殊量级的训练样本
- 特别消耗在线服务的memory和cpu
- 排序黑盒,调参黑魔法
- 对特征指引性弱,需要前期做足够的raw features累积
- 全依赖于模型进行隐形特征提取,不适合做第一个排序模型
推荐的迭代路径
人工规则 $\rightarrow$
GBDT $\rightarrow$
GBDT+LR $\rightarrow$
DNN
- 每一步都是加法
- 上一步的特征都可以被下一步继承
- 工程师可以有全局意识培养后再进入黑盒
个性化:和人相关的特征
top features:
- item interaction history: user * item
- item summaries: item
- coefficient: user * author 【用户-读者关系】
- last-n actions: user * item【读者后续的操作】
raw features的持续建设:覆盖率 * 区分度
用户画像:
- 人口属性(demographic info)
- 兴趣属性挖掘:tag/keywords, entity, topic, latent topic
内容画像:
- 人口属性
- 内容属性挖掘:tag/keywords, entity, topic, latent topic
将用户和内容映射到同一空间进行匹配:e.g. 都 $\in \mathbb{R}^{1024}$
,再计算相似度,用NN
用户内容embedding
- 传统latent topic embedding: LDA, PLSA
- 有监督的user-item embedding: youtube-Two Towers
每天300+ A/B Test: 10%成功率