7.3. 热门技术相关

7.3.1. Embedding

  • 介绍下item2vec模型

  • embedding冷启动怎么做

  • w2v的原理了解嘛,详细讲

  • w2v的原理,用的什么方法,skip-gram怎么做

  • Deepwork的思想

  • Node2vec随机游走策略

  • word2vec的loss怎么设计的

  • word2vec的工具

  • 用户embedding了解嘛

  • word2vec对顺序敏感的原因,窗口大小选用多少

  • DeepWalk相比序列embedding优缺点,对那一部分item影响最大

  • w2v用的哪一个,是google13年的那篇嘛

7.3.2. 多任务学习

  • 多任务学习模型的发展历史详细介绍

  • 为什么要用多任务学习

  • 介绍MMOE、PLE、ESMM,PLE相对MMOE的改进

  • ESSM算法原理和解决的两个问题

  • ESMM中如何解决CVR样本过于稀疏的问题,实际上解决了吗

  • ESMM训练是否使用全量样本

  • 介绍PLE模型

  • PLE里面loss如何平衡

  • PLE模型中,是否有尝试对不同的gate用不同的特征,是否有尝试不同业务用不同的特征组合

  • gradnorm介绍

  • 介绍关于多任务权重设置的相关模型或者策略

  • 如何平衡不同任务的loss

  • 如果一个特征对任务a是正相关,对任务b是负相关,如何处理这个特征

  • CTR和CVR任务放在ESMM(都是曝光空间)里和放在PLE(CTR点击空间,CVR曝光空间)里哪种效果好

7.3.3. 图神经网络

  • GNN在推荐系统中有哪些用法

  • GCN、GraphSAGE、GAT的区别与联系

  • node2vec对比deepwalk的改进

  • GraphSAGE对比GCN的优势

  • transductive与inductive的区别

  • 训练图模型的loss有哪些

  • graph embedding的作用

  • GCN图卷积

  • 怎么减少感受野

  • 讲一下GCN,为什么用拉普拉斯矩阵,优缺点

  • GCN图谱了解嘛

  • 同质图?异质图?

  • 边类型不一样是异质图么

  • 什么是local structure 和global structure