前言:一般来说用户Embedding在推荐系统中可以通过物品的Embedding向量平均或者聚类实现,因此物品的Embedding算法的效果成为重中之重。这篇文章是笔者阅读《深度学习推荐系统》第四章<u>Embedding技术在推荐系统中的应用</u>的学习笔记。本篇文章主要介绍传统词向量的生成算法,在
Word2Vec
算法的基础上,词向量生成算法在推荐系统上的衍生。
传统的编码方式:one-hot编码,不同单词
[1, 0, 0]
和[0, 1, 0]
之间的余弦相似度为0。因此,Word2Vec希望能够通过训练得到一个新的词向量表达方式,从而丰富向量的语义信息。主要目标如图所示,从一个稀疏的one-hot向量通过训练得到一个丰富稠密的新向量。学习参考链接:【词向量表示】Word2Vec原理及实现-CSDN博客
狭义上:一种物品Embedding方法,是对Word2Vec算法的延申,Item2Vec方法是将物品视为“单词”,而一个行为,例如购买行为视为一个句子,在一个行为中,有物品先后购买顺序,而Item2Vec正是利用这种序列学习物品向量表示。
广义上:只要是物品→向量的方法都可以称为Item2Vec:双塔模型(百度、Facebook),以one-hot编码作为输入,经过复杂的多层神经网络输出Embedding向量。
与Word2Vec的区别
Item2Vec
利用“物品序列”等行为产生历史行为序列(<u>包括购买、浏览等行为</u>),而Word2Vec
是利用“词序”。
Item2Vec
在优化目标的过程中认为任意两个物品之间都存在联系,而Word2Vec
认为只有在一定窗口内才有联系。
局限性
只能使用序列型的行为数据实现向量生成
本质还是Item2Vec算法,只不过是利用游走的方式在图上产生大量的物品序列
给定一张图结构,在图上进行随机游走,产生大量的物品序列,最后将序列放入Item2Vec中进行训练
与Item2Vec不同的是,在生成大量物品序列的过程中,需要确定当前结点的下一个结点,即随机游走的算法,假设物品关系图是<u>有向有权图</u>,则随机游走的形式化表达为:
$$
P(vj|v_i) = \frac{M{ij}}{\sum{j \in N+(vi)}M{ij}}
$$
其中$ N+(v_i)$表示$v_i$的所有出边集合,$M{ij}$表示两个结点之间的权重。这一过程即计算下一个结点被选择概率,边权重越大,被选择的概率越大。若是<u>无权图</u>,则将所有边权重默认为1,即每个结点被选择的概率相同。
在DeepWalk的基础上,调整了随机游走的权重,使得结果更能体现图网络的同质性和结构性
同质性:相互连接的物品向量相近,在物品网络结构表示为同类、同属性商品; 结构性:拓扑结构相似的物品向量相近,在物品网络结构表示为各品类的爆款、最佳凑单等等;
BFS
只能找到相近的结点,而DFS
更适合表达网络”同质性“的游走过程BFS
更适合表达网络”结构性“游走过程综上所述,在选择下一结点时,需要权衡BFS和DFS的倾向性,Node2Vec通过节点间的跳转概率权衡两者的倾向性,从结点v跳转到结点x的概率为:
其中d表示结点v和x的距离,$\omega{vx}$表示两个结点的权重,$a{pq}$表示概率权重参数,平衡BFS和DFS的倾向性
其中p
表示在附近游走的可能性,p
越小,Node2vec更注重表达网络的结构性,q
越小,则远离原始节点的概率越大,此时,Node2vec更注重表达网络的同质性
阿里巴巴的embedding方法,基本思想是在Deepwalk生成的Graph Embedding上引入补充信息,目的是为了解决长尾物品问题、冷启动物品交互信息少的问题。DeepWalk、Node2Vec只基于图结构生成节点嵌入向量,忽略了节点可能携带的其他辅助信息。EGES通过引入更多的补充信息来丰富向量特征。实现上并没有过多的理论创新,但在工业上是实用性很强的算法。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。