我经历过几个链接,但不能够理解CBOW and Skip Gram是如何从零开始训练的?Skipgram word2vec和CBOW word2vec在训练中的区别是什么,以及什么时候使用CBOW .?Example or Application where CBOW would be preferable choice but not Skip-gram and vice versa.
我完全了解单词嵌入(skip-gram,CBOW)的含义和方法。我知道,谷歌有一个word2vector应用程序接口,它可以通过获取单词来生成向量。但我的问题是:我们有一个子句,包括主语,宾语,动词...Google API以前嵌入了每个单词,现在“我们如何将这些向量组合在一起,以创建一个与子句相等的向量?”例如:子句: V=“狗咬人”在谷歌嵌入单词后,我们有V1,V2,V3,它们每一个都映射到狗,咬人,人。我们知道:V= V1+ V