您好,我希望使用BERT模型为一个单词生成相似的单词,这与我们在gensim中使用的生成most_similar单词的方法相同,我发现该方法如下: from transformers import BertTokenizer, BertModel
model = BertModel.from_pretrained
它展示了如何对我们的自定义数据进行培训。但我不知道该怎么预测。如果有两个新句子,如1)这是第三个例子,2)这是第三个例子。我怎么能预测到这些句子有多相似呢?DataLoader(train_examples, shuffle=True, batch_size=16)保存了与旧代码相比的This is an example sentence", "Each sentence is converted"
根据我在stackoverflow上找到的几篇文章(例如这个Why does word2Vec use cosine similarity?),在我们训练了一个word2vec ( CBOW或Skip-gram)模型之后,计算两个词向量之间的余弦相似度是一种常见的做法。然而,这对我来说似乎有点奇怪,因为该模型实际上是用点积作为相似度分数进行训练的。这一点的一个证据