), (10, 1.0)],
[(9, 1.0), (10, 1.0), (11, 1.0)],
[(8, 1.0), (10, 1.0), (11, 1.0)]]
#对向量进行加权...对语料进行分词
import os
import jieba
sentences_file=open("files/data/python32-sentence.txt",encoding='utf8'...cut_all=False)
word_file.write(" ".join(segment_words))
sentences_file.close()
word_file.close()
使用...gensim的word2vec训练模型
参考:python初步实现word2vec
# 导入包
from gensim.models import word2vec
import logging
#初始化...skip-gram模型,默认window=5
print("输出模型",model)
#计算两个单词的相似度
try:
y1=model.similarity("企业","公司")
except