腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
文本生成:字符
预测
RNN
与
单词
预测
RNN
、
、
、
、
我一直在研究用RNNs生成文本,似乎常用
的
技术是逐字符输入文本,并让
RNN
预测
下一个字符。我是不是遗漏了什么?此外,是否有可能创建一个
单词
预测
神经网络,但通过在
word2vec
上输入预先训练过
的
单词
,以便该神经网络能够理解它们
的
含
浏览 2
提问于2018-01-10
得票数 5
回答已采纳
1
回答
如何计算哪个词最适合给定
的
上下文和可能
的
单词
?
、
我有这项研究
的
任务,并搜索了一段时间
的
框架或论文,已经解决了这个问题。higher, bigger, greater, wider ...现在我想找出,在给定
的
单词
中,哪一个词最适合于句子中预先定义
的
位置。这个例子中最合适
的
词是“更大”,但“更高”也可以。在我
的
具体情况下,如果有人写得更宽,我想显示一个错误消息,因为在这个语义上下文中
浏览 0
提问于2019-03-26
得票数 1
回答已采纳
1
回答
如何同时使用
word2vec
和
RNN
?
、
、
、
、
因此,我在Java语言中使用
word2vec
,并尝试以某种方式训练它,以便它为我提供
单词
和句子
的
向量表示。 我可以使用它将输入输入到神经网络中,以根据
word2vec
数据获得响应吗?
浏览 4
提问于2016-03-11
得票数 2
0
回答
基于
word2vec
的
rnn
单词
预测
、
、
我正在尝试用递归神经网络
预测
单词
。我通过将独立预训练
的
单词
word2vec
作为输入来训练网络。我应该如何设置输入和目标?
浏览 3
提问于2017-06-13
得票数 0
回答已采纳
1
回答
训练
RNN
输出
word2vec
嵌入而不是逻辑
、
、
、
传统上,RNNs似乎使用logits来
预测
序列中
的
下一个时间步骤。在我
的
例子中,我需要
RNN
输出一个
word2vec
(50深度)向量
预测
。这意味着成本函数已经建立在两个向量之上:Y是序列中下一个
单词
的
实际向量,Y_hat是网络
预测
。我尝试过使用cosine distance成本函数,但网络似乎没有学习(我让它在AWS P3上运行了另外10个小时,成本总是在0.7左右) 这样
的
模式有可能吗?如果是的话,应该使用什么成
浏览 1
提问于2018-02-17
得票数 10
4
回答
基于
单词
的
文本生成和
基于
字符
的
文本生成
RNN
有什么区别?
、
、
、
在阅读有关文本生成
的
递归神经网络时,我注意到一些例子被逐字生成文本,而另一些例子却没有具体说明原因。 那么,
预测
每
单词
文本
的
RNN
模型和
预测
每字符文本
的
RNN
模型有什么区别呢?
基于
单词
的
RNN
需要更大
的
语料库吗?
基于
字符
的
RNN
推广得更好吗?也许唯一
的
区别是输入表示(一次热编码,字嵌入)?为文
浏览 0
提问于2016-08-01
得票数 19
回答已采纳
1
回答
从一组词中
预测
单词
、
、
、
、
我
的
任务是根据对一个想法
的
简短描述来
预测
相关
的
单词
。我
的
想法是把最初
的
文本当作一组
单词
(在词组化和停止词组删除之后),并
预测
应该在该集合中
的
单词
。然后,我可以把我所有的文字(其中我有很多),删除一个词,并学会
预测
它。我不认为
RNN
在这里是相关
的
,因为我想使用一组
单词
--它们没有任何顺序,我不想以任何方式
预测
下一
浏览 0
提问于2019-07-02
得票数 2
1
回答
我们可以使用
word2vec
从用户会话和应用程序日志中提取相关信息吗?
、
、
、
我正在研究
基于
深度学习
的
推荐系统。我想知道是否可以使用
Word2vec
库而不是
RNN
从用户会话日志和应用程序日志文件中提取特性/信息,以帮助
预测
最终用户感兴趣
的
更准确
的
项.如果有人能给我一个更好
的
解决方案,这将是非常有帮助
的
。
浏览 5
提问于2022-01-05
得票数 2
1
回答
用于
预测
Bash命令
的
深度学习算法
、
、
我是机器学习
的
新手,我想开发一个应用程序,它可以从多个用户
的
bash历史记录中获取所有数据,并根据其他用户
的
执行命令来
预测
其他用户
的
下一个命令。 我找了很久,但没有找到任何好
的
答案。如果知道类似代码
的
示例,或者有任何可能有用
的
注释,如what algorithm.etc,请感谢ML专家
的
帮助。我是不是应该调查。
浏览 0
提问于2019-12-06
得票数 0
1
回答
有没有
基于
NLP+DL
的
高级配置工具?
、
我不是以英语为母语的人,我经常用奥兹迪奇来找到正确
的
词汇选择。总体来说,它很好,但是它
的
数据库非常有限。我认为
基于
Word2Vec
的
工具应该能够在找到搭配/共存方面做得很好。对于跳过格,给定一个
单词
w周围
的
n个字
的
窗口大小,
word2vec
预测
上下文
单词
c;即概率p(c=w)
的
表示法。相反,CBOW
预测
当前
单词
,给定窗口中
的</
浏览 0
提问于2016-04-30
得票数 3
1
回答
序列模型
Word2vec
、
、
、
、
7890 Boho XYZ345 7890 Salefrom gensim.models import
Word2Vec
['World','o
浏览 3
提问于2018-10-18
得票数 1
1
回答
利用预训练
的
word2vec
和低LSTM进行
单词
生成
、
、
、
、
LSTM/
RNN
可用于文本生成。展示了为Keras模型使用预先训练
的
GloVe
单词
嵌入
的
方法。 # Sample code to prepare
word2vec
word embeddings impo
浏览 4
提问于2017-02-06
得票数 26
1
回答
RNN
与CBOW模型有何不同?
、
、
CBOW:我们正试图根据上下文(定义为目标
单词
周围
的
某个
单词
窗口)来
预测
下一个
单词
。
RNN
还可用于
预测
序列中
的
下一个
单词
,其中每次输入都是当前输入和最近过去(即前一步
的
输出)。我无法理解
RNN
的
方法是如何更好
的
,因为我可以为CBOW定义一个非常大
的
窗口,然后它也将根据先前
的
信息
预测
单词
。为什
浏览 0
提问于2021-08-19
得票数 0
1
回答
如何利用
word2vec
嵌入设计word-
RNN
模型
的
输出层
、
、
、
、
我试图建立一个
单词
-
RNN
等价于Char-
RNN
,网络应该在一个句子中生成下一个
单词
。作为输入,我使用预先训练过
的
word2vec
100-弱矢量,隐层大小为200.我
的
主要问题是输出层,它应该如何设计?在char-
rnn
中,输出是具有字符概率分布(softmax)
的
词汇量(唯一字符数)向量.因此,生成下一个字符只是从这个分布中取样。但是当我
的
单词
词汇量超过300 K时使用
word2vec<
浏览 1
提问于2017-10-08
得票数 1
回答已采纳
1
回答
word2vec
检查下一个/上一个
单词
概率
、
、
在使用
word2vec
时,如果当前
单词
是US或monday,我如何检查
单词
the出现在US之前
的
概率很高;next出现在
单词
monday之前
的
概率很高,依此类推。
浏览 0
提问于2017-05-25
得票数 0
1
回答
word2vec
访客词嵌入
word2vec
可以用来猜测仅有上下文
的
单词
吗?在使用大型数据集(例如谷歌新闻)训练模型后,我如何使用
word2vec
来
预测
只有上下文
的
相似
单词
,例如使用输入“统治国际象棋超过15年的人将在密苏里州圣路易斯市与九名顶级棋手竞争。”这不是
word2vec
的
用意吗?
浏览 13
提问于2017-07-06
得票数 2
回答已采纳
1
回答
加载GoogleNews向量
import gensim model=Word2Vec.load_word2vec_formatGoogleNews-vectors-negative300.bin') print(model.wv.predict_output_word('king','man',topn=10)) 错误:_pickle.UnpicklingError:无效
的
加载键
浏览 2
提问于2018-06-13
得票数 2
1
回答
PyTorch LSTM -使用word嵌入而不是nn.Embedding()
、
nn.Embedding()对于学习LSTM是必不可少
的
吗?就代码而言,我使用
的
代码几乎与上述教程中
的
代码相同。唯一
的
细节是-我使用
的
是
word2Vec
而不是nn.Embedding()。 因此,我删除了nn.Embedding()层,直接从
word2Vec
中提供了前向函数。
RNN
不学习。因此,nn.Embedding()对于学习LSTM是必不
浏览 3
提问于2018-05-14
得票数 2
回答已采纳
1
回答
在文档分类培训期间,
单词
嵌入是否进一步更新?
、
、
、
对于在NLP任务中使用word嵌入这一领域,我还是比较陌生
的
。从大量
的
文档集中,我训练了
word2vec
词嵌入向量,然后结合
基于
RNN
的
分类器(LSTM,GRU)进行文档分类,这是目前比较成熟
的
一种标准分类方法。有一个问题:我们应该在文档分类培训期间更新
单词
嵌入。 在过去,我已经习惯了像图像分类/目标检测这样
的
任务。你得到一个图像输入,从该图像中提取
的
卷积特征在CNN
的
数值优化过程中被更新
浏览 0
提问于2018-09-10
得票数 5
1
回答
窗口如何影响跳过文法
的
准确性?
、
、
我想知道skip-gram模型
的
window_size如何影响词嵌入时
预测
相似词
的
准确性。在什么情况下,准确率会下降和上升。 谢谢。
浏览 4
提问于2020-03-11
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
自然语言处理的一大步,应用Word2Vec模型学习单词向量表征
基于RNN的AI写词机竟能写出如此优秀的情诗!
基于药效团的靶标预测
想研究 NLP,不了解词嵌入与句嵌入怎么行?
一文看懂NLP神经网络发展历史中最重要的8个里程碑!
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券