腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
pytorch
attention
seq2seq
教程
中
的
错误
?
、
我正在用
Pytorch
编写序列神经网络
的
序列。在official
Pytorch
seq2seq
tutorial
中
,有一个注意力解码器
的
代码,我不能理解/认为可能包含
错误
。它通过连接输出和此时
的
隐藏状态来计算每个时间步
的
注意力权重,然后乘以一个矩阵,得到一个大小等于输出序列长度
的
向量。注意,这些注意力权重不依赖于编码器序列(在代码
中
命名为encoder_outputs ),我认为它应该依
浏览 37
提问于2019-05-03
得票数 1
1
回答
Tensorflow服务-在基本路径下没有可服务<model>
的
版本
、
、
我目前正在尝试使用tensorflow服务来提供经过培训
的
"textsum“模型。我使用
的
是TF 0.11,经过一些阅读之后,它似乎会自动调用export_meta_graph来创建导出
的
文件ckpt和ckpt.meta文件。因此,我
的
理解是,这是我在尝试设置服务模型时应该能够指出
的
位置。tensorflow_serving/sources/storage_path/file_system_storage_path_source.cc:204]在基路径tf_ mod
浏览 3
提问于2016-11-30
得票数 0
回答已采纳
1
回答
tensorflow
的
seq2seq.embedding_
attention
_seq2seq
中
的
“注意头”
、
我是tensorflow
的
新手,正在尝试根据
教程
实现"
seq2seq
“模型。我不确定函数"embedding_
attention
_seq2seq“
的
一个参数"num_heads”(default=1)。它代表了什么?我没有在相关
的
文件中找到它。
浏览 0
提问于2016-06-30
得票数 3
1
回答
TensorFlow --理解translate.py
中
的
嵌入
、
、
我
的
理解是,translate.py实现了一个编码器-解码器模型,其中一个步骤是将句子从输入语言翻译成固定长度
的
向量。根据我在上
的
帖子和我自己对代码
的
调查,我认为句子嵌入应该存储在embedding_
attention
_seq2seq/RNN/EmbeddingWrapper/embedding:0.
中
但这是一个形状变量,对应于我输入
的
词汇表大小X rnn层大小。我不明白我如何从概念上将其解释为句子
的
编码。我
的</
浏览 2
提问于2017-01-12
得票数 1
1
回答
变压器如何预测未来
的
n步?
、
、
、
我几乎找不到转换器
的
实现(既不臃肿,也不让人困惑),而我所引用
的
实现是
PyTorch
实现。但是,
Pytorch
实现要求您为每个步骤传递输入(src)和目标(tgt)张量,而不是对输入进行一次编码,并继续迭代n个步骤以生成完整
的
输出。我是不是漏掉了什么?我
的
第一次猜测是变压器在技术上不是一个
seq2seq
模型,我不知道该如何实现它,或者我只是在过去几年里
错误
地实现了
seq2seq
模型:)
浏览 0
提问于2021-03-09
得票数 3
回答已采纳
1
回答
带有RNNCell
的
TensorFlow
attention
_decoder (state_is_tuple=True)
我想用
attention
_decoder构建一个
seq2seq
模型,并使用MultiRNNCell和LSTMCell作为编码器。问题是,当我将编码器
的
状态传递给
attention
_decoder时,它报告了一个
错误
:这个问题似乎与seq2seq.py
中
的
attention</em
浏览 0
提问于2016-06-26
得票数 4
1
回答
我有一个关于用A序列翻译
的
问题。
、
、
我目前正在学习
Seq2seq
翻译。我试图理解和遵循
PyTorch
教程
从这个网站"“。
浏览 1
提问于2019-08-09
得票数 0
回答已采纳
1
回答
Tensorflow:注意力解码器
、
、
在TensorFlow1.0
中
,
seq2seq
API发生了很大
的
变化,并且不再与以前
的
seq2seq
示例兼容。特别是,我发现注意力解码器
的
构建相当具有挑战性:旧
的
attention
_decoder函数已被移除,取而代之
的
是,新
的
API期望用户在训练和预测期间为dynamic_rnn_decoder提供几个不同
的
注意力函数,而这些函数又依赖于prepare_
attention
函数。
浏览 3
提问于2017-02-20
得票数 0
1
回答
Tensorflow python不加载预先训练好
的
模型
、
、
在尝试为作者共享
的
训练模型运行解码模式时,我收到以下
错误
。finished_files/vocab --log_root=log/directory --exp_name=pretrained_modelINFO:tensorflow:Time to build graph: 0 seconds/
浏览 11
提问于2017-08-17
得票数 0
2
回答
Tensorflow检查点在其他系统上使用时未出现问题。Python2/3
、
、
、
、
我正在使用Tensorflow处理与指针生成网络相关
的
斯坦福存储库。该存储库可从以下位置获得: 我已经在这个存储库
的
问题部分请求了一个演示检查点,一个名叫Joy的人回复了我他
的
实验
的
检查点。/core/framework/op_kernel.cc:1158] Not found: Key
seq2seq
/decoder/
attention
_decoder/lstm_cell/kernel/core/
浏览 0
提问于2017-08-08
得票数 0
1
回答
PyTorch
TypeError: forward()得到了一个意想不到
的
关键字参数‘标签’
、
、
、
使用
PyTorch
变压器培训伯特模型(遵循
教程
)。本
教程
中
的
以下语句通向这是完整
的
错误
, TypeErroropti
浏览 42
提问于2019-10-18
得票数 17
回答已采纳
1
回答
bert模型
中
以字符串形式返回
的
张量类型属性
、
、
、
、
我是自然语言处理
的
新手,我想为情绪分析建立一个bert模型,所以我遵循这个
教程
https://curiousily.com/posts/sentiment-analysis-with-bert-and-hugging-face-using-
pytorch
-and-python/,但我得到了下面的
错误
bert_model = BertModel.from_pretrained(PRE_TRAINED_MODEL_NAME) last_hidden_state, poole
浏览 83
提问于2020-12-27
得票数 0
1
回答
电筒雷击多gpu训练
中
的
误差分析
下面的代码在单个GPU上工作,但在使用多个GPU时抛出一个
错误
: RuntimeError: grad只能为标量输出隐式创建。return {"loss": loss} 损失值是一个标量:张量(12.8875,设备=‘cuda:1’,grad_fn=NllLossBackward) --这一
错误
背后
的
原因是什么回溯(最近一次调用):文件"training_trial.py",第390行,在trainer.fit(模型)文件
的
第510行
中
,在fit结果= self
浏览 2
提问于2021-01-29
得票数 0
1
回答
当将模型保存在
pytorch
中
时,有些参数没有被保存。
、
、
我已经建立了一个编码器-解码器模型,注重形状变化
的
生成。我能够训练模型并对测试数据进行预测,但是在加载保存
的
模型后,我
的
预测是
错误
的
,在保存或加载过程
中
没有任何
错误
,但是当我加载保存
的
模型时,它
的
预测是完全
错误
的
。看起来有些参数没有被保存。self.device),Variable(torch.eye(1, self.decoder_hid_dem)).unsqueeze(1).repeat(1,
浏览 0
提问于2019-05-02
得票数 2
1
回答
使用XGBoost可以预测给定输入向量或一系列向量
的
整体输出向量吗?
、
、
、
、
我有文本评论和答案
的
文本数据集。审查和答复
的
每一句都是这样矢量化
的
:现在我想问几个问题。假设每个复习向量与其相应
的
答案向量相关联: Is
浏览 5
提问于2019-12-26
得票数 1
回答已采纳
1
回答
如何/如何初始化RNN序列到序列模型
中
的
隐藏状态?
、
、
、
在RNN序列到序列模型
中
,训练前需要初始化输入隐藏状态和输出隐藏状态。从
PyTorch
教程
中
,它简单地将零初始化到隐藏状态。Is初始化零-- RNN
seq2seq
网络
中
初始化隐藏状态
的
常用方法& glorot初始化怎么样?对于单层普通
的
RNN来说,扇入和扇出不等于$(1 + 1)$,它
的
方差为$1美元,而$mean=0$
的
高斯分布则给出了$0$s
浏览 0
提问于2018-01-30
得票数 5
1
回答
基于训练好
的
BERT模型、拥抱人脸
的
文本情感预测
、
、
、
我用正面、负面和中性
的
类别来预测推文
的
情绪分析。我用拥抱脸训练了一个BERT模型。现在,我想要对未标记
的
Twitter文本
的
数据帧进行预测,但我遇到了困难。我遵循了以下
教程
(https://curiousily.com/posts/sentiment-analysis-with-bert-and-hugging-face-using-
pytorch
-and-python这是一个对原始文本进行预测
的
示例,但它只有一句话,我想使用一列
浏览 68
提问于2021-11-03
得票数 0
回答已采纳
3
回答
Tensorflow
seq2seq
获取序列隐藏状态
、
我不久前才开始从事tensorflow
的
工作。我正在研究
seq2seq
模型,并以某种方式让
教程
正常工作,但我被困在获取每个句子
的
状态上。据我所知,
seq2seq
模型接受一个输入序列,并通过RNN为该序列生成隐藏状态。稍后,该模型使用序列
的
隐藏状态来生成新
的
数据序列。 我
的
问题是,如果我想直接使用输入序列
的
隐藏状态,我应该怎么做?例如,如果我有一个经过训练
的
模型,我应该如何获得输入序列token1,token2,...
浏览 0
提问于2016-02-02
得票数 4
2
回答
Tensorflow: freeze_graph.py在model_with_buckets模型
中
的
"output_node_names“是什么?
、
我用
seq2seq
= tf.nn.seq2seq.embedding_
attention
_seq2seq训练了一个与
中
的
示例非常相似的tf.nn.seq2seq.model_with_buckets。如何在我
的
模型中找到"output_node_names“?
浏览 1
提问于2016-08-16
得票数 15
回答已采纳
2
回答
如何将word2vec导入TensorFlow
Seq2Seq
模型?
、
我想知道是否可以将我自己
的
word2vec导入到这个模型
中
?而不是使用
教程
中提到
的
原始
的
“密集表示”。 在我看来,TensorFlow使用
的
是
seq2seq
模型
的
单热表示。首先,对于函数tf.nn.seq2seq.embedding_
attention
_seq2seq,编码器
的
输入是一个标记符号,例如a将为'4‘,'dog’将为'15715‘等,并要求num_encoder_symbol
浏览 3
提问于2016-03-17
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
基于PyTorch的深度学习教程
Python实现简单的机器翻译模型
Pytorch中张量的高级选择操作
PyTorch中的多进程并行处理
Transformer的PyTorch实现
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券