腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在变压器结构中,当
输入
长度小于
输出
长度时会发生什么情况?
、
、
给出了具有编
解码器
的
标准变压器结构。
解码器
期望从
编码器
接收值和密钥张量,其
大小
取决于
输入
令牌
的
数量。我可以解决这个问题,在训练期间,填充
输入
和
输出
到相同
的
大小
。 但是,当我不知道
输出
的
大小</
浏览 0
提问于2022-02-23
得票数 0
1
回答
在Tensorflow中
生成
特殊
输出
字后
如何
停止RNN?
、
我想实现一个用于序列到序列学习
的
编码器
-
解码器
模型
。
解码器
使用
编码器
的
隐藏状态来初始化其隐藏状态。然后
生成
关于最后
生成
的
输出
(y(t-1))及其隐藏状态
的
输出
。当
生成
一个特殊
的
output ()时,我想停止这个过程。事实上,我希望能够
生成</
浏览 0
提问于2016-02-02
得票数 3
1
回答
与
seq2seq相比,自回归有哪些优势?
、
、
、
、
为什么最近
的
对话代理(如ChatGPT、BlenderBot3和Sparrow )是基于
解码器
架构而不是编解码结构
的
?我知道
编码器
和
解码器
的
注意力之间
的
区别,但就对话而言,难道编
解码器
的
注意力不是更好吗?
浏览 0
提问于2023-02-24
得票数 0
回答已采纳
2
回答
译码器在变压器中
的
作用?
、
、
我了解注意是你所需要
的
论文中使用
的
编
解码器
结构
的
机制。我
的
问题是更高层次
的
解码器
的
作用。假设我们有一个句子翻译任务: Je suisètudiant ->我是个学生
编码器
接收Je suisètudiant作为
输入
,并
生成
编码器
输出
,理想情况
下
应嵌入句子
的
上下文/意义。
解码器
接收这个
编码
浏览 0
提问于2020-11-23
得票数 2
回答已采纳
1
回答
训练
编码器
.使用
解码器
输出
的
解码器
、
、
我正试图为文本类型
的
传输问题建立一个编解码
模型
。问题是我在这两种样式之间没有并行数据,所以我需要在一个无监督
的
环境中训练
模型
。 我见过
的
一些文章使用自动
编码器
分别训练
编码器
和
解码器
组件。通过将问题设置为自动
编码器
,他们可以通过将目标序列(等于
输入
序列)传递到
解码器
中来训练
解码器
。(以下是一些例子,https://arxiv.org/pdf/1
浏览 0
提问于2018-07-07
得票数 2
回答已采纳
2
回答
自动
编码器
和编
解码器
有什么区别?
、
我想知道自动
编码器
和编
解码器
之间是否有区别。
浏览 0
提问于2019-06-18
得票数 15
回答已采纳
1
回答
如何
使Siraj
的
seq2seq教程中
的
编码器
隐藏单元和
解码器
隐藏单元
的
数量相等
、
我使用
的
seq2seq
模型
是由Siraj创建
的
,但是
编码器
隐藏单元和
解码器
隐藏单元
的
数量存在问题。在这个笔记本
的
视频中(链接:),西拉杰说,这是因为他想让
模型
实际学习,因为标签和它们对应
的
输入
是相同
的
。对于我
的
问题,我希望
编码器
隐藏单元
的
数量
与
解码器
隐藏单元
的
数量相同。从行decoder_ou
浏览 0
提问于2019-02-01
得票数 0
回答已采纳
2
回答
编解码
模型
中双向LSTM
的
数量是否等于
输入
文本/字符
的
最大长度?
、
、
、
、
当我试图了解seq2seq编
解码器
如何
在https://machinelearningmastery.com/configure-encoder-decoder-model-neural-machine-translation在我看来,
编码器
中
的
LSTM数量必须
与
文本中
的
单词数(如果使用单词嵌入)或文本中
的
字符(如果使用char嵌入)相同。对于字符嵌入,每个嵌入对应于1个方向
的
LSTM和1个
编码器
隐藏状态
浏览 0
提问于2020-05-20
得票数 0
1
回答
如何
理解被裁剪
的
输出
、
、
、
、
我正在寻找用于里程碑检测任务
的
U实现,其中
的
体系结构
与
上
面的
图类似。有关参考资料,请参阅: 从图中可以看到
输入
维度为572x572,而
输出
维度为388x388。我
的
问题是,我们
如何
可视化和正确理解裁剪
输出
?据我所知,理想情况
下
,我们期望
输出
大小
与
输入
大小
相同(即572x572),因此我们可以将掩码应用于原始图像来执行分
浏览 2
提问于2021-12-03
得票数 0
1
回答
下
面的
编码器
-
解码器
模型
如何
生成
与
输入
大小
不同
的
输出
?
、
、
nlp-sequence-to-sequence-networks-part-2-seq2seq-model-encoderdecoder-model-6c22e29fd7e1 在简介中,作者表示,该设置适合于将随机变化
大小
的
输入
序列
与
随机变化
大小
的
输出
序列进行匹配我很困惑,因为我不知道
如何
生成
与
输入
句子长度
不同
的
句子
输出
。 让我们假设
输
浏览 28
提问于2019-01-17
得票数 0
1
回答
h264视频
的
MediaCodec转码
与
纹理渲染
、
、
、
我正试图将
解码器
outputBuffer直接发送到
编码器
inputBuffer中。我以为它出了点问题,但我想不出.我搜索了库和文档,找到了一些样本代码,使用纹理曲面渲染
解码器
输出
数据并将数据转换到
编码器
。但我
浏览 0
提问于2016-11-11
得票数 1
回答已采纳
1
回答
如何
在
不同
大小
的
图像上训练keras
模型
、
、
如何
在
不同
大小
的
图像上训练
模型
。我
的
模型
包含
输入
图像
大小
(None,None,3)。但是
如何
在
不同
的
图像
大小
上训练
模型
呢? 注意:我
的
目标是使用深度学习执行图像压缩。一种考虑了编
解码器
的
自动
编码器
。
浏览 50
提问于2019-05-19
得票数 0
7
回答
为什么译码器不是伯特架构
的
一部分?
、
、
、
我看不出伯特是
如何
在不使用
解码器
的
情况
下
做出预测
的
,这是之前所有
模型
的
一部分,包括变压器和标准RNN。
如何
在不使用
解码器
的
情况下在BERT体系结构中进行
输出
预测?怎么才能完全消除
解码器
呢?换句话说,我可以用什么
解码器
和伯特一起
生成
输出
文本?如果BERT只编码,我可以使用什么库/工具从嵌入解码?
浏览 0
提问于2019-12-21
得票数 22
回答已采纳
1
回答
无法理解图像分割研究论文中以下几行
的
含义
、
、
、
我正在执行一篇关于图像分割
的
论文。它基于对u-net体系结构
的
轻微修改. Layer . Output size . Filter Size Stride DropoutUpsampling2Conv12Conv11Upsampling4 C
浏览 0
提问于2019-07-25
得票数 6
回答已采纳
4
回答
ChatGPT
的
架构-只有
解码器
?还是
编码器
-
解码器
?
、
、
我已经接触到媒体和TowardsDataScience
的
文章,这些文章暗示它有一个编解码结构(请参阅下
面的
源代码):“作为一种语言
模型
,ChatGPT没有只有
解码器
的
体系结构,它有一个编解码结构。具有
浏览 0
提问于2023-02-03
得票数 6
1
回答
利用非方
输入
矩阵实现卷积自动
编码器
、
、
、
、
是否可以使用非正方形(矩形)
输入
矩阵训练卷积自动
编码器
(CAE)?我在CAE上研究过
的
所有教程和资源似乎都使用正方形图像。我正在处理
的
数据不是图像。我有数百个单细胞,每个细胞有一个矩阵(基因组数据),行中有数千个基因,列中有数百个框(每个基因
的
感兴趣
的
基因组区域被划分为相等
大小
的
框)。我用Keras尝试了一些
模型
,但
模型
编码器
部分
的
输入
大小
总是<
浏览 25
提问于2019-03-07
得票数 0
2
回答
编码器
在编解码
模型
中
的
输出
代表什么?
、
、
因此,在大多数涉及编解码结构
的
博客或书籍中,作者通常认为
编码器
的
最后一个隐藏状态(S)作为
输入
传递给
解码器
,而
编码器
输出
被丢弃。他们浏览了那个主题,只是删除了关于
编码器
输出
被丢弃
的
句子,仅此而已。这让我更加困惑,因为我也在读到,在变压器
模型
中,
编码器
的
输出
实际上被
输入
到
解码器
,但是因为这是唯一来自非rnn<em
浏览 0
提问于2023-02-27
得票数 1
回答已采纳
1
回答
聊天机器人
的
Seq2Seq
模型
、
、
、
、
我正在构建一个聊天机器人
与
序列到序列
编码器
解码器
模型
,如在。从给定
的
数据中,我可以理解在训练时,它们将
解码器
输出
连同
编码器
单元状态一起馈送到
解码器
输入
。我不知道当我实际实时部署聊天机器人时,我应该
如何
将什么
输入
解码器
,因为那时我必须预测
输出
。有人能帮我解决这个问题吗?
浏览 6
提问于2017-12-29
得票数 2
2
回答
GPT块和变压器
解码器
块有什么区别?
、
、
我知道GPT是一个基于变压器
的
神经网络,由几个模块组成.这些块是基于原来
的
转换器
的
解码块,但它们完全相同吗?在原有的变压器
模型
中,
解码器
块有两种注意机制:一种是纯多头自关注机制,另一种是对
编码器
输出
的
自我注意机制。在GPT中没有
编码器
,因此我假设它
的
块只有一个注意机制。这就是我发现
的
主要区别。同时,由于GPT是用来
生成
语言
的
,所以它
的
块必须被屏蔽
浏览 0
提问于2020-11-16
得票数 5
回答已采纳
1
回答
seq2seq -
编码器
反向传播
、
、
、
、
我很难理解seq2seq
模型
中
的
编码器
是
如何
进行反向传播
的
.没有标签,因此不可能计算错误,这是反向传播
的
,但LSTM层
的
权重被以某种方式更新。
浏览 7
提问于2017-09-22
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
这么多年,终于有人讲清楚 Transformer 了!
基于Tacotron模型的语音合成实践
顶会CVPR论文:一种简单的开放词汇语义切分编码器
AI技术革命:图解Transformer架构如何提升机器写作能力
seq2seq模型实例:用Keras实现机器翻译
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券