腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
对于
RNN
/
LSTM
的
序列
数据
,
通常
如何
执行
批处理
、
、
、
这个Udacity course notebook
批处理
数据
的
方式对我来说并不直观。
对于
较长
的
数据
序列
,它们首先截断
数据
,以便可以用batch_size均匀划分
数据
。接下来,他们将
数据
.reshape()为(batch_size, -1)。然后,他们在这些批次
的
子
序列
上创建一个滑动窗口。当滑动窗口超出边界时,他们会在末尾添加假
数据
(通过回绕)。这个提供
的
浏览 21
提问于2020-07-17
得票数 0
1
回答
光学字符识别系统中
的
LSTM
应该把先前
的
预测
序列
放在哪里?
、
我正在尝试建立一个光学字符识别系统,它可以使用
LSTM
单元识别手写句子。 因此,
对于
每个输入,您希望
LSTM
预测下一个单词,即I,爱,机器为上述
序列
。我遇到
的<
浏览 0
提问于2018-07-16
得票数 0
回答已采纳
1
回答
使用cnn火把可变长度
的
文本
、
、
、
、
我是个生手,我想知道CNN中可变长度句子
序列
的
最佳实践是什么。 我想使用CNN在快速文本生成
的
词条上进行特征选择,然后将输出输入到
LSTM
。
浏览 1
提问于2019-07-28
得票数 2
回答已采纳
1
回答
如何
处理
LSTM
模型中
的
某些时间
序列
?
、
、
、
、
我是一个新
的
keras用户,我想很容易地理解
如何
构建一个
lstm
模型。实际上,我做了一个
lstm
输入,例如(
批处理
大小、时间步长、特征),其中
批处理
大小等于1,因为我有一个用户,而时间步骤等于
序列
和特征
的
数量等于
序列
长度。在定义
LSTM
时,是否应该将有状态选项设为True? 我已经为一个用户获得了很好
的
性能。我想对所有的用户使用同样
的
方法。但我不知道
如何
为所有用户
浏览 3
提问于2017-06-10
得票数 0
回答已采纳
1
回答
及时回传tf.nn.dynamic_
rnn
用于顺序输入(来自
批处理
)
、
、
、
、
rnn
_out = tf.reshape(
lstm
_outputs, [-1, 256])因此,假设我在网络中对N个项进行了前向传递,并从dynamic_
rnn
中提供了最终
的
单元格状态和隐藏状态。现在,要
执行
反向传播,我应该向
LSTM
输入什么? 默
浏览 0
提问于2018-03-14
得票数 0
1
回答
为什么
RNN
的
隐藏状态被初始化为每一个时代而不是每一批?
、
、
为什么RNNs/
LSTM
/GRUs
的
隐藏状态
通常
只在一个时代结束后才重新初始化,而不是在
批处理
完成后重新初始化?
浏览 0
提问于2023-01-25
得票数 0
回答已采纳
1
回答
LSTM
:当状态稍后用于生成时批量大小
的
选择
、
、
我正在构建一个逐步生成符号
的
LSTM
模型。任务是将模型训练到
数据
序列
的
某个点,然后在测试阶段使用经过训练
的
模型来处理
序列
的
其余部分--这些剩余
的
部分在训练期间看不到。
对于
这项任务,我尝试将训练阶段
的
最新状态重新用于后续
的
预测阶段(即,不是以干净
的
零状态开始预测,而是在训练期间中断
的
地方继续排序)。 在这种情况下,我想知道
如何
最好
浏览 1
提问于2017-05-25
得票数 0
3
回答
如何
从tensorflow
RNN
中选择最后一个有效输出值
、
、
我在用不同长度
的
序列
训练
LSTM
细胞。tf.nn.
rnn
具有非常方便
的
参数sequence_length,但是在调用它之后,我不知道
如何
选择与
批处理
中每个项
的
最后一步相对应
的
输出行。我
的
代码基本如下:
lstm
_outp
浏览 5
提问于2016-03-07
得票数 5
回答已采纳
1
回答
Tensorflow:从可变
序列
长度
的
bidirectional_
rnn
中获得输出
、
对于
变量
的
输入大小,我使用tf.nn.bidirectional_
rnn
和sequence_length参数,并且我不知道
如何
获得小型
批处理
中每个示例
的
最终输出:现在,如果我有固定
的
序列
长度,我只需要使用outp
浏览 5
提问于2016-10-02
得票数 3
1
回答
从tf.nn.dynamic_
rnn
获取非填充项
的
最后输出。
、
在TensorFlow中,可以使用:其中,输出包含所有时间步骤
的
输出[0, max_time-1],而max_time是
批处理
中最长输入
的
长度。现在,我想得到
批处理
中每个输入
的
最
浏览 0
提问于2018-05-15
得票数 1
2
回答
基于不同时间步长
的
多个
数据
集
的
LSTM
训练
、
、
、
、
目标值为2d ~ a,b,
对于
单个
数据
集它们是相同
的
。经过训练,我想提供时间步骤,并预测2d y值。示例:
数据
集(1 / 6000)有450个不同
的
时间步骤,x=1、2、3、4、5、6、7、8、9、10、11,目标值y= 1,2我目前面临
的
问题是理解
LSTM
在输入之间
的
相关性方面到底学到了什么我对术语batch_size感到困惑,如果我有一个不同
的
序列
,那么seq_length这个词会发生什么.
浏览 18
提问于2022-01-05
得票数 0
回答已采纳
1
回答
从tensorflow dynamic_
rnn
到后续层
的
馈电输出
、
、
、
我所理解
的
:假设我正在训练一个
序列
到
序列
网络,其中输入和输出大小相同(这可能就像在每个时间步骤预测文本中
的
下一个字符)。我
的
递归层使用了一个
LSTM
单元,然后我想要一个完全连接
的
层来增加预测
的
深度。在静态
RNN
中,根据TF约定,您应该将输入
数据
跨时间维度展开,并将其作为一个列表提供给static_
rnn
方法,如下所示: num_input_featu
浏览 2
提问于2018-05-12
得票数 2
回答已采纳
1
回答
具有可变长度
序列
的
RNN
/
LSTM
文库,无需扣环或填充
、
我试图解决
的
问题是一个具有4个并行输入批次
的
序列
的
分类问题。为此,我需要4个
RNN
/
LSTM
并行合并到一个完全连接
的
层中。问题是,在每个并行
批处理
中,
序列
的
长度是可变
的
。我不能使用填充到最大
序列
长度,因为它使用了太多
的
RAM。实际上,有些
序列
真的很长。我不能使用减少长度
的
填充,因为模型不能预测输出。我需要完整
的
浏览 2
提问于2016-11-15
得票数 1
3
回答
堆叠式
LSTM
的
优点?
、
、
、
我想知道在什么情况下堆叠
LSTM
是有利
的
?
浏览 0
提问于2017-08-29
得票数 19
1
回答
把重叠
的
地块分类
的
最好方法?
、
、
、
、
我有一个实验,它是在两个条件下完成
的
。每个条件下,实验进行了26次。实验结果为70个时间指标的小区。我想训练一个分类器来预测它属于哪一种情况。下图显示了在不同颜色识别的两种条件下进行
的
实验
的
输出。实际实验从指标35开始,因此,无论条件
如何
,在此之前
的
实验结果都是没有差别的。图表示单通道(电极)脑电
的
功率谱密度。 我试着训练一个svm分类器,忽略35以下
的
功能。考虑到每个条件
的
高度变异性,分类器很难做到这一点。一件事是,红图和蓝图
的
平均
浏览 0
提问于2019-05-06
得票数 2
1
回答
如何
在TensorFlow中创建终端,
执行
基本
的
LSTM
网络?
、
、
我想要创建一个基本
的
LSTM
网络,它接受5维向量
序列
(例如,作为Nx5数组),并返回相应
的
4维隐藏和单元向量
序列
(Nx4数组),其中N是时间步数。因此,到目前为止,我已经使用了以下代码:
lstm
= tf.nn.
rnn
_cell.LSTMCell(num_units = num_units) timesteps"float", [None, timesteps, num_i
浏览 0
提问于2019-02-19
得票数 1
回答已采纳
1
回答
关于seq2seq网络
、
我读过seq2seq是一个网络,类似于其他网络类型(CNN,
RNN
,.)。然而,在我看来,它实际上是
RNN
的
体系结构。不是吗?那么,seq2seq是
RNN
的
子集吗?兄弟姐妹
LSTM
?还是
RNN
和CNN
的<
浏览 0
提问于2020-01-02
得票数 1
1
回答
TimeDistributed层与ConvLSTM-2D
、
、
、
谁能为我解释一下时间分布层(来自)和ConvLSTM-2D ()之间
的
区别,目的,用法等?
浏览 5
提问于2018-12-02
得票数 0
1
回答
输入0与层repeat_vector_40不兼容:预期
的
ndim=2,找到ndim=1
、
、
、
、
我正在开发一个用于异常检测
的
LSTM
自动编码器模型。import Layer, Conv1D, Input, Masking, Dense,
RNN
,
LSTM
, Dropout, RepeatVector, TimeDistributed, Masking2])) attention_layer = attention()(
RNN
_layer
浏览 1
提问于2022-03-09
得票数 1
回答已采纳
1
回答
Tensorflow -
LSTM
状态批量重用
、
、
我正在研究一个Tensorflow NN,它使用
LSTM
来跟踪一个参数(时间
序列
数据
回归问题)。一批训练
数据
包含一个连续观测
的
batch_size。我想使用
LSTM
状态作为下一个示例
的
输入。所以,如果我有一批
数据
观察,我想把第一个观察
的
状态作为第二个观察
的
输入,以此类推。下面,我将
lstm
状态定义为size = batch_size
的
张量。我想在
批处理
中重用状态:
浏览 5
提问于2017-02-09
得票数 0
点击加载更多
相关
资讯
机器学习100天-Day11 Tensorflow实现RNN算法
独立循环神经网络:打造更长更深的RNN
【视频】Python用LSTM长短期记忆神经网络对不稳定降雨量时间序列进行预测分析|数据分享
动图形象理解LSTM
NNLM、RNNLM、LSTM-RNNLM、Bi-lstm、GPT-1…你都掌握了吗?一文总结语音识别必备经典模型(一)
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券