腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Conv1D
作为
LSTM
的
降
维
方法
、
、
我希望使用CNN
作为
我
的
LSTM
层
的
降
维
工具。of days = 5065features = 2767如你所见,我
的
特征数量是数据点
的
一半以上理想情况下,我希望向我
的
LSTM
层提供压缩
的
特征信息,大约有32个特征,希望形状如下:然而,当
浏览 8
提问于2018-08-15
得票数 1
回答已采纳
1
回答
错误“输入0与层conv1d_48不兼容:期望ndim=3,在添加
Conv1D
层时找到ndim=2”
、
、
、
、
model.add(Embedding(input_dim = num_top_words, output_dim = 64, input_length = input_length))model.add(
Conv1D
(64, kernel_size = 5, activation = 'relu')) model.add(MaxPooling1DInput 0 is incompatible with layer conv1d_48
浏览 2
提问于2018-10-18
得票数 0
回答已采纳
1
回答
LSTM
如何知道Conv1D-
LSTM
网络中
的
时间步数和特性?
、
、
、
我使用
的
是一个固定
的
LSTM
网络。n_timesteps = 81,n_features = 3。普通
的
LSTM
同时指定了n_timesteps和n_features,但是当与
conv1d
结合时,没有指定它们。 如何知道
LSTM
的
输入中有多少时间步骤和特性?
LSTM
如何知道每个样本
的
序列结束?是时间步骤“存储”并输入到
LSTM
中,还是一次处理一次,并一次输入
LSTM
一个时间步骤?
浏览 1
提问于2019-09-23
得票数 2
回答已采纳
1
回答
基于MLP
的
多变量时序异常检测自动编码器
、
、
、
、
我正在开发一个使用MLP
的
自动编码器来检测多变量时间序列中
的
异常。为了简化这个问题,我只使用了一个系列变量。我应用它
的
方式是将时间序列分解成几个部分,并将这些片段呈现给网络。例如,我
的
系列由1000个点组成,我将其分成50个长度为20
的
子系列,每个子系列都成为学习网络
的
示例。 DAE input_shape应该是什么?我发现如果shape=(20, )和shape=(20,1)是不同
的
。我把我一直在做
的
DAE代码放在下面。DAE最后一层<
浏览 4
提问于2021-01-06
得票数 0
1
回答
如何设置1dCNN+
LSTM
网络(Keras)
的
输入形状?
、
、
、
我有以下
的
想法来实施:输入有100个时间步骤,每个步骤都有一个64
维
特征向量
Conv1D
层将在每个时间步骤中提取特性。CNN层包含64个过滤器,每个过滤器有16个水龙头。然后,最大池层将提取每个卷积输出
的
单个最大值,从而在每个时间步骤中总共提取64个特征。然后,将层
的
输出输入有64个神经元
的
层。重复次数与输入
的</
浏览 1
提问于2018-04-17
得票数 2
2
回答
如何将TimeDsitributed层用于神经网络集成(特别是CNN+
LSTM
)?
、
、
、
、
这是我尝试
的
两种
方法
中
的
第一种:inputs=Input(shape=(frames, 103*4, 1)) z=Conv2D(32, (5,25但如果这是正确
的
方式,我仍然感到困惑。我可以通过model.summary()看到我<e
浏览 36
提问于2020-05-29
得票数 0
1
回答
如何将CNN和
LSTM
用于BERT嵌入
的
NLP?
、
、
我已经尝试了密集
的
层次,我已经达到了85%
的
准确性,没有太多
的
问题。但是,当涉及到使用凸层和lstms层时,我遇到了
维
数问题。另一个缺失
的
概念是,我不知道这些层次
的
排序。我相信,由于我已经在使用伯特嵌入,我不需要一个输入层
的
嵌入式类型,但我不确定,每个人。 免责声明:经过一些实验,我认为一个人不需要一个
LSTM
层,也不需要CNN。分类应该是密集
的
,因为嵌入应该带来所有的上下文信息。那时我还不够聪明(还不够聪明),也许我只是在尝试不同<
浏览 3
提问于2020-06-09
得票数 4
回答已采纳
1
回答
对大文本使用
LSTM
、
、
、
、
我有一个从kaggle( https://www.kaggle.com/c/fake-news/data )得到
的
用于检测假新闻
的
数据集。我想使用
LSTM
进行分类 一篇文章
的
平均词长约为750个单词。我试着去掉标点符号,停用词,去掉数字。预处理文本也需要很长时间。 我想要一种使用keras将大文本输入到
LSTM
的
方法
。我应该怎么做才能减少计算时间,又不会损失太多
的
准确性。
浏览 8
提问于2019-07-02
得票数 0
回答已采纳
2
回答
LSTM
与CNN在时间序列分类中
的
结合
、
、
、
、
当有图像
作为
数据时,最常用
的
是CNN。然而,我已经看到CNN是用来制作时装秀
的
。因此,我分别尝试了
LSTM
和CNN模型来解决我
的
时刻表分类问题。我
的
两个模型如下。
LSTM
:model.add(
LSTM
(200, input_shape=(25,3)))model.add(Dense='binary_crossentropy', optimize
浏览 2
提问于2019-12-04
得票数 0
回答已采纳
2
回答
从大卷积层中提取有用
的
特征
、
、
、
、
我一直在训练一个关于情绪检测
的
卷积神经网络。现在,我想为我
的
数据提取特性来训练
LSTM
层。在我
的
例子中,网络中
的
顶层卷积层有以下几个维度:[None, 4, 4, 512]和[None, 4, 4, 1024]。因此,这将给出总共8192
维
和16384
维
向量。这太大了,无法训练
LSTM
层。因此,我想知道降低这个向量
维
数
的
最好
方法
是什么?换句话说,在获得激活或任何其他
降
维</
浏览 0
提问于2018-11-01
得票数 0
回答已采纳
2
回答
如何将遮罩值输入到Convolution1D图层
、
、
我需要将可变长度序列输入到我
的
模型中。如何在
Conv1d
中输入掩码值,或者是否有其他解决方案?
浏览 1
提问于2017-04-13
得票数 13
1
回答
将CNN-
LSTM
模型转换为一
维
-CNN模型尺寸误差-“model”和“`labels`”必须具有相同
的
形状
、
、
、
、
我有一个CNN-
LSTM
模型,我想把它转换成一个简单
的
CNN模型来进行结果比较。这是最初
的
CNN-
LSTM
模式: model = Sequential() # define model CNN model =
浏览 18
提问于2022-07-17
得票数 1
回答已采纳
2
回答
训练
LSTM
自动编码器时出错:“没有为任何变量提供渐变”
、
、
、
我一直在尝试创建一个用于异常检测
的
递归自动编码器,但在尝试训练模型时遇到了一个奇怪
的
错误。其他一切似乎都运行得很好-只有在训练模型时才会出现错误。我尝试过
的
东西: 我非常确定这不是我提供给模型
的
数据
的
问题-我已经检查了一次又一次,检查了它
的
形状是否正确,正则化是否正确,等等。 我尝试从一组不同
的
文件中获取数据,但得到了相同
的
错误。仅用
LSTM
(2, return_sequences=True, input_shape=(512,2))
浏览 35
提问于2020-07-03
得票数 0
1
回答
如何建模一个一
维
CNN +
LSTM
网络,其中每一时间步骤是一组一
维
阵列?
、
我试图建立一个基于Keras
的
网络,使用一组一
维
CNN和
LSTM
层。web上
的
大多数可用示例都使用数据
的
形状,如(1, 30, 50) (包含30个时间步骤
的
一个示例,每个示例包含50个功能)。然而,我
的
数据集中
的
每个时间步骤都是由许多一
维
数组组成
的
。一个10个时间步骤
的
示例将是(1, 10, 100, 384) (一个批处理-一个单个样本,每一个时间步骤包含100个具有384特性
的</em
浏览 0
提问于2019-07-03
得票数 0
回答已采纳
1
回答
更改训练
的
标签格式
、
通常,如果使用keras进行训练,model.fit希望训练数据
的
形状为(samples,timesteps,input),标签为(samples,outputs)。
浏览 13
提问于2019-07-02
得票数 0
2
回答
如何在Keras中建立一
维
卷积和
LSTM
、
、
、
、
我想使用1D-Conv层后面的
LSTM
层来分类一个16通道400阶跃信号.代码片段如下所示:conv1 =
Conv1D
(filters=32=
LSTM
(32)(pool1)model = Model(inputs=input_layer由于input_shap
浏览 0
提问于2018-07-15
得票数 24
1
回答
Keras加载
的
模型输出与训练模型输出不同。
、
、
、
当我训练我
的
模型时,它有一个二
维
输出--它是(无,1) --对应于我试图预测
的
时间序列。但是,每当我加载保存
的
模型以进行预测时,它就有一个三
维
输出--(无,40,1) --其中40对应于适应
conv1D
网络所需
的
conv1D
。怎么啦?以下是代码: #model = load_model('ModeloConv1D.h
浏览 0
提问于2020-04-01
得票数 1
回答已采纳
1
回答
在Keras中跨频道转换:
Conv1D
,可分离
的
Conv,CCCP?
、
、
、
我正在开发一个在角星
的
CNN分类卫星图像,有10个光谱波段。在下面的网络中,我获得了相当高
的
精度(在15个类别中,大约60%
的
val精度),但是我想更好地将单个像素上
的
光谱波段之间
的
关系结合起来,这样就可以获得像素类
的
大量信息。我看到很多报纸这样做,但这通常被称为不同
的
东西。例如: 我不确定这些
方法
之间
的</
浏览 2
提问于2019-04-30
得票数 6
回答已采纳
2
回答
CNN层应该在Bi-
LSTM
之前还是之后?
、
、
当前
的
架构是这样
的
: model = Sequential()model.add(Bidirectional(
LSTM
(20, return_sequences=True)))model.add(Dense(100, activation=
浏览 86
提问于2020-07-16
得票数 0
回答已采纳
1
回答
Keras加载
的
模型输出与训练模型输出不同
、
、
、
、
当我训练我
的
模型时,它有一个二
维
输出-它是(none,1) -对应于我试图预测
的
时间序列。但是,每当我加载保存
的
模型以进行预测时,它都会有一个三
维
输出- (none,40,1) -其中40对应于拟合
conv1D
网络所需
的
n_steps。怎么啦?代码如下: df = np.load('Principal.npy') #model = load_model('ModeloConv
浏览 68
提问于2020-04-01
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
数据降维方法-主元分析
机器学习数据降维方法总结
t-SNE:最好的降维方法之一
非线性降维方法在高维数据可视化中的应用
数据分析领域中最为人称道的七种降维方法
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券