腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(6622)
视频
沙龙
1
回答
在
tensorflow-hub
预
训练
模型
之后
添加
LSTM
层
、
、
、
我正在使用
Tensorflow-hub
预
训练
的Word2vec
模型
进行文本分类。我正在寻求将
LSTM
层
添加
到keras
模型
中。input_shape=[], trainable=True))
添加
LSTM
层
后: model.add(tf.keras.layers.<e
浏览 36
提问于2021-08-01
得票数 0
回答已采纳
1
回答
Keras:编译后更改
LSTM
参数return_sequences=True
、
、
我想使用一个(2
层
)
预
训练
的
LSTM
模型
,并且我想在最后一个密集
层
之前
添加
一个新的
LSTM
层
。所以我要
添加
的
层
将是第三
层
。因为
预
训练
模型
的第二个
LSTM
已经设置了return_sequences=True。我无法
添加
第三个
LSTM
层
。如何使用
LSTM
浏览 10
提问于2019-09-18
得票数 1
2
回答
在
Keras中"trainable_weights“的意思是什么?
、
、
、
、
冻结之前,我的
模型
有162个trainable_weights。冻结后,
模型
只有2
层
。我将2
层
绑定到预先
训练
的网络。trainable_weights会告诉我要
训练
的
层
吗?
浏览 1
提问于2019-10-06
得票数 0
2
回答
LSTM
前后的辍学
层
。有什么关系?
、
、
、
假设我们有一个用于时间序列预测的
LSTM
模型
。而且,这是一个多变量的例子,所以我们使用多个特性来
训练
模型
。CuDNNLSTM(10, return_sequences = False)(x)我们可以
在
LSTM
之前(如上面的代码)或
LSTM
之后
添加
Dropout
层
。如果我们
在
LSTM
之
浏览 5
提问于2019-11-07
得票数 12
回答已采纳
1
回答
如何在编解码器Seq2Seq
模型
中
添加
Dropout
、
、
、
、
我正在尝试用于语言翻译的编解码
模型
,但是val_acc是浮动的,而且不会超过16%。因此,我决定
添加
Dropout以避免过度适应,但我不能这样做。请帮助我
在
代码中
添加
下拉列表,如下所示:encoder_inputs = Input(shape=(None,))encoder_
lstm
=
LSTM<
浏览 11
提问于2021-03-08
得票数 1
1
回答
如何在Keras中的
模型
开头
添加
层
?
、
、
、
、
我想使用Tensorflow和Keras
在
预先
训练
好的
模型
中
添加
新的
层
。问题是,这些新的
层
不是要
添加
到
模型
的顶部,而是
在
开始时
添加
。我想创建一个三连体
模型
,它采用3种不同的输入和3种不同的输出,使用预先
训练
的网络作为
模型
的核心。为此,我需要在
模型
的开头插入3个新的输入
层
。默认路径是仅链接
层
和
模型</em
浏览 73
提问于2019-06-25
得票数 1
回答已采纳
1
回答
如何在Keras中加载卷积神经网络前几层的权值,删除
预
训练
模型
?
、
、
、
、
我
在
凯拉斯有个受过
训练
的模特。是否可以使用“.h5”文件中
预
训练
模型
的前4个conv
层
的权重来初始化新
模型
的前4个conv
层
?是否必须先加载整个预先
训练
过的
模型
??
浏览 6
提问于2020-08-19
得票数 0
1
回答
在
Keras的BatchNormalization
层
中,attrubutes‘可
训练
’和‘
训练
’有什么区别?
、
、
、
、
根据tensorflow的正式文件:设置layer.trainable = False的意思是冻结该
层
,即它的内部状态
在
训练
期间不会改变:它的可
训练
权重不会在fit()或train_on_batch()期间被更新,它的状态更新也不会运行。通常,这并不一定意味着该
层
以推理模式运行(通常由调用
层
时可以传递的
训练
参数控制)。“冻结状
浏览 12
提问于2020-07-04
得票数 3
回答已采纳
1
回答
caffe
lstm
层
不工作
、
我想
训练
一个
模型
(VGG+
LSTM
),用于
在
视频序列中执行重新识别任务。我的代码的主要问题是,
在
我
训练
了
模型
之后
,我想要进行推断,但
LSTM
似乎不起作用。(我连续9次向
模型
输入一张图片,但每次
在
lstm
之后
输出相同的向量,所以我认为一定是出了什么问题)。 top: "
lstm
_Y_flatten&q
浏览 2
提问于2018-06-21
得票数 0
1
回答
应用迁移学习后的验证精度和
训练
精度没有提高
、
、
、
、
我有一个精度相当高的
预
训练
模型
,但是
模型
是
在
一个不同的数据集上
训练
的,数据集的输入形状为(4096,12)和输出形状(6)。我想微调这个预先
训练
的
模型
,我的数据有一个输入形状(350,5)。为此,我
在
预先
训练
的
模型
输入之前
添加
了一些
层
,以获得形状(4096,12),并
添加
了一个形状(5)的输出致密
层
。我的
模型
的
浏览 9
提问于2022-01-10
得票数 0
1
回答
HuggingFace变压器如何在
添加
额外的keras
层
后冻结变压器
、
、
、
、
我想在
预
训练
的BERT
模型
的最后一
层
之后
添加
一个回归
层
。attention_masks])output = tf.keras.layers.Dense(100,activation='relu')(output) 但我不知道如何冻结BERT
模型
,只
训练
回归
层
。
浏览 32
提问于2021-05-13
得票数 0
2
回答
如何将MC丢包应用于
LSTM
网络keras
、
、
、
我有一个使用keras开发的简单的
LSTM
网络:model.add(
LSTM
(rnn_size,input_shape=(2,w),dropout = 0.25
浏览 0
提问于2019-03-26
得票数 4
1
回答
BERT序列标记
、
、
、
我正在使用一个由嵌入
层
和
LSTM
组成的
模型
来执行序列标记,
在
py电筒+ torchtext中。我已经把句子标记出来了。 如果我使用自我
训练
或其他预先
训练
过的字嵌入向量,这是很简单的。但是,如果我使用Huggingface BertTokenizer.from_pretrained和BertModel.from_pretrained,则在句子的开头和结尾分别
添加
了'[CLS]'和'[因此,
模型
的输出变成比标签/目标
浏览 0
提问于2020-05-10
得票数 0
回答已采纳
1
回答
LSTM
,Keras :推理
模型
应该有多少
层
?
、
、
在
使用keras
lstm
的聊天机器人
模型
中,推理
模型
应该具有与主
模型
相同数量的
层
,还是无关紧要?
浏览 51
提问于2020-06-03
得票数 1
回答已采纳
1
回答
为什么
在
超过一定数量的批处理后,
在
训练
keras
模型
时
训练
时间没有减少?
、
我目前正在用TF 2.8
在
Keras中培训NLP
模型
,在那里我正在通过
添加
GRU和
LSTM
层
进行实验。当我
训练
模型
时,我用不同的批次大小来观察它对准确性和总
训练
时间的影响。我注意到的是,
在
一定数量后增加批次后,培训时间并没有减少,
在
一定数量
之后
,培训规模保持不变。 我以2的批次开始,然后慢慢增加到4096倍,试两倍,但在512
之后
的
训练
时间保持不变。
浏览 20
提问于2022-12-04
得票数 2
回答已采纳
1
回答
更多的年代还是更多的层次感?
、
如果一个人使用更多的时代或更多的层次,那么
训练
有什么不同呢?
LSTM
for epoch in range(5):我知道
训练
后会有不同
在
第一种情况下,您将通过一个经过
训练
的
LSTM
单元发送任何测试批次,而在第二个
浏览 3
提问于2017-12-18
得票数 0
回答已采纳
3
回答
无法使用fastai的pretrained_model=URLs.WT103
、
尝试使用fastai的language_model_learner:错误:AttributeError Traceback (most recent call last) <ipython-input-17-811d
浏览 2
提问于2019-07-28
得票数 2
2
回答
在
转移学习CNN中我应该替换多少
层
、
、
、
、
网络的结构包括6个卷积
层
和3个完全连接
层
。考虑到
在
大多数情况下,新作者/类的数据量将是最小的,那么我应该替换和重新培训哪些
层
来使新类成为最有效的类?还是我可以考虑其他方法来解决这个问题?
浏览 0
提问于2020-06-21
得票数 1
回答已采纳
1
回答
如何使用Tensorflow的
LSTM
单元格作为更大图的一部分?
、
内置的
LSTM
单元为您提供了一个可调用的。但是,我想在
LSTM
层
之前和
之后
添加
静态
层
,并通过backprop
训练
所有内容。这有可能吗?
浏览 0
提问于2016-03-26
得票数 1
2
回答
如何使用PyTorch
在
预先
训练
的
模型
上
添加
新的
层
?(给出了Keras示例。)
、
、
、
、
我正在与Keras一起工作,并试图分析一些有意义的权重
层
和一些随机初始化
层
所建立的
模型
对精度的影响。喀拉斯:model = keras.applications.VGG19(include_top=False, weights="imagenet", input_shape=(img_width, img_height, 3))我加载VGG19<e
浏览 0
提问于2020-11-01
得票数 6
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
BERT的正确使用姿势
最佳论文:艾伦人工智能研究所提出新型深度语境化词表征
一文讲透预训练模型的改进训练算法 ,轻松达到State of the Art
如何用深度学习将前端设计模型自动转换为代码?
利用预训练语言模型提供常识知识!中科院信工所雏鹰团队在SemEval上大显神威
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券