腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(384)
视频
沙龙
1
回答
tensorflow
basic
lstm_cell
中
的
trainable_weights
和
trainable_variables
有
什么区别
?
、
在尝试使用基本
的
LSTM Cell复制
Tensorflow
中
的
LSTM Cell
的
权重时,我偶然发现了
trainable_weights
和
trainable_variables
属性。遗憾
的
是,对于像我这样
的
菜鸟来说,并没有真正提供丰富
的
信息。经过一些实验,确实得到了以下信息:两者具有完全相同
的
布局,是一个长度为2
的
列表,其中第一个条目是形状
的
tf
浏览 42
提问于2018-02-28
得票数 7
回答已采纳
2
回答
Keras模型
中
权重
和
变量之间
的
区别是什么?
、
、
我注意到tf.keras.Model
有
两组相似的属性:
trainable_weights
,
trainable_variables
还有一些方法:在我所查看
的
模型
中
,属性对
的
值是相同
的
,并且是您所期望
的
(适当
的
tf.Variable集合所以我
的</em
浏览 0
提问于2020-11-19
得票数 1
2
回答
在哪些情况下,我们在TF2
中
使用属性
trainable_variables
而不是
trainable_weights
,反之亦然?
、
、
我正在研究如何在TF 2
中
进行迁移学习,我看到在
中
,他们使用属性
trainable_variables
来引用模型
的
可训练变量,但在这个中,他们使用tf.keras.Model
的
属性
trainable_weights
我用一个简单
的
模型检查了这两个属性,它们给出了相同
的
结果。print(tf.:
trainable_variables
似乎是,
trainable_we
浏览 2
提问于2020-06-07
得票数 3
2
回答
当@tf.function装饰器将函数编译成图形时会发生什么?为什么它比在急切模式下更快?
、
、
根据the
TensorFlow
document
的
说法,@tf.function将一个函数编译成图形,并“使您获得更快
的
执行速度,在GPU或TPU上运行,或导出到SavedModel。”文档
中
的
示例演示了这样
的
好处:
lstm_cell
= tf.keras.layers.LSTMCell(10) def lstm_fn(input, state): inp
浏览 21
提问于2019-05-19
得票数 2
回答已采纳
1
回答
Tensorboard -可视化LSTM
的
重量
、
我想在培训期间监控每个LSTM层
的
权重。但是,我无法找到如何将LSTM层权重
的
摘要附加到TensorBoard
中
。 对于如何做到这一点,
有
什么建议吗?
浏览 1
提问于2017-12-04
得票数 8
回答已采纳
1
回答
TensorFlow
(v1.1.0)多RNN BasicLSTMCell错误(“重用”参数)Python3.5
、
、
问题是:尽管这个问题已经在github上提出来了,而且可能会在
TensorFlow
的
另一个版本
中
得到解决,但我发现目前还没有任何解决方案;在此期间,是否存在一种可能有效
的
止损措施?它解释了最新版本
的
tensorflow
包含了BasicLSTMCell()
的
“重用”参数。在这段代码
中
,如果我将重用设置为False,则tf.nn.dynamic_rnn行将产生错误: “rnn/multi_rnn_cell/cell_0/<
浏览 0
提问于2017-05-13
得票数 1
回答已采纳
1
回答
了解
Tensorflow
BasicLSTMCell内核
和
偏置形状
、
、
、
、
我想更好地理解那些形状
的
Tensorflow
的
BasicLSTMCell内核
和
偏见。_num_units],为什么内核
有
shape=input_depth +_num_units)
和
形状偏差=4* self._num_units?可能因素4来自遗忘门、块输入、输入门
和
输出门?input_depth
和
h_depth之和
的<
浏览 0
提问于2018-08-22
得票数 6
回答已采纳
2
回答
使用
tensorflow
集线器模型
和
TensorFlow
2.0作为后端创建keras自定义层时出现Variable_scope运行时错误
、
、
、
我试图通过将预先训练好
的
集成到keras层
中
来使用它。这似乎是由于急切
的
执行行为造成
的
。如果我禁用了急切执行,我必须在
tensorflow
会话
中
包围model.fit函数,并使用sess.run(global_variables_initializer())初始化变量,以避免下一个错误:Not found: Resource localhost/module/bilm/RNN_0/RNN/MultiRNNCell/Cell1
浏览 0
提问于2019-08-01
得票数 1
1
回答
LSTM
的
输入应该是什么样子
的
?
、
、
想象一下,您正在
tensorflow
中
为序列分类任务训练一个LSTM模型。在每个时间步,你
有
一个二进制向量v_i (例如,v_i=[0, 1, 0, 1]),并且对于每个序列,你
有
可变数量
的
时间步(尽管二进制向量v_i
的
长度是相等
的
)。在
tensorflow
中
训练LSTM模型时,如下所示:
lstm_cell
=tf.nn.rnn_cell.LSTMCell(number_of_hidden) tf.contrib.
浏览 15
提问于2019-06-18
得票数 0
1
回答
如何在MultiRNNCell
中
重用权重?
、
、
我想在重用旧权重
的
同时创建一个新
的
MultiRNNCell。import
tensorflow
as tf def create_lstm_multicell():
lstm_cell
= lambda: rnn.LSTMCell(nstates
浏览 2
提问于2017-05-12
得票数 0
回答已采纳
1
回答
如何在tensforflow 2.0
中
替换OutputProjectionWrapper
、
、
我
有
以下代码片段
的
seq2seq解码器与注意力机制。它可以在
tensorflow
1.13
中
工作。现在我需要升级到带有keras
的
TensorFlow
2.0,但是tf.contrib.rnn.OutputProjectionWrapper已经在
TensorFlow
2.0
中
被删除了。如何实现它?impute_finished=True, ) 我阅读了,但不知
浏览 43
提问于2019-08-14
得票数 2
2
回答
默认初始化
Tensorflow
LSTM状态
和
权重?
、
、
、
、
我在使用
Tensorflow
的
LSTM细胞。
lstm_cell
= tf.contrib.rnn.BasicLSTMCell(lstm_units)注意:对于tf.get_variable(),glorot_u
浏览 2
提问于2018-03-11
得票数 1
回答已采纳
1
回答
尝试重用具有不同变量范围
的
RNNCell
、
我在GPU支持下使用
Tensorflow
1.1.0,我
有
以下功能: def get_init_cell(batch_size, rnn_size, keep_prob=0.75, layers=2):1.0.0
中
,但是现在我已经改变了获取lstm单元
的
方式。首次使用
的
单元格是作用域‘rnn/多_rnn_ cell /cell_0/
basic
_lstm_cell’,这一尝试是与作用域‘rnn/多_rnn_cell/cell_1/
浏览 0
提问于2017-05-08
得票数 0
回答已采纳
2
回答
如何在单一正则化函数
中
对层
的
核权值进行正则化?
、
、
、
为权重正则化
和
偏置正则化引入了单独
的
类。这些类可以是添加自定义正则化器
的
子类。Keras文档
中
的
一个示例: return 1e-3 * tf.reduce_sum(tf.square(x))de
浏览 0
提问于2019-01-28
得票数 2
1
回答
使用RNN生成一系列张量
、
、
我正在构建一个rnn,我使用tf.nn.dynamic_rnn来产生输出
和
状态。守则如下(tf版本1.3):def
lstm_cell
(): cell= tf.contrib.rnn.MultiRNNCell([
lstm_cell
层也是batch_size=1<e
浏览 1
提问于2017-12-21
得票数 0
回答已采纳
1
回答
如何在不改变LSTM -Cell之后
的
图形部分
的
情况下,逐步使用LSTM-Cell?
、
、
output3 = tf.someoperation3(out)def some_function(lstm_ou
浏览 4
提问于2018-09-08
得票数 0
回答已采纳
1
回答
Tensorflow
- bidirectional_dynamic_rnn:尝试重用RNNCell
、
、
- 1.1 ( 2.7
和
3.5 ) 'bidirectional_rnn/fw/
lstm_cell
', this attempt is with scope 'bidirectional_rnn/bw
浏览 2
提问于2017-05-22
得票数 0
回答已采纳
1
回答
有没有办法在
tensorflow
中
强制添加新
的
变量到现有的检查点?
、
、
假设有一个深度学习模型
和
一个具有预先训练好
的
权重
的
检查点。我想要做
的
是对预先训练
的
模型进行微调。然而,我发现我必须使用现有模型图中没有定义
的
新
的
ADAM优化器对模型进行微调。因为ADAM优化器本身
有
一些
trainable_variables
,所以如果我想要基于检查点对模型进行微调,我必须将它们添加到现有的检查点。有没有办法在
tensorflow
中
强制添加新
的
变量到现有的检查点?
浏览 19
提问于2020-01-15
得票数 0
1
回答
Tensorflow
模型类型是`kears.engine`而不是`
tensorflow
.python.keras`
、
、
、
但是,我
的
模型
有
keras.engine.sequential.Sequential object at 0x7fa284a24d30类型,而不是
tensorflow
.python.keras.engine.sequential.Sequential因此,当我试图获取可训练变量时,就会得到错误:我对脚本
和
终端
中<
浏览 6
提问于2022-04-12
得票数 0
1
回答
Tensorflow
:理解LSTM模型
的
层结构
、
、
、
、
我是
tensorflow
和
LSTM
的
新手,我很难理解网络
的
形状
和
结构(权重、偏差、输入
和
日志
的
形状)。在这段取自
的
特定代码
中
layer = {'weights':tf.Variable(tf.random_normal([rnn_sizetf.transpose(x, [1,0,2]) x = tf.reshape(x, [-1,
浏览 2
提问于2018-08-14
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券