腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
GradientTape
()
计算
偏差
项
的
梯度
我想分别
计算
关于权重变量和
偏差
项
的
梯度
张量。权重变量
的
梯度
计算
正确,但
偏差
的
梯度
计算
得不好。请让我知道问题是什么,或者正确地修改我
的
代码。tf.constant([ [-10.0], [-5.0], [0.0], [5.0], [10.0] ]) with tf.
Grad
浏览 7
提问于2019-09-06
得票数 0
回答已采纳
1
回答
如何
使用
Tensorflows ()
计算
偏差
、
我希望在自定义NN架构上实现
GradientTape
(),但我没有看到任何关于如何
使用
它来
计算
偏差
的
解释。here也回答了类似的问题,但没有得到完全回答。举个简单
的
例子,我
的
神经网络
的
训练步骤如下: self.W = ## Initialized earlier on with tf.
Gradient
浏览 22
提问于2020-01-01
得票数 0
1
回答
tensorflow中
的
Pytorch等效特性?
、
、
、
我最近读了一段Pytorch代码,遇到了loss.backward()和optimizer.step()函数,有没有类似于
使用
tensorflow/keras
的
函数呢?
浏览 2
提问于2020-05-05
得票数 6
1
回答
GradientTape
不
计算
梯度
、
、
、
我理解,只要我在tf.
GradientTape
()上下文中定义一个
计算
,
梯度
磁带就会
计算
出
计算
输出所依赖
的
所有变量。但是,我认为我并没有完全理解
梯度
的
子属性,因为下面的代码没有像我期望
的
那样执行:x = tf.Variable(2.) loss_ = x**2-2*x为什么不
计算
梯度
wrt?我只能
计算
wrt到上下文中显式
使用
浏览 6
提问于2020-06-01
得票数 0
2
回答
GradientTape
在多重雅可比
计算
中
的
重复
使用
、
、
、
、
对于一个非平凡
的
雅可比
计算
(例如,对于具有非线性激活函数
的
深卷积神经网络),重复重新运行
GradientTape
计算
和评估jacobian方法是非常昂贵
的
。我从中得知,
梯度
(因此也是雅可比)是通过自动微分
计算
的
。我不得不想象网络
的
分析
梯度
(由自动微分
计算
)
的
内部存储,它是在给定
的
输入时评估
的
。我
的
问题是:假设T
浏览 5
提问于2020-02-03
得票数 2
回答已采纳
1
回答
GradientTape
不
计算
梯度
、
我理解,只要我在tf.
GradientTape
()上下文中定义一个
计算
,
梯度
磁带就会
计算
出
计算
输出所依赖
的
所有变量。但是,我认为我并没有完全理解
梯度
的
子属性,因为下面的代码没有像我期望
的
那样执行:x = tf.Variable(2.) loss_ = x**2-2*x为什么不
计算
梯度
wrt?我只能
计算
wrt到上下文中显式
使用
浏览 0
提问于2020-06-01
得票数 2
2
回答
在本例中执行反向传播
的
位置
、
、
、
、
(zip(Grads,[W1,B1,W2,B2]));根据我
的
尝试,当调整变量数组中权重和
偏差
的
浏览 4
提问于2019-09-28
得票数 0
回答已采纳
3
回答
Tensorflow 2.0中输出wrt输入
梯度
的
计算
、
、
、
我有一个经过训练
的
Tensorflow 2.0模型(来自tf.keras.Sequential()),它采用一个输入层,有26列(X),并生成一个带有1列(Y)
的
输出层。在Tf1.x中,我能够通过以下方法
计算
输出相对于输入
的
梯度
:sess = K.get_session() 在问题中,我们
浏览 19
提问于2019-12-02
得票数 8
回答已采纳
1
回答
用
GradientTape
计算
关于某些张量
的
预测
梯度
、
、
、
、
要
计算
梯度
惩罚,需要
计算
与输入图像相关
的
预测
的
梯度
。 现在,为了使它更易于处理,它不需要
计算
所有输入图像
的
预测
梯度
,而是按照原始数据点和假数据点
的
线
计算
插值数据点,并
使用
这些数据点作为输入。为了实现这一点,我首先开发compute_gradients函数,它将进行一些预测,并返回那些相对于某些输入图像
的
梯度
。首先,我想用tf.keras.back
浏览 2
提问于2020-03-19
得票数 1
回答已采纳
2
回答
试图在非持久性磁带上调用tape.gradient时,它仍然处于活动状态。
我
使用
WinPython3.5.4.2并安装了TensorFlow 1.8.0。我一直在关注
的
教程,直到题为“训练循环”
的
部分。tf.train.get_or_create_global_step()) 6 with tf.
GradientTape
浏览 0
提问于2018-05-09
得票数 4
回答已采纳
1
回答
在TensorFlow2.0中替换损失函数
的
梯度
计算
、
、
我想将tensorflow 2.0中
的
损失函数替换为
梯度
函数。如下所示: # do some standard tensorflow things here然后,我
使用
tf.
GradientTape
方法应用
梯度
,即 loss = loss_funct
浏览 21
提问于2019-11-20
得票数 1
1
回答
当试图将
梯度
应用于2个keras模型时,
梯度
不返回任何值。
、
、
我想把cnn和变压器结合起来,并将
梯度
应用于这两种模型。我创建我
的
CNN模型:和tf.
GradientTape
()作为磁带: cnn_prediction = cnn_model(inp,training=True)预测,_=转换器(cnn_prediction,tar_inp,True,enc_padding_mask,combined_mask,(
浏览 0
提问于2021-05-19
得票数 1
1
回答
在TensorFlow中批量访问单个渐变
的
最佳方式是什么?
、
、
、
我目前正在
使用
Tensorflow 2.x分析在CNN
的
训练过程中
梯度
是如何发展
的
。我想要做
的
是将批次中
的
每个
梯度
与整个批次
的
梯度
结果进行比较。目前,我对每个训练步骤都
使用
了这个简单
的
代码片段:loss_object = tf.keras.losses.SparseCategoricalCrossentropy() [...,当单独
计算
每个
梯度
时,<
浏览 15
提问于2020-06-08
得票数 2
回答已采纳
1
回答
tf.keras
GradientTape
:获取与输入相关
的
梯度
、
、
Tensorflow版本: Tensorflow 2.1 with tf.
GradientTape
operations that the layer applies # to its inputs are going
浏览 1
提问于2020-02-09
得票数 0
2
回答
当将代码从Tensorflow 1迁移到Tensorflow 2时,我如何处理属性错误:'Adam‘对象没有属性'compute_gradient'?
、
我正在
使用
Tensorflow,并且正在
使用
已经为TensorFlow1 (https://github.com/openai/maddpg/blob/master/maddpg/common/tf_util.py)实现
的
代码。在将代码迁移到tensorflow 2时,我能够
使用
在线提供
的
文献进行大多数更改。但是,我找不到145行
的
合适替代品: gradients = optimizer.compu
浏览 429
提问于2021-05-07
得票数 4
1
回答
tf.
GradientTape
与backprop.
GradientTape
的
区别
、
、
在查看TensorFlow1.15中
的
OptimizerV2代码时,我注意到它们
使用
backprop.
GradientTape
来
计算
梯度
。我找不到任何关于这个类
的
在线参考,只能找到tf.
GradientTape
。两者之间
的
区别是什么?
浏览 12
提问于2020-03-10
得票数 3
回答已采纳
1
回答
TensorFlow:渐变中
的
“无”可以自动替换为零或者在优化器中
使用
吗?
、
我用tf.stop_gradient()关闭了神经网络中一些权重
的
梯度
计算
。不幸
的
是,tf.
GradientTape
().gradient()将这些权重
的
梯度
分配为None,这并不适用于optimizer.apply_gradients。解决办法是在之后为这些渐变分配零。有更好
的
工作吗? 有可能让tf.
GradientTape
().gradient()自动将None替换为零吗?或者,是否有一种方法可以让优化器
使用
渐变
浏览 6
提问于2022-05-03
得票数 0
回答已采纳
1
回答
如何
计算
一个输出单元
的
梯度
?
、
我有一个被训练
的
模型叫做网,最后一层(输出层)是一个密集
的
层,有10个单元和线性激活函数。当我
计算
这样
的
梯度
时,一切都很好: output = net(x)输出是一个形状(1,10)
的
tf.Tensor。现在,当我尝试从10个输出单元中
的
一个
计算
渐变时
浏览 0
提问于2020-01-26
得票数 1
回答已采纳
1
回答
GradientTape
丢失变量
的
跟踪
、
、
我有一个脚本,可以执行类似Gatys
的
神经样式转换。它
使用
样式损失和总变化损失。我正在
使用
GradientTape
()来
计算
我
的
梯度
。我实现
的
损失似乎工作得很好,但是我添加
的
一个新损失没有被
GradientTape
()正确地说明。我
使用
的
是启用了急切执行
的
TensorFlow。 我怀疑这与我如何根据输入变量
计算
损失有关。我不理解
Gradi
浏览 22
提问于2019-07-27
得票数 1
1
回答
如何在Tensorflow GAN中禁用鉴别器训练?
、
、
、
我有一个这样
的
发电机: model = tf.keras.Sequential()def train(g_model, d_model, g
浏览 8
提问于2021-12-17
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Excel标准偏差计算公式的用法
对比PyTorch和TensorFlow的自动差异和动态子类化模型
对比PyTorch和TensorFlow的自动差异和动态模型
皮带秤校验链码和实物的偏差怎么计算?
对比TensorFlow提升树与XGBoost:我们该使用怎样的梯度提升方法
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券