腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(281)
视频
沙龙
1
回答
采用
梯度
时
的
张量
流
2.0
;
错误
表示
没
有为
任何
变量
提供
梯度
嘿,我正在转换老版本
的
张量
流
,考虑一个简单
的
线性回归模型 import tensorflow as tffrom tensorflowtf.keras.optimizers.Adam() opt_op = optimizer.minimize(loss,var_list = model.trainable_weights) 现在它会引发
错误
状态这很奇怪,因为我把神经网络作为可训练
变量
,它在前进过程中通过了。我去了
浏览 17
提问于2019-10-04
得票数 1
回答已采纳
1
回答
Tensorflow:如何通过tf.gather传播
梯度
?
我在尝试传播损失函数相对于
表示
聚集索引
的
变量
的
梯度
时
遇到了一些问题,这类似于在空间转换网络()中所做
的
事情。我觉得我可能错过了一些非常简单
的
东西。下面是我想要做
的
一个简化
的
玩具示例:import numpy as nplf_b =
2.0
tf.squared_differe
浏览 1
提问于2016-07-24
得票数 5
1
回答
Tensorflow
变量
是必不可少
的
吗?
、
我非常理解Tensorflow中
的
变量
概念(我想),但我仍然觉得它们不是很有用。我读到它
的
主要原因是为了在以后恢复它们,这在某些情况下可能很方便,但是您可以使用numpy.save来保存矩阵和值,甚至将它们写到日志文件中。
变量
用于保存
张量
,但是您可以使用Python
变量
来保存它们,从而避免了Tensorflow
的
变量
额外包装。当使用get_variable函数
时
,
变量
变得很好,因为代码将比使用字典存储权重干净得多,然
浏览 0
提问于2018-01-01
得票数 0
3
回答
ValueError:没
有为
任何
变量
提供
梯度
我正面临着tensorFlow
的
麻烦。optimizer = tf.train.AdamOptimizer(learning_rate=learning_rate).minimize(cost) # Gradient Descen ValueError:没
有为
任何
变量
提供
梯度
,检查不支持渐变
的
图形,在
变量
‘
张量
(“
变量
/读:0”,shape=(784,10),dtyp
浏览 6
提问于2017-01-17
得票数 35
1
回答
获取给定优化器在Tensorflow中最小化
的
损失
、
、
我正在为我
的
tensorflow工作区工作在一个单元测试系统中,我想知道是否有
任何
方法或属性,给出了一个带有优化器操作
的
图(在调用.minimize()之后),以获得它正在优化
的
最终损失
张量
及其控制
的
变量
例如,如果我调用train_op = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy),我希望只检索只有访问train_op
的
cross_entropy我可以访问train_op对象,我只想知道它
浏览 0
提问于2018-01-23
得票数 6
回答已采纳
1
回答
tensorflow中损失中
的
逻辑可以是占位符
、
、
、
、
我希望softmax_cross_entropy_with_logits中
的
logits首先由占位符
表示
,然后在计算
时
通过计算值传递给占位符,但tensorflow将报告
错误
ValueError:没
有为
任何
变量
提供
渐变,请检查您
的
图形中不支持渐变
的
操作。我知道直接将logits更改为输出是可以
的
,但如果我必须使用logits,则结果首先是一个占位符。我该怎么解决呢?
浏览 0
提问于2018-12-05
得票数 0
3
回答
在torch.nograd()中"detach()“和"with torch.nograd()”之间
的
区别是什么?
、
、
我知道从
梯度
计算backward中排除计算元素
的
两种方法with torch.no_grad():loss = criterion(net.forward(torch.from_numpy(o)), y)方法2:使用.detach()
的
浏览 0
提问于2019-06-29
得票数 66
6
回答
loss.backward()和optimizer.step()之间
的
连接
、
、
、
optimizer和loss之间
的
显式连接在哪里?优化器如何知道在没有调用
的
情况下从哪里得到损失
的
梯度
,比如这个optimizer.step(loss)当我将损失最小化时,我不必将
梯度
传递给优化器。
浏览 0
提问于2018-12-30
得票数 142
回答已采纳
1
回答
"ValueError:没
有为
任何
变量
提供
渐变:[‘
变量
:0’]。“在Tensorflow
2.0
2.0
中
、
我想通过定义一个丢失
的
"loss_mu“来更新一个
变量
参数"mus”,并使用optimizer.adam优化它,我遇到了一个问题:"ValueError:没
有为
任何
变量
提供
梯度
:‘
变量
:0’。grad = Tape.gradient(loss_mu, [mus])当我打印研究生
时
,我发现它不是,我对
浏览 1
提问于2022-02-20
得票数 0
回答已采纳
1
回答
由于自定义度量函数,Keras中
的
磁带状态
错误
无效
、
、
、
、
因此,我在Keras中实现基于SSIM
的
度量函数
时
遇到了一些困难。我
的
公制函数是:def custom_ssim(y_actual, y_predicted): 在试图编译模型
时
收到
的
错误
消息如下我已
浏览 3
提问于2020-02-22
得票数 3
1
回答
如何覆盖千层面中
的
非线性函数
的
梯度
?
、
、
、
类ModifiedBackprop(object):def __init__(自,非线性):self.nonlinearity =非线性self.ops = {} #回溯每个
张量
类型
的
OpFromGraphX= maybe_to_gpu(x) #我们注意到非线性#(主要是维数和dtype)输入
变量
的
张量
类型;我们需要创建一个拟合
的
Op.tensor_type= x.type #,如果我们还没有创建一个合适
的
如果tensor_type不在self.ops:#中,则创建一个
浏览 4
提问于2022-03-02
得票数 0
1
回答
在不中断
梯度
磁带注册
的
梯度
链
的
情况下,实现以下损失函数
、
、
、
、
不可能,因为当我最终实现时,我得到了
错误
:我正在实现一个语义分割网络来识别脑肿瘤。网络总是返回非常好
的
精度,大约94.5%,但是当我用网络输出绘制真实
的
掩码
时
,我看到精度是0%,因为它没有绘制
任何
白点:顺便说一句,面具图像
的
值只有0.0,黑色和1.0之间<em
浏览 0
提问于2020-06-10
得票数 1
回答已采纳
2
回答
利用自动微分库计算任意
张量
的
偏导数
、
、
、
、
我试图用PyTorch
张量
来代替Numpy数组来解决GPU上
的
非线性PDE问题。我要计算任意
张量
的
偏导数,类似于中心有限差分函数
的
作用。我还有其他解决这个问题
的
方法,但是由于我已经在使用PyTorch,我想知道是否可以使用autograd模块(或者,一般情况下,
任何
其他
的
自动分化模块)来执行这个操作。我已经创建了一个与
张量
兼容
的
numpy.gradient函数版本,运行速度要快得多。但也许有一种更优雅
的</e
浏览 1
提问于2019-07-29
得票数 5
回答已采纳
1
回答
如何在TensorFlow急切模式下使用复杂
变量
?
、
、
在非急切模式下,我可以在没有问题
的
情况下运行这个程序:train_op = tf.train.AdamOptimizerprint(s_) (0.99+0.99j)(0.9700001+0.9700001j)但我似乎无法在急切
的
模式下找到相应
的
表达方式loss = obj(s) grads = tape.gradient(loss,
浏览 1
提问于2019-09-22
得票数 1
1
回答
Tensorflow:最小化L2数据上
的
int64损失,而不将其转换为float32,因为转换会产生“无
梯度
”
错误
、
当我将
张量
转换为float32
时
,我遇到了一个
错误
:“没
有为
任何
变量
提供
梯度
”。但是,如果没有强制转换,我就会得到一个
错误
,即期望
的
类型是浮点,而不是int。在我
的
设置中,我试图最小化两个
张量
差
的
平方误差。tensorflow/python/training/optimizer.py”,行309,在apply_gradients (c
浏览 5
提问于2016-10-27
得票数 3
1
回答
TensorFlow
2.0
: tf.GradientTape()不返回
任何
结果
、
、
我正在尝试在CNN
2.0
中训练TensorFlow模型。这是一个多类分类任务。weights此时,我收到一个
错误
: ValueError:没
有为
任何
变量
提供
梯度
.我知道问题出在哪里:当我打电话给tape.gradient()
时
,出了点问题。我确实复制了TF-
2.0
浏览 1
提问于2019-06-12
得票数 3
1
回答
Tensorflow
梯度
为无(“不为
任何
变量
提供
梯度
”)
、
当我运行下面的脚本
时
,我会得到一个
错误
消息:“没
有为
任何
变量
提供
梯度
”。'grads‘
变量
是'None’值
的
列表。这么简单
的
脚本可能出了什么问题?
浏览 0
提问于2019-05-25
得票数 2
回答已采纳
1
回答
tf.fake_quant_with_min_max_args和tf.fake_quant_with_min_max_vars之间
的
区别是什么
、
、
我很想了解tensorflow函数之间
的
区别tf.fake_quant_with_min_max_vars类似地,看一下quantize.Quantize
的
代码,我确实理解了它基本上是遍历图形,找到
浏览 105
提问于2018-05-25
得票数 4
2
回答
在Keras中使用Functional API从Sequential切换到layers
时
出现"No gradients provided for any variable“
错误
、
、
我收到一个"ValueError:没
有为
任何
变量
提供
梯度
:'dense_1/kernel:0',‘dense_1/bias:0’。当使用真实数据或下面的随机数
时
,也会出现同样
的
错误
。
浏览 74
提问于2021-03-18
得票数 0
1
回答
TensorFlow
变量
与TensorFlow
张量
的
实现差异
首先,我知道有人问了一个相关
的
问题。1. 2.
变量
可以描述为存储
张量
的</
浏览 4
提问于2016-11-29
得票数 23
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
PyTorch经验指南:技巧与陷阱
在C+中使用TensorFlow训练深度神经网络
Chapter 4 TensorFlow基础知识
从头了解Gradient Boosting算法
Tensorflow入门教程(九)——Tensorflow数据并行多GPU处理
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券