腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如
何在
PyTorch
中
检查
所有
梯度
权重
是否
为
零
?
、
我想知道如何
检查
所有
PyTorch
神经网络
梯度
权重
,看看它们
是否
为
零
,
是否
继续训练。 这可能看起来像,但它实际上是解决陷入局部极小值问题的另一种方法。我不知道我应该添加什么代码,因为这似乎是一个一般性的问题,我甚至不知道如
何在
PyTorch
中
访问
梯度
张量。
浏览 15
提问于2021-05-26
得票数 0
4
回答
火炬
中
机器学习的步骤
、
、
当我们用
PyTorch
定义我们的模型时。我们运行不同的#epochs。我想知道在时代的迭代
中
。以下两段不同顺序的代码段之间有什么区别?这两个片段版本是: 我的主管
为
项目提供的代码。
浏览 11
提问于2022-05-16
得票数 2
2
回答
PyTorch
:损失保持不变
、
、
、
我已经用自己实现的损失函数focal_loss_fixed用
PyTorch
编写了一段代码。但我的损失价值在每个时代之后都是固定的。看起来
权重
没有更新。
浏览 2
提问于2018-10-16
得票数 1
1
回答
Torch:不更新变量的反向传播
梯度
、
、
、
在
pytorch
中
,有没有一种有效的方法来反向传播
梯度
,而不是更新它们对应的变量?在更新过程
中
,每次创建一个
权重
副本似乎太昂贵了。下面的操作似乎花费了太多时间,因为每次更新
权重
时,它都需要复制模型: … self.model = MyModel()
浏览 0
提问于2020-03-20
得票数 2
1
回答
消失
梯度
:
检查
输出
梯度
、
、
、
、
对于前馈网络或RNN,理论上我们应该
检查
输出
梯度
随时间变化的
权重
,以
检查
它
是否
消失
为
零
。在下面的代码
中
,我不确定
是否
应该将输入'xtr‘输入到定义在
权重
上的后端函数
中
。bias我看过一些文章,演示如何获得输出wrt \textit{inputs}的
梯度</em
浏览 0
提问于2022-01-30
得票数 0
回答已采纳
1
回答
Numpy性能优于Tensorflow和Py手电筒,具有相同的超参数
、
、
、
、
我
为
制作了3个神经网络,每个神经网络都在Numpy、TensorFlow和Py手电筒
中
。
浏览 2
提问于2017-04-30
得票数 2
1
回答
PyTorch
:如何
检查
某些
权重
在训练过程
中
没有发生变化?
如
何在
PyTorch
中
检查
某些
权重
在训练过程
中
是否
未更改? 据我所知,一种选择是在某些时期丢弃模型
权重
,并
检查
它们
是否
在
权重
上迭代更改,但也许还有更简单的方法?
浏览 3
提问于2020-09-19
得票数 3
2
回答
在TensorFlow或
PyTorch
中
仅创建和训练指定的
权重
、
、
、
、
我想知道在TensorFlow、
PyTorch
或其他库
中
是否
有一种方法可以选择性地连接神经元。我想要在每一层
中
建立一个具有非常多神经元的网络,但层之间的连接很少。我实现了一个自定义keras层,使用的方法基本上与问题中的方法相同-本质上是通过创建一个密集层,其中除了指定的
权重
之外,
所有
的
权重
在训练和评估中都被忽略。这满足了我想要做的一部分,不训练指定的
权重
,也不使用它们进行预测。但是,问题是我仍然浪费内存保存未训练的
权重
,并且浪费时间
浏览 3
提问于2018-10-18
得票数 0
1
回答
TensorFlow /
PyTorch
:外部测量的损耗
梯度
、
、
、
、
其思想是将神经网络训练
为
未知非线性函数F的逆F^(-1),这意味着损失L是在F的输出处计算的,但是由于F的
梯度
不知道,反传播不能直接用于计算
梯度
和更新NN权值。在计算TensorFlow或
PyTorch
中
的
梯度
时,
是否
可以使用没有直接连接到神经网络的损失函数L?或承担任何其他软件(Matlab、C等)所获得的损失。用它进行反向传播?据我所知,Keras keras.backend.gradients只允许计算相对于连通
权重
的
梯度
,否则
浏览 2
提问于2020-01-16
得票数 1
1
回答
TensorFlow:渐变
中
的“无”可以自动替换为
零
或者在优化器中使用吗?
、
我用tf.stop_gradient()关闭了神经网络中一些
权重
的
梯度
计算。不幸的是,tf.GradientTape().gradient()将这些
权重
的
梯度
分配
为
None,这并不适用于optimizer.apply_gradients。解决办法是在之后为这些渐变分配
零
。有可能让tf.GradientTape().gradient()自动将None替换为
零
吗?或者,
是否
有一种方法可以让优化器使用渐变列表
中
的None?
浏览 6
提问于2022-05-03
得票数 0
回答已采纳
1
回答
匹配
PyTorch
w/ CNTK (VGG on CIFAR)
、
、
、
、
我试图了解
PyTorch
是如何工作的,并希望复制CNN关于CIFAR的简单培训。脚本经过168秒的训练(10次)后,达到了0.76的精度,这与我的脚本类似( 153秒后的0.75精度)。我能想到的原因是: 也许在默认情况下,偏见是在
浏览 7
提问于2017-08-17
得票数 1
1
回答
如
何在
角角模型
中
设定一个常数作为
权重
?
、
、
、
在我的模型的第一层,我希望一些
权重
是常数
零
。在
梯度
计算
中
,这些
权重
应该是
梯度
=
零
(因为链规则
中
的最后一个项对应于权值,对于一个常数来说是0)。model, inputs, targets)但在
梯度
计算
中
,
权重
tf.constant(0)的
梯度
浏览 0
提问于2019-01-09
得票数 3
回答已采纳
1
回答
是否
有与
Pytorch
的反向()等价的Tensorflow?试图将
梯度
返回到TF模型
中
、
、
、
、
我正在尝试实现一个分离学习模型,在这个模型
中
,我在客户端上的TF模型接收数据并生成中间输出。这个中间输出将被发送到运行
Pytorch
模型的服务器,该服务器将其作为输入,并将损失降到最低。然后,我的服务器将返回客户端
梯度
到TF模型的TF模型,以更新其
权重
。 我如何得到我的TF模型,用从服务器发送回来的
梯度
更新它的
权重
?如
何在
Tensorflow客户端实现相同的功能?我认为这是因为磁带上下文中没有计算,而client_grad只是一个包含
梯度
的张量,并且没
浏览 4
提问于2020-09-10
得票数 2
1
回答
net.zero_grad() vs optim.zero_grad()
、
他们提到在训练参数
梯度
为
零
时需要包括optim.zero_grad()。我的问题是:我可以做同样的net.zero_grad(),这会有同样的效果吗?还是有必要做optim.zero_grad()。如果我什么也不做,那么
梯度
就会累积起来,但这到底意味着什么呢?他们被加进去了吗?换句话说,做optim.zero_grad()和net.zero_grad()有什么区别。我问是因为他们使用net.zero_grad(),这是我第一次看到,这是一种强化学习算法的实现,在这种算法
中
,人们必须特别小心
梯度</
浏览 1
提问于2020-05-19
得票数 15
回答已采纳
1
回答
Heavside函数(单位/阶跃函数)导数
、
、
、
、
我是机器学习的新手,正在学习如何编写感知器。 重边函数的导数是多少?对于上下文,我使用感知器作为伪SVM,这样我就可以对数据点进行分类。 我假设它是0,但是基于教程,我看到人们使用1。为什么这是有效的。另外,有没有可能使用sigmoid类型的激活函数,然后通过重边函数传递输出,因此我可以求sigmoid的导数? 谢谢。
浏览 273
提问于2020-07-14
得票数 0
2
回答
如
何在
tensorflow的MLP
中
实现最大范数约束?
、
如
何在
tensorflow
中
对MLP
中
的
权重
实现最大范数约束?Hinton和Dean在他们的关于黑暗知识的工作
中
描述的那种。也就是说,tf.nn.dropout
是否
默认实现
权重
约束,或者我们
是否
需要显式实现它,
如
“如果这些网络共享存在的隐藏单元的相同
权重
。我们使用标准的随机
梯度
下降过程在小批量训练案例上训练辍学神经网络,但我们修改了通常用于防止
权重
增长过大的惩罚项。我们不是惩罚
浏览 2
提问于2016-06-14
得票数 7
4
回答
为什么logistic回归的
权重
参数被初始化为
零
?
、
、
、
我已经看到神经网络的权值被初始化为随机数,所以我很好奇为什么逻辑回归的
权重
被初始化为
零
?
浏览 0
提问于2017-09-10
得票数 13
回答已采纳
1
回答
THCudaTensor_data (和一般的THC )是做什么的?
、
我正在
检查
的程序使用
pytorch
加载
权重
,cuda代码用
权重
进行计算。我对THC库的理解是如
何在
pytorch
后端(也许是torch?)实现张量。(从代码中使用它的方式来看,它似乎是用来将py手电筒的张量转换为cuda
中
的数组的。如果是这样的话,那么函数会保留
所有
元素和数组的长度吗?)
浏览 0
提问于2018-10-08
得票数 1
回答已采纳
1
回答
获取
Pytorch
autograd用于计算
梯度
的精确公式
、
、
我已经通过自定义模块的参数手动计算了反向传播的正确公式,我希望查看它们
是否
与autograd内部用于计算
梯度
的公式匹配。有没有办法看到这一点?谢谢 编辑(添加测试用例) :- 我有一个复数仿射层,其中
权重
和输入是复值矩阵,操作是
权重
和输入矩阵的矩阵乘法。我计算了这一层的反向传播公式,假设我们有来自更高层的传入
梯度
。公式
为
dL/dI(n) =(hermitian( W(n) .matmul(dL/dI(n+1)),其中I(n)和W(N)是第n层的输入和
权重</e
浏览 45
提问于2020-09-11
得票数 1
3
回答
Tensorflow
梯度
磁带的用途是什么?
、
我观看了Tensorflow开发人员关于在Tensorflow
中
急切执行的峰会视频,演示者介绍了“
梯度
磁带”。现在我知道Gradient Tape跟踪TF模型中发生的自动微分。有人能解释一下
梯度
磁带是如何作为诊断工具使用的吗?为什么有人会使用渐变胶带而不是Tensorboard的
权重
可视化。因此,我得到的结论是,模型的自动区分是计算每个节点的
梯度
--这意味着在给定一批数据的情况下,调整每个节点的
权重
和偏差。这就是学习的过程。但我的印象是,我实际上可以使用tf.keras.callback
浏览 2
提问于2018-12-28
得票数 76
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
对比PyTorch和TensorFlow的自动差异和动态子类化模型
从头开始了解PyTorch的简单实现
对比PyTorch和TensorFlow的自动差异和动态模型
7个实用小技巧,提升PyTorch技能,还带示例演示
60分钟入门PyTorch,官方教程手把手教你训练第一个深度学习模型
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券