腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Pytorch
中
缺少
优化
器
参数
我有两个网络共享一个
优化
器使用不同的学习率。我之所以这样问,是因为当我在
优化
器
中
检查
参数
时(使用下面的代码),我发现只有2个
参数
。ljust(30) + ' ') outputs += (k + ': ' + str(v).ljust(10) + ' ')仅打印两个
参数
-05 betas: (0.9, 0.999) eps: 1e-0
浏览 31
提问于2019-10-29
得票数 0
回答已采纳
2
回答
tensorflow
中
具有重量衰减
参数
的SGD
、
、
、
在Keras和
Pytorch
中
,SGD
优化
器具有权重衰减
参数
,我发现tf.train.GradientDescentOptimizer没有重量衰减
参数
。
Pytorch
Keras
优化
器
-
浏览 4
提问于2019-03-07
得票数 1
2
回答
PyTorch
:保存
优化
器
状态的目的是什么?
PyTorch
能够保存和加载
优化
器
的状态。一个例子显示了。我目前只是保存和加载模型状态,而不是
优化
器
。那么,除了不必记住
优化
器
参数
(比如学习速率)之外,保存和加载
优化
器
状态还有什么意义。
优化
器
状态
中
包含了什么?
浏览 5
提问于2022-01-19
得票数 4
回答已采纳
1
回答
PyTorch
中
的最小化与最大化
我想知道如何在
PyTorch
中
对以下数学运算采取梯度步骤(A、B和C是
参数
为而不是重叠的
PyTorch
模块)这与生成性对抗性网络(GAN)的成本功能有些不同,所以我不能使用现成的GANs的例子我想到的一种方法是构造两个
优化
器
。
优化
器
opt1具有模块A和B的
参数
,
优化
器
opt2具有模块C的
参数
。我确信,它们肯定是使用
PyTorch
(可能使用一些deta
浏览 1
提问于2018-06-12
得票数 3
1
回答
美国有线电视新闻网-> LSTM级联模型到
PyTorch
闪电
、
、
、
、
我试图隐藏
PyTorch
代码的CNN -> LSTM级联模型到
PyTorch
闪电。在nn.Module码中有两个
PyTorch
类,一个用于CNN (编码
器
),一个用于LSTM (译码
器
),最后一个隐藏层作为
PyTorch
的输入。因此,在转换到
PyTorch
闪电之后,有两个pl.LightningModule类。我想知道如何在这两个类
中
填充所需的方法。以下是
PyTorch
中
丢失和
优化
器<
浏览 0
提问于2021-08-03
得票数 0
1
回答
如何从
pytorch
中
得到幺正矩阵
、
、
我的
优化
问题需要一个
参数
化的酉矩阵,使用
PyTorch
,那么如何通过
PyTorch
生成这样的矩阵,或者如何在
优化
过程
中
确保矩阵是酉的?主要问题是n维幺正矩阵,或者可以说这个矩阵是SU(n)是用 n^2-1
参数
来
参数
化的,那么怎么才能用只得到n^2-1
参数
呢?
浏览 18
提问于2022-09-29
得票数 0
1
回答
自调整
优化
器
在
PyTorch
中
的应用
、
、
、
在
PyTorch
中
,权重调整策略由
优化
器
确定,学习速率由调度程序调整。当
优化
器
是SGD时,只有一个学习速率,这很简单。当使用Adagrad,Adam,或任何类似的
优化
器
来根据
参数
来调整学习速度时,有什么特别值得注意的吗?我是否可以完全忽略调度程序,因为算法调整了自己的学习速率?我应该把它
参数
化得与使用SGD非常不同吗?
浏览 2
提问于2020-02-14
得票数 4
回答已采纳
1
回答
什么是深度学习
中
的融合内核(或融合层)?
、
、
、
似乎也有一个
Pytorch
中
的Adam
优化
器
(与所有
Pytorch
优化
器
一样)通过遍历
参数
来执行optimizer.step(),并为每个
参数
启动一系列内核。目前,Apex
中
的FusedAdam实现扁平了
优化
步骤的
参数
,然后通过融合了所有Adam操作的融合内核来执行
优化
步骤。这样,
参数
上的循环以及每个
参数
的Adam操作的内部
浏览 2
提问于2019-06-14
得票数 8
1
回答
A2C
中
的梯度计算
、
、
在A2C
中
,参与者和评论家算法通过方程更新权重:θ=θ+α*δ*Grad(log(PI(a_s,θ))和所以我的问题是,当使用神经网络实现这一点时,谢谢,乔恩
浏览 2
提问于2020-01-27
得票数 0
回答已采纳
1
回答
PyTroch,渐变计算
、
嗨,我正在尝试用
pytorch
来理解神经网络。我对梯度计算有疑问..optimizer.zero_grad() #将渐变缓冲区清零损失=标准(输出,目标)optimizer.step() #执行更新 从关于代码
中
,
浏览 10
提问于2019-07-05
得票数 0
1
回答
在
pytorch
中
改变
优化
器
的动量
、
、
、
我知道您可以使用调度程序在
pytorch
中
动态更改学习率。你如何对动量做同样的事情呢?
浏览 3
提问于2020-08-31
得票数 2
2
回答
亚当光学
器
中
的epsilon
参数
、
、
使用
pyTorch
和tensorflow (TF),我在探索Adam
优化
器
是如何实现的。我也不知道我是否错了,但在我看来,这两种实现不同,而
pyTorch
实现是的原始实现。q(t+1) = q(t) - \gamma * sqrt[(1-b2^t)]/(1-b1^t) * m(t)/[sqrt[v(t)]+eps] q(t
浏览 4
提问于2019-09-06
得票数 4
回答已采纳
2
回答
如何选择正确的学习率乘数值?
、
、
我想要手动选择正确的学习率在一个图像分类问题中使用
Pytorch
,通过运行模型的几个时代。我已经使用LR调度
器
来衰减学习速率,并且在
优化
器
参数
组
中
也操纵了学习速率,但是我看不到损失的任何变化。
浏览 2
提问于2020-01-16
得票数 2
回答已采纳
1
回答
在直接设置
Pytorch
模型变量和
优化
器
参数
时应考虑哪些因素?
在
Pytorch
论坛中提到,设置可变的权重会直接导致 “在另一边使用.data是可行的,但通常不建议这样做,因为在使用模型之后更改它会产生奇怪的结果,并且自动梯度不能抛出错误。”此外,我还考虑直接设置
优化
器
参数
,特别是具有这些
参数
的
优化
器
的动量/梯度之和。这种情况也需要考虑吗?
浏览 0
提问于2019-08-05
得票数 1
回答已采纳
1
回答
缺少
L1正则化的割炬稀疏解
、
、
、
我查看了一些关于StackOverflow的其他文章,这些文章使用
Pytorch
应用l1正则化来确定应该如何做(参考文献:、)。无论我增加多高的lambda ( l1正则化强度
参数
),我都不会在第一个权重矩阵
中
得到真零。为什么会这样?
浏览 0
提问于2018-04-27
得票数 6
回答已采纳
1
回答
'ValueError:
优化
不需要渐变的
参数
‘无法理解错误
、
、
、
在我第一次提交后,我被告知在加载模型后忘记冻结
参数
,这样在backprop过程中就不会修改
参数
。为了解决这个问题,在我加载模型的代码块
中
,我这样做了: device = torch.device("cuda" if torch.cuda.is_available() else "cpu")modelparam in model.parameters(): param.requires_grad = False 然后,当运行我定义新前馈的块时(下面的代码块,我得到错误'ValueErr
浏览 5
提问于2020-04-28
得票数 0
2
回答
为什么有些人将两个不同网络的
参数
链接在一起,并用相同的
优化
器
训练它们?
、
、
、
我在看CycleGAN的官方
pytorch
实现,在那里,作者链接了两个网络的
参数
,并为两个网络使用了一个单独的
优化
器
。这是怎么回事?这比为两个不同的网络使用两个不同的
优化
器
更好吗?
浏览 89
提问于2020-05-17
得票数 5
2
回答
optimized_execution()接受1个位置
参数
,但给出了2个
、
、
、
我正在阅读
pytorch
sagemaker文档here,我被困在这条线上 torch.jit.optimized_execution(True, {'target_device': 'eia:device我使用的是
pytorch
1.3.1,但我尝试了1.4.0,也遇到了类似的问题。我可以在没有第二个
参数
的情况下使用
优化
的执行吗?如何指定加速
器
?
浏览 26
提问于2020-04-02
得票数 1
1
回答
如何在平均后更新
PyTorch
模型
参数
(张量)?
我目前正在开发一个分布式联合学习基础设施,并且正在尝试实现
PyTorch
。为此,我还需要联邦平均,它对从所有节点检索到的
参数
进行平均,然后将这些
参数
传递给下一轮培训。global_sum/global_count new_params = {'averaged_parameters': averaged_parameters} 现在我的问题是,如何更新
Pytorch
中
的所有
参数
(张量)?我尝试了一些方法,在将new_params插入<em
浏览 7
提问于2021-06-10
得票数 0
1
回答
使用ModuleList,仍然得到ValueError:
优化
器
获得了一个空
参数
列表
、
、
、
、
使用
Pytorch
,我尝试使用ModuleList来确保检测到模型
参数
,并且可以进行
优化
。当调用SGD
优化
器
时,我得到以下错误: 你能检查一下下面的代码并提出建议吗?
浏览 2
提问于2021-01-29
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TorchOptimizer:基于贝叶斯优化的PyTorch Lightning超参数调优框架
如果你的PyTorch优化器效果欠佳,试试这4种深度学习中的高级优化技术吧
选择参数优化 Azure 机器学习中的算法
Python中默认线程池参数及优化建议
深度模型中的优化 - 参数初始化策略篇
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券