腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
运行Adam
Optimizer
、
、
optimizer
= tf.train.AdamOptimizer(learning_rate) sess.run(init) sess.run(
optimizer
.minimize(cost), feed_dict={X:X_data, Y: Y_data}
浏览 3
提问于2017-11-02
得票数 17
回答已采纳
1
回答
tensorflow
Optimizer
.py "
optimizer
._get_variable_for“文件函数
、
、
我正在尝试在tensorflow中实现一个优化器,并且一直在查看旧版本的tensorflow中的优化器代码,我想知道这个函数_get_variable_for是做什么的?它是优化器文件中的第一个函数。谢谢你。
浏览 0
提问于2018-07-27
得票数 0
1
回答
角调谐器中超参数训练的优化器和学习率的选择
、
、
、
、
model.compile(
optimizer
=hp.Choice('
optimizer
浏览 6
提问于2020-07-01
得票数 5
回答已采纳
1
回答
tf.keras.
optimizer
('fo')中的
optimizer
.weights是什么?
、
听起来它给出了一个变量列表,这些变量与优化器的工作方式有关,我不应该担心这一点。但是,,我怀疑它也与我试图最小化的东西,以及我用来最小化的变量有关。这是真的吗?换句话说,在我的具有多个目标函数的NN中只使用一个优化器是否安全?或者我应该为每个目标函数实例化一个单独的优化器?
浏览 44
提问于2019-06-05
得票数 0
1
回答
如何获得AdamW优化器的学习率(使用多重优化器)
、
、
、
、
optimizers[0], base_model.layers[0]), (optimizers[1], logs = logs or {}mod
浏览 3
提问于2022-07-25
得票数 2
1
回答
在pytorch闪电中不执行训练步骤
、
= AdamW(
optimizer
_grouped_parameters, lr=self.hparams.learning_rate, eps=self.hparams.adam_epsilon)self.opt =
optimizer
def
optimizer
_step(self, epoch, batch_idx,
optimizer
,
optimizer
_idx, second_order_closure=No
浏览 92
提问于2021-03-23
得票数 1
1
回答
使用回调ReduceLROnPlateau的鉴别层训练问题
、
、
、
、
roberta_model.layers[:3]), ] opt = tfa.optimizers.MultiOptimizer(optimizers_and_layers) if self.wait >= self.patience: # Her
浏览 294
提问于2021-11-11
得票数 0
回答已采纳
2
回答
如何在循环中调用object中的所有方法?
for model in models: for lr in lrs: train(model=model,
optimizer
=
optimizer
,如何使用我提到的所有
optimizer</
浏览 10
提问于2017-08-02
得票数 1
1
回答
tensorflow张力板hparams
、
、
= hp.HParam('
optimizer
', hp.Discrete(['Nadam','SGD','RMSprop','adam','Adagrad'])) loss='sparse_categorical_crossentropy', )i
浏览 22
提问于2021-08-08
得票数 0
回答已采纳
1
回答
我的Keras多输出NN会因为没有足够的层而不能收敛吗?
、
、
、
)(x)x = Dense(30, activation='relu')(x) model = Model(inputs=visible, outputs = output) loss='categori
浏览 1
提问于2018-07-21
得票数 0
回答已采纳
1
回答
如何在TensorFlow 2.0中实现clip_gradients_by_norm?
、
、
# Use gradient descent as the
optimizer
for training the model.my_
optimizer
= tf.contrib.estimator.clip_gradients_by_norm(my_
optimizer
, 5.0) # Configure the linear regression model with our
浏览 12
提问于2019-06-03
得票数 3
1
回答
如何解读CPLEX CP优化器统计页面?
、
、
如何解释CPLEX CP优化器统计信息页面中的解决方案?我正在努力学习每个元素的定义。 ?
浏览 28
提问于2021-10-26
得票数 0
1
回答
为什么这些梯度累积实现不能工作?
这个想法model.build()
optimizer
= get_patched_
optimizer
(
optimizer
,n, model.trainable_variables) # Compile the model with the patched
optimizer
浏览 8
提问于2021-06-24
得票数 1
回答已采纳
5
回答
如何在Keras中使用Adam优化器打印每个时期的学习率?
、
、
、
、
但它只适用于SGD: def on_epoch_end(self, epoch, logs={}): lr = K.eval(
optimizer
.lr * (1. / (1. +
optimizer
.decay *
optimizer
.iterations
浏览 1
提问于2017-11-26
得票数 10
1
回答
如何使用Keras Tuner调整优化功能?
、
、
、
我试过了: hp_lr = hp.Choice('learning_rate', values=[1e-2, 1e-3, 1e-4]) loss=&qu
浏览 28
提问于2021-04-27
得票数 1
回答已采纳
1
回答
TypeError: is_legacy_
optimizer
不是有效的参数,kwargs对于`
optimizer
_experimental.
Optimizer
`应该是空的
、
、
load_modelmodel = load_model(model_path) 错误: TypeError: is_legacy_
optimizer
不是有效的参数,对于
optimizer
_experimental.
Optimizer
,kwargs应该是空的。
浏览 1
提问于2022-08-30
得票数 1
1
回答
Zend
Optimizer
+误差
、
我在运行我的drupal 7应用程序时遇到了以下错误 致命错误:无法重新声明函数views_views_plugins() (以前在views_views_plugins中声明)如果此代码在没有Zend
Optimizer
浏览 0
提问于2012-06-13
得票数 1
1
回答
是否有方法从自定义的tensorflow层中获得当前的学习速率或当前的时代/步骤?
、
我知道,在自定义模型中只需执行self.
optimizer
.lr就可以获得当前的学习速度,但在实现自己的层时,我需要做类似的事情。training: if "my_layer" in layer.name: layer.function_to_get_lr(self.
optimizer
.lr
浏览 5
提问于2022-09-11
得票数 0
1
回答
优化阿尔伯特HuggingFace模型
、
、
、
、
代码:from onnxruntime_tools import
optimizer
浏览 6
提问于2022-01-17
得票数 1
回答已采纳
2
回答
如何从字符串加载python模块?
、
、
、
给定字符串
optimizer
= "tensorflow.train.ProximalAdagradOptimizer" 如何实现以下目标: import tensorflow "key": "x" { } } "
optimizer
最后,
optimi
浏览 24
提问于2019-04-19
得票数 2
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
SQL 查询优化原理与 Volcano Optimizer 介绍
由optimizer_switch所引起的诡异问题
windows11无广告清理神器Optimizer
优化大师Optimizer,电脑小白也能秒变高手!
Optimizer:基于.Net开发的、提升Windows系统性能的终极开源工具
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券