腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
超
参数
优化
的
结果
更差
、
print(metrics.accuracy_score(y_test, y_pred)) 5 0.88 0.85 0.86 537 然后,我决定执行
超
参数
优化
,以改善此
结果
。0.62 570 5 0.70
浏览 35
提问于2019-12-05
得票数 2
回答已采纳
2
回答
培训集交叉验证后是否需要测试集?
、
、
、
、
我想引用Aurelien
的
“与Scikit学习和TensorFlow一起进行机器学习
的
手”一书中
的
一段,关于在使用k-折叠交叉验证对训练集进行
超
参数
调整之后对最终测试集
的
评估: “如果您进行了大量
的
超
参数
优化
(因为您
的
系统最终对验证数据进行了很好
的
调整,并且在未知数据集上
的
性能可能不太好),那么性能通常会比使用交叉验证时稍微差一些。”在本例中情况并非如此,但当发生
浏览 0
提问于2020-08-14
得票数 1
回答已采纳
1
回答
哪个更好:交叉验证还是用于
超
参数
优化
的
验证集?
、
对于
超
参数
优化
,我看到两种方法:那么哪种方法更好呢?
浏览 0
提问于2020-08-12
得票数 2
回答已采纳
1
回答
异步
超
参数
优化
-迭代之间
的
依赖关系
、
、
、
当使用异步
超
参数
优化
包(如scikit
优化
包或带有交叉验证
的
hyperopt包(例如cv =2或4)并将迭代次数设置为N(例如N=100)时,如果我期望: 损失值依次提高
的
顺序迭代之间
的
依赖关系(例如,迭代数10中
的
优化
超
参数
优于在迭代数9中生成
的
优化
超
参数
,等等)。在这种情况下,我应该始终选择在上一次迭代中生成
的</e
浏览 0
提问于2020-03-11
得票数 1
回答已采纳
4
回答
优化
后有可能得到更坏
的
模型吗?
、
、
、
我最近试图
优化
模型,但是由于某种原因,每当我试图运行
优化
时,模型
的
分数最终都会比以前
更差
,所以我认为我做错了什么。为了
优化
我
的
模型,我定义了param网格,并将其与列车数据进行拟合,然后根据
结果
再次运行nre
参数
,例如param_grid={ 'max_depth': [3,4,5],(现在根据
结果
更改
参数
.)在这一步之后,我选择了最优
的
超</
浏览 0
提问于2020-09-21
得票数 3
回答已采纳
1
回答
Keras调谐器传递学习模型
的
超
参数
优化
、
、
我想用Keras对我
的
传输学习模型进行
超
参数
优化
。我不知道该怎么做,因为我有两个阶段
的
训练, 解冻和训练网络。在和中,提出了一种基于传递学习
的
超
参数
优化
方法--共享
超
参数
优化
。他们说,在这两个阶段之间共享一组
超
参数
会得到最好
的
结果
。但是,我
浏览 5
提问于2021-04-30
得票数 0
1
回答
打印出由tensorflow自动选择
的
随机种子
、
我在研究神经网络
的
超
参数
优化
。我运行了20个时代
的
模型。在计算出最佳
的
超
参数
之后,我再次单独运行相同
的
模型(现在没有
超
参数
优化
),但是得到了不同
的
结果
。不仅如此,我还发现执行
超
参数
优化
时所达到
的
值(精度)发生在最后一个时期(第20次)。另一方面,当我再次运行相同
的</
浏览 1
提问于2018-09-14
得票数 1
回答已采纳
3
回答
为什么不在火车数据集上
优化
超
参数
呢?
、
、
同样
的
东西,不同
的
名字)。许多人建议根据测试数据集中
的
性能选择
超
参数
。我
的
问题是:为什么?为什么不在列车数据集中最大限度地提高超
参数
的
性能,当我们通过测试数据集中
的
性能下降检测到过度拟合时,停止对
超
参数
的
训练?由于列车通常比测试大,这会不会比在测试数据集上训练
超
参数
产生更好
的
结果
?我正在使用GA来
优化<
浏览 1
提问于2016-07-05
得票数 5
回答已采纳
2
回答
机器学习算法
的
超
参数
优化
、
、
、
我有一个关于机器学习算法
的
超
参数
优化
的
问题。现在,我
的
超
参数
优化
的
目标是交叉验证损失。如果20%
的
观察
结果
是“红色”,80%是
浏览 0
提问于2018-06-15
得票数 2
回答已采纳
1
回答
如何将学习率与剪枝相匹配?
这个问题
的
背景是通过在启用默认剪枝
的
情况下运行study.optimize()来
优化
神经网络训练
的
超
参数
,并将学习率作为
参数
进行
优化
(此问题可以推广到其他
超
参数
)。高学习率可以有良好
的
结果
,最初基本上降低了每一个中间步骤
的
损失,但最终
结果
很差。 低学习率可能会产生较差
的
初始
结果
,但具有更好
的
最
浏览 17
提问于2019-08-11
得票数 3
1
回答
我能否直接应用到
超
参数
调整
的
技术中,并选择最佳
的
模型?
、
我注意到,在一些消息来源中,作者首先用默认
的
超
参数
来训练模型(比如来自scikit-learn
的
模型),模型自然会给出
结果
。然后,他们会尝试
优化
超
参数
,即使
参数
网格包含相同
的
默认
参数
(例如,对穷举网格搜索),然后选择具有最佳
参数
的
最优模型。当我练习
的
时候,我做了同样
的
步骤,但是在我解剖了这个过程之后,我意识到这可能是多余
浏览 0
提问于2021-09-22
得票数 1
4
回答
如何使用Keras模型?
、
、
、
然而,我对酸洗Keras模型
的
需求源于使用sklearn
的
RandomizedSearchCV (或任何其他
超
参数
优化
器)进行
的
超
参数
优化
。必须将
结果
保存到一个文件中,因为这样脚本就可以在分离
的
会话中远程执行。
浏览 20
提问于2018-01-17
得票数 20
1
回答
梯度boosting中
的
少量估计量
、
、
、
、
我正在调整一个回归梯度助推模型,以确定适当
的
超
参数
使用4倍交叉验证。更具体地说,我使用XGBoost和lightGBM作为模型,使用贝叶斯
优化
算法进行
超
参数
搜索(hyperopt)。
超
参数
之一,在每个模型所使用
的
估计器数中被调优。在第一轮测试中,我从估计量在100到300之间开始。
超
参数
优化
算法
的
结果
是,估计量
的
最佳个数为100
浏览 0
提问于2020-02-24
得票数 4
2
回答
什么是科学学习中最有效
的
超
参数
优化
方法?
、
、
、
、
这里是关于科学学习中
的
超
参数
优化
过程
的
概述。随机搜索比网格搜索速度快,但方差过大。在其他包中也有其他策略,包括scikit
优化
、自动滑雪和scikit
超
带。 什么是最有效
的
方法(快速找到合理
的
性能
参数
)
的
超
参数
优化
浏览 0
提问于2019-03-13
得票数 11
1
回答
Google Cloud ML:如何执行
超
参数
调优作业
的
纯网格搜索
、
、
Google Cloud ML使用贝叶斯
优化
来缓解维度
的
诅咒。在特定情况下,我有一些
超
参数
调优作业,在这些作业中,我希望对
超
参数
调优作业中
的
超
参数
网格执行详尽
的
搜索。我该怎么做呢?我执行纯网格搜索
的
动机是:我观察到,针对完全离散类型
的
超
参数
的
超
参数
调优作业多次评估相同
的
<em
浏览 3
提问于2018-01-19
得票数 1
1
回答
对我正在使用
的
LSTM
超
参数
整定过程
的
看法
、
、
、
、
我使用贝叶斯
优化
来稍微加快速度,因为我有大量
的
超
参数
,并且只有我
的
CPU作为资源。 从
超
参数
空间进行100次迭代,当训练仍然花费了太多
的
时间才能找到一组合适
的
超
参数
时,每一次迭代都要经历100次。我
的
想法是这样。如果在贝叶斯
优化
过程中,我只训练了一个时代,那么这是否仍然是一个足够好
的
指标,说明总体上最好
的
损失?这将大大加快<em
浏览 0
提问于2020-05-05
得票数 2
回答已采纳
4
回答
Python:没有机器学习
的
Gridsearch?
、
、
、
、
我想
优化
一个有几个可变
参数
作为输入
的
算法。 在Python中是否有一个标准化
的
方法/库,允许
优化
不限于机器学习主题
的
超
参数
?
浏览 0
提问于2018-02-19
得票数 7
2
回答
超
参数
调谐XGBoost
、
、
我试着用贝叶斯
优化
来调优
超
参数
。这是一个具有目标函数
的
回归问题: objective =‘reg:方格误差’。我想找到一组
超
参数
,以最小化损失函数。在实现贝叶斯
超
优化
时,这是否
优化
了平方日志错误?最大值(pred我,1)在出现负预测
的
情况下存在。而且,即使在
超
参数
优化
之后,我也得到了不好
的
结果
。这些是我评估
的
<
浏览 0
提问于2020-10-28
得票数 1
回答已采纳
1
回答
如何
优化
机器学习
的
超
参数
以便在多个模型中重用?
、
、
fitrgp选择
的
默认
超
参数
似乎主观地产生了不太理想
的
模型。启用
超
参数
优化
往往会带来有意义
的
改进,但偶尔会产生极端拟合
的
值,这是一个需要计算
的
过程,它禁止对每个模型进行
优化
。由于fitrgp只是包装bayesopt来进行其
超
参数
优化
,那么是否可以直接调用bayesopt来最小化多个模型(例如平均值)损失
的
一些汇总,而不是一次调用
浏览 1
提问于2017-11-14
得票数 0
回答已采纳
2
回答
使用单独
的
验证集在Python中
优化
超
参数
、
、
我正在尝试在Python语言中
优化
的
超
参数
。 我有3个独立
的
数据集:训练/验证/测试。因此,我希望使用特定
的
验证集来调优
超
参数
,而不是使用交叉验证方法,即中描述
的
“第一种方法”。现在,sklearn有一些很好
的
内置方法来使用交叉验证(例如)来
优化
超
参数
,但是如果我想用特定
的
验证集来调优我
的
超
浏览 12
提问于2021-11-04
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用TensorBoard进行超参数优化
Optuna,一个超参数优化Python库!
2018值得尝试的无参数全局优化新算法,所有测试取得最优结果
运用增强学习优化超参数选择的自动调参方法
交叉验证和超参数调整:如何优化你的机器学习模型
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券