交叉验证在选取超参数时非常重要,首先载入 KFold, StratifiedKFold 和 cross_val_score。...1.7
调整超参数
本节用 Otto 的数据。
对于 XGBoost 模型,很多学者和实践者通过无数尝试,给出了一些超参数的合理范围,这些建议在调参时非常有用,起码可以给个初始值尝试。...----
调树的深度
----
树的深度从 1 到 9,以 2 为间隔,在 5 折交叉验证中要运行模型 25 次,最后最佳树的深度是 5。...----
调树的个数和深度
----
树的个数为 [50, 100, 150, 200],树的深度为 [2, 4, 6, 8],在 5 折交叉验证中要运行模型 80 次,最后最佳树的个数和深度是 200...----
调树的个数和学习率
----
树的个数为 [100, 200, 300, 400, 500],学习率为 [[0.0001, 0.001, 0.01, 0.1],在 5 折交叉验证中要运行模型