# 设置参数 params = { "device": "cuda" } # 创建DMatrix对象 Xy = xgboost.DMatrix(X, y) # 训练模型 model = xgboost.train
hist`` and ``gpu_hist`` also work, but has some caveats # as noted in following sections. booster = xgboost.train
to notebook shap.initjs() """训练 XGBoost 模型,SHAP里提供了相关数据集""" X,y = shap.datasets.boston() model = xgboost.train
param = {'max_depth':6, 'eta':0.5, 'silent':0, 'objective':'binary:logistic' } num_round = 2 xgb = xgboost.train
下面是一个简单的SHAP示例:# 代码示例:使用SHAP解释性工具import shapimport xgboost# 准备训练数据X,y = shap.datasets.diabetes()model = xgboost.train
logistic").toMap // number of iterations val round = 2 // train the model val model = XGBoost.train
'seed': 1000, 'nthread': 4, # cpu 线程数 } 3.3xgboost 模型训练方法和参数 在训练过程中主要用到两个方法:xgboost.train...#xgboost.train()API xgboost.train(params,dtrain,num_boost_round=10,evals=(),obj=None,feval=None,maximize
mlogloss: 多分类log损失 auc: 曲线下的面积 ndcg: Normalized Discounted Cumulative Gain map: 平均正确率 一般来说,我们都会使用xgboost.train
在Python包中: bst = xgboost.train(...) config = bst.save_config() print(config) 或在R中: config <- xgb.config
visualization code to notebook shap.initjs() # train XGBoost model X,y = shap.datasets.boston() model = xgboost.train
当然,上述查看的xgboost提供的sklearn类型接口,在其原生训练方法中,实际上是调用xgboost.train函数来实现的模型训练,此时无论是回归任务还是分类任务,都是调用的这个函数,只是通过目标函数的不同来区分不同的任务类型而已
0.06247816666666667, 'Sepal Width': 0.09243024} if __name__ == '__main__': BoosterTest().test() 9.2 直接学习 xgboost.train...(): 使用给定的参数来训练一个booster xgboost.train(params, dtrain, num_boost_round=10, evals=(), obj=None, feval=None
领取专属 10元无门槛券
手把手带您无忧上云