腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何
使用
XGB
进行
TargetEncoder
后
训练
,
以
获得
特征
重要性
?
、
、
、
、
我在我的数据集中的所有分类的名义
特征
上
使用
了
TargetEncoder
。在将df拆分为
训练
和测试之后,我在数据集上拟合
XGB
。 在模型
训练
之后,我希望绘制
特征
重要性
,然而,
特征
以
“编码”的状态显示。我
如何
反转这些
特征
,使
重要性
图是可解释的?import category_encoders as ce encoder=ce.
TargetEncoder</em
浏览 112
提问于2021-11-15
得票数 0
回答已采纳
1
回答
nlp多标签分类tf vs tfidf
、
、
、
、
我解决这个问题的方法是,在清理文本、停止单词删除、标记化等之后,执行以下操作: 为了创建
特征
矩阵,我查看了每个文档中术语的频率分布,然后创建了这些术语的表(其中删除了重复的术语),然后计算了每个单词在其相应文本中的术语频率然后我
使用
selectKbest将它们缩小到490左右。在对它们
进行
缩放之后,我
使用
OneVsRestClassifier(SVC)
进行
分类。我是否需要
使用
tfidf vectorizer而不是tf,以及
如何
使用
? 我对NLP非常陌生
浏览 29
提问于2019-02-12
得票数 4
回答已采纳
1
回答
特征
重要性
绘图
使用
xgb
和护林员。最好的比较方法
、
、
我正在编写一个脚本,它既
训练
了游侠随机森林,又
训练
了
xgb
回归。根据基于rmse的最佳性能,其中一种或另一种用于针对搁置数据
进行
测试。>
xgb
.importance(model = regression_model) Feature(model = regressi
浏览 2
提问于2020-01-13
得票数 0
回答已采纳
3
回答
预处理
后
的Names
特征
重要性
图
、
在构建模型之前,我像这样
进行
缩放并在构建
特征
重要性
图之后plt.ylabel('features', fontsize = 20)问题是,我们得到的不是特性的名称,而是f0、f1、f2、f3等……
如何
返回功能名称
浏览 18
提问于2016-07-27
得票数 13
回答已采纳
1
回答
如何
在python中根据xgboost的变量
重要性
来绘制前k个变量?
、
、
在python中,
如何
根据variableI
重要性
绘制前k个变量?我知道我可以从
xgb
_model.get_score()中提取变量
重要性
,它返回一个存储对(
特征
,
重要性
)的字典。但我不知道
如何
创建具有相同样式的图片(直方图),如果
浏览 128
提问于2018-04-27
得票数 0
回答已采纳
7
回答
XGBoost plot_importance不显示功能名称
、
、
、
我正在
使用
XGBoost和Python,并且已经
使用
在DMatrix数据上调用的XGBoost train()函数成功地
训练
了一个模型。该矩阵是从Pandas数据帧创建的,该数据帧具有列的
特征
名称。(Xtrain, label=ytrain) model =
xgb
.train(
xgb
_params, dtrain, num_boost_round=60, \(model, max_num_features=5, ax=ax) 现在,我希望
使用
xgboost.plot
浏览 458
提问于2017-10-26
得票数 27
回答已采纳
2
回答
如何
查找和
使用
XGBoost的顶级特性?
、
、
、
由于这是一个分类问题,所以我想
使用
XGBoost。我在网上发现,有一些方法可以找到重要的功能。但由于我有很多特点,这引起了一个问题。 gbm =
xgb
.XGBClassifier(max_depth=3, n_est
浏览 0
提问于2018-01-18
得票数 4
1
回答
具有多个
特征
的分类?
、
、
、
、
我有:2)针对每个
特征
的一组
特征
。谢谢
浏览 0
提问于2019-01-20
得票数 0
1
回答
支持向量机的
特征
选择
、
、
、
我正在
训练
一个SVM分类器。目前,我有大约4000个特性,但其中很多都是冗余的/无信息的。我想将模型中的
特征
减少到大约20-50个。我想
使用
贪婪爬山,每次减少1个
特征
。删除的功能应该是最不重要的功能。
训练
支持向量机
后
,
如何
获得
特征
重要性
的排名?如果我在R中
使用
libsvm,我
如何
获得
每个
特征
的权重,或者其他一些类似类型的重要指标?谢谢!
浏览 1
提问于2013-03-03
得票数 4
3
回答
XGBoost plot_importance中的打印编号格式()
、
、
、
、
我
训练
了一个XGBoost模型,并
使用
plot_importance()绘制了
训练
后
的模型中最重要的
特征
。尽管如此,plot中的数字有几个十进制值,这会淹没plot,不适合plot。我已经搜索了绘图格式选项,但我只找到了
如何
格式化轴(尝试格式化X轴,希望它也能格式化相应的轴)xg_reg =
xgb
.XGBClassifier( objective = &
浏览 0
提问于2019-05-09
得票数 1
1
回答
分类变量的xgboost
特征
重要性
、
、
我正在
使用
XGBClassifier
进行
python
训练
,在我的
训练
数据集中有一些分类变量。最初,我计划在添加数据之前将它们每个都转换为几个虚拟对象,但随后将计算每个虚拟对象的
特征
重要性
,而不是原始的分类对象。由于我还需要按
重要性
对所有原始变量(包括数字+分类)
进行
排序,因此我想知道
如何
获得
原始变量的
重要性
?这是简单的累加吗?
浏览 1
提问于2018-11-16
得票数 0
11
回答
如何
在xgboost中获取特性
重要性
?
、
我正在
使用
{}构建模型,并尝试
使用
xgboost查找每个特性的
重要性
,但它返回xgboostdtrain =
xgb
.DMatrix(X, label=Y)param = {'max_depth': 6, 'learning_rate': 0.03}bst =
xgb
.train(param
如何
在xgboost中
浏览 1
提问于2016-06-04
得票数 52
1
回答
XGB
回归器
特征
选择
21 23 2530 23 25 45 以下代码用于对回归问题
进行
XG boost拟合,并
获得
重要特性。
特征
选择方法是
使用
F分数来赋予
重要性
。clf =
xgb
.XGBRegressor(n_estimators=100, gamma=1) sorted_idx = clf.feature_impor
浏览 41
提问于2021-03-16
得票数 0
3
回答
如何
在不重新
训练
模型的情况下
获得
XGBoost
特征
重要性
图中的实际
特征
名称?
、
、
我在Stackoverflow上遇到了几个问题,其中大众面临的问题是他们在
使用
例如拟合/
训练
XGBoost模型之前对
训练
数据
进行
预处理,例如
使用
中心和尺度等 scaler = MinMaxScaler因此,当我尝试
使用
plot_importance(my_model_name)时,它会导致绘制
特征
重要性
图,但只有f0、f1、f2等
特征
名称,而不是数据集中的实际
特征
名称,这一点必须很明显。大多数关于SO
浏览 1
提问于2019-03-01
得票数 17
3
回答
如何
在XGBOOST中
获得
正确的
特征
重要性
图?
、
使用
两种不同的方法在XGBOOST特性的
重要性
,给我两个不同的最重要的特性,哪一个应该相信?# fit the model model_
xgb
_pandas =
xgb
.XGBRegressor(n_jobs=-1,o
浏览 3
提问于2019-11-21
得票数 6
回答已采纳
1
回答
如何
在MultiOutputRegressor中
使用
plot_importance函数?
、
我
使用
blow代码来
获得
多个输出。"ValueError:树必须是Booster、XGBModel或dict实例“import xgboost as
xgb
X = np.array([[0,1,2,3,4],[2,3,4,5,
浏览 17
提问于2020-03-11
得票数 2
3
回答
转换为XGBoost
后
列车和测试特性的DMatrix差异
、
、
、
、
只是想知道下一种情况是怎么可能的: xgtrain =
xgb
.DMatrix(train, label=target, missing=np.nan) d
浏览 2
提问于2016-08-03
得票数 4
回答已采纳
3
回答
分类
后
的
特征
重要性
、
我有时间序列数据,每个样本或多或少都有200个
特征
,我
使用
递归神经网络
进行
二值分类任务。分类之后,我想知道哪些特性对目标贡献最大(比如target=1)。有什么建议吗?谢谢
浏览 0
提问于2020-09-16
得票数 8
回答已采纳
1
回答
随机森林的
特征
重要性
、
、
我有一个有11个
特征
的数据集,我注意到操作这些
特征
(例如删除其中一个或一些)不会影响
训练
和测试数据的错误分数,所以我不得不检查这些特性的
重要性
。因此,我尝试只
使用
第一个特性来运行模型。预期成绩分数不会显着下降,因为其余10个下降的
特征
具有很低的
特征
重要性
。然而,在只
使用
第一个特性
进行
实验
后
,测试数据的abs错误百分比从14.13010%显著提高到22.96036%。为什么会发生这种事?当我
使
浏览 0
提问于2021-02-23
得票数 1
1
回答
随机森林中要素的每个级别的
重要性
顺序
、
、
在
使用
SciKitLearn的随机森林分类器对模型
进行
拟合
后
,我得到了
特征
重要性
列表,但我能否
获得
特征
级别的
重要性
。例如,如果我得到以下功能
重要性
的系列,我
如何
才能看到哪个day_of_week是最重要的?
浏览 15
提问于2021-02-20
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
新网银行杯数据科学竞赛复赛第八名总结
交叉验证和超参数调整:如何优化你的机器学习模型
游戏玩家付费金额预测大赛
【视频讲解】CatBoost、LightGBM和随机森林的海域气田开发分类研究|数据分享
佐治亚大学:极端梯度提升和行为生物识别
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券