腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
伪
变量
的
特征
消除
、
、
我有几个类数很高
的
分类
变量
。我使用one-hot编码,以便将它们转换为1-0格式。01.2 0 1 0 然后我检查了他们
的
feature_importances例如,column_2_C对模型并不重要,但共享相同类别(A)
的
其他模型具有重要意义。 在这种情况下或任何其他情况下( %50
的
类具有高重要性,%50
的
类非常低),我该怎么办?如果c
浏览 17
提问于2019-10-04
得票数 0
0
回答
计算
特征
变量
的
相关性和
特征
选择之间
的
区别?
、
、
使用相关性和使用
特征
选择来选择重要
的
/高度相关
的
变量
有什么区别?在研究
特征
选择时,我看到它使用包括皮尔逊相关性在内
的
统计测试。当这样做时,通过递归
特征
消除
,前3个相关性最高
的</
浏览 10
提问于2017-12-07
得票数 0
3
回答
Scikit学习模型对随机
变量
赋予权重?我应该删除不太重要
的
功能吗?
、
、
、
、
我通过删除相关
变量
和反向
消除
来进行一些
特征
选择。然而,在所有这些都作为测试完成之后,我抛出了一个随机
变量
,然后训练了逻辑回归、随机森林和XGBoost。所有3个模型
的
随机
特征
的
特征
重要性都大于0。其次,所有型号都将其排在底部,但它不是最低
的
功能。这是另一轮
特征
选择-i.e
的
有效步骤吗?删除所有得分低于随机
特征
的人?随机要素是使用创建
的
model_data[
浏览 0
提问于2020-06-25
得票数 0
2
回答
最佳
特征
DNNClassifier模型
、
我正在处理一个具有50个特性
的
二进制分类,我使用
的
是tf.estimator.DNNClassifier。如何对影响结果
的
顶级功能进行排序?
浏览 1
提问于2018-06-06
得票数 0
回答已采纳
1
回答
Python中文本分类
的
特征
选择
、
、
、
我正在使用scikit-learn库中
的
Random Forest解决python中
的
一个文本分类问题。我想尝试不同
的
特征
选择方法,例如信息增益(IG)或双正态分离(BNS),如本中所述。似乎scikit中唯一可用
的
特征
选择方法(使用CountVectorizer类)是基于文档频率
的
。其他库中有其他方法吗?
浏览 1
提问于2014-09-10
得票数 0
1
回答
多
变量
特征
选择
、
我想进行一个
特征
选择,假设我有一个设计矩阵X (X_1,...,X_84)和一个多
变量
目标Y=Y_1,Y_2,Y_3,Y_4,所以这是一个多
变量
多元线性回归。理想情况下,我希望使用Python RFE (递归
特征
消除
)、LassoCV和sm.OLS,除了Y必须是向量而不是矩阵。谢谢
浏览 4
提问于2020-08-21
得票数 0
1
回答
滑雪板中使用递归
特征
消去法选择
特征
时出现
的
错误
我试图在sklearn中使用递归
特征
消除
对该特性进行排序。但是,在使用RFE时,我得到了这个错误。以下是错误和代码信息。mean accuracy on the given test data and labels %10.9f'% clf.score(DEAP_x_test, DEAP_y_test)) 有人知道这个错误
的
原因吗有人认为,只有当内核被选择为线性时,递归
特征
消除
(RFE)才适用于SVC。是这样吗?非常感谢!
浏览 0
提问于2018-08-01
得票数 0
回答已采纳
2
回答
什么语言功能
消除
了整个错误类别?
、
、
、
我经常看到这样
的
说法:编程语言特性
消除
了整个类错误。 不可变
的
数据结构
消除
了由于不理解更改可变状态
的
影响而引起
的
错误类别。我并不是想弄清楚
浏览 4
提问于2014-02-26
得票数 2
回答已采纳
1
回答
如何自动
消除
WEKA中
的
尺寸
、
、
我在WEKA中
的
一些高维数据集上应用了
特征
选择算法,该算法基于对称不确定性给出了按等级排列
的
特征
列表。现在我想
消除
那些不确定性值为0
的
特征
。但是数据集中大约有10,000个
特征
,因此不可能手动
消除
所需
的
特征
。有没有什么方法可以自动
消除
WEKA中
的
维度?
浏览 0
提问于2018-06-19
得票数 0
1
回答
具有调整和交叉验证
的
随机森林优化
、
、
、
我正在处理一个大型数据集,所以希望删除无关
的
变量
,并调整为每个分支
的
最佳m个
变量
。在R中,有两个方法可以帮助完成这两个任务: rfcv和tuneRF。我正在尝试将它们结合起来以优化参数。rfcv
的
工作原理大致如下:while (nvar > 1) { remove我
的
问题是,这有多大
的
必要性(使用玩具数据集很难得到一个想法)
浏览 2
提问于2012-08-14
得票数 3
1
回答
前向选择和后向淘汰
、
我有7个
特征
,我想预测y。我执行了前向选择和后向淘汰,但这两个模型都产生了非常糟糕
的
结果。我通过x个
变量
(x^2,x^3,1/x,x^(1/2))
的
转换生成了更多
的
特征
,看看结果是否变好了(总共28个
变量
)运行代码后,我得到了更糟糕
的
结果,无论我做什么(调整显著性水平,改变
消除
标准),我总是在前向选择中得到截取作为回归函数,在向后
消除
中得到所有
变量
(正常和转换)。你知道为什么会发
浏览 31
提问于2020-03-24
得票数 0
1
回答
从
特征
集中选择集成
特征
、
、
、
我有一个关于集合
特征
选择
的
问题。 我
的
数据集由1,000个样本和大约30000个
特征
组成,它们被分类为标签A或标签B。我想做
的
是挑选一些可以有效地对标签进行分类
的
特征
。我使用了三种方法,单
变量
方法(皮尔逊系数),套索回归和SVM-RFE(递归
特征
消除
),所以我从它们中得到了三个
特征
集。我使用python scikit-learn进行特性选择。然后我在考虑集成
特征
选择方法,因为<em
浏览 2
提问于2015-12-11
得票数 3
1
回答
选择最佳
的
特征
子集
、
、
我想选择最好
的
特征
子集,它区分了两个类,这些类被输入到我构建
的
统计框架中,在这个框架中,特性是不独立
的
。通过对机器学习中
的
特征
选择方法
的
研究,发现机器学习
的
特征
选择方法可分为三大类:过滤器、包装器和嵌入式方法。滤波方法可以是单
变量
的
,也可以是多元
的
。使用过滤器(多元)或包装方法确实有意义,因为我所理解
的
两个-as都在寻找最好
的
子集,但是,由于我没
浏览 2
提问于2016-11-04
得票数 0
回答已采纳
2
回答
特征
冗余
、
、
为什么
特征
是相互依赖
的
,具有高度相关性
的
特性,意味着它们是多余
的
?另外,PCA是否有助于去除冗余/不相关
的
特征
,还是在我们
的
数据集上运行PCA之前,必须去除冗余/无关
的
特征
?
浏览 0
提问于2016-06-17
得票数 2
回答已采纳
2
回答
具有时间序列
特征
的
二进制分类
、
我有以下时间序列
特征
:舒张压、收缩压、心率、RR变异和动脉血压。每个临床参数在手术过程中被测量900秒,手术后,病人被评估为急性肾损伤:1(是)或0(no)。我
的
训练数据有点像这样:(见下面的截图)。病人2时间(S)
特征
AKI我将采取什么方法来利用这些数据来执行二进制分类任务? 📷
浏览 0
提问于2019-03-20
得票数 2
1
回答
消除
特征
的
Featurizer
、
、
、
我正在尝试设置一个
特征
化器,它会删除我
的
数据库中除前10列之外
的
所有列。数据库总共由76列组成。这个想法是对我想要保留
的
10列应用一个PolynomialFeatures(1)),但是我看不到一种方法来巧妙地删除剩下
的
66列(我在想类似于PolynomialFeatures(0))
的
东西,但它似乎不起作用问题基本上是2: 1)如何告诉DataFrameMapper在一系列列(即A_11到A_76)上应用相同
的
特性;2)如何告诉DataFrameMapper应用aa特性来
浏览 0
提问于2021-02-02
得票数 1
1
回答
实现后向贪婪
的
特征
选择
、
、
、
我正在尝试应用具有1700个
特征
和3300个实例
的
数据集
的
特征
选择。
特征
选择
的
方法之一是逐步回归。这是一种贪婪
的
算法,在每一轮中删除最差
的
特征
。我使用数据在SVM上
的
性能作为衡量标准,以找出最差
的
功能。第一次,我训练SVM 1700次,每次只保留一个
特征
。在此迭代结束时,我从集合中删除了其删除会导致最高SVM性能
的
特征
。第二次,我训练SVM 16
浏览 1
提问于2013-06-05
得票数 1
1
回答
为什么套索不能进行
特征
选择?
、
、
、
我在一个只有15个
特征
试图预测二进制结果
的
数据集上拟合逻辑拉索。我知道LASSO应该做
特征
选择和
消除
不重要
的
特征
(系数= 0),但在我
的
分析中,它已经选择了所有的
特征
,而没有
消除
其中
的
任何一个。我
的
问题是: 这是因为我
的
特征
太少,或者
特征
之间没有关联(对于分类模型来说,低co-linearity?)Is是一件坏事还是好事?所选
的
浏览 2
提问于2021-12-15
得票数 0
1
回答
是否有从不同
的
特征
选择技术中选择
特征
的
标准方法?
、
我有四种不同
的
特征
选择技术,向后
消除
,拉索,feature_importances和递归
特征
选择。每种技术返回
的
结果略有不同。例如,拉索:展开移动,然后传播递推:价差📷
浏览 0
提问于2020-12-17
得票数 1
2
回答
XGBoost模型具有
特征
重要性等于零
的
特性。
、
我遇到了这个问题:另外,当我将泡菜文件转换为PMML (启动在线)时,PMML文件中只有45个特性(那些显然带有importance>0 );--为什么重要性等于0
的
特性最终出现在
浏览 0
提问于2022-01-27
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Scikit-Learn中的特征排名与递归特征消除
Python变量中的三个特征,你知道吗?
信用风险评分卡系列之特征变量(二)
机器学习(六)——线性回归的多变量、特征缩放、标准方程法
如何让SPSS根据自身数据库行号产生ID特征变量
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券