腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
多
类
标记
交叉
验证
的
F1
分数
、
、
我想要获得每个
类
(我有4个
类
)和每个
交叉
验证
折叠
的
F1
分数
。clf是我训练
的
模型,X_test是测试集
的
特征,y_test是测试集
的
标签。因为我做
的
是5折
交叉
验证
,所以我应该在第一折中为每个班级获得4分
的
F1
分数
,在第二折中获得4分。总共20个。我能用python简单地做到这一点吗?下面这行代码将给出所有<em
浏览 23
提问于2020-05-07
得票数 0
1
回答
scikit学习:
交叉
验证
分数
是否评估日志丢失功能?
、
、
、
在python中,我使用随机梯度下降来执行
多
类
分类,以最小化日志损失函数。clf = SGDClassifier(loss="log", penalty="l2")score = clf.fit(X_train, y_train).score(X_test, y_test) 是评价损失函数
的
分数
?对于每一个
交叉
验证
分割,我
的</
浏览 5
提问于2015-10-20
得票数 3
回答已采纳
1
回答
无法在sklearn cross_val_score上评估f1-得分
、
、
、
、
我可以在使用
f1
时获得train_test_split
分数
,然后得到分类报告,如下所示: knn_cv = KNeighborsClassifier(n_neighbors)
浏览 3
提问于2022-03-24
得票数 1
回答已采纳
1
回答
列车/测试OOB评分、准确度和
f1
评分
、
、
我正在用随机森林(分类)训练我
的
模型,并试图完全掌握以下概念。但是,OOB评分是一个表示您
的
验证
集有多好
的
表示,那么对于模型对您
的<
浏览 3
提问于2021-05-11
得票数 0
回答已采纳
1
回答
如何选择正确
的
阈值进行二进制分类?
、
、
、
我目前正在研究Kaggle
的
泰坦尼克号数据集。数据集不平衡,几乎为61.5 %
的
负
类
和38.5个正
类
。 我把我
的
训练数据集分为85%
的
训练集和15%
的
验证
集。选择了一个支持向量分类器作为模型。我在训练集上做了10倍
的
分层
交叉
验证
,并且我试图找到最佳
的
阈值来最大化每个褶皱
的
f1
分数
。平均所有在
验证
折叠上获得<em
浏览 0
提问于2021-06-16
得票数 5
2
回答
如何
交叉
验证
高度不平衡
的
数据集
的
深度学习模型?
、
、
、
、
我正在处理一个
多
模态分类问题(与Keras)。我有三个不同班级
的
1000、5000和10000个样本。我想做一个五倍
交叉
验证
,以选择最好
的
预培训深入学习模式
的
部署。我包括在模型训练期间
的
课堂重量,以便给较少发音
的
课程更多
的
权重。对于给定
的
折叠,我将使用这三个
类
的
200、1000和2000样本进行
验证
。在这种情况下,精确性是一个很好
的
预测手段吗?或
浏览 0
提问于2018-01-26
得票数 3
回答已采纳
2
回答
对模型进行培训是否需要
验证
集?
、
、
为了我
的
研究,我用CNN建立了一个三维图像分类模型。我只有5000张图像,训练用4500张图像,测试集用500张图像。我尝试了不同
的
结构和参数
的
训练和
F1
评分和训练集
的
准确性高达0.9。幸运
的
是,我没有花很多时间来寻找这些设置
的
高精度。我
的
问题是,是否有必要进行
验证
?当我当时参加机器学习课程时,我被教导使用一个
验证
浏览 0
提问于2018-03-02
得票数 1
回答已采纳
2
回答
交叉
验证
前过采样,这是个问题吗?
、
、
、
我有一个
多
类
分类问题要解决,这是高度不平衡
的
。很明显,我做
的
是过采样,但是我用过采样
的
数据集进行
交叉
验证
,结果我应该在列车和
验证
集中重复数据。我使用
的
是lightgbm算法,但令人惊讶
的
是,
交叉
验证
分数
和未见数据集上
的
分数
之间并没有太大
的
差别。不过,我只想知道,在过度采样数据集之后是否可以进行
交叉</e
浏览 0
提问于2019-01-21
得票数 4
回答已采纳
1
回答
不平衡
的
学习问题-样本外与
验证
、
我正在训练三个班级,其中一个占主导地位
的
班级约占80%,其他两个班级甚至。我能够使用欠采样/过采样技术来训练模型,以获得67%
的
验证
准确率,这对于我
的
目的来说已经相当不错了。问题是这种性能只存在于平衡
的
验证
数据上,一旦我用不平衡
的
数据对样本外进行测试,它似乎就偏向于甚至
类
预测。我也尝试过使用加权损失函数,但在样本之外也没有什么乐趣。有没有好
的
方法来确保
验证
性能
的
转换?我曾尝试使用auroc
浏览 6
提问于2019-07-10
得票数 0
1
回答
F1
分数
取决于哪个类别被赋予正标签?
、
、
f1
的
分数
真的取决于哪个类别被赋予正标签吗?当我使用科学知识学习
的
f1
度量时,它似乎是:>>> m.f1_score([0,0,0,1,1,1],[0,0,0,1,1,0])>>> m.f1_score([1,1,1,0,0,0],[1,1,1,0,0,1])第一和第二种情况
的
唯一区别是0和1被交换了。但我得到
浏览 6
提问于2022-01-16
得票数 0
回答已采纳
2
回答
卷积神经网络
的
F1
最大化。对于不平衡
的
数据集
我正在处理一个不平衡
的
二进制分类数据集(大约70%到30%)。我想知道,当使用卷积神经网络时,优化这类任务
的
F1
分数
的
最佳方法是什么。到目前为止,我正在对数据集进行抽样,以创建一个平衡
的
训练集,并使用softmax_cross_entropy_with_logits平均值(来自tf),并将正则化项作为我
的
损失。如何为
F1
评分进行优化?因为它不是凸
的
,所以我不能把它作为我
的
损失,对吗?我发现
的
大多数论
浏览 0
提问于2016-12-18
得票数 5
1
回答
用
交叉
验证
计算特异性
、
、
、
我想用
交叉
验证
来计算特异性。我找到了计算精度,真的,
F1
分数
和精度
的
代码。但我找不到特异性。例如,
F1
分数
的
代码类似于:或者说精确性就像: cross_val_score(SVC, X, y,
浏览 1
提问于2020-10-26
得票数 2
回答已采纳
2
回答
应考虑哪种方法来评价不平衡
的
多
类
分类?
、
、
、
、
我在研究
多
类
不平衡
的
数据。我
的
因变量是高度倾斜
的
。2087530(severe Injury) 3394如果我考虑到微观结果,我
的
精确性,回忆性,
f1
浏览 0
提问于2018-11-07
得票数 1
1
回答
斯坦福分类器
交叉
验证
平均或聚合度量
、
、
使用,可以通过在属性文件中设置选项来使用
交叉
验证
,例如,这用于10倍
交叉
验证
:printCrossValidationDecisions=trueshuffleSeed=1 运行这将输出,每倍,各种指标,如精度,召回,准确性/微观平均
F1
和宏观平均
F1
。作为输出
的
一部分,是否有办法获得所有10个精度/微观平均
F1
或全部10个宏平均<
浏览 2
提问于2016-04-01
得票数 1
回答已采纳
1
回答
在尝试使用网格搜索
交叉
验证
优化分类器模型时,我
的
f1
分数
降至0
、
我已经运行了RandomForestClassifier和MLPClassifier模型,我收到
的
准确率和
f1
得分分别为83%和39%,而不是86%和34%。我
的
数据集不平衡,一个
类
中有523个,另一个
类
中有91个,它有22个特征。当我尝试使用网格搜索
交叉
验证
优化我
的
模型时,我对两个模型
的
准确率都略有提高,但我
的
f1
分数
下降到0%,这可能是什么原因?
浏览 3
提问于2021-03-12
得票数 0
3
回答
计算平均
F1
分数
的
正确方法是什么?
我有一套10个实验,计算精度,回忆和
F1
评分为每个实验。现在,平均查准率和平均召回率很容易计算。我对
F1
的
平均
分数
有些困惑。关于如何计算平均
F1
分数
,有两种方法:取平均精度和平均召回率,然后使用公式
f1
= 2*p*r/(p+r)计算
f1
分数
。我找不到任何有力
的</em
浏览 0
提问于2017-01-08
得票数 8
回答已采纳
1
回答
在分类中,如何在数据集不平衡
的
情况下
验证
模型?
、
、
、
将数据集分成3个数据集:A用于训练(70%),B用于
验证
(15%),C用于测试(15%);对于每个数据集(A,B,C),对阳性
类
进行过采样,以便将阳性百分比从2%提高到30%。如果我
的
实际负数与正数
的
比率增加,那么精确度就会降低(由于假阴性
的
增加),尽管回忆或多或少保持不变;因此我
的
总体F
分数
会下降)我可以在训练时使用
交叉
熵作为我
的
成本函数吗?(我没有改变成本函数以提高对假阳性
的
敏感
浏览 21
提问于2017-07-04
得票数 3
2
回答
在有监督
的
多
类
分类中,为什么使用宏观
F1
分数
而不是平衡精度?
、
假设我有一个三
类
问题,我想构建一个可以根据一组特征区分类
的
分类器。我想根据模型区分这3个
类
的
能力来评估它。从我
的
阅读来看,宏观
F1
分数
似乎是用于评估
多
类
问题分类器
的
常用指标,其中为每个
类
计算
F1
分数
,然后将这些
F1
分数
的
未加权平均值用作macro
F1
score。在其他文献中,我见过用于<e
浏览 4
提问于2016-03-09
得票数 3
1
回答
什么是科学学习中
的
输出
交叉
验证
模型(又名估计)?
、
、
、
、
我在python中编写了一段代码,使用scikit-learn模块执行支持向量机分类,并进行递归
的
特征消除和
交叉
验证
:rfecv = RFECV(X_train, y_train) 不幸
的
是,我无法理解为什么使用
交叉
验证
模型(rfecv.fit)时
的
输出分类与默认模型(svc.fit)不同。
交叉
验证
的
模型是否表示基于预测
分数</em
浏览 2
提问于2015-03-24
得票数 0
回答已采纳
1
回答
scikit中
的
F1
度量和LeaveOneOut
验证
策略
、
、
我想使用GridSearchCV来寻找KNeighborsClassifier
的
最佳n_neighbors参数。clf = GridSearchCV(KNeighborsClassifier(), {'n_neighbors': [1, 2, 3]}, cv=LeaveOneOut(), scoring='
f1
我希望计算
f1
分数
,而不是计算
交叉
验证
的
每一次(仅一个测
浏览 6
提问于2022-11-04
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券