腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(1156)
视频
沙龙
1
回答
Python
Catboost
:
多
类
F1
分数
自定义
指标
、
、
如何找到
多
类
Catboost
分类器的每一
类
的
F1
得分?我已经通读了documentation和github repo,其中有人问了同样的问题。但是,我不知道如何编写代码来实现这一点。我知道我必须在CatBoostClassifier()中使用custom_metric参数,但是我不知道当我想要我的
多
类
数据集的每个
类
的custom_metric
分数
时,
F1
的哪些参数是可接受的。假设您有一个玩具数据集(来自文档): fr
浏览 46
提问于2020-04-22
得票数 2
2
回答
在有监督的
多
类
分类中,为什么使用宏观
F1
分数
而不是平衡精度?
、
假设我有一个三
类
问题,我想构建一个可以根据一组特征区分类的分类器。我想根据模型区分这3个
类
的能力来评估它。从我的阅读来看,宏观
F1
分数
似乎是用于评估
多
类
问题分类器的常用
指标
,其中为每个
类
计算
F1
分数
,然后将这些
F1
分数
的未加权平均值用作macro
F1
score。在其他文献中,我见过用于
多
类
问题的平衡精度,其中计算每一
浏览 4
提问于2016-03-09
得票数 3
1
回答
如何在tensor2tensor中使用
F1
分数
我想在我的
多
类
分类问题上添加
F1
分数
。我在内置
指标
列表中找不到
F1
。
F1
是否在tensor2tensor中的某处,或者我必须重写eval_metrics()并使用我的代码或从TensorFlow获取它?
浏览 6
提问于2019-04-25
得票数 0
1
回答
catboost
分类器中如何将二次加权kappa定义为eval_metric
、
、
、
我正在使用
catboost
来解决
多
类
分类问题。我想使用二次加权kappa作为评价
指标
。
Catboost
已经将WKappa作为eval_metric,但它是线性加权变量,而不是二次变量。
浏览 0
提问于2019-11-07
得票数 0
2
回答
CatBoost
精度不平衡
类
、
、
我使用CatBoostClassifier,我的
类
是高度不平衡的。我应用了一个scale_pos_weight参数来解决这个问题。当使用评估数据集(测试)进行训练时,
CatBoost
在测试中显示出高精度。但是,当我使用预测方法对测试进行预测时,我只能得到一个低精度
分数
(使用sklearn.metrics计算)。我认为这可能与我应用的
类
权重有关。然而,我不太理解精确度
分数
是如何受此影响的。learning_rate': 0.5412829495147387, 'depth
浏览 17
提问于2019-01-30
得票数 4
1
回答
Catboost
:为什么
多
类
分类在内部转换为回归/单
类
分类问题
、
、
在
多
类
分类中使用
自定义
损失函数时,我得到一个错误,即我的
自定义
目标函数没有calc_ders_range属性。然而,根据我在
catboost
的电报频道中的讨论,calc_ders_range是用于单一分
类
/回归的。即使当我将我的
自定义
目标传递给CatBoostClassifier时,我仍然对下面的错误感到困惑。 我的代码:输出标签是int64
类
型,值从0到25代表26个
类
。
自定义
目标和精度
指标</e
浏览 10
提问于2020-10-17
得票数 1
1
回答
如何在训练集上获得低
F1
评分和高AUC?
、
、
、
F1
训练数据评分: 0.5881226277372263训练数据得分: 0.9991431591607794 验证数据得分: 0.9254554224474641虽然我的训练数据的
F1
分数
很高,但它的
分数
却很高,而我的训练数据的
分数
却很高。
浏览 0
提问于2023-05-22
得票数 0
1
回答
精确度、召回率、
F1
指标
不包括标签sklearn
、
、
我有一个用于NER任务的分类器,由于到目前为止'O'标签比所有其他标签都
多
,所以我想在
指标
计算中排除它。 我想用sklearn包计算macro和micro
分数
。可以使用precision_recall_fscore_support计算宏
分数
,因为它分别返回每个标签的precision、recall、
F1
和support。我可以使用sklearn软件包来计算和micro
分数
吗?
浏览 13
提问于2021-05-19
得票数 0
1
回答
不同度量对k-means算法性能的影响
、
我正在尝试用不同的度量来评估K-means生成的聚
类
,但我不确定结果是否好。因为我有文档的真实标签,所以我尝试计算
F1
分数
和准确度。但我也想知道不需要真实标签的
指标
的性能。对于
F1
分数
和准确性,结果分别约为0.65和0.88,而对于轮廓
分数
,它仅约为0.05,这意味着我可能有重
浏览 0
提问于2019-10-24
得票数 1
1
回答
在pytorch ignite
自定义
度量中使用
f1
score sklearn
、
、
、
、
我想在PyTorch-ignite的
自定义
度量中使用sklearn的f1_score。 precision = Precision(average=False)
F1
= Fbeta(beta=1.0, average=False, precision=precision, recall=recall) ,如果你需要有一个
f1
分数
微观/宏观
浏览 5
提问于2021-06-28
得票数 0
4
回答
如何计算精确度、召回率、准确率和
多
类
案例的f1-score?
、
、
、
、
问题是我不知道如何以正确的方式平衡我的数据,以便准确地计算
多
类
情况下的精确度、召回率、准确率和
F1
分数
。score:/usr/local/lib/
python
2.7/site-packages/sklearn/metrics/classification.py:676: DeprecationWarningsample_weight=sample_weight) /usr/local/lib
浏览 231
提问于2015-07-15
得票数 132
回答已采纳
1
回答
当模型不能预测一个
类
时,
多
类
分类中未定义的
F1
分数
、
、
、
我正在尝试使用
F1
分数
来进行
多
类
分类中的模型选择。我按
类
计算它们并对其求平均值:(
F1
(class1)+
F1
(class1)+
F1
(class1))/3 =
F1
(总数)这意味着当我计算第一个
类
的精度(计算
F1
分数
)时,我得到: 0
浏览 2
提问于2017-07-21
得票数 1
1
回答
用于
多
类
分类的Keras度量
、
、
、
我有一个
多
类
分类数据,其中目标有11个
类
。我正在尝试用Keras建立一个神经网络。我使用softmax作为激活函数,categorical_crossentropy作为损失函数。正式文件没有提到适合于
多
类
分类的度量。 这链接提到使用categorical_accuracy作为
多
类
分类的度量标准,但除此之外,这个站点上的所有其他问题都是关于这和这链接等
多
标签分类
指标
的。是否有使用
自定义
度量函数在Keras中使用f1_s
浏览 0
提问于2021-12-14
得票数 1
回答已采纳
2
回答
精度、召回和
F1
可以是相同的值吗?
、
、
、
、
weighted'))0.8806451612903226, 0.8806451612903226, 0.8806451612903226 对于ML分类问题,是否有可能获得所有3种类型的精度、召回和
F1
浏览 0
提问于2019-01-07
得票数 15
回答已采纳
1
回答
对高度不平衡的数据进行适当的
f1
评分
、
、
、
、
我对三种不同的
f1
计算感到困惑。对于严重不平衡的数据,我应该使用哪种
f1
评分?我正在研究一个严重不平衡的二进制分类。‘
f1
’‘f1_macro’另外,我想在balanced_accuracy评分参数中添加balanced_accuracy_score(y_truescores = cross_validate(LogisticRegression(max_iter=100000),X,y, cv=5,scoring={'gm_scorer': gm_scorer, &
浏览 11
提问于2021-04-07
得票数 0
2
回答
我怎样才能把猫的原始预测
分数
(RawFormulaVal)转换成概率?
、
、
对于
catboost
库中的一些对象(如
python
代码导出模型- ),预测()只给出一个所谓的每个记录的原始
分数
(参数值称为"RawFormulaVal")。其他API函数也允许预测的结果是目标
类
()的概率-参数值称为“概率”。 如果可以使用
python
()将其转换成这样的函数呢?
浏览 2
提问于2018-12-02
得票数 0
回答已采纳
1
回答
多
标签分类问题中每类精度、召回和
F1
评分的计算
、
、
、
、
在我的
多
标签分类问题中,我试图计算精度、召回率和每个班级的
F1
分数
。然而,我认为我做错了什么,因为我得到了很高的值,整个问题的
F1
分数
是0.66。然而,我得到了+0.8 F1-
分数
在各个班级。您将如何计算这些
指标
?我使用拥抱转换器加载模型,得到预测,并学习计算
指标
。
浏览 10
提问于2022-11-06
得票数 0
回答已采纳
1
回答
tensorflow评价和预测的不同结果(F1-评分)
、
、
、
、
我使用tf 2.5来评估一个
多
类
分类问题。我使用的
F1
分数
,因为我的数据集是高度不平衡的。我使用的
F1
度量来自tensorflow-addons包。当我将它与二进制模型一起使用时,一切都很好,但是当我做
多
类
模型时,结果和训练会变得很奇怪。 在
多
类
问题的训练和评价中,
F1
评分远远高于应有的
分数
。为了检查这个
分数
是否正确,我使用了科学学习
F1
评分标准,它给出了一个更合
浏览 9
提问于2021-06-29
得票数 1
1
回答
高度不平衡数据集的
f1
评分选择?
、
、
、
、
为了更好的评价,我很困惑是用
f1
评分和“微观”平均分还是“宏观”平均分。考虑到我的数据集高度不平衡(600:100000)
浏览 0
提问于2019-08-22
得票数 0
1
回答
F1
分数
不是准确率和召回率的调和平均值的原因是什么?
、
、
什么原因会导致
F1
分数
不是精度和召回率的调和平均值,而
多
类
的宏观平均加权相等?我的数据集是不平衡的,预测是不正确的。
浏览 33
提问于2019-02-03
得票数 0
点击加载更多
相关
资讯
开源、低代码机器学习库PyCaret 2.0 现已发布
【视频讲解】CatBoost、LightGBM和随机森林的海域气田开发分类研究|数据分享
IEEE Spectrum发布语言排名:Python第一
一文读懂分类模型评估指标
使用网格搜索优化CatBoost参数
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券