回归的评估方法前面我们也涉及过:LinearRegression(线性回归)官方例子解析。本文对回归的评估方法做一个详细的介绍。
1.官方函数汇总
sklearn.metrics模块中可用于回归评估的函数主要如下:
2.函数详解2.1 explained_variance(解释方差得分)
各参数的含义如下:
y_true:n维数组,正确的目标值。
y_pred:n维数组,预测的目标值。
sample_weight:n维数组,各特征的权重。
multioutput:用在多目标回归的时候,各个目标的损失或者得分时以什么样子的方式合起来计算。可选择的有: [‘raw_values’, ‘uniform_average’, ‘variance_weighted’]或者n维数组。其中默认为“uniform_average”,也就是说各目标权重平均。‘raw_values’表示按各行计算;‘variance_weighted’表示计算方差后按一定的权重平均。
官方例子如下:
计算过程如下:
我们看看 multioutput参数是怎么回事。
结果:
计算过程如下:
如果我们加上权重:
结果如下:
计算过程:
其它的函数的参数类似,后续不赘述。
2.2mean_absolute_error(平均绝对误差)
官方例子中,用法为:
2.3mean_squared_error(均方误差)
2.4mean_squared_log_error(均方误差对数)
2.5median_absolute_error(中位绝对误差)
2.6R2 score可决系数)
R2系数是用得最多的指标之一,为回归器默认的得分函数。最佳得分为1.其函数为:
sklearn.metrics.r2_score(y_true, y_pred, sample_weight=None, multioutput=’uniform_average’)。
计算公式如下:
其中:
3 小结
本文对用于回归的相关函数做了一个简要的介绍,回归的函数相对于聚类以及分类来说看上去要简单一点,但在后续的使用过程中如果涉及到正则化的话还是需要慢慢理解的,不过这是我们优化模型的基石,基础一定要打牢。
经过四篇文章,已经对模型评估的方法有了一个初步的了解,有了这些知识储备,后续在分析具体模型的时候也不会显得很突兀,可以更加愉快的学习啦!
附上前面几期模型评估方法的介绍:
scikit-learn 模型评估方法之一(概述)
领取专属 10元无门槛券
私享最新 技术干货