首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >GradientBoostingRegressor中的损失函数

GradientBoostingRegressor中的损失函数
EN

Data Science用户
提问于 2020-10-22 08:26:15
回答 1查看 865关注 0票数 1

学习GradientBoostingRegressor:

我在看GradientBoostingRegressor的scikit学习文档。

这里说,我们可以使用'ls‘作为一个损失函数,这是最小二乘回归。但是我很困惑,因为最小二乘回归是一种最小化SSE损失函数的方法。

所以他们不应该在这里提到SSE吗?

EN

回答 1

Data Science用户

发布于 2020-10-22 08:57:41

请注意,该算法称为梯度增强回归。

这样做的目的是让决策树的梯度最小化。这个梯度是一个损失函数,可以采取更多的形式。

该算法根据先前拟合的决策树和预测的决策树的误差,将每个决策树进行聚类。这样你就有了你想要的损失函数。

这个参数就是关于这个的。

票数 1
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/84357

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档