腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(5379)
视频
沙龙
1
回答
统计
模型
多重
回归
的
附加
步骤
?
、
、
我正在尝试用时间序列数据做一个简单
的
乘法
回归
。为了简单起见,我试着用两个自变量来证明概念。我从4/30/15-5/31/2019有几个月
的
时间,但是对于这个问题我已经简化到只有3个月了,并且正在使用下面的代码来尝试复制statsmodels样本。= 3 (dim 0) 当我查看输出错误时,它似乎尝试在没有首先转置其中一个对象
的
情况下将两个对象进行矩阵相乘失败?当我尝试同样
的
代码时,只使用数据帧
的
一列作为独立变量,它就会通过。对于多元线性
回归
浏览 10
提问于2019-07-16
得票数 0
1
回答
线性判别和二次判别分析
的
P值(LDA,QDA)
、
我一直在寻找一种方法来提取LDA和QDA
模型
的
p值,但没有成功。 我知道我可以使用来自summary
的
statsmodel函数进行线性和logistic
回归
,但我认为这不适用于上述
回归
。非常感谢您
的
帮助!
浏览 4
提问于2020-02-09
得票数 1
回答已采纳
1
回答
F_Regression来自sklearn.feature_selection
、
、
、
在学习特征选择模块中找到了用于特征选择
的
F_regression技术。我无法理解它所使用
的
原则。给出
的
描述是-快速线性
模型
,用于测试单个
回归
器
的
效果,对许多
回归
者来说是顺序
的
。这分三个
步骤
完成: 1.兴趣
回归
和数据
回归
为正交wrt常量
回归
。2.计算了数据与
回归
元之间
的
相互关系。它被转换成F分数,然后转换成p
浏览 2
提问于2016-06-10
得票数 2
2
回答
线性
回归
测试数据违反训练data.Please解释我哪里出错了
、
、
这是一个数据集
的
一部分,其中包含1000条不同地点
的
房屋租金定价条目。预期输出(Y_pred)应该是220000,但它显示
的
是290000,怎么会违反已经训练过
的
输入呢?
浏览 1
提问于2019-12-28
得票数 1
回答已采纳
2
回答
如何检验整体意义?
、
我有两个
模型
:一个是简单
的
线性
回归
,另一个是多元线性
回归
。如何解释最适合使用
的
模型
是简单线性
回归
还是多元线性
回归
?以下是
回归
过程中
的
一些值: 简单线性:
浏览 0
提问于2015-12-06
得票数 2
4
回答
线性
回归
的
多重
共线性与完全共线性
、
我一直在试图了解自变量内
的
多重
共线性对线性
回归
模型
的
影响。维基百科网页建议,只有当有一个“完美”
的
多重
共线性,其中一个自变量将不得不从培训中删除。现在我
的
问题是,如果相关性等于+/- 1,我们应该只删除其中
的
一列,还是考虑一个阈值(比如0.90),然后它应该被认为是完美的
多重
共线性。
浏览 0
提问于2021-10-25
得票数 3
1
回答
线性
回归
假设
简单地说,线性
回归
的
假设是什么? 我只想知道我什么时候可以将线性
回归
模型
应用到我们
的
数据集中。
浏览 0
提问于2018-05-29
得票数 9
1
回答
python中如何从多个自变量和一个因变量绘制图[多元线性
回归
]
、
、
、
我是机器学习
的
新手,面临着在多元线性
回归
中如何去除多个自变量
的
问题。我所经历
的
步骤
: 1)读取数据集2)分离成X和Y)将分类数据编码为数据集包含列:教授、职称、专业等。4)去除虚拟变量5)OLS
回归
结果。 我有7个自变量,OLS后有6个独立variables.Removed,P> 0.05,P值大于0.0 5
的
显着性水平。您能建议哪些
步骤
来绘制图形,并删除图像中
附加
的
所有不必要
的
自变量?如何从
浏览 3
提问于2018-11-13
得票数 0
1
回答
个体特征
的
多重
共线性与影响
、
假设以下情况:这些特征之间存在不可忽略
的
多重
共线性关系。比方说,我想了解一把椅子
的
不同部件对椅子零售价
的
影响。例如:x_1 =所用垫子
的
颜色x_3 =椅子
的
强度 x
浏览 0
提问于2019-11-10
得票数 1
1
回答
如何开始分析和建模一个学术项目的数据,而不是
统计
学家或数据科学家
、
、
、
我为一篇PhD论文收集了数据,需要帮助我理解如何构建一个路线图来进行分析和
统计
分析。PhD本身并不是在
统计
或机器学习,但我想了解
的
步骤
和类型
的
分析,我必须遵循
的
数据分析
的
高级学位?我考虑做几个
回归
分析来预测因变量,并研究其上
的
影响因素(如果它们是正
的
、负
的
,以及它们
的
大小)。我尝试过多元线性
回归
,包括对自变量
的
不同变换。另一方面,我不确定是否应该
浏览 0
提问于2015-09-19
得票数 1
回答已采纳
2
回答
在应用Lasso之前,应该省略高度相关
的
特征吗?
、
、
、
、
如果您能让我知道在使用Lasso logistic
回归
(L1)进行特征选择之前是否应该省略高度相关
的
特性,我将非常感激。正则化是处理共线性(特征间高度相关)
的
一种非常有用
的
方法。然而,这个内核 (通过引用维基百科)指出,保持<em
浏览 0
提问于2018-08-20
得票数 1
1
回答
如何处理两个显着自变量之间
的
多重
共线性?
、
、
我现在正在构建一个线性
回归
模型
。有32个自变量。G3是目标变量。 首先,利用所有自变量建立线性
回归
模型
。这是我得到
的
结果
的
一部分: 如您所见,G1和G2都是重要
的
自变量。但它们之间
的
相关性是0.8521181。因此,我认为线性
回归
模型
中存在
多重
共线性。我现在要找出最好
的
线性
回归
模型
。如何解决
多重
共线性问题?
浏览 4
提问于2018-03-25
得票数 0
1
回答
如何改进零充气负二项
回归
模型
?
、
、
我有一个响应变量,它
统计
一个月中成功
的
日子,并以一种特殊
的
形式分布(见上文)。大约50%是零,有一个很重
的
尾巴。由于过分散和过零,我建议用零膨胀负二项
回归
模型
来预测它。然而,不管我获得
的
模型
有
多重
要,它几乎没有反映出这些分布特性(见下文)。例如,峰值总是在4左右,没有预测值超过20。在拟合过度分散
的
重尾计数数据时,这种情况常见吗?我还尝试用logistic
回归
来预测零/非零。但
浏览 4
提问于2020-01-19
得票数 1
2
回答
我可以添加另一个特性
的
一部分吗?
、
、
、
我正在建立一个
模型
(实现逻辑
回归
和Xgboost),以了解每个特性
的
重要性/重要性,以了解客户是否打算进行回购,以了解什么对客户来说是重要
的
(比预测更感兴趣)。我
的
功能集如下所示:收入、年龄、价格_产品,折扣,产品_类别、交付_收费、性别、生活方式、分娩_时间_主要(P_,P1,P2,P3,P4等) P_main是客户看到并可能影响他们决定是否回购
的
东西。我们希望了解P1、P2、P3、P4有多少重要,以及它们是过程中
的
几个阶段,这样我们就可以推断出,如果我们要
浏览 0
提问于2019-05-28
得票数 2
2
回答
如何解释多元线性
回归
的
相关系数?£
、
、
、
📷📷📷 现在,基于线性
回归
模型
中预测变量
的
系数,我被要求找到显着
的
预测因子(s)。基于相关值,我认为X4将是一个重要
的
预测因素,但它
的
回归
系数表明了一个完全不同
的
情况。(x4在lm摘要输出中
的
系数值最小)。你能帮我理解什么是正确
的
方法来识别重要<
浏览 0
提问于2020-02-23
得票数 2
1
回答
为什么“重复测量”没有出现在SPSS
的
“分析- glm”菜单下?
这是我第一次用SPSS软件做样本内方差分析.我看到
的
每一个教程都告诉我,我应该去分析->通用线性
模型
->重复度量。 问题是,在“一般线性
模型
”下,我看到
的
唯一命令是“单变量”。
浏览 3
提问于2014-04-08
得票数 3
1
回答
支持多变量
回归
的
机器学习
回归
、
、
我有一个大约150个样本
的
数据集,其中每个样本有11个输入和3个输出。我试图建立一个完整
的
回归
模型
来接受11个要训练
的
输入来预测3个输出,问题是样本如此之少,训练一个完整
的
模型
几乎是不可能
的
。出于这个原因,我正在尝试使用pythons sklearn中
的
回归
,例如线性
回归
。根据我所能发现
的
,大多数
回归
模型
要么支持一个输入来预测一个输出(在
浏览 12
提问于2021-09-21
得票数 0
1
回答
R中
的
auto.arima函数是在估计线性
回归
模型
之前还是之后对y和x变量进行微分?
、
、
、
、
我试图估计一个带有arima误差
的
线性
回归
,但我
的
回归
变量是高度共线性
的
,因此
回归
模型
受到
多重
共线性
的
影响。由于我
的
最终目标是能够将单个
回归
系数解释为弹性,并将它们用于事前预测,因此我需要以某种方式解决
多重
共线性,以便能够信任
回归
变量
的
系数。我知道转换
回归
变量,例如。通过差分可能有助于减少
多重
共线性。我还了解到
浏览 38
提问于2019-06-17
得票数 1
1
回答
在机器学习中标准化数据集会降低准确性吗?
、
、
、
首先,我对虹膜数据集使用正态logistic
回归
,它得到了0.977
的
准确率,第二次对数据集进行预处理时,我得到了0.955
的
准确率。为甚麽呢?logreg.fit(xtrain, ytrain)print(metrics.accuracy_score(ytest, ypred1)) 带预处理
的
模型
浏览 1
提问于2020-04-20
得票数 0
3
回答
带有scikit学习
的
MultiLayer LogisticRegression函数
、
但是,这些参数不包括创建多层神经网络
的
能力有没有什么函数或者其他变通方法可以让你添加隐藏
的
图层我找到
的
关闭函数是,它允许使用多层,但输出是用于分类
的
类。
浏览 30
提问于2018-02-21
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Python实现统计回归模型
使用Python构建和评估统计回归模型
建模基本步骤、模型回归结果的解读逻辑
wps 2019统计字数的详细步骤
多重预训练视觉模型的迁移学习
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券