Loading [MathJax]/jax/input/TeX/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >R语言缺失值的处理:线性回归模型插补

R语言缺失值的处理:线性回归模型插补

原创
作者头像
拓端
修改于 2020-10-22 02:16:57
修改于 2020-10-22 02:16:57
3.7K00
代码可运行
举报
文章被收录于专栏:拓端tecdat拓端tecdat
运行总次数:0
代码可运行

原文链接: http://tecdat.cn/?p=14528

在当我们缺少值时,系统会告诉我用-1代替,然后添加一个指示符,该变量等于-1。这样就可以不删除变量或观测值。


视频

缺失值的处理:线性回归模型插补


我们在这里模拟数据,然后根据模型生成数据。未定义将转换为NA。一般建议是将缺失值替换为-1,然后拟合未定义的模型。默认情况下,R的策略是删除缺失值。如果未定义50%,则缺少数据,将删除一半的行

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
n=1000
x1=runif(n)
x2=runif(n)
e=rnorm(n,.2)
y=1+2*x1-x2+e
alpha=.05
indice=sample(1:n,size=round(n*alpha))
base=data.frame(y=y,x1=x1)
base$x1[indice]=NA
reg=lm(y~x1+x2,data=base)

我们模拟10,000,然后看看未定义的分布,

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
m=10000
B=rep(NA,m)







hist(B,probability=TRUE,col=rgb(0,0,1,.4),border="white",xlab="missing values = 50%")
lines(density(B),lwd=2,col="blue")
abline(v=2,lty=2,col="red")

当然,丢失值的比率较低-丢失的观测值较少,因此估计量的方差较小。

现在让我们尝试以下策略:用固定的数值替换缺失的值,并添加一个指标,

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
B=rep(NA,m)






hist(B,probability=TRUE,col=rgb(0,0,1,.4),border="white")
lines(density(B),lwd=2,col="blue")
abline(v=2,lty=2,col="red")

不会有太大变化,遗漏值的比率下降到5%,

例如仍有5%的缺失值,我们有

如果我们查看样本,尤其是未定义的点,则会观察到

缺失值是完全独立地随机选择的,

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
x1=runif(n)






plot(x1,y,col=clr)

(此处缺失值的1/3为红色)。但可以假设缺失值的最大值,例如,

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
x1=runif(n)






clr=rep("black",n)
clr[indice]="red"
plot(x1,y,col=clr)

有人可能想知道,估计量会给出什么?

它变化不大,但是如果仔细观察,我们会有更多差异。如果未定义变量会发生什么,

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
for(s in 1:m){
 









  base$x1[indice]=-1
  reg=lm(y~x1+x2+I(x1==(-1)),data=base)
  B[s]=coefficients(reg)[2]
}

这次,我们有一个有偏差的估计量。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
set.seed(1)






indice=sample(1:n,size=round(n*alpha),prob = x1^3)

base$x1[indice]=-1




coefficients(reg1)
      (Intercept)                x1                x2 I(x1 == (-1))TRUE 
        1.0988005         1.7454385        -0.5149477         3.1000668 
base$x1[indice]=NA


coefficients(reg2)
(Intercept)          x1          x2 
  1.1123953   1.8612882  -0.6548206

正如我所说的,一种更好的方法是推算。这个想法是为未定义的缺失预测值预测。最简单的方法是创建一个线性模型,并根据非缺失值进行校准。然后在此新基础上估算模型。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
for(s in 1:m){






    base$x1[indice]=NA
    reg0=lm(x1~x2,data=base[-indice,])
    base$x1[indice]=predict(reg0,newdata=base[indice,])
  reg=lm(y~x1+x2,data=base)




}
hist(B,probability=TRUE,col=rgb(0,0,1,.4),border="white")
lines(density(B),lwd=2,col="blue")
abline(v=2,lty=2,col="red")

在数字示例中,我们得到

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
base$x1[indice]=NA





coefficients(reg3)
(Intercept)          x1          x2 
  1.1593298   1.8612882  -0.6320339

这种方法至少能够纠正偏差

然后,如果仔细观察,我们获得与第一种方法完全相同的值,该方法包括删除缺少值的行。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Coefficients:
            Estimate Std. Error t value Pr(>|t|)    
(Intercept)  1.15933    0.06649  17.435  < 2e-16 ***
x1           1.86129    0.21967   8.473  < 2e-16 ***
x2          -0.63203    0.20148  -3.137  0.00176 ** 
---
Signif. codes:  0***0.001**0.01*0.05.0.1 ‘ ’ 1
 
Residual standard error: 1.051 on 997 degrees of freedom
Multiple R-squared:  0.1094,	Adjusted R-squared:  0.1076 
F-statistic: 61.23 on 2 and 997 DF,  p-value: < 2.2e-16 
 

 
Coefficients: Estimate Std. Error t value Pr(>|t|)    
(Intercept)  1.11240    0.06878  16.173  < 2e-16 ***
x1           1.86129    0.21666   8.591  < 2e-16 ***
x2          -0.65482    0.20820  -3.145  0.00172 ** 
---
Signif. codes:  0***0.001**0.01*0.05.0.1 ‘ ’ 1
 
Residual standard error: 1.037 on 797 degrees of freedom
  (200 observations deleted due to missingness)
Multiple R-squared:  0.1223,	Adjusted R-squared:   0.12 
F-statistic:  55.5 on 2 and 797 DF,  p-value: < 2.2e-16

除了进行线性回归外,还可以使用另一种插补方法。

在模拟的基础上,我们获得

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
for(j in indice) base0$x1[j]=kpp(j,base0,k=5)
reg4=lm(y~x1+x2,data=base)
coefficients(reg4)
(Intercept)          x1          x2 
   1.197944    1.804220   -0.806766

如果我们看一下10,000个模拟中的样子,就会发现

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
for(s in 1:m){







  base0=base
    for(j in indice) base0$x1[j]=kpp(j,base0,k=5)
  reg=lm(y~x1+x2,data=base0)
  B[s]=coefficients(reg)[2]
}
hist(B,probability=TRUE,col=rgb(0,0,1,.4),border="white")
lines(density(B),lwd=2,col="blue")
abline(v=2,lty=2,col="red")

这里的偏差似乎比没有插补时要弱一些,换句话说,在我看来,插补方法似乎比旨在用任意值替换NA并在回归中添加指标的策略更强大。

参考文献

1.用SPSS估计HLM层次线性模型模型

2.R语言线性判别分析(LDA),二次判别分析(QDA)和正则判别分析(RDA)

3.基于R语言的lmer混合线性回归模型

4.R语言Gibbs抽样的贝叶斯简单线性回归仿真分析

5.在r语言中使用GAM(广义相加模型)进行电力负荷时间序列分析

6.使用SAS,Stata,HLM,R,SPSS和Mplus的分层线性模型HLM

7.R语言中的岭回归、套索回归、主成分回归:线性模型选择和正则化

8.R语言用线性回归模型预测空气质量臭氧数据

9.R语言分层线性模型案例

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
R语言广义线性模型(GLMs)算法和零膨胀模型分析
​,考虑平方根变换g(y)= \ sqrt {y} g(y)= y,则第二个等式变为
拓端
2020/10/21
1.8K0
R语言中使用线性模型、回归决策树自动组合特征因子水平
没有定义一个(连续的)因变量,没有定义一个连续的协变量,也没有定义一个分类变量,此处有十个级别。我们可以使用
拓端
2020/10/21
5700
R语言基于Bootstrap的线性回归预测置信区间估计方法分析汽车制动距离|数据分享
我们知道参数的置信区间的计算,这些都服从一定的分布(t分布、正态分布),因此在标准误前乘以相应的t分值或Z分值。但如果我们找不到合适的分布时,就无法计算置信区间了吗?
拓端
2025/01/15
1320
R语言基于Bootstrap的线性回归预测置信区间估计方法分析汽车制动距离|数据分享
R语言中回归模型预测的不同类型置信区间应用比较分析
我们正在这里做出一个预测。正如在R课堂上(以及在预测模型的过程中)所回顾的,当我们要为预测提供一个置信区间时,建议您为预测器确定置信区间(这将取决于预测误差)参数的估计)和潜在值的置信区间(这也取决于模型误差,即残差的离散度)。让我们从预测的置信区间开始:
拓端
2020/07/10
1.3K0
R语言系列第四期:④R语言简单相关与回归
lm(formula = short.velocity ~ blood.glucose)
百味科研芝士
2019/05/23
1.5K0
R语言用标准最小二乘OLS,广义相加模型GAM ,样条函数进行逻辑回归LOGISTIC分类
这里唯一的问题是权重Δold是未知β的函数。但是实际上,如果我们继续迭代,我们应该能够解决它:给定β,我们得到了权重,并且有了权重,我们可以使用加权的OLS来获取更新的β。这就是迭代最小二乘的想法。
拓端
2021/03/16
1.5K0
【数据分析 R语言实战】学习笔记 第九章(上)一元线性回归分析
回归分析的主要目的是根据估计的模型用自变量来估计或预测因变量取值,但我们建立的回归方程是否真实地反映了变量之间的相关关系,还需要进一步进行显著性检验。对于一元线性回归模型而言,回归方程的显著性检验有三种等价的方法,分别为t检验、F检验和相关系数检验。在R中给出的方法是F检验,原假设为:两个变量之间的线性关系不显著,即
Ai学习的老章
2019/04/10
4K0
【数据分析 R语言实战】学习笔记 第九章(上)一元线性回归分析
R语言ISLR工资数据进行多项式回归和样条回归分析
加载工资数据集。保留所有交叉验证错误的数组。我们正在执行K=10  K倍交叉验证。
拓端
2020/09/25
1.9K0
R语言非参数模型厘定保险费率:局部回归、广义相加模型GAM、样条回归
对于我们40岁的驾驶员的年化索赔频率的预测现在为7.74%(比我们之前的7.28%略高)
拓端
2020/08/05
4860
R语言数据分析与挖掘(第四章):回归分析(1)——一元回归分析
回归分析只涉及到两个变量的,称一元回归分析。一元回归的主要任务是从两个相关变量中的一个变量去估计另一个变量,被估计的变量,称因变量,可设为Y;估计出的变量,称自变量,设为X。回归分析就是要找出一个数学模型Y=f(X),使得从X估计Y可以用一个函数式去计算。当Y=f(X)的形式是一个直线方程时,称为一元线性回归。这个方程一般可表示为Y=A+BX。根据最小平方法或其他方法,可以从样本数据确定常数项A与回归系数B的值。A、B确定后,有一个X的观测值,就可得到一个Y的估计值。回归方程是否可靠,估计的误差有多大,都还应经过显著性检验和误差计算。有无显著的相关关系以及样本的大小等等,是影响回归方程可靠性的因素。R语言中的一元线性回归是用lm()函数实现的。
DoubleHelix
2019/09/27
2.4K0
R语言数据分析与挖掘(第四章):回归分析(1)——一元回归分析
如何应对缺失值带来的分布变化?探索填充缺失值的最佳插补算法
本文将探讨了缺失值插补的不同方法,并比较了它们在复原数据真实分布方面的效果,处理插补是一个不确定性的问题,尤其是在样本量较小或数据复杂性高时的挑战,应选择能够适应数据分布变化并准确插补缺失值的方法。
deephub
2024/06/17
7120
如何应对缺失值带来的分布变化?探索填充缺失值的最佳插补算法
R语言相关分析和稳健线性回归分析
可以使用 cor.test函数。它可以执行Pearson,Kendall和Spearman相关。
拓端
2020/08/22
1.1K0
理解回归分析--机器学习与R语言实战笔记(第四章)
回归是一种有监督的学习方式,用于建模分析一个独立变量(响应变量)和一个或多个非独立变量(预测变量)之间的关联。
用户1075469
2021/12/18
1K0
理解回归分析--机器学习与R语言实战笔记(第四章)
【数据分析 R语言实战】学习笔记 第九章(下)岭回归及R实现 广义线性模型
岭回归分析是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,它是通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的耐受性远远强于最小二乘法。
Ai学习的老章
2019/04/10
9.9K0
【数据分析 R语言实战】学习笔记 第九章(下)岭回归及R实现    广义线性模型
机器学习与R语言实战笔记(第三章)
这里记录下这本书里我之前不了解的内容,欢迎一起交流!向量的模式作者写了个函数来干这件事,我学习下,登上巨人的肩膀。我的理解,这个是相当于motif,计数最多的元素的意思。
用户1075469
2021/12/18
1.2K0
机器学习与R语言实战笔记(第三章)
简单线性回归分析
最近看了下线性回归的内容,还是很有感触的。也通过统计学的这样一个思维来回视原来片面的理解方式。
jeanron100
2019/06/10
8120
简单线性回归分析
R语言教程之-线性回归
回归分析是一种非常广泛使用的统计工具,用于建立两个变量之间的关系模型。 这些变量之一称为预测变量,其值通过实验收集。 另一个变量称为响应变量,其值从预测变量派生。
Ai学习的老章
2019/04/10
1.3K0
R语言教程之-线性回归
R语言工具变量与两阶段最小二乘法
b的估计系数是1.31 instread of 1. ## 2SLS ##现在我们使用2SLS来估计这种关系。我们使用z作为d的工具变量
拓端
2020/07/18
1.8K0
R语言分析协变量之间的非线性关系
最近我被问到我的 - [R和Stata的软件包是否能够适应协变量之间的非线性关系。答案是肯定的,在这篇文章中,我将说明如何做到这一点。
拓端
2020/07/17
7520
【独家】手把手教线性回归分析(附R语言实例)
本文长度为8619字,建议阅读15分钟 本文为你介绍线性回归分析。 通常在现实应用中,我们需要去理解一个变量是如何被一些其他变量所决定的。 回答这样的问题,需要我们去建立一个模型。一个模型就是一个公式之中,一个因变量(dependent variable)(需要预测的值)会随着一个或多个数值型的自变量(independent variable)(预测变量)而改变的。我们能够构建的最简单的模型之一就是线性模型,我们可以假设因变量和自变量间是线性的关系。回归分方法可用于预测数值型数据以及量化预测结果与其预测
数据派THU
2018/01/29
14.2K1
【独家】手把手教线性回归分析(附R语言实例)
推荐阅读
相关推荐
R语言广义线性模型(GLMs)算法和零膨胀模型分析
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档