在混合效应逻辑回归用于建立二元结果变量的模型,其中,当数据被分组或同时存在固定和随机效应时,结果的对数几率被建模为预测变量的线性组合(点击文末“阅读原文”获取完整代码、数据和AI智能体)。
相关视频
例1:一个研究人员对40所不同大学的申请进行抽样调查,以研究预测大学录取的因素。预测因素包括学生的高中GPA、课外活动和SAT分数。一些学校的选择性较多或较少,所以每所学校的基准录取概率是不同的。学校层面的预测因素包括学校是公立还是私立,目前学生与教师的比例,以及学校的排名。
例2:一家大型HMO想知道哪些病人和医生的因素与病人的肺癌在治疗后是否得到缓解最相关,这是一项关于肺癌病人的治疗效果和生活质量的研究的一部分。
例3:一家电视台想知道时间和广告活动如何影响人们是否观看电视节目。他们对四个城市的人进行了为期六个月的抽样调查。每个月,他们都会询问人们在过去一周是否观看了某个节目。三个月后,他们在四个城市中的两个城市推出了一个新的广告活动,并继续监测人们是否观看了该节目。
Q
混合效应逻辑回归相比普通逻辑回归有什么优势?
智能体:混合效应逻辑回归(也称为多层次逻辑回归)是普通逻辑回归的扩展,特别适用于具有层次结构或聚类结构的数据。在商业分析和医疗研究(如文档中提到的肺癌研究)中,数据往往具有自然的层次结构(如患者嵌套于医生,医生嵌套于医院),这时混合效应模型显示出明显优势。
分析过程
1. 处理数据非独立性的能力
核心优势:混合效应模型能正确处理分组数据中的非独立性。
在文档中提到的肺癌研究中,患者数据被分组到不同的医生下(407位医生,8525位患者)
普通逻辑回归假设所有观测独立,这会低估标准误,导致p值偏小(Type I错误增加)
混合效应模型通过引入随机效应(如医生层面的随机截距)来捕捉组内相关性
示例:文档展示的三层模型同时考虑了医生和医院层面的随机效应,更准确反映了数据结构。
2. 同时建模固定效应和随机效应的能力
核心优势:可以区分群体水平(固定效应)和组别水平(随机效应)的影响。
固定效应:所有组共享的预测变量效应(如文档中的IL6、CRP等生物标志物)
随机效应:各组特有的变异(如不同医生的基线治疗效果差异)
文档证据:文档中的模型既包含了患者水平的预测因子(IL6、CRP、癌症阶段),也包含了医生水平的预测因子(医生经验),还有医生ID的随机截距。
3. 更准确的组间比较和预测
核心优势:通过部分池化(partial pooling)平衡组间信息。
普通逻辑回归要么完全池化(忽略分组),要么完全不池化(为每组单独建模)
混合效应模型通过随机效应实现部分池化,尤其适用于:
组别样本量不均衡时(某些医生只有少量患者)
需要同时进行组内和组间推断时
文档证据:文档展示了如何通过"毛毛虫图"可视化不同医生和医院的条件模型分布。
4. 处理多层次结构的能力
核心优势:可扩展至多层次的复杂数据结构。
如文档所示,可以构建三层模型(患者-医生-医院)
可以包含交叉随机效应(非嵌套结构)
可以添加随机斜率(如文档4最后部分,住院时间的效应在不同医生间变化)
5. 更丰富的模型解释
核心优势:可以分离不同层次的变异来源。
计算组内相关系数(ICC)量化组间变异比例
区分预测变量的组间效应和组内效应
如文档所述,可以计算边际效应和条件效应......
在这个例子中,我们将使用一个模拟的数据集来探讨关于肺癌的例子。我们收集了病人的各种结果,他们被包含在医生身上,而医生又被包含在医院里。还有一些医生层面的变量,比如我们将在例子中使用的 "医生经验"。
within(hp, {
已婚 <- factor(已婚, levels = 0:1, labels = c("否", "是"))
DID <- factor(DID)
HID <- factor(HID)
癌症阶段 <- factor(癌症阶段)
现在我们要对我们的连续预测变量进行绘图。数据的可视化可以帮助我们理解分布情况,发现编码错误(例如,我们知道一个变量的取值范围是0到7,但我们在图中看到了999),并让我们了解变量之间的关系。例如,我们可能看到两个预测因子高度相关,于是决定只在模型中包括一个,或者我们可能注意到两个变量之间有曲线关系。数据可视化是一种快速、直观的方式,可以一次性检查所有这些情况。如果你的大多数预测因子看起来都是相互独立的,数据很好。例如,如果它们是独立的,当你输入另一个预测因子时,一个预测因子的估计值不应该有太大变化(尽管标准误差和显著性检验可能会有)。我们可以通过简单地查看数据来了解所有这些信息以及判断如何建模。
ggpairs(hp\[, c("IL6", "CRP", "住院时间", "医生经验")\],
我们的连续预测因子之间似乎没有强的线性关系。让我们看看我们的变量在癌症阶段中的分布情况。因为住院时间是以天为单位的,我们可以用气泡图来研究癌症阶段与它的关系。每个气泡的面积与具有这些数值的观察值的数量成正比。对于连续的预测因子,我们使用小提琴图。所有的原始数据都按癌症阶段分开显示。
我们增加了小提琴图。小提琴图只是围绕绘图轴反映的核密度图。我们将小提琴图绘制在具有透明度的抖动点之上,这样就可以看到原始数据。
因为IL6和CRP都有偏斜分布的倾向,所以我们在Y轴上使用了平方根刻度。分布看起来相当正常和对称,你仍然可以看到长的右尾,即使使用了平方根刻度(注意,只有刻度被转移,数值本身没有被转换,这很重要,因为这让你看到并解释实际的分数,而不是分数的平方根)。
ggplot( stat_sum(aes(size = ..n.., group = 1)) +
scale\_size\_area(max_size=10)
ggplot(tp, +
geom_jitter(alpha = .1) +
geom_violin(alpha = .75) +
因为很难看到二元变量在连续变量的水平上如何变化,我们可以反过来看看二元结果的每个水平上的连续变量的分布。
ggplot(tmp,
geom_boxplot() +
facet\_wrap(~variable, scales="free\_y")
下面是一个分析方法的列表:
下面我们使用glmer命令估计混合效应逻辑回归模型,Il6、CRP和住院时间为患者水平的连续预测因素,癌症阶段为患者水平的分类预测因素(I、II、III或IV),经验为医生水平的连续预测因素,还有DID的随机截距,医生ID。
#估计模型并将结果存储在m中
# 输出结果,固定效果之间不相关
print(m, corr = FALSE)
第一部分告诉我们,估计值是基于自适应高斯-赫米特的似然性近似。为了避免出现不收敛的警告,我们用参数control=glmerControl(optimizer="bobyqa")指定不同的优化器。
下一节给我们提供了可用于比较模型的基本信息,接着是随机效应估计值。这表示对数尺度上截距的估计变化。如果有其他随机效应,比如随机斜率,它们也会出现在这里。最上面的部分最后是观察值的总数和第2级观察值的数量。在我们的案例中,这包括病人(8,525)和医生(407)的总数。
最后一节是固定效应估计值的表格。这些估计值代表回归系数。这些是未标准化的,而且是在对数尺度上。估计值后面是它们的标准误差(SE)。系数估计的近似值可能比SEs的近似值稳定得更快。Wald检验,(frac{Estimate}{SE}),依赖于渐进理论,这里指的是当最高级别的单位大小收敛到无穷大时,这些检验将呈正态分布,并由此得出p值(鉴于真实估计值为0,获得观察估计值或更极端的概率)。
获得置信区间(CI)。我们可以使用SE来获得粗略的区间估计。
# 带有95%CI的估计表
cbind(Est = fixef(m), LL = fixef(m) - 1.96 * se, UL = fixef(m) + 1.96 *
se))
如果我们需要比值比而不是对数刻度上的系数,则可以对估计值和CI求幂。
从GLMMs进行推断是很复杂的。除了在每个层次(尤其是最高层次)有很多观测值的情况下,假设(frac{Estimate}{SE})是正态分布可能不准确。人们提出了各种替代方法,包括蒙特卡洛模拟、贝叶斯估计和bootstrapping。每种方法的实施都可能很复杂。我们将重点讨论一个小的bootstrapping例子。
Bootstrapping是一种重抽样方法,就是利用有限的样本资料经由多次重复抽样,重新建立起足以代表母体样本分布的新样本。它决不是完美的,但它在概念上是直接易懂的,而且容易在代码中实现。一个缺点是,它对计算要求很高。对于大型数据集或复杂的模型,每个模型的运行需要几分钟,在成千上万的样本上进行估计,很容易需要几个小时或几天。在本页的例子中,我们使用了非常少的样本,但在实践中你会使用更多的样本。
对于单层次模型,我们可以实现简单的随机抽样,并进行替换,以进行bootstrapping。对于多层次数据,我们希望以与数据生成机制相同的方式重新取样。我们从最高级别开始重新取样,然后逐级向下。在我们的案例中,我们首先将从医生那里取样,然后在每个取样的医生中,我们将从他们的病人那里取样。要做到这一点,我们首先需要写一个函数,在每个层次上重新取样。
sample <- function(dat, cluvar) {
id <- sample(cid, size = cid * reps, replace = TRUE)
if (replace) {
lapply(seq_along(cid), function(i) {
cbind( ID = i, RowID = sample( (dat\[, cluvar\] == recid\[i\]),
size = length( (dat\[, cluvar\] == recid\[i\]) )
})
} else {
lapply(seq_along(cid), function(i) {
cbind( ID = i, RowID = (dat\[, cluvar\] == recid\[i\]))
)
} )
现在,我们将重新对数据进行取样,并采取100次重复。同样在实践中,你可能会采取数千次。我们设置种子,以便我们的结果可以重复。你也很可能需要比你最终想要的更多的重复样本,因为许多样本可能不收敛,所以你不能从它们那里得到估计。
tmp <- sample(hdp, "DID", reps = 100)
接下来,我们在重新取样的数据上重新拟合模型。首先,我们存储原始模型的估计值,我们将用它作为自助模型的起始值。然后,我们建立一个有4个节点的本地集群。接下来,我们导出数据并在集群上加载。最后,我们写一个函数来拟合模型并返回估计值。对glmer()的调用被封装在try中,因为不是所有的模型都能在重新采样的数据上收敛。这样可以捕捉到错误并返回,而不是停止处理。
makeCluster(4)
clusterEvalQ(cl, require(lme4))
boot <- function(i) {
object <- try(glmer(缓解 ~ IL6 + CRP + 癌症阶段 + 住院时间 subset = Replicate == i, family = binomial,
if (class(object) == "try-error")
return(object)
}
现在我们已经有了数据、本地集群和拟合函数的设置,我们准备实际进行bootstrapping了。来自所有节点的结果被汇总回一个单一的列表,存储在对象res中。一旦完成,我们就可以关闭本地集群,终止额外的R实例并释放了内存。
parLapplyLB(cl, X = levels(data$Replicate), fun = boot)
# 关闭集群
stopCluster(cl)
现在我们有了bootstrapping法的结果,我们可以对其进行总结。首先,我们计算成功收敛的模型的数量。我们可以计算成功的平均数,以看到收敛的比例。
# 计算成功收敛的模型的比例
succ <- sapply(res, is.numeric)
mean(succ )
## \[1\] 1
接下来我们把引导结果列表转换成矩阵,然后计算每个参数的2.5和97.5百分位。最后,我们可以将结果制成表格,包括原始估计值和标准误差、平均引导估计值,以及bootstrap 的置信区间。
# 合并成功的结果
do.call(cbind, res\[success\])
# 计算出95%CI的2.5和97.5百分位数。
apply( res, 1,quantile, probs = c(0.025, 0.975)
## 2.5% 97.5%
## (Intercept) -3.61982-0.985404
## IL6 -0.08812-0.029664
## CRP -0.048970.006824
## 癌症阶段II -0.60754-0.228019
## 癌症阶段III -1.30217-0.754609
## 癌症阶段IV -2.91414-2.002643
## 住院时间 -0.21596-0.046420
## 医生经验 0.068190.207223
## NewID.(Intercept) 2.03868 2.476366
# 所有结果取整输出
round( able, 3)
## Est SE BootMean 2.5% 97.5%
## (Intercept) -2.053 0.531 -2.205 -3.620 -0.985
## IL6 -0.057 0.012 -0.059 -0.088 -0.030
## CRP -0.021 0.010 -0.022 -0.049 0.007
## 癌症阶段II -0.414 0.076 -0.417 -0.608 -0.228
## 癌症阶段III -1.003 0.098 -1.043 -1.302 -0.755
## 癌症阶段IV -2.337 0.158 -2.460 -2.914 -2.003
## 住院时间 -0.121 0.034 -0.142 -0.216 -0.046
## 医生经验 0.120 0.027 0.128 0.068 0.207
## DID.(Intercept) 2.015 NA 2.263 2.039 2.476
这些结果很适合放在表格中或研究文本中;但是,数字的解释可能很麻烦。图形展示有助于解释,也有助于演讲。 在一个逻辑模型中,结果通常是
对于表格来说,人们经常呈现的是几率比。对于可视化来说,对数或概率比例是最常见的。每种方法都有一些优点和缺点。对数表很方便,因为它是线性化的,这意味着一个预测因素增加1个单位,结果就会增加一个系数单位,而且无论其他预测因素的水平如何。缺点是这个量表的可解释性不强。读者很难对对数有一个直观的理解。相反,概率是一个很好的尺度,可以直观地理解结果;但是,它们不是线性的。这意味着预测因子增加一个单位,不等于概率的恒定增加--概率的变化取决于为其他预测因子选择的值。在普通逻辑回归中,你可以保持所有预测因子不变,只改变你感兴趣的预测因子。然而,在混合效应逻辑模型中,随机效应也对结果产生影响。因此,如果你保持一切不变,那么只有当所有协变量保持不变,并且你在同一组或具有相同随机效应的一组时,结果的概率变化才是真的。
我们将探讨一个平均边际概率的例子。这比条件概率需要更多的工作,因为你必须为每一组计算单独的条件概率,然后将其平均化。
首先,让我们使用这里的符号来定义一般程序。我们通过获取
并将感兴趣的特定预测因子,比如说在j列,设置为常数来创建
。如果我们只关心预测器的一个值,那就是
。然而,更常见的是,我们希望预测因子有一定的取值范围,以便绘制预测概率在其范围内的变化情况。我们可以通过获取预测模型的观察范围,并在该范围内均匀地抽取k个样本。例如,假设我们的预测模型的范围是5到10,我们想要6个样本,
,所以每个样本将与前一个样本相隔1,它们将是
. 然后我们创建不同的k个不同的Xi,其中
,在每种情况下,第j列被设置为某个常数。然后我们计算:
这些是所有不同的线性预测因子。最后,我们采取
,这就得到
,这是原始尺度上的条件期望,在我们的例子中是概率。然后我们可以取每个
的期望值,并将其与我们感兴趣的预测因子的值作对比。我们还可以绘制图表,不仅显示平均边际预测概率,而且还显示预测概率的分布。
你可能已经注意到,这些估计值中有很多变数。我们在使用
时,只将我们感兴趣的预测因子保持在一个常数,这使得所有其他预测因子都能在原始数据中取值。另外,我们把
留在我们的样本中,这意味着有些组的代表性比其他组要高或低。如果我们想的话,我们可以对所有的群体进行重新加权,使其具有同等的权重。在这个例子中,我们选择让所有这些东西保持原样,是基于这样的假设:我们的样本确实是我们感兴趣的人群的良好代表。我们没有试图挑选有意义的值来保持协变量(,而是使用了我们样本的值。这也表明,如果我们的样本能很好地代表总体,那么平均边际预测概率就能很好地代表我们总体中新的随机样本的概率。
现在我们有了一些背景和理论,我们看看如何实际去计算这些东西。我们得到一个住院时间(我们感兴趣的预测因子)的摘要,然后在其范围内得到100个值,用于预测。我们复制一份数据,这样我们就可以固定其中一个预测因子的值,然后使用预测函数来计算预测值。默认情况下,所有的随机效应都被包括在内。
# 计算预测的概率并存储在列表中
lapply(jvalues, function(j) {
predict(m, newdata = tmpdat, type = "response")
现在我们有了所有的预测概率, 可以可视化它们。例如,我们可以看一下少数不同停留时间的平均边际预测概率。
#几种不同时间的平均边际预测概率
t(sapply(pp, function(x) {
c(M = mean(x), quantile(x, c(0.25, 0.75)))
# 加入时间的数值并转换为数据框
as.data.frame(cbind(plotdat, values))
# 显示前几行
head(plotdat
# 绘制平均边际预测概率
ggplot(plotdat) + geom_line() +
我们还可以加上下限和四分位数。可以看到50%的预测概率所处的范围。
ggplot(plotdat) + geom\_linerange( ) + geom\_line(size = 2)
除了改变住院时间之外,我们还可以对癌症阶段的每一级做同样的平均边际预测概率。
# 计算预测的概率并存储在一个列表中
lapply( 癌症阶段, function(stage) {
predict(m, newdata = tmpdat, type = "response")
})
# 获得每个级别的癌症阶段的所有j值的平均值和四分位数
lapply( probs, function(X) {
c(M=mean(x), quantile(x, c(.25, .75)))
# 放到一个数据框
do.call(rbind, plotdat2)
# 添加癌症阶段
factor(rep(levels(癌症阶段 ))
# 显示前几行数据
head(plotdat2)
# 绘制
ggplot(plotdat2 ) +
geom_ribbon(aes(ymin = Lower, ymax = Upper, fill = 癌症阶段), alpha = .15) +
对于一个住院10天的第四期肺癌患者,其癌症得到缓解的机会看起来相当小。看起来分布也是偏斜的。我们可以检查一下仅针对该组的预测概率分布。
ggplot( aes(Probs)) + geom_histogram() +
即使使用平方根尺度,将较低的数值拉长,它仍然是极其偏斜的。据估计,绝大多数人的病情缓解的概率不到0.1。
我们已经深入研究了一个带有随机截距的两级逻辑模型。这是最简单的混合效应逻辑模型。现在我们要简要地看一下如何增加第三层次和随机斜率效应以及随机截距。
下面我们估计一个三层逻辑模型,医生有一个随机截距,医院有一个随机截距。在这个例子中,医生被嵌套在医院内,也就是说,每个医生属于一家而且只有一家医院。另一种情况有时被称为 "交叉分类",意思是一个医生可能属于多家医院,比如该医生的一些病人来自A医院,另一些来自B医院。在glmer中,你不需要指定组是嵌套还是交叉分类,R可以根据数据计算出来。
# 输出没有固定效应之间相关性的mod结果
print(m3a, corr=FALSE)
输出告诉我们族(二元结果的二项式)和链接函数(logit)。接着是通常的拟合指数和随机效应的方差。在这种情况下,医生之间和医院之间的截距(在对数赔率尺度上)的变化。还显示了标准差(只是方差的平方根,而不是估计方差的标准误差)。我们还得到了每个层次上的单位的数量。最后是固定效应。
看一下条件模型的分布也是很有用的,下面我们用“毛毛虫图”来做。蓝点是带有误差条的条件模型。我们对医生和医院都是这样做的。例如,对于医生来说,我们可以看到一个有点长的右尾,即极端的正值比负值多。
lattice::dotplot( (m) ))
## $DID
## $HID
我们也可以在模型中加入随机斜率。我们只是要为 "住院时间 "增加一个随机斜率,这个斜率在不同的医生之间变化。就像在常规的R公式中一样,我们使用+运算符来 "添加 "一个效应。
# 输出没有固定效应之间相关性的mod结果
print(m3b, corr = FALSE)
## $DID
## $HID
Q
有没有相关的新的方法可以做一些新的东西?
智能体:基于当前混合效应逻辑回归的研究进展和应用实践,以下是值得关注的新方法和创新方向:
一、计算方法的创新突破
变分推断加速技术(文档1提及传统MCMC计算瓶颈)
使用随机变分推断(SVI)处理超大规模分层数据
开发GPU加速的ADVI(自动微分变分推断)实现
分布式混合模型框架
结合Spark/MARS等分布式计算平台
开发分层模型的mini-batch学习算法
二、模型架构的扩展升级
深度混合模型(突破文档1中GLMM的线性限制)
神经网络与随机效应的融合(如DeepGLMM)
注意力机制处理多层次特征交互
贝叶斯非参数扩展
使用高斯过程作为随机效应分布
狄利克雷过程混合的层次模型(处理未知组别数)
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有