预览加载中,请您耐心等待几秒...
1/4
2/4
3/4
4/4

在线预览结束,喜欢就下载吧,查找使用更方便

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

分层线性模型(hierarchicallinearmodelHLM)的原理及应用 一、概念:分层线性模型(hierarchicallinearmodelHLM)又名多层线性模型(MultilevelLinearModelMLM)、层次线性模型(HierarchLinearMode1)、多层分析(MultilevelAnalysis/Model)。相对于传统的两种统计方法:一般线性模型(generallinearmodelGLM)和广义线性模型(generalizedlinearmodelsGLMs),它们又有所不同,HLM中的线性模型指的是线性回归,不过它与一般的分层线性回归(HierarchicalRegression)又是不同的,具体的不同见下面数学模型部分。HLM又被通俗的称为“回归的回归”。Wikipedia:“一般线性回归和多重线性回归都是发生在单一层面,HLM相对于更适用于嵌套数据(nestdata)。”在理解HLM之前应了解有关回归分析和嵌套设计(分层设计)的基本知识。 二、模型:1、假设:由于个体行为不仅受个体自身特征的影响,也受到其所处环境(群体/层次)的影响。相对于不同层次的数据,传统的线性模型在进行变异分解时,对群组效应分离不出,而增大模型的误差项。而且不同群体的变异来源也可能分布不同,可能满足不了传统回归的方差齐性假设。在模型应用方面,不同群体(层次)的数据,也不能应用同一模型。鉴于传统方法的局限性,分层技术则解决了这些生态谬误(EcologicalFallacy)。它包含了两个层面的假设:a、个体层面:这个与普通的回归分析相同,只考虑自变量X对因变量Y的影响。b、群组层面:群组因素W分别对个体层面中回归系数和截距的影响。 2、数学模型:a、个体层面:Yij=Β0j+Β1jXij+eijb、群组层面:Β0j=γ00+γ01Wj+U0jΒ1j=γ10+γ11Wj+U1j涉及到多个群组层次的时候原理与之类似,可以把较低级层次的群组,如不同的乡镇层面与不同的县市层面,可以这样理解,乡镇即是一个个体,群组即是不同的县市。更多层次的可以这样理解,一直是下一层对上一层回归系数和截距的回归。与普通的“回归的回归”不同的是,整个计算过程通过迭代过程完成。 3、因变量:此处数学模型仅适用于连续的单因变量。非连续因变量、多因变量、潜变量以及非典型的嵌套设计,多层线性模型也可以进行处理,但对模型的设定会更复杂。 4、与分层回归的区别:a、向前回归、向后回归和逐步回归:向前回归:根据自变量对因变量的贡献率,首先选择一个贡献率最大的自变量进入,一次只加入一个进入模型。然后,再选择另一个最好的加入模型,直至选择所有符合标准者全部进入回归。向后回归:将自变量一次纳入回归,然后根据标准删除一个最不显著者,再做一次回归判断其余变量的取舍,直至保留者都达到要求。逐步回归是向前回归法和向后回归法的结合。首先按自变量对因变量的贡献率进行排序,按照从大到小的顺序选择进入模型的变量。每将一个变量加入模型,就要对模型中的每个变量进行检验,剔除不显著的变量,然后再对留在模型中的变量进行检验。直到没有变量可以纳入,也没有变量可以剔除为止。向前回归、向后回归和逐步回归都要按照一定判断标准执行。即在将自变量加入或删除模型时,要进行偏F检验。b、分层回归与前三者的区别与联系:在理解分层回归与以上三者的区别时,应理解以下三个概念。总体变异:预测变量X和结果变量Y之间相关的平方,它包括该X和Y之间的所有关系。共同变异:在每个X互相独立的理想情况下,共同变异为0。它指的是X对Y的影响的重叠部分。独特变异:在控制了其他变量以后,特定X对Y的影响。它表示了Y中由特定X所单独解释的变异。假如X之间存在重叠,那么它们共有的变异就会削弱独特变异。X的独特效应指的是去除重叠效应后该X与Y的偏相关的平方。可以看出,X的独特变异依赖于其他预测变量。在强制回归(ENTER法)中,所有预测变量的偏决定系数之和要小于整个模型的决定系数(R2)。总决定系数包括偏决定系数之和与共同变异。强制回归(ENTER法)的局限性在于不能将重叠(共同)变异归因于模型中的任何一个预测变量,每个预测变量只能分配到它所解释的独特变异,共同变异则被抛弃了。此时的偏相关的平方与回归系数是等同的。分层回归与以上三种方法则提供了一种可以将共同变异分配给特定预测变量的方法。共同变异将会分配给优先进入模型的变量。在分层回归中,将会把重叠(共同)变异分配给第一层模型中的预测变量。因此,上面三种方法则是针对自变量而言的,而分层回归则针对第一层(优先层的模型)。分层回归则是由研究者根据经验和理论思考来将自变量分成不同的组(block),然后再安排每一组变量进入模型的顺序,进入的顺序不是根据贡献率,而是根据相应的理论假设。而且