社会科学在方法学上有了很大的进步,尤其是经济学、医学、心理学等领域的方法,当然做为极具代表性的应用前沿(模型),诸如GMM、广义线性、结构方程也有了令人瞩目的发展,这些模型原理还算容易理解,但结构方程模型(SEM)在原理及其推论上有个“盲区”,极容易被误解,下面就简单探析一下。
谈到这个“盲区”,还需要从传统的概率论说起。
统计学的两个重要的部分是参数估计和假设检验,那么假设检验的依据是概率论。这个过程的第一步要求有个原假设H0(这个原假设通常是研究者不希望要的),然后通过抽样样本加以确定后续之拒绝(p<0.05),还是“接受”(p>0.05)原假设。
一般来说,通过样本数据得出显著的结果(p<0.05),研究者很高兴(原假设是我们不希望的结果),这个时候也同样获得了一个确定性的结论(成功的否定了),一如要想证伪一个结论,只要找到一个不满足的条件就可以了,就像如果希望证明一个好人,基本上需要遍历他的一生有无对错,而如果希望证伪“好人”这个结论,只需要找到他干的一件坏事就足够了(例如有没有不雅照),所以可以看出否定一件事情是很容易的,那么统计推论也遵循这个逻辑。
上面说了一大段都没有讲到重点,下面我们来看一下结构方程模型(SEM)。
首先看看一下它的原理。
SEM模型(CFA)及其公式
根据Hays在1994提出的方差(协方差)的4条推导定理,我们可以计算X1~X5的两两的间的协方差,及其自身的方差。于是可以写出观测变量的方差(协方差)的三角矩阵,一般用∑表示(这里需要强调的是上图本身就是理论使然)。
另外抽样样本(就是拿到的数据)也可以计算方差(协方差)矩阵,一般用大写的S表示。那么S-∑就是残差,然后根据这个信息和样本量计算检验统计量(可以视为卡方值),卡方值越大,假如p已经小于0.05,说明S与∑的差异越大,也就是说数据与理论相差太远,因此拒绝原假设(S=∑),认为数据与理论不适配。接下来研究者就很难过了(论文没法发表了)。
这里有个问题不知大家有没有发现,传统的统计分析,p<0.05大家都很开心,但SEM中p<0.05大家都难过(当然这里不考虑样本量的影响),这是为什么?难道SEM模型突破了概率论的范畴?或者统计学家搞错了?其实不是,SEM仍然是在概率论的框架下进行的。
在概率论基础之上,在回到SEM的那个显著性上。SEM原假设仍然是研究者“不希望”的结果,但事实上,我们确希望得到SEM原假设的结果(S=∑),所以问题就在这里,那么在SEM中,统计学家为什么将一个看起来需要的假设放在极容易被拒绝的位置上呢?
如果想说明这个问题,我想下面这个例子会比SEM模型推导更有用。
假如SEM模型是处房子,理论是框架,数据是砖瓦。
房子的框架是主人的意愿(理论)使然,这个框架可以是任意形状,如果盖的大点,可能做居住之用或者办公,如果盖的小点,可能做牛棚或猪圈,只要主人喜欢就行(就是理论上能通过),不过,一般来说房子的形状也不是任意的,创意固然推荐,但也要符合力学等科学的原理(建构SEM的理论支撑)。
而砖瓦(数据)所起的作用是填补的功能,不管是什么形状的房子,都可以找到合适的砖瓦进行填补,至于填补的好与坏(数据与理论适配度的优劣),如果砖瓦与房子适配很好的话(这是SEM的原假设),即p>0.05时,我们并不能说“接受原假设”,因为同样的房子使用不同质量的砖瓦或不同类型的砖瓦(抽样样本),同样可能建造一个好房子(SEM的拟合指标优);以此类推,同样的砖瓦也可能适配不同的房子(SEM的拟合指标也很好)。就像概率论里的一个经典问题:不足以拒绝原假设(p>0.05)并不等于接受原假设。而当我们无法拒绝原假设时,实际上是无法得到确定性结论的。在SEM模型中,对卡方的显著性检验,p>0.05表示数据与模型适配度很好,表面上看是我们希望得到的,其实这时我们却没法得到确定性的结论,我们充其量只能说证据不足以拒绝“数据与模型适配”的假设(但其他的样本或方法,仍然有可能拒绝)。反之,当p<0.05时,却可以确定性的得出,数据无法支持该模型。事实上,后者才是我们想得到的结论。
所以可以想见,统计学家只所以将一个看起来需要的假设放在极容易被拒绝的位置上,其原因是SEM的算法问题,这种算法容易产生数据与模型适配间的不确定性,当然这不一定是坏事,对于SEM分析而言,模型唯一解对应的是饱和模型,而饱和模型是不提供拟合指标的,也就是说没办法对模型优劣评价,同时SEM的本质是数据适配的理论模型,如果该模型无法被判断,那么它的价值就无从谈起。
介于上述,我们在解释SEM适配度好的模型时,则需稍加注意,适配度好的模型不一定就是“真”模型,仍然有许多替代模型的存在,所以这也是为什么SEM分析中,模型的理论、效度是那么、那么、那么的重要。