一、P值的由来R·A·Fisher(1890-1962)作为一代假设检验理论的创立者,在假设检验中首先提出P值的概念。他认为假设检验是一种程序,研究人员依照这一程序可以对某一总体参数形成一种判断。也就是说,他认为假设检验是数据分析的一种形式,是人们在研究中加入的主观信息。(当时这一观点遭到了Neyman-Pearson的反对,他们认为假设检验是一种方法,决策者在不确定的条件下进行运作,利用这一方法可以在两种可能中作出明确的选择,而同时又要控制错误发生的概率。这两种方法进行长期且痛苦的论战。虽然Fisher的这一观点同样也遭到了现代统计学家的反对,但是他对现代假设检验的发展作出了巨大的贡献。)Fisher的具体做法是:
- 假定某一参数的取值。
- 选择一个检验统计量(例如z 统计量或Z 统计量) ,该统计量的分布在假定的参数取值为真时应该是完全已知的。
- 从研究总体中抽取一个随机样本4计算检验统计量的值5计算概率P值或者说观测的显著水平,即在假设为真时的前提下,检验统计量大于或等于实际观测值的概率。
- 如果P<0.01,说明是较强的判定结果,拒绝假定的参数取值。
- 如果0.01<P值<0.05,说明较弱的判定结果,拒接假定的参数取值。
- 如果P值>0.05,说明结果更倾向于接受假定的参数取值。
因此,随着计算机的发展,P值的计算不再是个难题,使得P值变成最常用的统计指标之一。
二、P值的计算为理解P值的计算过程,用表示检验的统计量,表示根据样本数据计算得到的检验统计量值。
左侧检验 vs
P值是当时,检验统计量小于或等于根据实际观测样本数据计算得到的检验统计量值的概率,即p值 =
右侧检验 vs
P值是当时,检验统计量大于或等于根据实际观测样本数据计算得到的检验统计量值的概率,即p值 =
双侧检验 vs
P值是当时,检验统计量大于或等于根据实际观测样本数据计算得到的检验统计量值的概率,即p值 =
三、P值的意义P值就是当原假设为真时所得到的样本观察结果或更极端结果出现的概率。如果P值很小,说明这种情况的发生的概率很小,而如果出现了,根据小概率原理,我们就有理由拒绝原假设,P值越小,我们拒绝原假设的理由越充分。
总之,P值越小,表明结果越显著。但是检验的结果究竟是“显著的”、“中度显著的”还是“高度显著的”需要我们自己根据P值的大小和实际问题来解决。
.. (#161)
2008/12/18 09:24
补充几点关于p值的说法,欢迎大家讨论指正哈
一 p值究竟是否等于evidence?
p值并不等于evidence,这一点是应用统计中经常犯的错误,正如correlation不等于causality一样。严格的来说,只有likelihood才能衡量evidence。 p值小有很多原因,也有可能是样本太少,或者数据问题。这些都还好理解,最需要注意的一点是,p值不具有概率那样的可以拿来比较的性质。就是说,今天我对一个假设检验进行检验,发现p=0.01,明天我重复了一遍,发现p=0.001. 对于这两个结果我们能说他们不一样吗?很难。。。
二 p 值究竟是什么
关于这一点,下面这篇文章是强烈推荐的
dempster (1997) the direct use of likelihood in significance testing, statistics and computing 7。
一个很重要的结论是,在某些特定的假设检验,尤其是likelihood ratio testing上,p值实际上就是p(lrt>1|x)。这是什么呢?这就是说,给定样本x, likelihood ratio>1的概率。
所以说,从这个角度出发,站在我们无敌的likelihood 的理论角度出发,p值跟bayesian theory又联系在了一起。
神奇的地球。。