P值的计算:一般地,用X 表示检验的统计量,当H0为真时,可由样本数据计算出该统计量的值C,根据检验统计量X的具体分布,可求出P值。具体地说:
左侧检验的P值为检验统计量X 小于样本统计值C 的概率,即:P = P{ X < C}
右侧检验的P值为检验统计量X 大于样本统计值C 的概率:P = P{ X > C}双侧检验的P值为检验统计量X 落在样本统计值C 为端点的尾部区域内的概率的2 倍:P = 2P{ X > C} (当C位于分布曲线的右端时) 或P = 2P{ X< C} (当C 位于分布曲线的左端时) 。
若X服从正态分布和t分布,其分布曲线是关于纵轴对称的,故其P 值可表示为P = P{| X| > C} 。
计算出P值后,将给定的显著性水平α与P 值比较,就可作出检验的结论:
如果α > P值,则在显著性水平α下拒绝原假设。
如果α ≤ P值,则在显著性水平α下接受原假设。
在实践中,当α = P值时,也即统计量的值C刚好等于临界值,为慎重起见,可增加样本容量,重新进行抽样检验。
扩展资料:
假设检验理论的具体做法是:
假定某一参数的取值。
选择一个检验统计量(例如z 统计量或Z 统计量) ,该统计量的分布在假定的参数取值为真时应该是完全已知的。
从研究总体中抽取一个随机样本计算检验统计量的值计算概率P值或者说观测的显著水平,即在假设为真时的前提下,检验统计量大于或等于实际观测值的概率。
如果P<,说明是较强的判定结果,拒绝假定的参数取值。
如果
如果P值>,说明结果更倾向于接受假定的参数取值。
可是,那个年代,由于硬件的问题,计算P值并非易事,人们就采用了统计量检验方法,也就是我们最初学的t值和t临界值比较的方法。
统计检验法是在检验之前确定显著性水平α,也就是说事先确定了拒绝域。但是,如果选中相同的a,所有检验结论的可靠性都一样,无法给出观测数据与原假设之间不一致程度的精确度量。
只要统计量落在拒绝域,假设的结果都是一样,即结果显著。但实际上,统计量落在拒绝域不同的地方,实际上的显著性有较大的差异。
因此,随着计算机的发展,P值的计算不再是个难题,使得P值变成最常用的统计指标之一。
参考资料来源:百度百科--概率
参考资料来源:百度百科--P值