P值是采用假设检验的方法来计算的。举个例子来说明:比较两个样本的均数有没有差别,采用反证法,首先建立假设检验,H0:假设两组没有差别,H1:假设两组有差别。通过假设两组没有差别计算出其没有差别的概率,一般取P<作为临界值,若P<则代表随机抽取的两组均数没有差别的概率小于,为小概率事件,此时拒绝H0,接受H1。P>接受H0。但是P值的大小只能代表两者是否具有统计学差异,不能代表差异的大小。详细的计算方法要根据你采用的统计学方法具体计算,现在这步一般都采用统计软件SPSS、SAS等来完成。希望对你有所帮助。
P值即概率,反映某一事件发生的可能性大小。统计学根据显著性检验方法所得到的P 值,一般以P < 为有统计学差异, P< 为有显著统计学差异,P<为有极其显著的统计学差异。
P<时,认为差异有统计学意义”或者“显著性水平α=”,指的是如果本研究统计推断得到的差异有统计学意义,那么该结果是“假阳性”的概率小于。
扩展资料:
P值的计算:
一般地,用X 表示检验的统计量,当H0为真时,可由样本数据计算出该统计量的值C,根据检验统计量X的具体分布,可求出P值。具体地说:
左侧检验的P值为检验统计量X 小于样本统计值C 的概率,即:P = P{ X < C}
右侧检验的P值为检验统计量X 大于样本统计值C 的概率:P = P{ X > C}
双侧检验的P值为检验统计量X 落在样本统计值C 为端点的尾部区域内的概率的2 倍:P = 2P{ X > C} (当C位于分布曲线的右端时) 或P = 2P{ X< C} (当C 位于分布曲线的左端时) 。
若X 服从正态分布和t分布,其分布曲线是关于纵轴对称的,故其P 值可表示为P = P{| X| > C} 。
计算出P值后,将给定的显著性水平α与P 值比较,就可作出检验的结论:
如果α > P值,则在显著性水平α下拒绝原假设。
如果α ≤ P值,则在显著性水平α下不拒绝原假设。
在实践中,当α = P值时,也即统计量的值C刚好等于临界值,为慎重起见,可增加样本容量,重新进行抽样检验。
P值指的是比较的两者的差别是由机遇所致的可能性大小。P值越小,越有理由认为对比事物间存在差异。例如,P<,就是说结果显示的差别是由机遇所致的可能性不足5%,或者说,别人在同样的条件下重复同样的研究,得出相反结论的可能性不足5%。
P>称“不显著”;P<=称“显著”,P<=称“非常显著”。
用 HR 来比较两组患者的生存情况具有以下优势:
1、在某些研究中,研究结束时试验组或对照组可能有 50% 以上的患者仍未发生终点事件或删失,在此种情况下中位生存时间无法获得;
2、生存数据常常服从偏态分布,仅用中位生存时间来代表生存数据整体的分布状态比较片面;
3、通过中位生存时间相减来比较两组患者的生存情况,无法对基线时不平衡的协变量进行调整,得到的效应估计值受到混杂因素的影响,而使用 HR 则可通过多变量 Cox 模型调整混杂因素的影响,得到无偏的效应估计值。
扩展资料:
统计学是研究数据的收集、整理、分析的一门科学。它的原理几乎应用到自然科学和社会科学的各个领域,也相应地产生了许多应用性分支,医学统计学就是其中之一。它是以医学理论为指导,借助于统计学的原理和方法,研究医学现象中数据的收集、整理、分析的一门应用性学科。
合理的统计分析能够帮助我们揭示事物或现象发生和发展的规律,阐明我们所关心的问题,如哪些因素对人群健康状况影响较大,某种疾病的可疑病因是什么,哪些指标可以用来筛选高危人群或早期诊断疾病,哪种治疗方法的有效率高,哪些是保护和促进人群健康的因素等等。医学统计方法很多,本篇着重讨论常用的医学统计方法。
参考资料来源:百度百科-医学统计
结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。P值的计算公式是 =2[1-Φ(z0)] 当被测假设H1为 p不等于p0时; =1-Φ(z0) 当被测假设H1为 p大于p0时; =Φ(z0) 当被测假设H1为 p小于p0时; 其中,Φ(z0)要查表得到。 z0=(x-n*p0)/(根号下(np0(1-p0))) 最后,当P值小于某个显著参数的时候(常用,标记为α,给你出题那个人,可能混淆了这两个概念)我们就可以否定假设。反之,则不能否定假设。 注意,这里p0是那个缺少的假设满意度,而不是要求的P值。 没有p0就形不成假设检验,也就不存在P值
统计学意义(p值)ZT 结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。如p=提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,的p值通常被认为是可接受错误的边界水平。 在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两>比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。通常,许多的科学领域中产生p值的结果≤被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果≥p>被认为是具有统计学意义,而≥p≥被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。 所有的检验统计都是正态分布的吗并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态。
P值即概率,反映某一事件发生的可能性大小。统计学根据显著性检验方法所得到的P 值,一般以P < 为有统计学差异, P< 为有显著统计学差异,P<为有极其显著的统计学差异。
P<时,认为差异有统计学意义”或者“显著性水平α=”,指的是如果本研究统计推断得到的差异有统计学意义,那么该结果是“假阳性”的概率小于。
扩展资料:
P值的计算:
一般地,用X 表示检验的统计量,当H0为真时,可由样本数据计算出该统计量的值C,根据检验统计量X的具体分布,可求出P值。具体地说:
左侧检验的P值为检验统计量X 小于样本统计值C 的概率,即:P = P{ X < C}
右侧检验的P值为检验统计量X 大于样本统计值C 的概率:P = P{ X > C}
双侧检验的P值为检验统计量X 落在样本统计值C 为端点的尾部区域内的概率的2 倍:P = 2P{ X > C} (当C位于分布曲线的右端时) 或P = 2P{ X< C} (当C 位于分布曲线的左端时) 。
若X 服从正态分布和t分布,其分布曲线是关于纵轴对称的,故其P 值可表示为P = P{| X| > C} 。
计算出P值后,将给定的显著性水平α与P 值比较,就可作出检验的结论:
如果α > P值,则在显著性水平α下拒绝原假设。
如果α ≤ P值,则在显著性水平α下不拒绝原假设。
在实践中,当α = P值时,也即统计量的值C刚好等于临界值,为慎重起见,可增加样本容量,重新进行抽样检验。
放到spss中,定义两个变量,第一个变量叫做:group,用1代表实验组,用2代表对照组,每个组两个数字;第二个变量叫分娩方式,分别用1、2、3代表阴道分娩、阴道助产和剖宫产。然后用描述性统计方法中的交叉列联表计算就ok了!希望对你有帮助!
放到spss中,定义两个变量,第一个变量叫做:group,用1代表实验组,用2代表对照组,每个组两个数字;第二个变量叫分娩方式,分别用1、2、3代表阴道分娩、阴道助产和剖宫产。然后用描述性统计方法中的交叉列联表计算就ok了!希望对你有帮助!
P值(P value)就是当原假设为真时所得到的样本观察结果或更极端结果出现的概率。如果P值很小,说明原假设情况的发生的概率很小,而如果出现了,根据小概率原理,我们就有理由拒绝原假设,P值越小,我们拒绝原假设的理由越充分。
总之,P值越小,表明结果越显著。但是检验的结果究竟是“显著的”、“中度显著的”还是“高度显著的”需要我们自己根据P值的大小和实际问题来解决。
计算:
为理解P值的计算过程,用Z表示检验的统计量,ZC表示根据样本数据计算得到的检验统计量值。
1、左侧检验
P值是当
时,检验统计量小于或等于根据实际观测样本数据计算得到的检验统计量值的概率,即p值
2、右侧检验
P值是当μ=μ0时,检验统计量大于或等于根据实际观测样本数据计算得到的检验统计量值的概率,即p值
3、双侧检验
P值是当μ=μ0时,检验统计量大于或等于根据实际观测样本数据计算得到的检验统计量值的概率,即p值
扩展资料
美国统计协会公布了P值使用的几大准则:
准则1:P值可以表达的是数据与一个给定模型不匹配的程度
这条准则的意思是说,我们通常会设立一个假设的模型,称为“原假设”,然后在这个模型下观察数据在多大程度上与原假设背道而驰。P值越小,说明数据与模型之间越不匹配。
准则2:P值并不能衡量某条假设为真的概率,或是数据仅由随机因素产生的概率。
这条准则表明,尽管研究者们在很多情况下都希望计算出某假设为真的概率,但P值的作用并不是这个。P值只解释数据与假设之间的关系,它并不解释假设本身。
准则3:科学结论、商业决策或政策制定不应该仅依赖于P值是否超过一个给定的阈值。
这一条给出了对决策制定的建议:成功的决策取决于很多方面,包括实验的设计,测量的质量,外部的信息和证据,假设的合理性等等。仅仅看P值是否小于是非常具有误导性的。
准则4:合理的推断过程需要完整的报告和透明度。
这条准则强调,在给出统计分析的结果时,不能有选择地给出P值和相关分析。举个例子来说,某项研究可能使用了好几种分析的方法。
而研究者只报告P值最小的那项,这就会使得P值无法进行解释。相应地,声明建议研究者应该给出研究过程中检验过的假设的数量,所有使用过的方法和相应的P值等。
准则5:P值或统计显著性并不衡量影响的大小或结果的重要性。
这句话说明,统计的显著性并不代表科学上的重要性。一个经常会看到的现象是,无论某个效应的影响有多小,当样本量足够大或测量精度足够高时,P值通常都会很小。反之,一些重大的影响如果样本量不够多或测量精度不够高,其P值也可能很大。
准则6:P值就其本身而言,并不是一个非常好的对模型或假设所含证据大小的衡量。
简而言之,数据分析不能仅仅计算P值,而应该探索其他更贴近数据的模型。
声明之后还列举出了一些其他的能对P值进行补充的分析方手段,比如置信区间,贝叶斯方法,似然比,FDR(False Discovery Rate)等等。这些方法都依赖于一些其他的假定,但在一些特定的问题中会比P值更为直接地回答诸如“哪个假定更为正确”这样的问题。
声明最后给出了对统计实践者的一些建议:好的科学实践包括方方面面,如好的设计和实施,数值上和图形上对数据进行汇总,对研究中现象的理解,对结果的解释,完整的报告等等——科学的世界里,不存在哪个单一的指标能替代科学的思维方式。
参考资料来源:百度百科-P值
P值即概率,反映某一事件发生的可能性大小。
统计学根据显著性检验方法所得到的P 值,一般以P < 为有统计学差异, P< 为有显著统计学差异,P<为有极其显著的统计学差异。其含义是样本间的差异由抽样误差所致的概率小于 、、。实际上,P值不能赋予数据任何重要性,只能说明某事件发生的几率。统计结果中显示Pr > F,也可写成Pr( >F),P = P{ > F}或P = P{ > F}。
假设检验是推断统计中的一项重要内容。用SAS、SPSS等专业统计软件进行假设检验,在假设检验中常见到P值( P-Value,Probability,Pr),P值是进行检验决策的另一个依据。
扩展资料:
P值由来
从某总体中抽
⑴、这一样本是由该总体抽出,其差别是由抽样误差所致;
⑵、这一样本不是从该总体抽出,所以有所不同。
如何判断是那种原因呢?统计学中用显著性检验来判断。其步骤是:
⑴、建立检验假设(又称无效假设,符号为H0):如要比较A药和B药的疗效是否相等,则假设两组样本来自同一总体,即A药的总体疗效和B药相等,差别仅由抽样误差引起的碰巧出现的。
⑵、选择适当的统计方法计算H0成立的可能性即概率有多大,概率用P值表示。
⑶、根据选定的显著性水平(或),决定接受还是拒绝H0。如果P>,不能否定“差别由抽样误差引起”,则接受H0;如果P<或P <,可以认为差别不由抽样误差引起,可以拒绝H0,则可以接受另一种可能性的假设(又称备选假设,符号为H1),即两样本来自不同的总体,所以两药疗效有差别。
P值的计算:
一般地,用X 表示检验的统计量,当H0为真时,可由样本数据计算出该统计量的值C,根据检验统计量X的具体分布,可求出P值。具体地说:
左侧检验的P值为检验统计量X 小于样本统计值C 的概率,即:P = P{ X < C}
右侧检验的P值为检验统计量X 大于样本统计值C 的概率:P = P{ X > C}
双侧检验的P值为检验统计量X 落在样本统计值C 为端点的尾部区域内的概率的2 倍:P = 2P{ X > C} (当C位于分布曲线的右端时) 或P = 2P{ X< C} (当C 位于分布曲线的左端时) 。若X 服从正态分布和t分布,其分布曲线是关于纵轴对称的,故其P 值可表示为P = P{| X| > C} 。
计算出P值后,将给定的显著性水平α与P 值比较,就可作出检验的结论:
如果α > P值,则在显著性水平α下拒绝原假设。
如果α ≤ P值,则在显著性水平α下接受原假设。
在实践中,当α = P值时,也即统计量的值C刚好等于临界值,为慎重起见,可增加样本容量,重新进行抽样检验。
参考资料:假设检验中的P值-百度百科
统计学意义(p值)ZT 结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。如p=提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,的p值通常被认为是可接受错误的边界水平。 在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两>比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。通常,许多的科学领域中产生p值的结果≤被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果≥p>被认为是具有统计学意义,而≥p≥被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。 所有的检验统计都是正态分布的吗并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态。
P值是采用假设检验的方法来计算的。举个例子来说明:比较两个样本的均数有没有差别,采用反证法,首先建立假设检验,H0:假设两组没有差别,H1:假设两组有差别。通过假设两组没有差别计算出其没有差别的概率,一般取P<作为临界值,若P<则代表随机抽取的两组均数没有差别的概率小于,为小概率事件,此时拒绝H0,接受H1。P>接受H0。但是P值的大小只能代表两者是否具有统计学差异,不能代表差异的大小。详细的计算方法要根据你采用的统计学方法具体计算,现在这步一般都采用统计软件SPSS、SAS等来完成。希望对你有所帮助。
P值即概率,反映某一事件发生的可能性大小。统计学根据显著性检验方法所得到的P 值,一般以P < 为有统计学差异, P< 为有显著统计学差异,P<为有极其显著的统计学差异。
P<时,认为差异有统计学意义”或者“显著性水平α=”,指的是如果本研究统计推断得到的差异有统计学意义,那么该结果是“假阳性”的概率小于。
扩展资料:
P值的计算:
一般地,用X 表示检验的统计量,当H0为真时,可由样本数据计算出该统计量的值C,根据检验统计量X的具体分布,可求出P值。具体地说:
左侧检验的P值为检验统计量X 小于样本统计值C 的概率,即:P = P{ X < C}
右侧检验的P值为检验统计量X 大于样本统计值C 的概率:P = P{ X > C}
双侧检验的P值为检验统计量X 落在样本统计值C 为端点的尾部区域内的概率的2 倍:P = 2P{ X > C} (当C位于分布曲线的右端时) 或P = 2P{ X< C} (当C 位于分布曲线的左端时) 。
若X 服从正态分布和t分布,其分布曲线是关于纵轴对称的,故其P 值可表示为P = P{| X| > C} 。
计算出P值后,将给定的显著性水平α与P 值比较,就可作出检验的结论:
如果α > P值,则在显著性水平α下拒绝原假设。
如果α ≤ P值,则在显著性水平α下不拒绝原假设。
在实践中,当α = P值时,也即统计量的值C刚好等于临界值,为慎重起见,可增加样本容量,重新进行抽样检验。
P值指的是比较的两者的差别是由机遇所致的可能性大小。P值越小,越有理由认为对比事物间存在差异。例如,P<,就是说结果显示的差别是由机遇所致的可能性不足5%,或者说,别人在同样的条件下重复同样的研究,得出相反结论的可能性不足5%。
P>称“不显著”;P<=称“显著”,P<=称“非常显著”。
用 HR 来比较两组患者的生存情况具有以下优势:
1、在某些研究中,研究结束时试验组或对照组可能有 50% 以上的患者仍未发生终点事件或删失,在此种情况下中位生存时间无法获得;
2、生存数据常常服从偏态分布,仅用中位生存时间来代表生存数据整体的分布状态比较片面;
3、通过中位生存时间相减来比较两组患者的生存情况,无法对基线时不平衡的协变量进行调整,得到的效应估计值受到混杂因素的影响,而使用 HR 则可通过多变量 Cox 模型调整混杂因素的影响,得到无偏的效应估计值。
扩展资料:
统计学是研究数据的收集、整理、分析的一门科学。它的原理几乎应用到自然科学和社会科学的各个领域,也相应地产生了许多应用性分支,医学统计学就是其中之一。它是以医学理论为指导,借助于统计学的原理和方法,研究医学现象中数据的收集、整理、分析的一门应用性学科。
合理的统计分析能够帮助我们揭示事物或现象发生和发展的规律,阐明我们所关心的问题,如哪些因素对人群健康状况影响较大,某种疾病的可疑病因是什么,哪些指标可以用来筛选高危人群或早期诊断疾病,哪种治疗方法的有效率高,哪些是保护和促进人群健康的因素等等。医学统计方法很多,本篇着重讨论常用的医学统计方法。
参考资料来源:百度百科-医学统计
结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。P值的计算公式是 =2[1-Φ(z0)] 当被测假设H1为 p不等于p0时; =1-Φ(z0) 当被测假设H1为 p大于p0时; =Φ(z0) 当被测假设H1为 p小于p0时; 其中,Φ(z0)要查表得到。 z0=(x-n*p0)/(根号下(np0(1-p0))) 最后,当P值小于某个显著参数的时候(常用,标记为α,给你出题那个人,可能混淆了这两个概念)我们就可以否定假设。反之,则不能否定假设。 注意,这里p0是那个缺少的假设满意度,而不是要求的P值。 没有p0就形不成假设检验,也就不存在P值
放到spss中,定义两个变量,第一个变量叫做:group,用1代表实验组,用2代表对照组,每个组两个数字;第二个变量叫分娩方式,分别用1、2、3代表阴道分娩、阴道助产和剖宫产。然后用描述性统计方法中的交叉列联表计算就ok了!希望对你有帮助!
统计学意义(p值)ZT 结果的统计学意义是结果真实程度(能够代表总体)的一种估计方法。专业上,p值为结果可信程度的一个递减指标,p值越大,我们越不能认为样本中变量的关联是总体中各变量关联的可靠指标。p值是将观察结果认为有效即具有总体代表性的犯错概率。如p=提示样本中变量关联有5%的可能是由于偶然性造成的。即假设总体中任意变量间均无关联,我们重复类似实验,会发现约20个实验中有一个实验,我们所研究的变量关联将等于或强于我们的实验结果。(这并不是说如果变量间存在关联,我们可得到5%或95%次数的相同结果,当总体中的变量存在关联,重复研究和发现关联的可能性与设计的统计学效力有关。)在许多研究领域,的p值通常被认为是可接受错误的边界水平。 在最后结论中判断什么样的显著性水平具有统计学意义,不可避免地带有武断性。换句话说,认为结果无效而被拒绝接受的水平的选择具有武断性。实践中,最后的决定通常依赖于数据集比较和分析过程中结果是先验性还是仅仅为均数之间的两两>比较,依赖于总体数据集里结论一致的支持性证据的数量,依赖于以往该研究领域的惯例。通常,许多的科学领域中产生p值的结果≤被认为是统计学意义的边界线,但是这显著性水平还包含了相当高的犯错可能性。结果≥p>被认为是具有统计学意义,而≥p≥被认为具有高度统计学意义。但要注意这种分类仅仅是研究基础上非正规的判断常规。 所有的检验统计都是正态分布的吗并不完全如此,但大多数检验都直接或间接与之有关,可以从正态分布中推导出来,如t检验、f检验或卡方检验。这些检验一般都要求:所分析变量在总体中呈正态分布,即满足所谓的正态假设。许多观察变量的确是呈正态分布的,这也是正态分布是现实世界的基本特征的原因。当人们用在正态分布基础上建立的检验分析非正态分布变量的数据时问题就产生了,(参阅非参数和方差分析的正态性检验)。这种条件下有两种方法:一是用替代的非参数检验(即无分布性检验),但这种方法不方便,因为从它所提供的结论形式看,这种方法统计效率低下、不灵活。另一种方法是:当确定样本量足够大的情况下,通常还是可以使用基于正态分布前提下的检验。后一种方法是基于一个相当重要的原则产生的,该原则对正态方程基础上的总体检验有极其重要的作用。即,随着样本量的增加,样本分布形状趋于正态,即使所研究的变量分布并不呈正态。
P值(P value)就是当原假设为真时所得到的样本观察结果或更极端结果出现的概率。如果P值很小,说明原假设情况的发生的概率很小,而如果出现了,根据小概率原理,我们就有理由拒绝原假设,P值越小,我们拒绝原假设的理由越充分。
总之,P值越小,表明结果越显著。但是检验的结果究竟是“显著的”、“中度显著的”还是“高度显著的”需要我们自己根据P值的大小和实际问题来解决。
计算:
为理解P值的计算过程,用Z表示检验的统计量,ZC表示根据样本数据计算得到的检验统计量值。
1、左侧检验
P值是当
时,检验统计量小于或等于根据实际观测样本数据计算得到的检验统计量值的概率,即p值
2、右侧检验
P值是当μ=μ0时,检验统计量大于或等于根据实际观测样本数据计算得到的检验统计量值的概率,即p值
3、双侧检验
P值是当μ=μ0时,检验统计量大于或等于根据实际观测样本数据计算得到的检验统计量值的概率,即p值
扩展资料
美国统计协会公布了P值使用的几大准则:
准则1:P值可以表达的是数据与一个给定模型不匹配的程度
这条准则的意思是说,我们通常会设立一个假设的模型,称为“原假设”,然后在这个模型下观察数据在多大程度上与原假设背道而驰。P值越小,说明数据与模型之间越不匹配。
准则2:P值并不能衡量某条假设为真的概率,或是数据仅由随机因素产生的概率。
这条准则表明,尽管研究者们在很多情况下都希望计算出某假设为真的概率,但P值的作用并不是这个。P值只解释数据与假设之间的关系,它并不解释假设本身。
准则3:科学结论、商业决策或政策制定不应该仅依赖于P值是否超过一个给定的阈值。
这一条给出了对决策制定的建议:成功的决策取决于很多方面,包括实验的设计,测量的质量,外部的信息和证据,假设的合理性等等。仅仅看P值是否小于是非常具有误导性的。
准则4:合理的推断过程需要完整的报告和透明度。
这条准则强调,在给出统计分析的结果时,不能有选择地给出P值和相关分析。举个例子来说,某项研究可能使用了好几种分析的方法。
而研究者只报告P值最小的那项,这就会使得P值无法进行解释。相应地,声明建议研究者应该给出研究过程中检验过的假设的数量,所有使用过的方法和相应的P值等。
准则5:P值或统计显著性并不衡量影响的大小或结果的重要性。
这句话说明,统计的显著性并不代表科学上的重要性。一个经常会看到的现象是,无论某个效应的影响有多小,当样本量足够大或测量精度足够高时,P值通常都会很小。反之,一些重大的影响如果样本量不够多或测量精度不够高,其P值也可能很大。
准则6:P值就其本身而言,并不是一个非常好的对模型或假设所含证据大小的衡量。
简而言之,数据分析不能仅仅计算P值,而应该探索其他更贴近数据的模型。
声明之后还列举出了一些其他的能对P值进行补充的分析方手段,比如置信区间,贝叶斯方法,似然比,FDR(False Discovery Rate)等等。这些方法都依赖于一些其他的假定,但在一些特定的问题中会比P值更为直接地回答诸如“哪个假定更为正确”这样的问题。
声明最后给出了对统计实践者的一些建议:好的科学实践包括方方面面,如好的设计和实施,数值上和图形上对数据进行汇总,对研究中现象的理解,对结果的解释,完整的报告等等——科学的世界里,不存在哪个单一的指标能替代科学的思维方式。
参考资料来源:百度百科-P值