在计算好相关系数以后,如何对它们进⾏统计显著性检验呢?常⽤的原假设为变量间不相关 (即总体的相关系数为0)。你可以使⽤st()函数对单个的Pearson、Spearman和Kendall相关系数进⾏检验。简化后的使⽤格式为:
其中的x和y为要检验相关性的变量,alternative则⽤来指定进⾏双侧检验或单侧检验(取值
为"two.side"、“less"或"greater”),⽽method⽤以指定要计算的相关类型(“pearson”、
“kendall” 或 “spearman” )。 当 研 究 的 假 设 为 总 体 的 相 关 系 数 ⼩ 于 0 时,请使⽤
alternative=“less” 。在研究的假设为总体的相关系数⼤于 0 时,应使⽤
人民日报七一社论
alternative=“greater”。
> st(states[,3], states[,5])
Pearson's product-moment correlation
data: states[, 3] and states[, 5]
t = 6.85, df = 48, p-value = 1.258e-08
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
0.528 0.821
sample estimates:
cor防水混凝土施工技术
0.703
这段代码检验了预期寿命和谋杀率的Pearson相关系数为0的原假设。假设总体的相关度为0, 重商主义
则预计在⼀千万次中只会有少于⼀次的机会见到0.703这样⼤的样本相关度(即p=1.258e–08)。由于这种情况⼏乎不可能发⽣,所以你可以拒绝原假设,从⽽⽀持了要研究的猜想,即预期寿命和
双面英雄
岳城水库谋杀率之间的总体相关度不为0。
遗憾的是,st()每次只能检验⼀种相关关系。但幸运的是,psych包中提供的
相关计算相关矩阵和显著性⽔平