- 积分
- 159
好友
记录
日志
相册
回帖0
主题
分享
精华
威望 旺
钢镚 分
推荐 人
|
直线回归系数与相关系数的区别:0 z% n* [6 f! v# W
1.资料要求上0 S& K) \! j( l$ i
回归只要求Y服从正态分布,对X可以不要求;相关要求两变量均服从正态分布。
) o, h) d# M0 {( S- |. Q+ t 2.应用上8 o1 j' m% V8 g$ }, b& j7 `4 b( S
说明两变量间依存变化的数量关系用回归;说明两变量间的相关关系用相关。8 Y; m' {7 M6 W9 d3 g3 H" E4 H6 [
3.意义上8 C' \8 P: e+ J- {! Q) d& m
回归系数b表示X每增(减)一个单位,Y平均改变b个单位;相关系数r说明具有直线关系的两个变量间相关关系的密切程度与相关方向。* P6 H9 B, W( S9 Q+ B7 ~8 g/ B }- ?7 C
4.计算公式不一样
3 x' ]) ]/ U+ D% H, y
$ q) F# L H7 R2 ?; C) { 5.取值范围不一样:-∞<b<+∞,-1≤r≤1。 y& q% L7 q! J& M" \) G
6.单位不同:b有单位,r没有单位。5 B, J% z( B q# @8 m* F( |
回归系数b乘以X和Y变量的标准差之比结果为相关系数r。即b*σx/σy=r
J3 a6 b# S9 P* P( |- } 回归系数与相关系数的联系:
& C: [1 `: W! b8 v% ] 1.对一组数据若能同时计算b和r,它们的符号一致。
! Q7 J& J7 z1 A2 }4 K) D# d6 Y 2.b和r的假设检验是等价的,即对同一样本tb=tr。
! m$ y6 ^" O, {% r* | 3.用回归可以解释相关
- t! h8 L% h7 A: e1 u$ O 回归分析中有一个叫决定系数的指标,它的取值是在0~1之间的,决定系数值越接近1表明回归的效果越好。可以证明,相关系数r平方等于决定系数的值,用公式记为:% o4 h- O* Q6 t
~& r. n# K- y, @
1、相关系数与回归系数:; @: c- K0 o6 o- o |7 K! Y+ i4 c
A 回归系数大于零则相关系数大于零 % q$ o, ?4 J8 i
B 回归系数小于零则相关系数小于零 (仅取值符号相同)
" \* |3 f" a4 h; V3 v6 k* L3 \2、回归系数:由回归方程求导数得到,所以,1 Z, a1 t) X. d$ U$ K& {
回归系数>0,回归方程曲线单调递增; , E% f" c i& X$ m# f0 U% m0 C
回归系数<0,回归方程曲线单调递j减; / r. e) e9 I, }' i2 z: o r
回归系数=0,回归方程求最值(最大值、最小值). g7 S/ P$ {' _( O# h
你的数据可能恰好体现出了你说的那种趋势,但是实际上相关系数和回归系数之间没有明确的大小变化关系,不能单独考虑某一个变量的回归系数的大小,要结合整个回归方程及拟合优度来分析模型。+ |# c3 {! K3 d) b9 w
在一组具有相关关系的变量的数据(x与Y)间,通过散点图可观察出所有数据点都分布在一条直线附近,这样的直线可以画出许多条,相关系数只能反映线性相关程度,不能确定因果关系,不能说明相关关系具体接近哪条直线,而我们希望其中的一条最好地反映x与Y之间的关系,即我们要找出一条直线,使这条直线“最贴近”已知的数据点,此时根据样本数据利用相应的估计方法估计出我们认为的最接近总体的回归方程的系数) K; B4 W4 | I3 }, E+ T5 d8 G
或者(个人理解)相关系数是说明,变量Y的增长是否随X的增长而体现出越加趋近于直线(这些直线可能是许多平行或相交但夹角很小的直线)的趋势,相关系数越大,说明越多的样本点(Xi,Yi)分布在同一条直线上,但是这种直线趋势不一定是完全由于变量X的变化引起的,也可能是由于存在某些没有考虑到的随机因素导致,仅次并不能完全的确定直线的位置,而回归系数是在假定了随机扰动的分布后,变量X的变化对Y的影响,所以说相关系数只是片面的说明两个变量之间相关关系密切程度的统计分析指标,而回归系数才是全面的反映变量之间的依存关系。 |
|