关闭 More 保存 重做 撤销 预览

   
关闭   当前为简洁模式,您可以更新模块,修改模块属性和数据,要使用完整的拖拽功能,请点击进入高级模式

重播

上一主題 下一主題
»
太子妃
翻译小组
当前积分:4016
帖子    739
新博币    1 提现
提现    0
     
    4266 0 | 显示全部楼层 |倒序浏览
    在统计学中,皮尔逊积矩相关系数(英语:Pearson product-moment correlation coefficient,又称作 PPMCC或PCCs[1], 文章中常用r或Pearson's r表示)用于度量两个变量X和Y之间的相关(线性相关),其值介于-1与1之间。在自然科学领域中,该系数广泛用于度量两个变量之间的相关程度。它是由卡尔·皮尔逊从弗朗西斯·高尔顿在19世纪80年代提出的一个相似却又稍有不同的想法演变而来的。[2][3]这个相关系数也称作“皮尔森相关系数r”。

    几组(x, y)的点集,以及各个点集中x和y之间的相关系数。我们可以发现相关系数反映的是变量之间的线性关系和相关性的方向(第一排),而不是相关性的斜率(中间),也不是各种非线性关系(第三排)。请注意:中间的图中斜率为0,但相关系数是没有意义的,因为此时变量Y是0

    [micxp_threadbk] [micxp_title] 定义 数学特性 解释 相关系数大小的解释 皮尔逊距离 统计推论:显著性检定与信赖区间 基于数学近似的方法 准确服从高斯分布的数据 费舍尔变换 置信区间 皮尔逊相关系数和最小方差回归分析 数据分布的敏感度 大样本的特性 稳健性 计算加权相关系数 去除相关性 反射相关性 比例关系 强噪声条件下 博牛相关条目 外部链接 注脚 [/micxp_title] [#] 两个变量之间的皮尔逊相关系数定义为两个变量之间的协方差和标准差的商:
    ρ X , Y = c o v ( X , Y ) σ X σ Y = E [ ( X μ X ) ( Y μ Y ) ] σ X σ Y {\displaystyle \rho _{X,Y}={\mathrm {cov} (X,Y) \over \sigma _{X}\sigma _{Y}}={E[(X-\mu _{X})(Y-\mu _{Y})] \over \sigma _{X}\sigma _{Y}}}
    上式定义了总体相关系数,常用希腊小写字母 ρ (rho) 作为代表符号。估算样本的协方差和标准差,可得到样本相关系数(样本皮尔逊系数),常用英文小写字母 r 代表:
    r = i = 1 n ( X i X ¯ ) ( Y i Y ¯ ) i = 1 n ( X i X ¯ ) 2 i = 1 n ( Y i Y ¯ ) 2 {\displaystyle r={\frac {\sum \limits _{i=1}^{n}(X_{i}-{\overline {X}})(Y_{i}-{\overline {Y}})}{{\sqrt {\sum \limits _{i=1}^{n}(X_{i}-{\overline {X}})^{2}}}{\sqrt {\sum \limits _{i=1}^{n}(Y_{i}-{\overline {Y}})^{2}}}}}}
    r 亦可由 ( X i , Y i ) {\displaystyle (X_{i},Y_{i})} 样本点的标准分数均值估计,得到与上式等价的表达式:
    r = 1 n 1 i = 1 n ( X i X ¯ σ X ) ( Y i Y ¯ σ Y ) {\displaystyle r={\frac {1}{n-1}}\sum \limits _{i=1}^{n}\left({\frac {X_{i}-{\overline {X}}}{\sigma _{X}}}\right)\left({\frac {Y_{i}-{\overline {Y}}}{\sigma _{Y}}}\right)}
    其中 X i X ¯ σ X {\displaystyle {\frac {X_{i}-{\overline {X}}}{\sigma _{X}}}} X ¯ {\displaystyle {\overline {X}}} σ X {\displaystyle \sigma _{X}} 分别是对 X i {\displaystyle X_{i}} 样本的标准分数、样本平均值和样本标准差。 [##] 总体和样本皮尔逊系数的绝对值小于或等于1。如果样本数据点精确的落在直线上(计算样本皮尔逊系数的情况),或者双变量分布完全在直线上(计算总体皮尔逊系数的情况),则相关系数等于1或-1。皮尔逊系数是对称的:corr(X,Y) = corr(Y,X)。 皮尔逊相关系数有一个重要的数学特性是,因两个变量的位置和尺度的变化并不会引起该系数的改变,即它该变化的不变量 (由符号确定)。也就是说,我们如果把X移动到a + bX和把Y移动到c + dY,其中a、b、c和d是常数,并不会改变两个变量的相关系数(该结论在总体和样本皮尔逊相关系数中都成立)。我们发现更一般的线性变换则会改变相关系数:参见之后章节对该特性应用的介绍。 由于μX = E(X), σX2 = E[(X − E(X))2] = E(X2) − E2(X),Y也类似, 并且
    E [ ( X E ( X ) ) ( Y E ( Y ) ) ] = E ( X Y ) E ( X ) E ( Y ) , {\displaystyle E[(X-E(X))(Y-E(Y))]=E(XY)-E(X)E(Y),\,}
    故相关系数也可以表示成
    ρ X , Y = E ( X Y ) E ( X ) E ( Y ) E ( X 2 ) ( E ( X ) ) 2   E ( Y 2 ) ( E ( Y ) ) 2 . {\displaystyle \rho _{X,Y}={\frac {E(XY)-E(X)E(Y)}{{\sqrt {E(X^{2})-(E(X))^{2}}}~{\sqrt {E(Y^{2})-(E(Y))^{2}}}}}.}
    对于样本皮尔逊相关系数:
    r x y = x i y i n x ¯ y ¯ ( n 1 ) s x s y = n x i y i x i y i n x i 2 ( x i ) 2   n y i 2 ( y i ) 2 . {\displaystyle r_{xy}={\frac {\sum x_{i}y_{i}-n{\bar {x}}{\bar {y}}}{(n-1)s_{x}s_{y}}}={\frac {n\sum x_{i}y_{i}-\sum x_{i}\sum y_{i}}{{\sqrt {n\sum x_{i}^{2}-(\sum x_{i})^{2}}}~{\sqrt {n\sum y_{i}^{2}-(\sum y_{i})^{2}}}}}.}
    以上方程给出了计算样本皮尔逊相关系数简单的单流程算法,但是其依赖于涉及到的数据,有时它可能是数值不稳定的。 [###] 皮尔逊相关系数的变化范围为-1到1。 系数的值为1意味着XY可以很好的由直线方程来描述,所有的数据点都很好的落在一条 直线上,且 Y 随着 X 的增加而增加。系数的值为−1意味着所有的数据点都落在直线上,且 Y 随着 X 的增加而减少。系数的值为0意味着两个变量之间没有线性关系。 更一般的, 我们发现,当且仅当 Xi and Yi 均落在他们各自的均值的同一侧, 则(Xi − X)(Yi − Y) 的值为正。 也就是说,如果XiYi 同时趋向于大于, 或同时趋向于小于他们各自的均值,则相关系数为正。 如果 XiYi 趋向于落在他们均值的相反一侧,则相关系数为负。 [####]
    相关性
    −0.09 to 0.0 0.0 to 0.09
    −0.3 to −0.1 0.1 to 0.3
    −0.5 to −0.3 0.3 to 0.5
    −1.0 to −0.5 0.5 to 1.0
    一些作者[4][5] 已经给出了解释相关系数的指南。 然而, 所有这些标准从某种意义上说是武断的和不严格的。[5] 对相关系数的解释依赖于具体的应用背景和目的。 如果是应用在使用高性能的仪器来验证一个物理定律,0.9的相关系数可能是很低的。但如果是应用在社会科学中,由于社会科学受到各种复杂多变因素影响,0.9的相关系数是相当高的。 [#####] 皮尔逊距离度量的是两个变量X和Y,它可以根据皮尔逊系数定义成[6]
    d X , Y = 1 ρ X , Y . {\displaystyle d_{X,Y}=1-\rho _{X,Y}.}
    我们可以发现,皮尔逊系数落在 [ 1 , 1 ] {\displaystyle [-1,1]} ,而皮尔逊距离落在 [ 0 , 2 ] {\displaystyle [0,2]} 。 [######] 图表显示对于给定的样本大小,在0.05的置信度上,皮尔逊相关系数显著不为零。 基于皮尔逊相关系数的统计推断通常关注以下两个目标。
    1. 验证 虚无假设 是否为真, 即相关系数 ρ 是否等于 0, 该相关系数使用的是样本相关系数 r
    2. 在给定的信心水准α之下,构建一个围绕r的信赖区间 。
    [#######] 对于近似 高斯分布的数据, 皮尔逊相关系数的 样本分布 近似于自由度为N − 2的 t分布。特别地,如果两个变量服从双变量正态分布,变量
    t = r n 2 1 r 2 {\displaystyle t=r{\sqrt {\frac {n-2}{1-r^{2}}}}}
    也会服从不相关的t分布。[7] 如果样本容量不是特别小,这个结论也大致成立,即便观测数据不是正态分布的。[8] 如果需要构建置信区间和进行有力的分析,还需要采用如下的可逆变换
    r = t n 2 + t 2 . {\displaystyle r={\frac {t}{\sqrt {n-2+t^{2}}}}.}
    或者, 也可以采用大量采样数据的方法。 早期对样本相关系数的研究得益于 R. A. Fisher[9][10] 和 A. K. Gayen.[11]的工作。 另一篇早期的论文[12] 给出了在小样本的情况下总体相关系数 ρ的图表, 并讨论了相关的计算方法。 [########] 准确的双变量样本相关系数的分布是[13][14]
    f ( r ) = ( n 2 ) Γ ( n 1 ) ( 1 ρ 2 ) n 1 2 ( 1 r 2 ) n 4 2 2 π Γ ( n 1 2 ) ( 1 ρ r ) n 3 2 2 F 1 ( 1 2 , 1 2 ; 2 n 1 2 ; ρ r + 1 2 ) {\displaystyle f\left(r\right)={\frac {\left(n-2\right)\,\mathbf {\Gamma } \left(n-1\right)\left(1-\rho ^{2}\right)^{\frac {n-1}{2}}\left(1-r^{2}\right)^{\frac {n-4}{2}}}{{\sqrt {2\pi }}\,\mathbf {\Gamma } \left(n-{\frac {1}{2}}\right)\left(1-\rho r\right)^{n-{\frac {3}{2}}}}}\,\mathbf {_{2}F_{1}} \left({\frac {1}{2}},{\frac {1}{2}};{\frac {2n-1}{2}};{\frac {\rho r+1}{2}}\right)}
    其中 Γ {\displaystyle \mathbf {\Gamma } } 是伽玛函数, 2 F 1 ( a , b ; c ; z ) {\displaystyle \,\mathbf {_{2}F_{1}} (a,b;c;z)} 是 高斯超几何函数。 注意到 E ( r ) = ρ ρ ( 1 ρ 2 ) 2 ( n 1 ) + {\displaystyle E\left(r\right)=\rho -{\frac {\rho \left(1-\rho ^{2}\right)}{2\left(n-1\right)}}+\cdots } , 因此 r ρ {\displaystyle \,\rho } 的一个有偏估计。 一种获得无偏估计的方法是解 ρ {\displaystyle \,\rho } 的方程 r = E ( r ) = ρ ρ ( 1 ρ 2 ) 2 ( n 1 ) {\displaystyle r=E\left(r\right)=\rho -{\frac {\rho \left(1-\rho ^{2}\right)}{2\left(n-1\right)}}} 。 然而,解 ρ ˘ = r [ 1 + 1 r 2 2 ( n 1 ) ] {\displaystyle {\breve {\rho }}=r\left[1+{\frac {1-r^{2}}{2\left(n-1\right)}}\right]} 是次优的。 一种无偏估计, 可以从 n较大情况下的最小方差和有偏序列 1 n 1 {\displaystyle {\frac {1}{n-1}}} , 通过最大化 log f ( r ) {\displaystyle \log {f\left(r\right)}} , 也就是 ρ ^ = r [ 1 1 r 2 2 ( n 1 ) ] {\displaystyle {\hat {\rho }}=r\left[1-{\frac {1-r^{2}}{2\left(n-1\right)}}\right]} 获得。 特殊情况下,当 ρ = 0 {\displaystyle \,\rho =0} 时, 分布可以被写成
    f ( r ) = ( 1 r 2 ) n 4 2 B ( 1 2 , n 2 2 ) {\displaystyle f\left(r\right)={\frac {\left(1-r^{2}\right)^{\frac {n-4}{2}}}{\mathbf {B} \left({\frac {1}{2}},{\frac {n-2}{2}}\right)}}}
    其中 B {\displaystyle \mathbf {B} } 是 贝塔方程. [#########] 实际应用中, 与ρ相关的置信区间 和 假设检验 通常是通过 fisher变换获得
    F ( r ) = 1 2 ln 1 + r 1 r = artanh ( r ) . {\displaystyle F(r)={1 \over 2}\ln {1+r \over 1-r}=\operatorname {artanh} (r).}
    如果 F(r) 是 r的fisher变换, n 是样本容量, 那么 F(r) 近似服从 正态分布
    mean = F ( ρ ) = artanh ( ρ ) {\displaystyle {\text{mean}}=F(\rho )=\operatorname {artanh} (\rho )}     and standard error     SE = 1 n 3 . {\displaystyle {\text{SE}}={\frac {1}{\sqrt {n-3}}}.}
    也就是 标准分 是
    z = x mean SE = [ F ( r ) F ( ρ 0 ) ] n 3 {\displaystyle z={\frac {x-{\text{mean}}}{\text{SE}}}=[F(r)-F(\rho _{0})]{\sqrt {n-3}}}
    ρ = ρ 0 {\displaystyle \rho =\rho _{0}} 进行零假设 ,可以设想样本数据对是 独立同分布 并且服从 双变量正态分布. 因此 p值估计可以从正态分布概率表中获得。 比如, 如果观测数据 z = 2.2 并且要用双边p值对 ρ = 0 {\displaystyle \rho =0} 进行零假设检验, p值是 2·Φ(−2.2) = 0.028, 其中 Φ 是正态分布 累积分布函数。 [##########] 为了获得 ρ的信赖区间, 首先,我们应该计算 F( ρ {\displaystyle \rho } )的信赖区间:

    100 ( 1 α ) % CI : artanh ( ρ ) [ artanh ( r ) ± z α / 2 S E ] {\displaystyle 100(1-\alpha )\%{\text{CI}}:\operatorname {artanh} (\rho )\in [\operatorname {artanh} (r)\pm z_{\alpha /2}SE]}

    通过可逆 Fisher 变换可以获得相关尺度上的区间。

    100 ( 1 α ) % CI : ρ [ tanh ( artanh ( r ) z α / 2 S E ) , tanh ( artanh ( r ) + z α / 2 S E ) ] {\displaystyle 100(1-\alpha )\%{\text{CI}}:\rho \in [\operatorname {tanh} (\operatorname {artanh} (r)-z_{\alpha /2}SE),\operatorname {tanh} (\operatorname {artanh} (r)+z_{\alpha /2}SE)]}

    举例来说, 假设我们观测到 r = 0.3 ,样本容量 n=50, 并且我们期望获得ρ的 95% 的信赖区间。 变换后的值是 artanh(r) = 0.30952, 所以在变换尺度上的信赖区间是 0.30952 ± 1.96/√47, 或者 (0.023624, 0.595415)。 变换回相关尺度上是 (0.024, 0.534)。 [###########] 样本相关系数的平方, 亦称作 coefficient of determination, 利用简单线性回归估计由X引起的 Y的变化。 一开始, Yi 围绕它们平均值上的变化可以分解成
    i ( Y i Y ¯ ) 2 = i ( Y i Y ^ i ) 2 + i ( Y ^ i Y ¯ ) 2 , {\displaystyle \sum _{i}(Y_{i}-{\bar {Y}})^{2}=\sum _{i}(Y_{i}-{\hat {Y}}_{i})^{2}+\sum _{i}({\hat {Y}}_{i}-{\bar {Y}})^{2},}
    其中 Y ^ i {\displaystyle {\hat {Y}}_{i}} 是作回归分析时的适应值。 整理后得
    1 = i ( Y i Y ^ i ) 2 i ( Y i Y ¯ ) 2 + i ( Y ^ i Y ¯ ) 2 i ( Y i Y ¯ ) 2 . {\displaystyle 1={\frac {\sum _{i}(Y_{i}-{\hat {Y}}_{i})^{2}}{\sum _{i}(Y_{i}-{\bar {Y}})^{2}}}+{\frac {\sum _{i}({\hat {Y}}_{i}-{\bar {Y}})^{2}}{\sum _{i}(Y_{i}-{\bar {Y}})^{2}}}.}
    两个被加数是由X (右边)引起的Y的变化和不是由X (左边) 引起的变化。 接下来, 我们利用最小方差回归模型, 使 Y ^ i {\displaystyle {\hat {Y}}_{i}} Y i Y ^ i {\displaystyle Y_{i}-{\hat {Y}}_{i}} 的样本协方差为0。 于是, 观测数据和适应值的样本相关系数可以被写成 r ( Y , Y ^ ) = i ( Y i Y ¯ ) ( Y ^ i Y ¯ ) i ( Y i Y ¯ ) 2 i ( Y ^ i Y ¯ ) 2 = i ( Y i Y ^ i + Y ^ i Y ¯ ) ( Y ^ i Y ¯ ) i ( Y i Y ¯ ) 2 i ( Y ^ i Y ¯ ) 2 = i [ ( Y i Y ^ i ) ( Y ^ i Y ¯ ) + ( Y ^ i Y ¯ ) 2 ] i ( Y i Y ¯ ) 2 i ( Y ^ i Y ¯ ) 2 = i ( Y ^ i Y ¯ ) 2 i ( Y i Y ¯ ) 2 i ( Y ^ i Y ¯ ) 2 = i ( Y ^ i Y ¯ ) 2 i ( Y i Y ¯ ) 2 . {\displaystyle {\begin{aligned}r(Y,{\hat {Y}})&={\frac {\sum _{i}(Y_{i}-{\bar {Y}})({\hat {Y}}_{i}-{\bar {Y}})}{\sqrt {\sum _{i}(Y_{i}-{\bar {Y}})^{2}\cdot \sum _{i}({\hat {Y}}_{i}-{\bar {Y}})^{2}}}}\\&={\frac {\sum _{i}(Y_{i}-{\hat {Y}}_{i}+{\hat {Y}}_{i}-{\bar {Y}})({\hat {Y}}_{i}-{\bar {Y}})}{\sqrt {\sum _{i}(Y_{i}-{\bar {Y}})^{2}\cdot \sum _{i}({\hat {Y}}_{i}-{\bar {Y}})^{2}}}}\\&={\frac {\sum _{i}[(Y_{i}-{\hat {Y}}_{i})({\hat {Y}}_{i}-{\bar {Y}})+({\hat {Y}}_{i}-{\bar {Y}})^{2}]}{\sqrt {\sum _{i}(Y_{i}-{\bar {Y}})^{2}\cdot \sum _{i}({\hat {Y}}_{i}-{\bar {Y}})^{2}}}}\\&={\frac {\sum _{i}({\hat {Y}}_{i}-{\bar {Y}})^{2}}{\sqrt {\sum _{i}(Y_{i}-{\bar {Y}})^{2}\cdot \sum _{i}({\hat {Y}}_{i}-{\bar {Y}})^{2}}}}\\&={\sqrt {\frac {\sum _{i}({\hat {Y}}_{i}-{\bar {Y}})^{2}}{\sum _{i}(Y_{i}-{\bar {Y}})^{2}}}}.\end{aligned}}} 于是
    r ( Y , Y ^ ) 2 = i ( Y ^ i Y ¯ ) 2 i ( Y i Y ¯ ) 2 {\displaystyle r(Y,{\hat {Y}})^{2}={\frac {\sum _{i}({\hat {Y}}_{i}-{\bar {Y}})^{2}}{\sum _{i}(Y_{i}-{\bar {Y}})^{2}}}}
    是由X的线性方程引起的 Y 的平均变化。 [############] [#############] 在双变量 正态分布的案例中, 只要边缘均值和方差是已知的,总体相关系数描述的是便是联合分布。 在其他的双变量分布中,这个结论并不正确。 总之, 不论两个随机变量的联合分布是不是正态的,相关系数在研究的它们之间的线性依赖性都是有帮助的。[2] 样本相关系数是对两个正态分布变量总体相关系数的最大似然估计 并且是 渐进 无偏的 和 有效的, 这也就是说如果数据是正态的并且样本容量是中等的或大量的,就不可能构造出一个比样本相关系数更准确的估计。对于非正态的数据, 样本相关系数大致上是无偏的,但有可能是无效的。 只要样本均值、方差和协方差是一致的(当大数定理可以应用的情况下),样本相关系数是总体相关系数的 一致估计 。 [##############] 与其他常用的统计指标相似的, 样本指标r 不是 稳健的[15] 。因此如果由 异常值,这个指标是有误导性的。[16][17] 特别的, PMCC 既不是稳健分布的,[来源请求] 也不是异常值稳健的[15] (see Robust statistics#Definition)。 对XY的散点图的观察可以很明显的揭示出缺乏稳健性的情况,在这种情况下,采用的联合的方法是比较明智的。 注意到,虽然大多数稳健的估计器从某种程度上说都是有统计依赖的, 它们总的来说,在总体相关系数的尺度上都是可辨的。 基于皮尔逊相关系数的统计推断对数据分布式敏感的。 如果数据大致是正态分布的,可以使用精确检验和基于Fisher变换的渐进检验,但是它们可能由误导性。 在一些情况下, 自助采样 可以用来构造置信区间。 同时, 重复抽样 可以应用在假设检验中。 这些非参数化 的方法在某些情况下,如双变量正态分布不能保证时,可能得出更有意义的结论。 然而,这些方法的标准形式依赖于数据的 可交换性。这也就意味着被分析的数据时没有顺序的和组别的。因为这有可能会影响估计相关系数的特性。 分层分析是一种容许缺少双变量正态性的方法,或者说是用来隔离相互关联因素的关联结果。 如果 W 代表聚类成员或者其它需要被控制的因素,我们可以分离基于W的数据, 然后我们可以再每个层里计算相关系数。 当我们控制变量W,我们便能在层的等级上估计与所有相关系数相关的各自的相关系数。[18] [###############] 假设我们要计算关联性的观测数据有着不同的重要程度,表示成权值向量 w。 利用权值向量w (总长度 n)计算向量 xy 的相关系数,[19]
    • 加权均值:
    m ( x ; w ) = i w i x i i w i . {\displaystyle \operatorname {m} (x;w)={\sum _{i}w_{i}x_{i} \over \sum _{i}w_{i}}.}
    • 加权协方差
    cov ( x , y ; w ) = i w i ( x i m ( x ; w ) ) ( y i m ( y ; w ) ) i w i . {\displaystyle \operatorname {cov} (x,y;w)={\sum _{i}w_{i}(x_{i}-\operatorname {m} (x;w))(y_{i}-\operatorname {m} (y;w)) \over \sum _{i}w_{i}}.}
    • 加权相关系数
    corr ( x , y ; w ) = cov ( x , y ; w ) cov ( x , x ; w ) cov ( y , y ; w ) . {\displaystyle \operatorname {corr} (x,y;w)={\operatorname {cov} (x,y;w) \over {\sqrt {\operatorname {cov} (x,x;w)\operatorname {cov} (y,y;w)}}}.}
    [################] 我们总是可以通过一定的线性变换去除随机变量之间的相关性, 即便变量间的关系是非线性的。 Cox & Hinkley[20]给出了在总体相关系数中的表达形式。 与此相应的,样本相关系数也存在这样的结论,使得样本相关系数变为0。假设长度为 n 的随机变量被随机采样 m 次。 令 X 是一个矩阵,其中 X i , j {\displaystyle X_{i,j}} 是第i次采样的第 j个变量。 令 Z m , m {\displaystyle Z_{m,m}} 是一个所有元素都为1的 m * m 的方阵。 那么 D 是变换后的数据,使得随机变量的均值为0, 并且 T 是变换后的数据,使得所有的变量均值为0和与除自身外的其他变量的相关系数为0 - T的矩作为身份矩阵。 为了得到单位方差,还需要除以标准差。 虽然变换后的数据有可能不是独立的,但他们一定是不相关的。
    D = X 1 m Z m , m X {\displaystyle D=X-{\frac {1}{m}}Z_{m,m}X}

    T = D ( D T D ) 1 2 {\displaystyle T=D(D^{T}D)^{-{\frac {1}{2}}}}
    其中,指数-1/2表示矩阵置换后的 矩阵方根。T的协方差被当做身份矩阵。如果新的样本数据x是n个元素的向量, 那么相同的变换可以应用到x中以获得变换向量d和t:
    d = x 1 m Z 1 , m X {\displaystyle d=x-{\frac {1}{m}}Z_{1,m}X}

    t = d ( D T D ) 1 2 {\displaystyle t=d(D^{T}D)^{-{\frac {1}{2}}}}
    这个去相关性的方法被应用到多变量的主成分分析中。 [#################] 反射相关系数是皮尔逊相关系数的变体,数据并不是以他们的均值为中心。[来源请求]总体反射相关系数是
    Corr r ( X , Y ) = E [ X Y ] E X 2 E Y 2 . {\displaystyle {\text{Corr}}_{r}(X,Y)={\frac {E[XY]}{\sqrt {EX^{2}\cdot EY^{2}}}}.}
    反射相关系数是对称的, 但在如下的变换中并不是不变的
    Corr r ( X , Y ) = Corr r ( Y , X ) = Corr r ( X , b Y ) Corr r ( X , a + b Y ) , a 0 , b > 0. {\displaystyle {\text{Corr}}_{r}(X,Y)={\text{Corr}}_{r}(Y,X)={\text{Corr}}_{r}(X,bY)\neq {\text{Corr}}_{r}(X,a+bY),\quad a\neq 0,b>0.}
    样本反射相关系数是
    r r x y = x i y i ( x i 2 ) ( y i 2 ) . {\displaystyle rr_{xy}={\frac {\sum x_{i}y_{i}}{\sqrt {(\sum x_{i}^{2})(\sum y_{i}^{2})}}}.}
    样本加权相关系数是
    r r x y , w = w i x i y i ( w i x i 2 ) ( w i y i 2 ) . {\displaystyle rr_{xy,w}={\frac {\sum w_{i}x_{i}y_{i}}{\sqrt {(\sum w_{i}x_{i}^{2})(\sum w_{i}y_{i}^{2})}}}.}

    [##################] 规模的相关性是一个变种的皮尔森相关数据的范围限制故意以受控的方式揭示时间序列之间的快速成分的相关性。比例相关的定义是在短数据段的平均相关性。 对于给定规模S,令K为可以适应信号的总长度的段数:
    K = S o u n d ( T s ) {\displaystyle \mathbf {K} =\mathbf {Sound} \left({\frac {T}{s}}\right)}
    比例相关的整个信号的rs的计算公式为
    r s = 1 K k = 1 K r k {\displaystyle {\overrightarrow {r_{s}}}={\frac {1}{K}}\sum _{k=1}^{K}r_{k}}
    rs为k的部分皮尔森相关系数。 通过对参数s的选择,减少值的范围和较长的时间尺度上的相关性被过滤掉,只有在很短的时间尺度上的相关性被发现。因此,慢分量的贡献被删除,快分量被保留。 [###################] 强噪声条件下,提取相关系数两个随机变量之间的是平凡的,特别是在典型相关分析报告在退化的相关值的情况下,由于存在大量噪声。一种概括的方法在其他地方给出。 [####################]
    • 相关
    • 史匹曼等级相关系数
    • Association (statistics)
    • Disattenuation
    • Maximal information coefficient
    [#####################]
    • 相关系数:使用皮尔森检定与斯皮尔曼等级检定的研究问题(中国医药大学,生物统计课程)
    • 相关系数:资料型态与适用统计方法(中国医药大学,生物统计课程)
    [######################]
    1. ^ "The human disease network", Albert Barabasi et al., Plos.org
    2. ^ 2.0 2.1 J. L. Rodgers and W. A. Nicewander. Thirteen ways to look at the correlation coefficient. The American Statistician, 42(1):59–66, February 1988.
    3. ^ Stigler, Stephen M. Francis Galton's Account of the Invention of Correlation. Statistical Science. 1989, 4 (2): 73–79. doi:10.1214/ss/1177012580. JSTOR 2245329. 
    4. ^ A. Buda and A.Jarynowski (2010) Life-time of correlations and its applications vol.1, Wydawnictwo Niezalezne: 5–21, December 2010, ISBN 978-83-915272-9-0
    5. ^ 5.0 5.1 Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2nd ed.)
    6. ^ Fulekar (Ed.), M.H. (2009) Bioinformatics: Applications in Life and Environmental Sciences, Springer (pp. 110) ISBN 1402088795
    7. ^ N.A Rahman, A Course in Theoretical Statistics; Charles Griffin and Company, 1968
    8. ^ Kendall, M.G., Stuart, A. (1973)The Advanced Theory of Statistics, Volume 2: Inference and Relationship, Griffin. ISBN 0852642156 (Section 31.19)
    9. ^ Fisher, R.A. Frequency distribution of the values of the correlation coefficient in samples from an indefinitely large population. Biometrika. 1915, 10 (4): 507–521. doi:10.1093/biomet/10.4.507. 
    10. ^ Fisher, R.A. On the probable error of a coefficient of correlation deduced from a small sample (PDF). Metron. 1921, 1 (4): 3–32 [2009-03-25]. 
    11. ^ Gayen, A.K. The frequency distribution of the product moment correlation coefficient in random samples of any size draw from non-normal universes. Biometrika. 1951, 38: 219–247. doi:10.1093/biomet/38.1-2.219. 
    12. ^ Soper, H.E., Young, A.W., Cave, B.M., Lee, A., Pearson, K. (1917). "On the distribution of the correlation coefficient in small samples. Appendix II to the papers of "Student" and R. A. Fisher. A co-operative study", Biometrika, 11, 328-413. doi:10.1093/biomet/11.4.328
    13. ^ Kenney, J. F. and Keeping, E. S., Mathematics of Statistics, Pt. 2, 2nd ed. Princeton, NJ: Van Nostrand, 1951.
    14. ^ Correlation Coefficient - Bivariate Normal Distribution
    15. ^ 15.0 15.1 Wilcox, Rand R. Introduction to robust estimation and hypothesis testing. Academic Press. 2005. 
    16. ^ Devlin, Susan J; Gnanadesikan, R; Kettenring J.R. Robust Estimation and Outlier Detection with Correlation Coefficients. Biometrika. 1975, 62 (3): 531–545. doi:10.1093/biomet/62.3.531. JSTOR 2335508.  引文使用过时参数 (帮助)
    17. ^ Huber, Peter. J. Robust Statistics. Wiley. 2004. [页码请求]
    18. ^ Katz., Mitchell H. (2006) Multivariable Analysis - A Practical Guide for Clinicians. 2nd Edition. Cambridge University Press. ISBN 9780521549851. ISBN 052154985X doi:10.2277/052154985X
    19. ^ http://sci.tech-archive.net/Archive/sci.stat.math/2006-02/msg00171.htmlA MATLAB Toolbox for computing Weighted Correlation Coefficients
    20. ^ Cox, D.R., Hinkley, D.V. (1974) Theoretical Statistics, Chapman & Hall (Appendix 3) ISBN 0412124203
    分类:
    • 协方差与相关性
    • 统计学
    • 比率
    隐藏分类:
    • 含有过时参数的引用的页面
    • 未列明参考文献页码的条目
    • 缺少主语或者主语不够具体的语句
    • 有未列明来源语句的条目
    [/micxp_threadbk]
    个人签名

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    快速回复 返回顶部 返回列表