在機率論的討論中,很多時候我們需要考慮多個隨機變數,一種情況是這些多個隨機變數彼此互為獨立,那麼其相關的數學運算可以被大幅簡化。但是若多個隨機變數彼此之間有一定程度的相關性,是否有一種合適的量化方法來衡量呢?以下我們給出所謂共變異的概念:
==============
Definition: 令 $X,Y$ 為兩隨機變數各自具備 有限期望值 $E[X],E[Y]$ 與有限變異數 $\sigma_X, \sigma_Y$ ,則我們可定義此組隨機變數 之共變異 (covariance),記作 $\sigma_{XY}$,表為:
\[
\sigma_{XY} := E[(X-E[X])(Y-E[Y])]
\]==============
Comments:
1. [對稱性質]: 由上述定義,讀者應不難看出 $\sigma_{XY} = \sigma_{YX}$
2. [共變異數不必恆為正] :由上述定義,透過簡單的運算可得到
\[{\sigma _{XY}} = E\left[ {XY} \right] - E\left[ X \right]E\left[ Y \right]\]注意到此式為兩項相減,故暗示了 共變異數 可能為正值 亦可能為負值。
3. 上述對於 $X,Y$ 具有有限期望值與有限變異之條件可簡寫為 $X,Y \in L^2$ 其中 $L^2$ 為由所有隨機變數滿足 $E[X^2]<\infty$ 所組成之函數空間。為求簡便起見,以下我們討論涉及 $L^2$ 之處皆以 有限期望值 與有限變異 做為等價之論述。有興趣讀者請參閱 本 Blog 其他相關文章或者查閱相關機率論/隨機過程之教材。
4. 有部分文獻之作者習慣將共變異數 用符號 $Cov(X,Y)$ 取代 $\sigma_{XY}$,端看個人習慣與喜好。
5. 一但兩隨機變數之共變異被定義,那麼給定多個隨機變數,比如說 $X_1,X_2,...,X_n$。我們亦可求其兩兩成對之共變異,舉例而言,若欲求 $X_i, X_j$ 之共變異 (其中 $i,j \in \{1,2,...,n\}$ ) 即為
$$
\sigma_{ij} := E[ (X_i- E[X_i]) (X_j = E[X_j])]
$$
另外當 $i =j$ 讀者可自行驗證上述共變異退化為變異數。
一旦定義了共變異,我們可接著引入所謂 相關性(correlation) 的概念:
==============
Definition:
當 $\sigma_{XY} = 0$ 我們說 隨機變數 $X,Y$ 彼此之間互 不相關
當 $\sigma_{XY}>0$ 我們說 隨機變數 $X,Y$ 彼此之間為 正相關
當 $\sigma_{XY} <0$ 我們說 隨機變數 $X,Y$ 彼此之間為 負相關
==============
$$
|\sigma_{XY}| \leq \sigma_X \sigma_Y
$$=============
Proof: 首先觀察
\[{\sigma _{XY}} = E\left[ {\left( {X - E\left[ X \right]} \right)\left( {Y - E\left[ Y \right]} \right)} \right]\]現在回憶 Cauchy-Schwarz Inequality :對任意 $U,V \in L^2$ 之隨機變數, \[\left| {E\left[ {UV} \right]} \right| \leqslant \sqrt {E\left[ {{U^2}} \right]} \sqrt {E\left[ {{V^2}} \right]} \]故若我們令 $U:= X-E[X]$ 且 $V:= Y-E[Y]$ 則應用上述 Cauchy-Schwarz Inequality 立刻得到
\begin{align*}
\left| {{\sigma _{XY}}} \right| &= \left| {E\left[ {\left( {X - E\left[ X \right]} \right)\left( {Y - E\left[ Y \right]} \right)} \right]} \right| \hfill \\
& \leq \sqrt {E\left[ {{{\left( {X - E\left[ X \right]} \right)}^2}} \right]} \sqrt {E\left[ {{{\left( {X - E\left[ X \right]} \right)}^2}} \right]} \hfill \\
& = {\sigma _X}{\sigma _Y}. \;\;\;\;\;\;\; \square
\end{align*}
Comments:
一般而言,若 $\sigma_{XY} = \sigma_X \sigma_Y$ 我們稱 $X,Y$ 為 完全相關 (perfectly correlated),反之若 $\sigma_{XY} = - \sigma_X \sigma_Y$ 則稱 $X,Y$ 為完全負相關(perfectly negative correlated)。
在統計學中常用與指出相關性的指標稱作 相關係數 (correlation coefficient) ,此係數可以由前述的共變異數與變異數直接定義如下:
=================
Definition: Correlation Coefficient of $X$ and $Y$
Correlation Coefficient of $X$ and $Y$, 記作 $\rho_{XY}$, 滿足
\[{\rho _{XY}}: = \frac{{{\sigma _{XY}}}}{{{\sigma _X}{\sigma _Y}}}
\]=================
Comment: 注意到由前述 FACT 可知 $-\sigma_X \sigma_Y \leq \sigma_{XY} \leq \sigma_X \sigma_Y$ 故
\[
-1 \leq \rho_{XY} \leq 1
\]
----附註---
與上述的相關係數有關的內容,有時候會定義所謂 相關函數 (correlation function):
Definition: 令 $X,Y$ 為兩隨機變數,則我們定義 Correlation function between $X$ and $Y$ 為 $E[XY]$
Comment:
1. correlation 決定了兩隨機變數何時具有線性相關。
2. 上述 correlation 事實上可視為 $L^2$ 空間之內積運算,在此不贅述。
Example:
令 $X$ 為具有 mean $=0$ 與 variance $=1$ 的隨機變數,現在令 $Y := 2X$,試求 correlation between $X$ and $Y$
Solution
由定義出發,我們計算 $E[XY] = E[X 2X] = 2E[X^2]$。因為 $X$ 具有 unit variance 由 variance 定義可知 $Var(X) = E[X^2] - (E[X])^2$ 亦即
\[\begin{array}{l}
Var(X) = E[{X^2}] - {(E[X])^2}\\
\Rightarrow 1 = E[{X^2}] - 0\\
\Rightarrow E[{X^2}] = 1
\end{array}\]
故 $E[XY] = 2E[X^2] =2$
==============
Definition: 令 $X,Y$ 為兩隨機變數各自具備 有限期望值 $E[X],E[Y]$ 與有限變異數 $\sigma_X, \sigma_Y$ ,則我們可定義此組隨機變數 之共變異 (covariance),記作 $\sigma_{XY}$,表為:
\[
\sigma_{XY} := E[(X-E[X])(Y-E[Y])]
\]==============
1. [對稱性質]: 由上述定義,讀者應不難看出 $\sigma_{XY} = \sigma_{YX}$
2. [共變異數不必恆為正] :由上述定義,透過簡單的運算可得到
\[{\sigma _{XY}} = E\left[ {XY} \right] - E\left[ X \right]E\left[ Y \right]\]注意到此式為兩項相減,故暗示了 共變異數 可能為正值 亦可能為負值。
3. 上述對於 $X,Y$ 具有有限期望值與有限變異之條件可簡寫為 $X,Y \in L^2$ 其中 $L^2$ 為由所有隨機變數滿足 $E[X^2]<\infty$ 所組成之函數空間。為求簡便起見,以下我們討論涉及 $L^2$ 之處皆以 有限期望值 與有限變異 做為等價之論述。有興趣讀者請參閱 本 Blog 其他相關文章或者查閱相關機率論/隨機過程之教材。
4. 有部分文獻之作者習慣將共變異數 用符號 $Cov(X,Y)$ 取代 $\sigma_{XY}$,端看個人習慣與喜好。
5. 一但兩隨機變數之共變異被定義,那麼給定多個隨機變數,比如說 $X_1,X_2,...,X_n$。我們亦可求其兩兩成對之共變異,舉例而言,若欲求 $X_i, X_j$ 之共變異 (其中 $i,j \in \{1,2,...,n\}$ ) 即為
$$
\sigma_{ij} := E[ (X_i- E[X_i]) (X_j = E[X_j])]
$$
另外當 $i =j$ 讀者可自行驗證上述共變異退化為變異數。
一旦定義了共變異,我們可接著引入所謂 相關性(correlation) 的概念:
==============
Definition:
當 $\sigma_{XY} = 0$ 我們說 隨機變數 $X,Y$ 彼此之間互 不相關
當 $\sigma_{XY}>0$ 我們說 隨機變數 $X,Y$ 彼此之間為 正相關
當 $\sigma_{XY} <0$ 我們說 隨機變數 $X,Y$ 彼此之間為 負相關
==============
一但有了共變異,第一個立即的問題便是此共變異與原本各自變異之間的關係是什麼?以下 FACT 對此問題給出回答:
=============
FACT: 對任意 $X,Y \in L^2$,其共變異數之上界可表為$$
|\sigma_{XY}| \leq \sigma_X \sigma_Y
$$=============
Proof: 首先觀察
\[{\sigma _{XY}} = E\left[ {\left( {X - E\left[ X \right]} \right)\left( {Y - E\left[ Y \right]} \right)} \right]\]現在回憶 Cauchy-Schwarz Inequality :對任意 $U,V \in L^2$ 之隨機變數, \[\left| {E\left[ {UV} \right]} \right| \leqslant \sqrt {E\left[ {{U^2}} \right]} \sqrt {E\left[ {{V^2}} \right]} \]故若我們令 $U:= X-E[X]$ 且 $V:= Y-E[Y]$ 則應用上述 Cauchy-Schwarz Inequality 立刻得到
\begin{align*}
\left| {{\sigma _{XY}}} \right| &= \left| {E\left[ {\left( {X - E\left[ X \right]} \right)\left( {Y - E\left[ Y \right]} \right)} \right]} \right| \hfill \\
& \leq \sqrt {E\left[ {{{\left( {X - E\left[ X \right]} \right)}^2}} \right]} \sqrt {E\left[ {{{\left( {X - E\left[ X \right]} \right)}^2}} \right]} \hfill \\
& = {\sigma _X}{\sigma _Y}. \;\;\;\;\;\;\; \square
\end{align*}
Comments:
一般而言,若 $\sigma_{XY} = \sigma_X \sigma_Y$ 我們稱 $X,Y$ 為 完全相關 (perfectly correlated),反之若 $\sigma_{XY} = - \sigma_X \sigma_Y$ 則稱 $X,Y$ 為完全負相關(perfectly negative correlated)。
在統計學中常用與指出相關性的指標稱作 相關係數 (correlation coefficient) ,此係數可以由前述的共變異數與變異數直接定義如下:
=================
Definition: Correlation Coefficient of $X$ and $Y$
Correlation Coefficient of $X$ and $Y$, 記作 $\rho_{XY}$, 滿足
\[{\rho _{XY}}: = \frac{{{\sigma _{XY}}}}{{{\sigma _X}{\sigma _Y}}}
\]=================
\[
-1 \leq \rho_{XY} \leq 1
\]
----附註---
與上述的相關係數有關的內容,有時候會定義所謂 相關函數 (correlation function):
Definition: 令 $X,Y$ 為兩隨機變數,則我們定義 Correlation function between $X$ and $Y$ 為 $E[XY]$
Comment:
1. correlation 決定了兩隨機變數何時具有線性相關。
2. 上述 correlation 事實上可視為 $L^2$ 空間之內積運算,在此不贅述。
Example:
令 $X$ 為具有 mean $=0$ 與 variance $=1$ 的隨機變數,現在令 $Y := 2X$,試求 correlation between $X$ and $Y$
Solution
由定義出發,我們計算 $E[XY] = E[X 2X] = 2E[X^2]$。因為 $X$ 具有 unit variance 由 variance 定義可知 $Var(X) = E[X^2] - (E[X])^2$ 亦即
\[\begin{array}{l}
Var(X) = E[{X^2}] - {(E[X])^2}\\
\Rightarrow 1 = E[{X^2}] - 0\\
\Rightarrow E[{X^2}] = 1
\end{array}\]
故 $E[XY] = 2E[X^2] =2$
留言
張貼留言