跳到主要內容

[機器學習] 主成分分析 (1)

以下我們介紹機器學習/統計學習理論 中把 高維度資料 降維 的一種常用工具,稱作 主成分分析 (Principal Component Analysis)。假設我們有 $n$ 組 $m$ 維度 (去除平均) 資料點集,下圖 顯示 $n=100$ 組 $m=2$ 維 資料點集

注意到上述資料集已經先預先處理使其資料集 中心 在 $(0,0)$。任意(有限維度)資料集皆可預先做此處理將其資料點的平均值 預先 移除。此為主成分分析的首要步驟。


主成分分析(Principal Component Analysis):
我們的目標為 找到一個向量 ${\bf x} \neq {\bf 0}$ 使得 由此向量所 線性張成(span) 的子空間,記作 $X:=span\{{\bf x}\}$ ,能 最佳適配我們得資料集 (此 subspace $X$ 又稱作 "best line ") 使得\[
\min_{\bf x} \sum_{i=1}^n d_i^2
\]其中 $d_i$ 為第 $i$ 個 資料點 到此  best line (subspace) $X$ 的距離。

Comments: (1) 此處最佳 "best line" 意指我們要找 ${\bf x}$ 使得 資料點到此 best line 的距離平方最小,此想法可參閱下方示意圖,其中 ${\bf a}_i$ 為代表 第 $i$ 個資料點的向量,$proj_X{\bf a}_i$ 代表 ${\bf a}_i$ 投影到 我們的 subspace $X$ 的投影向量。

(2) 當然,距離平方最小並不是唯一的選擇,讀者可以考慮使用 $\sum_i |d_i|$ 當作 最佳化的目標函數或者其他種類的目標函數,但為求簡單起見,且符合經典 主成分分析的內容,在此我們僅考慮 距離平方誤差 作為我們的 目標函數。

(3) 由下圖,讀者不難發現對任意資料向量 ${\bf a}_i$ 而言,此向量 與 subspace $X$ 的 距離平方 $d_i^2$ 可表為
\[
d_i^2  = \| {\bf a}_i - proj_X {\bf a}_i \|_2^2
\]其中 $proj_X {\bf a}_i$ 表示 ${\bf a}_i$ 投影到 subspace $X$ 的向量 。


Claim: 令資料矩陣 \[ A:= \begin{bmatrix} -{\bf a}_1^T- \\ -{\bf a}_2^T- \\ \vdots\\ -{\bf a}_n^T- \end{bmatrix} \in \mathbb{R}^{n \times m} \]則存在 ${\bf x}={\bf v}_1$  為 1st right-singular vector of $A$ 使得
\[
\min_{{\bf x}} \sum_{i=1}^n d_i^2 = \sigma_2^2+\cdots + \sigma_n^2
\]其中 $\sigma_1$ 為 $A$ 的 1st singular value 。

Proof: 對任意資料向量 ${\bf a}_i \in \mathbb{R}^m$ 而言,${\bf a}_i$ 與 待定向量 ${\bf x} \in X$ 的 距離平方 $d_i^2$ 可表為
\[
\begin{align*} d_i^2 & = \| {\bf a}_i - proj_{\bf x} {\bf a}_i \|_2^2 \\
&= \bigg\|{\bf a}_i - \frac{ {\bf a}_i^T {\bf x}}{ {\bf x}^T {\bf x}  }{\bf x} \bigg\|_2^2\\
 & = \bigg\|{\bf a}_i - \frac{ {\bf x}^T {\bf a}_i}{{\bf x}^T {\bf x}}{\bf x} \bigg\|_2^2\\ & = \bigg\|{\bf a}_i - \frac{ {\bf x} ({\bf x}^T {\bf a}_i)}{{\bf x}^T {\bf x} }\bigg\|_2^2\\
 & = \bigg\|\bigg( I - \frac{ {\bf x} {\bf x}^T }{{\bf x}^T {\bf x}} \bigg) {\bf a}_i \bigg\|_2^2\\
 & = \bigg(\bigg( I - \frac{ {\bf x} {\bf x}^T }{{\bf x}^T {\bf x} } \bigg) {\bf a}_i \bigg)^T \bigg(\bigg( I - \frac{ {\bf x} {\bf x}^T }{{\bf x}^T {\bf x} } \bigg) {\bf a}_i \bigg)\\
 & = {\bf a}_i ^T \bigg( I - \frac{ {\bf x} {\bf x}^T }{{\bf x}^T {\bf x}} \bigg)^T \bigg( I - \frac{ {\bf x} {\bf x}^T }{{\bf x}^T {\bf x} } \bigg) {\bf a}_i \\
 & = {\bf a}_i ^T \underbrace{\bigg( I - \frac{ {\bf x} {\bf x}^T }{{\bf x}^T {\bf x} } \bigg)^2}_{= I - \frac{ {\bf x} {\bf x}^T }{{\bf x}^T {\bf x}} }{\bf a}_i \\
 & = {\bf a}_i ^T \bigg( I - \frac{ {\bf x} {\bf x}^T }{{\bf x}^T {\bf x} } \bigg){\bf a}_i \\
 & = {\bf a}_i ^T {\bf a}_i - {\bf a}_i ^T \frac{ {\bf x} {\bf x}^T }{{\bf x}^T {\bf x}}{\bf a}_i \\ \end{align*}
\]注意到 $${\bf a}_i^T{\bf x} {\bf x}^T {\bf a}_i = \underbrace{({\bf a}_i^T{\bf x})}_{\in \mathbb{R}} \underbrace{({\bf x}^T {\bf a}_i)}_{\in \mathbb{R}} ={\bf x}^T ({\bf a}_i {\bf a}_i^T) {\bf x} $$故 \[ d_i^2 = {\bf a}_i ^T {\bf a}_i - \frac{ {\bf x}^T ( {\bf a}_i {\bf a}_i^T) {\bf x} }{\|{\bf x}\|}
\] 回憶我們的目標是要找到向量 ${\bf x} \neq {\bf 0}$ 使得 \[
\min_{{\bf x}} \sum_{i=1}^n d_i^2
\]上式等價於
\[
\min_{\bf x} \sum_{i=1}^n \bigg( {\bf a}_i ^T {\bf a}_i - \frac{ {\bf x}^T ( {\bf a}_i {\bf a}_i^T) {\bf x} }{{\bf x}^T {\bf x}} \bigg) = n {\bf a}_i ^T {\bf a}_i + \min_{\bf x} \bigg( - \frac{ {\bf x}^T ( \sum_{i=1}^n {\bf a}_i {\bf a}_i^T) {\bf x} }{{\bf x}^T {\bf x}}\bigg) 
\] 注意到第一項與 ${\bf x}$ 無關,利用 $\min_x -f(x)$ 等價為 $\max_x f(x)$ 我們可將上述最佳化問題等價為 \[ \max_{\bf x}\frac{ {\bf x}^T ( \sum_{i=1}^n {\bf a}_i {\bf a}_i^T) {\bf x} }{{\bf x}^T {\bf x}} \] 由 FACT 1,我們可知
\[ A^T A = \sum_{i=1}^n {\bf a}_i {\bf a}_i^T
\] 故我們最終的最佳化問題為找到向量 ${\bf x}$ 使得
\[
\max_{\bf x} \frac{{\bf x}^T A^T A {\bf x}}{{\bf x}^T {\bf x}} = \max_{\bf x} \frac{\|A {\bf x}\|_2^2}{\|{\bf x}\|_2^2} = \|A\|_2^2 \;\;\;\; (*)
\] 由 下方 FACT 2 可知 \[ \|A \|_2^2 = \sigma_1^2 \] 且 ${\bf x} = {\bf v}_1$, the 1st right-singular vector。此結果非常容易觀察:當 ${\bf x} = {\bf v}_1$ 則 $A{\bf v}_1 = \sigma_1 {\bf u}_1$ 故
\[
\frac{\|A {\bf x}\|_2^2}{\|x\|_2^2} = \frac{\|A {\bf v}_1\|_2^2}{\|{\bf u}_1\|_2^2} = \frac{\sigma_1^2 \|{\bf u}_1\|}{\|{\bf u}_1\|_2^2} = \sigma_1^2
\]故 ${\bf x}={\bf v}_1$ 取到最大值 $\|A \|=\sigma_1^2$,換言之,
\[
\min_{\bf x} \sum_{i=1}^n d_i^2 = (\sigma_1^2+...+\sigma_n^2 )- \sigma_1^2 = \sigma_2^2+\cdots + \sigma_n^2
\] 至此證明完畢。 $\square$


Comments:
1. ${\bf v}_1$ 又稱 $A$ 的 第一主成分 (the first principal component of $A$)

FACT 1: $A:= \begin{bmatrix} -{\bf a}_1^T- \\ -{\bf a}_2^T- \\ \vdots\\ -{\bf a}_n^T- \end{bmatrix} \in \mathbb{R}^{n \times m}$ 則
\[
A^TA = \sum_{i=1}^{n} {\bf a}_i {\bf a}_i^T
\]

Remark: 上述等式有個非常類似的結果與 矩陣的 trace 有關,我們順道在此紀錄:如果 $A:=\begin{bmatrix}{\bf a}_1 & {\bf a}_2 & \cdots {\bf a}_n \end{bmatrix} \in \mathbb{R}^{m \times n}$ 則
\[
\sum_{i=1}^n {\bf a}_i^T {\bf a}_i = trace(A^TA)
\]

FACT 2:
(a) 任意 $m \times n$ 矩陣 $A$ 的 2-norm $\|A\|_2 = \sigma_1$
(b) 任意 $m \times n$ 矩陣 $A$ 的 Fronbenious norm $\|A\|_F := \sqrt{\sigma_1^2+\sigma_2^2+\cdots + \sigma_n^2}$

留言

這個網誌中的熱門文章

[數學分析] 什麼是若且唯若 "if and only if"

數學上的 if and only if  ( 此文不討論邏輯學中的 if and only if,只討論數學上的 if and only if。) 中文翻譯叫做  若且唯若 (or 當且僅當) , 記得當初剛接觸這個詞彙的時候,我是完全不明白到底是甚麼意思,查了翻譯也是愛莫能助,畢竟有翻跟沒翻一樣,都是有看沒有懂。 在數學上如果看到 if and only if  這類的句子,其實是表示一種 雙條件句 ,通常可以直接將其視為" 定義(Definition)" 待之,今天要分享的是這樣的一個句子如何用比較直觀的方法去看他 假設我們現在有 兩個邏輯陳述句 A 與  B. 注意到,在此我們不必考慮這兩個陳述句到底是什麼,想表達什麼,或者到底是否為真(true),這些都不重要。只要知道是兩個陳述即可。 現在,考慮新的陳述:  "A if and only if B" 好了,現在主角登場,我們可以怎麼看待這個句子呢? 事實上我們可以很直覺的把這句子拆成兩部分看待,也就是 "( A if B ) and ( A only if B )" 那麼先針對第一個部分  A if B  來看, 其實這句就是說  if B then A, 更直白一點就是 "if B is true, then A is also true".  在數學上等價可以寫為 "B implies A" .  或者更常用一個箭頭符號來表示 "B $\Rightarrow$  A"  現在針對第二個部分  A only if B 此句意指  "If B is not true, then A is also not true". 所以如果已知 A is true,  那麼按照上句不難推得 B is also true 也就是說  A only if B  等價為 "If A is true then B is also true". 同樣,也可以寫作   "A implies B"   或者用箭頭表示  "A   $\Rightarrow$     B".

[數學分析] 淺談各種基本範數 (Norm)

這次要介紹的是數學上一個重要的概念: Norm: 一般翻譯成 範數 (在英語中 norm 有規範的意思,比如我們說normalization就是把某種東西/物品/事件 做 正規化,也就是加上規範使其正常化),不過個人認為其實翻譯成 範數 也是看不懂的...這邊建議把 Norm 想成長度就好 (事實上norm是長度的抽象推廣), 也許讀者會認為好端端的長度不用,為何又要發明一個 norm 來自討苦吃?? 既抽象又艱澀。 事實上想法是這樣的: 比如說現在想要比較兩個數字 $3$ , $5$ 之間的大小,則我們可以馬上知道 $ 3 < 5 $;同樣的,如果再考慮小數與無理數如 $1.8753$ 與 $\pi$,我們仍然可以比較大小 $1.8753 < \pi = 3.1415...$ 故可以發現我們有辦法對 "純量" 做明確的比大小,WHY? 因為前述例子中 $3$, $5$, $1.8753$ or $\pi$ 其各自的大小有辦法被 "measure "! 但是如果是現在考慮的是一組數字 我們如何去measure 其大小呢?? 比如說 \[x:=[1, -2, 0.1, 0 ]^T \]上式的大小該是多少? 是 $1$? $-2$? $0.1$??? 再者如果更過分一點,我們考慮一個矩陣 \[A = \left[ {\begin{array}{*{20}{c}} 1&2\\ 3&4 \end{array}} \right] \],想要知道這個矩陣的大小又該怎麼辦?? 是 $1$ ? $2$ 還是 $4$ ?..其實現階段我們說不清楚。 也正是如此,可以發現我們確實需要新的 "長度" 的定義來幫助我們如何去 measure 矩陣/向量/甚至是函數的大小。 故此,我們首先定義甚麼是Norm,(也就是把 "長度" or "大小" 的本質抽離出來) ================== Definition: Norm 考慮 $V$ 為一個向量空間(Vector space),則我們說  Norm 為一個函數 $||\cdot|| : V \rightarrow \mathbb{R}$ 且滿足下列性質