Processing math: 35%

10/12/2018

[線性代數] 若 A 有線性獨立的 columns 則 ATA 為 symmetric 且 positive definite

Definitions:
1. 我們說一個矩陣 A 為 symmetric 若 AT=A
2. 我們說一個矩陣 ARn×n 為 正定 (positive definite) 若 對任意 xRn,x0 而言,
xTAx>0
Comments:
上述positive definite 建構的 xTAx 稱作 矩陣的二次式。
判斷矩陣正定的方式有許多,上述只是其中一種,另外還有許多等價定義。下列敘述等價
1. 矩陣 A 為 positive definite
2. 對任意 xRn,x0 而言,xTAx>0
3. 矩陣 A 有 正的 特徵值(eigenvalues)
4. 矩陣 A 有 正的 leading principal minors
5. 矩陣 A 有 正 的 pivots



接著我們給出當 A 非方陣的時候,如何找出其對應的 正定矩陣。



==========
Theorem:
ARm×n 有線性獨立的 columns 則 ATA 為 symmetric 且 positive definite
==========
Proof:
首先證明 ATA 為 symmetric。觀察 (ATA)T=ATA故得證。

接著證明 ATA 為 positive definite。令 xRn,x0 ,觀察
xTATAx=(Ax)T(Ax)=我們要證明 \|Ax\|^2>0,利用反證法:假設若不然,亦即 \|Ax\|^2 =0 ,由於因為 A 有線性獨立(linear independent)的 column,記作 {\bf a}_1,{\bf a}_2,...,{\bf a}_n 故由線性獨立的定義,
A{\bf x} = x_1 {\bf a}_1 + x_2 {\bf a}_2 + \cdots x_n {\bf a}_n = {\bf 0} 若且唯若 x_1= x_2 = ... x_n = 0 此與原本假設 {\bf x} \neq 0 矛盾,故 \|Ax\|^2>0\square


Theorem 2:
任意 positive definite matrix 為 invertible

Proof: 令 A 為 positive definite matrix。利用反證法,假設 A 的反矩陣不存在,此表示存在 {\bf x} \neq {\bf 0} 使得 A{\bf x} = {\bf 0}。現在觀察
{\bf x}^T A{\bf x} = \underbrace{{\bf x}^T {\bf 0}}_{={\bf 0}} \;\;\;\;\;(**) 但是由於 A為 positive definite,我們知道對任意非零向量 {\bf x}{\bf x}^TA{\bf x} > 0此與 式 (**) 矛盾。故 A 反矩陣存在,換言之A 為 invertible。\square



Theorem 3:
A^TA 為 invertible,則 A 具有 線性獨立 columns。

Proof:
A:=[{\bf a}_1 \;\; \cdots \;\; {\bf a}_n] 其中 {\bf a}_iA 的 columns。我們要證明
\sum_{i=1}^n x_i {\bf a}_i ={\bf 0} \Rightarrow x_i = 0,\;\; \forall i 注意到對任意 x_i\sum_{i=1}^n x_i {\bf a}_i ={\bf 0} 表示
A{\bf x} = {\bf 0} 其中 {\bf x}:=[x_1\;\;x_2\;\;\cdots x_n]^T。故
A^T A{\bf x} = A^T {\bf 0} = {\bf 0} 由於 A^TA 為 invertible,故 {\bf x}={\bf 0},亦即 x_i = 0, \;\; \forall i 。至此證明完畢。\square



Comments:
相關文章參閱:[線性系統] 矩陣的二次式 與 正定矩陣


沒有留言:

張貼留言

[人工智慧] 本地端 DeepSeek R1 快速安裝:以 Macbook Pro M4 Chip為例

最近火熱的 DeepSeek R1 模型由於採用了 distill 技術,可以大幅降低計算成本,使得一般人有機會在自家筆電上跑性能逼近 Open AI ChatGPT o1的大語言模型。本文簡單介紹一步安裝在 Macbook Pro 的方法以及使用方法,以下測試採用 Macboo...