Processing math: 100%

8/29/2010

[線性系統] 對角化 與 Eigenvalues and Eigenvectors

首先我們給出相關定義

============================
Definition (Eigenvalue and Eigenvector)
An×n 方陣,若存在一非零向量 xRn (or Cn) 與 純量 λR1 (or C1)滿足
Ax=λx則我們稱 λA 的 特徵值 (eigenvalue) 且 xA對應於 λ 的特徵向量(eigenvector)。
============================
Comments:
1. 上述定義中 Ax=λx 又稱 eigenvalue-eigenvector 關係: (λIA)x=0,注意! 0 為 零向量!!。
2. 若 An×n 方陣,則我們稱下式
det(λIA)A 矩陣的 特徵多項式(characteristic polynomial) 且 det(λIA)=0 為特徵方程(characteristic equation)。

現在考慮 LTI 系統 (但無考慮外力 u=0) 以狀態空間表示
˙x=Ax,其中 xn×1 狀態向量,An×n 常數矩陣。現在對上式取拉式轉換 且令初值為零,
sX(s)=AX(s)(sIA)X(s)=0 亦即對上述系統而言,其解特徵方程 (characteristic polynomial) 可寫為
det(sIA)=0且 特徵方程式的根 即為 eigenvalue。


對角化 (Diagonalization)

考慮  A 為 n 階方陣 ,且 A 與 一個 對角矩陣(diagonal matrix) Λ 相似 (亦即有相同的 eigenvalue),則稱此 A 矩陣為可對角化 (diagonalizable);亦即存在一個 non-singular transformation matrix T 使得
Λ=T1AT

FACT: n 階方陣 A 為可對角化(Diagonalizable),則必須具備 n個線性獨立的 eigenvector。
Proof: omitted
NOTE: n個線性獨立的 eigenvector 具有 n 個對應的 相異 eigenvalue


由於矩陣的對角化可借助 eigenvalue 與 eigenvector 來達成,且依照 eigenvalue 的不同情況(共有三種情況)會有所各自不同的衍生討論,我們將各種情況總結如下:
  1. 矩陣 A 具有 相異特徵值 (distinct eigenvalues)
  2. 矩陣 A 具有 重複特徵值 (repeated eigenvalues)
  3. 矩陣 A 具有 複數特徵值 (complex eigenvalues)

以下我們逐項討論:

Case I: 相異特徵值 (Distinct eigenvalues)
考慮  An×n 方陣,其特性方程
det(λiIA)=0,iλ1λ2...λn。那麼對於 第 i 個 eigenvalue λi而言,其對應的 eigenvector 定為 vi,且滿足 eigenvalue-eigenvector 關係
(λiIA)vi=0那麼對任意 i 而言,我們有
(λiIA)vi=0λivi=Avi亦即
{λ1v1=Av1λ2v2=Av2λnvn=Avn現在將上述結果寫成矩陣形式:
[λ1v1λ2v2λnvn]=[Av1Av2Avn][v1v2vn]n×n[λ1000λ2000λn]n×n=A[v1v2vn]n×nT:=[v1v2vn]
Λ:=[λ1000λ2000λn]則我們有
TΛ=ATΛ=T1ATT 為 nonsingular (i.e., Tn 個線性獨立的 row or columns 亦即 eigenvectors 之間彼此線性獨立)。

那麼現在我們證明 T 確實為 nonsingular matrix。
Proof
用歸納法:令 n=2 對任意兩個 eigenvector vi,vj 而言,我們要證明此兩者為線性獨立,亦即由線性獨立的定義,對下式
αivi+αjvj=0    ()其係數 αi=αj=0

故現在觀察 () 式,兩邊同乘 (λiIA)
αi(λiIA)vi=0bydef.+αj(λiIA)vj=0αj(λiIA)vj=0αj(λiIAλjI+λjI)vj=0αj(λiIλjI+(λjIA))vj=0αj(λiIλjI)vj+αj(λjIA)vj=0bydef.=0αj[(λiλj)I]vj=0又因為 λiλj (因為我們假設相異特徵值),且特徵向量 vj0 故必然 αj=0
同理可推至 n個情況,這邊留給讀者自行證明。


透過以上討論我們知道對相異 eigenvalue的情況必定存在 nonsingular matrix T 使得 A 可被對角化 (亦即由 彼此線性獨立 eigenvector 建構 T 矩陣),但若我們有矩陣並不具有 n 個獨立 eigenvector 該怎麼辦呢?  這個情況將會發生在 A 矩陣有重根的時候:


Case II: 重複特徵值 (Repeated eigenvalues) 
考慮矩陣 An×n 矩陣且具有 m 個重複特徵值,亦即
λ1=λ2=...=λm那麼這些重複的特徵值仍必須滿足特徵方程,亦即我們有
det(λmIA)=0且由於出現重根,在此情況下我們不再具有 n 個線性獨立的 eigenvectors;故我們想知道到底剩下幾個 eigenvector 仍是線性獨立,故我們計算 rank: 若
rank{λmIA}=i 則 我們具有 ni 個 對應於 λm 的線性獨立 eigenvectors。

重根的情況其實頗為複雜,現在我們看一些例子:

Example 1
A:=[λm000λm000λm]此時 A 矩陣具有三重根  λm ,且 rank{λmIA}=0 故此三重根 λm 會對應 30=3 個各自獨立的 eigenvectors。

Example 2
A:=[λm000λm100λm]此時 A 矩陣具有三重根  λm ,但 rank{λmIA}=1 故此三重根 λm 會對應 31=2 個各自獨立的 eigenvectors。

Example 2
A:=[λm100λm100λm]此時 A 矩陣具有三重根  λm ,但 rank{λmIA}=2故此三重根 λm 會對應 32=1 個各自獨立的 eigenvectors。


那麼當矩陣 A 不具備足夠的線性獨立 eigenvector 時,我們需引入新的概念,稱作廣義特徵向量(Generalized eigenvector)。且 eigenvector 與 generalized eigenvector 可以建構一個
 non-singular matrix T 使得 J:=T1AT 且我們稱此 J 矩陣為 Jordan matrix。
=============================
Definition: Generalized eigenvector
我們稱向量 v 為 矩陣 A 對應於 eigenvalue, λ 的 rank k 廣義特徵向量(generalized eigenvector) 若下列條件成立
{(λIA)kv=0(λIA)k1v0其中 k 為矩陣 A 的重根數目
=============================
NOTE: k=1 即為原本的 eigenvalue 與 eigenvector。 (無重根)


Example
試求 A 矩陣的 Jordan matrix 。
A=[112013002]
Solution
首先求解 A 矩陣對應的 eigenvalue:注意由於此矩陣為上三角矩陣,eigenvalue 直接就是對角線元素。或者讀者亦可由特徵方程 det(λIA)=0 可解得 λi=1,1,2,i=1,2,3 (雙重根 λ1=λ2=1)。

我們可先計算單根 λ3=2 部分對應的 eigenvector :由 eigenvalue-eigenvector 關係
(λ3IA)v3=0(2[100010001][112013002])v3=0[112013000][v31v32v33]=0[v31v32v33]=[531]接著我們回頭對付重根 (λ1=λ2=1),先計算 rank{λ1IA}=rank{[012003001]=2} 故重根對應的線性獨立 eigenvector 數目為 32=1。我們先求此 eigenvector:
[012003001][v11v12v13]=0{v122v13=03v13=0v13=0{v12=0v13=0三個未知數,兩條方程式,故 v11 為自由變數,令 v11=1 可得 λm 對應的一組 eigenvector 為
[v11v12v13]=[100]接著我們利用此eigenvector 產生 generalized eigenvector 且滿足
(λ2IA)v2=v1[012003001][v21v22v23]=[100]{v222v23=1v23=0{v22=1v23=0故我們選 v22=1 亦即
{λ1=1[v11v12v13]=[100];λ2=1[v21v22v23]=[010]λ3=2[v11v12v13]=[531]故其 nonsingular transformation matrix
T=[105013001]
 Jordan matrix
J=T1AT=[110010002]

Case III: Complex eigenvalues
考慮 A2×2 方陣,其特性方程滿足
det(λiA)=0且 eigenvalue λ=σ+jω 為 complex number 。

由上述可知 eigenvalue-eigenvector 關係
(λIA)vi=0 eigenvalue 為 complex value,其對應的 eigenvector vi 亦為 complex vector。

Example
考慮矩陣
A=[abba]a,bR,b0。則我們可對此矩陣先求 eigenvalue,利用特性方程式可知
det(λIA)=0det([λabbλa])=0(λa)2+b2=0λ22aλ+(a2+b2)=0λ=a±jb現在我們求對應的 eigenvectors:

λ1=a+jb 我們可計算其 eigenvector 為
(λ1IA)v1=0((a+jb)IA)v1=0[(a+jb)abb(a+jb)a]v1=0b[j11j][v11v12]=0{jv11v12=0v11+jv12=0[v11v12]=[1j]
接著對 λ2=ajb
(λ2IA)v2=0((ajb)IA)v2=0[(ajb)abb(ajb)a]v2=0b[j11j][v11v12]=0{jv11v12=0v11jv12=0[v11v12]=[j1]故 nonsingular transformation matrix T
T=[1jj1]
T1AT=[1jj1]1[abba][1jj1]=12[1jj1][abba][1jj1]=12[1jj1][a+bjaj+bb+ajbj+a]=12[(a+bj)j(b+aj)aj+bj(bj+a)j(a+bj)b+ajj(aj+b)bj+a]=12[2a+2jb002a2jb]=[a+jb00ajb]


沒有留言:

張貼留言

[人工智慧] 本地端 DeepSeek R1 快速安裝:以 Macbook Pro M4 Chip為例

最近火熱的 DeepSeek R1 模型由於採用了 distill 技術,可以大幅降低計算成本,使得一般人有機會在自家筆電上跑性能逼近 Open AI ChatGPT o1的大語言模型。本文簡單介紹一步安裝在 Macbook Pro 的方法以及使用方法,以下測試採用 Macboo...