Loading [MathJax]/jax/output/CommonHTML/jax.js

9/21/2009

[機率論] 淺論 弱大數法則

以下我們討論一些關於 弱大數法則(Weak Law of Large Numbers, WLLN) 的結果,首先介紹 一組隨機變數 數列 的 機率收斂  (Convergence in Probability)

=============================
Definition: Convergence in Probability
Yn 為一組隨機變數 sequence,我們說 Yn converges to Y in probability 若下列條件成立:對任意 ε>0
P(|YnY|>ε)0 as n=============================

Comments:
1. 上述定義等價為
P(|YnY|ε)1 as n
2. 上述定義中 YnPYY 可為隨機變數或者為常數。
3. 機率收斂在 機率論與隨機過程,以及 統計理論中 扮演重要角色,比如機率收斂在統計中等價稱為 consistent estimator,在此不做贅述。




==============================
Definition: Uncorrelated Random Variables
接著再回憶我們說一組隨機變數 Xi,iNE[X2i]< 為 uncorrelated 若下列條件成立:當 ij
E[XiXj]=E[Xi]E[Xj]============================

現在我們看個 uncorrelated 隨機變數的結果

=============================
Theorem:
X1,X2,...Xn 為 uncorrelated 且 E[X2i]<
var(X1+...+Xn)=var(X1)+...+var(Xn)其中 var(X) 為 variance of X
=============================

Proof: omitted.


=============================
Lemma:
p>0E[|Xn|p]0Xn0 in probability。
=============================

Proof:
要證明 Xn0 in probability,亦即
P(|Xn0|>ε)0首先觀察下列事件等價
{|Xn|>ε}={|Xn|p>εp}P{|Xn|>ε}=P{|Xn|p>εp}由 Markov inequality 可知
P{|Xn|>ε}=P{|Xn|p>εp}E[|Xn|p]εp由於 E[|Xn|p]0 ,且 εp 為定值,故
P{|Xn|>ε}E[|Xn|p]εp0


=============================
Theorem: L2 Weak Law
X1,...,Xn 為 uncorrelated 隨機變數 且 E[Xi]=μvar(Xi)C<。現在定義隨機變數的和 Sn:=X1+X2+...+Xn
Sn/nμ in Probability as n=============================

Proof
要證明 給定 ε>0n
P(|Snnμ|>ε)0    ()不過如前一個定理所述,若我們可以證明 E[|Snnμ|2]0() 自動滿足。

首先觀察
E[Snn]=1nE[Sn]=1nni=1EXi=μnn=μ
E[|Snnμ|2]=E[|SnnE[Snn]|2]=var(Snn)=1n2var(Sn)=1n2var(ni=1Xi)由於 X1,...,Xn 為 uncorrelated 隨機變數,故我們有 var(ni=1Xi)=ni=1var(Xi) 將此結果帶入上式可得
E[|Snnμ|2]=1n2var(ni=1Xi)=1n2ni=1var(Xi)1n2Cn=1nC0nL2-convergence。又 L2 convergence 保證 convergence in Probability,故
P(|Snnμ|>ε)0    

現在問題變成若我們想要拓展上述的 Weak law (e.g., 拔除 finite 2nd moment 條件 ),則我們必須引入一些新的定義如下:

============================
Definition: Tail Equivalence of Two Sequences of Random Variables
我們說兩隨機變數的 sequences {Xn}{Yn} 為 Tail Equivalent 若下列條件成立
nP(XnYn)<===========================

============================
Definition: Truncation Function
定義以下剪切函數(truncation function)
X1|X|M:={X,|X|M0,|X|>M============================


首先看幾個結果
FACT 1: Y0p>0
E[Yp]=0pyp1P(Y>y)dyProof: 首先觀察積分
0pyp1P(Y>y)dy=0pyp1Ω1Y>ydPdy=0Ω1Y>ypyp1dPdy=Ω01Y>ypyp1dydP=ΩY0pyp1dydP 因為 Y0pyp1dy=Yp 故代入上式可得
0pyp1P(Y>y)dy=ΩY0pyp1dydP=ΩYpdP=E[Yp]    


現在我們可以介紹 General Weak Law of Large Number:

=============================
Theorem: Weak Law of Large Number
X1,X2,... 為 i.i.d. 隨機變數 且 Sn:=X1+X2+...+Xn。若
(1) nj=1P(|Xj>n|)0
(2) 1n2nj=1E[X2j1|Xjn|]0

Sn/nμn0 in Probability 其中 an:=nj=1E[Xj1|Xj|n]
=============================

Comments
在證明之前有幾點值得注意,上述 Weak Law of Large Number 並無對 E[X2i] 有做假設

Proof
首先定義 Xnj:=Xj1|Xj|nSn:=nj=1Xnj 則觀察 Tail parts
nj=1P(XnjXj)=nj=1P(|Xj|>n)0上述收斂成立由 Hypothesis (1)。接著我們觀察
P(|SnSn|>ε)P(SnSn)P(nj=1{XnjXj})nj=1P(XnjXj)=nj=1P(|Xj|>n)0故可知
SnSn0 in Probability 
現在觀察
P(|SnESn|n>ε)E[|SnESn|2]n2ε2=var(Sn)n2ε2=var(Sn)n2ε2=1n2ε2nj=1var(Xnj)1n2ε2nj=1E[(Xnj)2]=1n2ε2nj=1E[(Xj1{|Xj|n})2]=1n2ε2nj=1E[Xj21{|Xj|n}]0    ()上式收斂結果來自 Hypothesis (2)。

注意到an:=nj=1E[Xj1|Xj|n]=E[nj=1Xj1|Xj|n]=E[Sn]故由 () 可知
SnannP0故現在觀察
Snann=SnSn+Snann=SnSnn+SnannP0

沒有留言:

張貼留言

[人工智慧] 本地端 DeepSeek R1 快速安裝:以 Macbook Pro M4 Chip為例

最近火熱的 DeepSeek R1 模型由於採用了 distill 技術,可以大幅降低計算成本,使得一般人有機會在自家筆電上跑性能逼近 Open AI ChatGPT o1的大語言模型。本文簡單介紹一步安裝在 Macbook Pro 的方法以及使用方法,以下測試採用 Macboo...