Loading [MathJax]/jax/output/CommonHTML/jax.js

12/15/2010

[機率論] 特性函數(1) - Properties

給定隨機變數 X,我們可以定義其對應的特性函數 (characteristic function) 如下: ϕX(t):=E[eitX]
Comment: 
1. 特性函數可視為 Fourier Transform。
2. 特性函數只與 X 的 distribution 有關。
3. 特性函數滿足下列關係:ϕ(0)=1
|ϕX(t)|=|E[eitX]|E[|eitX|]1
4. 特性函數為 uniformly continuous on R。亦即
對任意  tR,我們有
|ϕ(t+h)ϕ(t)|=|Eei(t+h)XEei(t)X|=|E[ei(t)X(ei(h)X1)]|E[|ei(t)X(ei(h)X1)|]0as h0上述極限成立因為 Dominated Convergence Theorem。
5. 若對任意 tR n-th moment 皆存在 則
ϕX(t)=EeitX=k=0E[(itX)k]k!
且若 E|X|n< 我們亦可對其 Taylor Expansion around t=0 亦即
ϕX(t)=nk=0E[(itX)k]k!+o(tn)

Example: 若給定 隨機變數 X,YX,Y 彼此互為獨立,現在定義 Z:=X+Y,試求其 特性函數 ϕZ(t)=?

由特性函數定義:
ϕZ(t)=E[eitZ]=E[eit(X+Y)]=E[eit(X)eit(Y)]由於 XY 互為獨立,故
ϕZ(t)=E[eit(X)eit(Y)]=E[eit(X)]E[eit(Y)]=ϕX(t)ϕY(t)

Example: 現在考慮 隨機變數 sequence {Xi} 為 i.i.d. ,現在定義 Sn:=X1+X2+...+Xn,試求其 特性函數 ϕSn(t)=?
Solution
ϕSn(t)=E[eitSn]=E[eit(X1+X2+...+Xn)]=E[eit(X1+X2+...+Xn)]由於 {Xi} 為 i.i.d.,故其具有共同的 distribution,又 特性函數完全由 distribution 決定,故可知 ϕX1=ϕX2=...ϕXn:=ϕ
ϕSn(t)=E[eit(X1+X2+...+Xn)]=ni=1E[eit(Xi)]=ϕ(t)=(ϕ(t))n

Example: 同上題,考慮 隨機變數 sequence {Xi} 為 i.i.d. ,並定義 Sn:=X1+X2+...+Xn,試求其 特性函數 ϕSn/n(t)=?

Solution
ϕSn/n(t)=E[eitSnn]=E[eit(X1+X2+...+Xnn)]=E[eitn(X1+X2+...+Xn)]由於 {Xi} 為 i.i.d.,故其具有共同的 distribution,又 特性函數完全由 distribution 決定,故可知 ϕX1=ϕX2=...ϕXn:=ϕ
ϕSn/n(t)=E[eitn(X1+X2+...+Xn)]=ni=1E[eitn(Xi)]=ϕ(tn)=(ϕ(tn))n

FACT:
E|X|2<,則 φ(t)=1+itEXt2E[(itX)2]2+o(t2)

Proof:
事實上,由 先前的 comment 5 可知
ϕX(t)=1+itE[X]t2E[X2]2!+o(t2)+H.O.T.但我們僅有假設 E|X|2< 故高階項不保證有界。

但所幸我們仍有以下不等式
E|eitX(1+itE[X]t2E[X2]2!)|E[min{|tX|3,2|tX|2}]且我們可進一步確認其具有上界為
E|eitX(1+itE[X]t2E[X2]2!)|E[min{|tX|3,2|tX|2}]E[|tX|2]故由 Dominated Convergence Theorem 可知
E|eitX(1+itE[X]t2E[X2]2!)|E[min{|tX|3,2|tX|2}]E[|tX|2]E|eitX(1+itE[X]t2E[X2]2!)|0

沒有留言:

張貼留言

[人工智慧] 本地端 DeepSeek R1 快速安裝:以 Macbook Pro M4 Chip為例

最近火熱的 DeepSeek R1 模型由於採用了 distill 技術,可以大幅降低計算成本,使得一般人有機會在自家筆電上跑性能逼近 Open AI ChatGPT o1的大語言模型。本文簡單介紹一步安裝在 Macbook Pro 的方法以及使用方法,以下測試採用 Macboo...