Loading [MathJax]/jax/output/CommonHTML/jax.js

4/07/2012

[隨機分析] Uniqueness and Existence theorem for S.D.E. (3) - An intermediate result (Upper bound) of Picard Iteration

延續前篇。繼續逐步完成 Existence 的證明:
現在我們要證明Picard iteration得到的跌代解的sequence X(n)t確實會收斂。

我們把Picard iteration記在下面:
==============================
Iteration Scheme (Picard Iteration):
給定 X(0)t:=x0,與下列跌代過程:
X(n+1)t=x0+t0μ(s,X(n)s)ds+t0σ(s,X(n)s)dBs    ()==============================

那麼我們的第一步是先證明跌代解為Cauchy sequence。接著再透過 L2 space的completeness可推得此Sequence收斂。我們先證明下面的Lemma

===============================
Lemma 
μ,σ 滿足Lipschitz condtion:
|μ(t,x)μ(t,y)|2+|σ(t,x)σ(t,y)|2K|xy|2則存在一個常數 C 使得 由Picard iteration所定義的隨機過程 X(n)t滿足下列不等式:
E[sup0st|X(n+1)sX(n)s|2]Ct0E[|X(n)sX(n1)s|2]===============================

Proof:
我們需要找出一個常數C 使得上述Lemma的不等式成立,故首先觀察不等式左邊:
E[sup0st|X(n+1)sX(n)s|2]=E[sup0st|t0[μ(s,X(n)s)μ(s,X(n1)s)]ds+t0[σ(s,X(n)s)σ(s,X(n1)s)]dBs|2]為了符號簡便起見,我們定義
Dt:=t0[μ(s,X(n)s)μ(s,X(n1)s)]dsMt:=t0[σ(s,X(n)s)σ(s,X(n1)s)]dBs由FACT: (u+v)2(u2+v2)我們可知
|X(n+1)sX(n)s|2=|Ds+Ms|22(Ds2+M2s)sup0st|Ds+Ms|22sup0stDs2+2sup0stM2s現在我們分頭估計上式右方兩項:

首先對 sup0stDs2做估計,透過Cauchy-Swarz inequality,我們可知
sup0stDt2=(t0[μ(s,X(n)s)μ(s,X(n1)s)]ds)2                          (t0[μ(s,X(n)s)μ(s,X(n1)s)]2ds)(t012ds)sup0stDt2t(t0[μ(s,X(n)s)μ(s,X(n1)s)]2ds)再由Lipschitz condition: |μ(t,x)μ(t,y)|2+|σ(t,x)σ(t,y)|2K|xy|2可知
sup0stDt2Ktt0|X(n)sX(n1)s|2dssup0stDt2KTt0|X(n)sX(n1)s|2ds    ()
接著我們估計第二項:sup0stM2s

注意到 Mt 項需要Ito Isometry的幫助來計算 E[sup0stM2s],但我們會發現這次會有問題,因為我們會遭遇到 sup 在期望值裡面,故我們需先處理這個問題。

首先注意到因為Mt的積分變數 σ(s,X(n)s)σ(s,X(n1)s)H2 故可知Mt 為 Martingale,故我們可以利用Doob's maximal Lp (在此 p=2) inequality:
----
||sup0stMt||ppp1||Mt||pE[(sup0st|Mt|)p]1/ppp1E[|Mt|p]1/p---
現在利用 上述的 Doob's L2 maximal inequality,令p=2可得到如下估計
E[sup0stM2s](221)2E[|Mt|2]E[sup0stM2s]4E[|Mt|2]現在我們成功從期望值中拔除了sup,故現在可以利用Ito isometry:
E[sup0stM2s]4E[|Mt|2]=4E[t0[σ(s,X(n)s)σ(s,X(n1)s)]2ds]再由Lipschitz condtion:|μ(t,x)μ(t,y)|2+|σ(t,x)σ(t,y)|2K|xy|2,我們可進一步得到如下估計
E[sup0stM2s]4KE[t0|X(n)sX(n1)s|2ds]    ()現在我們把手邊有的結果整理,合併 ()() 可得
E[sup0st|X(n+1)sX(n)s|2]=E[2sup0stDs2+2sup0stM2s]E[sup0st|X(n+1)sX(n)s|2]2E[sup0stDs2]+2E[sup0stM2s]E[sup0st|X(n+1)sX(n)s|2]2TKE[t0|X(n)sX(n1)s|2ds]                                             +24KE[t0|X(n)sX(n1)s|2ds]E[sup0st|X(n+1)sX(n)s|2]K(2T+8)E[t0|X(n)sX(n1)s|2ds]C=K(2T+8),我們得到
E[sup0st|X(n+1)sX(n)s|2]CE[t0|X(n)sX(n1)s|2ds]故此得證

沒有留言:

張貼留言

[人工智慧] 本地端 DeepSeek R1 快速安裝:以 Macbook Pro M4 Chip為例

最近火熱的 DeepSeek R1 模型由於採用了 distill 技術,可以大幅降低計算成本,使得一般人有機會在自家筆電上跑性能逼近 Open AI ChatGPT o1的大語言模型。本文簡單介紹一步安裝在 Macbook Pro 的方法以及使用方法,以下測試採用 Macboo...