跳到主要內容

[隨機分析] Uniqueness and Existence theorem for S.D.E. (2) - Picard Iteration for SDE

延續上篇,這次要討論的是 隨機微分方程的存在性:

為了文章閱讀方便,我們首先回憶SDE的定義:

考慮 $t \in [0,T]$,SDE定義如下
\[
dX_t = \mu(t,X_t)dt + \sigma(t,X_t) dB_t, \ X(0)=x_0
\]
但注意到SDE實質上並無嚴格定義,只有定義在積分型式
\[
X_t = X_0 + \int_0^t \mu(s,X_s) ds + \int_0^t \sigma(s,X_s) dB_s
\]

有了以上的定義,我們才能比較方便的討論SDE的存在性。這邊我們再次給出SDE 存在性與唯一性定理 (與前篇相同):

=============================
Theorem (Existence and Uniqueness)
考慮 $t \in [0,T]$,SDE:
\[
dX_t = \mu(t,X_t)dt + \sigma(t,X_t) dB_t, \ X(0)=x_0 \ \ \ \ (*)
\]若其係數 $\mu, \sigma$滿足  Lipschitz condition
\[
|\mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2
\]與 Growth condition
\[
|\mu(t,x)|^2 + |\sigma(t,x)|^2 \leq K(1 + |x|^2)
\]則 $(*)$ 存在一個 Continuous adapted 的解 $X_t$ 滿足
\[
X_t = X_0 + \int_0^t \mu(s,X_s) ds + \int_0^t \sigma(s,X_s) dB_s
\]且 uniformly bounded in $L^2(dP)$;亦即
\[
\displaystyle \sup_{0 \leq t \leq T}E[X_t^2] < \infty
\]更進一步,若 $X_t$ 與 $Y_t$ 兩者都為式 $(*)$ 的 Continuous $L^2$ bounded 的解,則
\[
P(\{ X_t = Y_t, \forall \ t\in[0,T]\}) =1
\]=============================

想法:回憶ODE中存在性我們利用 Picard Iteration 來證明解的存在性。在SDE 這邊相同的idea仍然能夠幫助我們。

所以我們首先寫下 對 SDE的 Picard Iteration :

==============================
Iteration Scheme (Picard Iteration):
給定 $X_t^{(0)}:=x_0$,與下列跌代過程:
\[
X_t^{(n+1)} = x_0 + \int_0^t \mu(s, X_s^{(n)})ds + \int_0^t \sigma(s,X_s^{(n)})dBs \ \ \ \ (*)
\]==============================

那麼現在有個基本的問題就是上述所定義的 Iteration $(*)$ 是否合理呢? 要知道等號右邊是Lebesgue integral 與 Ito Integral ;故在使用此定義之前我們需先檢驗此訂法是合宜:亦即檢驗積分變數 $\sigma(t,X_t^{(n)})$ 與 $\mu(t,X_t^{(n)})$ 是否滿足某些積分條件(我們需要平方可積)。我們將此積分條件寫成以下Lemma

===============================
Lemma (Well-definedness of Picard iteration for SDE)
若 $X_t^{(n)}$ 為 $L^2$-bounded on $[0,T]$,則
\[
\sigma(t,X_t^{(n)}) \in \mathcal{H}^2[0,T] \ \text{and} \ \mu(t,X_t^{(n)}) \in L^2[[0,T]\times \Omega]
\]且更進一步,由式 $(*)$ 定義的 下一步跌代 $X_t^{(n+1)}$ 亦為 $L^2$ -bounded on $[0,T]$
==============================

Proof: 
假設 $X_t^{(n)}$ 為 $L^2$-bounded on $[0,T]$,亦即對任意$t\in[0,T]$,存在一個常數 $B$ 使得
\[
E[|X_t^{(n)}|^2] =B < \infty
\]我們可以進一步改寫
\[
 \displaystyle \sup_{0 \leq t \leq T} E[ |X_t^{(n)}|^2] = B < \infty
\]現在回憶Picard Iteration的定義
----
給定 $X_t^{(0)}:=x_0$;
\[X_t^{(n + 1)} = \underbrace {{x_0}}_{term1} + \underbrace {\int_0^t \mu  (s,X_s^{(n)})ds}_{term2} + \underbrace {\int_0^t \sigma  (s,X_s^{(n)})dBs}_{term3}
\]----
我們要證明上式 右邊滿足下列可積分條件
\[
\sigma(t,X_t^{(n)}) \in \mathcal{H}^2[0,T] \ \text{and} \ \mu(t,X_t^{(n)}) \in L^2[[0,T]\times \Omega]
\]且下一步跌代 $X_t^{(n+1)}$ 亦為 $L^2$ -bounded on $[0,T]$
故我們先進行逐項檢驗:

對term1
由 $X_t^{(0)}:=x_0$ 又因為 由假設可知 $X_t^{(n)}$ 為 $L^2$-bounded on $[0,T]$;故$X_t^{(0)}:=x_0$  為 $L^2$-bounded on $[0,T]$

對term2:
欲證 $\mu(t,X_t^{(n)}) \in L^2[[0,T]\times \Omega]$;為了方便起見,我們直接計算 $E\left[ {{{\left( {\int_0^t \mu  (s,X_s^{(n)})ds} \right)}^2}} \right ]$且利用 Cauchy-Schwarz inequality
\[
\left (\int_0^t f \cdot g \right )^2 \leq \int_0^t f^2 \int_0^t g^2
\]
將外面的平方搬到對積分變數的平方
\[E\left[ {{{\left( {\int_0^t \mu  (s,X_s^{(n)})ds} \right)}^2}} \right] \le E\left[ {\left( {\int_0^t \mu  {{(s,X_s^{(n)})}^2}ds} \right)\left( {{{\int_0^t 1 }^2}ds} \right)} \right] \\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ = t \cdot E\left[ {\left( {\int_0^t \mu  {{(s,X_s^{(n)})}^2}ds} \right)} \right]
\];現在由 Growth condition: $ |\mu(t,x)|^2 + |\sigma(t,x)|^2 \leq K(1 + |x|^2) $ 與 $t\in[0,T]$我們可推得
\[\begin{array}{l}
 \Rightarrow t \cdot E\left[ {\left( {\int_0^t \mu  {{(s,X_s^{(n)})}^2}ds} \right)} \right] \le t \cdot KE\left[ {\int_0^t {(1 + |X_s^{(n)}{|^2})} ds} \right]\\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \le T \cdot K\left[ {\int_0^t {(1 + E\left[ {|X_s^{(n)}{|^2}} \right])} ds} \right]\\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \le TK\left[ {\int_0^t {(1 + B)} ds} \right] = TK\left[ {(1 + B)T} \right]
\end{array}\]
又因為由給定的假設可知 $E[|X_t^{(n)}|^2] =B < \infty$:故上式可進一步改寫
\[\begin{array}{l}
 \Rightarrow E\left[ {{{\left( {\int_0^t \mu  (s,X_s^{(n)})ds} \right)}^2}} \right] \le {T^2}K(1 + B) < \infty
\end{array}
\]且由先前推導中可知我們亦有如下結果
\[E\left[ {\int_0^t \mu  {{(s,X_s^{(n)})}^2}ds} \right] \le TK(1 + B)\]
此結果說明$\mu(t,X_t^{(n)}) \in L^2[[0,T]\times \Omega]$。

對term3:
欲證 $\sigma(t,X_t^{(n)}) \in \mathcal{H}^2[0,T]$;由 $\mathcal{H}^2[0,T]$定義我們觀察
\[
E\left[ {\int_0^t {{{\left| {\sigma (s,X_s^{(n)})} \right|}^2}} ds} \right] \ \text{for $t \in [0,T]$}
\]由 Growth condition: $ |\mu(t,x)|^2 + |\sigma(t,x)|^2 \leq K(1 + |x|^2) $ 與 $t\in[0,T]$我們可推得
\[\begin{array}{l}
E\left[ {\int_0^t {{{\left| {\sigma (s,X_s^{(n)})} \right|}^2}} ds} \right] \le E\left[ {\int_0^t {K(1 + |X_s^{(n)}{|^2})} ds} \right]\\
 \Rightarrow E\left[ {\int_0^t {{{\left| {\sigma (s,X_s^{(n)})} \right|}^2}} ds} \right] \le \int_0^t {K(1 + E|X_s^{(n)}{|^2})} ds\\
 \Rightarrow E\left[ {\int_0^t {{{\left| {\sigma (s,X_s^{(n)})} \right|}^2}} ds} \right] \le K\int_0^t {(1 + B)} dBs = tK(1 + B)\\
 \Rightarrow E\left[ {\int_0^t {{{\left| {\sigma (s,X_s^{(n)})} \right|}^2}} ds} \right] \le TK(1 + B) <infty
\end{array}
\]故$\sigma(t,X_t^{(n)}) \in \mathcal{H}^2[0,T]$,因此我們可以使用Ito isometry:
\[E\left[ {{{\left( {\int_0^t \sigma  (s,X_s^{(n)})dBs} \right)}^2}} \right] = E\left[ {\int_0^t \sigma  {{(s,X_s^{(n)})}^2}ds} \right]
\]由Growth condition: $ |\mu(t,x)|^2 + |\sigma(t,x)|^2 \leq K(1 + |x|^2) $ 與 $t\in[0,T]$可推得
\[\begin{array}{l}
 \Rightarrow E\left[ {{{\left( {\int_0^t \sigma  (s,X_s^{(n)})dBs} \right)}^2}} \right] \le KE\left[ {\int_0^t {(1 + |X_s^{(n)}{|^2})} ds} \right]\\
 \Rightarrow E\left[ {{{\left( {\int_0^t \sigma  (s,X_s^{(n)})dBs} \right)}^2}} \right] \le K\left[ {\int_0^t {(1 + E\left[ {|X_s^{(n)}{|^2}} \right])} ds} \right]\\
 \Rightarrow E\left[ {{{\left( {\int_0^t \sigma  (s,X_s^{(n)})dBs} \right)}^2}} \right] \le TK(1 + B)
\end{array}
\]最後我們要證明下一步跌代 $X_t^{(n+1)}$ 亦為 $L^2$ -bounded on $[0,T]$;亦即要證明
\[
\displaystyle \sup_{0 \leq t \leq T} E[ |X_t^{(n+1)}|^2] < \infty
\]我們利用一個基本的FACT: $(u+v+w)^2 \leq 3(u^2 + v^2 +w^2) $;故可得
\[
E\left[ {{{\left( {X_t^{(n + 1)}} \right)}^2}} \right] = E\left[ {{{\left( {{x_0} + \int_0^t \mu  (s,X_s^{(n)})ds + \int_0^t \sigma  (s,X_s^{(n)})dBs} \right)}^2}} \right]\\
\Rightarrow E\left[ {{{\left( {X_t^{(n + 1)}} \right)}^2}} \right] \le 3E\left[ \begin{array}{l}
{x_0}^2 + {\left( {\int_0^t \mu  (s,X_s^{(n)})ds} \right)^2}\\
 \ \ \ \ \ \ + {\left( {\int_0^t \sigma  (s,X_s^{(n)})dBs} \right)^2}
\end{array} \right] < \infty \]
至此證明完畢。亦即我們的Picard iteration 是well-defined 且 $L^2$ bounded on $[0,T]$。


在有了以上結果之後,下一步便是要證明我們的Picard Iteration 確實會收斂到某個limit,且我們如果能驗證此limit為SDE的解 (符合存在性定理的條件)。則我們便可說在這些條件之下SDE的解存在。進而透過之前介紹的唯一性條件。可知此SDE的解存在 且唯一。

這些步驟將留待下一篇文章我們再進行介紹。

留言

這個網誌中的熱門文章

[數學分析] 什麼是若且唯若 "if and only if"

數學上的 if and only if  ( 此文不討論邏輯學中的 if and only if,只討論數學上的 if and only if。) 中文翻譯叫做  若且唯若 (or 當且僅當) , 記得當初剛接觸這個詞彙的時候,我是完全不明白到底是甚麼意思,查了翻譯也是愛莫能助,畢竟有翻跟沒翻一樣,都是有看沒有懂。 在數學上如果看到 if and only if  這類的句子,其實是表示一種 雙條件句 ,通常可以直接將其視為" 定義(Definition)" 待之,今天要分享的是這樣的一個句子如何用比較直觀的方法去看他 假設我們現在有 兩個邏輯陳述句 A 與  B. 注意到,在此我們不必考慮這兩個陳述句到底是什麼,想表達什麼,或者到底是否為真(true),這些都不重要。只要知道是兩個陳述即可。 現在,考慮新的陳述:  "A if and only if B" 好了,現在主角登場,我們可以怎麼看待這個句子呢? 事實上我們可以很直覺的把這句子拆成兩部分看待,也就是 "( A if B ) and ( A only if B )" 那麼先針對第一個部分  A if B  來看, 其實這句就是說  if B then A, 更直白一點就是 "if B is true, then A is also true".  在數學上等價可以寫為 "B implies A" .  或者更常用一個箭頭符號來表示 "B $\Rightarrow$  A"  現在針對第二個部分  A only if B 此句意指  "If B is not true, then A is also not true". 所以如果已知 A is true,  那麼按照上句不難推得 B is also true 也就是說  A only if B  等價為 "If A is true then B is also true". 同樣,也可以寫作   "A implies B"   或者用箭頭表示  "A   $\Rightarrow$     B".

[數學分析] 淺談各種基本範數 (Norm)

這次要介紹的是數學上一個重要的概念: Norm: 一般翻譯成 範數 (在英語中 norm 有規範的意思,比如我們說normalization就是把某種東西/物品/事件 做 正規化,也就是加上規範使其正常化),不過個人認為其實翻譯成 範數 也是看不懂的...這邊建議把 Norm 想成長度就好 (事實上norm是長度的抽象推廣), 也許讀者會認為好端端的長度不用,為何又要發明一個 norm 來自討苦吃?? 既抽象又艱澀。 事實上想法是這樣的: 比如說現在想要比較兩個數字 $3$ , $5$ 之間的大小,則我們可以馬上知道 $ 3 < 5 $;同樣的,如果再考慮小數與無理數如 $1.8753$ 與 $\pi$,我們仍然可以比較大小 $1.8753 < \pi = 3.1415...$ 故可以發現我們有辦法對 "純量" 做明確的比大小,WHY? 因為前述例子中 $3$, $5$, $1.8753$ or $\pi$ 其各自的大小有辦法被 "measure "! 但是如果是現在考慮的是一組數字 我們如何去measure 其大小呢?? 比如說 \[x:=[1, -2, 0.1, 0 ]^T \]上式的大小該是多少? 是 $1$? $-2$? $0.1$??? 再者如果更過分一點,我們考慮一個矩陣 \[A = \left[ {\begin{array}{*{20}{c}} 1&2\\ 3&4 \end{array}} \right] \],想要知道這個矩陣的大小又該怎麼辦?? 是 $1$ ? $2$ 還是 $4$ ?..其實現階段我們說不清楚。 也正是如此,可以發現我們確實需要新的 "長度" 的定義來幫助我們如何去 measure 矩陣/向量/甚至是函數的大小。 故此,我們首先定義甚麼是Norm,(也就是把 "長度" or "大小" 的本質抽離出來) ================== Definition: Norm 考慮 $V$ 為一個向量空間(Vector space),則我們說  Norm 為一個函數 $||\cdot|| : V \rightarrow \mathbb{R}$ 且滿足下列性質