跳到主要內容

[隨機分析] Uniqueness and Existence theorem for S.D.E. (4) - The Existence of Solution

延續前篇。繼續逐步完成 Existence 的證明:
現在我們有Picard iteration 與 如下 LEMMA

==============================
Iteration Scheme (Picard Iteration):
給定 $X_t^{(0)}:=x_0$,與下列跌代過程:
\[
X_t^{(n+1)} = x_0 + \int_0^t \mu(s, X_s^{(n)})ds + \int_0^t \sigma(s,X_s^{(n)})dBs \ \ \ \ (*)
\]==============================

===============================
Lemma 
若 $\mu, \sigma$ 滿足Lipschitz condtion:
\[
| \mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2
\]則存在一個常數 $C$ 使得 由Picard iteration所定義的隨機過程 $X_t^{(n)}$滿足下列不等式:
\[
E \left[ \displaystyle \sup_{0 \leq s \leq t} |X_s^{(n+1)} - X_s^{(n)}|^2 \right ] \leq C \int_0^t E \left[ | X_s^{(n)} - X_s^{(n-1)}|^2 \right ]
\]===============================

有了這個Lemma 我們便可以開始證明Picard iteration 的跌代過程sequence $X_t^{(n)} \rightarrow X_t$ almost surely。(why we need almost surely?) 因為事實上我們需要證明SDE的解為連續,為了要保持連續性,我們需要almost sure uniformly convergence。故想法如下:

注意到為了要證明 uniform convergence,我們需要先製造出Cauchy Sequence 再透過Completeness 推得 Picard iteration 產生的 $X_t^{(n)} \rightarrow X_t$ almost surely & uniformly。

現在令
\[
g_n(t) := E[\sup_{0\leq s \leq t} | X_s^{(n+1)} - X_s^{(n)}|^2]
\]
則Lemma告訴我們
\[\begin{array}{l}
E\left[ {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}{|^2}} \right] \le C\int_0^t E \left[ {|X_s^{(n)} - X_s^{(n - 1)}{|^2}} \right]\\
 \Rightarrow {g_n}(t) \le C\int_0^t {{g_{n - 1}}(s)ds} \ \ \ \ (\star)
\end{array}
\]注意到對$t \in [0,T]$,存在一個常數$M$ 使得 $g_0(t) \leq M$ (WHY?)


;利用 $(\star)$我們可以計算下一步跌代的上界為 ${g_1}(t) \le MCt$,且by induction,可以推得對第$n$步跌代的上界為
\[
\Rightarrow {g_n}(t) \le M{C^n}\frac{{{t^n}}}{{n!}}
\]由Markov inequality: $P\left( {X \ge a} \right) \le \frac{{E\left[ {{X^r}} \right]}}{{{a^r}}}, \ r > 0$可知
\[\begin{array}{l}
P\left( {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| \ge {2^{ - n}}} \right) \le \frac{{E\left[ {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}{|^2}} \right]}}{{{{\left( {{2^{ - n}}} \right)}^2}}}\\
 \Rightarrow P\left( {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| \ge {2^{ - n}}} \right) \le \left( {\frac{1}{{{2^{ - 2n}}}}} \right)\left( {M{C^n}\frac{{{t^n}}}{{n!}}} \right)\\
 \Rightarrow P\left( {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| \ge {2^{ - n}}} \right) \le \frac{{M{C^n}{T^n}{2^{2n}}}}{{n!}}
\end{array}
\]上述機率為summable (亦即加到無窮大不會爆掉,因為 分母項的 $n!$ dominated 分子項,故當 $n$ 夠大的時候,上式收斂到0)。

現在我們手上有summable的機率,則由 Borel-Cantelli Lemma 給予我們Almost surely limit。
----
Borel Cantelli Lemma
若 $\{A_i \}$ 為任意事件sequence,則
\[
\displaystyle \sum_{i=1}^\infty P(\{ A_i \}) < \infty \Rightarrow P \left (\displaystyle \sum_{i=1}^\infty 1_{\{ A_i \}} <\infty \right) =1
\]----

也就是說事件
\[\{ {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| \ge {2^{ - n}}} \}\]只會發生有限次。故我們得到 對$n$夠大的時候,我們有
\[
{\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| < {2^{ - n}}} \ \text{almost surely (a.s.)}
\]亦即對$n$夠大的時候,我們有 almost surely 的 Cauchy sequence of functions。
\[
||X_s^{(n + 1)} - X_s^{(n)}|| < {2^{ - n}} \ a.s.
\]由 Completeness 與 FACT: Cauchy sequence of functions 必為 uniform convergence,我們可知極限存在且連續性被保證。我們稱此almost sure continuous limit 為 $X_t$亦即
\[X_t^{\left( n \right)} \to {X_t} \ \ a.s. \]

接著如果我們可以證明極限 $X_t$ 是 $L^2$ boundedness;則我們就可得到
\[
X_t^{(n)} \rightarrow X_t \in L^2(dP), \ \forall \ t\in [0,T]
\]
故現在觀察
\[\begin{array}{l}
E\left[ {{{\left( {X_t^{\left( {n + 1} \right)} \to X_t^{\left( n \right)}} \right)}^2}} \right] \le {g_n}(t) \le \frac{{M{C^n}{T^n}{2^{2n}}}}{{n!}}\\
 \Rightarrow {\left( {E\left[ {{{\left( {X_t^{\left( {n + 1} \right)} \to X_t^{\left( n \right)}} \right)}^2}} \right]} \right)^{1/2}} \le {\left( {\frac{{M{C^n}{T^n}{2^{2n}}}}{{n!}}} \right)^{1/2}}\\
 \Rightarrow {\left\| {X_t^{\left( n \right)} \to {X_t}} \right\|_{{L^2}\left( {dP} \right)}} \le {\left( {\frac{{M{C^n}{T^n}{2^{2n}}}}{{n!}}} \right)^{1/2}}
\end{array}\]
也就是說$X_t^{(n)}$ 為 Cauchy sequence in $L^2$。又由先前證明我們知道$X_t^{n)}$ 有 almost sure 極限。
\[\left\{ \begin{array}{l}
X_t^{\left( n \right)} \to {X_t}\begin{array}{*{20}{c}}
{}
\end{array}{\rm{in}}\begin{array}{*{20}{c}}
{}
\end{array}{L^2}\\
X_t^{\left( n \right)} \to {X_t}\begin{array}{*{20}{c}}
{}
\end{array}{\rm{a}}{\rm{.s}}{\rm{.}}
\end{array} \right.\]由極限的唯一性我們知道此兩個極限 ($L^2$ limit 與 $a.s$ limit) 必須相等。

現在我們開始利用 $L^2$ limit 來幫助我們計算
\[{\left\| {\int_0^t {\sigma (s,X_s^{(n)})} d{B_s} - \int_0^t {\sigma (s,{X_s})} d{B_s}} \right\|_{{L_2}}} \\
= E{\left[ {{{\left( {\int_0^t {\left[ {\sigma (s,X_s^{(n)}) - \sigma (s,{X_s})} \right]} d{B_s}} \right)}^2}} \right]^{1/2}}
\]由Ito isometry可知
\[ \Rightarrow E{\left[ {\int_0^t {{{\left[ {\sigma (s,X_s^{(n)}) - \sigma (s,{X_s})} \right]}^2}} ds} \right]^{1/2}} \ \ \ \ (\star \star)\]
再由Lipschitz condition 與 三角不等式 我們可得
\[\begin{array}{l}
 \Rightarrow (\star \star) \le {K^{1/2}}E{\left[ {\int_0^t {{{\left| {X_s^{(n)} - {X_s}} \right|}^2}} ds} \right]^{1/2}}\begin{array}{*{20}{c}}
{}
\end{array}\left( {{\rm{Lipschitz}}{\rm{.}}} \right)\\
\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array} \le {K^{1/2}}\sum\limits_{m = n}^\infty  {{{\left\{ {E\left[ {\int_0^t {{{\left| {X_s^{m + 1} - {X_s}^{\left( m \right)}} \right|}^2}} ds} \right]} \right\}}^{1/2}}} \\
\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array} \le {K^{1/2}}\sum\limits_{m = n}^\infty  {{{\left( {\int_0^t {{g_m}\left( s \right)ds} } \right)}^{1/2}}}  \to 0\begin{array}{*{20}{c}}
{}
\end{array}. \left( {{\rm{\Delta  - ineq}}{\rm{.}}} \right)
\end{array}\]最後式成立是因為由Lemma的結果得知其收斂。
同樣的對 $n \rightarrow \infty$
\[\int_0^t {{{\left[ {\mu (s,X_s^{(n)}) - \mu (s,{X_s})} \right]}^2}} ds \to 0
\]
故我們現在有
\[\left\{ \begin{array}{l}
\int_0^t {\mu (s,X_s^{(n)})} ds \to \int_0^t {\mu (s,{X_s})} ds,\begin{array}{*{20}{c}}
{}
\end{array}in\begin{array}{*{20}{c}}
{}
\end{array}{L^2}\\
\int_0^t {\sigma (s,X_s^{(n)})} ds \to \int_0^t {\sigma (s,{X_s})} ds,\begin{array}{*{20}{c}}
{}
\end{array}in\begin{array}{*{20}{c}}
{}
\end{array}{L^2}
\end{array} \right.
\]現在我們可以檢驗 $X_t$ 確實為SDE的解:
令$n \rightarrow \infty$,觀察 Picard iteration
\[
X_t^{(n+1)} = x_0 + \int_0^t \mu(s, X_s^{(n)})ds + \int_0^t \sigma(s,X_s^{(n)})dBs \ \ \ \ (*)
\]上式的左邊,我們知道
\[
X_t^{(n)} \rightarrow X_t \ \text{uniformly on $[0,T]$}
\]至於上式右方,我們由$L^2$ convergence 表示 存在一個 almost convergent 的子序列 (subsequence);故對任意固定 $t \in [0,T]$我們有一個subsequence $\{n_k\}$使得
\[\left\{ \begin{array}{l}
\int_0^t {\mu (s,X_s^{({n_k})})} ds \to \int_0^t {\mu (s,{X_s})} ds,\begin{array}{*{20}{c}}
{}
\end{array}a.s.\begin{array}{*{20}{c}}
{}
\end{array}\forall t \in \left[ {0,T} \right] \cap \mathbb{Q} \\
\int_0^t {\sigma (s,X_s^{({n_k})})} dB_s \to \int_0^t {\sigma (s,{X_s})} dB_s,\begin{array}{*{20}{c}}
{}
\end{array}a.s.\begin{array}{*{20}{c}}
{}
\end{array}\forall t \in \left[ {0,T} \right] \cap \mathbb{Q}
\end{array} \right.
\]因此,若我們取 $n_k \rightarrow \infty$,則可得到
\[{X_t} = {x_0} + \int_0^t {\mu (s,{X_s})} ds + \int_0^t {\sigma (s,{X_s})} dB_s\] 對 $\forall t \in [0,T] \cap \mathbb{Q}$。
最後,因為上式左右兩邊為連續,故對 $\forall t \in [0,T] \cap \mathbb{Q}$ 成立的結果可以被拓展到 $\forall t \in [0,T]$ 至此證明完畢。 $\square$





留言

這個網誌中的熱門文章

[數學分析] 什麼是若且唯若 "if and only if"

數學上的 if and only if  ( 此文不討論邏輯學中的 if and only if,只討論數學上的 if and only if。) 中文翻譯叫做  若且唯若 (or 當且僅當) , 記得當初剛接觸這個詞彙的時候,我是完全不明白到底是甚麼意思,查了翻譯也是愛莫能助,畢竟有翻跟沒翻一樣,都是有看沒有懂。 在數學上如果看到 if and only if  這類的句子,其實是表示一種 雙條件句 ,通常可以直接將其視為" 定義(Definition)" 待之,今天要分享的是這樣的一個句子如何用比較直觀的方法去看他 假設我們現在有 兩個邏輯陳述句 A 與  B. 注意到,在此我們不必考慮這兩個陳述句到底是什麼,想表達什麼,或者到底是否為真(true),這些都不重要。只要知道是兩個陳述即可。 現在,考慮新的陳述:  "A if and only if B" 好了,現在主角登場,我們可以怎麼看待這個句子呢? 事實上我們可以很直覺的把這句子拆成兩部分看待,也就是 "( A if B ) and ( A only if B )" 那麼先針對第一個部分  A if B  來看, 其實這句就是說  if B then A, 更直白一點就是 "if B is true, then A is also true".  在數學上等價可以寫為 "B implies A" .  或者更常用一個箭頭符號來表示 "B $\Rightarrow$  A"  現在針對第二個部分  A only if B 此句意指  "If B is not true, then A is also not true". 所以如果已知 A is true,  那麼按照上句不難推得 B is also true 也就是說  A only if B  等價為 "If A is true then B is also true". 同樣,也可以寫作   "A implies B"   或者用箭頭表示  "A   $\Rightarrow$     B".

[數學分析] 淺談各種基本範數 (Norm)

這次要介紹的是數學上一個重要的概念: Norm: 一般翻譯成 範數 (在英語中 norm 有規範的意思,比如我們說normalization就是把某種東西/物品/事件 做 正規化,也就是加上規範使其正常化),不過個人認為其實翻譯成 範數 也是看不懂的...這邊建議把 Norm 想成長度就好 (事實上norm是長度的抽象推廣), 也許讀者會認為好端端的長度不用,為何又要發明一個 norm 來自討苦吃?? 既抽象又艱澀。 事實上想法是這樣的: 比如說現在想要比較兩個數字 $3$ , $5$ 之間的大小,則我們可以馬上知道 $ 3 < 5 $;同樣的,如果再考慮小數與無理數如 $1.8753$ 與 $\pi$,我們仍然可以比較大小 $1.8753 < \pi = 3.1415...$ 故可以發現我們有辦法對 "純量" 做明確的比大小,WHY? 因為前述例子中 $3$, $5$, $1.8753$ or $\pi$ 其各自的大小有辦法被 "measure "! 但是如果是現在考慮的是一組數字 我們如何去measure 其大小呢?? 比如說 \[x:=[1, -2, 0.1, 0 ]^T \]上式的大小該是多少? 是 $1$? $-2$? $0.1$??? 再者如果更過分一點,我們考慮一個矩陣 \[A = \left[ {\begin{array}{*{20}{c}} 1&2\\ 3&4 \end{array}} \right] \],想要知道這個矩陣的大小又該怎麼辦?? 是 $1$ ? $2$ 還是 $4$ ?..其實現階段我們說不清楚。 也正是如此,可以發現我們確實需要新的 "長度" 的定義來幫助我們如何去 measure 矩陣/向量/甚至是函數的大小。 故此,我們首先定義甚麼是Norm,(也就是把 "長度" or "大小" 的本質抽離出來) ================== Definition: Norm 考慮 $V$ 為一個向量空間(Vector space),則我們說  Norm 為一個函數 $||\cdot|| : V \rightarrow \mathbb{R}$ 且滿足下列性質