跳到主要內容

[隨機分析] Uniqueness and Existence theorem for S.D.E. (4) - The Existence of Solution

延續前篇。繼續逐步完成 Existence 的證明:
現在我們有Picard iteration 與 如下 LEMMA

==============================
Iteration Scheme (Picard Iteration):
給定 $X_t^{(0)}:=x_0$,與下列跌代過程:
\[
X_t^{(n+1)} = x_0 + \int_0^t \mu(s, X_s^{(n)})ds + \int_0^t \sigma(s,X_s^{(n)})dBs \ \ \ \ (*)
\]==============================

===============================
Lemma 
若 $\mu, \sigma$ 滿足Lipschitz condtion:
\[
| \mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2
\]則存在一個常數 $C$ 使得 由Picard iteration所定義的隨機過程 $X_t^{(n)}$滿足下列不等式:
\[
E \left[ \displaystyle \sup_{0 \leq s \leq t} |X_s^{(n+1)} - X_s^{(n)}|^2 \right ] \leq C \int_0^t E \left[ | X_s^{(n)} - X_s^{(n-1)}|^2 \right ]
\]===============================

有了這個Lemma 我們便可以開始證明Picard iteration 的跌代過程sequence $X_t^{(n)} \rightarrow X_t$ almost surely。(why we need almost surely?) 因為事實上我們需要證明SDE的解為連續,為了要保持連續性,我們需要almost sure uniformly convergence。故想法如下:

注意到為了要證明 uniform convergence,我們需要先製造出Cauchy Sequence 再透過Completeness 推得 Picard iteration 產生的 $X_t^{(n)} \rightarrow X_t$ almost surely & uniformly。

現在令
\[
g_n(t) := E[\sup_{0\leq s \leq t} | X_s^{(n+1)} - X_s^{(n)}|^2]
\]
則Lemma告訴我們
\[\begin{array}{l}
E\left[ {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}{|^2}} \right] \le C\int_0^t E \left[ {|X_s^{(n)} - X_s^{(n - 1)}{|^2}} \right]\\
 \Rightarrow {g_n}(t) \le C\int_0^t {{g_{n - 1}}(s)ds} \ \ \ \ (\star)
\end{array}
\]注意到對$t \in [0,T]$,存在一個常數$M$ 使得 $g_0(t) \leq M$ (WHY?)


;利用 $(\star)$我們可以計算下一步跌代的上界為 ${g_1}(t) \le MCt$,且by induction,可以推得對第$n$步跌代的上界為
\[
\Rightarrow {g_n}(t) \le M{C^n}\frac{{{t^n}}}{{n!}}
\]由Markov inequality: $P\left( {X \ge a} \right) \le \frac{{E\left[ {{X^r}} \right]}}{{{a^r}}}, \ r > 0$可知
\[\begin{array}{l}
P\left( {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| \ge {2^{ - n}}} \right) \le \frac{{E\left[ {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}{|^2}} \right]}}{{{{\left( {{2^{ - n}}} \right)}^2}}}\\
 \Rightarrow P\left( {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| \ge {2^{ - n}}} \right) \le \left( {\frac{1}{{{2^{ - 2n}}}}} \right)\left( {M{C^n}\frac{{{t^n}}}{{n!}}} \right)\\
 \Rightarrow P\left( {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| \ge {2^{ - n}}} \right) \le \frac{{M{C^n}{T^n}{2^{2n}}}}{{n!}}
\end{array}
\]上述機率為summable (亦即加到無窮大不會爆掉,因為 分母項的 $n!$ dominated 分子項,故當 $n$ 夠大的時候,上式收斂到0)。

現在我們手上有summable的機率,則由 Borel-Cantelli Lemma 給予我們Almost surely limit。
----
Borel Cantelli Lemma
若 $\{A_i \}$ 為任意事件sequence,則
\[
\displaystyle \sum_{i=1}^\infty P(\{ A_i \}) < \infty \Rightarrow P \left (\displaystyle \sum_{i=1}^\infty 1_{\{ A_i \}} <\infty \right) =1
\]----

也就是說事件
\[\{ {\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| \ge {2^{ - n}}} \}\]只會發生有限次。故我們得到 對$n$夠大的時候,我們有
\[
{\mathop {\sup }\limits_{0 \le s \le t} |X_s^{(n + 1)} - X_s^{(n)}| < {2^{ - n}}} \ \text{almost surely (a.s.)}
\]亦即對$n$夠大的時候,我們有 almost surely 的 Cauchy sequence of functions。
\[
||X_s^{(n + 1)} - X_s^{(n)}|| < {2^{ - n}} \ a.s.
\]由 Completeness 與 FACT: Cauchy sequence of functions 必為 uniform convergence,我們可知極限存在且連續性被保證。我們稱此almost sure continuous limit 為 $X_t$亦即
\[X_t^{\left( n \right)} \to {X_t} \ \ a.s. \]

接著如果我們可以證明極限 $X_t$ 是 $L^2$ boundedness;則我們就可得到
\[
X_t^{(n)} \rightarrow X_t \in L^2(dP), \ \forall \ t\in [0,T]
\]
故現在觀察
\[\begin{array}{l}
E\left[ {{{\left( {X_t^{\left( {n + 1} \right)} \to X_t^{\left( n \right)}} \right)}^2}} \right] \le {g_n}(t) \le \frac{{M{C^n}{T^n}{2^{2n}}}}{{n!}}\\
 \Rightarrow {\left( {E\left[ {{{\left( {X_t^{\left( {n + 1} \right)} \to X_t^{\left( n \right)}} \right)}^2}} \right]} \right)^{1/2}} \le {\left( {\frac{{M{C^n}{T^n}{2^{2n}}}}{{n!}}} \right)^{1/2}}\\
 \Rightarrow {\left\| {X_t^{\left( n \right)} \to {X_t}} \right\|_{{L^2}\left( {dP} \right)}} \le {\left( {\frac{{M{C^n}{T^n}{2^{2n}}}}{{n!}}} \right)^{1/2}}
\end{array}\]
也就是說$X_t^{(n)}$ 為 Cauchy sequence in $L^2$。又由先前證明我們知道$X_t^{n)}$ 有 almost sure 極限。
\[\left\{ \begin{array}{l}
X_t^{\left( n \right)} \to {X_t}\begin{array}{*{20}{c}}
{}
\end{array}{\rm{in}}\begin{array}{*{20}{c}}
{}
\end{array}{L^2}\\
X_t^{\left( n \right)} \to {X_t}\begin{array}{*{20}{c}}
{}
\end{array}{\rm{a}}{\rm{.s}}{\rm{.}}
\end{array} \right.\]由極限的唯一性我們知道此兩個極限 ($L^2$ limit 與 $a.s$ limit) 必須相等。

現在我們開始利用 $L^2$ limit 來幫助我們計算
\[{\left\| {\int_0^t {\sigma (s,X_s^{(n)})} d{B_s} - \int_0^t {\sigma (s,{X_s})} d{B_s}} \right\|_{{L_2}}} \\
= E{\left[ {{{\left( {\int_0^t {\left[ {\sigma (s,X_s^{(n)}) - \sigma (s,{X_s})} \right]} d{B_s}} \right)}^2}} \right]^{1/2}}
\]由Ito isometry可知
\[ \Rightarrow E{\left[ {\int_0^t {{{\left[ {\sigma (s,X_s^{(n)}) - \sigma (s,{X_s})} \right]}^2}} ds} \right]^{1/2}} \ \ \ \ (\star \star)\]
再由Lipschitz condition 與 三角不等式 我們可得
\[\begin{array}{l}
 \Rightarrow (\star \star) \le {K^{1/2}}E{\left[ {\int_0^t {{{\left| {X_s^{(n)} - {X_s}} \right|}^2}} ds} \right]^{1/2}}\begin{array}{*{20}{c}}
{}
\end{array}\left( {{\rm{Lipschitz}}{\rm{.}}} \right)\\
\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array} \le {K^{1/2}}\sum\limits_{m = n}^\infty  {{{\left\{ {E\left[ {\int_0^t {{{\left| {X_s^{m + 1} - {X_s}^{\left( m \right)}} \right|}^2}} ds} \right]} \right\}}^{1/2}}} \\
\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array}\begin{array}{*{20}{c}}
{}
\end{array} \le {K^{1/2}}\sum\limits_{m = n}^\infty  {{{\left( {\int_0^t {{g_m}\left( s \right)ds} } \right)}^{1/2}}}  \to 0\begin{array}{*{20}{c}}
{}
\end{array}. \left( {{\rm{\Delta  - ineq}}{\rm{.}}} \right)
\end{array}\]最後式成立是因為由Lemma的結果得知其收斂。
同樣的對 $n \rightarrow \infty$
\[\int_0^t {{{\left[ {\mu (s,X_s^{(n)}) - \mu (s,{X_s})} \right]}^2}} ds \to 0
\]
故我們現在有
\[\left\{ \begin{array}{l}
\int_0^t {\mu (s,X_s^{(n)})} ds \to \int_0^t {\mu (s,{X_s})} ds,\begin{array}{*{20}{c}}
{}
\end{array}in\begin{array}{*{20}{c}}
{}
\end{array}{L^2}\\
\int_0^t {\sigma (s,X_s^{(n)})} ds \to \int_0^t {\sigma (s,{X_s})} ds,\begin{array}{*{20}{c}}
{}
\end{array}in\begin{array}{*{20}{c}}
{}
\end{array}{L^2}
\end{array} \right.
\]現在我們可以檢驗 $X_t$ 確實為SDE的解:
令$n \rightarrow \infty$,觀察 Picard iteration
\[
X_t^{(n+1)} = x_0 + \int_0^t \mu(s, X_s^{(n)})ds + \int_0^t \sigma(s,X_s^{(n)})dBs \ \ \ \ (*)
\]上式的左邊,我們知道
\[
X_t^{(n)} \rightarrow X_t \ \text{uniformly on $[0,T]$}
\]至於上式右方,我們由$L^2$ convergence 表示 存在一個 almost convergent 的子序列 (subsequence);故對任意固定 $t \in [0,T]$我們有一個subsequence $\{n_k\}$使得
\[\left\{ \begin{array}{l}
\int_0^t {\mu (s,X_s^{({n_k})})} ds \to \int_0^t {\mu (s,{X_s})} ds,\begin{array}{*{20}{c}}
{}
\end{array}a.s.\begin{array}{*{20}{c}}
{}
\end{array}\forall t \in \left[ {0,T} \right] \cap \mathbb{Q} \\
\int_0^t {\sigma (s,X_s^{({n_k})})} dB_s \to \int_0^t {\sigma (s,{X_s})} dB_s,\begin{array}{*{20}{c}}
{}
\end{array}a.s.\begin{array}{*{20}{c}}
{}
\end{array}\forall t \in \left[ {0,T} \right] \cap \mathbb{Q}
\end{array} \right.
\]因此,若我們取 $n_k \rightarrow \infty$,則可得到
\[{X_t} = {x_0} + \int_0^t {\mu (s,{X_s})} ds + \int_0^t {\sigma (s,{X_s})} dB_s\] 對 $\forall t \in [0,T] \cap \mathbb{Q}$。
最後,因為上式左右兩邊為連續,故對 $\forall t \in [0,T] \cap \mathbb{Q}$ 成立的結果可以被拓展到 $\forall t \in [0,T]$ 至此證明完畢。 $\square$





留言

這個網誌中的熱門文章

[數學分析] 淺談各種基本範數 (Norm)

這次要介紹的是數學上一個重要的概念:

Norm:一般翻譯成範數
(在英語中 norm 有規範的意思,比如我們說normalization就是把某種東西/物品/事件 做 正規化,也就是加上規範使其正常化),不過個人認為其實翻譯成 範數 也是看不懂的...這邊建議把 Norm 想成長度就好 (事實上norm是長度的抽象推廣),

也許讀者會認為好端端的長度不用,為何又要發明一個 norm 來自討苦吃?? 既抽象又艱澀。

事實上想法是這樣的:
比如說現在想要比較兩個數字 $3$ , $5$ 之間的大小,則我們可以馬上知道 $ 3 < 5 $;同樣的,如果再考慮小數與無理數如 $1.8753$ 與 $\pi$,我們仍然可以比較大小 $1.8753 < \pi = 3.1415...$ 故可以發現我們有辦法對 "純量" 做明確的比大小,WHY? 因為前述例子中 $3$, $5$, $1.8753$ or $\pi$ 其各自的大小有辦法被 "measure "!

但是如果是現在考慮的是一組數字 我們如何去measure 其大小呢?? 比如說
\[x:=[1, -2, 0.1, 0 ]^T
\]上式的大小該是多少? 是 $1$? $-2$? $0.1$???
再者如果更過分一點,我們考慮一個矩陣
\[A = \left[ {\begin{array}{*{20}{c}}
1&2\\
3&4
\end{array}} \right]
\],想要知道這個矩陣的大小又該怎麼辦?? 是 $1$ ? $2$ 還是 $4$ ?..其實現階段我們說不清楚。

也正是如此,可以發現我們確實需要新的 "長度" 的定義來幫助我們如何去 measure 矩陣/向量/甚至是函數的大小。

故此,我們首先定義甚麼是Norm,(也就是把 "長度" or "大小" 的本質抽離出來)

==================
Definition: Norm
考慮 $V$ 為一個向量空間(Vector space),則我們說  Norm 為一個函數 $||\cdot|| : V \rightarrow \mathbb{R}$ 且滿足下列性質:

(a) $||v|| \geq 0$, $||v||=…

[分享] 台灣國內免費開放式課程推薦

近幾年由MIT開啟的開放式課程風潮 (MIT-OCW),可以說是讓國內外各大學都開始思考未來教育方式與開放式課程的之間的連結。也使得許多大型開放式課程(Massive open online course, Mooc)聯盟建立起各自的一片天地,比如個人最為推薦的 CourseraedX (目前世界最具規模的跨校大型開放式課程,由全球各個頂尖大學提供線上課程供學生免費學習的網路平台,具備線上評分/繳交作業/考試/表現完整可以得到修業證書的系統)。

不過慶幸的是,其實台灣也提供了非常多相當相當棒的開放式課程(OCW/Mooc),可以讓大家自由而且免費的線上學習,除了免除了語言上的隔閡,也讓以往沒有機會好好學習的人 (ex: 我),有機會透過網路重拾書本,進入大學殿堂再次充電。在這邊跟大家介紹幾個,我個人常去瀏覽的國內開放式課程,
交大開放式課程 (理/工/電資學院課程豐富完整,且有豐富的產/官/學/界各領域人士演講)台大開放式課程 (大量通識類/文史哲課程)清大開放式課程 (自然科學/工程科學課程豐富)台灣開放式課程聯盟 (統合各校開放式課程的總站)ewant 育網開放教育平台 (台灣/大陸交大與台灣其他學校合開課程)台灣均一教育平台 (參考國外可汗學院 (Khan Academy) 設計的互動學習網站,有許多豐富的國小/國中高中/的數理科課程:尤其以數學最為完整。)
另外在此推薦自己上過的幾門課程,因為個人是理工背景,推薦的課程多偏向理工科,但也有相當多文史哲課程都非常豐富且有趣,老師們也都教得很棒,收穫很多,在此分享給大家

==============
數理類 大學部課程:

微積分 
交大OCW: 微積分 I, II - 莊重 教授 清大OCW: 微積分 I, II - 高淑蓉 教授 (高老師的微積分風格嚴謹,整體課程頗有高微的味道,個人非常欣賞)清大OCW: 高等微積分 I - 高淑蓉 教授 ewant :  微積分 - 政大 蔡炎龍 教授 (適合微積分初學者,課程採用 互動數學軟體 Geogebra )台大OCW: 高等微積分 - 陳金次 教授台大OCW: 微積分I ,II  - 齊震宇 教授 ( 適合主修數學的學生,適合微積分初學者)台大OCW: 分析 I, II - 齊震宇 教授線性代數 交大OCW: 線性代數 I, II -莊重 教授
(莊老師講授非常清楚,…