Processing math: 34%

4/03/2012

[隨機分析] Uniqueness and Existence theorem for S.D.E. (1)- Uniqueness

這次要介紹的是 隨機微分方程的存在與唯一性定理:
介紹定理之前我們先回憶一下隨機微分方程(Stochastic Differential Equation, SDE)長甚麼樣子

考慮 t[0,T],SDE定義如下
dXt=μ(t,Xt)dt+σ(t,Xt)dBt, X(0)=x0
但注意到SDE實質上並無嚴格定義,只有定義在積分型式
Xt=X0+t0μ(s,Xs)ds+t0σ(s,Xs)dBs

但問題是如果給定一個SDE,我們想問甚麼時候有解? 該怎麼辦? 存在性與唯一性定理告訴我們在甚麼樣的條件之下,SDE存在有解,且此解為唯一。

在回答這個問題之前,我們需要一個積分不等式的 FACT。

========================
FACT: (Gronwall's inequality)
考慮 t[0,T],且 gL1[0,T],若 g(t)Ctt0g(s)ds+B ,則
g(t)BeC(tt0)========================
Proof
設 g(t)Ctt0g(s)ds+B ,我們需要證明
g(t)BeC(tt0)已知
ddt(eCttt0g(s)ds)=CeCttt0g(s)ds+eCtg(t)ddt(eCttt0g(s)ds)=eCt[g(t)Ctt0g(s)ds]由我們的假設  g(t)Ctt0g(s)ds+B 可知
ddt(eCttt0g(s)ds)BeCt兩邊同積分,可得
tt0ddt(eCttt0g(s)ds)dsBtt0eCsdseCttt0g(s)dsBtt0eCsds=BC(eCteCt0)
亦即
tt0g(s)dsBeCteCt0eCtC=BC(eC(tt0)1)現在把上式帶回我們的假設
g(t)Ctt0g(s)ds+BC(BC(eC(tt0)1))+B=BeC(tt0)g(t)BeC(tt0) 即為所求。


有了以上結果我們便可以開始討論存在性與唯一性定理。現在我們給出 SDE的存在性與唯一性定理:

=============================
Theorem (Existence and Uniqueness)
考慮 t[0,T],SDE:
dXt=μ(t,Xt)dt+σ(t,Xt)dBt, X(0)=x0    ()若其係數 μ,σ滿足  Lipschitz condition
|μ(t,x)μ(t,y)|2+|σ(t,x)σ(t,y)|2K|xy|2與 Growth condition
|μ(t,x)|2+|σ(t,x)|2K(1+|x|2)() 存在一個 Continuous adapted 的解 Xt 且 uniformly bounded in L2(dP);亦即
sup更進一步,若 X_tY_t 兩者都為式 (*) 的 Continuous L^2 bounded 的解,則
P(\{ X_t = Y_t, \forall \ t\in[0,T]\}) =1 =============================

Proof
先證明 Uniqueness
Idea: 兩個 Solution 的差 X_t -Y_t =0

故令 X_tY_t 皆滿足 SDE (*)並有相同的初始條件 X_0 = Y_0,亦即
X_t = X_0 + \int_0^t \mu(s,X_s) ds + \int_0^t \sigma(s,X_s) dB_s \\ Y_t = Y_0 + \int_0^t \mu(s,Y_s) ds + \int_0^t \sigma(s,Y_s) dB_s 現在觀察此兩者的差
X_t -Y_t =  \int_0^t ( \mu(s,X_s) - \mu(s,Y_s) )ds + \int_0^t ( \sigma(s,X_s) -\sigma(s,Y_s) )dB_s
現在利用一個Trick:  (u+v)^2 \leq 2 u^2 + 2v^2;我們可推得上式為
{\left| {{X_t} - {Y_t}} \right|^2} \le 2{\left[ {\int_0^t {(\mu (} s,{X_s}) - \mu (s,{Y_s}))ds} \right]^2} \\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \  + 2{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \ \ \ \ (\star)
對於 (\star) 不等式右邊的第一項,我們可透過 Cauchy-Schwarz inequality (TRICK 1): \left (\int_0^t f \cdot g \right)^2 \leq \int_0^t f^2 \cdot \int_0^t g^2,我們可進一步對上式做出估計
2\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]\left[ {\int_0^t {{1^2}} ds} \right] \\ \ \ \ \ \ \ \ \ \ \ \ = {\rm{ }}2t\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right] 又由 Lipschitz condition
|\mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2 我們知道
{2t\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]} \le 2t\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]
現在我們觀察  (\star)  不等式右邊的第二項:
注意到如果我們對其取期望值,則由 Ito Isometry 可以得到
2 \cdot E{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} = 2 \cdot E\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}){)^2}ds} \right] 又由 Lipschitz condition 我們知道
2 \cdot E\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}){)^2}ds} \right] \le 2 \cdot E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] \\  \Rightarrow 2 \cdot E{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \le 2 \cdot E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]
上式Ito isometry make sense,因為 L^2 boundedness of |X_t - Y_t|

故現在將已有的結果整理:
\begin{array}{l} E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le E\left\{ \begin{array}{l} 2{\left[ {\int_0^t {(\mu (} s,{X_s}) - \mu (s,{Y_s}))ds} \right]^2}\\  + 2{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \end{array} \right\}\\  \Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le 2t{\rm{E}}\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] + 2 E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]\\  \Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le \left( {2t + 2} \right)K \cdot E\left[ {\int_0^t {{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] \\  \Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le \left( {2t + 2} \right)K \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds \end{array} 為簡潔起見,我們定義一個常數 C \geq 2K \cdot (2t+2) 且令 g(t) = E[|X_t - Y_t|^2];故得到
E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le C \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds 也就是說
{\rm{0}} \le g\left( t \right) \le C \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds = C \cdot \int_0^t {g\left( s \right)} ds \ \ \ \ (**) 現在由 Gronwall's inequality,
----
FACT: (Gronwall's inequality)
考慮 t \in [0,T],且 g \in L^1[0,T],若 g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B ,則
g(t) \leq B \cdot e^{C (t-t_0)} ----
可知我們的 B =0, t_0 =0,故 Gronwall's inequality告訴我們
g(t) \leq 0 又由 (**) 我們知道 0 \leq g(t);故我們得到對所有的 t \in [0,T]
g(t)=0 \Rightarrow  g(t) = E[|X_t - Y_t|^2] =0
亦即,如果我們對所有的有理數 t \in [0,T],使用 g(t)=0,則有如下關係
P(\{ X_t = Y_t, \forall \ \text{rational} \ t\in [0,T] \}) =1
再者因為X_t, Y_t 為連續,故由連續性可知
P(\{ X_t = Y_t, \forall \ t\in[0,T]\}) =1 \ \ \ \ \square

沒有留言:

張貼留言

[人工智慧] 本地端 DeepSeek R1 快速安裝:以 Macbook Pro M4 Chip為例

最近火熱的 DeepSeek R1 模型由於採用了 distill 技術,可以大幅降低計算成本,使得一般人有機會在自家筆電上跑性能逼近 Open AI ChatGPT o1的大語言模型。本文簡單介紹一步安裝在 Macbook Pro 的方法以及使用方法,以下測試採用 Macboo...