這次要介紹的是 隨機微分方程的存在與唯一性定理:
介紹定理之前我們先回憶一下隨機微分方程(Stochastic Differential Equation, SDE)長甚麼樣子
考慮 $t \in [0,T]$,SDE定義如下
\[
dX_t = \mu(t,X_t)dt + \sigma(t,X_t) dB_t, \ X(0)=x_0
\]
但注意到SDE實質上並無嚴格定義,只有定義在積分型式
\[
X_t = X_0 + \int_0^t \mu(s,X_s) ds + \int_0^t \sigma(s,X_s) dB_s
\]
但問題是如果給定一個SDE,我們想問甚麼時候有解? 該怎麼辦? 存在性與唯一性定理告訴我們在甚麼樣的條件之下,SDE存在有解,且此解為唯一。
在回答這個問題之前,我們需要一個積分不等式的 FACT。
========================
FACT: (Gronwall's inequality)
考慮 $t \in [0,T]$,且 $g \in L^1[0,T]$,若 $g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B$ ,則
\[
g(t) \leq B \cdot e^{C (t-t_0)}
\]========================
Proof
設 $g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B$ ,我們需要證明
\[
g(t) \leq B \cdot e^{C (t-t_0)}
\]已知
\[\begin{array}{l}
\frac{d}{{dt}}\left( {{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} } \right) = - C{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} + {e^{ - Ct}}g\left( t \right)\\
\Rightarrow \frac{d}{{dt}}\left( {{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} } \right) = {e^{ - Ct}}\left[ {g\left( t \right) - C\int_{{t_0}}^t {g\left( s \right)ds} } \right]
\end{array}
\]由我們的假設 $g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B$ 可知
\[\frac{d}{{dt}}\left( {{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} } \right) \le B \cdot {e^{ - Ct}}
\]兩邊同積分,可得
\[\begin{array}{l}
\int_{{t_0}}^t {\frac{d}{{dt}}\left( {{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} } \right)} ds \le B \cdot \int_{{t_0}}^t {{e^{ - Cs}}} ds\\
\Rightarrow {e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} \le B \int_{{t_0}}^t {{e^{ - Cs}}} ds = \frac{{ B \cdot }}{C}\left( {{e^{ - Ct}} - {e^{ - C{t_0}}}} \right)
\end{array}\]
亦即
\[ \Rightarrow \int_{{t_0}}^t {g\left( s \right)ds} \le B{e^{Ct}}\frac{{{{\rm{e}}^{ - C{t_0}}} - {{\rm{e}}^{ - Ct}}}}{C} = \frac{B}{C}\left( {{e^{C\left( {t - {t_0}} \right)}} - 1} \right)
\]現在把上式帶回我們的假設
\[\begin{array}{l}
g(t) \le C \cdot \int_{{t_0}}^t g (s)ds + B \le C \cdot \left( {\frac{B}{C}\left( {{e^{C\left( {t - {t_0}} \right)}} - 1} \right)} \right) + B = B{e^{C\left( {t - {t_0}} \right)}}\\
\Rightarrow g(t) \le B{e^{C\left( {t - {t_0}} \right)}}
\end{array}
\] 即為所求。$\square$
有了以上結果我們便可以開始討論存在性與唯一性定理。現在我們給出 SDE的存在性與唯一性定理:
=============================
Theorem (Existence and Uniqueness)
考慮 $t \in [0,T]$,SDE:
\[
dX_t = \mu(t,X_t)dt + \sigma(t,X_t) dB_t, \ X(0)=x_0 \ \ \ \ (*)
\]若其係數 $\mu, \sigma$滿足 Lipschitz condition
\[
|\mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2
\]與 Growth condition
\[
|\mu(t,x)|^2 + |\sigma(t,x)|^2 \leq K(1 + |x|^2)
\]則 $(*)$ 存在一個 Continuous adapted 的解 $X_t$ 且 uniformly bounded in $L^2(dP)$;亦即
\[
\displaystyle \sup_{0 \leq t \leq T}E[X_t^2] < \infty
\]更進一步,若 $X_t$ 與 $Y_t$ 兩者都為式 $(*)$ 的 Continuous $L^2$ bounded 的解,則
\[
P(\{ X_t = Y_t, \forall \ t\in[0,T]\}) =1
\]=============================
Proof
先證明 Uniqueness
Idea: 兩個 Solution 的差 $X_t -Y_t =0$
故令 $X_t$ 與 $Y_t$ 皆滿足 SDE $(*)$並有相同的初始條件 $X_0 = Y_0$,亦即
\[
X_t = X_0 + \int_0^t \mu(s,X_s) ds + \int_0^t \sigma(s,X_s) dB_s \\
Y_t = Y_0 + \int_0^t \mu(s,Y_s) ds + \int_0^t \sigma(s,Y_s) dB_s
\]現在觀察此兩者的差
\[
X_t -Y_t = \int_0^t ( \mu(s,X_s) - \mu(s,Y_s) )ds + \int_0^t ( \sigma(s,X_s) -\sigma(s,Y_s) )dB_s
\]
現在利用一個Trick: $(u+v)^2 \leq 2 u^2 + 2v^2$;我們可推得上式為
\[{\left| {{X_t} - {Y_t}} \right|^2} \le 2{\left[ {\int_0^t {(\mu (} s,{X_s}) - \mu (s,{Y_s}))ds} \right]^2} \\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ + 2{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \ \ \ \ (\star)
\]
對於 $(\star)$ 不等式右邊的第一項,我們可透過 Cauchy-Schwarz inequality (TRICK 1): $\left (\int_0^t f \cdot g \right)^2 \leq \int_0^t f^2 \cdot \int_0^t g^2$,我們可進一步對上式做出估計
\[
2\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]\left[ {\int_0^t {{1^2}} ds} \right] \\
\ \ \ \ \ \ \ \ \ \ \ = {\rm{ }}2t\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]
\]又由 Lipschitz condition
\[
|\mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2
\]我們知道
\[ {2t\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]} \le 2t\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]
\]
現在我們觀察 $(\star)$ 不等式右邊的第二項:
注意到如果我們對其取期望值,則由 Ito Isometry 可以得到
\[2 \cdot E{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} = 2 \cdot E\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}){)^2}ds} \right]
\]又由 Lipschitz condition 我們知道
\[
2 \cdot E\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}){)^2}ds} \right] \le 2 \cdot E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] \\
\Rightarrow 2 \cdot E{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \le 2 \cdot E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]
\]
上式Ito isometry make sense,因為 L^2 boundedness of $|X_t - Y_t|$。
故現在將已有的結果整理:
\[\begin{array}{l}
E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le E\left\{ \begin{array}{l}
2{\left[ {\int_0^t {(\mu (} s,{X_s}) - \mu (s,{Y_s}))ds} \right]^2}\\
+ 2{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2}
\end{array} \right\}\\
\Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le 2t{\rm{E}}\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] + 2 E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]\\
\Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le \left( {2t + 2} \right)K \cdot E\left[ {\int_0^t {{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] \\
\Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le \left( {2t + 2} \right)K \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds
\end{array}
\]為簡潔起見,我們定義一個常數 $C \geq 2K \cdot (2t+2)$ 且令 $g(t) = E[|X_t - Y_t|^2]$;故得到
\[
E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le C \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds
\]也就是說
\[
{\rm{0}} \le g\left( t \right) \le C \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds = C \cdot \int_0^t {g\left( s \right)} ds \ \ \ \ (**)
\]現在由 Gronwall's inequality,
----
FACT: (Gronwall's inequality)
考慮 $t \in [0,T]$,且 $g \in L^1[0,T]$,若 $g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B$ ,則
\[
g(t) \leq B \cdot e^{C (t-t_0)}
\]----
可知我們的 $B =0, t_0 =0$,故 Gronwall's inequality告訴我們
\[
g(t) \leq 0
\] 又由 $(**)$ 我們知道 $ 0 \leq g(t)$;故我們得到對所有的 $t \in [0,T]$
\[
g(t)=0 \Rightarrow g(t) = E[|X_t - Y_t|^2] =0
\]
亦即,如果我們對所有的有理數 $t \in [0,T]$,使用 $g(t)=0$,則有如下關係
\[
P(\{ X_t = Y_t, \forall \ \text{rational} \ t\in [0,T] \}) =1
\]
再者因為$X_t, Y_t$ 為連續,故由連續性可知
\[
P(\{ X_t = Y_t, \forall \ t\in[0,T]\}) =1 \ \ \ \ \square
\]
介紹定理之前我們先回憶一下隨機微分方程(Stochastic Differential Equation, SDE)長甚麼樣子
考慮 $t \in [0,T]$,SDE定義如下
\[
dX_t = \mu(t,X_t)dt + \sigma(t,X_t) dB_t, \ X(0)=x_0
\]
但注意到SDE實質上並無嚴格定義,只有定義在積分型式
\[
X_t = X_0 + \int_0^t \mu(s,X_s) ds + \int_0^t \sigma(s,X_s) dB_s
\]
但問題是如果給定一個SDE,我們想問甚麼時候有解? 該怎麼辦? 存在性與唯一性定理告訴我們在甚麼樣的條件之下,SDE存在有解,且此解為唯一。
在回答這個問題之前,我們需要一個積分不等式的 FACT。
========================
FACT: (Gronwall's inequality)
考慮 $t \in [0,T]$,且 $g \in L^1[0,T]$,若 $g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B$ ,則
\[
g(t) \leq B \cdot e^{C (t-t_0)}
\]========================
Proof
設 $g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B$ ,我們需要證明
\[
g(t) \leq B \cdot e^{C (t-t_0)}
\]已知
\[\begin{array}{l}
\frac{d}{{dt}}\left( {{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} } \right) = - C{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} + {e^{ - Ct}}g\left( t \right)\\
\Rightarrow \frac{d}{{dt}}\left( {{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} } \right) = {e^{ - Ct}}\left[ {g\left( t \right) - C\int_{{t_0}}^t {g\left( s \right)ds} } \right]
\end{array}
\]由我們的假設 $g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B$ 可知
\[\frac{d}{{dt}}\left( {{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} } \right) \le B \cdot {e^{ - Ct}}
\]兩邊同積分,可得
\[\begin{array}{l}
\int_{{t_0}}^t {\frac{d}{{dt}}\left( {{e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} } \right)} ds \le B \cdot \int_{{t_0}}^t {{e^{ - Cs}}} ds\\
\Rightarrow {e^{ - Ct}}\int_{{t_0}}^t {g\left( s \right)ds} \le B \int_{{t_0}}^t {{e^{ - Cs}}} ds = \frac{{ B \cdot }}{C}\left( {{e^{ - Ct}} - {e^{ - C{t_0}}}} \right)
\end{array}\]
亦即
\[ \Rightarrow \int_{{t_0}}^t {g\left( s \right)ds} \le B{e^{Ct}}\frac{{{{\rm{e}}^{ - C{t_0}}} - {{\rm{e}}^{ - Ct}}}}{C} = \frac{B}{C}\left( {{e^{C\left( {t - {t_0}} \right)}} - 1} \right)
\]現在把上式帶回我們的假設
\[\begin{array}{l}
g(t) \le C \cdot \int_{{t_0}}^t g (s)ds + B \le C \cdot \left( {\frac{B}{C}\left( {{e^{C\left( {t - {t_0}} \right)}} - 1} \right)} \right) + B = B{e^{C\left( {t - {t_0}} \right)}}\\
\Rightarrow g(t) \le B{e^{C\left( {t - {t_0}} \right)}}
\end{array}
\] 即為所求。$\square$
有了以上結果我們便可以開始討論存在性與唯一性定理。現在我們給出 SDE的存在性與唯一性定理:
=============================
Theorem (Existence and Uniqueness)
考慮 $t \in [0,T]$,SDE:
\[
dX_t = \mu(t,X_t)dt + \sigma(t,X_t) dB_t, \ X(0)=x_0 \ \ \ \ (*)
\]若其係數 $\mu, \sigma$滿足 Lipschitz condition
\[
|\mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2
\]與 Growth condition
\[
|\mu(t,x)|^2 + |\sigma(t,x)|^2 \leq K(1 + |x|^2)
\]則 $(*)$ 存在一個 Continuous adapted 的解 $X_t$ 且 uniformly bounded in $L^2(dP)$;亦即
\[
\displaystyle \sup_{0 \leq t \leq T}E[X_t^2] < \infty
\]更進一步,若 $X_t$ 與 $Y_t$ 兩者都為式 $(*)$ 的 Continuous $L^2$ bounded 的解,則
\[
P(\{ X_t = Y_t, \forall \ t\in[0,T]\}) =1
\]=============================
Proof
先證明 Uniqueness
Idea: 兩個 Solution 的差 $X_t -Y_t =0$
故令 $X_t$ 與 $Y_t$ 皆滿足 SDE $(*)$並有相同的初始條件 $X_0 = Y_0$,亦即
\[
X_t = X_0 + \int_0^t \mu(s,X_s) ds + \int_0^t \sigma(s,X_s) dB_s \\
Y_t = Y_0 + \int_0^t \mu(s,Y_s) ds + \int_0^t \sigma(s,Y_s) dB_s
\]現在觀察此兩者的差
\[
X_t -Y_t = \int_0^t ( \mu(s,X_s) - \mu(s,Y_s) )ds + \int_0^t ( \sigma(s,X_s) -\sigma(s,Y_s) )dB_s
\]
現在利用一個Trick: $(u+v)^2 \leq 2 u^2 + 2v^2$;我們可推得上式為
\[{\left| {{X_t} - {Y_t}} \right|^2} \le 2{\left[ {\int_0^t {(\mu (} s,{X_s}) - \mu (s,{Y_s}))ds} \right]^2} \\
\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ + 2{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \ \ \ \ (\star)
\]
對於 $(\star)$ 不等式右邊的第一項,我們可透過 Cauchy-Schwarz inequality (TRICK 1): $\left (\int_0^t f \cdot g \right)^2 \leq \int_0^t f^2 \cdot \int_0^t g^2$,我們可進一步對上式做出估計
\[
2\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]\left[ {\int_0^t {{1^2}} ds} \right] \\
\ \ \ \ \ \ \ \ \ \ \ = {\rm{ }}2t\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]
\]又由 Lipschitz condition
\[
|\mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2
\]我們知道
\[ {2t\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]} \le 2t\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]
\]
現在我們觀察 $(\star)$ 不等式右邊的第二項:
注意到如果我們對其取期望值,則由 Ito Isometry 可以得到
\[2 \cdot E{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} = 2 \cdot E\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}){)^2}ds} \right]
\]又由 Lipschitz condition 我們知道
\[
2 \cdot E\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}){)^2}ds} \right] \le 2 \cdot E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] \\
\Rightarrow 2 \cdot E{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \le 2 \cdot E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]
\]
上式Ito isometry make sense,因為 L^2 boundedness of $|X_t - Y_t|$。
故現在將已有的結果整理:
\[\begin{array}{l}
E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le E\left\{ \begin{array}{l}
2{\left[ {\int_0^t {(\mu (} s,{X_s}) - \mu (s,{Y_s}))ds} \right]^2}\\
+ 2{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2}
\end{array} \right\}\\
\Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le 2t{\rm{E}}\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] + 2 E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]\\
\Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le \left( {2t + 2} \right)K \cdot E\left[ {\int_0^t {{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] \\
\Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le \left( {2t + 2} \right)K \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds
\end{array}
\]為簡潔起見,我們定義一個常數 $C \geq 2K \cdot (2t+2)$ 且令 $g(t) = E[|X_t - Y_t|^2]$;故得到
\[
E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le C \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds
\]也就是說
\[
{\rm{0}} \le g\left( t \right) \le C \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds = C \cdot \int_0^t {g\left( s \right)} ds \ \ \ \ (**)
\]現在由 Gronwall's inequality,
FACT: (Gronwall's inequality)
考慮 $t \in [0,T]$,且 $g \in L^1[0,T]$,若 $g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B$ ,則
\[
g(t) \leq B \cdot e^{C (t-t_0)}
\]----
可知我們的 $B =0, t_0 =0$,故 Gronwall's inequality告訴我們
\[
g(t) \leq 0
\] 又由 $(**)$ 我們知道 $ 0 \leq g(t)$;故我們得到對所有的 $t \in [0,T]$
\[
g(t)=0 \Rightarrow g(t) = E[|X_t - Y_t|^2] =0
\]
亦即,如果我們對所有的有理數 $t \in [0,T]$,使用 $g(t)=0$,則有如下關係
\[
P(\{ X_t = Y_t, \forall \ \text{rational} \ t\in [0,T] \}) =1
\]
再者因為$X_t, Y_t$ 為連續,故由連續性可知
\[
P(\{ X_t = Y_t, \forall \ t\in[0,T]\}) =1 \ \ \ \ \square
\]
留言
張貼留言