介紹定理之前我們先回憶一下隨機微分方程(Stochastic Differential Equation, SDE)長甚麼樣子
考慮 t∈[0,T],SDE定義如下
dXt=μ(t,Xt)dt+σ(t,Xt)dBt, X(0)=x0
但注意到SDE實質上並無嚴格定義,只有定義在積分型式
Xt=X0+∫t0μ(s,Xs)ds+∫t0σ(s,Xs)dBs
但問題是如果給定一個SDE,我們想問甚麼時候有解? 該怎麼辦? 存在性與唯一性定理告訴我們在甚麼樣的條件之下,SDE存在有解,且此解為唯一。
在回答這個問題之前,我們需要一個積分不等式的 FACT。
========================
FACT: (Gronwall's inequality)
考慮 t∈[0,T],且 g∈L1[0,T],若 g(t)≤C⋅∫tt0g(s)ds+B ,則
g(t)≤B⋅eC(t−t0)========================
Proof
設 g(t)≤C⋅∫tt0g(s)ds+B ,我們需要證明
g(t)≤B⋅eC(t−t0)已知
ddt(e−Ct∫tt0g(s)ds)=−Ce−Ct∫tt0g(s)ds+e−Ctg(t)⇒ddt(e−Ct∫tt0g(s)ds)=e−Ct[g(t)−C∫tt0g(s)ds]由我們的假設 g(t)≤C⋅∫tt0g(s)ds+B 可知
ddt(e−Ct∫tt0g(s)ds)≤B⋅e−Ct兩邊同積分,可得
∫tt0ddt(e−Ct∫tt0g(s)ds)ds≤B⋅∫tt0e−Csds⇒e−Ct∫tt0g(s)ds≤B∫tt0e−Csds=B⋅C(e−Ct−e−Ct0)
亦即
⇒∫tt0g(s)ds≤BeCte−Ct0−e−CtC=BC(eC(t−t0)−1)現在把上式帶回我們的假設
g(t)≤C⋅∫tt0g(s)ds+B≤C⋅(BC(eC(t−t0)−1))+B=BeC(t−t0)⇒g(t)≤BeC(t−t0) 即為所求。◻
有了以上結果我們便可以開始討論存在性與唯一性定理。現在我們給出 SDE的存在性與唯一性定理:
=============================
Theorem (Existence and Uniqueness)
考慮 t∈[0,T],SDE:
dXt=μ(t,Xt)dt+σ(t,Xt)dBt, X(0)=x0 (∗)若其係數 μ,σ滿足 Lipschitz condition
|μ(t,x)−μ(t,y)|2+|σ(t,x)−σ(t,y)|2≤K|x−y|2與 Growth condition
|μ(t,x)|2+|σ(t,x)|2≤K(1+|x|2)則 (∗) 存在一個 Continuous adapted 的解 Xt 且 uniformly bounded in L2(dP);亦即
sup更進一步,若 X_t 與 Y_t 兩者都為式 (*) 的 Continuous L^2 bounded 的解,則
P(\{ X_t = Y_t, \forall \ t\in[0,T]\}) =1 =============================
Proof
先證明 Uniqueness
Idea: 兩個 Solution 的差 X_t -Y_t =0
故令 X_t 與 Y_t 皆滿足 SDE (*)並有相同的初始條件 X_0 = Y_0,亦即
X_t = X_0 + \int_0^t \mu(s,X_s) ds + \int_0^t \sigma(s,X_s) dB_s \\ Y_t = Y_0 + \int_0^t \mu(s,Y_s) ds + \int_0^t \sigma(s,Y_s) dB_s 現在觀察此兩者的差
X_t -Y_t = \int_0^t ( \mu(s,X_s) - \mu(s,Y_s) )ds + \int_0^t ( \sigma(s,X_s) -\sigma(s,Y_s) )dB_s
現在利用一個Trick: (u+v)^2 \leq 2 u^2 + 2v^2;我們可推得上式為
{\left| {{X_t} - {Y_t}} \right|^2} \le 2{\left[ {\int_0^t {(\mu (} s,{X_s}) - \mu (s,{Y_s}))ds} \right]^2} \\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ + 2{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \ \ \ \ (\star)
對於 (\star) 不等式右邊的第一項,我們可透過 Cauchy-Schwarz inequality (TRICK 1): \left (\int_0^t f \cdot g \right)^2 \leq \int_0^t f^2 \cdot \int_0^t g^2,我們可進一步對上式做出估計
2\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]\left[ {\int_0^t {{1^2}} ds} \right] \\ \ \ \ \ \ \ \ \ \ \ \ = {\rm{ }}2t\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right] 又由 Lipschitz condition
|\mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2 我們知道
{2t\left[ {\int_0^t {(\mu (s,{X_s}) - \mu (s,{Y_s})} {)^2}ds} \right]} \le 2t\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]
現在我們觀察 (\star) 不等式右邊的第二項:
注意到如果我們對其取期望值,則由 Ito Isometry 可以得到
2 \cdot E{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} = 2 \cdot E\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}){)^2}ds} \right] 又由 Lipschitz condition 我們知道
2 \cdot E\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}){)^2}ds} \right] \le 2 \cdot E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] \\ \Rightarrow 2 \cdot E{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \le 2 \cdot E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]
上式Ito isometry make sense,因為 L^2 boundedness of |X_t - Y_t|。
故現在將已有的結果整理:
\begin{array}{l} E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le E\left\{ \begin{array}{l} 2{\left[ {\int_0^t {(\mu (} s,{X_s}) - \mu (s,{Y_s}))ds} \right]^2}\\ + 2{\left[ {\int_0^t {(\sigma (} s,{X_s}) - \sigma (s,{Y_s}))d{B_s}} \right]^2} \end{array} \right\}\\ \Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le 2t{\rm{E}}\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] + 2 E\left[ {\int_0^t {K{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right]\\ \Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le \left( {2t + 2} \right)K \cdot E\left[ {\int_0^t {{{\left| {{X_s} - {Y_s}} \right|}^2}} ds} \right] \\ \Rightarrow E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le \left( {2t + 2} \right)K \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds \end{array} 為簡潔起見,我們定義一個常數 C \geq 2K \cdot (2t+2) 且令 g(t) = E[|X_t - Y_t|^2];故得到
E\left[ {{{\left| {{X_t} - {Y_t}} \right|}^2}} \right] \le C \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds 也就是說
{\rm{0}} \le g\left( t \right) \le C \cdot \int_0^t {E\left[ {{{\left| {{X_s} - {Y_s}} \right|}^2}} \right]} ds = C \cdot \int_0^t {g\left( s \right)} ds \ \ \ \ (**) 現在由 Gronwall's inequality,
FACT: (Gronwall's inequality)
考慮 t \in [0,T],且 g \in L^1[0,T],若 g(t) \leq C \cdot \int_{t_0}^{t} g(s) ds + B ,則
g(t) \leq B \cdot e^{C (t-t_0)} ----
可知我們的 B =0, t_0 =0,故 Gronwall's inequality告訴我們
g(t) \leq 0 又由 (**) 我們知道 0 \leq g(t);故我們得到對所有的 t \in [0,T]
g(t)=0 \Rightarrow g(t) = E[|X_t - Y_t|^2] =0
亦即,如果我們對所有的有理數 t \in [0,T],使用 g(t)=0,則有如下關係
P(\{ X_t = Y_t, \forall \ \text{rational} \ t\in [0,T] \}) =1
再者因為X_t, Y_t 為連續,故由連續性可知
P(\{ X_t = Y_t, \forall \ t\in[0,T]\}) =1 \ \ \ \ \square
沒有留言:
張貼留言