跳到主要內容

[隨機分析] How to solve SDE practically (4) - Geometric Brownian Motion

這次要介紹的是如何直接求解隨機微分方程 (SDE)? 我們這邊將以 Geometric Brownian Motion 為例:

考慮如下 SDE:
\[
dX_t = \mu X_t dt + \sigma X_t dB_t
\] 其中 $\mu, \sigma$ 為固定常數滿足 $-\infty < \mu < \infty, \ \sigma >0$ ,且給定初始條件 $X_0$

Comment: 
1. 上述 SDE 稱為 Geometric Brownian Motion (GBM)。此 process 在財務上有重要的應用:EX: GBM 為股價波動的基本模型。

2. Compare to Arithmetic Brownian Motion (ABM):
\[
dX_t = \mu dt + \sigma dB_t
\]
Sol:
首先檢驗 Uniqueness 與 Existence :

由 SDE 的 Uniqueness 與 Existence Theorem,
考慮 $t \in [0,T]$,SDE:
\[
dX_t = \mu(t,X_t)dt + \sigma(t,X_t) dB_t, \ X(0)=x_0
\]若其係數 $\mu, \sigma$滿足  Lipschitz condition
\[
|\mu(t,x) - \mu(t,y)|^2 + |\sigma(t,x) - \sigma(t,y)|^2 \leq K |x-y|^2
\]與 Growth condition
\[
|\mu(t,x)|^2 + |\sigma(t,x)|^2 \leq K(1 + |x|^2)
\]則我們的 SDE 解存在且唯一。

故此 我們首先檢驗 Lipschitz Condition : 觀察 GBM 可知 $\mu(t, X_t) =\mu X_t$, $\sigma(t,X_t) = \sigma X_t $,計算
\[
 |(\mu x) - (\mu y){|^2} + |(\sigma x) - (\sigma y){|^2} = \left( {{\mu ^2} + {\sigma ^2}} \right)|x - y{|^2}
\]令 $K \geq {{\mu ^2} + {\sigma ^2}}$,則我們有如下關係:
\[|(\mu x) - (\mu y){|^2} + |(\sigma x) - (\sigma y){|^2} \le K|x - y{|^2}
\]亦即滿足 Lipschitz Condition。

接著我們檢驗 Growth Condition:
\[|\mu x{|^2} + |\sigma x{|^2} = \left( {{\mu ^2} + {\sigma ^2}} \right){x^2}
\]故我們可選與 Lipschitz condition 相同的 $K$ 滿足 $K \geq {{\mu ^2} + {\sigma ^2}}$ ,則我們有
\[|\mu x{|^2} + |\sigma x{|^2} \le K\left( {{{\left| x \right|}^2}} \right) \le K\left( {1 + {{\left| x \right|}^2}} \right)
\]亦即滿足 Growth Condition。

由於 Lipschitz 與 Growth Condition皆滿足,故由 SDE 的 Uniqueness 與 Existence Theorem 我們可知 GBM 解存在且唯一。

故現在開始求解:
改寫 GBM 如下
\[\begin{array}{l}
d{X_t} = \mu {X_t}dt + \sigma {X_t}d{B_t}\\
 \Rightarrow d{X_t} - \left( {\mu dt + \sigma d{B_t}} \right){X_t} = 0
\end{array}
\]定義積分因子:
\[{U_t}: = {e^{ - \int_0^t {\left( {\mu dt + \sigma d{B_t}} \right) + \frac{1}{2}{\sigma ^2}t} }} = {e^{ - \mu t + \frac{1}{2}{\sigma ^2}t - \sigma {B_t}}}
\] 由 Integration by part,計算
\[d\left( {{X_t}{U_t}} \right) = {X_t}d{U_t} + {U_t}d{X_t} + d\left\langle {{X_t},{U_t}} \right\rangle \ \ \ \ (*)
\]其中
\[\left\{ \begin{array}{l}
d{U_t} = \left( { - \mu  + \frac{1}{2}{\sigma ^2}} \right){U_t}dt - \sigma {U_t}d{B_t} + \frac{1}{2}\sigma {U_t}dt\\
 \Rightarrow d{U_t} = {U_t}\left[ { - \mu dt + {\sigma ^2}dt - \sigma d{B_t}} \right]\\
d\left\langle {{X_t},{U_t}} \right\rangle  = d{X_t} \cdot d{U_t}\\
 = \left( {\mu {X_t}dt + \sigma {X_t}d{B_t}} \right)\left( {{U_t}\left[ { - \mu dt + {\sigma ^2}dt - \sigma d{B_t}} \right]} \right) =  - {\sigma ^2}{X_t}{U_t}dt
\end{array} \right.
\]注意到上述結果 $dU_t$ 為利用 Ito Formula 而得。

現在將上述結果代入 $(*)$ 可得
\[\begin{array}{l}
 \Rightarrow d\left( {{X_t}{U_t}} \right) = {X_t}{U_t}\left[ { - \mu dt + {\sigma ^2}dt - \sigma d{B_t}} \right]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} + {U_t}\left( {\mu {X_t}dt + \sigma {X_t}d{B_t}} \right) - {\sigma ^2}{X_t}{U_t}dt\\
 \Rightarrow d\left( {{X_t}{U_t}} \right) = 0
\end{array}
\]現在將其轉換回積分形式:
\[\begin{array}{l}
d\left( {{X_t}{U_t}} \right) = 0\\
 \Rightarrow {X_t}{U_t} - {X_0}{U_0} = 0\\
 \Rightarrow {X_t}{U_t} = {X_0}{U_0} = {X_0}\\
 \Rightarrow {X_t}{e^{ - \mu t + \frac{1}{2}{\sigma ^2}t - \sigma {B_t}}} = {X_0}\\
 \Rightarrow {X_t} = {X_0}{e^{\mu t - \frac{1}{2}{\sigma ^2}t + \sigma {B_t}}}
\end{array}
\] 故我們得到一個 GBM 的解,現在我們檢驗此解確實滿足 GBM:
定義
\[
{X_t} = {X_0}\underbrace {{e^{\mu t - \frac{1}{2}{\sigma ^2}t + \sigma {B_t}}}}_{: = {V_t}}: = {X_0}{V_t}
\]利用 integration by part:
\[d{X_t} = d\left( {{X_0}{V_t}} \right) = {X_0}d\left( {{V_t}} \right) + {V_t}d\left( {{X_0}} \right) + d\left\langle {{X_0},{V_t}} \right\rangle  \ \ \ \ (\star)
\]其中
\[\left\{ \begin{array}{l}
d{V_t} = {V_t}\left[ {\left( {\mu  - \frac{1}{2}{\sigma ^2}} \right)dt + \sigma d{B_t} + \frac{1}{2}{\sigma ^2}dt} \right] = {V_t}\left[ {\mu dt + \sigma d{B_t}} \right]\\
d\left( {{X_0}} \right) = 0\\
d\left\langle {{X_0},{V_t}} \right\rangle  = d{X_0}d{V_t} = 0\\
\end{array} \right.
\]將上述結果代入 $\star$ 可得
\[\begin{array}{l}
d{X_t} = {X_0}d\left( {{V_t}} \right) + {V_t}d\left( {{X_0}} \right) + d\left\langle {{X_0},{V_t}} \right\rangle \\
 \Rightarrow d{X_t} = {X_0}{V_t}\left[ {\mu dt + \sigma d{B_t}} \right] = {X_0}{e^{\mu t - \frac{1}{2}{\sigma ^2}t + \sigma {B_t}}}\left[ {\mu dt + \sigma d{B_t}} \right]
\end{array}
\] 又因為我們之前定義 $X_t := X_0 V_t$,故 ${X_t}{e^{ - \mu t + \frac{1}{2}{\sigma ^2}t - \sigma {B_t}}} = {X_0}$,將此結果也代入上式中的 $X_0$ 我們得到
\[\begin{array}{l}
d{X_t} = {X_t}{e^{ - \mu t + \frac{1}{2}{\sigma ^2}t - \sigma {B_t}}}{e^{\mu t - \frac{1}{2}{\sigma ^2}t + \sigma {B_t}}}\left[ {\mu dt + \sigma d{B_t}} \right]\\
 \Rightarrow d{X_t} = \mu {X_t}dt + \sigma {X_t}d{B_t}
\end{array}
\]此為 GBM ,故 ${X_t} = {X_0}{e^{\mu t - \frac{1}{2}{\sigma ^2}t + \sigma {B_t}}}$ 確實為 GBM 的 (唯一) 解。 $\square$

Comments:
關於上述的 GBM 的解可寫作下列形式
\[{X_t} = {X_0}{e^{\mu t - \frac{1}{2}{\sigma ^2}t + \sigma {B_t}}} = {X_0}{e^{t\left( {\mu  - \frac{1}{2}{\sigma ^2} + \sigma \frac{{{B_t}}}{t}} \right)}}
\]注意到上式中的 $\frac{B_t}{t} \rightarrow 0 \ \text{almost surely}$ 當 $t \rightarrow \infty$ ,(此結果可利用 Strong Law of Large number 證明,在此略過),故現在觀察上式,當 $t \rightarrow \infty$ 我們得到以下的結果:
\[{X_t} = \left\{ \begin{array}{l}
\infty ,\begin{array}{*{20}{c}}
{}&{}
\end{array}\text{if}\begin{array}{*{20}{c}}
{}
\end{array}\mu  > \frac{1}{2}{\sigma ^2}\\
0,\begin{array}{*{20}{c}}
{}&{}
\end{array}\text{if}\begin{array}{*{20}{c}}
{}
\end{array}\mu  < \frac{1}{2}{\sigma ^2}\\
{X_0}{e^{\sigma {B_t}}},\begin{array}{*{20}{c}}
{}&{}
\end{array}\text{if}\begin{array}{*{20}{c}}
{}
\end{array}\mu  = \frac{1}{2}{\sigma ^2}
\end{array} \right.
\]

留言

這個網誌中的熱門文章

[數學分析] 什麼是若且唯若 "if and only if"

數學上的 if and only if  ( 此文不討論邏輯學中的 if and only if,只討論數學上的 if and only if。) 中文翻譯叫做  若且唯若 (or 當且僅當) , 記得當初剛接觸這個詞彙的時候,我是完全不明白到底是甚麼意思,查了翻譯也是愛莫能助,畢竟有翻跟沒翻一樣,都是有看沒有懂。 在數學上如果看到 if and only if  這類的句子,其實是表示一種 雙條件句 ,通常可以直接將其視為" 定義(Definition)" 待之,今天要分享的是這樣的一個句子如何用比較直觀的方法去看他 假設我們現在有 兩個邏輯陳述句 A 與  B. 注意到,在此我們不必考慮這兩個陳述句到底是什麼,想表達什麼,或者到底是否為真(true),這些都不重要。只要知道是兩個陳述即可。 現在,考慮新的陳述:  "A if and only if B" 好了,現在主角登場,我們可以怎麼看待這個句子呢? 事實上我們可以很直覺的把這句子拆成兩部分看待,也就是 "( A if B ) and ( A only if B )" 那麼先針對第一個部分  A if B  來看, 其實這句就是說  if B then A, 更直白一點就是 "if B is true, then A is also true".  在數學上等價可以寫為 "B implies A" .  或者更常用一個箭頭符號來表示 "B $\Rightarrow$  A"  現在針對第二個部分  A only if B 此句意指  "If B is not true, then A is also not true". 所以如果已知 A is true,  那麼按照上句不難推得 B is also true 也就是說  A only if B  等價為 "If A is true then B is also true". 同樣,也可以寫作   "A implies B"   或者用箭頭表示  "A   $\Rightarrow$     B".

[數學分析] 淺談各種基本範數 (Norm)

這次要介紹的是數學上一個重要的概念: Norm: 一般翻譯成 範數 (在英語中 norm 有規範的意思,比如我們說normalization就是把某種東西/物品/事件 做 正規化,也就是加上規範使其正常化),不過個人認為其實翻譯成 範數 也是看不懂的...這邊建議把 Norm 想成長度就好 (事實上norm是長度的抽象推廣), 也許讀者會認為好端端的長度不用,為何又要發明一個 norm 來自討苦吃?? 既抽象又艱澀。 事實上想法是這樣的: 比如說現在想要比較兩個數字 $3$ , $5$ 之間的大小,則我們可以馬上知道 $ 3 < 5 $;同樣的,如果再考慮小數與無理數如 $1.8753$ 與 $\pi$,我們仍然可以比較大小 $1.8753 < \pi = 3.1415...$ 故可以發現我們有辦法對 "純量" 做明確的比大小,WHY? 因為前述例子中 $3$, $5$, $1.8753$ or $\pi$ 其各自的大小有辦法被 "measure "! 但是如果是現在考慮的是一組數字 我們如何去measure 其大小呢?? 比如說 \[x:=[1, -2, 0.1, 0 ]^T \]上式的大小該是多少? 是 $1$? $-2$? $0.1$??? 再者如果更過分一點,我們考慮一個矩陣 \[A = \left[ {\begin{array}{*{20}{c}} 1&2\\ 3&4 \end{array}} \right] \],想要知道這個矩陣的大小又該怎麼辦?? 是 $1$ ? $2$ 還是 $4$ ?..其實現階段我們說不清楚。 也正是如此,可以發現我們確實需要新的 "長度" 的定義來幫助我們如何去 measure 矩陣/向量/甚至是函數的大小。 故此,我們首先定義甚麼是Norm,(也就是把 "長度" or "大小" 的本質抽離出來) ================== Definition: Norm 考慮 $V$ 為一個向量空間(Vector space),則我們說  Norm 為一個函數 $||\cdot|| : V \rightarrow \mathbb{R}$ 且滿足下列性質