Example: 令 $\{X_n\}$ 為 Martingale with Filtration $\mathcal{F_n}$,假設 $T$ 為 stopping time。試證 $Y_n:=X_{\min(n,T)}$ 為 Martingale with $\mathcal{F_n}$。
Proof:
首先證明 (1) $E|Y_n| < \infty $:
注意到:
\[\begin{array}{l}
{Y_n}: = {X_{n \wedge T}} = {X_n}{1_{n{\rm{ < }}T}} + {X_T}{1_{T \le n}}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} = {X_n}{1_{n{\rm{ < }}T}} + \sum\limits_{m = 1}^n {{X_T}{1_{T = k}}}
\end{array}\]故
\[\begin{array}{l}
E\left| {{Y_n}} \right| = E\left| {{X_{n \wedge T}}} \right| = E\left| {{X_n}{1_{n{\rm{ < }}T}} + \sum\limits_{m = 1}^n {{X_T}{1_{T = k}}} } \right|\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} \le E\left| {{X_n}{1_{n{\rm{ < }}T}}} \right| + \sum\limits_{m = 1}^n {E\left| {{X_T}{1_{T = k}}} \right|} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} \le E\left| {{X_n}} \right| + \sum\limits_{m = 1}^n {E\left| {{X_T}} \right|} < \infty
\end{array}\]
接著我們證明 (2) : $Y_n \in \mathcal{F}_n $
觀察 \[{Y_n}: = {X_{n \wedge T}} = {X_n}{1_{n{\rm{ < }}T}} + \sum\limits_{m = 1}^n {{X_T}{1_{T = k}}} \]由於 $1_{T>n} = 1_{T \le n}^c \in \mathcal{F}_n$ 且 $X_m \in \mathcal{F}_m \subset \mathcal{F}_n$ 且 $1_{T=m} \in \mathcal{F}_m \subset \mathcal{F}_n$ 對任意 $m\le n$ 故
\[{Y_n}: = \underbrace {{X_n}}_{ \in {F_n}}\underbrace {{1_{n{\rm{ < }}T}}}_{ \in {F_n}} + \underbrace {\sum\limits_{m = 1}^n {{X_T}{1_{T = k}}} }_{ \in {F_n}} \in {F_n}\]
最後我們證明 (3): $E[Y_{n+1}|\mathcal{F}_n] = E[X_{}]$ 注意到
\[\begin{array}{l}
E[{Y_{n + 1}}|{{{\cal F}}_n}] = E[{X_{n + 1}}{1_{n + 1 < T}} + {X_T}{1_{T \le n + 1}}|{{{\cal F}}_n}]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = E[{X_{n + 1}}{1_{n + 1 < T}}|{{{\cal F}}_n}] + E[{X_T}{1_{T \le n + 1}}|{{{\cal F}}_n}]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = E[{X_{n + 1}}{1_{n + 1 < T}}|{{{\cal F}}_n}] + E[\sum\limits_{k = 1}^n {{X_k}{1_{T = k}}} + {X_{n + 1}}{1_{T = n + 1}}|{{{\cal F}}_n}]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = E[{X_{n + 1}}{1_{n + 1 < T}}|{{{\cal F}}_n}] + {X_T}{1_{T \le n}} + E[{X_{n + 1}}{1_{T = n + 1}}|{{{\cal F}}_n}]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = {X_n}{1_{n + 1 \le T}} + {X_T}{1_{T \le n}}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = {X_n}{1_{n < T}} + {X_T}{1_{T \le n}} = {Y_n}
\end{array}\]
If you can’t solve a problem, then there is an easier problem you can solve: find it. -George Polya
11/15/2014
5/22/2014
[機率論] Martingale (2)- Martingale Convergence Theorem
假設 $X_n, n\ge 0 $ 為 submartingale。令 $a<b$ 且 $N_0 := -1$ 與 對任意 $k \ge 1$ 我們定義 stopping time 如下:
\[\begin{array}{l}
{N_{2k - 1}}: = \inf \left\{ {m > {N_{2k - 2}}:{X_m} \le a} \right\}\\
{N_{2k}}: = \inf \left\{ {m > {N_{2k - 1}}:{X_m} \ge b} \right\}
\end{array}
\] 且我們觀察以下事件
\[\begin{array}{l}
\{ {N_{2k - 1}} < m \le {N_{2k}}\} = \{ {N_{2k - 1}} < m\} \cap \{ m \le {N_{2k}}\} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = \underbrace {\{ {N_{2k - 1}} \le m - 1\} }_{ \in {F_{m - 1}}} \cap \underbrace {{{\{ {N_{2k}} \le m - 1\} }^c}}_{ \in {F_{m - 1}}} \in {F_{m - 1}}
\end{array}\]
==============
Fact: 若 $X_m, m\ge 0$ 為 submartingale 則
\[
(b-a)EU_n \le E(X_n -a)^+ - E(X_0 - a)^+
\]其中 ${U_n}: = \sup \left\{ {k:{N_{2k}} \le n} \right\}$ 表示在 時間$n$ 之前 往上穿越的個數
==============
Proof: omitted.
==========
Theorem: Martingale Convergence Theorem
若 $X_n$ 為 submartingale 滿足 $\sup E[X_n^+] < \infty$ 則存在 $X$ 使得 $X_n \to X$ almost surely 且 $E|X| < \infty$
===========
Proof: 先證存在 $X$ 使得 $X_n \to X$ almost surely
首先考慮 $(X-a)$ 正的部分記做 $(X-a)^+$ 且注意到 $(X -a)^+ \le X^+ + |a|$。
由於 $X_n$ 為 submartingale 故由前述的 FACT 可知
\[\begin{array}{l}
(b - a)E{U_n} \le E{({X_n} - a)^ + } - E{({X_0} - a)^ + } \le E{({X_n} - a)^ + } \le EX_n^ + + |a|\\
\Rightarrow E{U_n} \le \frac{{EX_n^ + + |a|}}{{b - a}}
\end{array}\]由於 $U_n \to U \; \text{as $n \to \infty$}$ (整個 $U_n$ 往上穿越過 $[a,b]$ 範圍的個數)
由假設 $\sup_n EX_n^+ < \infty$,故上式可推知 $EU < \infty$ 且 $U< \infty $ almost surely。亦即 表示在 時間 $\infty$ 之前 往上穿越 $[a,b]$ 的個數為有限次( $\Rightarrow$ 必定收斂!)
注意到上述結果對任意有理數 $a,b \in \mathbb{Q}$ 皆成立,故
\[P\left( {\bigcup\limits_{a,b \in Q}^{} {\left\{ {\lim \inf {X_n} < a < b < \lim \sup {X_n}} \right\}} } \right) = 0
\]故 $\lim\sup X_n = \lim\inf X_n$ almost surely。因此 $\lim X_n$ 存在 almost surely。
接著證明 $E|X| < \infty$
利用 Fatou Lemma 可得 $EX^+ \le \lim \inf EX_n^+ <\infty$ 故 $X<\infty $ almost surely。接著我們證明 $X > -\infty$,觀察下式
\[
EX_n^- = EX_n^+ - EX_n \le EX_n^+ - EX_0
\]利用 $X_n$ 為 submartingale ($E({X_n}|{{\cal F}_0}) \ge {X_0} \Rightarrow \underbrace {E[E[{X_n}|{{\cal F}_0}]]}_{E{X_n}} \ge E{X_0}$ )。
故再度使用 Fatou Lemma 可知
\[
EX^- \le \liminf_{n \to \infty} EX_n^- \le \sup_n EX_n^+ - EX_0 < \infty
\]
以下我們看個 上述定理所衍生的重要結果:
==============
Theorem 2: 若 $X_n \ge 0$ 為 supermartingale,則 存在 $X$ 使得 $X_n \to X$ almost surely 且 $EX \le EX_0$
==============
Proof: 先證 存在 $X$ 使得 $X_n \to X$ almost surely:
令 $Y_n := - X_n$ 則 $Y_n $為 submartingale 且 $Y_n \le 0$。
利用 Martingale Convergence Theorem :如果我們可以證明 $Y_n$ 為 submartingale 滿足 $EY_n^+ < \infty$ 則存在 $Y$ 使得 $Y_n \to Y$ almost surely
由於 $Y_n \le 0 \Rightarrow Y_n^+ =0$ 故 $EY_n^+ <\infty$。由 Martingale Convergence Theorem 可知 存在 $Y$ 使得 $Y_n \to Y$ almost surely ;亦即存在 $X$ 使得 $X_n \to X$ almost surely。
接著我們證明 $EX \le EX_0$
由於 $X_n \ge 0$ ,利用 Fatuou Lemma 可知
\[EX \le \mathop {\lim \inf }\limits_{n \to \infty } E{X_n}
\]且 $E\left[ {E\left[ {X|{F_0}} \right]} \right] = E\left[ X \right]$ 故可推知
\[\begin{array}{l}
{N_{2k - 1}}: = \inf \left\{ {m > {N_{2k - 2}}:{X_m} \le a} \right\}\\
{N_{2k}}: = \inf \left\{ {m > {N_{2k - 1}}:{X_m} \ge b} \right\}
\end{array}
\] 且我們觀察以下事件
\[\begin{array}{l}
\{ {N_{2k - 1}} < m \le {N_{2k}}\} = \{ {N_{2k - 1}} < m\} \cap \{ m \le {N_{2k}}\} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = \underbrace {\{ {N_{2k - 1}} \le m - 1\} }_{ \in {F_{m - 1}}} \cap \underbrace {{{\{ {N_{2k}} \le m - 1\} }^c}}_{ \in {F_{m - 1}}} \in {F_{m - 1}}
\end{array}\]
==============
Fact: 若 $X_m, m\ge 0$ 為 submartingale 則
\[
(b-a)EU_n \le E(X_n -a)^+ - E(X_0 - a)^+
\]其中 ${U_n}: = \sup \left\{ {k:{N_{2k}} \le n} \right\}$ 表示在 時間$n$ 之前 往上穿越的個數
==============
Proof: omitted.
==========
Theorem: Martingale Convergence Theorem
若 $X_n$ 為 submartingale 滿足 $\sup E[X_n^+] < \infty$ 則存在 $X$ 使得 $X_n \to X$ almost surely 且 $E|X| < \infty$
===========
Proof: 先證存在 $X$ 使得 $X_n \to X$ almost surely
首先考慮 $(X-a)$ 正的部分記做 $(X-a)^+$ 且注意到 $(X -a)^+ \le X^+ + |a|$。
由於 $X_n$ 為 submartingale 故由前述的 FACT 可知
\[\begin{array}{l}
(b - a)E{U_n} \le E{({X_n} - a)^ + } - E{({X_0} - a)^ + } \le E{({X_n} - a)^ + } \le EX_n^ + + |a|\\
\Rightarrow E{U_n} \le \frac{{EX_n^ + + |a|}}{{b - a}}
\end{array}\]由於 $U_n \to U \; \text{as $n \to \infty$}$ (整個 $U_n$ 往上穿越過 $[a,b]$ 範圍的個數)
由假設 $\sup_n EX_n^+ < \infty$,故上式可推知 $EU < \infty$ 且 $U< \infty $ almost surely。亦即 表示在 時間 $\infty$ 之前 往上穿越 $[a,b]$ 的個數為有限次( $\Rightarrow$ 必定收斂!)
注意到上述結果對任意有理數 $a,b \in \mathbb{Q}$ 皆成立,故
\[P\left( {\bigcup\limits_{a,b \in Q}^{} {\left\{ {\lim \inf {X_n} < a < b < \lim \sup {X_n}} \right\}} } \right) = 0
\]故 $\lim\sup X_n = \lim\inf X_n$ almost surely。因此 $\lim X_n$ 存在 almost surely。
接著證明 $E|X| < \infty$
利用 Fatou Lemma 可得 $EX^+ \le \lim \inf EX_n^+ <\infty$ 故 $X<\infty $ almost surely。接著我們證明 $X > -\infty$,觀察下式
\[
EX_n^- = EX_n^+ - EX_n \le EX_n^+ - EX_0
\]利用 $X_n$ 為 submartingale ($E({X_n}|{{\cal F}_0}) \ge {X_0} \Rightarrow \underbrace {E[E[{X_n}|{{\cal F}_0}]]}_{E{X_n}} \ge E{X_0}$ )。
故再度使用 Fatou Lemma 可知
\[
EX^- \le \liminf_{n \to \infty} EX_n^- \le \sup_n EX_n^+ - EX_0 < \infty
\]
以下我們看個 上述定理所衍生的重要結果:
==============
Theorem 2: 若 $X_n \ge 0$ 為 supermartingale,則 存在 $X$ 使得 $X_n \to X$ almost surely 且 $EX \le EX_0$
==============
Proof: 先證 存在 $X$ 使得 $X_n \to X$ almost surely:
令 $Y_n := - X_n$ 則 $Y_n $為 submartingale 且 $Y_n \le 0$。
利用 Martingale Convergence Theorem :如果我們可以證明 $Y_n$ 為 submartingale 滿足 $EY_n^+ < \infty$ 則存在 $Y$ 使得 $Y_n \to Y$ almost surely
由於 $Y_n \le 0 \Rightarrow Y_n^+ =0$ 故 $EY_n^+ <\infty$。由 Martingale Convergence Theorem 可知 存在 $Y$ 使得 $Y_n \to Y$ almost surely ;亦即存在 $X$ 使得 $X_n \to X$ almost surely。
接著我們證明 $EX \le EX_0$
由於 $X_n \ge 0$ ,利用 Fatuou Lemma 可知
\[EX \le \mathop {\lim \inf }\limits_{n \to \infty } E{X_n}
\]且 $E\left[ {E\left[ {X|{F_0}} \right]} \right] = E\left[ X \right]$ 故可推知
\[\begin{array}{l}
EX \le \mathop {\lim \inf }\limits_{n \to \infty } E{X_n}\\
\Rightarrow \underbrace {E\left[ {E\left[ {X|{F_0}} \right]} \right]}_{ = EX} \le \mathop {\lim \inf }\limits_{n \to \infty } E\left[ {E\left[ {{X_{n + 1}}|{F_0}} \right]} \right] \le E{X_0}
\end{array}\]
前面兩個 Theorem 的假設並不保證 $L^1$ 收斂。以下我們看個例子:
==================
Example:
令 $S_n$ 為 symmetric simple random walk 且 $S_0 = 1$,亦即
\[{S_n}: = \sum\limits_{m = 1}^n {{\xi _m}} = {S_{n - 1}} + {\xi _n}\]其中 $\xi_1,\xi_2,...$ 為 i.i.d. 且 $P(\xi_i =1) = P(\xi_i = -1) =1/2$,現在令 stopping time $N:= \inf \{n:S_n=0\}$ 且定義 $X_n:=S_{N \wedge n}$。試回答下列問題
(0): 試判斷 $S_n$ 是否為 martingale。)
(1): 試判斷 $X_n:=S_{N \wedge n}$ 是否為 martingale?
(2): $X_n$ 是否存在對應的 極限隨機過程 $X$ 使得 $X_n \to X$ almost surely?
(3): $E[X_n] =?$
(4): 試證 $X_n \to X$ 並無 $L^1$-convergence
==================
對於 (1):由於 stopping time $N:= \inf \{n:S_n=0\}$ 且 $X_n:=S_{N \wedge n}$ 故我們可推論以下兩件事實:
1. 停止後的隨機過程 $X_n$ 仍為 martingale。(留給讀者證明或者參閱:[機率論] Martingale (3) - Example )
2. 由於停止時間定義為 $N:= \inf \{n:S_n=0\}$,故 停止後的隨機過程 $X_n \ge 0$
對於 (2):
故我們利用 Theorem 2 可知 存在 $X$ 使得 $X_n \to X$ almost surely 且 $EX_n \le EX_0 = 1$。
另外注意到收斂的隨機過程 $X \equiv 0$ (因為若不為 $0$,則 $X_{n+1} = k \pm 1$ 會震盪!! (no convergence))
對於 (3):利用 $X_n$ 為 Martingale 性質
\[E{X_n} = E\underbrace {{S_{n \wedge N}}}_{martingale} = E{S_0} = 1\]
對於 (4):由 $L^1$ convergence 定義可知條件為 $E\left| {{X_n} - X} \right| \to 0$ 且注意到
\[E\left| {{X_n} - X} \right| \to 0 \Rightarrow E{X_n} \to EX\]由前述題目可知, $EX_n = 1$ 但 $EX =0$ 故 $EX_n \nrightarrow EX$ 故 $E|X_n- X| \nrightarrow 0$ 亦即 NO $L^1$-convergence
EX \le \mathop {\lim \inf }\limits_{n \to \infty } E{X_n}\\
\Rightarrow \underbrace {E\left[ {E\left[ {X|{F_0}} \right]} \right]}_{ = EX} \le \mathop {\lim \inf }\limits_{n \to \infty } E\left[ {E\left[ {{X_{n + 1}}|{F_0}} \right]} \right] \le E{X_0}
\end{array}\]
前面兩個 Theorem 的假設並不保證 $L^1$ 收斂。以下我們看個例子:
==================
Example:
令 $S_n$ 為 symmetric simple random walk 且 $S_0 = 1$,亦即
\[{S_n}: = \sum\limits_{m = 1}^n {{\xi _m}} = {S_{n - 1}} + {\xi _n}\]其中 $\xi_1,\xi_2,...$ 為 i.i.d. 且 $P(\xi_i =1) = P(\xi_i = -1) =1/2$,現在令 stopping time $N:= \inf \{n:S_n=0\}$ 且定義 $X_n:=S_{N \wedge n}$。試回答下列問題
(0): 試判斷 $S_n$ 是否為 martingale。)
(1): 試判斷 $X_n:=S_{N \wedge n}$ 是否為 martingale?
(2): $X_n$ 是否存在對應的 極限隨機過程 $X$ 使得 $X_n \to X$ almost surely?
(3): $E[X_n] =?$
(4): 試證 $X_n \to X$ 並無 $L^1$-convergence
==================
Solution:
對於 (0):留給讀者證明 ( symmetric simple random walk $S_n$ 為 martingale。)對於 (1):由於 stopping time $N:= \inf \{n:S_n=0\}$ 且 $X_n:=S_{N \wedge n}$ 故我們可推論以下兩件事實:
1. 停止後的隨機過程 $X_n$ 仍為 martingale。(留給讀者證明或者參閱:[機率論] Martingale (3) - Example )
2. 由於停止時間定義為 $N:= \inf \{n:S_n=0\}$,故 停止後的隨機過程 $X_n \ge 0$
對於 (2):
故我們利用 Theorem 2 可知 存在 $X$ 使得 $X_n \to X$ almost surely 且 $EX_n \le EX_0 = 1$。
另外注意到收斂的隨機過程 $X \equiv 0$ (因為若不為 $0$,則 $X_{n+1} = k \pm 1$ 會震盪!! (no convergence))
對於 (3):利用 $X_n$ 為 Martingale 性質
\[E{X_n} = E\underbrace {{S_{n \wedge N}}}_{martingale} = E{S_0} = 1\]
對於 (4):由 $L^1$ convergence 定義可知條件為 $E\left| {{X_n} - X} \right| \to 0$ 且注意到
\[E\left| {{X_n} - X} \right| \to 0 \Rightarrow E{X_n} \to EX\]由前述題目可知, $EX_n = 1$ 但 $EX =0$ 故 $EX_n \nrightarrow EX$ 故 $E|X_n- X| \nrightarrow 0$ 亦即 NO $L^1$-convergence
5/21/2014
[機率論] 淺論 Martingale (1) - 何時能 贏 or 輸掉賭局?
(NOTE: 此文為數學機率論相關文章,並無任何介紹任何賭博手法/訣竅...)
回憶前篇文章 [機率論] 淺論 Martingale (0) - 定義與性質 提及的
考慮一個硬派賭徒參加一場丟擲硬幣賭錢的遊戲,且若硬幣正面向上,則賭徒會贏得下注金並且停止遊戲 (take money and run),反之,若硬幣反面向上,則賭徒輸掉下注金但此時因為賭徒並不甘心..所以會將 賭注加倍 再繼續玩。持續 $n$ 次這樣的遊戲。那麼這位賭徒宣稱靠這套 "必勝法" 最後可以贏得一筆大錢 (至少不賠本);因為只要過程中贏得一場就可以獲得相對的加倍下注金!!
此套賭徒所宣稱的 必勝法在數學上稱做 Martingale System;我們將會在此篇文章檢驗此 Martingale 加倍賭注策略,看看之前賭徒宣稱的必勝法是否有效。
不過介紹之前需要再引入一些術語:
===========
Definition: Predictable Sequence
令 $\mathcal{F}_n, n \ge 0$ 為 Filtration , 我們稱 $H_n, n\ge 1$ 為 Predictable sequence 若下列條件成立: 若 $H_n \in \mathcal{F}_{n-1}, \; \forall n \ge 1$ (亦即 $H_n$ 為 $\mathcal{F}_{n-1}$ measurable)
===========
現在我們再次考慮 投擲銅板的賭博:若銅板正面則賭徒贏得 1元,若顯示為銅板背面則賭徒輸掉 1元。令 $X_n$ 為在 $n$ 次時賭徒的 淨收入/損失。則我們可以定義 在第 $n$ 次賭博時賭徒 "總" 贏/輸錢的量
\[{\left( {H \cdot X} \right)_n}: = \sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} = \sum\limits_{m = 1}^n {{H_m}{\xi _m}}
\]其中 $\xi_n := X_n - X_{n-1}$ 表示第 $n$ 次賭博到底是贏 或者 輸 的單次金額; $H_n$ 則表示成 第 $n$ 次賭博 時候 賭徒所下注的賭金量。
Comment:
上式 $(H \cdot X)_n$ 可看為離散時間的 Ito integral。
現在我們看個例子:
Example: Martingale Strategy
考慮 $H_1 = 1$ 且 對 $n \ge 2,$ 我們使用 " 如果輸錢就加倍賭注" 的策略;亦即我們定義 $H_n$ 為 \[{H_n} = \left\{ {\begin{array}{*{20}{l}}
{2{H_{n - 1}}\begin{array}{*{20}{c}}
{}&{}
\end{array}if\begin{array}{*{20}{c}}
{}
\end{array}{\xi _{n - 1}} = - 1}\\
{1\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array}if\begin{array}{*{20}{c}}
{}
\end{array}{\xi _{n - 1}} = 1}
\end{array}} \right.\]現在考慮若 輸 $k$ 次 之後才贏錢,試計算 $(H \cdot X)_n=?$ (此時 $n=k+1$)
Solution:
由於我們的策略是輸錢就加倍賭注:
故賭輸第一次的時候賠掉 $1$元;亦即 $(H \cdot X)_1 = -1$ 元;故下次賭注金會加倍 變成 $2$元繼續賭下一次
賭輸第二次的時候,單單這次賭徒賠掉的賭金為 $-2$ 元;故如果我們計算總輸錢量為 $(H \cdot X)_2 = -1 -2 = -3$;接著加倍賭注金 (變成 $2^2 = 4$ 元)繼續賭下一次
賭輸第三次的時候,單單這次賠掉賭金為 $-2^2$ 元;故此時 $(H \cdot X)_3 = -1 -2 -2^2 = -7$;接著加倍賭注金 (變成 $2^3 = 8$ 元)繼續賭下一次
依此類推,賭輸到第 $k$ 次 單單這次會賠掉賭金為 $-2^{k-1}$元。此時的 $(H \cdot X)_k = -1-2-...-2^{k-1}$ 接著加倍賭注金 (變成 $2^{k} $ 元)繼續賭下一次
但最後一次 $(k+1)$次 我們贏了,故最後的賭金總輸贏量為
\[{(H \cdot X)_{k + 1}} = - 1 - 2 - ... - {2^{k - 1}} + {2^k} = - \underbrace {\left( {1 + 2 + ... + {2^{k - 1}}} \right)}_{ = \left( {\frac{{1 \cdot \left( {{2^k} - 1} \right)}}{{2 - 1}}} \right) = \left( {{2^k} - 1} \right)} + {2^k} = 1\]
也就是說最後我們至少贏回了最初投資的 $1$ 元! $\square$
Comment:
此例子也告訴我們 "似乎" $P(\xi_m=1) > 0 $ (贏錢的機率為正值!! Really??)。但是下面的定理告訴我們:如果賭徒參與的賭局為 supermartingale,則"沒有" 任何策略可以贏錢。
==============
Theorem 1: 令 $X_n, n \ge 0$ 為 supermartingale,若 $H_n \ge 0$ 為 predictable 且對任意 $n,$ $H_n$ 有界,則 $(H \cdot X)_n$ 為 supermartingale。
==============
Proof:
要證 $(H \cdot X)_n$ 為 supermartingale;亦即
\[E\left[ {{{(H \cdot X)}_{n + 1}}|{F_n}} \right] \le {(H \cdot X)_n}
\]故我們需檢驗其滿足supmartingale三個條件:首先關於可積條件,由於 $X_n$ 為 supermartingale 且 $(H \cdot X)_n$ 為有限項 summation 故可積條件滿足;接著檢驗可測條件:注意到 $H_n$ 為 predictable (亦即 $H_n$ 為 $\mathcal{F}_{n-1}$ -measurable) ,故可推知
\[{(H \cdot X)_n} = \sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} \in {F_n}\]
最後檢驗 supmartingale property:觀察
\[\begin{array}{l}
E\left[ {{{(H \cdot X)}_{n + 1}}|{F_n}} \right] = E\left[ {\sum\limits_{m = 1}^{n + 1} {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} |{F_n}} \right]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = \sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} + {H_{n + 1}}E\left[ {\left( {{X_{n + 1}} - {X_n}} \right)|{F_n}} \right]
\end{array}\]已知 $E\left[ {{X_{n + 1}}|{F_n}} \right] \le {X_n} \Rightarrow E\left[ {{X_{n + 1}} - {X_n}|{F_n}} \right] \le 0$ 故
\[\begin{array}{l}
E\left[ {{{(H \cdot X)}_{n + 1}}|{F_n}} \right] = \underbrace {\sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} }_{ = {{(H \cdot X)}_n}} + \underbrace {{H_{n + 1}}}_{ \ge 0}\underbrace {E\left[ {\left( {{X_{n + 1}} - {X_n}} \right)|{F_n}} \right]}_{ \le 0}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} \le {(H \cdot X)_n}. \ \ \ \ \ \ \square
\end{array}\]
上述定理告訴我們 如果賭局呈現 supermartingale 則 沒有任何必勝法可以從中贏錢。但我們的硬派賭徒認為:如果可以考慮在賭局當中任何時間停手,那麼至少應該有 "止損" 的作用吧? 也就是說透過額外考慮 "停止" 的機制是否可以幫助我們對抗 supermartingale呢? 在回答這個問題之前我們必須先回答數學上該如何針對 "何時停止" 進行嚴格描述:
======================
Definition: Stopping Time
我們說 隨機變數 $N$ 為 停止時間 (Stopping Time) 若下列條件成立:
對任意 $N < \infty$,$\{N=n\} \in \mathcal{F}_n$ (亦即 $N$ 為 $\mathcal{F}_n$-measurable)。
======================
Comment:
我們可以已將停止時間 $N$ 視為 賭徒何時抽手不玩的時間,那麼上述條件可以視為:在時間$n$ 賭徒認為是時候該停手不玩的決定 必定是基於當時賭局所能獲得的資訊 $(\mathcal{F}_n)$ 而定
那麼現在我們可以回答原本賭徒提出的問題,也就是假設 $X_n$ 為 supermartingale 則停止機制之後的隨機過程 $X_{N \wedge n}$ 是否仍為 supermartingale (因為如果是,則上述 Theorem 1 告訴我們儘管加入停止時間,仍然沒有任何必勝法能夠獲勝。)
此問題的答案記做以下定理:
======================
Theorem 2: 若 $N$ 為 Stopping time 且 $X_n$ 為 supermartingale 則停止後的隨機過程 $X_{n \wedge N}$ 亦為 supermartingale。
======================
Proof:
我們要證明停止後的隨機過程 $X_{n \wedge N}$ 亦為 supermartingale。現在取 $H_n:= 1_{ \{N \ge n \} }$ 則觀察事件 $\{N \ge n\} = \{ N \le n-1 \}^c \in \mathcal{F}_{n-1}$ 故 $H_n$ 為 predictable。
接著觀察
\[\begin{array}{l}
{\left( {H \cdot X} \right)_n} = \sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} = \sum\limits_{m = 1}^n {{1_{\left\{ {N \ge m} \right\}}}\left( {{X_m} - {X_{m - 1}}} \right)} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} = {1_{\left\{ {N \ge 1} \right\}}}\left( {{X_1} - {X_0}} \right) + {1_{\left\{ {N \ge 2} \right\}}}\left( {{X_2} - {X_1}} \right) + ... + {1_{\left\{ {N \ge n} \right\}}}\left( {{X_n} - {X_{n - 1}}} \right)
\end{array}\]注意到由於 $X_n$ 為 supermartingale 且 $H_n$ 為 predictable,由 Theorem 1 可知 $(H \cdot X)_n$ 為 supermartingale,故
\[\begin{array}{l}
{\left( {H \cdot X} \right)_n} = {X_{n \wedge N}} - {X_0}\\
\Rightarrow {X_{n \wedge N}} = \underbrace {{{\left( {H \cdot X} \right)}_n}}_{{\rm{supermartingale}}} + \underbrace {{X_0}}_{{\rm{constant}}}
\end{array}\]上式右方: supermartingale $(H \cdot X)_n$ 加上常數隨機過程 $X_0$ 仍為 supermartingale,亦即 ${X_{n \wedge N}}$ 為 supermartingale。 $\square$
Comment:
若 $X_n$ 為 martingale 則 $X_{n \wedge N}$ 亦為 martingale。有興趣的讀者可參閱
[機率論] Martingale (3) - Example
Ref: Durrett, Probability Theory and Examples, Cambridge
回憶前篇文章 [機率論] 淺論 Martingale (0) - 定義與性質 提及的
考慮一個硬派賭徒參加一場丟擲硬幣賭錢的遊戲,且若硬幣正面向上,則賭徒會贏得下注金並且停止遊戲 (take money and run),反之,若硬幣反面向上,則賭徒輸掉下注金但此時因為賭徒並不甘心..所以會將 賭注加倍 再繼續玩。持續 $n$ 次這樣的遊戲。那麼這位賭徒宣稱靠這套 "必勝法" 最後可以贏得一筆大錢 (至少不賠本);因為只要過程中贏得一場就可以獲得相對的加倍下注金!!
此套賭徒所宣稱的 必勝法在數學上稱做 Martingale System;我們將會在此篇文章檢驗此 Martingale 加倍賭注策略,看看之前賭徒宣稱的必勝法是否有效。
不過介紹之前需要再引入一些術語:
===========
Definition: Predictable Sequence
令 $\mathcal{F}_n, n \ge 0$ 為 Filtration , 我們稱 $H_n, n\ge 1$ 為 Predictable sequence 若下列條件成立: 若 $H_n \in \mathcal{F}_{n-1}, \; \forall n \ge 1$ (亦即 $H_n$ 為 $\mathcal{F}_{n-1}$ measurable)
===========
\[{\left( {H \cdot X} \right)_n}: = \sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} = \sum\limits_{m = 1}^n {{H_m}{\xi _m}}
\]其中 $\xi_n := X_n - X_{n-1}$ 表示第 $n$ 次賭博到底是贏 或者 輸 的單次金額; $H_n$ 則表示成 第 $n$ 次賭博 時候 賭徒所下注的賭金量。
上式 $(H \cdot X)_n$ 可看為離散時間的 Ito integral。
現在我們看個例子:
Example: Martingale Strategy
考慮 $H_1 = 1$ 且 對 $n \ge 2,$ 我們使用 " 如果輸錢就加倍賭注" 的策略;亦即我們定義 $H_n$ 為 \[{H_n} = \left\{ {\begin{array}{*{20}{l}}
{2{H_{n - 1}}\begin{array}{*{20}{c}}
{}&{}
\end{array}if\begin{array}{*{20}{c}}
{}
\end{array}{\xi _{n - 1}} = - 1}\\
{1\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array}if\begin{array}{*{20}{c}}
{}
\end{array}{\xi _{n - 1}} = 1}
\end{array}} \right.\]現在考慮若 輸 $k$ 次 之後才贏錢,試計算 $(H \cdot X)_n=?$ (此時 $n=k+1$)
Solution:
由於我們的策略是輸錢就加倍賭注:
故賭輸第一次的時候賠掉 $1$元;亦即 $(H \cdot X)_1 = -1$ 元;故下次賭注金會加倍 變成 $2$元繼續賭下一次
賭輸第二次的時候,單單這次賭徒賠掉的賭金為 $-2$ 元;故如果我們計算總輸錢量為 $(H \cdot X)_2 = -1 -2 = -3$;接著加倍賭注金 (變成 $2^2 = 4$ 元)繼續賭下一次
賭輸第三次的時候,單單這次賠掉賭金為 $-2^2$ 元;故此時 $(H \cdot X)_3 = -1 -2 -2^2 = -7$;接著加倍賭注金 (變成 $2^3 = 8$ 元)繼續賭下一次
依此類推,賭輸到第 $k$ 次 單單這次會賠掉賭金為 $-2^{k-1}$元。此時的 $(H \cdot X)_k = -1-2-...-2^{k-1}$ 接著加倍賭注金 (變成 $2^{k} $ 元)繼續賭下一次
但最後一次 $(k+1)$次 我們贏了,故最後的賭金總輸贏量為
\[{(H \cdot X)_{k + 1}} = - 1 - 2 - ... - {2^{k - 1}} + {2^k} = - \underbrace {\left( {1 + 2 + ... + {2^{k - 1}}} \right)}_{ = \left( {\frac{{1 \cdot \left( {{2^k} - 1} \right)}}{{2 - 1}}} \right) = \left( {{2^k} - 1} \right)} + {2^k} = 1\]
也就是說最後我們至少贏回了最初投資的 $1$ 元! $\square$
Comment:
此例子也告訴我們 "似乎" $P(\xi_m=1) > 0 $ (贏錢的機率為正值!! Really??)。但是下面的定理告訴我們:如果賭徒參與的賭局為 supermartingale,則"沒有" 任何策略可以贏錢。
==============
Theorem 1: 令 $X_n, n \ge 0$ 為 supermartingale,若 $H_n \ge 0$ 為 predictable 且對任意 $n,$ $H_n$ 有界,則 $(H \cdot X)_n$ 為 supermartingale。
==============
要證 $(H \cdot X)_n$ 為 supermartingale;亦即
\[E\left[ {{{(H \cdot X)}_{n + 1}}|{F_n}} \right] \le {(H \cdot X)_n}
\]故我們需檢驗其滿足supmartingale三個條件:首先關於可積條件,由於 $X_n$ 為 supermartingale 且 $(H \cdot X)_n$ 為有限項 summation 故可積條件滿足;接著檢驗可測條件:注意到 $H_n$ 為 predictable (亦即 $H_n$ 為 $\mathcal{F}_{n-1}$ -measurable) ,故可推知
\[{(H \cdot X)_n} = \sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} \in {F_n}\]
最後檢驗 supmartingale property:觀察
\[\begin{array}{l}
E\left[ {{{(H \cdot X)}_{n + 1}}|{F_n}} \right] = E\left[ {\sum\limits_{m = 1}^{n + 1} {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} |{F_n}} \right]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = \sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} + {H_{n + 1}}E\left[ {\left( {{X_{n + 1}} - {X_n}} \right)|{F_n}} \right]
\end{array}\]已知 $E\left[ {{X_{n + 1}}|{F_n}} \right] \le {X_n} \Rightarrow E\left[ {{X_{n + 1}} - {X_n}|{F_n}} \right] \le 0$ 故
\[\begin{array}{l}
E\left[ {{{(H \cdot X)}_{n + 1}}|{F_n}} \right] = \underbrace {\sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} }_{ = {{(H \cdot X)}_n}} + \underbrace {{H_{n + 1}}}_{ \ge 0}\underbrace {E\left[ {\left( {{X_{n + 1}} - {X_n}} \right)|{F_n}} \right]}_{ \le 0}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} \le {(H \cdot X)_n}. \ \ \ \ \ \ \square
\end{array}\]
上述定理告訴我們 如果賭局呈現 supermartingale 則 沒有任何必勝法可以從中贏錢。但我們的硬派賭徒認為:如果可以考慮在賭局當中任何時間停手,那麼至少應該有 "止損" 的作用吧? 也就是說透過額外考慮 "停止" 的機制是否可以幫助我們對抗 supermartingale呢? 在回答這個問題之前我們必須先回答數學上該如何針對 "何時停止" 進行嚴格描述:
======================
Definition: Stopping Time
我們說 隨機變數 $N$ 為 停止時間 (Stopping Time) 若下列條件成立:
對任意 $N < \infty$,$\{N=n\} \in \mathcal{F}_n$ (亦即 $N$ 為 $\mathcal{F}_n$-measurable)。
======================
Comment:
我們可以已將停止時間 $N$ 視為 賭徒何時抽手不玩的時間,那麼上述條件可以視為:在時間$n$ 賭徒認為是時候該停手不玩的決定 必定是基於當時賭局所能獲得的資訊 $(\mathcal{F}_n)$ 而定
那麼現在我們可以回答原本賭徒提出的問題,也就是假設 $X_n$ 為 supermartingale 則停止機制之後的隨機過程 $X_{N \wedge n}$ 是否仍為 supermartingale (因為如果是,則上述 Theorem 1 告訴我們儘管加入停止時間,仍然沒有任何必勝法能夠獲勝。)
此問題的答案記做以下定理:
======================
Theorem 2: 若 $N$ 為 Stopping time 且 $X_n$ 為 supermartingale 則停止後的隨機過程 $X_{n \wedge N}$ 亦為 supermartingale。
======================
我們要證明停止後的隨機過程 $X_{n \wedge N}$ 亦為 supermartingale。現在取 $H_n:= 1_{ \{N \ge n \} }$ 則觀察事件 $\{N \ge n\} = \{ N \le n-1 \}^c \in \mathcal{F}_{n-1}$ 故 $H_n$ 為 predictable。
接著觀察
\[\begin{array}{l}
{\left( {H \cdot X} \right)_n} = \sum\limits_{m = 1}^n {{H_m}\left( {{X_m} - {X_{m - 1}}} \right)} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} = \sum\limits_{m = 1}^n {{1_{\left\{ {N \ge m} \right\}}}\left( {{X_m} - {X_{m - 1}}} \right)} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} = {1_{\left\{ {N \ge 1} \right\}}}\left( {{X_1} - {X_0}} \right) + {1_{\left\{ {N \ge 2} \right\}}}\left( {{X_2} - {X_1}} \right) + ... + {1_{\left\{ {N \ge n} \right\}}}\left( {{X_n} - {X_{n - 1}}} \right)
\end{array}\]注意到由於 $X_n$ 為 supermartingale 且 $H_n$ 為 predictable,由 Theorem 1 可知 $(H \cdot X)_n$ 為 supermartingale,故
\[\begin{array}{l}
{\left( {H \cdot X} \right)_n} = {X_{n \wedge N}} - {X_0}\\
\Rightarrow {X_{n \wedge N}} = \underbrace {{{\left( {H \cdot X} \right)}_n}}_{{\rm{supermartingale}}} + \underbrace {{X_0}}_{{\rm{constant}}}
\end{array}\]上式右方: supermartingale $(H \cdot X)_n$ 加上常數隨機過程 $X_0$ 仍為 supermartingale,亦即 ${X_{n \wedge N}}$ 為 supermartingale。 $\square$
Comment:
若 $X_n$ 為 martingale 則 $X_{n \wedge N}$ 亦為 martingale。有興趣的讀者可參閱
[機率論] Martingale (3) - Example
Ref: Durrett, Probability Theory and Examples, Cambridge
5/20/2014
[機率論] 淺論 Martingale (0) - 定義與性質
關於 Martingale Theory (中文譯作 鞅論),原本 Martingale 指的是套在馬身上的韁繩
在機率論中,Martingale 泛指一類特定的隨機過程。起初的想法如下:
考慮一個硬派賭徒參加一場丟擲硬幣賭錢的遊戲:若硬幣正面向上,則賭徒會贏得下注金並且停止遊戲 (take money and run),反之,若硬幣反面向上,則賭徒輸掉下注金。
但此時因為賭徒並不甘心..所以他採取的策略是把 賭注加倍 再繼續玩。持續 $n$ 次這樣的遊戲。那麼這位賭徒宣稱靠這套 "必勝法" 最後可以 贏得一筆大錢 or 至少不輸;因為只要過程中贏得一場就可以獲得相對的加倍下注金!! (但此法真的可行嗎? 我們會在後續在做介紹)
現在我們引入嚴格定義:
=================
Definition: Filtration 與 Adaptedness
令 $\mathcal{F}_n$ 為 filtration (亦即 $\sigma$-algebra $\mathcal{F}_n \subset \mathcal{F}_{n+1}, \; \forall n$) 則我們說 $X_n$ 為 adapted to $\mathcal{F}_n$ 若 $X_n $ 為 $\mathcal{F}_n$-measurable。
我們說一個 random sequence $\{X_n\}$ 為 Martingale with respect to $\{\mathcal{F}_n\}$若下列條件成立:
1. 可積條件:$E|X_n| < \infty$
2. 可測條件:$X_n$ 為 adapted to $\mathcal{F}_n$ ($\forall n$, $X_n $ 為 $\mathcal{F}_n$-measurable)
3. Martingale 性質:對任意 $n$,$E[X_{n+1}|\mathcal{F}_n] = X_n$
=================
Comment:
若上述定義中的 Martingale 性質 的 $=$ 號 換成 $\le$ 則我們稱 $\{X_n\}$ 為 supermartingale 反之,若 $=$ 號 換成 $\ge$ 則我們稱 $\{X_n\}$ 為 submartingale
以下我們看個例子:
Example: Coin Tossing Game
考慮連續投擲一枚公平硬幣的遊戲:定義隨機變數 $\xi_n$ 表示為第 $n$-th 投擲銅板且
\[{\xi _n}: = \left\{ \begin{array}{l}
+ 1,\begin{array}{*{20}{c}}
{}&{}
\end{array}head\\
- 1,\begin{array}{*{20}{c}}
{}&{}
\end{array}tail
\end{array} \right.;\begin{array}{*{20}{c}}
{}&{}
\end{array}P\left( {{\xi _n} = 1} \right) = P\left( {{\xi _n} = - 1} \right) = 1/2\]注意到此遊戲中,每次投擲硬幣出現的結果之間彼此獨立!。
接著我們定義新的隨機變數 $X_n:= \xi_1 + ... + \xi_n$, 且 sigma-algebra $\mathcal{F}_n:=\sigma(\xi_1,...,\xi_n)$ 對任意 $n \ge 1$。且 $X_0 :=0$ 其對應的 sigma-algebra $\mathcal{F}_0:=\{\emptyset, \Omega\}$。
現在我們宣稱此 $X_n$ (賭徒在第 $n$次賭博後所贏的錢) 為 martingale。
Proof:
現在檢驗此隨機變數 $X_n$ 是否為 martingale ? 亦即需要檢驗 $X_n$ 是否滿足 Martingale 的三個條件,首先檢驗
可積條件: \[\begin{array}{*{20}{l}}
{E|{X_n}| = E|{\xi _1} + ... + {\xi _n}|}\\
{\begin{array}{*{20}{c}}
{}&{}&{}
\end{array} \le E|{\xi _1}| + ... + E|{\xi _n}|}\\
{\begin{array}{*{20}{c}}
{}&{}&{}
\end{array} = n\left[ {1P\left( {{\xi _n} = 1} \right) + \left| { - 1} \right|P\left( {{\xi _n} = - 1} \right)} \right] < \infty }
\end{array}\]接著檢驗 可測條件:由於$\mathcal{F}_n:=\sigma(\xi_1,...,\xi_n)$ 對任意 $n \ge 1$,故可知 $X_n$ 確實為 $\mathcal{F}_n$-measurable。
最後檢驗 Martingale property:固定任意 $n \ge 1$,觀察
\[\begin{array}{l}
E[{X_{n + 1}}|{{{\cal F}}_n}] = E[\left( {{\xi _1} + ... + {\xi _n} + {\xi _{n + 1}}} \right)|{{{\cal F}}_n}]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = \left( {{\xi _1} + ... + {\xi _n}} \right) + E[{\xi _{n + 1}}|{{{\cal F}}_n}]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {{\xi _{n + 1}}\begin{array}{*{20}{c}}
{}
\end{array}independent\begin{array}{*{20}{c}}
{}
\end{array}of{{{\cal F}}_n}} \right)\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = {X_n} + E[{\xi _{n + 1}}]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = {X_n} + \left[ {1P\left( {{\xi _{n + 1}} = 1} \right) + \left( { - 1} \right)P\left( {{\xi _{n + 1}} = - 1} \right)} \right]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = {X_n} + \left[ {1 \cdot \frac{1}{2} + \left( { - 1} \right)\frac{1}{2}} \right] = {X_n}
\end{array}\]由於三個條件都滿足,故可知 $X_n$確實為 martingale。 $\square$
Comment:
如果上述例子換成 $P(\xi_n =1) \le 1/2$ (e.g., 莊家把硬幣動一點手腳?) 則 Martingale property 會得到
\[
E[X_{n+1}| \mathcal{F}_n] \le X_n
\]亦即,$X_n$ 為 supermartingale。
現在看幾個簡單的結果:
=================
FACT 1: 假設 $X_n$ 為 martingale w.r.t. $\mathcal{G}_n$ 且令 $\mathcal{F}_n:= \sigma(X_1,...,X_n)$,則 $\mathcal{G}_n \supset \mathcal{F}_n$ 且 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$。
=================
Proof:
首先檢驗 $\mathcal{G}_n \supset \mathcal{F}_n$ ,由於 $\mathcal{F}_n:= \sigma(X_1,...,X_n)$ 為 smallest sigma-algebra generated by $X_1,...,X_n$ 故 $\mathcal{G}_n \supset \mathcal{F}_n$ 。
接者我們證明 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$:由於已知 $X_n$ 為 martingale w.r.t. $\mathcal{G}_n$ 只需檢驗 Martingale Property 即可;亦即要證
\[E\left[ {{X_{n + 1}}|{\mathcal{F}_n}} \right] = E{X_n}
\]故現在觀察
\[\begin{array}{l}
\left\{ \begin{array}{l}
E\left[ {E\left[ {{X_{n + 1}}|{\mathcal{G}_n}} \right]|{F_n}} \right] = E\left[ {{X_{n + 1}}|{F_n}} \right]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {tower\begin{array}{*{20}{c}}
{}
\end{array}property} \right)\\
E\left[ {{X_{n + 1}}|{\mathcal{G}_n}} \right] = {X_n}
\end{array} \right.\\
\Rightarrow E\left[ {{X_n}|{\mathcal{F}_n}} \right] = E\left[ {{X_{n + 1}}|{\mathcal{F}_n}} \right]\\
\Rightarrow {X_n} = E\left[ {{X_{n + 1}}|{\mathcal{F}_n}} \right]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {{X_n} \in {\mathcal{F}_n}} \right)
\end{array}\]上述 $X_n \in \mathcal{F}_n$ 表示 $X_n$ 為 $\mathcal{F}_n$ measurable。
由前述推導可知 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$。$\square$
===============
Fact 2: 若 $X_n$ 為 supermartingale,則 對任意 $n > m$,$n,m \in \mathbb{N}$ 我們有 $E[X_n| \mathcal{F}_m] \le X_m$。
===============
Proof:
給定 $n > m$, 要證 $E[X_n| \mathcal{F}_m] \le X_m$。
首先觀察如果 $n := m+1$ 則
\[E[{X_n}|{{{\cal F}}_m}] = E[{X_{m + 1}}|{{{\cal F}}_m}] \ \ \ \ (*)
\]又因為 $X_n$ 為 supermartingale 故對任意 $n$,我們有 $E[{X_{n + 1}}|{{{\cal F}}_n}] \le {X_n}$ 亦即
\[E[{X_n}|{{{\cal F}}_m}] = E[{X_{m + 1}}|{{{\cal F}}_m}] \le {X_m}
\]故 $n=m+1$ 時候 $E[X_n| \mathcal{F}_m] \le X_m$。
現在令 $n:=m +k$,$k \ge 2$ 觀察
\[\begin{array}{l}
E[{X_{m + k}}|{{{\cal F}}_m}] = E[E\left[ {{X_{m + k}}|{{{\cal F}}_{m + k - 1}}} \right]|{{{\cal F}}_m}]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {tower\begin{array}{*{20}{c}}
{}
\end{array}peroperty} \right)\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} \le E[{X_{m + k - 1}}|{{{\cal F}}_m}]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {by\begin{array}{*{20}{c}}
{}
\end{array}assumption\begin{array}{*{20}{c}}
{}
\end{array}E[{X_{n + 1}}|{{{\cal F}}_n}] \le {X_n}} \right)
\end{array}\]接著利用 induction 可證得 $E[X_n| \mathcal{F}_m] \le X_m$。$\square$
上述結果對 submartingale 與 martingale 亦成立:
FACT 3:
(a) 若 $X_n$ 為 submartingale,則 對任意 $n > m$,$n,m \in \mathbb{N}$ 我們有 $E[X_n| \mathcal{F}_m] \ge X_m$。
(b) 若 $X_n$ 為 martingale,則 對任意 $n > m$,$n,m \in \mathbb{N}$ 我們有 $E[X_n| \mathcal{F}_m] =X_m$。
=================
Ref: Durrett, Probability Theory and Examples, Cambridge
https://commons.wikimedia.org/wiki/File:Martingale_(PSF).png
在機率論中,Martingale 泛指一類特定的隨機過程。起初的想法如下:
考慮一個硬派賭徒參加一場丟擲硬幣賭錢的遊戲:若硬幣正面向上,則賭徒會贏得下注金並且停止遊戲 (take money and run),反之,若硬幣反面向上,則賭徒輸掉下注金。
但此時因為賭徒並不甘心..所以他採取的策略是把 賭注加倍 再繼續玩。持續 $n$ 次這樣的遊戲。那麼這位賭徒宣稱靠這套 "必勝法" 最後可以 贏得一筆大錢 or 至少不輸;因為只要過程中贏得一場就可以獲得相對的加倍下注金!! (但此法真的可行嗎? 我們會在後續在做介紹)
現在我們引入嚴格定義:
=================
Definition: Filtration 與 Adaptedness
令 $\mathcal{F}_n$ 為 filtration (亦即 $\sigma$-algebra $\mathcal{F}_n \subset \mathcal{F}_{n+1}, \; \forall n$) 則我們說 $X_n$ 為 adapted to $\mathcal{F}_n$ 若 $X_n $ 為 $\mathcal{F}_n$-measurable。
我們說一個 random sequence $\{X_n\}$ 為 Martingale with respect to $\{\mathcal{F}_n\}$若下列條件成立:
1. 可積條件:$E|X_n| < \infty$
2. 可測條件:$X_n$ 為 adapted to $\mathcal{F}_n$ ($\forall n$, $X_n $ 為 $\mathcal{F}_n$-measurable)
3. Martingale 性質:對任意 $n$,$E[X_{n+1}|\mathcal{F}_n] = X_n$
=================
若上述定義中的 Martingale 性質 的 $=$ 號 換成 $\le$ 則我們稱 $\{X_n\}$ 為 supermartingale 反之,若 $=$ 號 換成 $\ge$ 則我們稱 $\{X_n\}$ 為 submartingale
以下我們看個例子:
Example: Coin Tossing Game
考慮連續投擲一枚公平硬幣的遊戲:定義隨機變數 $\xi_n$ 表示為第 $n$-th 投擲銅板且
\[{\xi _n}: = \left\{ \begin{array}{l}
+ 1,\begin{array}{*{20}{c}}
{}&{}
\end{array}head\\
- 1,\begin{array}{*{20}{c}}
{}&{}
\end{array}tail
\end{array} \right.;\begin{array}{*{20}{c}}
{}&{}
\end{array}P\left( {{\xi _n} = 1} \right) = P\left( {{\xi _n} = - 1} \right) = 1/2\]注意到此遊戲中,每次投擲硬幣出現的結果之間彼此獨立!。
接著我們定義新的隨機變數 $X_n:= \xi_1 + ... + \xi_n$, 且 sigma-algebra $\mathcal{F}_n:=\sigma(\xi_1,...,\xi_n)$ 對任意 $n \ge 1$。且 $X_0 :=0$ 其對應的 sigma-algebra $\mathcal{F}_0:=\{\emptyset, \Omega\}$。
現在我們宣稱此 $X_n$ (賭徒在第 $n$次賭博後所贏的錢) 為 martingale。
Proof:
現在檢驗此隨機變數 $X_n$ 是否為 martingale ? 亦即需要檢驗 $X_n$ 是否滿足 Martingale 的三個條件,首先檢驗
可積條件: \[\begin{array}{*{20}{l}}
{E|{X_n}| = E|{\xi _1} + ... + {\xi _n}|}\\
{\begin{array}{*{20}{c}}
{}&{}&{}
\end{array} \le E|{\xi _1}| + ... + E|{\xi _n}|}\\
{\begin{array}{*{20}{c}}
{}&{}&{}
\end{array} = n\left[ {1P\left( {{\xi _n} = 1} \right) + \left| { - 1} \right|P\left( {{\xi _n} = - 1} \right)} \right] < \infty }
\end{array}\]接著檢驗 可測條件:由於$\mathcal{F}_n:=\sigma(\xi_1,...,\xi_n)$ 對任意 $n \ge 1$,故可知 $X_n$ 確實為 $\mathcal{F}_n$-measurable。
最後檢驗 Martingale property:固定任意 $n \ge 1$,觀察
\[\begin{array}{l}
E[{X_{n + 1}}|{{{\cal F}}_n}] = E[\left( {{\xi _1} + ... + {\xi _n} + {\xi _{n + 1}}} \right)|{{{\cal F}}_n}]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = \left( {{\xi _1} + ... + {\xi _n}} \right) + E[{\xi _{n + 1}}|{{{\cal F}}_n}]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {{\xi _{n + 1}}\begin{array}{*{20}{c}}
{}
\end{array}independent\begin{array}{*{20}{c}}
{}
\end{array}of{{{\cal F}}_n}} \right)\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = {X_n} + E[{\xi _{n + 1}}]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = {X_n} + \left[ {1P\left( {{\xi _{n + 1}} = 1} \right) + \left( { - 1} \right)P\left( {{\xi _{n + 1}} = - 1} \right)} \right]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} = {X_n} + \left[ {1 \cdot \frac{1}{2} + \left( { - 1} \right)\frac{1}{2}} \right] = {X_n}
\end{array}\]由於三個條件都滿足,故可知 $X_n$確實為 martingale。 $\square$
Comment:
如果上述例子換成 $P(\xi_n =1) \le 1/2$ (e.g., 莊家把硬幣動一點手腳?) 則 Martingale property 會得到
\[
E[X_{n+1}| \mathcal{F}_n] \le X_n
\]亦即,$X_n$ 為 supermartingale。
現在看幾個簡單的結果:
=================
FACT 1: 假設 $X_n$ 為 martingale w.r.t. $\mathcal{G}_n$ 且令 $\mathcal{F}_n:= \sigma(X_1,...,X_n)$,則 $\mathcal{G}_n \supset \mathcal{F}_n$ 且 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$。
=================
首先檢驗 $\mathcal{G}_n \supset \mathcal{F}_n$ ,由於 $\mathcal{F}_n:= \sigma(X_1,...,X_n)$ 為 smallest sigma-algebra generated by $X_1,...,X_n$ 故 $\mathcal{G}_n \supset \mathcal{F}_n$ 。
接者我們證明 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$:由於已知 $X_n$ 為 martingale w.r.t. $\mathcal{G}_n$ 只需檢驗 Martingale Property 即可;亦即要證
\[E\left[ {{X_{n + 1}}|{\mathcal{F}_n}} \right] = E{X_n}
\]故現在觀察
\[\begin{array}{l}
\left\{ \begin{array}{l}
E\left[ {E\left[ {{X_{n + 1}}|{\mathcal{G}_n}} \right]|{F_n}} \right] = E\left[ {{X_{n + 1}}|{F_n}} \right]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {tower\begin{array}{*{20}{c}}
{}
\end{array}property} \right)\\
E\left[ {{X_{n + 1}}|{\mathcal{G}_n}} \right] = {X_n}
\end{array} \right.\\
\Rightarrow E\left[ {{X_n}|{\mathcal{F}_n}} \right] = E\left[ {{X_{n + 1}}|{\mathcal{F}_n}} \right]\\
\Rightarrow {X_n} = E\left[ {{X_{n + 1}}|{\mathcal{F}_n}} \right]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {{X_n} \in {\mathcal{F}_n}} \right)
\end{array}\]上述 $X_n \in \mathcal{F}_n$ 表示 $X_n$ 為 $\mathcal{F}_n$ measurable。
由前述推導可知 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$。$\square$
===============
Fact 2: 若 $X_n$ 為 supermartingale,則 對任意 $n > m$,$n,m \in \mathbb{N}$ 我們有 $E[X_n| \mathcal{F}_m] \le X_m$。
===============
Proof:
給定 $n > m$, 要證 $E[X_n| \mathcal{F}_m] \le X_m$。
首先觀察如果 $n := m+1$ 則
\[E[{X_n}|{{{\cal F}}_m}] = E[{X_{m + 1}}|{{{\cal F}}_m}] \ \ \ \ (*)
\]又因為 $X_n$ 為 supermartingale 故對任意 $n$,我們有 $E[{X_{n + 1}}|{{{\cal F}}_n}] \le {X_n}$ 亦即
\[E[{X_n}|{{{\cal F}}_m}] = E[{X_{m + 1}}|{{{\cal F}}_m}] \le {X_m}
\]故 $n=m+1$ 時候 $E[X_n| \mathcal{F}_m] \le X_m$。
現在令 $n:=m +k$,$k \ge 2$ 觀察
\[\begin{array}{l}
E[{X_{m + k}}|{{{\cal F}}_m}] = E[E\left[ {{X_{m + k}}|{{{\cal F}}_{m + k - 1}}} \right]|{{{\cal F}}_m}]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {tower\begin{array}{*{20}{c}}
{}
\end{array}peroperty} \right)\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}
\end{array} \le E[{X_{m + k - 1}}|{{{\cal F}}_m}]\begin{array}{*{20}{c}}
{}&{}
\end{array}\left( {by\begin{array}{*{20}{c}}
{}
\end{array}assumption\begin{array}{*{20}{c}}
{}
\end{array}E[{X_{n + 1}}|{{{\cal F}}_n}] \le {X_n}} \right)
\end{array}\]接著利用 induction 可證得 $E[X_n| \mathcal{F}_m] \le X_m$。$\square$
上述結果對 submartingale 與 martingale 亦成立:
=================
(a) 若 $X_n$ 為 submartingale,則 對任意 $n > m$,$n,m \in \mathbb{N}$ 我們有 $E[X_n| \mathcal{F}_m] \ge X_m$。
(b) 若 $X_n$ 為 martingale,則 對任意 $n > m$,$n,m \in \mathbb{N}$ 我們有 $E[X_n| \mathcal{F}_m] =X_m$。
=================
Proof: omitted。(幾乎與 FACT 2 證明一致)
=================
Corollary for FACT 3:
假設 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$ 則
\[
E[X_n] = E[X_m]= E[X_0], \;\; \forall n>m
\]=================
Proof: 令 $n>m$ 且 $X_n$ 為 martingale,由 FACT3 可知 $E[X_n| \mathcal{F}_m] =X_m$,故兩邊再次同取期望值,利用條件期望值定義可得
\[\begin{array}{l}
E[{X_n}|{F_m}] = E[{X_m}]\\
\Rightarrow \underbrace {E\left[ {E[{X_n}|{F_m}]} \right]}_{ = E{X_n}} = \underbrace {E\left[ {E[{X_m}]} \right]}_{ = E{X_m}} \ \ \ \ \square
\end{array}\]
假設 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$ 則
\[
E[X_n] = E[X_m]= E[X_0], \;\; \forall n>m
\]=================
Proof: 令 $n>m$ 且 $X_n$ 為 martingale,由 FACT3 可知 $E[X_n| \mathcal{F}_m] =X_m$,故兩邊再次同取期望值,利用條件期望值定義可得
\[\begin{array}{l}
E[{X_n}|{F_m}] = E[{X_m}]\\
\Rightarrow \underbrace {E\left[ {E[{X_n}|{F_m}]} \right]}_{ = E{X_n}} = \underbrace {E\left[ {E[{X_m}]} \right]}_{ = E{X_m}} \ \ \ \ \square
\end{array}\]
=================
FACT 4: 若 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$ 且函數 $\varphi$ 為 convex 滿足 對任意 $n$ 而言,$E|\varphi(X_n)| < \infty$,則 $\varphi(X_n)$ 為 submartingale w.r.t. $\mathcal{F}_n$。
=================
Proof: 要證 $\varphi(X_n)$ 為 submartingale w.r.t. $\mathcal{F}_n$。亦即要證
\[E\left[ {\varphi \left( {{X_{n + 1}}} \right)|{\mathcal{F}_n}} \right] \ge \varphi \left( {{X_n}} \right)
\]
由於函數 $\varphi$ 為 convex 滿足且對任意 $n$ 而言,$E|\varphi(X_n)| < \infty$ 故我們利用(Conditional) Jensen inequality 可知
\[\varphi (\underbrace {E\left[ {{X_{n + 1}}|{\mathcal{F}_n}} \right]}_{ = {X_n}}) \le E\left[ {\varphi \left( {{X_{n + 1}}} \right)|{\mathcal{F}_n}} \right]\]注意到上式左方利用了假設 $\varphi(X_n)$ 為 submartingale w.r.t. $\mathcal{F}_n$,亦即 $E[X_{n+1} | \mathcal{F}_n] = X_n$ 故我們有 \[\varphi ({X_n}) \le E\left[ {\varphi \left( {{X_{n + 1}}} \right)|{{{\cal F}}_n}} \right]\]即為所求。$\square$
=================
Corollary for FACT4: 考慮 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$ ,若 $p \ge 1$ 且 $E|X_n|^p <\infty, \; \forall n$ 則 $|X_n|^p$ 為 submartingale w.r.t. $\mathcal{F}_n$
=================
Proof: 觀察 $|x|^p$ 為 convex function,故利用 FACT4 得證
現在我們想問 FACT 4 反向是否成立? 如果不,那麼加甚麼條件可以使其成立?
=================
FACT 5: 若 $X_n$ 為 submartingale w.r.t. $\mathcal{F}_n$ 且 $\varphi$ 為 increasing convex 函數 且滿足 $E|\varphi(X_n)| <\infty\; \forall n$ 則 $\varphi(X_n)$ 為 submartingale w.r.t. $\mathcal{F}_n$
=================
Proof:
要證明 $\varphi(X_n)$ 為 submartingale w.r.t. $\mathcal{F}_n$ ;亦即
\[E\left[ {\varphi \left( {{X_{n + 1}}} \right)|{F_n}} \right] \ge \varphi ({X_n})\]
首先注意到 $\varphi$ 為 increasing 故可知 $x \le y \Rightarrow \varphi(x) \le \varphi(y)$,現在觀察
\[\underbrace {\varphi \left( {{X_n}} \right) \le \varphi \left( {E\left[ {{X_{n + 1}}|{F_n}} \right]} \right)}_{{\rm{by}}\begin{array}{*{20}{c}}
{}
\end{array}{X_n} \le E\left[ {{X_{n + 1}}|{F_n}} \right]\begin{array}{*{20}{c}}
{}
\end{array}\& \begin{array}{*{20}{c}}
{}
\end{array}\varphi \begin{array}{*{20}{c}}
{}
\end{array}{\rm{is}}\begin{array}{*{20}{c}}
{}
\end{array}{\rm{increasing}}} \le E\left[ {\varphi \left( {{X_{n + 1}}} \right)|{F_n}} \right]\]
Corollary for FACT5
1. 若 $X_n$ 為 submartingale 且 $a$ 為任意常數,則 $(X_n - a)^+$ 亦為 submartingale。 (其中 $(x)^+$ 表示 只取 $x$ 正的部分)
2. 若 $X_n$ 為 supermartingale,則 $X_n \wedge a$ 亦為 supermartingale。
Proof 1. 令 $\varphi(x):= (x-a)^+ $只需驗證 $\varphi$ 為 convex 即可(why?) 因為一旦 $\varphi$為 convex 則直接應用 FACT5 即可得證)。故我們現在檢驗 convexity:給定 $x,y$ 與 $\lambda \in [0,1]$ 觀察
\[\begin{array}{l}
\phi \left( {\lambda x + \left( {1 - \lambda } \right)y} \right) = {\left( {\lambda x + \left( {1 - \lambda } \right)y - a + \lambda a - \lambda a} \right)^ + }\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}
\end{array} = {\left( {\lambda \left( {x - a} \right) + \left( {1 - \lambda } \right)\left( {y - a} \right)} \right)^ + }\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}
\end{array} \le \lambda {\left( {x - a} \right)^ + } + \left( {1 - \lambda } \right){\left( {y - a} \right)^ + }
\end{array}\]故為 convex function。
Proof 2: 由於 $X_n$ 為 supermartingale,故 $-X_n$ 為 submartingale,且 $\min\{x,a\} = -\max\{x,a\}$。令 $\varphi(x) := \max\{x,a\}$ ;由於 maximum function 為 convex function,故可直接使用 FACT 5 證得所需的部分。
延伸閱讀
[機率論] 淺論 Martingale (1) - 何時能 贏 or 輸掉賭局?
=================
Corollary for FACT4: 考慮 $X_n$ 為 martingale w.r.t. $\mathcal{F}_n$ ,若 $p \ge 1$ 且 $E|X_n|^p <\infty, \; \forall n$ 則 $|X_n|^p$ 為 submartingale w.r.t. $\mathcal{F}_n$
=================
現在我們想問 FACT 4 反向是否成立? 如果不,那麼加甚麼條件可以使其成立?
=================
FACT 5: 若 $X_n$ 為 submartingale w.r.t. $\mathcal{F}_n$ 且 $\varphi$ 為 increasing convex 函數 且滿足 $E|\varphi(X_n)| <\infty\; \forall n$ 則 $\varphi(X_n)$ 為 submartingale w.r.t. $\mathcal{F}_n$
=================
要證明 $\varphi(X_n)$ 為 submartingale w.r.t. $\mathcal{F}_n$ ;亦即
\[E\left[ {\varphi \left( {{X_{n + 1}}} \right)|{F_n}} \right] \ge \varphi ({X_n})\]
首先注意到 $\varphi$ 為 increasing 故可知 $x \le y \Rightarrow \varphi(x) \le \varphi(y)$,現在觀察
\[\underbrace {\varphi \left( {{X_n}} \right) \le \varphi \left( {E\left[ {{X_{n + 1}}|{F_n}} \right]} \right)}_{{\rm{by}}\begin{array}{*{20}{c}}
{}
\end{array}{X_n} \le E\left[ {{X_{n + 1}}|{F_n}} \right]\begin{array}{*{20}{c}}
{}
\end{array}\& \begin{array}{*{20}{c}}
{}
\end{array}\varphi \begin{array}{*{20}{c}}
{}
\end{array}{\rm{is}}\begin{array}{*{20}{c}}
{}
\end{array}{\rm{increasing}}} \le E\left[ {\varphi \left( {{X_{n + 1}}} \right)|{F_n}} \right]\]
Corollary for FACT5
1. 若 $X_n$ 為 submartingale 且 $a$ 為任意常數,則 $(X_n - a)^+$ 亦為 submartingale。 (其中 $(x)^+$ 表示 只取 $x$ 正的部分)
2. 若 $X_n$ 為 supermartingale,則 $X_n \wedge a$ 亦為 supermartingale。
Proof 1. 令 $\varphi(x):= (x-a)^+ $只需驗證 $\varphi$ 為 convex 即可(why?) 因為一旦 $\varphi$為 convex 則直接應用 FACT5 即可得證)。故我們現在檢驗 convexity:給定 $x,y$ 與 $\lambda \in [0,1]$ 觀察
\[\begin{array}{l}
\phi \left( {\lambda x + \left( {1 - \lambda } \right)y} \right) = {\left( {\lambda x + \left( {1 - \lambda } \right)y - a + \lambda a - \lambda a} \right)^ + }\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}
\end{array} = {\left( {\lambda \left( {x - a} \right) + \left( {1 - \lambda } \right)\left( {y - a} \right)} \right)^ + }\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}
\end{array} \le \lambda {\left( {x - a} \right)^ + } + \left( {1 - \lambda } \right){\left( {y - a} \right)^ + }
\end{array}\]故為 convex function。
Proof 2: 由於 $X_n$ 為 supermartingale,故 $-X_n$ 為 submartingale,且 $\min\{x,a\} = -\max\{x,a\}$。令 $\varphi(x) := \max\{x,a\}$ ;由於 maximum function 為 convex function,故可直接使用 FACT 5 證得所需的部分。
延伸閱讀
[機率論] 淺論 Martingale (1) - 何時能 贏 or 輸掉賭局?
Ref: Durrett, Probability Theory and Examples, Cambridge
3/29/2014
[隨機分析] Ito-formula 與其應用 (4) - Martingale Revisits
現在回頭再看看 Ito Formula 給我們的 Martingale 判別定理:
==============================
Theorem (Martingale PDE condition)
考慮 $t \in [0,T]$,若 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R})$,且
\[
\frac{{\partial f}}{{\partial t}} + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}} =0
\]則 $X_t = f(t, B_t)$ 為一個 Local Martingale。
再者,若 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)}\in \mathcal{H}^2$,亦即
\[
E \left[\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds \right] < \infty
\]則 $X_t$ 為一個 Martingale
==============================
現在再看個例子看看 Ito Formula 怎麼幫助我們獲得 Martingale
Example 1
令 $B_1(t), B_2(t), B_3 (t),...$ 互為獨立 Standard Brownian Motion。對 $k \in \mathbb{N}$ 定義函數 $g_k$ 與
\[
A_k(t) = \int_0^t g_k(B_1(s), B_2(s), ..., B_k(s))ds
\] 現在試求 $A_2$ 使得
\[
B_1(t)^2 B_2(t)^2 - A_2(t)
\]為 Martingale。 Hint: 利用 上述 PDE Martingale Condition。
Proof
我們要找
\[
{A_2}(t) = \int_0^t {{g_2}} ({B_1}(s),{B_2}(s))ds
\] 使得 $B_1(t)^2 B_2(t)^2 - A_2(t)$ 為 Martingale。
現在定義
\[f\left( {x,y} \right) = {x^2}{y^2}
\] 則我們首先計算其偏導數: ${f_x} = 2x{y^2}{,_{}}{f_{xx}} = 2{y^2}{,_{}}{f_y} = 2{x^2}y{,_{}}{f_{yy}} = 2{x^2}$ 現在由 Ito Formula:
\[
\begin{array}{l}
df\left( {{B_1}(t),{B_2}(t)} \right) = \frac{{\partial f}}{{\partial x}}\left( {{B_1}(t),{B_2}(t)} \right)d{B_1}(t)\\
\begin{array}{*{20}{c}}
{}&{}&{}
\end{array} + \frac{{\partial f}}{{\partial y}}\left( {{B_1}(t),{B_2}(t)} \right)d{B_2}(t) + \frac{1}{2}\left[ \begin{array}{l}
\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {{B_1}(t),{B_2}(t)} \right)dt\\
+ \frac{{{\partial ^2}f}}{{\partial {y^2}}}\left( {{B_1}(t),{B_2}(t)} \right)dt\\
+ \frac{{{\partial ^2}f}}{{\partial x\partial y}}\left( {{B_1}(t),{B_2}(t)} \right)d\left\langle {{B_1},{B_2}} \right\rangle
\end{array} \right]\\
\Rightarrow df\left( {{B_1}(t),{B_2}(t)} \right) = \frac{{\partial f}}{{\partial x}}\left( {{B_1}(t),{B_2}(t)} \right)d{B_1}(t) + \frac{{\partial f}}{{\partial y}}\left( {{B_1}(t),{B_2}(t)} \right)d{B_2}(t)\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{1}{2}\left[ {\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {{B_1}(t),{B_2}(t)} \right) + \frac{{{\partial ^2}f}}{{\partial {y^2}}}\left( {{B_1}(t),{B_2}(t)} \right)} \right]dt
\end{array}
\] 注意到上式中的 Cross Variation term: $ d\left\langle {{B_1},{B_2}} \right\rangle = 0$;另外為了形式簡潔起見,我們把 函數中的 時間 $t$ 先移除不寫,則上式變成:
\[\begin{array}{l}
df\left( {{B_1},{B_2}} \right) = 2{B_1}{B_2}^2d{B_1} + 2{B_1}^2{B_2}d{B_2} + \frac{1}{2}\left[ {2{B_2}^2dt + 2{B_1}^2dt} \right]\\
\Rightarrow df\left( {{B_1},{B_2}} \right) = 2{B_1}{B_2}^2d{B_1} + 2{B_1}^2{B_2}d{B_2} + {B_2}^2dt + {B_1}^2dt
\end{array}
\] 現在將其轉換回 積分形式:
\[\begin{array}{l}
\underbrace {f\left( {{B_1},{B_2}} \right)}_{ = {B_1}{{(t)}^2}{B_2}{{(t)}^2}} = 2\int_0^t {{B_1}{B_2}^2d{B_1}} + 2\int_0^t {{B_1}^2{B_2}d{B_2}} + \int_0^t {\left( {{B_2}^2 + {B_1}^2} \right)dt} \\
\Rightarrow {B_1}^2{B_2}^2 - \int_0^t {\left( {{B_2}^2 + {B_1}^2} \right)dt} = 2\int_0^t {{B_1}{B_2}^2d{B_1}} + 2\int_0^t {{B_1}^2{B_2}d{B_2}}
\end{array}
\]注意到上式等號右邊為 Local Martingale。現在檢驗 積分變數 是否落在 $\cal{H}^2$ 中,如果是的話,我們即得到 Martingale:故
\[\begin{array}{l}
E\left[ {\int_0^T {{{\left( {{B_1}{B_2}^2} \right)}^2}ds} } \right] = E\left[ {\int_0^T {{B_1}^2{B_2}^4ds} } \right] = \int_0^T {E\left[ {{B_1}^2{B_2}^4} \right]ds} \\
= \int_0^T {E\left[ {{B_1}^2} \right]E\left[ {{B_2}^4} \right]ds} = \int_0^T {s\left( {3{s^2}} \right)ds} = 3\int_0^T {{s^3}ds} = \frac{3}{4}{T^4} < \infty
\end{array}\] 故可知 ${{B_1}{B_2}^2} \in \cal{H}^2$
同理可證 ${{B_1}^2{B_2}} \in \cal{H}^2$,故我們得到
\[{B_1}{(t)^2}{B_2}{(t)^2} - \int_0^t {\left( {{B_2}^2 + {B_1}^2} \right)dt} \]為 Martingale。亦即
\[
{A_2}(t) = \int_0^t {\left( {{B_2}^2 + {B_1}^2} \right)dt} \ \ \ \ \square
\]
現在我們接續前述的例子,我們看看 $k=3$ 的情況:
Example 2
令 $B_1(t), B_2(t), B_3 (t),...$ 互為獨立 Standard Brownian Motion。對 $k \in \mathbb{N}$ 定義函數 $g_k$ 與
\[
A_k(t) = \int_0^t g_k(B_1(s), B_2(s), ..., B_k(s))ds
\] 現在試求 $A_3$ 使得
\[
B_1(t)^2 B_2(t)^2 B_3(t)^2 - A_3(t)
\]為 Martingale。 Hint: 利用 上述 PDE Martingale Condition。
Proof
如前例,令 $f\left( {x,y,z} \right) = {x^2}{y^2}{z^2}{,_{}} $ ,
\[\left\{ \begin{array}{l}
{f_x} = 2x{y^2}{z^2},\begin{array}{*{20}{c}}
{}
\end{array}{f_{xx}} = 2{y^2}{z^2},\\
{f_y} = 2{x^2}y{z^2},\begin{array}{*{20}{c}}
{}
\end{array}{f_{yy}} = 2{x^2}{z^2},\\
{f_z} = 2{x^2}{y^2}z,\begin{array}{*{20}{c}}
{}
\end{array}{f_{zz}} = 2{x^2}{y^2},
\end{array} \right.
\] 利用 Ito Formula 我們可得
\[\begin{array}{l}
df\left( {{B_1},{B_2},{B_3}} \right) = \frac{{\partial f}}{{\partial x}}\left( {{B_1},{B_2},{B_3}} \right)d{B_1} + \frac{{\partial f}}{{\partial y}}\left( {{B_1},{B_2},{B_3}} \right)d{B_2}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{{\partial f}}{{\partial z}}\left( {{B_1},{B_2},{B_3}} \right)d{B_3} + \frac{1}{2}\left[ \begin{array}{l}
\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {{B_1},{B_2},{B_3}} \right)dt\\
\begin{array}{*{20}{c}}
{}
\end{array} + \frac{{{\partial ^2}f}}{{\partial {y^2}}}\left( {{B_1},{B_2},{B_3}} \right)dt\\
\begin{array}{*{20}{c}}
{}
\end{array} + \frac{{{\partial ^2}f}}{{\partial {z^2}}}\left( {{B_1},{B_2},{B_3}} \right)dt
\end{array} \right]\\
\Rightarrow df\left( {{B_1},{B_2},{B_3}} \right) = \frac{{\partial f}}{{\partial x}}\left( {{B_1},{B_2},{B_3}} \right)d{B_1}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{{\partial f}}{{\partial y}}\left( {{B_1},{B_2},{B_3}} \right)d{B_2} + \frac{{\partial f}}{{\partial z}}\left( {{B_1},{B_2},{B_3}} \right)d{B_3}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{1}{2}\left[ {\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {{B_1},{B_2},{B_3}} \right) + \frac{{{\partial ^2}f}}{{\partial {y^2}}}\left( {{B_1},{B_2},{B_3}} \right) + \frac{{{\partial ^2}f}}{{\partial {z^2}}}\left( {{B_1},{B_2},{B_3}} \right)} \right]dt
\end{array}
\] 故
\[\begin{array}{l}
df\left( {{B_1},{B_2},{B_3}} \right) = 2{B_1}{B_2}^2{B_3}^2d{B_1} + 2{B_1}^2{B_2}{B_3}^2d{B_2} + 2{B_1}^2{B_2}^2{B_3}d{B_3}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{1}{2}\left[ {2{B_2}^2{B_3}^2 + 2{B_1}^2{B_3}^2 + 2{B_1}^2{B_2}^2} \right]dt
\end{array}
\]現在轉換回積分形式:
\[\begin{array}{l}
\Rightarrow \underbrace {f\left( {{B_1},{B_2},{B_3}} \right)}_{ = {B_1}^2{B_2}^2{B_3}^2} = 2\left[ \begin{array}{l}
\int_0^t {{B_1}{B_2}^2{B_3}^2d{B_1}} + \int_0^t {{B_1}^2{B_2}{B_3}^2d{B_2}} \\
\begin{array}{*{20}{c}}
{}&{}
\end{array} + \int_0^t {{B_1}^2{B_2}^2{B_3}d{B_3}}
\end{array} \right]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} + \int_0^t {\left( {{B_2}^2{B_3}^2 + {B_1}^2{B_3}^2 + {B_1}^2{B_2}^2} \right)} ds\\
\Rightarrow {B_1}^2{B_2}^2{B_3}^2 - \int_0^t {\left( {{B_2}^2{B_3}^2 + {B_1}^2{B_3}^2 + {B_1}^2{B_2}^2} \right)} ds\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = 2\left[ \begin{array}{l}
\int_0^t {{B_1}{B_2}^2{B_3}^2d{B_1}} + \int_0^t {{B_1}^2{B_2}{B_3}^2d{B_2}} \\
\begin{array}{*{20}{c}}
{}&{}
\end{array} + \int_0^t {{B_1}^2{B_2}^2{B_3}d{B_3}}
\end{array} \right]
\end{array}\] 故上式等號右邊 為 Local Martingale。(讀者可自行驗證其 $\int (\cdot) dB$ 積分的 積分變數全部都落在 $\cal{H}^2$),故為 Martingale,亦即
\[{B_1}^2{B_2}^2{B_3}^2 - \int_0^t {\left( {{B_2}^2{B_3}^2 + {B_1}^2{B_3}^2 + {B_1}^2{B_2}^2} \right)} ds\]為 Martingale。
且
\[{A_3}(t) = \int_0^t {\left( {{B_2}^2{B_3}^2 + {B_1}^2{B_3}^2 + {B_1}^2{B_2}^2} \right)} ds\]
==============================
Theorem (Martingale PDE condition)
考慮 $t \in [0,T]$,若 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R})$,且
\[
\frac{{\partial f}}{{\partial t}} + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}} =0
\]則 $X_t = f(t, B_t)$ 為一個 Local Martingale。
再者,若 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)}\in \mathcal{H}^2$,亦即
\[
E \left[\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds \right] < \infty
\]則 $X_t$ 為一個 Martingale
==============================
現在再看個例子看看 Ito Formula 怎麼幫助我們獲得 Martingale
Example 1
令 $B_1(t), B_2(t), B_3 (t),...$ 互為獨立 Standard Brownian Motion。對 $k \in \mathbb{N}$ 定義函數 $g_k$ 與
\[
A_k(t) = \int_0^t g_k(B_1(s), B_2(s), ..., B_k(s))ds
\] 現在試求 $A_2$ 使得
\[
B_1(t)^2 B_2(t)^2 - A_2(t)
\]為 Martingale。 Hint: 利用 上述 PDE Martingale Condition。
Proof
我們要找
\[
{A_2}(t) = \int_0^t {{g_2}} ({B_1}(s),{B_2}(s))ds
\] 使得 $B_1(t)^2 B_2(t)^2 - A_2(t)$ 為 Martingale。
現在定義
\[f\left( {x,y} \right) = {x^2}{y^2}
\] 則我們首先計算其偏導數: ${f_x} = 2x{y^2}{,_{}}{f_{xx}} = 2{y^2}{,_{}}{f_y} = 2{x^2}y{,_{}}{f_{yy}} = 2{x^2}$ 現在由 Ito Formula:
\[
\begin{array}{l}
df\left( {{B_1}(t),{B_2}(t)} \right) = \frac{{\partial f}}{{\partial x}}\left( {{B_1}(t),{B_2}(t)} \right)d{B_1}(t)\\
\begin{array}{*{20}{c}}
{}&{}&{}
\end{array} + \frac{{\partial f}}{{\partial y}}\left( {{B_1}(t),{B_2}(t)} \right)d{B_2}(t) + \frac{1}{2}\left[ \begin{array}{l}
\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {{B_1}(t),{B_2}(t)} \right)dt\\
+ \frac{{{\partial ^2}f}}{{\partial {y^2}}}\left( {{B_1}(t),{B_2}(t)} \right)dt\\
+ \frac{{{\partial ^2}f}}{{\partial x\partial y}}\left( {{B_1}(t),{B_2}(t)} \right)d\left\langle {{B_1},{B_2}} \right\rangle
\end{array} \right]\\
\Rightarrow df\left( {{B_1}(t),{B_2}(t)} \right) = \frac{{\partial f}}{{\partial x}}\left( {{B_1}(t),{B_2}(t)} \right)d{B_1}(t) + \frac{{\partial f}}{{\partial y}}\left( {{B_1}(t),{B_2}(t)} \right)d{B_2}(t)\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{1}{2}\left[ {\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {{B_1}(t),{B_2}(t)} \right) + \frac{{{\partial ^2}f}}{{\partial {y^2}}}\left( {{B_1}(t),{B_2}(t)} \right)} \right]dt
\end{array}
\] 注意到上式中的 Cross Variation term: $ d\left\langle {{B_1},{B_2}} \right\rangle = 0$;另外為了形式簡潔起見,我們把 函數中的 時間 $t$ 先移除不寫,則上式變成:
\[\begin{array}{l}
df\left( {{B_1},{B_2}} \right) = 2{B_1}{B_2}^2d{B_1} + 2{B_1}^2{B_2}d{B_2} + \frac{1}{2}\left[ {2{B_2}^2dt + 2{B_1}^2dt} \right]\\
\Rightarrow df\left( {{B_1},{B_2}} \right) = 2{B_1}{B_2}^2d{B_1} + 2{B_1}^2{B_2}d{B_2} + {B_2}^2dt + {B_1}^2dt
\end{array}
\] 現在將其轉換回 積分形式:
\[\begin{array}{l}
\underbrace {f\left( {{B_1},{B_2}} \right)}_{ = {B_1}{{(t)}^2}{B_2}{{(t)}^2}} = 2\int_0^t {{B_1}{B_2}^2d{B_1}} + 2\int_0^t {{B_1}^2{B_2}d{B_2}} + \int_0^t {\left( {{B_2}^2 + {B_1}^2} \right)dt} \\
\Rightarrow {B_1}^2{B_2}^2 - \int_0^t {\left( {{B_2}^2 + {B_1}^2} \right)dt} = 2\int_0^t {{B_1}{B_2}^2d{B_1}} + 2\int_0^t {{B_1}^2{B_2}d{B_2}}
\end{array}
\]注意到上式等號右邊為 Local Martingale。現在檢驗 積分變數 是否落在 $\cal{H}^2$ 中,如果是的話,我們即得到 Martingale:故
\[\begin{array}{l}
E\left[ {\int_0^T {{{\left( {{B_1}{B_2}^2} \right)}^2}ds} } \right] = E\left[ {\int_0^T {{B_1}^2{B_2}^4ds} } \right] = \int_0^T {E\left[ {{B_1}^2{B_2}^4} \right]ds} \\
= \int_0^T {E\left[ {{B_1}^2} \right]E\left[ {{B_2}^4} \right]ds} = \int_0^T {s\left( {3{s^2}} \right)ds} = 3\int_0^T {{s^3}ds} = \frac{3}{4}{T^4} < \infty
\end{array}\] 故可知 ${{B_1}{B_2}^2} \in \cal{H}^2$
同理可證 ${{B_1}^2{B_2}} \in \cal{H}^2$,故我們得到
\[{B_1}{(t)^2}{B_2}{(t)^2} - \int_0^t {\left( {{B_2}^2 + {B_1}^2} \right)dt} \]為 Martingale。亦即
\[
{A_2}(t) = \int_0^t {\left( {{B_2}^2 + {B_1}^2} \right)dt} \ \ \ \ \square
\]
現在我們接續前述的例子,我們看看 $k=3$ 的情況:
Example 2
令 $B_1(t), B_2(t), B_3 (t),...$ 互為獨立 Standard Brownian Motion。對 $k \in \mathbb{N}$ 定義函數 $g_k$ 與
\[
A_k(t) = \int_0^t g_k(B_1(s), B_2(s), ..., B_k(s))ds
\] 現在試求 $A_3$ 使得
\[
B_1(t)^2 B_2(t)^2 B_3(t)^2 - A_3(t)
\]為 Martingale。 Hint: 利用 上述 PDE Martingale Condition。
Proof
如前例,令 $f\left( {x,y,z} \right) = {x^2}{y^2}{z^2}{,_{}} $ ,
\[\left\{ \begin{array}{l}
{f_x} = 2x{y^2}{z^2},\begin{array}{*{20}{c}}
{}
\end{array}{f_{xx}} = 2{y^2}{z^2},\\
{f_y} = 2{x^2}y{z^2},\begin{array}{*{20}{c}}
{}
\end{array}{f_{yy}} = 2{x^2}{z^2},\\
{f_z} = 2{x^2}{y^2}z,\begin{array}{*{20}{c}}
{}
\end{array}{f_{zz}} = 2{x^2}{y^2},
\end{array} \right.
\] 利用 Ito Formula 我們可得
\[\begin{array}{l}
df\left( {{B_1},{B_2},{B_3}} \right) = \frac{{\partial f}}{{\partial x}}\left( {{B_1},{B_2},{B_3}} \right)d{B_1} + \frac{{\partial f}}{{\partial y}}\left( {{B_1},{B_2},{B_3}} \right)d{B_2}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{{\partial f}}{{\partial z}}\left( {{B_1},{B_2},{B_3}} \right)d{B_3} + \frac{1}{2}\left[ \begin{array}{l}
\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {{B_1},{B_2},{B_3}} \right)dt\\
\begin{array}{*{20}{c}}
{}
\end{array} + \frac{{{\partial ^2}f}}{{\partial {y^2}}}\left( {{B_1},{B_2},{B_3}} \right)dt\\
\begin{array}{*{20}{c}}
{}
\end{array} + \frac{{{\partial ^2}f}}{{\partial {z^2}}}\left( {{B_1},{B_2},{B_3}} \right)dt
\end{array} \right]\\
\Rightarrow df\left( {{B_1},{B_2},{B_3}} \right) = \frac{{\partial f}}{{\partial x}}\left( {{B_1},{B_2},{B_3}} \right)d{B_1}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{{\partial f}}{{\partial y}}\left( {{B_1},{B_2},{B_3}} \right)d{B_2} + \frac{{\partial f}}{{\partial z}}\left( {{B_1},{B_2},{B_3}} \right)d{B_3}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{1}{2}\left[ {\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {{B_1},{B_2},{B_3}} \right) + \frac{{{\partial ^2}f}}{{\partial {y^2}}}\left( {{B_1},{B_2},{B_3}} \right) + \frac{{{\partial ^2}f}}{{\partial {z^2}}}\left( {{B_1},{B_2},{B_3}} \right)} \right]dt
\end{array}
\] 故
\[\begin{array}{l}
df\left( {{B_1},{B_2},{B_3}} \right) = 2{B_1}{B_2}^2{B_3}^2d{B_1} + 2{B_1}^2{B_2}{B_3}^2d{B_2} + 2{B_1}^2{B_2}^2{B_3}d{B_3}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}
\end{array} + \frac{1}{2}\left[ {2{B_2}^2{B_3}^2 + 2{B_1}^2{B_3}^2 + 2{B_1}^2{B_2}^2} \right]dt
\end{array}
\]現在轉換回積分形式:
\[\begin{array}{l}
\Rightarrow \underbrace {f\left( {{B_1},{B_2},{B_3}} \right)}_{ = {B_1}^2{B_2}^2{B_3}^2} = 2\left[ \begin{array}{l}
\int_0^t {{B_1}{B_2}^2{B_3}^2d{B_1}} + \int_0^t {{B_1}^2{B_2}{B_3}^2d{B_2}} \\
\begin{array}{*{20}{c}}
{}&{}
\end{array} + \int_0^t {{B_1}^2{B_2}^2{B_3}d{B_3}}
\end{array} \right]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} + \int_0^t {\left( {{B_2}^2{B_3}^2 + {B_1}^2{B_3}^2 + {B_1}^2{B_2}^2} \right)} ds\\
\Rightarrow {B_1}^2{B_2}^2{B_3}^2 - \int_0^t {\left( {{B_2}^2{B_3}^2 + {B_1}^2{B_3}^2 + {B_1}^2{B_2}^2} \right)} ds\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = 2\left[ \begin{array}{l}
\int_0^t {{B_1}{B_2}^2{B_3}^2d{B_1}} + \int_0^t {{B_1}^2{B_2}{B_3}^2d{B_2}} \\
\begin{array}{*{20}{c}}
{}&{}
\end{array} + \int_0^t {{B_1}^2{B_2}^2{B_3}d{B_3}}
\end{array} \right]
\end{array}\] 故上式等號右邊 為 Local Martingale。(讀者可自行驗證其 $\int (\cdot) dB$ 積分的 積分變數全部都落在 $\cal{H}^2$),故為 Martingale,亦即
\[{B_1}^2{B_2}^2{B_3}^2 - \int_0^t {\left( {{B_2}^2{B_3}^2 + {B_1}^2{B_3}^2 + {B_1}^2{B_2}^2} \right)} ds\]為 Martingale。
且
\[{A_3}(t) = \int_0^t {\left( {{B_2}^2{B_3}^2 + {B_1}^2{B_3}^2 + {B_1}^2{B_2}^2} \right)} ds\]
3/26/2014
[隨機分析] Ito-formula 與其應用 (2) - Martingale PDE condtion
回憶先前提及的 Ito Integral 有下列重要結果:Ito-integral 為一個隨機過程,且若積分變數 $f \in \mathcal{H}^2$,則隨機積分為一個 Martingale。若 $f \in L_{LOC}^2$,則隨機積分為一個 Local martingale。我們把此結果記做 $(\star)$
現在我們來看看 Ito formula 可以幫助我們判別是否為 Martingale or Local Martingale。
現在考慮 $t \in [0,T]$,回憶雙變數的 Ito formula
\[
\small{
f(t,B_t) = f(0,B_0) + \int_0^t \frac{{\partial f}}{{\partial t}}\left( {s,{B_s}} \right)ds + \int_0^t \frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right) dB_s + \frac{1}{2}\int_0^t \frac{{\partial^2 f}}{{\partial x^2}}\left( {s,{B_s}} \right)ds }
\]
現在將上式 $\int ds$ 項合併,可得
\[
\small{ f(t,{B_t}) = f(0,{B_0}) + \int_0^t {\left( {\frac{{\partial f}}{{\partial t}}\left( {s,{B_s}} \right) + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {s,{B_s}} \right)} \right)} ds + \int_0^t {\frac{{\partial f}}{{\partial x}}} \left( {s,{B_s}} \right)d{B_s}}
\]觀察上式,如果 $\int ds$ 項為零,亦即
\[
{\frac{{\partial f}}{{\partial t}}\left( {s,{B_s}} \right) + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {s,{B_s}} \right)}=0
\],則 Ito formula剩餘的最後一項 為 Ito integral ,由我們剛剛提過的 $(\star)$ 可知,此 Ito integral
\[\int_0^t {\frac{{\partial f}}{{\partial x}}} \left( {s,{B_s}} \right)d{B_s}
\]為 Local martingale。 WHY!? 因為Ito formula假設 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R})$,也就是說 Ito integral 項的積分變數 (對 $f$ 取一階偏導數) 為 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \in \mathcal{C}^1$,又因為 $t \in [0,T]$為compact domain,連續函數必定有界,也就是說積分變數是落在 $L_{LOC}^2$,亦即滿足下式
\[
\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds < \infty
\]
另外,如果 Ito integral的 積分變數 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \in \mathcal{H}^2$,亦即滿足下式
\[
E \left [\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds \right] < \infty
\]
,則我們可得到 Martingale。
我們現在將上述結果寫成下面這個定理:
Theorem (Martingale PDE condition)
考慮 $t \in [0,T]$,若 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R})$,且
\[
\frac{{\partial f}}{{\partial t}} + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}} =0\ \ \ \ (1)
\]則 $X_t = f(t, B_t)$ 為一個 Local Martingale。
再者,若 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)}\in \mathcal{H}^2$,亦即
\[
E \left[\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds \right] < \infty \ \ \ \ (2)
\]則 $X_t$ 為一個 Martingale
Proof
其實證明已經於前面討論寫完,但我們這邊把前述討論再稍作整理。
給定任意 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R})$ 滿足雙變數 Ito formula:
\[
\small{ f(t,{B_t}) = f(0,{B_0}) + \int_0^t {\left( {\frac{{\partial f}}{{\partial t}}\left( {s,{B_s}} \right) + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {s,{B_s}} \right)} \right)} ds + \int_0^t {\frac{{\partial f}}{{\partial x}}} \left( {s,{B_s}} \right)d{B_s}}
\]
由假設 $(1)$,上式變成
\[f(t,{B_t}) = f(0,{B_0}) + \int_0^t {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} d{B_s}\]
由於 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R}) \Rightarrow {\frac{{\partial f}}{{\partial x}}} \in \mathcal{C}^1$,故 ${\frac{{\partial f}}{{\partial x}}}$為連續函數,又因為 $t \in [0,T]$為compact domain,連續函數必定有界,也就是說積分變數 ${\frac{{\partial f}}{{\partial x}}}$ 是落在 $L_{LOC}^2$,亦即滿足下式
\[
\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds < \infty
\]
故 Ito integral $\int_0^t {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} d{B_s}$為一個Local Martingale。
另外如果假設 $(2)$ 成立;亦即
\[
E \left[\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds \right] < \infty
\]則積分變數 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)}\in \mathcal{H}^2$,故
Ito integral $\int_0^t {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} d{B_s}$為一個 Martingale。 $\square$
Example (Ruin Problem)
令 $B_t$ 為 標準布朗運動,定義一個隨機過程 $X_t$符合下式
\[
X_t := \mu t + \sigma B_t
\]
其中 $\mu \in \mathbb{R}$; $\sigma>0$;$A,B >0$。且定義停止時間
\[
\tau := \inf\{ t>0 : X_t = A \ or \ X_t = -B\}
\]計算 $P(X_{\tau} = A ) =?$
Comment:
上述隨機過程 $X_t := \mu t + \sigma B_t $ 一般稱之為 Arithmetic Brownian Motion。
Solution:
想法如下:
如果我們可以找到一個函數 $h(X_t)$ 使其為 Martingale (透過滿足 Martingale PDE condtion Theorem),則利用 Martingale的性質我們知道
\[
E[h(X_0)] = E[h(X_{\tau})]
\]又因為 $E[h(X_{\tau})] = h(A)P(X_{\tau} = A) + h(-B) P(X_{\tau}=-B)$,故
\[
E[h(X_0)] = E[h(X_{\tau})] = h(A)P(X_{\tau} = A) + h(-B) P(X_{\tau}=-B)
\]又我們可以知道$h(A)$ 與 $h(-B)$,故即可解得 $P(X_{\tau} = A) $。
以下開始逐步求解:
為了要找出$h(X_t)$,我們令
$f(t,x):=h( \mu t + \sigma x)$,則 $f(t,B_t) = h( \mu t + \sigma B_t) = h(X_t)$
現在透過 Martingale PDE condition $(1)$:
\[
\frac{{\partial f}}{{\partial t}} + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}} =0 \ \ \ \ (**)
\]為了求解簡便起見,令 $z := \mu t + \sigma x $,則
\[\left\{ \begin{array}{l}
\frac{{\partial f}}{{\partial t}} = \frac{{\partial h}}{{\partial z}}\frac{{\partial z}}{{\partial t}} = \frac{{dh}}{{dz}}\mu \\
\frac{{\partial f}}{{\partial x}} = \frac{{\partial h}}{{\partial z}}\frac{{\partial z}}{{\partial x}} = \frac{{dh}}{{dz}}\sigma \\
\frac{{{\partial ^2}f}}{{\partial {x^2}}} = {\sigma ^2}\frac{{{d^2}h}}{{d{z^2}}}
\end{array} \right.\]則我們的 $(**)$ 變成
\[\begin{array}{l}
\frac{{dh}}{{dz}}\mu + \frac{1}{2}{\sigma ^2}\frac{{{d^2}h}}{{d{z^2}}} = 0\\
\Rightarrow h''\left( z \right) = \frac{{ - 2\mu }}{{{\sigma ^2}}}h'\left( z \right) \\
\Rightarrow \frac{{h''}}{{h'}}\left( z \right) = \frac{{ - 2\mu }}{{{\sigma ^2}}}\\
\Rightarrow {\left( {\ln \left( {h'\left( z \right)} \right)} \right)^\prime } = \frac{{ - 2\mu }}{{{\sigma ^2}}}\\
\Rightarrow \ln \left( {h'\left( z \right)} \right) = \frac{{ - 2\mu }}{{{\sigma ^2}}}z + C\\
\Rightarrow h'\left( z \right) = {C_1}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}z}}\\
\Rightarrow h\left( z \right) = {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}z}} + {C_3}\\
\Rightarrow f\left( {t,x} \right) = h\left( {\mu t + \sigma x} \right) = {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( {\mu t + \sigma x} \right)}} + {C_3} \ \ \ \ (\star \star)
\end{array}
\]再來我們透過 Martingale PDE condition $(2)$,計算 $L^2$-norm
\[\begin{array}{l}
E\left[ {\int_0^t {{{\left( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)}^2}} ds} \right] \\
\Rightarrow E\left[ {\int_0^t {{{\left( {\frac{{dh}}{{dz}}\sigma } \right)}^2}} ds} \right]= {\sigma ^2}E\left[ {{{\int_0^t {\left( {\frac{{dh}}{{dz}}} \right)} }^2}ds} \right]
\end{array}
\]由 $(\star \star)$,我們知道
\[
h\left( z \right) = {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}} + {C_3} \Rightarrow \frac{{dh}}{{dz}} = {C_4}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}}
\],故我們可得到
\[
\begin{array}{l}
\Rightarrow E\left[ {\int_0^t {{{\left( {\frac{{dh}}{{dz}}\sigma } \right)}^2}} ds} \right] = {\sigma ^2}E\left[ {{{\int_0^t {\left( {{C_4}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}}} \right)} }^2}ds} \right]\\
\Rightarrow {C_5}E\left[ {\int_0^t {{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\mu s + \sigma {B_s}} \right)}}ds} } \right] = {C_5}E\left[ {\int_0^t {{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\mu s} \right)}}{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\sigma {B_s}} \right)}}ds} } \right]\\
\Rightarrow {C_5}E\left[ {\int_0^t {\underbrace {{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\mu s} \right)}}}_{ \le 1}{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}ds} } \right] \le {C_5}E\left[ {\int_0^t {{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}ds} } \right]\\
\Rightarrow {C_5}E\left[ {\int_0^t {\underbrace {{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\mu s} \right)}}}_{ \le 1}{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}ds} } \right] \le {C_5}\int_0^t {E\left[ {{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}} \right]ds}
\end{array}
\]注意到 ${E\left[ {{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}} \right]}$ 為 Gaussian Random Variable的 Moment Generating Function,亦即
\[
E\left[ {{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}} \right] = {e^{\frac{1}{2}{{\left( {\frac{{ - 4\mu }}{\sigma }} \right)}^2}s}}
\]故,
\[
E\left[ {\int_0^t {{{\left( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)}^2}} ds} \right] \leq {C_5}\int_0^t {{e^{\frac{1}{2}{{\left( {\frac{{ - 4\mu }}{\sigma }} \right)}^2}s}}ds} < \infty
\],至此我們知道
\[
f\left( {t,{B_t}} \right) = h\left( {\mu t + \sigma {B_t}} \right) = h(X_t)= {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( {\mu t + \sigma {B_t}} \right)}} + {C_3}
\] 為Martingale。
由於 $ h(X_t) $ 為Martingale $\Rightarrow$ $h(X_{t \wedge \tau})$亦為 Martingale。
\[
E[h(X_0)] = E[h(X_{t \wedge \tau})]
\]且因為$h(X_t)$有界 (bounded by A or -B);亦即
\[
|h(X_{t \wedge \tau}) | \leq \max_{-B \leq x \leq A} h(x)
\]
,故由Dominated Convergence Theorem,我們知道當 $t \rightarrow \infty$,
\[
E[h(X_0)] = E[h(X_{t \wedge \tau})] \rightarrow E[h(X_{\tau})]
\]也就是說
\[
E[h(X_0)] = E[h(X_{\tau})] \ \ \ \ (**)
\]
且我們知道 $E[h(X_{\tau})] = h(A) P(X_{\tau} =A) + h(-B) P(X_{\tau} = -B)$,又
$X_0 = 0$ 故 $ h (X_0) = h(0) \Rightarrow E[h(X_0)] = E[h(0)] =h(0) $
現在我們可以求解 $(**)$如下
\[
E[h(X_0)] = E[h(X_{\tau})] \Rightarrow h(0) =h(A) P(X_{\tau} =A) + h(-B) P(X_{\tau} = -B)
\]
因為我們要求 $P(X_{\tau}=A)$故令邊界條件 $h(A) =1, h(-B)=0$;故上式改寫
\[
E[h(X_0)] = E[h(X_{\tau})] \Rightarrow h(0) =1 \cdot P(X_{\tau} =A) \ \ \ \ (\star \star)
\]且由先前計算得到的
\[
h(z) = {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}} + {C_3}
\]
透過邊界條件 $h(A) =1, h(-B)=0$,我們可解 $C_2, C_3$如下
\[\begin{array}{l}
h(z) = \frac{1}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}} + \frac{{ - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}} = \frac{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}\\
\Rightarrow h(0) = \frac{{1 - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}
\end{array}\]
現在比較上式與 $(\star \star)$,我們得到
\[\begin{array}{l}
h(0) = 1 \cdot P({X_\tau } = A)\\
\Rightarrow \;\frac{{1 - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}} = P({X_\tau } = A)
\end{array}\]
即為所求。 $\square$
ref:
J. M. Steele, Stochastic Calculus and Financial Applications, Springer
現在我們來看看 Ito formula 可以幫助我們判別是否為 Martingale or Local Martingale。
現在考慮 $t \in [0,T]$,回憶雙變數的 Ito formula
\[
\small{
f(t,B_t) = f(0,B_0) + \int_0^t \frac{{\partial f}}{{\partial t}}\left( {s,{B_s}} \right)ds + \int_0^t \frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right) dB_s + \frac{1}{2}\int_0^t \frac{{\partial^2 f}}{{\partial x^2}}\left( {s,{B_s}} \right)ds }
\]
現在將上式 $\int ds$ 項合併,可得
\[
\small{ f(t,{B_t}) = f(0,{B_0}) + \int_0^t {\left( {\frac{{\partial f}}{{\partial t}}\left( {s,{B_s}} \right) + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {s,{B_s}} \right)} \right)} ds + \int_0^t {\frac{{\partial f}}{{\partial x}}} \left( {s,{B_s}} \right)d{B_s}}
\]觀察上式,如果 $\int ds$ 項為零,亦即
\[
{\frac{{\partial f}}{{\partial t}}\left( {s,{B_s}} \right) + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {s,{B_s}} \right)}=0
\],則 Ito formula剩餘的最後一項 為 Ito integral ,由我們剛剛提過的 $(\star)$ 可知,此 Ito integral
\[\int_0^t {\frac{{\partial f}}{{\partial x}}} \left( {s,{B_s}} \right)d{B_s}
\]為 Local martingale。 WHY!? 因為Ito formula假設 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R})$,也就是說 Ito integral 項的積分變數 (對 $f$ 取一階偏導數) 為 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \in \mathcal{C}^1$,又因為 $t \in [0,T]$為compact domain,連續函數必定有界,也就是說積分變數是落在 $L_{LOC}^2$,亦即滿足下式
\[
\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds < \infty
\]
另外,如果 Ito integral的 積分變數 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \in \mathcal{H}^2$,亦即滿足下式
\[
E \left [\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds \right] < \infty
\]
,則我們可得到 Martingale。
我們現在將上述結果寫成下面這個定理:
Theorem (Martingale PDE condition)
考慮 $t \in [0,T]$,若 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R})$,且
\[
\frac{{\partial f}}{{\partial t}} + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}} =0\ \ \ \ (1)
\]則 $X_t = f(t, B_t)$ 為一個 Local Martingale。
再者,若 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)}\in \mathcal{H}^2$,亦即
\[
E \left[\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds \right] < \infty \ \ \ \ (2)
\]則 $X_t$ 為一個 Martingale
Proof
其實證明已經於前面討論寫完,但我們這邊把前述討論再稍作整理。
給定任意 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R})$ 滿足雙變數 Ito formula:
\[
\small{ f(t,{B_t}) = f(0,{B_0}) + \int_0^t {\left( {\frac{{\partial f}}{{\partial t}}\left( {s,{B_s}} \right) + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}}\left( {s,{B_s}} \right)} \right)} ds + \int_0^t {\frac{{\partial f}}{{\partial x}}} \left( {s,{B_s}} \right)d{B_s}}
\]
由假設 $(1)$,上式變成
\[f(t,{B_t}) = f(0,{B_0}) + \int_0^t {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} d{B_s}\]
由於 $f \in \mathcal{C}^{1,2}(\mathbb{R}^+ \times \mathbb{R}) \Rightarrow {\frac{{\partial f}}{{\partial x}}} \in \mathcal{C}^1$,故 ${\frac{{\partial f}}{{\partial x}}}$為連續函數,又因為 $t \in [0,T]$為compact domain,連續函數必定有界,也就是說積分變數 ${\frac{{\partial f}}{{\partial x}}}$ 是落在 $L_{LOC}^2$,亦即滿足下式
\[
\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds < \infty
\]
故 Ito integral $\int_0^t {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} d{B_s}$為一個Local Martingale。
另外如果假設 $(2)$ 成立;亦即
\[
E \left[\int_0^t \left ( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)^2 ds \right] < \infty
\]則積分變數 ${\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)}\in \mathcal{H}^2$,故
Ito integral $\int_0^t {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} d{B_s}$為一個 Martingale。 $\square$
Example (Ruin Problem)
令 $B_t$ 為 標準布朗運動,定義一個隨機過程 $X_t$符合下式
\[
X_t := \mu t + \sigma B_t
\]
其中 $\mu \in \mathbb{R}$; $\sigma>0$;$A,B >0$。且定義停止時間
\[
\tau := \inf\{ t>0 : X_t = A \ or \ X_t = -B\}
\]計算 $P(X_{\tau} = A ) =?$
Comment:
上述隨機過程 $X_t := \mu t + \sigma B_t $ 一般稱之為 Arithmetic Brownian Motion。
Solution:
想法如下:
如果我們可以找到一個函數 $h(X_t)$ 使其為 Martingale (透過滿足 Martingale PDE condtion Theorem),則利用 Martingale的性質我們知道
\[
E[h(X_0)] = E[h(X_{\tau})]
\]又因為 $E[h(X_{\tau})] = h(A)P(X_{\tau} = A) + h(-B) P(X_{\tau}=-B)$,故
\[
E[h(X_0)] = E[h(X_{\tau})] = h(A)P(X_{\tau} = A) + h(-B) P(X_{\tau}=-B)
\]又我們可以知道$h(A)$ 與 $h(-B)$,故即可解得 $P(X_{\tau} = A) $。
以下開始逐步求解:
為了要找出$h(X_t)$,我們令
$f(t,x):=h( \mu t + \sigma x)$,則 $f(t,B_t) = h( \mu t + \sigma B_t) = h(X_t)$
現在透過 Martingale PDE condition $(1)$:
\[
\frac{{\partial f}}{{\partial t}} + \frac{1}{2}\frac{{{\partial ^2}f}}{{\partial {x^2}}} =0 \ \ \ \ (**)
\]為了求解簡便起見,令 $z := \mu t + \sigma x $,則
\[\left\{ \begin{array}{l}
\frac{{\partial f}}{{\partial t}} = \frac{{\partial h}}{{\partial z}}\frac{{\partial z}}{{\partial t}} = \frac{{dh}}{{dz}}\mu \\
\frac{{\partial f}}{{\partial x}} = \frac{{\partial h}}{{\partial z}}\frac{{\partial z}}{{\partial x}} = \frac{{dh}}{{dz}}\sigma \\
\frac{{{\partial ^2}f}}{{\partial {x^2}}} = {\sigma ^2}\frac{{{d^2}h}}{{d{z^2}}}
\end{array} \right.\]則我們的 $(**)$ 變成
\[\begin{array}{l}
\frac{{dh}}{{dz}}\mu + \frac{1}{2}{\sigma ^2}\frac{{{d^2}h}}{{d{z^2}}} = 0\\
\Rightarrow h''\left( z \right) = \frac{{ - 2\mu }}{{{\sigma ^2}}}h'\left( z \right) \\
\Rightarrow \frac{{h''}}{{h'}}\left( z \right) = \frac{{ - 2\mu }}{{{\sigma ^2}}}\\
\Rightarrow {\left( {\ln \left( {h'\left( z \right)} \right)} \right)^\prime } = \frac{{ - 2\mu }}{{{\sigma ^2}}}\\
\Rightarrow \ln \left( {h'\left( z \right)} \right) = \frac{{ - 2\mu }}{{{\sigma ^2}}}z + C\\
\Rightarrow h'\left( z \right) = {C_1}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}z}}\\
\Rightarrow h\left( z \right) = {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}z}} + {C_3}\\
\Rightarrow f\left( {t,x} \right) = h\left( {\mu t + \sigma x} \right) = {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( {\mu t + \sigma x} \right)}} + {C_3} \ \ \ \ (\star \star)
\end{array}
\]再來我們透過 Martingale PDE condition $(2)$,計算 $L^2$-norm
\[\begin{array}{l}
E\left[ {\int_0^t {{{\left( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)}^2}} ds} \right] \\
\Rightarrow E\left[ {\int_0^t {{{\left( {\frac{{dh}}{{dz}}\sigma } \right)}^2}} ds} \right]= {\sigma ^2}E\left[ {{{\int_0^t {\left( {\frac{{dh}}{{dz}}} \right)} }^2}ds} \right]
\end{array}
\]由 $(\star \star)$,我們知道
\[
h\left( z \right) = {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}} + {C_3} \Rightarrow \frac{{dh}}{{dz}} = {C_4}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}}
\],故我們可得到
\[
\begin{array}{l}
\Rightarrow E\left[ {\int_0^t {{{\left( {\frac{{dh}}{{dz}}\sigma } \right)}^2}} ds} \right] = {\sigma ^2}E\left[ {{{\int_0^t {\left( {{C_4}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}}} \right)} }^2}ds} \right]\\
\Rightarrow {C_5}E\left[ {\int_0^t {{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\mu s + \sigma {B_s}} \right)}}ds} } \right] = {C_5}E\left[ {\int_0^t {{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\mu s} \right)}}{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\sigma {B_s}} \right)}}ds} } \right]\\
\Rightarrow {C_5}E\left[ {\int_0^t {\underbrace {{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\mu s} \right)}}}_{ \le 1}{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}ds} } \right] \le {C_5}E\left[ {\int_0^t {{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}ds} } \right]\\
\Rightarrow {C_5}E\left[ {\int_0^t {\underbrace {{e^{\frac{{ - 4\mu }}{{{\sigma ^2}}}\left( {\mu s} \right)}}}_{ \le 1}{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}ds} } \right] \le {C_5}\int_0^t {E\left[ {{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}} \right]ds}
\end{array}
\]注意到 ${E\left[ {{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}} \right]}$ 為 Gaussian Random Variable的 Moment Generating Function,亦即
\[
E\left[ {{e^{\frac{{ - 4\mu }}{\sigma }\left( {{B_s}} \right)}}} \right] = {e^{\frac{1}{2}{{\left( {\frac{{ - 4\mu }}{\sigma }} \right)}^2}s}}
\]故,
\[
E\left[ {\int_0^t {{{\left( {\frac{{\partial f}}{{\partial x}}\left( {s,{B_s}} \right)} \right)}^2}} ds} \right] \leq {C_5}\int_0^t {{e^{\frac{1}{2}{{\left( {\frac{{ - 4\mu }}{\sigma }} \right)}^2}s}}ds} < \infty
\],至此我們知道
\[
f\left( {t,{B_t}} \right) = h\left( {\mu t + \sigma {B_t}} \right) = h(X_t)= {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( {\mu t + \sigma {B_t}} \right)}} + {C_3}
\] 為Martingale。
由於 $ h(X_t) $ 為Martingale $\Rightarrow$ $h(X_{t \wedge \tau})$亦為 Martingale。
\[
E[h(X_0)] = E[h(X_{t \wedge \tau})]
\]且因為$h(X_t)$有界 (bounded by A or -B);亦即
\[
|h(X_{t \wedge \tau}) | \leq \max_{-B \leq x \leq A} h(x)
\]
,故由Dominated Convergence Theorem,我們知道當 $t \rightarrow \infty$,
\[
E[h(X_0)] = E[h(X_{t \wedge \tau})] \rightarrow E[h(X_{\tau})]
\]也就是說
\[
E[h(X_0)] = E[h(X_{\tau})] \ \ \ \ (**)
\]
且我們知道 $E[h(X_{\tau})] = h(A) P(X_{\tau} =A) + h(-B) P(X_{\tau} = -B)$,又
$X_0 = 0$ 故 $ h (X_0) = h(0) \Rightarrow E[h(X_0)] = E[h(0)] =h(0) $
現在我們可以求解 $(**)$如下
\[
E[h(X_0)] = E[h(X_{\tau})] \Rightarrow h(0) =h(A) P(X_{\tau} =A) + h(-B) P(X_{\tau} = -B)
\]
因為我們要求 $P(X_{\tau}=A)$故令邊界條件 $h(A) =1, h(-B)=0$;故上式改寫
\[
E[h(X_0)] = E[h(X_{\tau})] \Rightarrow h(0) =1 \cdot P(X_{\tau} =A) \ \ \ \ (\star \star)
\]且由先前計算得到的
\[
h(z) = {C_2}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}} + {C_3}
\]
透過邊界條件 $h(A) =1, h(-B)=0$,我們可解 $C_2, C_3$如下
\[\begin{array}{l}
h(z) = \frac{1}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}} + \frac{{ - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}} = \frac{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}\left( z \right)}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}\\
\Rightarrow h(0) = \frac{{1 - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}
\end{array}\]
現在比較上式與 $(\star \star)$,我們得到
\[\begin{array}{l}
h(0) = 1 \cdot P({X_\tau } = A)\\
\Rightarrow \;\frac{{1 - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}}{{{e^{\frac{{ - 2\mu }}{{{\sigma ^2}}}A}} - {e^{\frac{{2\mu }}{{{\sigma ^2}}}B}}}} = P({X_\tau } = A)
\end{array}\]
即為所求。 $\square$
ref:
J. M. Steele, Stochastic Calculus and Financial Applications, Springer
B. Øksendal, Stochastic Differential Equations: An Introduction with Applications 6th, Springer
訂閱:
意見 (Atom)
[Claude] 國小數學加減乘除法計算小遊戲:數學怪獸大亂鬥
心血來潮用 Anthropic Claude Opus 4.6 做的簡單國小數學乘除法計算小遊戲,感嘆AI工具之強大與便利。原本可能要耗時幾天的工作轉眼就完成,時代的巨輪確實在飛速轉動。 數學怪獸大亂鬥(Math Monster Brawl)對戰的國小數學 加減乘除 小遊戲連結...
-
這次要介紹的是數學上一個重要的概念: Norm: 一般翻譯成 範數 (在英語中 norm 有規範的意思,比如我們說normalization就是把某種東西/物品/事件 做 正規化,也就是加上規範使其正常化),不過個人認為其實翻譯成 範數 也是看不懂的...這邊建議把 ...
-
數學上的 if and only if ( 此文不討論邏輯學中的 if and only if,只討論數學上的 if and only if。) 中文翻譯叫做 若且唯若 (or 當且僅當) , 記得當初剛接觸這個詞彙的時候,我是完全不明白到底是甚麼意思,查了翻譯也...
-
半導體中的電流是由電子(electron)及電洞(hole)兩種載子(carrier)移動所產生 載子移動的方式: 擴散(diffusion) $\Rightarrow$ 擴散電流 (不受外力電場作用) 飄移(drift) $\Rightarrow$ 飄移電流 (...
.png)