Processing math: 24%

3/23/2014

[隨機分析] Ito Integral 淺談 (IV) - Ito Integral on L^2 Local space and its Riemann Representation

延續 第三篇,
[隨機分析] Ito Integral 淺談 (III) - Localization

我們有了 Localizing sequence {υn}之後,便可以開始著手拓展 Ito Integral 到 fL2LOC[0,T]。亦即
t0f(ω,s)dBs  for fL2LOC[0,T]
在定義上述Ito Integral之前,我們需要先介紹一個新的概念: Local Martingale

========
Definition (Local Martingale)
考慮 t[0,T],令 Mt 為一個對 filtration {Ft} adapted 的隨機過程,則我們說 Mt 為一個 Local Martingale 若下列條件成立:
存在一組 停止時間 的sequence  υ1(ω)υ2(ω)...υn(ω)... 使得對所有的 n
Mtυn(ω)M0 為一個 Martingale, 且機率 P(n{υn(ω)=T})=1
========
Comment: 上述的一組停止時間的sequence 即為我們先前所介紹的 Localizing sequence。


有了 Local Martingale 在手之後,我們便可以開始著手拓展Ito Integral 到 fL2LOC[0,T]

=============
Definition: (Construction of the Ito Integral for fL2LOC)
考慮對所有 nXn,t 為連續時間的 Ito Integral。
Xn,t:=t0f(ω,s)1{sυn(ω)}dBs(ω) ,則存在一組連續的 Local Martingale 使得 對 almost every ω而言,下列隨機過程
Xt(ω)=Xn,t(ω),   n s.t. υn(ω)t 且隨機過程 Xt(ω) 與 Localizing sequence {υn}的選取無關,故定義 Ito Integral for fL2LOC :
Xt:=t0f(ω,s)dBs
===============
事實上此定義需要進一步證明,但這邊我們先假定此定義是well-defined。然後我們想要進一步討論以下這個重要結果。

===============
Theorem (Riemann Representation):
fC(R) (即 f 為連續實數函數),且定義 Partition
Δn:={0=tn0<...<tnn=T},並 mesh ||Δn||0,則
T0f(Bs)dBs=lim================
Proof:
我們要證明
\int_0^T f(B_s) dB_s = \lim_{||\Delta_n|| \rightarrow 0} \sum_i f(B_{t_{i-1}})(B_{t_i} - B_{t_{i-1}}) \ \text{in Probability}
注意到我們現在是落在 compact [0,T],且 布朗運動 B_t 為連續函數,故連續函數在compact domain必定有界。這暗示了f(B_t)[0,T]亦為有界。我們把此結果稱作 (1)

有了這個資訊,我們便可先定義一組 停止時間的sequence
\tau_M(\omega) := \inf \{ t \geq 0: |B_t| \geq M \ or \ t=T \} 則由結果(1)我們知道 f(B_t) \cdot 1_{\{ t \leq \tau_M(\omega)\}} \in \mathcal{H}^2[0,T] 且 對almost every \omega與足夠大的 n而言,\tau_M(\omega) =T。故此組 停止時間sequence localized f(B_t(\omega)),也就是說這組停止時間seqeunce讓 f(B_t(\omega)) \in L_{LOC}^2[0,T]


有了上述結果之後,我們可以開始著手進一步的證明,首先由定理的假設我們引入一個新的函數 f_M \in \mathcal{C}_c(\mathbb{R}); ( 其中 \mathcal{C}_c(\mathbb{R}) 表連續,且 compactly supported on \mathbb{R} 的space) 使得
f_M(x) = f(x) \ \text{for $|x| \leq M$} 因此, f_M 為有界函數(bounded),故取平方積分後依然有界,故我們可推知 f_M(B_t) \in \mathcal{H}^2[0,T],那麼對於此 f_M,我們便可應用先前的 L^2 space的結果。

對固定 M,我們可以計算對 f_M函數的 Ito Integral : \int_0^T f_M(B_s) dB_s

由於f_M(B_t) \in \mathcal{H}^2[0,T], 回憶 Density LEMMA ( \mathcal{H}_0^2  \text{is Dense in} \mathcal{H}^2) 可知,我們可以找到一組 approximating sequence \phi_n \in \mathcal{H}_0^2 使得當 n \rightarrow \infty
||  \phi_n - f_M ||_{L^2{(dP \times dt)}} \rightarrow 0  \ \ \ \ (*) 因為\phi_n \in \mathcal{H}_0^2 ,我們令
 \phi_n(\omega,s) = \sum_{i=1}^n f_M(B_{t_{i-1}}) \cdot 1_{\{ t_{i-1} < s \leq t_{i} \}}
為了要檢驗此 \{ \phi_n\} 為我們的approximating sequence to f_M(B_t),故我們由 (*)計算其 L^2 norm,
\begin{array}{l} ||{\phi _n}\left( {\omega ,s} \right) - {f_M}\left( {{B_s}} \right)|{|_{{L^2}(dP \times dt)}}= E\left[ {\int_0^T {{{\left( {{\phi _n}\left( {\omega ,s} \right) - {f_M}\left( {{B_s}} \right)} \right)}^2}ds} } \right]\\  = E\left[ {\int_0^T {{{\left( {\sum\limits_{i = 1}^n {{f_M}} ({B_{{t_{i - 1}}}}) \cdot {1_{\{ {t_{i - 1}} < s \le {t_i}\} }} - {f_M}\left( {{B_s}} \right)} \right)}^2}ds} } \right]\\  = E\left[ {\int_0^T {{{\left( {\sum\limits_{i = 1}^n {\left( {{f_M}({B_{{t_{i - 1}}}}) - {f_M}\left( {{B_s}} \right)} \right)}  \cdot {1_{\{ {t_{i - 1}} < s \le {t_i}\} }}} \right)}^2}ds} } \right]\\  = E\left[ {\int_0^T {\sum\limits_{i = 1}^n {{{\left( {{f_M}({B_{{t_{i - 1}}}}) - {f_M}\left( {{B_s}} \right)} \right)}^2}}  \cdot {1_{\{ {t_{i - 1}} < s \le {t_i}\} }}ds} } \right]\\  = \int_{{t_{i - 1}}}^{{t_i}} {\sum\limits_{i = 1}^n {E{{\left( {{f_M}({B_{{t_{i - 1}}}}) - {f_M}\left( {{B_s}} \right)} \right)}^2}} ds} \\  \le \int_{{t_{i - 1}}}^{{t_i}} {ds} \sum\limits_{i = 1}^n {E\left( {\mathop {\sup }\limits_{\{ s:{t_{i - 1}} < s \le {t_i}\} } {{\left( {{f_M}({B_{{t_{i - 1}}}}) - {f_M}\left( {{B_s}} \right)} \right)}^2}} \right)} \\  = (t_i  - t_{i-1}) \sum\limits_{i = 1}^n {E\left[ {\mathop {\sup }\limits_{\{ s:{t_{i - 1}} < s \le {t_i}\} } {{\left( {{f_M}({B_{{t_{i - 1}}}}) - {f_M}\left( {{B_s}} \right)} \right)}^2}} \right]} \end{array} \ \ \ \ (\star)
注意到,如果我們定義
\mu(h) := \sup \{ | f_M(x) - f_M(y)|: |x-y| \leq h\} 則由於 f_M為落在Compact domain的連續函數,故其必定有界;亦即存在一個夠大的常數B使得
\mu(h) \leq B 且由連續性可知,當 h \rightarrow 0 \Rightarrow \mu(h) \rightarrow 0

故如果我們現在定義
M_i := {\displaystyle \mathop {\sup }\limits_{\{ s:{t_{i - 1}} < s \le {t_i}\} } {{ |  {({B_{{t_{i - 1}}}}) - \left( {{B_s}} \right)}} |}} 由上述定義,我們可推知 (\star) 有如下關係:
  (t_i  - t_{i-1}) \sum\limits_{i = 1}^n {E\left[ {\mathop {\sup }\limits_{\{ s:{t_{i - 1}} < s \le {t_i}\} } {{\left( {{f_M}({B_{{t_{i - 1}}}}) - {f_M}\left( {{B_s}} \right)} \right)}^2}} \right]} \leq E[\mu^2(M_i))] \\
其中  \mu^2(M_i)  \leq B \cdot \mu(M_i) \rightarrow 0  \text{as $n \rightarrow \infty$}
故由 Dominated Convergence theorem,可知當 n \rightarrow \infty,我們有
  (t_i  - t_{i-1}) \sum\limits_{i = 1}^n {E\left[ {\mathop {\sup }\limits_{\{ s:{t_{i - 1}} < s \le {t_i}\} } {{\left( {{f_M}({B_{{t_{i - 1}}}}) - {f_M}\left( {{B_s}} \right)} \right)}^2}} \right]} \leq E[\mu^2(M_i))] \rightarrow 0
故 \{ \phi_n\} 為我們的approximating sequence to f_M(B_t)

故我們現在可以計算 \phi_n對應的 Ito Integral
I(\phi_n) = \sum_i f_M(B_{t_{i-1}})(B_{t_i} - B_{t_{i-1}}) 且由 Ito Isometry,我們知道 I(\phi_n) \rightarrow I(f_M) in L^2(dP),故我們有了對 f_M的Riemann Representation
 I(f_M) = \int_0^T f_M(B_s) dB_s = \lim_{||\Delta_n|| \rightarrow 0} \sum_i f_M(B_{t_{i-1}})(B_{t_i} - B_{t_{i-1}}). \ \ (**)

但注意到上式是對 f_M,我們想要定義的是 f,故現在我們可以開始證明convergence in probability。

首先觀察 f 與  f_M 的兩者間的關係如下:
對所有的 \omega \in \{ \omega: \tau_M(\omega) =T \},我們有 f(B_{t_i}) = f_M(B_{t_i}) \ \forall \ 0 \leq i \leq n,故考慮 事件 \{ \tau_M(\omega) = T\},則有如下結果
\int_0^T f(B_s) dB_s = \int_0^T f(B_s) \cdot 1_{\{s \leq \tau_M(\omega) \}}dB_s
定義下列事件 A_n(\varepsilon )
A_n(\varepsilon ) := \left\{ {\omega :\left| {\sum\limits_{i = 1}^n {f\left( {{B_{{t_{i - 1}}}}} \right)\left( {{B_{{t_i}}} - {B_{{t_{i - 1}}}}} \right)}  - \int_0^T {f\left( {{B_s}} \right)d{B_s}} } \right| \ge \varepsilon } \right\}
故現在我們需要證明的是 對所有的 \varepsilon >0 ,當n \rightarrow \infty,上述事件 A_n(\varepsilon )發生的機率為0

我們首先將事件 A_n(\varepsilon ) 分成兩部分:
P\left( {\left\{ {{A_n}\left( \varepsilon  \right) \cap \left\{ {{\tau _M}\left( \omega  \right) < T} \right\}} \right\}} \right) + P\left( {\left\{ {{A_n}\left( \varepsilon  \right) \cap \left\{ {{\tau _M}\left( \omega  \right) = T} \right\}} \right\}} \right)M夠大的時候,第一項 P\left( {\left\{ {{A_n}\left( \varepsilon  \right) \cap \left\{ {{\tau _M}\left( \omega  \right) < T} \right\}} \right\}} \right) \leq  P\left( {\left\{ {{\tau _M}\left( \omega  \right) < T} \right\}} \right) \rightarrow 0

現在注意第二項,利用 Chebyshev's inequality,我們可以得到下面關係:
\begin{array}{l} P\left( {\left\{ {{A_n}\left( \varepsilon  \right) \cap \left\{ {{\tau _M}\left( \omega  \right) = T} \right\}} \right\}} \right)\\  \le P\left( {\left\{ {\omega :\left| {\sum\limits_{i = 1}^n {{f_M}\left( {{B_{{t_{i - 1}}}}} \right)\left( {{B_{{t_i}}} - {B_{{t_{i - 1}}}}} \right)}  - \int_0^T {{f_M}\left( {{B_s}} \right)d{B_s}} } \right| \ge \varepsilon } \right\}} \right)\\  \le \frac{1}{{{\varepsilon ^2}}}E\left[ {{{\left| {\sum\limits_{i = 1}^n {{f_M}\left( {{B_{{t_{i - 1}}}}} \right)\left( {{B_{{t_i}}} - {B_{{t_{i - 1}}}}} \right)}  - \int_0^T {{f_M}\left( {{B_s}} \right)d{B_s}} } \right|}^2}} \right] \rightarrow 0 \end{array}
最後式成立是來自之前 Rimenn Representation  (**) 的結果。故我們得到
\int_0^T f(B_s) dB_s = \lim_{||\Delta_n|| \rightarrow 0} \sum_i f(B_{t_{i-1}})(B_{t_i} - B_{t_{i-1}}) \ \text{in Probability} 至此證明完畢。 \square

ref:
J. M. Steele, Stochastic Calculus and Financial Applications, Springer

沒有留言:

張貼留言

[人工智慧] 本地端 DeepSeek R1 快速安裝:以 Macbook Pro M4 Chip為例

最近火熱的 DeepSeek R1 模型由於採用了 distill 技術,可以大幅降低計算成本,使得一般人有機會在自家筆電上跑性能逼近 Open AI ChatGPT o1的大語言模型。本文簡單介紹一步安裝在 Macbook Pro 的方法以及使用方法,以下測試採用 Macboo...