顯示具有 Weak Laws of Large Numbers 標籤的文章。 顯示所有文章
顯示具有 Weak Laws of Large Numbers 標籤的文章。 顯示所有文章

5/07/2017

[數理統計] 一致性估計 與 弱大數法則

以下討論 點估計理論 中一些比較重要的性質與應用。

令 $\Theta$ 為某參數空間。

===================
Definition: (Point) Estimator and Estimate
給定 $X_1,...,X_n$ 為 i.i.d. 隨機試驗 來自 pdf $f(x;\theta)$ 其中 $\theta \in \Theta$ 為未知參數,現在定義新的隨機變數 $\widehat \theta$ 為  $X_1,...,X_n$ 的函數,寫為
\[
\widehat \theta := \widehat \theta(X_1,...,X_n)
\]則我們稱此 $\widehat \theta$ 為用以估計參數  $\theta$ 的估計量 (estimator of $\theta$),且若我們能取得隨機樣本的觀察值,比如 $X_1 = x_1,X_2=x_2,...,X_n = x_n$ 則我們稱
\[
\widehat \theta := \widehat \theta(x_1,...,x_n)
\]為參數 $\theta$ 的估計值(estimate)
===================

Comments:
1. 參數 $\theta$ 為分配中的未知常數,但估計量 $\widehat \theta$ 為隨機變數
2. 在數理統計中的 隨機取樣 與 機率論中 iid 隨機變數 視為等價敘述。
3. $\widehat \theta$為  $X_1,...,X_n$ 的函數,但與 $\theta$ 無關!在數理統計中稱此與待估計參數無關的性質為 統計量 (statistic)。



那麼怎樣的估計量才算是 "好" 的估計量?以下給出一些常見的 "好" 估計量定義。


===================
Definition: What "Good" Properties Should an Estimator Hold? 
令 \[
\widehat \theta := \widehat \theta(X_1,...,X_n)
\] 為某未知參數 $\theta$ 的估計量,則
我們稱 $\widehat \theta $ 為 不偏估計量(unbiased estimator) 若 $E[\widehat \theta] = \theta$
我們稱 $\widehat \theta$ 為 漸進不偏估計量 (asymptotic unbiased estimator) 若 $E[\widehat \theta] \to \theta$ 當 $n \to \infty$
我們稱 $\widehat \theta$ 為 一致估計量 (consistent estimator) 若 \[\widehat \theta \mathop  \to \limits^P \theta
\]亦即給定任意 $\varepsilon >0$ 我們有
\[\mathop {\lim }\limits_{n \to \infty } P\left( {\left| {\hat \theta  - \theta } \right| \geqslant \varepsilon } \right) = 0\]
===================

Comments:
1. 不偏估計在直覺上表示平均而言,估計量 $\widehat \theta$ 不會 高估 或者 低估 參數 $\theta$。
2. 一致性估計則表示隨機試驗夠多之後,對參數的估計量 $\widehat \theta$ 與 真實參數 $\theta$ 幾乎沒有差別。


以下我們簡介一個非常重要的點估計結果定理:若估計量為 不偏  或者漸進不偏,且 估計量 $$的變異收斂到 $0$ 則保證此估計量為一致估計量。

===================
Theorem: Consistency Estimator (Sufficient Condition for Probability Convergent Estimator)
令 $\widehat \theta := \widehat \theta(X_1,...,X_n)$ 為 $\theta \in \Theta$ 的 estimator,若 $E[\widehat \theta] = \theta$ 或 $E[\widehat{\theta}] \to \theta$ 且 $Var(\widehat{\theta}) \to 0$ 當 $n \to \infty$ 則
\[\widehat \theta \mathop  \to \limits^P \theta
\]===================

Proof:
要證明 $\widehat \theta \mathop  \to \limits^P \theta $ 由機率收斂定義可知,給定 $\varepsilon >0$ 我們要證明
\[\mathop {\lim }\limits_{n \to \infty } P\left( {\left| {\hat \theta  - \theta } \right| \geqslant \varepsilon } \right) = 0\]故首先觀察
\[
P\left( {\left| {\hat \theta  - \theta } \right| \geqslant \varepsilon } \right) = P\left( {{{\left( {\hat \theta  - \theta } \right)}^2} \geqslant {\varepsilon ^2}} \right) \leqslant \frac{{E\left[ {{{\left( {\hat \theta  - \theta } \right)}^2}} \right]}}{{{\varepsilon ^2}}}\;\;\;\;\;\;\; (*)
\]上述不等式成立是因為利用了 Generalized Chebyshev's inequality。現在我們觀察
 \begin{align*}
  E \left[ {{{\left( {\widehat \theta  - \theta } \right)}^2}} \right]
&= E\left[ {{{\left( {\widehat \theta  - E\left[ {\widehat \theta } \right] + E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \right] \hfill \\
  & = E\left[ {{{\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)}^2} + 2\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)\left( {E\left[ {\widehat \theta } \right] - \theta } \right) + {{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \right] \hfill \\
  & = \underbrace {E\left[ {{{\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)}^2}} \right]}_{ = Var\left( {\widehat \theta } \right)} + \underbrace {2E\left[ {\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)\left( {E\left[ {\widehat \theta } \right] - \theta } \right)} \right]}_{ = 2\left( {E\left[ {\widehat \theta } \right] - \theta } \right)E\left[ {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right]} \\
&\;\;\;\;\; + \underbrace {E\left[ {{{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \right]}_{ = {{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \hfill \\
 &  = Var\left( {\widehat \theta } \right) + 2\left( {E\left[ {\widehat \theta } \right] - \theta } \right)E\left[ {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right] + {\left( {E\left[ {\widehat \theta } \right] - \theta } \right)^2} \hfill \\
\end{align*}
上述結果用到了 $E[\widehat{\theta}] = constant$ 故
\[\left\{ \begin{align*}
  &E\left[ {{{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}} \right] = {\left( {E\left[ {\widehat \theta } \right] - \theta } \right)^2}; \hfill \\
  &2E\left[ {\left( {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right)\left( {E\left[ {\widehat \theta } \right] - \theta } \right)} \right] = 2\left( {E\left[ {\widehat \theta } \right] - \theta } \right)\underbrace {E\left[ {\widehat \theta  - E\left[ {\widehat \theta } \right]} \right]}_{ = 0} = 0 \hfill \\
\end{align*}  \right.\]故
\[E\left[ {{{\left( {\widehat \theta  - \theta } \right)}^2}} \right] = Var\left( {\widehat \theta } \right) + {\left( {E\left[ {\widehat \theta } \right] - \theta } \right)^2}\]現在將此結果代入 $(*)$ ,可得
\begin{align*}
  P\left( {\left| {\widehat \theta  - \theta } \right| \geqslant \varepsilon } \right) &\leqslant \frac{{E\left[ {{{\left( {\widehat \theta  - \theta } \right)}^2}} \right]}}{{{\varepsilon ^2}}} \hfill \\
  & = \frac{{Var\left( {\widehat \theta } \right) + {{\left( {E\left[ {\widehat \theta } \right] - \theta } \right)}^2}}}{{{\varepsilon ^2}}} \to \frac{1}{\varepsilon^2 }\left( {0 + 0} \right) = 0 \hfill \\
\end{align*}
又因為  機率測度恆正,我們有 $0 \leq P\left( {\left| {\widehat \theta  - \theta } \right| \geqslant \varepsilon } \right)  \to 0 $ 由極限的夾擊定理可知
\[\mathop {\lim }\limits_{n \to \infty } P\left( {\left| {\widehat \theta  - \theta } \right| \geqslant \varepsilon } \right) = 0\]故此得證。 $\square$


Comments:
在數理統計中,一致估計 與 機率論中的 機率收斂為等價。


上述定理可用來非常快速的證明弱大數法則 WLLN:亦即用 一組隨機試驗的 樣本平均數 作為 估計量來估計平均可以保證 機率收斂。

=============
Theorem 2: Weak Law of Large Numbers
令 $X_1,X_2,...$ 為 i.i.d. 隨機變數 數列 且具有共同 $E[X_1] = \mu$ 與變異數 $Var(X_1) = \sigma^2 < \infty$ 現在令
\[
\bar X := \frac{1}{n} \sum_{i=1}^n X_i
\]則
\[
\bar X \mathop  \to \limits^P \mu
\]=============

Proof:
此結果可利用前述 Consistency Estimator Theorem 求證,也就是把 $\widehat \theta := \bar X$ 且 $\theta := \mu$。則我們僅需證明 $\bar X$ 為不偏估計 ($E[\bar X] = \mu$) 或者 漸進不偏估計 ($E[\bar X] \to \mu$),且$\bar X$變異數收斂到 $0$ 即可。故現在觀察
\begin{align*}
  E\left[ {\bar X} \right] &= E\left[ {\frac{1}{n}\sum\limits_{i = 1}^n {{X_i}} } \right] \hfill \\
   &= \frac{1}{n}E\left[ {\sum\limits_{i = 1}^n {{X_i}} } \right] \hfill \\
  & = \frac{1}{n}\sum\limits_{i = 1}^n {E\left[ {{X_i}} \right]}  \hfill \\
  &\mathop  = \limits^{X_i \; i.i.d.} \frac{1}{n}\sum\limits_{i = 1}^n {E\left[ {{X_1}} \right]}  \hfill \\
   &= \frac{1}{n}nE\left[ {{X_1}} \right] = E\left[ {{X_1}} \right] = \mu  \hfill \\
\end{align*} 故我們知道 $\bar X$ 為不偏估計量,現在我們僅需證明 變異數收斂到 $0$ 。觀察
\begin{align*}
  Var\left( {\bar X} \right) &= Var\left( {\frac{1}{n}\sum\limits_{i = 1}^n {{X_i}} } \right) \hfill \\
  &\mathop  = \limits^{X_i \; i.i.d.} \frac{1}{{{n^2}}}\sum\limits_{i = 1}^n {Var\left( {{X_i}} \right)}  \hfill \\
  & = \frac{1}{{{n^2}}}nVar\left[ {{X_1}} \right] \hfill \\
 &  = \frac{1}{{{n^2}}}n{\sigma ^2} = \frac{1}{n}{\sigma ^2} \to 0 \hfill \\
\end{align*} 故由 consistency theorem ,
\[
\bar X \mathop  \to \limits^P \mu
\]至此得證。 $\square$

9/21/2009

[機率論] 淺論 弱大數法則

以下我們討論一些關於 弱大數法則(Weak Law of Large Numbers, WLLN) 的結果,首先介紹 一組隨機變數 數列 的 機率收斂  (Convergence in Probability)

=============================
Definition: Convergence in Probability
令 $Y_n$ 為一組隨機變數 sequence,我們說 $Y_n$ converges to $Y$ in probability 若下列條件成立:對任意 $\varepsilon >0$
\[
P(|Y_n - Y| > \varepsilon) \rightarrow 0 \;\; \text{ as  $n \rightarrow \infty$}
\]=============================

Comments:
1. 上述定義等價為
\[
P(|Y_n - Y| \leq \varepsilon) \rightarrow 1 \;\; \text{ as  $n \rightarrow \infty$}
\]
2. 上述定義中 $Y_n \to^P Y$ 的 $Y$ 可為隨機變數或者為常數。
3. 機率收斂在 機率論與隨機過程,以及 統計理論中 扮演重要角色,比如機率收斂在統計中等價稱為 consistent estimator,在此不做贅述。




==============================
Definition: Uncorrelated Random Variables
接著再回憶我們說一組隨機變數 $X_i, \; i \in \mathbb{N}$ 且 $E [X_i^2] <\infty$ 為 uncorrelated 若下列條件成立:當 $i \neq j$
\[
E[X_i X_j] = E[X_i] E[X_j]
\]============================

現在我們看個 uncorrelated 隨機變數的結果

=============================
Theorem:
令 $X_1, X_2,...X_n$ 為 uncorrelated 且 $E[X_i^2] < \infty$ 則
\[
var(X_1 + ... + X_n ) = var(X_1) + ... + var(X_n)
\]其中 $var(X)$ 為 variance of $X$。
=============================

Proof: omitted.


=============================
Lemma:
若 $p >0$ 且 $E[|X_n|^p] \rightarrow 0$ 則 $X_n \rightarrow 0$ in probability。
=============================

Proof:
要證明 $X_n \rightarrow 0$ in probability,亦即
\[P(|{X_n} - 0| > \varepsilon ) \to 0
\]首先觀察下列事件等價
\[\begin{array}{l}
\left\{ {|{X_n}| > \varepsilon } \right\} = \left\{ {|{X_n}{|^p} > {\varepsilon ^p}} \right\}\\
 \Rightarrow P\left\{ {|{X_n}| > \varepsilon } \right\} = P\left\{ {|{X_n}{|^p} > {\varepsilon ^p}} \right\}
\end{array}
\]由 Markov inequality 可知
\[P\left\{ {|{X_n}| > \varepsilon } \right\} = P\left\{ {|{X_n}{|^p} > {\varepsilon ^p}} \right\} \le \frac{{E\left[ {|{X_n}{|^p}} \right]}}{{{\varepsilon ^p}}}
\]由於 $E[|X_n|^p] \rightarrow 0$ ,且 $\varepsilon^p $ 為定值,故
\[P\left\{ {|{X_n}| > \varepsilon } \right\} \le \frac{{E\left[ {|{X_n}{|^p}} \right]}}{{{\varepsilon ^p}}} \to {\rm{0}}\]


=============================
Theorem: $L^2$ Weak Law
令 $X_1, ..., X_n$ 為 uncorrelated 隨機變數 且 $E[X_i] = \mu$,$var(X_i) \le C < \infty$。現在定義隨機變數的和 $S_n := X_1 + X_2 + ... + X_n$ 則
\[
S_n/n \rightarrow \mu \text{  in Probability as  $n \rightarrow \infty$}
\]=============================

Proof
要證明 給定 $\varepsilon>0$ 當 $n \rightarrow \infty$
\[P\left( {\left| {\frac{{{S_n}}}{n} - \mu } \right| > \varepsilon } \right) \to 0 \ \ \ \ (*)
\]不過如前一個定理所述,若我們可以證明 $E\left[ {{{\left| {\frac{{{S_n}}}{n} - \mu } \right|}^2}} \right] \to 0$ 則 $(*)$ 自動滿足。

首先觀察
\[E\left[ {\frac{{{S_n}}}{n}} \right] = \frac{1}{n}E\left[ {{S_n}} \right] = \frac{1}{n}\sum\limits_{i = 1}^n {E{X_i}}  = \frac{\mu }{n}n = \mu \]則
\[\begin{array}{l}
E\left[ {{{\left| {\frac{{{S_n}}}{n} - \mu } \right|}^2}} \right] = E\left[ {{{\left| {\frac{{{S_n}}}{n} - E\left[ {\frac{{{S_n}}}{n}} \right]} \right|}^2}} \right]\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}
\end{array} = var\left( {\frac{{{S_n}}}{n}} \right) = \frac{1}{{{n^2}}}var\left( {{S_n}} \right)\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}
\end{array} = \frac{1}{{{n^2}}}var\left( {\sum\limits_{i = 1}^n {{X_i}} } \right)
\end{array}\]由於 $X_1, ..., X_n$ 為 uncorrelated 隨機變數,故我們有 $var\left( {\sum\limits_{i = 1}^n {{X_i}} } \right) = \sum\limits_{i = 1}^n {var\left( {{X_i}} \right)} $ 將此結果帶入上式可得
\[\begin{array}{l}
E\left[ {{{\left| {\frac{{{S_n}}}{n} - \mu } \right|}^2}} \right] = \frac{1}{{{n^2}}}var\left( {\sum\limits_{i = 1}^n {{X_i}} } \right) = \frac{1}{{{n^2}}}\sum\limits_{i = 1}^n {var\left( {{X_i}} \right)} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}
\end{array} \le \frac{1}{{{n^2}}}Cn = \frac{1}{n}C \to 0
\end{array}\]當 $n \rightarrow \infty$ 故 $L^2$-convergence。又 $L^2$ convergence 保證 convergence in Probability,故
\[P\left( {\left| {\frac{{{S_n}}}{n} - \mu } \right| > \varepsilon } \right) \to 0 \ \ \ \ \square
\]

現在問題變成若我們想要拓展上述的 Weak law (e.g., 拔除 finite 2nd moment 條件 ),則我們必須引入一些新的定義如下:

============================
Definition: Tail Equivalence of Two Sequences of Random Variables
我們說兩隨機變數的 sequences $\{X_n\}$ 與 $\{Y_n \}$ 為 Tail Equivalent 若下列條件成立
\[
\sum_n P(X_n \neq Y_n) < \infty
\]===========================

============================
Definition: Truncation Function
定義以下剪切函數(truncation function)
\[X{1_{\left| X \right| \le M}} := \left\{ \begin{array}{l}
X,\begin{array}{*{20}{c}}
{}&{}
\end{array}\left| X \right| \le M\\
0,\begin{array}{*{20}{c}}
{}&{}
\end{array}\left| X \right| > M
\end{array} \right.\]============================


首先看幾個結果
FACT 1: 若 $Y \ge 0$ 且 $p >0$ 則
\[
E[Y^p] = \int_0^\infty p y^{p-1} P(Y>y)dy
\]Proof: 首先觀察積分
\[\begin{array}{l}
\int_0^\infty  p {y^{p - 1}}P(Y > y)dy = \int_0^\infty  p {y^{p - 1}}\int_\Omega ^{} {{1_{Y > y}}dP} dy\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = \int_0^\infty  {\int_\Omega ^{} {{1_{Y > y}}} p} {y^{p - 1}}dPdy\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = \int_\Omega ^{} {\int_0^\infty  {{1_{Y > y}}} p{y^{p - 1}}dydP} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = \int_\Omega ^{} {\int_0^Y {p{y^{p - 1}}} dydP}
\end{array}\] 因為 $ \int_0^Y {p{y^{p - 1}}} dy = {Y^p}$ 故代入上式可得
\[ \Rightarrow \int_0^\infty  p {y^{p - 1}}P(Y > y)dy = \int_\Omega ^{} {\int_0^Y {p{y^{p - 1}}} dydP = } \int_\Omega ^{} {{Y^p}dP = } E[{Y^p}] \ \ \ \ \square
\]


現在我們可以介紹 General Weak Law of Large Number:

=============================
Theorem: Weak Law of Large Number
令 $X_1, X_2, ... $ 為 i.i.d. 隨機變數 且 $S_n := X_1 + X_2 + ... + X_n$。若
(1) $\sum_{j=1}^n P(|X_j > n|) \rightarrow 0$
(2) $\frac{1}{n^2} \sum_{j=1}^n E[ X_j^2 1_{|X_j \le n|}] \rightarrow 0$

\[
S_n / n - \mu_n \rightarrow 0 \text{  in Probability}
\] 其中 $a_n := \sum_{j=1}^{n}E [X_j 1 _{|X_j| \le n}]$
=============================

Comments
在證明之前有幾點值得注意,上述 Weak Law of Large Number 並無對 $E[X_i^2]$ 有做假設

Proof
首先定義 $X_{nj}' := X_j 1_{|X_j| \le n}$ 且 $S_n' := \sum_{j=1}^n X_{nj}'$ 則觀察 Tail parts
\[\sum\limits_{j = 1}^n {P\left( {{X_{nj}}' \ne {X_j}} \right)}  = \sum\limits_{j = 1}^n {P\left( {\left| {{X_j}} \right| > n} \right) \to 0}
\]上述收斂成立由 Hypothesis $(1)$。接著我們觀察
\[\begin{array}{l}
P\left( {\left| {{S_n} - {S_n}'} \right| > \varepsilon } \right) \le P\left( {{S_n} \ne {S_n}'} \right)\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}
\end{array} \le P\left( {\bigcup\limits_{j = 1}^n {\left\{ {{X_{nj}}' \ne {X_j}} \right\}} } \right)\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}
\end{array} \le \sum\limits_{j = 1}^n {P\left( {{X_{nj}}' \ne {X_j}} \right)}  = \sum\limits_{j = 1}^n {P\left( {\left| {{X_j}} \right| > n} \right) \to 0}
\end{array}\]故可知
\[
S_n - S_n' \rightarrow 0 \text{  in Probability }
\]
現在觀察
\[\begin{array}{l}
P\left( {\frac{{\left| {{S_n}' - E{S_n}'} \right|}}{n} > \varepsilon } \right) \le \frac{{E\left[ {{{\left| {{S_n}' - E{S_n}'} \right|}^2}} \right]}}{{{n^2}{\varepsilon ^2}}} = \frac{{{\mathop{\rm var}} \left( {{S_n}'} \right)}}{{{n^2}{\varepsilon ^2}}}\\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}&{}
\end{array}{\rm{ = }}\frac{{{\mathop{\rm var}} \left( {{S_n}'} \right)}}{{{n^2}{\varepsilon ^2}}}{\rm{ = }}\frac{1}{{{n^2}{\varepsilon ^2}}}\sum\limits_{j = 1}^n {{\mathop{\rm var}} \left( {{X_{nj}}'} \right)} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}&{}
\end{array} \le \frac{1}{{{n^2}{\varepsilon ^2}}}\sum\limits_{j = 1}^n {E\left[ {{{\left( {{X_{nj}}'} \right)}^2}} \right]} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = \frac{1}{{{n^2}{\varepsilon ^2}}}\sum\limits_{j = 1}^n {E\left[ {{{\left( {{X_j}{1_{\left\{ {\left| {{X_j}} \right| \le n} \right\}}}} \right)}^2}} \right]} \\
\begin{array}{*{20}{c}}
{}&{}&{}&{}&{}&{}&{}&{}&{}
\end{array} = \frac{1}{{{n^2}{\varepsilon ^2}}}\sum\limits_{j = 1}^n {E\left[ {{X_j}^2{1_{\left\{ {\left| {{X_j}} \right| \le n} \right\}}}} \right]}  \to 0 \ \ \ \ (**)
\end{array}\]上式收斂結果來自 Hypothesis (2)。

注意到\[{a_n}: = \sum\limits_{j = 1}^n E [{X_j}{1_{|{X_j}| \le n}}] = E\left[ {\sum\limits_{j = 1}^n {{X_j}{1_{|{X_j}| \le n}}} } \right] = E\left[ {{S_n}'} \right]\]故由 $(**)$ 可知
\[\frac{{{S_n}' - {a_n}}}{n}\mathop  \to \limits^P 0\]故現在觀察
\[\frac{{{S_n} - {a_n}}}{n} = \frac{{{S_n} - {S_n}' + {S_n}' - {a_n}}}{n} = \frac{{{S_n} - {S_n}'}}{n} + \frac{{{S_n}' - {a_n}}}{n}\mathop  \to \limits^P 0\]

[測度論] 期望值下確界與函數值下確界之恆等式

  Claim: 令 $(X, \mathcal{F})$ 為可測空間。令 $g: X \to \mathbb{R}$ 為可測函數,則 $$\inf_{\mathbb{P} \in \mathcal{P}(X)} \int_X g(x) d\mathbb{P}(x) = \in...