Files
eth-summaries/semester4/ps/ps-rb/parts/02_variables.tex
T
2026-03-27 13:26:02 +01:00

249 lines
7.7 KiB
TeX

\definition \textbf{Zufallsvariable}
$$
X: \Omega \to \R \qquad \text{s.d} \quad \forall a \in \R:\quad \Bigl\{ \omega \in \Omega\ \Big|\ X(\omega)\leq a \Bigr\} \in \F
$$
\subtext{$(\Omega, \F, \P)$ ein Wahrscheinlichkeitsraum}
\footnotesize
\definition \textbf{Indikatorfunktion}
$$
\forall \omega \in \Omega:\quad \mathbb{I}_A(\omega) := \begin{cases}
0 & \omega \notin A \\
1 & \omega \in A
\end{cases}
\color{gray}
\qquad A \in \F
\color{black}
$$
\normalsize
\notation Ereignisse bezüglich Zufallsvariablen
\begin{align*}
& \{ X \leq a \} &=\quad& \Bigl\{ \omega \in \Omega \ \Big|\ X(\omega) \leq a \Bigr\} \\
& \{ a < X \leq b \} &=\quad& \Bigl\{ \omega \in \Omega \ \Big|\ a < X(\omega) \leq b \Bigr\} \\
& \P[X \leq a] &=\quad& \P\Bigl[\{ X \leq a \}\Bigr]
\end{align*}
\definition \textbf{Verteilungsfunktion} $F_X: \R \to [0,1]$
$$
\forall a \in \R:\qquad F_X(a) = \P[X \leq a]
$$
{\scriptsize
\notation $\underset{x \to a^-}{\lim}F_X(a) = F(a^-) = \P[X < a]$
\lemma $\P[a < X \leq b] = F_X(b) - F_X(a)$
}
\theorem \textbf{Eigenschaftern der Verteilungsfunktion}
\begin{tabular}{ll}
(i) & $F_X$ monoton \\
(ii) & $F_X$ rechtsstetig \\
(iii) & $\underset{a \to -\infty}{\lim} F_X(a) = 0 \quad\land\quad \underset{a \to \infty}{\lim}F_X(a)=1$
\end{tabular}
\definition \textbf{Unabhängigkeit}\\
\smalltext{$X_1,\cdots,X_n \text{ unabhängig } \iffdef§ \forall x_1,\cdots,x_n \in \R:$}
$$
\P[X_1 \leq x_q,\cdots, X_n \leq x_n] = \P[X_1 \leq x_1] \cdots \P[X_n \leq x_n]
$$
\newpage
\theorem \textbf{Unabhängigkeit von Gruppierungen}\\
\smalltext{$X_1,\cdots X_n$ sind unabhängig, dann sind auch $Y_1,\cdots,Y_k$ unabhängig:}
$$
Y_1 = \phi_1(X_1,\cdots,X_{i_1}), \cdots , Y_k = \phi_k(X_{i_{k-1}+1},\cdots,X_{i_k})
$$
\subtext{$1 \leq i_1 < i_2 < \cdots < i_k \leq n \text{ sind Indizes},\quad \phi_1,\cdots,\phi_k \text{ sind Abbildungen}$}
\definition \textbf{Folgen von Zufallsvariablen}
\begin{tabular}{llll}
(i) & unabhängig & $\iffdef$ & $\forall n \geq 1: X_1,\cdots,X_n \text{ unabhängig}$ \\
(ii) & i.i.d & $\iffdef$ & unabhängig, und $\forall i, j: F_{X_i} = F_{X_j}$
\end{tabular}
\subtext{i.i.d = Independent \& identically distributed}
\subsection{Diskrete Zufallsvariablen}
\definition \textbf{Diskrete Zufallsvariable}
$$
X: \Omega \to \R \text{ diskret } \iffdef \exists (W \subset \R) \preceq \N:\quad \P[X \in W] = 1
$$
\subtext{bzw. die Werte von $X$ liegen f.s. in $W$}
\lemma \textbf{Variablen diskreter Grundräume sind diskret}
$$
\Omega \preceq \N \implies X: \Omega \to \R \text{ ist diskret}
$$
\definition \textbf{Verteilung diskreter Variablen}
$$
\Bigl( p(x) \Bigr)_{x \in W} \text{ s.d. } p(x) := \P[X = x] \text{ heisst Verteilung}
$$
\subtext{$X$ ist diskret mit $W \preceq \N\quad p(x)$ ist \textit{nicht} $F_X$}
\theorem $\forall p(x):\quad \displaystyle\sum_{x \in W} p(x) = 1$ \subtext{$\quad p(x)$ ist eine diskrete Verteilung}
\lemma \textbf{Zur diskreten Verteilung existiert eine Variable}
$$
\forall \Bigl( p(x) \Bigr)_{x \in W} \in [0,1]:\quad \exists (\Omega, \F, \P), X \text{ mit Verteilung } p(x)
$$
\subtext{D.h man kann sagen: "Sei $X$ eine Variable mit Verteilung $\bigl(p(x)\bigr)_{x \in W}$"}
\theorem \textbf{Diskrete Verteilungsfunktion}
$$
F_X(x) = \P[x \leq X] = \sum_{y \leq x} p(y) \qquad y \in W
$$
\newpage
\subsection{Diskrete Verteilungen}
\definition \textbf{Bernoulli-Verteilung} $X \sim \text{Ber}(p)$\\
\smalltext{Intuitiv: Münzwurf}
$$
\P[X=1] = p \qquad \P[X=0] = 1-p
$$
\subtext{$0 \leq p \leq 1,\quad W = \{0,1\}$}
\definition \textbf{Binomial-Verteilung} $X \sim \text{Bin}(n,p)$\\
\smalltext{Intuitiv: Anzahl Erfolge bei wiederholtem Bernoulli-Experiment}
$$
\P[X=k] = \binom{n}{k}p^k(1-p)^{n-k}
$$
\subtext{$0 \leq p \leq 1,\quad n \in \N,\quad W = \{0,\ldots, n\}$}
\theorem \textbf{Bernoulli-Summen sind Binomial-verteilt}
$$
S_n := X_1 + \ldots + X_n \sim \text{Bin}(p, n)
$$
\subtext{$0\leq p\leq n,\quad n \in N,\quad X_1,\ldots,X_n \sim \text{Ber}(p) \text{ unabhängig}$}
\scriptsize
\lemma $\text{Bin}(1,p) = \text{Ber}(p)$
\lemma $X_1 \sim \text{Bin}(n, p), X_2 \sim \text{Bin}(m, p) \implies X_1 + X_2 \sim \text{Bin}(n+m,p)$
\normalsize
\definition \textbf{Geometrische Verteilung} $X \sim \text{Geom}(p)$\\
\smalltext{Intuitiv: Bernoulli Experiment erfolgreich beim $k$-ten Versuch}
$$
\P[X=k] = p\cdot(1-p)^{k-1}
$$
\subtext{$0 < p \leq 1,\quad k \in \N_{\neq0}$}
\definition \textbf{Negativbinomiale Verteilung} $X \sim \text{NBin}(r,p)$\\
\smalltext{Intuitiv: Wartezeit zum $r$-ten Erfolg}
$$
\P[X = k] = \binom{k-1}{r-1}p^r(1-p)^{k-r}
$$
\subtext{$r \in \N,\quad p \in [0,1],\quad k \in \{r, r+1,\ldots \},\quad \text{Nur auf Folien}$}
\theorem \textbf{Interpretation}\\
\smalltext{Für $X_1, X_2, \ldots$ unabhängig s.d. $X_i \sim \text{Ber}(p)$:}
$$
T_r := \text{inf}\Bigl\{ n \geq 1 \Big| \sum_{i=1}^{n}X_i=r \Bigr\} \sim \text{NBin}(r,p)
$$
\scriptsize
\lemma $X_1,X_2,\ldots,X_r \sim \text{Geom}(p) \implies X := \sum_{i=1}^{r}X_i \sim \text{NBin}(r,p)$
\normalsize
\newpage
\definition \textbf{Hypergeometrische Verteilung} $X \sim \text{H}(n, r, m)$
$$
\P[X = K] = \frac{\binom{r}{k}\binom{n-r}{m-k}}{\binom{n}{m}}
$$
\subtext{$n \in \N,\quad m,r \in \{0,1,\ldots,n\},\quad k \in \{0,1,\ldots \min(m,r) \}$}
\theorem \textbf{Interpretation}\\
\smalltext{$n$ Objekte in einer Urne, $r$ von Typ 1, $n-r$ von Typ 2 \\ Ziehe $m$, Sei $X$ die Anzahl Objekte Typ 1, dann $X \sim \text{H}(n,r,m)$}\\
\subtext{Das modelliert z.B. Lotto}
\definition \textbf{Poisson-Verteilung}\\
\smalltext{Intuitiv: Sehr seltene Ereignisse}
$$
\P[X=k] = \frac{\lambda^k}{k!}e^{-\lambda}
$$
\subtext{$\lambda \in \R_{>0},\quad k \in \N_0$}
\theorem \textbf{Poisson-Approximation der Binomialverteilung}\\
\smalltext{$X_n \sim \text{Bin}(\frac{\lambda}{n}),\quad N \sim \text{Poisson}(\lambda),\quad n \geq 1$}
$$
\limn \P[X_n=k] = \P[N=k]
$$
\subtext{Intuitiv: Für grosse $n$ haben $X_n$ und $N$ sehr ähnliche Eigenschaften}
\scriptsize
\remark Auch genannt: \textit{Konvergenz in Verteilung, Schwache Konvergenz}\\
\color{gray}
Convergence in distribution/law, weak convergence
\color{black}
\normalsize
\newpage
\subsection{Stetige Verteilungen}
\definition \textbf{Stetig verteilte Zufallsvariable} $X: \Omega \to \R$\\
\smalltext{Intuitiv: $f_X(t)dt$ ist Die W.-keit, dass $X$ in $[t, t+dt]$ ist}
$$
\exists f_X \R \to \R_+ \quad\text{ s.d. }\quad F_X(x) = \int_{-\infty}^{x}f_X(t)\ dt
$$
\subtext{Stetig, da $F_X$ somit eine stetige Funktion ist}
{\scriptsize
\remark $f_X$ heisst \textit{Dichtefunktion} von $X$
}
\theorem \textbf{Dichtefunktion ist die Ableitung der Verteilung}
\smalltext{$F_X$ stetig, stückweise diff.-bar $-\infty = x_0 < x_1 < \ldots x_{n-1} < x_n = \infty$}
$$
f_X = \begin{cases}
F_X'(x) & \exists k \in \{0,\ldots,n-1\} \text{ s.d. } x \in (x_k,x_{k+1}) \\
a_k & x \in \{x_1,\ldots,x_{n-1}\}
\end{cases}
$$
{\scriptsize
\remark $f_X$ (Stetig) ist Intuitiv das Analogon zu $p_x$ (Diskret)
}
\definition \textbf{Gleichverteilung} $X \sim \mathcal{U}([a,b])$\\
\smalltext{Intuitiv: Zufälliger Punkt in $[a,b]$}
$$
f_X(x) = \begin{cases}
\frac{1}{b-a} & x \in [a,b] \\
0 & \text{sonst}
\end{cases}
$$
\definition \textbf{Exponentialverteilung} $T \sim \text{exp}(\lambda)$
$$
f_T(x) = \begin{cases}
\lambda e^{-\lambda x} & x \geq 0 \\
0 & x < 0
\end{cases}
$$
\subtext{$\lambda > 0$}
\lemma \textbf{Eigenschaften von} $\text{exp}$
\definition \textbf{Normalverteilung} $X \sim \mathcal{N}(m, \sigma^2)$
$$
f_X(x) = \frac{1}{ \sqrt{2\pi\sigma^2} } e^{ -\frac{(x-m)^2}{2\sigma^2} }
$$
\lemma \textbf{Eigenschaften von} $\mathcal{N}$