STOCH lecture 10 April 2019 polish.

This commit is contained in:
Ameyah 2019-04-10 19:28:48 +02:00
parent a98fe134dd
commit f923141185
7 changed files with 175 additions and 125 deletions

View file

@ -0,0 +1,54 @@
\chapter{Bedingte Wahrscheinlichkeiten und (Un)-abbhängigkeit}
\section{Bedingte Wahrscheinlichkeiten}
\begin{example}
Das Würfeln mit zwei fairen, sechseitigen Würfeln können wir mit
\begin{align}
\Omega = \set{(i,j,), i,j \in \set{1,\dots,6}}\notag
\end{align}
und $\probp = \Gleich(\Omega)$. Da $\abs{\Omega} = 36$ gilt also
\begin{align}
\probp(\set{\omega}) = \frac{1}{36} \quad \forall \omega \in \Omega.\notag
\end{align}
Betrachte das Ereignis
\begin{align}
A = \set{(i,j) \in \Omega : i + j = 8},\notag
\end{align}
dann folgt
\begin{align}
\probp(A) = \frac{5}{36}.\notag
\end{align}
Werden die beiden Würfel nach einander ausgeführt, so kann nach dem ersten Wurf eine Neubewertung der Wahrscheinlichkeit von $A$ erfolgen.\\
Ist z.B.:
\begin{align}
B = \set{(i,j) \in \Omega, i = 4}\notag
\end{align}
eingetreten, so kann die Summe 8 nur durch eine weitere 4 realisiert werden, also mit Wahrscheinlichkeit
\begin{align}
\frac{1}{6} = \frac{\abs{A \cap B}}{\abs{B}}.\notag
\end{align}
Das Eintreten von $B$ führt also dazu, dass das Wahrscheinlichkeitsmaß $\probp$ durch ein neues Wahrscheinlichkeitsmaß $\probp_{B}$ ersetzt werden muss. Hierbei sollte gelten:
\begin{align} %TODO add references!
&\text{Renormierung: }\probp_{B} = 1\label{Renorm}\tag{R}\\
&\text{Proportionalität: Für alle} A \subset \sigF \mit A \subseteq B \text{ gilt }
\probp_{B}(A) = c_B \probp(A) \text{ mit einer Konstante } c_B.\label{Prop}\tag{P}
\end{align}
\end{example}
\begin{lemma}
Sei $(\Omega, \sigF, \probp)$ Wahrscheinlichkeitsraum und $B \in \sigF$ mit $\probp(B) > 0$. Dann gibt es genau ein Wahrscheinlichkeitsmaß $\probp_B$ auf $(\Omega, \sigF)$ mit den Eigenschaften \eqref{Renorm} und \eqref{Prop}. Dieses ist gegeben durch
\begin{align}
\probp_{B}(A) = \frac{\probp(A\cap B)}{\probp(B)} \quad \forall A \in \sigF.\notag
\end{align}
\end{lemma}
\begin{proof} %TODO surpress ``Gleichung'' here?!
Offenbar erfüllt $\probp_{B}$ wie definiert \eqref{Renorm} und \eqref{Prop}. Umgekehrt erfüllt $\probp_{B}$ \eqref{Renorm} und \eqref{Prop}. Dann folgt für $A \in \sigF$:
\begin{align}
\probp_{B}(A) = \probp_{B}(A\cap B) + \underbrace{\probp_{B}(A\setminus B)}_{= 0, \text{ wegen } \eqref{Renorm}} \overset{\eqref{Prop}}{=} c_B \probp(A \cap B).\notag
\end{align}
Für $A=B$ folgt zudem aus \eqref{Renorm}
\begin{align}
1 = \probp_{B}(B) = c_B \probp(B)\notag
\end{align}
also $c_B = \probp(B)^{-1}$.
\end{proof}

View file

@ -1,17 +1,17 @@
\chapter*{Was ist Stochastik?}
Altgriechisch Stochastikos ($\sigma \tau o \chi \alpha \sigma \tau \iota \kappa$\`{o}$ \zeta$) und bedeutet sinngemäß ``scharfsinning in Vermuten''.\\
Fragestellung insbesondere aus Glückspiel, Versicherungs-/Finanzmathematik, überall da wo Zufall/ Risiko / Chance auftauchen.\\
Altgriechisch Stochastikos ($\sigma \tau o \chi \alpha \sigma \tau \iota \kappa$\`{o}$ \zeta$) und bedeutet sinngemäß ``scharfsinnig in Vermuten''.\\
Fragestellung insbesondere aus Glücksspiel, Versicherungs-/Finanzmathematik, überall da wo Zufall/ Risiko / Chance auftauchen.\\
Was ist Stochastik?
\begin{itemize}
\item Beschreibt zufällige Phänomene in einer exakten Spache!\\
Beispiel: ``Beim Würfeln erscheint jedes sechste Mal (im Schnitt) eine 6.'' $\longrightarrow$ Gesetz der großen Zahlen ($\nearrow$ später) %TODO set ref
\item Lässt sich mathematische Stochastik in zwei Teilgebiete unterteilen\\
Wahrscheinlichkeitstheorie (W-Theorie) \& Statistik
Wahrscheinlichkeitstheorie (Wahrscheinlichkeitstheorie) \& Statistik
\begin{itemize}
\item \textit{W-Theorie}: Beschreibt und untersucht konkret gegebene Zufallssituationen.
\item \textit{Wahrscheinlichkeitstheorie}: Beschreibt und untersucht konkret gegebene Zufallssituationen.
\item \textit{Statistik}: Zieht Schlussfolgerungen aus Beobachtungen.
\end{itemize}
Statistik benötigt Modelle der W-Theorie und W-Theorie benötigt die Bestätigung der Modelle durch Statistik.
Statistik benötigt Modelle der Wahrscheinlichkeitstheorie. Wahrscheinlichkeitstheorie benötigt die Bestätigung der Modelle durch Statistik.
\end{itemize}
In diesem Semester konzentrieren wir uns nur auf die Wahrscheinlichkeitstheorie!

View file

@ -1,37 +1,27 @@
\chapter{Erste Standardmodelle der WTheorie} %TODO maybe a chapter have to see
\chapter{Erste Standardmodelle der Wahrscheinlichkeitstheorie}
%\subsection{Diskrete Verteilungen}
\section*{Diskrete Verteilungen}
\section{Diskrete Gleichverteilungen}
%TODO restructure! looks like this is just a new section in the chapter Grundbegriffe der WTheorie!
%TODO restructure! looks like this is just a new section in the chapter Grundbegriffe der Wahrscheinlichkeitstheorie!
% I think that should be a new chapter, but I am not sure what to do with the unnumbered heading "Diskrete Verteilungen", especially headings "Diskrete Gleichverteilungen" and "Urnenmodelle" should have numbers 2.1 and 2.2 (so should be sections)
Erinnerung:
\begin{*erinnerung}[\propref{1_10}]
Ist $\Omega$ endlich, so heißt WMaß mit Zähldichte
Ist $\Omega$ endlich, so heißt Wahrscheinlichkeitsmaß mit Zähldichte
\begin{align}
\rho(\omega) = \frac{1}{\omega}\quad, \omega \in \Omega\notag
\end{align}
\begriff{(diskrete) Gleichverteilung} auf $\Omega \to U(\Omega)$
\end{*erinnerung}
%\begin{repetition}[\propref{1_10}]
% Ist $\Omega$ endlich, so heißt WMaß mit Zähldichte
% \begin{align}
% \rho(\omega) = \frac{1}{\omega}\quad, \omega \in \Omega\notag
% \end{align}
% \begriff{(diskrete) Gleichverteilung} auf $\Omega \to U(\Omega)$.
%\end{repetition}
Es gilt das für jedes $A \in \pows(\Omega)$
\begin{align}
\probp\brackets{A} = \frac{\abs{A}}{\abs{\Omega}} \notag
\end{align}
Anwendungsbeispiele sind faires Würfeln, fairer Münzwurf, Zahlenlotto, ...
\section{Urnenmodelle}
Ein ``Urnenmodell'' ist eine abstrakte Darstellung von Zufallsexperimenten, bei denen zufällig Stichproben aus einer gegebenen Menge ``gezogen'' werden.
@ -55,11 +45,11 @@ Ziehe: $n$ Stichproben/Kugeln, wobei nach jedem Zug die Kugel wieder zurückgele
\begin{align}
\Omega = E^n \und \sigF = \pows(\Omega) \notag
\end{align}
Zur Bestimmung einer geeigneten WMaßes, nummerieren wir die Kugeln mit $1,\dots, N$, so dass alle Kugeln der Farbe $a \in E$ eine Nummer aus $F_{a} \subset \set{1,\dots, N}$ tragen. Würden wir die Nummern notieren, so wäre
Zur Bestimmung einer geeigneten Wahrscheinlichkeitsmaßes, nummerieren wir die Kugeln mit $1,\dots, N$, so dass alle Kugeln der Farbe $a \in E$ eine Nummer aus $F_{a} \subset \set{1,\dots, N}$ tragen. Würden wir die Nummern notieren, so wäre
\begin{align}
\overline{\Omega} = \set{1,\dots, N}^n \und \overline{\sigF} = \pows(\overline{\Omega})\notag
\end{align}
und wir könnten die Gleichverteilung $\overline{\probp} = U(\overline{\Omega})$ als WMaß für einem einzelnen Zug verwenden. Für den Übergang zu $\Omega$ konstruieren wir Zufallsvariablen. Die Farbe im $i$-ten Zug wird beschrieben durch
und wir könnten die Gleichverteilung $\overline{\probp} = \Gleich(\overline{\Omega})$ als Wahrscheinlichkeitsmaß für einem einzelnen Zug verwenden. Für den Übergang zu $\Omega$ konstruieren wir Zufallsvariablen. Die Farbe im $i$-ten Zug wird beschrieben durch
\begin{align}
X_i: \overline{\Omega} \to E \mit \overline{\omega} = \left( \overline{\omega}_1, \dots, \overline{\omega}_n \right) \mapsto a \text{ falls } \overline{\omega}_i \in F_a\notag
\end{align}
@ -92,15 +82,15 @@ Den Übergang $\Omega \to \hat{\Omega}$ beschreiben wir durch die Zufallsvariabl
\end{align}
und
\begin{align}
Y = \brackets{Y_a}_{a\in E}: \Omega \to \hat{\Omega} = \set{k = (k_a)_{a\in E}\colon \sum_{i \in E} = n}\notag
Y = \brackets{Y_a}_{a\in E}: \Omega \to \hat{\Omega} = \set{k = (k_a)_{a\in E}\colon \sum_{a \in E} k_a = n}\notag
\end{align}
% % % % % % % % % % % % % % % % % % % % 4th lecture % % % % % % % % % % % % % % % % % % % % % % %
Wir erhalten
\begin{align}
\probp_{Y = k} &= \probp(Y_a = k_a, \quad a \in E)\\
&= \sum_{\omega \in \Omega:Y(\omega) = k} \prod_{i=1}^{n} \rho(w)\\
\probp_{Y = k} &= \probp(Y_a = k_a, \quad a \in E)\notag\\
&= \sum_{\omega \in \Omega:Y(\omega) = k} \prod_{i=1}^{n} \rho(w)\notag\\
&= \sum_{\omega \in \Omega:Y(\omega) = k} \prod_{a \in E} \rho(\omega) = \begin{bmatrix}
n \\
(k)_{a\in E}
@ -117,12 +107,13 @@ wobei
der \begriff{Multinomialkoeffizient} welcher die Anzahl der Möglichkeiten beschreibt, $n$ Objekte in $l$ Gruppen aufzuteilen, so dass Gruppe $i$ gerade $k_i$ Objekte beinhaltet.
\begin{definition}
Sei $l > 2, p = (p_1, \dots, p_l)$ eine Zähldichte und $n \in \N$, dann heißt die Verteilung auf $\set{k = (k_i)_{i=1,\dots,l} \in \N_{0}^{l} : \sum_{i=1}^{l} k_i = n}$ mit Zähldichte
Sei $l > 2, p = (p_1, \dots, p_l)$ eine Zähldichte und $n \in \N$, dann heißt die Verteilung auf \\
$\set{k = (k_i)_{i=1,\dots,l} \in \N_{0}^{l} : \sum_{i=1}^{l} k_i = n}$ mit Zähldichte
\begin{align}
m((k_1,\dots,k_l)) = \binom{n}{k_1, \dots, k_l}\prod_{i=1}^{l} p_i^{k_i}\notag
% \end{bmatrix}
\end{align}
\begriff{Multinomialverteilung mit Parametern $n$ und $p$}. Wir schreiben auch $\Multi(n,p)$. %TODO add
\begriff{Multinomialverteilung mit Parametern $n$ und $p$}. Wir schreiben auch $\Multi(n,p)$.
\end{definition}
\begin{example}
@ -136,24 +127,24 @@ der \begriff{Multinomialkoeffizient} welcher die Anzahl der Möglichkeiten besch
\begin{definition}
Sei $p \in [0,1]$ un $n \in \N$, dann heißt die Verteilung mit Zähldichte
\begin{align}
\rho(k) = \binom{n}{k}p^k (1-p)^{n-k}\quad k \in \set{0,1,\dots,n}\notag
\rho(k) = \binom{n}{k}p^k (1-p)^{n-k} \mit k \in \set{0,1,\dots,n}.\notag
\end{align}
\begriff{Binomialverteilung auf $\set{0, \dots,n}$ mit Parameter $p$} (auch\begriff{Erfolgswahrscheinlichkeit}). Wir schreiben auch $\Bin(n,p)$. Im Fall $n = 1$ nennen wir die Verteilung mit Zähldichte
\begin{align}
\rho(0) = 1-p \qquad \rho(1) = p\notag
\rho(0) = 1-p \und \rho(1) = p\notag
\end{align}
auch \begriff{Bernoulliverteilung mit Parameter $p$} und schreiben $\Ber(p)$.
\end{definition}
\underline{Urnenmodell ohne Zurücklegen}: \begriff{Hypergeometrische Verteilung}\\
Gegeben: Urne mit $N$ Kugeln verschiedener Farben aus $E$,
\begin{align}
\abs{E} \ge 2
\abs{E} \ge 2.\notag
\end{align}
Es werden $n \le N$ Stichproben entnommen, wobei die gezogenen Kugeln werde \emph{nicht} in die Urne zurückgelegt.
\begin{example}
Eine Urne enthalte $S$ schwarze $1$ und $W$ weiße Kugeln $0$ Kugeln, $(E = \set{0,1}, S + W =N)$. Dann ist die Wahrscheinlichkeit in $n$ Zügen ohne Zurücklegen gerade $s$ schwarze und $w$ weiße Kugeln zu ziehen
Eine Urne enthalte $S$ schwarze ``$1$'' und $W$ weiße Kugeln ``$0$'' Kugeln, $(E = \set{0,1}, S + W =N)$. Dann ist die Wahrscheinlichkeit in $n$ Zügen ohne Zurücklegen gerade $s$ schwarze und $w$ weiße Kugeln zu ziehen
\begin{align}
\rho(w) = \frac{\binom{W}{w}\binom{S}{s}}{\binom{N}{n}}, 0 \le s \le S, 0 \le w \le W, s+w = n, S+W = N.\notag
\rho(w) = \frac{\binom{W}{w}\binom{S}{s}}{\binom{N}{n}} \mit 0 \le s \le S,\; 0 \le w \le W,\; s+w = n,\; S+W = N.\notag
\end{align}
\end{example}
@ -164,7 +155,7 @@ Es werden $n \le N$ Stichproben entnommen, wobei die gezogenen Kugeln werde \emp
\begin{definition}
Seinen $N \in \N, W \le N, n \in \N$, dann heißt die Verteilung auf $\set{0,\dots,n}$ mit Zähldichte
\begin{align}
\rho(w) = \frac{\binom{wW}{w}\binom{N-W}{n-w}}{\binom{N}{n}}, w = \max\set{0,n=N+W}, \dots, \min\set{W,n},\notag
\rho(w) = \frac{\binom{wW}{w}\binom{N-W}{n-w}}{\binom{N}{n}} \mit w = \max\set{0,n=N+W}, \dots, \min\set{W,n},\notag
\end{align}
die \begriff{Hypergeometrische Verteilung} mit Parametern $N,W,n$. Wir schreiben $\Hyper(N,W,n)$.
\end{definition}
@ -176,36 +167,36 @@ $\Bin(n,p)$ ist zwar explizit und elementar definiert, jedoch für große $n$ m
\begin{proposition}[Poisson-Approximation]
Sei $\lambda$ und $(p_n)_{n\in\N}$ eine Folge in $[0,1]$ mit
\begin{align}
np_n \to \lambda \quad n \to \infty\notag
np_n \to \lambda,\quad n \to \infty.\notag
\end{align}
Dann gilt $\forall k \in \N$ für die Zähldichte der $\Bin(n,p_n)$-Verteilung
\begin{align}
\lim_{n \to \infty} \binom{n}{k}p_n^k(1-p)^{n-k} = e^{-\lambda} \frac{\lambda^k}{k!}\notag
\lim_{n \to \infty} \binom{n}{k}p_n^k(1-p)^{n-k} = e^{-\lambda} \frac{\lambda^k}{k!}.\notag
\end{align}
\end{proposition}
\begin{proof}
Sei $k \in \N_{0}$ fix, dann
\begin{align}
\binom{n}{k} = \frac{n!}{k!(n-k)!} = \frac{n^k}{k!}\frac{n(n-1)\cdots(n-k+1)}{n^k}\\
&= \frac{n^k}{k!}\cdot 1 (1-\frac{1}{n}\cdots \frac{1}{\frac{k-1}{n}})\\
\overset{n \to \infty}{~} \frac{n^k}{k!},
\begin{align} %TODO fix alignment and now there are tags, but \notag is added?!
\binom{n}{k} = \frac{n!}{k!(n-k)!} &= \frac{n^k}{k!}\frac{n(n-1)\cdots(n-k+1)}{n^k}\notag\\
&= \frac{n^k}{k!}\cdot 1 (1-\frac{1}{n}\cdots \frac{1}{\frac{k-1}{n}})\notag\\
&\overset{n \to \infty}{~} \frac{n^k}{k!},\notag
\end{align}
wobei $a(l) \overset{n \to \infty}{\sim} b(l) \Leftrightarrow \frac{a(l)}{b(l)} \xRightarrow{n\to \infty} 1$. Damit
\begin{align}
\binom{n}{k}p_n^k (1-p)^{n-k} &\overset{\clap{$n \to \infty$}}{\sim} \frac{n^k}{k!}p_n^k(1-p_n)^{n-k}\\
&\overset{n \to \infty}{\sim} \frac{\lambda^k}{k!}(1-p_n)^n\\
&= \frac{\lambda^n}{k!}\brackets{1 - \frac{np_n}{n}}^n\\
&\xRightarrow{n \to \infty} \frac{\lambda^n}{k!}e^{-\lambda}.
wobei $a(l) \overset{n \to \infty}{\sim} b(l) \Leftrightarrow \frac{a(l)}{b(l)} \xrightarrow{n\to \infty} 1$. Damit
\begin{align}%TODO fix alignment
\binom{n}{k}p_n^k (1-p)^{n-k} &\overset{n \to \infty}{\sim} \frac{n^k}{k!}p_n^k(1-p_n)^{n-k}\notag\\
&\overset{n \to \infty}{\sim} \frac{\lambda^k}{k!}(1-p_n)^n\notag\\
&=\frac{\lambda^n}{k!}\brackets{1 - \frac{np_n}{n}}^n\notag\\
&\xrightarrow{n \to \infty} \frac{\lambda^n}{k!}e^{-\lambda}.\notag
\end{align}
\end{proof}
Der erhaltene Grenzwert liefert die Zähldichte auf $\N_{0}$, denn
\begin{align}
\sum_{k=0}^{\infty}\frac{\lambda^k}{k!}e^{-\lambda} = e^{-\lambda}\sum_{k=0}^{\infty}\frac{\lambda^{k}}{k!} = e^{-\lambda}e^{\lambda} = 1
\sum_{k=0}^{\infty}\frac{\lambda^k}{k!}e^{-\lambda} = e^{-\lambda}\sum_{k=0}^{\infty}\frac{\lambda^{k}}{k!} = e^{-\lambda}e^{\lambda} = 1\notag
\end{align}
\begin{definition}
Sei $\lambda >0$. Dann heißt das auf $(\N_{0}, \probp(\N_{0}))$ definiert WMaß mit
Sei $\lambda >0$. Dann heißt das auf $(\N_{0}, \probp(\N_{0}))$ definiert Wahrscheinlichkeitsmaß mit
\begin{align}
\probp(\set{k}) = \frac{\lambda^k}{k!}e^{-\lambda} \quad k \in \N_{0},
\probp(\set{k}) = \frac{\lambda^k}{k!}e^{-\lambda} \quad k \in \N_{0},\notag
\end{align}
\begriff{Poissonverteilung mit Parameter $\lambda$}. Schreibe $\Pois(\lambda)$.
\end{definition}

View file

@ -31,13 +31,13 @@ Oft interessieren wir uns gar nicht für das konkrete Ergenis des Zufallsexperim
$\longrightarrow$ Teilmenge des Ereignisraums, also Element der Potenzmenge $\mathscr{P}(\Omega)$, denen eine Wahrscheinlichkeit zugeordnet werden kann, d.h. welche \begriff{messbar} (mb) sind.
\begin{definition}[Ereignisraum, messbarer Raum]
Sei $\Omega \neq \emptyset$ ein Ergebnisraum und $\mathscr{F}$ eine $\sigma$-Algebra auf $\Omega$, d.h. eine Familie von Teilmenge von $\Omega$, sodass
Sei $\Omega \neq \emptyset$ ein Ergebnisraum und $\sigF$ eine $\sigma$-Algebra auf $\Omega$, d.h. eine Familie von Teilmenge von $\Omega$, sodass
\begin{enumerate}
\item $\Omega \in \mathscr{F}$
\item $A \in \mathscr{F} \Rightarrow A^C \in \mathscr{F}$
\item $A_1, A_2, \dots \in \mathscr{F} \Rightarrow \bigcup_{i \ge 1} \in \mathscr{F}$
\item $\Omega \in \sigF$
\item $A \in \sigF \Rightarrow A^C \in \sigF$
\item $A_1, A_2, \dots \in \sigF \Rightarrow \bigcup_{i \ge 1} \in \sigF$
\end{enumerate}
Dann heißt $(\Omega, \mathscr{F})$ \begriff{Ereignisraum} bzw. \begriff{messbarer Raum}.
Dann heißt $(\Omega, \sigF)$ \begriff{Ereignisraum} bzw. \begriff{messbarer Raum}.
\end{definition}
\subsection*{Wahrscheinlichkeiten}
@ -45,37 +45,36 @@ $\longrightarrow$ Teilmenge des Ereignisraums, also Element der Potenzmenge $\ma
Ordne Ereignissen Wahrscheinlichkeiten zu mittels der Abbildung
\begin{align}
\mathbb{P}: \mathscr{F} \to [0,1]\notag
\probp: \sigF \to [0,1]\notag
\end{align}
sodass
\begin{align}
\text{Normierung } \mathbb{P}(\Omega) = 1 \tag{N}\label{eq_norm}\\
\sigma\text{-Additivität für paarweise disjunkte Ereignisse} \tag{A}\label{eq_additive}\\
A_1, A_2, \dots \in \mathscr{F} \Rightarrow \mathbb{P}(\bigcup_{i \ge 1} A_i) = \sum_{i \ge 1} \mathbb{P}(A_i)\notag
&\text{Normierung } \probp(\Omega) = 1 \label{eq_norm}\tag{N}\\
&\sigma\text{-Additivität für paarweise disjunkte Ereignisse}
A_1, A_2, \dots \in \sigF \Rightarrow \probp(\bigcup_{i \ge 1} A_i) = \sum_{i \ge 1} \probp(A_i) \label{eq_additive}\tag{A}
\end{align}
\cref{eq_norm}, \cref{eq_additive} und die Nichtnegativität von $\mathbb{P}$ werden als \begriff{\person{Kolmogorov}sche Axiome} bezeichnet (nach Kolomogorov: Grundbegriffe der Wahrscheinlichkeitstheorie, 1933)
\eqref{eq_norm}, \eqref{eq_additive} und die Nichtnegativität von $\probp$ werden als \begriff{\person{Kolmogorov}sche Axiome} bezeichnet (nach Kolomogorov: Grundbegriffe der Wahrscheinlichkeitstheorie, 1933)
\begin{definition}[Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung]
Sei $(\Omega, \mathscr{F})$ ein Ereignisraum und $\mathbb{P}: \mathscr{F} \to [0,1]$ eine Abbildung mit Eigenschaften \cref{eq_norm} und \cref{eq_additive}. Dann heißt $\mathbb{P}$ \begriff{Wahrscheinlichkeitsmaß} oder auch \begriff{Wahrscheinlichkeitsverteilung}.
Sei $(\Omega, \sigF)$ ein Ereignisraum und $\probp: \sigF \to [0,1]$ eine Abbildung mit Eigenschaften \eqref{eq_norm} und \eqref{eq_additive}. Dann heißt $\probp$ \begriff{Wahrscheinlichkeitsmaß} oder auch \begriff{Wahrscheinlichkeitsverteilung}.
\end{definition}
Aus der Definition folgen direkt:
\begin{proposition}[Rechenregeln für W-Maße]
\proplbl{1_4}
Sei $\mathbb{P}$ ein W-Maß, Ereignisse $(\Omega, \mathscr{F}), A, B, A_1, A_2, \dots \in \mathscr{F}$. Dann gelten:
Sei $\probp$ ein W-Maß, Ereignisse $(\Omega, \sigF), A, B, A_1, A_2, \dots \in \sigF$. Dann gelten:
\begin{enumerate}
\item $\mathbb{P}(\emptyset) = 0$
\item Monotonie: $A \subseteq B \Rightarrow \mathbb{P}(A) \le \mathbb{P}(B)$
\item endliche $\sigma$-Additivität: $\mathbb{P}(A\cup B) + \mathbb{P}(A\cap B) = \mathbb{P}(A) + \mathbb{P}(B)$ und insbesondere $\mathbb{P}(A) + \mathbb{P}(A^C) = 1$
\item $\probp(\emptyset) = 0$
\item Monotonie: $A \subseteq B \Rightarrow \probp(A) \le \probp(B)$
\item endliche $\sigma$-Additivität: $\probp(A\cup B) + \probp(A\cap B) = \probp(A) + \probp(B)$ und insbesondere $\probp(A) + \probp(A^C) = 1$
\item $\sigma$-Subadditivität:
\begin{align}
\mathbb{P}\left(\bigcup_{i \ge 1} A_i\right) \le \sum_{i \ge 1} \mathbb{P}(A_i)\notag
\probp\left(\bigcup_{i \ge 1} A_i\right) \le \sum_{i \ge 1} \probp(A_i)\notag
\end{align}
\item $\sigma$-Stetigkeit: Wenn $A_n \uparrow A$ (d.h. $A_1 \subseteq A_2 \subseteq \cdots$ und $A = \bigcup_{i=1}^{\infty} (A_i)$) oder $A_n \downarrow A$, so gilt:
\begin{align}
\mathbb{P}(A_n) \longrightarrow \mathbb{P}(A), n \to \infty \notag
\probp(A_n) \longrightarrow \probp(A), n \to \infty \notag
\end{align}
\end{enumerate}
\end{proposition}
@ -94,13 +93,13 @@ Aus der Definition folgen direkt:
\begin{align}
\probp(B) = \probp(A \uplus (B \setminus A)) = \probp(A) + \probp(B \setminus A) \ge \probp(A) \label{eq_1_1_4}\tag{*}
\end{align}
\item Zerlege $A \cup B$ geschickt, dann sieht man mit oben gezeigter Aussage und \cref{eq_1_1_4}
\item Zerlege $A \cup B$ geschickt, dann sieht man mit oben gezeigter Aussage und \eqref{eq_1_1_4}
\begin{align}
\probp(A \cup B) + \probp(A \cap B) &= \probp(A \uplus (B \setminus (A \cap B)) + \probp(A \cap B)\notag \\
&= \probp(A) + \probp(B \setminus (A \cap B)) + \probp(A \cap B)\notag\\
&= \probp(A)+\probp(B).\notag
\end{align}
Im letzten Schritt wurde \cref{eq_1_1_4} verwendet.
Im letzten Schritt wurde \eqref{eq_1_1_4} verwendet.
\item Folgt aus endlicher $\sigma$-Additivität, da $\probp\left(\bigcap_{i\ge 1} A_i \right) \ge 0$.
\item Definiere $F_1 := A_1, F_2 := A_2 \setminus A_1, \dots, F_{i+1} := A_{i+1}\setminus A_n$. Die $F_i$ Mengen sind paarweise disjunkt und damit folgt für $m \to \infty$
\begin{align}
@ -114,51 +113,51 @@ Aus der Definition folgen direkt:
\end{proof}
\begin{example}
Für ein beliebigen Ereignisraum $(\Omega, \mathscr{F})$ ($\Omega \neq \emptyset$) und eine beliebiges Element $\xi \in \Omega$ definiere
Für ein beliebigen Ereignisraum $(\Omega, \sigF)$ ($\Omega \neq \emptyset$) und eine beliebiges Element $\xi \in \Omega$ definiere
\begin{align}
\delta_{\xi}(A := \begin{cases}
1 & \xi \in A \\
0 & \text{ sonst}
\end{cases}\notag
\end{align}
eine (degeneriertes) W-Maß auf $(\Omega, \mathscr{F})$, welches wir als \begriff{\person{Dirac}-Maß} oder \begriff{\person{Dirac}-Verteilung} bezeichnen.
eine (degeneriertes) W-Maß auf $(\Omega, \sigF)$, welches wir als \begriff{\person{Dirac}-Maß} oder \begriff{\person{Dirac}-Verteilung} bezeichnen.
\end{example}
\begin{example}
Würfeln mit fairem, $6$-(gleich)seitigem Würfel mit Ergebnismenge $\Omega=\{1, \dots, 6\}$ und Ereignisraum $\mathscr{F} = \mathscr{P}(\Omega)$ setzen wir als Symmetriegründen
Würfeln mit fairem, $6$-(gleich)seitigem Würfel mit Ergebnismenge $\Omega=\{1, \dots, 6\}$ und Ereignisraum $\sigF = \mathscr{P}(\Omega)$ setzen wir als Symmetriegründen
\begin{align}
\mathbb{P}(A) = \frac{\# A}{6}.\notag
\probp(A) = \frac{\# A}{6}.\notag
\end{align}
(Wobei $\# A$ oder auch $\vert A \vert$ die Kardinalität von $A$ ist.) Das definiert ein W-Maß.
\end{example}
\begin{example}
\proplbl{1_1_7}
Wartezeit an der Bushaltestelle mit Ergebnisraum $\Omega = \real_{+}$ und Ereignisraum \person{Borel}sche $\sigma$-Algebra $\mathscr{B}(\real_{+}) = \mathscr{F}$. Eine mögliches W-Maß können wir dann durch
Wartezeit an der Bushaltestelle mit Ergebnisraum $\Omega = \real_{+}$ und Ereignisraum \person{Borel}sche $\sigma$-Algebra $\mathscr{B}(\real_{+}) = \sigF$. Eine mögliches W-Maß können wir dann durch
\begin{align}
\mathbb{P}(A) = \int_{A} \lambda e^{-\lambda x} \diff x\notag %TODO set a mathoperator for dx!!!
\probp(A) = \int_{A} \lambda e^{-\lambda x} \diff x\notag %TODO set a mathoperator for dx!!!
\end{align}
für einen Parameter $\lambda > 0$ festlegen. (Offenbar gilt $\mathbb{P}(\Omega) = 1$ und die $\sigma$-Additivität aufgrund der Additivität des Integrals.) Wir bezeichnen diese Maß als \begriff{Exponentialverteilung}. (Warum gerade dieses Maß für Wartezeiten gut geeignet ist $\nearrow$ später) %TODO add later a ref!!!
für einen Parameter $\lambda > 0$ festlegen. (Offenbar gilt $\probp(\Omega) = 1$ und die $\sigma$-Additivität aufgrund der Additivität des Integrals.) Wir bezeichnen diese Maß als \begriff{Exponentialverteilung}. (Warum gerade dieses Maß für Wartezeiten gut geeignet ist $\nearrow$ später) %TODO add later a ref!!!
\end{example}
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% 2nd Lecture %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\begin{proposition}[Konstruktion von WMaßen durch Dichten]
\begin{proposition}[Konstruktion von Wahrscheinlichkeitsmaßen durch Dichten]
\proplbl{1_8}
Sei $(\Omega, \mathscr{F})$ ein Eriegnisraum.
Sei $(\Omega, \sigF)$ ein Eriegnisraum.
\begin{itemize}
\item $\Omega$ abzählbar, $\mathscr{F} = \mathscr{P}(\Omega)$: Sei $\rho = (\rho(\omega))_{\omega \in \Omega}$ eine Folge in $[0,1]$ in $\sum_{\omega \in \Omega} \rho(\omega) = 1$, dann definiert
\item $\Omega$ abzählbar, $\sigF = \mathscr{P}(\Omega)$: Sei $\rho = (\rho(\omega))_{\omega \in \Omega}$ eine Folge in $[0,1]$ in $\sum_{\omega \in \Omega} \rho(\omega) = 1$, dann definiert
\begin{align}
\probp(A) = \sum_{\omega \in \Omega} \rho(\omega), A \in \mathscr{F} \notag
\probp(A) = \sum_{\omega \in \Omega} \rho(\omega), A \in \sigF \notag
\end{align}
ein (diskretes) WMaß $\probp$ auf $(\Omega, \mathscr{F})$. $\rho$ wird als \begriff{Zähldichte} bezeichnet.
\item Umgekehrt definiert jedes WMaß $\probp$ auf $(\Omega, \mathscr{F})$ definiert Folge $\rho(\omega) = \probp(\set{\omega}), \omega \in \Omega$ eine Folge $\rho$ mit den obigen Eigenschaften.
\item $\Omega \subset \Rn, \mathscr{F} = \mathscr{B}(\Omega)$: Sei $\rho: \Omega \to [0, \infty)$ eine Funktion, sodass
ein (diskretes) Wahrscheinlichkeitsmaß $\probp$ auf $(\Omega, \sigF)$. $\rho$ wird als \begriff{Zähldichte} bezeichnet.
\item Umgekehrt definiert jedes Wahrscheinlichkeitsmaß $\probp$ auf $(\Omega, \sigF)$ definiert Folge $\rho(\omega) = \probp(\set{\omega}), \omega \in \Omega$ eine Folge $\rho$ mit den obigen Eigenschaften.
\item $\Omega \subset \Rn, \sigF = \mathscr{B}(\Omega)$: Sei $\rho: \Omega \to [0, \infty)$ eine Funktion, sodass
\begin{enumerate}
\item $\int_{\Omega} \rho(x)\diff x = 1$
\item $\set{x \in \Omega \colon f(x) \le c} \in \mathscr{B}(\Omega)$ für alle $c > 0$
\end{enumerate}
dann definiert $\rho$ ein WMaß $\probp$ auf $(\Omega, \mathscr{F})$ durch
dann definiert $\rho$ ein Wahrscheinlichkeitsmaß $\probp$ auf $(\Omega, \sigF)$ durch
\begin{align}
\probp(A) = \int_{A} \rho(x) \diff x = \int_{A} \rho \diff \lambda, \quad A \in \mathscr{B}(\Omega).\notag
\end{align}
@ -176,30 +175,30 @@ Aus der Definition folgen direkt:
\begin{*remark}
\begin{itemize}
\item Die Eineindeutige Beziehung zwischen Dichte und WMaß überträgt sich nicht auf den stetigen Fall.
\item Die Eineindeutige Beziehung zwischen Dichte und Wahrscheinlichkeitsmaß überträgt sich nicht auf den stetigen Fall.
\begin{itemize}
\item Nicht jedes WMaß auf $(\Omega, \mathscr{B}(\Omega)), \Omega \subset \Rn$ besitzt eine Dichte.
\item Zwei Dichtefunktionen definieren dasselbe WMaß, wenn sie sich nur auf einer Menge von Lebesgue-Maß $0$ unterscheiden.
\item Nicht jedes Wahrscheinlichkeitsmaß auf $(\Omega, \mathscr{B}(\Omega)), \Omega \subset \Rn$ besitzt eine Dichte.
\item Zwei Dichtefunktionen definieren dasselbe Wahrscheinlichkeitsmaß, wenn sie sich nur auf einer Menge von Lebesgue-Maß $0$ unterscheiden.
\end{itemize}
\item Jede auf $\Omega \subset \Rn$ definiert Dichtefunktion $\rho$ lässt sich auf ganz $\Rn$ fortsetzen durch $\rho(x) = 0, x \not\in \Omega$. Das erzeugte WMaß auf $(\Rn, \mathscr{B}(\Omega))$ lässt mit den WMaß auf $(\Omega, \mathscr{\Omega})$ identifizieren.
\item Mittels Dirac-Maß $\delta_{x}$ können auch jedes diskrete WMaß auf $\Omega \subset \Rn$ als WMaß auf $\Rn, \mathscr{B}(\Rn)$ intepretieren
\item Jede auf $\Omega \subset \Rn$ definiert Dichtefunktion $\rho$ lässt sich auf ganz $\Rn$ fortsetzen durch $\rho(x) = 0, x \not\in \Omega$. Das erzeugte Wahrscheinlichkeitsmaß auf $(\Rn, \mathscr{B}(\Omega))$ lässt mit den Wahrscheinlichkeitsmaß auf $(\Omega, \mathscr{\Omega})$ identifizieren.
\item Mittels Dirac-Maß $\delta_{x}$ können auch jedes diskrete Wahrscheinlichkeitsmaß auf $\Omega \subset \Rn$ als Wahrscheinlichkeitsmaß auf $\Rn, \mathscr{B}(\Rn)$ intepretieren
\begin{align}
\probp(A) = \sum_{\omega \in A} \rho(\omega) = \int_{A} \diff \left( \sum_{\omega \in \Omega} \rho(\omega)\delta_{\omega} \right)\notag
\end{align}
stetige und diskrete WMaße lassen sich kombiniere z.B.
stetige und diskrete Wahrscheinlichkeitsmaße lassen sich kombiniere z.B.
\begin{align}
\probp(A) = \frac{1}{2} \delta_{0} + \frac{1}{2} \int_{A}\indi_{[0,1]}(x)\diff x, A \in \mathscr{B}(\R)\notag
\end{align}
ein WMaß auf $(\R, \mathscr{B}(\R))$.
ein Wahrscheinlichkeitsmaß auf $(\R, \mathscr{B}(\R))$.
\end{itemize}
\end{*remark}
Abschließend erinnern wir uns an:
\begin{proposition}[Eindeutigkeitssatz für WMaße]
\begin{proposition}[Eindeutigkeitssatz für Wahrscheinlichkeitsmaße]
\proplbl{1_9}
Sei $(\Omega, \mathscr{F})$ Ereignisraum und $\probp$ ein WMaß auf $(\Omega, \mathscr{F})$.
Sei $\mathscr{F} = \omega(\mathscr{G})$ für ein $\cap$-stabiles Erzeugendensystem $\mathscr{G} \subset \mathscr{P}(\Omega)$.
Sei $(\Omega, \sigF)$ Ereignisraum und $\probp$ ein Wahrscheinlichkeitsmaß auf $(\Omega, \sigF)$.
Sei $\sigF = \omega(\mathscr{G})$ für ein $\cap$-stabiles Erzeugendensystem $\mathscr{G} \subset \mathscr{P}(\Omega)$.
Dann ist $\probp$ bereits durch seine Einschränkung $\probp_{\mid \mathscr{G}}$ eindeutig bestimmt.
\end{proposition}
@ -217,33 +216,33 @@ bereits die Exponentialverteilung aus \propref{1_1_7}.
\begin{definition}[Gleichverteilung]
\proplbl{1_10}
Ist $\Omega$ endlich, so heißt das WMaß mit konstanter Zähldichte $\rho(\omega) = \sfrac{1}{\abs{\Omega}}$ die \begriff{(diskrete) Gleichverteilung} auf $\Omega$ und wird mit $U(\Omega)$ notiert (U = Uniform).
Ist $\Omega \subset \Rn$ eine Borelmenge mit Lebesgue-Maß $0 < \lambda^n(\Omega) < \infty$ so heißt das WMaß auf $(\Omega, \borel(\Omega))$ mit konstanter Dichtefunktion $\rho(x) = \sfrac{1}{\lambda^n(x)}$ die \begriff{(stetige) Gleichverteilung} auf $\Omega$.
Ist $\Omega$ endlich, so heißt das Wahrscheinlichkeitsmaß mit konstanter Zähldichte $\rho(\omega) = \sfrac{1}{\abs{\Omega}}$ die \begriff{(diskrete) Gleichverteilung} auf $\Omega$ und wird mit $\Gleich(\Omega)$ notiert (U = Uniform).
Ist $\Omega \subset \Rn$ eine Borelmenge mit Lebesgue-Maß $0 < \lambda^n(\Omega) < \infty$ so heißt das Wahrscheinlichkeitsmaß auf $(\Omega, \borel(\Omega))$ mit konstanter Dichtefunktion $\rho(x) = \sfrac{1}{\lambda^n(x)}$ die \begriff{(stetige) Gleichverteilung} auf $\Omega$.
Sie wird ebenso mit $U(\Omega)$ notiert.
\end{definition}
\subsection*{WRäume}
\begin{definition}[Wahrscheinlichkeitsraum]
Ein Tripel $(\Omega, \mathscr{F}, \probp)$ mit $\Omega, \mathscr{F}$ Ereignisraum und $\probp$ WMaß auf $(\Omega, \mathscr{F})$, nennen wir \\ \begriff{Wahrscheinlichkeitsraum}.
Ein Tripel $(\Omega, \sigF, \probp)$ mit $\Omega, \sigF$ Ereignisraum und $\probp$ Wahrscheinlichkeitsmaß auf $(\Omega, \sigF)$, nennen wir \\ \begriff{Wahrscheinlichkeitsraum}.
\end{definition}
\section{Zufallsvariablen}
Zufallsvariablen dienen dazu von einen gegebenen Ereignisraum $(\Omega, \mathscr{F})$ zu einem Modellausschnitt $\Omega', \mathscr{F}'$ überzugehen.
Zufallsvariablen dienen dazu von einen gegebenen Ereignisraum $(\Omega, \sigF)$ zu einem Modellausschnitt $\Omega', \sigF'$ überzugehen.
Es handelt sich also um Abbildungen $X: \Omega \to \Omega'$.
Damit wir auch jedem Ereignis in $\mathscr{F}'$ eine Wheit zuordnen können, benötigen wir
Damit wir auch jedem Ereignis in $\sigF'$ eine Wheit zuordnen können, benötigen wir
\begin{align}
A' \in \mathscr{F}' \Rightarrow X' A' \in \mathscr{F} \notag
A' \in \sigF' \Rightarrow X' A' \in \sigF \notag
\end{align}
d.h. $X$ sollte messbar sein.
\begin{definition}[Zufallsvariable]
Seien $(\Omega, \mathscr{F})$ und $(\Omega', \mathscr{F}')$ Ereignisräume. Dann heißt jede messbare Abbildung
Seien $(\Omega, \sigF)$ und $(\Omega', \sigF')$ Ereignisräume. Dann heißt jede messbare Abbildung
\begin{align}
X: \Omega \to \Omega'\notag
\end{align}
Zufallsvariable (von $(\Omega, \mathscr{F})$) nach $(\Omega', \sigF')$/ auf $(\Omega', \sigF')$ oder \begriff{Zufallselement}.
Zufallsvariable (von $(\Omega, \sigF)$) nach $(\Omega', \sigF')$/ auf $(\Omega', \sigF')$ oder \begriff{Zufallselement}.
\end{definition}
\begin{example}
@ -258,7 +257,7 @@ d.h. $X$ sollte messbar sein.
\begin{align}
\probp'(A') := \probp\left(X^{-1}(A')\right) = \probp\left(\set{X \in A'}\right), A' \in \sigF'\notag
\end{align}
ein WMaß auf $(\Omega', \sigF')$ auf $(\Omega', \sigF')$, welches wir als \begriff{WVerteilung von X unter $\probp$} bezeichnet.
ein Wahrscheinlichkeitsmaß auf $(\Omega', \sigF')$ auf $(\Omega', \sigF')$, welches wir als \begriff{Wahrscheinlichkeitsverteilung von X unter $\probp$} bezeichnet.
\end{proposition}
\begin{proof}
@ -274,16 +273,16 @@ d.h. $X$ sollte messbar sein.
\end{align}
da auch $X^{-1}A_1', X^{-1}A_2', \dots$ paarweise disjunkt
\begin{align}
&= \sum_{i \ge 1} \probp'(A_i')\notag
&= \sum_{i \ge 1} \probp'(A_i').\notag
\end{align}
Also ist $\probp'$ ein WMaß. %TODO put in 1 align to have everything aligned?
Also ist $\probp'$ ein Wahrscheinlichkeitsmaß. %TODO put in 1 align to have everything aligned?
\end{proof}
\begin{*remark}
\begin{itemize}
\item Aus Gründen der Lesbarkeit schreiben wir in der Folge $\probp(X \in A) = \probp(\set{\omega \colon X(\omega) \in A})$
\item Ist $X$ die Identität, so fallen die Begriffe WMaß und WVerteilung zusammen.
\item In der (weiterführenden) Literatur zu WTheorie wird oft auf die Angabe eines zugrundeliegenden WRaumes verzichtet und stattdessen eine ``Zufalsvariable mit Verteilung $\probp$ auf $\Omega$'' eingeführt.
\item Ist $X$ die Identität, so fallen die Begriffe Wahrscheinlichkeitsmaß und Wahrscheinlichkeitsverteilung zusammen.
\item In der (weiterführenden) Literatur zu Wahrscheinlichkeitstheorie wird oft auf die Angabe eines zugrundeliegenden WRaumes verzichtet und stattdessen eine ``Zufalsvariable mit Verteilung $\probp$ auf $\Omega$'' eingeführt.
Gemeint ist (fast) immer $X$ als Identität auf $(\Omega, \sigF, \probp)$ mit $\sigF = \pows(\Omega) / \borel(\Omega)$.
\item Für die Verteilung von $X$ unter $\probp$ schreibe $\probp_{X}$ und $X \sim \probp_{X}$ für die Tatsache, dass $X$ gemäß $\probp_{X}$ verteilt ist.
\end{itemize}
@ -316,7 +315,7 @@ Da die halboffenen Intervalle $\borel(\R)$ erzeugen, ist die Verteilung eine ree
\proplbl{2_2_6}
Sei $(\R, \borel(\R),\probp)$ mit $\probp$ Exponentialverteilung mit Parameter $\lambda > 0$
\begin{align}
\probp(A) = \int_{A \cap [0,\infty)}\lambda e^{-\lambda x} \diff x \quad A \in \borel(\R)\notag
\probp(A) = \int_{A \cap [0,\infty)}\lambda e^{-\lambda x} \diff x \quad A \in \borel(\R).\notag
\end{align}
Dann ist
\begin{align}
@ -341,7 +340,7 @@ Da die halboffenen Intervalle $\borel(\R)$ erzeugen, ist die Verteilung eine ree
modelliert werden. Es folgt als Verteilungsfunktion
\begin{align}
F(x) &= \probp'(X \le x) = \probp(X^{-1}(-\infty,x]) = \probp((-\infty,x])\notag\\
&= \frac{1}{6}\sum_{i=1}^{6} \indi_{i \le x}\notag
&= \frac{1}{6}\sum_{i=1}^{6} \indi_{i \le x}.\notag
\end{align}
\end{example}
@ -354,13 +353,13 @@ Da die halboffenen Intervalle $\borel(\R)$ erzeugen, ist die Verteilung eine ree
Allgemein:
\begin{proposition}
Ist $\probp$ ein WMaß auf $(\R, \borel(\R))$ und $F$ die zugehörige Verteilungsfunktion, so gelten
Ist $\probp$ ein Wahrscheinlichkeitsmaß auf $(\R, \borel(\R))$ und $F$ die zugehörige Verteilungsfunktion, so gelten
\begin{enumerate}
\item $F$ ist monoton wachsend
\item $F$ ist rechtsseitig stetig
\item $\lim_{x\to -\infty} F(x) = 0$, $\lim_{x\to \infty} F(x) = 1$
\item $\lim\limits_{x\to -\infty} F(x) = 0$, $\lim\limits_{x\to \infty} F(x) = 1$
\end{enumerate}
Umgekehrt existiert zu jeder Funktion $F: \R \to [0,1]$ mit Eigenschaften 1-3 eine reelle Zufallsvariable auf $((0,1), \borel((0,1)), \mathrm{U}((0,1))$ mit Verteilungsfunktion $F$.
Umgekehrt existiert zu jeder Funktion $F: \R \to [0,1]$ mit Eigenschaften 1-3 eine reelle Zufallsvariable auf $((0,1), \borel((0,1)), \Gleich((0,1))$ mit Verteilungsfunktion $F$.
%TODO refs for the enum above
\end{proposition}
@ -404,13 +403,13 @@ Allgemein:
\end{align}
und zudem
\begin{align}
\set{X \le x} = (0, F(x)) \cap (0,1) \in \borel((0,1))\notag
\set{X \le x} = (0, F(x)) \cap (0,1) \in \borel((0,1)).\notag
\end{align}
Da diese halboffene Mengen ein Erzeugendensystem von $\borel(\R)$ bilden, folgt bereits die Messbarkeit von $X$, also ist $X$ eine ZV. Insbesondere hat die Menge $\set{X \le x}$ gerade \person{Lebesgue}-Maß $F(x)$ und damit hat $X$ die Verteilungsfunktion $F$.
\end{proof}
\begin{conclusion}
Ist $\probp$ WMaß auf $(\R, \borel(\R))$ und $F$ die zugehörige Verteilungsfunktion. Dann besitzt $\probp$ genau eine Dichtefunktion $\rho$, wenn $F$ stetig differenzierbar ist, denn dann gelten
Ist $\probp$ Wahrscheinlichkeitsmaß auf $(\R, \borel(\R))$ und $F$ die zugehörige Verteilungsfunktion. Dann besitzt $\probp$ genau eine Dichtefunktion $\rho$, wenn $F$ stetig differenzierbar ist, denn dann gelten
\begin{align}
F(x) = \int_{-\infty}^{x} \rho(x) \diff x, \bzw \rho(x) = F'(x)\notag
\end{align}

View file

@ -1,9 +1,8 @@
\chapter{Bedingte Wahrscheinlichkeiten und (Un)-abbhängigkeit}
\section{Bedingte Wahrscheinlichkeiten}
\begin{example}
Das Würfeln mit $2$ fairen, sechseitigen Würfeln können wir mit
Das Würfeln mit zwei fairen, sechseitigen Würfeln können wir mit
\begin{align}
\Omega = \set{(i,j,), i,j \in \set{1,\dots,6}}\notag
\end{align}
@ -24,32 +23,36 @@
\begin{align}
B = \set{(i,j) \in \Omega, i = 4}\notag
\end{align}
eingetreten, so kann die Summe $8$ nur durch eine weitere $4$ realisiert werden, also mit Wahrscheinlichkeit
eingetreten, so kann die Summe 8 nur durch eine weitere 4 realisiert werden, also mit Wahrscheinlichkeit
\begin{align}
\frac{1}{6} = \frac{\abs{A \cap B}}{\abs{B}}\notag
\frac{1}{6} = \frac{\abs{A \cap B}}{\abs{B}}.\notag
\end{align}
Diese Eintreten von $B$ führt also dazu, dass das Wahrscheinlichkeitsmaß $\probp$ durch ein neues Wahrscheinlichkeitsmaß $\probp_{B}$ ersetzt werden muss. Hierbei sollte gelten:
\begin{itemize}
\item[(R)] Renormierung: $\probp_{B} = 1$
Das Eintreten von $B$ führt also dazu, dass das Wahrscheinlichkeitsmaß $\probp$ durch ein neues Wahrscheinlichkeitsmaß $\probp_{B}$ ersetzt werden muss. Hierbei sollte gelten:
\begin{enumerate} %TODO add references!
\item[(R)] Renormierung: $\probp_{B} = 1$
\item[(P)] Proportionalität: Für alle $A \subset \sigF$ mit $A \subseteq B$ gilt
\begin{align}
\probp_{B}(A) = c_B \probp(A)\notag
\end{align}
eine Konstante $c_B$.
\end{itemize}
mit einer Konstante $c_B$.
\end{enumerate}
\end{example}
\begin{lemma}
Sei $(\Omega, \sigF, \probp)$ WRaum und $B \in \sigF$ mit $\probp(B) > 0$. Dann gibt es genau ein WM$\probp_B$ auf $(\Omega, \sigF)$ mit den Eigenschaften (R) und (P). Dieses ist gegeben durch
Sei $(\Omega, \sigF, \probp)$ Wahrscheinlichkeitsraum und $B \in \sigF$ mit $\probp(B) > 0$. Dann gibt es genau ein Wahrscheinlichkeitsm$\probp_B$ auf $(\Omega, \sigF)$ mit den Eigenschaften (R) und (P). Dieses ist gegeben durch
\begin{align}
\probp_{B}(A) = \frac{\probp(A\cap B)}{\probp(B)} \quad \forall A \in \sigF.\notag
\end{align}
\end{lemma}
\begin{proof}
Offenbar erfüllt $\probp_{B}$ wie definiert (R) und (P). Umgekehrt erfülle $\probp_{B}$ (R) und (P). Dann folgt für $A \in \sigF$:
Offenbar erfüllt $\probp_{B}$ wie definiert (R) und (P). Umgekehrt erfüllt $\probp_{B}$ (R) und (P). Dann folgt für $A \in \sigF$:
\begin{align}
\probp_{B}(A) = \probp_{B}(A\cap B) + \underbrace{\probp_{B}(A\setminus B)}_{0, \text{ wegen } (R)} \overset{(P)}{=}
\probp_{B}(A) = \probp_{B}(A\cap B) + \underbrace{\probp_{B}(A\setminus B)}_{= 0, \text{ wegen } (R)} \overset{(P)}{=} c_B \probp(A \cap B).\notag
\end{align}
%TODO finish the proof from eric.
Für $A=B$ folgt zudem aus (R)
\begin{align}
1 = \probp_{B}(B) = c_B \probp(B)\notag
\end{align}
also $c_B = \probp(B)^{-1}$.
\end{proof}

View file

@ -23,9 +23,12 @@
\chapter*{Literatur}
\input{./TeX_files/Lit}
\input{./TeX_files/Einfuhrung}
% Grundbegriffe der WTheorie
\input{./TeX_files/Grundbegriffe_Wtheorie}
% Erste Standardmodelle der Wahrscheinlichkeitstheorie
\input{./TeX_files/Erste_Standardmodelle}
\input{./TeX_files/chap}
% Bedingte Wahrscheinlichkeiten und (Un)-abbhängigkeit}
\input{./TeX_files/Bedingte_Wheiten}
\chapter{Test}