Mehrstufige Zufallsexperimente und deren Wahrscheinlichkeiten
Führt man ein Zufallsexperiment mehrfach hintereinander aus, so spricht man von einem mehrstufigen Zufallsexperiment. Einfache Beispiele dafür sind das mehrfache Werfen einer Münze oder das mehrfache Werfen eines Würfels.
Formel von Bernoulli für Bernoulli-Ketten
Wird ein Bernoulli-Experiment n mal durchgeführt, so spricht man von einer Bernoulli-Kette der Länge n. Die bernoullische Formel gibt die Wahrscheinlichkeit für k Treffer bei n Wiederholungen eines Bernoulli-Experiments - einer sogenannten Bernoulli-Kette - an. Dabei ist für jeden einzelnen der k Treffer, p die Wahrscheinlichkeit für einen Treffer und (1-p) die Wahrscheinlichkeit für eine Niete. Die einzelnen Teilexperimente müssen von einander unabhängig sein. Jedes Einzelexperiment darf nur zwei mögliche Ausgänge haben.
\(P\left( {X = k} \right) = \left( \begin{gathered} n \\ k \\ \end{gathered} \right) \cdot {p^k} \cdot {\left( {1 - p} \right)^{n - k}}\)
P(X=k) |
Wahrscheinlichkeit einer Binomialverteilung |
n |
Anzahl der Wiederholungen eines Bernoulli-Experiments |
p |
Wahrscheinlichkeit für einen Treffer im Bernoulli-Experiment |
k |
Anzahl der Treffer bei n Wiederholungen, deren Reihenfolge ist irrelevant |
Beispiel: Würfel (→p=1/6=0,16667) wird 10 Mal geworfen (→n=10). Wie hoch ist die Wahrscheinlichkeit genau 3 Mal zwei Augen zu werfen (→k=3)
\(P\left( {K = 3} \right) = \left( {\begin{array}{*{20}{c}} {10}\\ 3 \end{array}} \right) \cdot {\left( {\dfrac{1}{6}} \right)^3} \cdot {\left( {1 - \dfrac{1}{6}} \right)^{10 - 3}} \approx 0,155 \buildrel \wedge \over = 15,5\% \)
Baumdiagramme
Baumdiagramme unterstützen visuell bei der Berechnung der Wahrscheinlichkeit bei mehrstufigen Zufallsexperimenten. Ein Baumdiagramm besteht aus Knoten und Zweigen. Ein Pfad startet bei einem Knoten, verläuft über einen oder mehrere Zweige und endet in einem Knoten.
- Neben jeden Zweig schreibt man die Wahrscheinlichkeit, mit der das vom Zweig repräsentierte Zufallsereignis eintritt. Man nennt dies die Zweigwahrscheinlichkeit.
- Die Wahrscheinlichkeit aller Zweige, die von einem Konten weglaufen, addieren sich immer zu 1.
- Die Wahrscheinlichkeit entlang eines Pfades berechnet sich aus der Multiplikation der Wahrscheinlichkeiten der einzelnen Zweige des Pfades
Illustration eines Baumdiagramms
Produktregel für die Wahrscheinlichkeit von unabhängigen Ereignissen ("Und" Regel)
Die Produktregel besagt, dass die Wahrscheinlichkeit eines Ereignisses, welches durch einen Pfad (mehrere Zweige in Serie) dargestellt wird (Pfadwahrscheinlichkeit), gleich ist dem Produkt aller Einzelwahrscheinlichkeiten entlang dieses Pfades. Mit anderen Worten: Sollten A und B unabhängige Ereignisse sein, dann gilt: Die Wahrscheinlichkeit, dass unabhängig voneinander das Ereignis A und auch das Ereignis B eintreten, ist gleich dem Produkt der beiden Einzelwahrscheinlichkeiten.
Das eine und das andere Ereignis treten ein: Schnittmenge:
\(P\left( {A \cap B} \right) = P\left( {A \wedge B} \right) = P\left( {{\text{A und B}}} \right) = P\left( A \right) \cdot P\left( B \right)\)
Beispiel: Ziehen mit Zurücklegen
Produktregeln für die Wahrscheinlichkeit von beliebigen Ereignissen ("Und Regel")
Sollten A und B zwei nicht notwendiger Weise unabhängige Ereignisse sein, dann gilt: Die Wahrscheinlichkeit, dass das Ereignis A und auch das Ereignis B eintreten, ist gleich der Eintrittswahrscheinlichkeit für A mal der Eintrittswahrscheinlichkeit für B, unter der Voraussetzung, dass bereits Ereignis A eingetreten ist.
\(P\left( {{A} \cap {B}} \right) = P\left( {{A}} \right) \cdot P\left( {{B}\left| {{A}} \right.} \right)\)
Beispiel: Ziehen ohne Zurücklegen
Summenregel für die Wahrscheinlichkeit von unabhängigen Ereignissen ("Oder" Regel)
Die Summenregel besagt, dass die Wahrscheinlichkeit eines Ereignisses, welches durch mehrere paralelle Pfade dargestellt wird, gleich ist der Summe aller zugehörigen Pfadwahrscheinlichkeiten. Mit anderen Worten: Sollten A und B unvereinbare / disjunkte / einander gegenseitg ausschließende Ereignisse sein, dann gilt wegen \(P\left( {{A} \cap {B}} \right) = 0\) vereinfachend: Die Wahrscheinlichkeit, dass entweder das eine oder das andere von 2 disjunkten Ereignissen eintritt, ist gleich der Summe der Einzelwahrscheinlichkeiten.
Entweder das eine oder das andere Ereignisse tritt ein: Vereinigungsmenge
\(P\left( {A \cup B} \right) = P\left( {A \vee B} \right) = P\left( {{\text{A oder B}}} \right) = P\left( A \right) + P\left( B \right)\)
Nachfolgende Illustration veranschaulicht den Zusammenhang
Summenregeln für Wahrscheinlichkeiten von beliebigen Ereignissen ("Oder Regel")
Sollten A1 und A2 zwei beliebige Ereignisse sein, dann gilt: Die Wahrscheinlichkeit, dass entweder das beliebige Ereignis A eintritt oder das beliebiges Ereignis B eintritt, ist gleich der Summe ihrer Einzelwahrscheinlichkeiten, abzüglich der Wahrscheinlichkeit für das gemeinsame Eintreten beider Ereignisse.
\(P\left( {{A} \cup {B}} \right) = P\left( {{A}} \right) + P\left( {{B}} \right) - P\left( {{A} \cap {B}} \right) = P\left( {{A}} \right) + P\left( {{B}} \right) - P\left( {{A}} \right) \cdot P\left( {{B}} \right)\)
Für drei beliebige - also nicht notwendigerweise disjunkte - Ereignisse gilt:
\(P\left( {A \cup B \cup C} \right) = P\left( A \right) + P\left( B \right) + P\left( C \right) - P\left( {A \cap B} \right) - P\left( {A \cap C} \right) - P\left( {B \cap C} \right) + P\left( {A \cap B \cap C} \right)\)
Nachfolgende Illustration veranschaulicht den Zusammenhang
Satz von Bayes - Formel für die bedingte Wahrscheinlichkeit von B unter der Bedingung A
Die bedingte Wahrscheinlichkeit P(B|A) ist die Wahrscheinlichkeit für das Eintreten von B, unter der Voraussetzung (Bedingung), dass bereits das Ereignis A eingetreten ist, also bei von einander stochastisch abhängigen Ereignissen
\(P\left( {{B}\left| {{A}} \right.} \right) = \dfrac{{P\left( {{A} \cap {B}} \right)}}{{P\left( {{A}} \right)}}\)
Obige Formel ist lediglich die umformulierte Multiplikationsregeln für Wahrscheinlichkeiten ("Und Regel").
Der Satz von Bayes ermöglicht es die bedingte Wahrscheinlichkeit von \(P\left( {{A}\left| {{B}} \right.} \right)\) auszurechnen, wenn nur die umgekehrte bedingte Wahrscheinlichkeit \({P\left( {{B}\left| {{A}} \right.} \right)}\) und die beiden A-Priori-Wahrscheinlichkeiten \({P\left( {{A}} \right)}\) bzw. \({P\left( {{B}} \right)}\) bekannt sind und umgekehrt.
\(\eqalign{ & P\left( {A\left| B \right.} \right) = \dfrac{{P\left( {A \cap B} \right)}}{{P\left( B \right)}} = \cr & = \dfrac{{P\left( A \right) \cdot P\left( {B\left| A \right.} \right)}}{{P\left( B \right)}} = \dfrac{{P\left( A \right) \cdot P\left( {B\left| A \right.} \right)}}{{P\left( A \right) \cdot P\left( {B\left| A \right.} \right) + P\left( {\overline A } \right) \cdot P\left( {B\left| {\overline A } \right.} \right)}} \cr} \)
\(P\left( {{A}\left| {{B}} \right.} \right)\) |
Bedingte Wahrscheinlichkeit vom Ereignis A unter der Bedingung, dass Ereignis B schon eingetreten ist |
\({P\left( {{B}\left| {{A}} \right.} \right)}\) |
Bedingte Wahrscheinlichkeit vom Ereignis B unter der Bedingung, dass Ereignis A schon eingetreten ist |
\({P\left( {{A}} \right)}\) |
A-priori-Wahrscheinlichkeit für den Eintritt vom Ereignis A |
\({P\left( {{B}} \right)}\) |
A-priori-Wahrscheinlichkeit für den Eintritt vom Ereignis B |
Vierfeldtafel zur Bestimmung bedingter Wahrscheinlichkeiten
Eine Vierfeldtafel eignet sich zur Bestimmung der Zusammenhänge zweier Ereignisse A und B
- Zuerst erfolgt die Beschriftung vom Ereignis und dem zugehörigen Gegenereignis in der 1. Zeile und der 1. Spalte
- Dann erfolgt die Beschriftung der Wahrscheinlichkeiten vom Ereignis A bzw. B und der Wahrscheinlichkeit vom zugehörigen Gegenereignis in der 4. Zeile und in der 4. Spalte
- Die Wahrscheinlichkeiten der Ereignisse \(A\) und \({\overline A }\) bzw. \(B\) und \({\overline B }\) addieren sich jeweils auf 1, was wir im Feld rechts unten eintragen.
- In die eigentlichen 4 Felder der Vierfeldtafel trägt man letztlich die Wahrscheinlichkeiten der Schnittmengen ein.
|
\(B\) |
\({\overline B }\) |
|
\(A\) |
\({P\left( {A \cap B} \right)}\) |
\({P\left( {A \cap \overline B } \right)}\) |
\({P\left( A \right)}\) |
\({\overline A }\) |
\({P\left( {\overline A \cap B} \right)}\) |
\({P\left( {\overline A \cap \overline B } \right)}\) |
\({P\left( {\overline A } \right)}\) |
\({\sum }\) |
\({P\left( B \right)}\) |
\({P\left( {\overline B } \right)}\) |
1 |
- Die Wahrscheinlichkeiten in der 4. Zeile errechnet sich aus der Summe der beiden darüber stehenden Wahrscheinlichkeiten
- Die Wahrscheinlichkeiten in der 4. Spalte errechnet sich aus der Summe der beiden links stehenden Wahrscheinlichkeiten
Anstelle von Wahrscheinlichkeiten können in den Felder der Vierfeldtafel auch absoluten Häufigkeiten oder Prozentwerte stehen.
Visualisierung im Baumdiagramm
Satz von der totalen Wahrscheinlichkeit
Der Satz von der totalen Wahrscheinlichkeit ermöglicht es die Einzelwahrscheinlichkeiten aus den bedingten Wahrscheinlichkeiten zu berechnen.
\(\eqalign{ & P\left( A \right) = \sum\limits_{i = 1}^n {P\left( {{B_i}} \right) \cdot P\left( {A\left| {{B_i}} \right.} \right)} \cr & {\text{mit }}{{\text{B}}_1} \cup {B_2} \cup ... \cup {B_n} = \Omega \cr} \)
Beispiel:
n=2:
\(P\left( A \right) = P\left( B \right) \cdot P\left( {A\left| B \right.} \right) + P\left( {\overline B } \right) \cdot P\left( {A\left| {\overline B } \right.} \right)\)