Stochastik
Wissenswertes über: Kombinatorik, Beschreibende Statistik - Lagemaße + Streumaße, Schließende Statistik - Wahrscheinlichkeitsrechnung und Exporative Statistik - Data Mining
Hier findest du folgende Inhalte
Formeln
Bernoulli-Verteilung
Die Bernoulli Verteilung ist eine diskrete Verteilung, deren Zufallsvariable X nur zwei Werte annimmt: 0 = Misserfolg / Niete bzw. 1 = Erfolg / Treffer. Sie entsteht, wenn man ein Bernoulli Experiment (welches nur 2 mögliche Ausgänge hat) genau 1 Mal ausführt. Die Bernoulli Verteilung ist daher ein Spezialfall der Binomialverteilung für n=1.
X heißt Bernoulli-verteilt mit dem Parameter p:
p ... Wahrscheinlichkeit für das Auftreten vom Ereignis X bei einem Versuch, mit 0 < p < 1
\(\eqalign{ & \Omega = \left\{ {0;1} \right\} \cr & P(X = 1) = p \cr & P\left( {X = 0} \right) = 1 - p \cr}\)
Wahrscheinlichkeitsfunktion der Bernoulli-Verteilung
\(f\left( x \right) = \left\{ {\begin{array}{*{20}{c}} {1 - p}&{für}&{x = 0}\\ p&{für}&{x = 1}\\ 0&{für}&{sonst.} \end{array}} \right.\)
Verteilungsfunktion der Bernoulli-Verteilung
\(F\left( x \right) = P\left( {X \leqslant x} \right) = \sum\limits_{{x_i} \leqslant x} {f\left( {{x_i}} \right)} \)
\(F\left( x \right) = \left\{ {\begin{array}{*{20}{c}} 0&{}&{x < 0}&{}&{}\\ {1 - p}&{}&{x > 0}&{und}&{x < 1}\\ 1&{}&{x \ge 1}&{}&{} \end{array}} \right.\)
Erwartungswert der Bernoulli-Verteilung
\(E\left( X \right) = \mu = \sum\limits_{i = 1}^n {{x_i} \cdot f\left( {{x_i}} \right)} \)
\(E\left( X \right) = 1 \cdot p + 0 \cdot \left( {1 - 0} \right) = p\)
Varianz der Bernoulli-Verteilung
\(Var\left( X \right) = V\left( X \right) = {\sigma ^2} = \sum\limits_{i = 1}^n {{{\left( {{x_i} - E\left( x \right)} \right)}^2} \cdot f\left( {{x_i}} \right)} \)
\({\sigma ^2} = Var\left( X \right) = p \cdot \left( {1 - p} \right)\)
Standardabweichung der Bernoulli-Verteilung
\(\sigma = \sqrt {Var\left( X \right)} = \sqrt {p \cdot \left( {1 - p} \right)} \)
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Binomialverteilung
Die Binomialverteilung ist eine diskrete Verteilung, der ein mehrstufigen Zufallsexperiment zugrunde liegt. Sie entsteht, wenn man ein Bernoulli Experiment (einstufiges Experiment, welches nur 2 mögliche Ausgänge hat) n Mal gleich und unverändert wiederholt. Die Grundgesamtheit ändert sich also im Laufe der Wiederholungen nicht, d.h. es handelt sich um ein „Ziehen mit Zurücklegen“.
X heißt binomialverteilt mit den 2 Parametern n und p:
- n … Anzahl der Ziehungen bzw. der Wiederholungen vom Zufallsexperiment, wobei n ∈ N
- p ... Laplace-Wahrscheinlichkeit für das Auftreten vom Ereignis X, bei jedem einzelnen der n Versuche, mit 0 < p < 1
- k ... Anzahl der Treffer, d.h. das Ereignis X tritt genau k mal ein, mit k=0, 1, 2, ... n
- X ... Zufallsvariable bzw. Trefferzahl, d.h. das Ereignis X tritt genau, weniger, öfter mindestens,... k mal ein, mit k=0, 1, 2, ... n, wobei die Anzahl der unabhängigen Bernoulli-Versuche n beträgt und p die Erfolgswahrscheinlichkeit beschreibt.
Wahrscheinlichkeitsfunktion der Binomialverteilung
Die Wahrscheinlichkeitsfunktion der Binomialverteilung gibt die Wahrscheinlichkeit dafür an, dass es genau k Treffer gibt:
\(f\left( k \right) = P\left( {X = k} \right) = \left( {\begin{array}{*{20}{c}} n\\ k \end{array}} \right) \cdot {p^k} \cdot {\left( {1 - p} \right)^{n - k}}\) für k=0, 1, ..,n
Zur Erinnerung: Der Binomialkoeffizient errechnet sich zu: \(\left( {\begin{array}{*{20}{c}} n\\ k \end{array}} \right) = \dfrac{{n!}}{{k! \cdot \left( {n - k} \right)!}}\)
Bestimmung der Wahrscheinlichkeit einer Binomialverteilung bei unterschiedlichen Grenzen
Ungleichungen im Sprachgebrauch:
- Weniger entspricht <
- Höchstens entspricht \( \le \)
- Mehr entspricht >
- Mindestens entspricht \( \ge \)
genau k Treffer | \(P(X = k) = \left( {\begin{array}{*{20}{c}} n\\ k \end{array}} \right) \cdot {p^k} \cdot {\left( {1 - p} \right)^{\left( {n - k} \right)}}\) |
höchstens k Treffer | \(P\left( {X \le k} \right) = \sum\limits_{i = 0}^k {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \) |
weniger als k Treffer | \(P\left( {X < k} \right) = \sum\limits_{i = 0}^{k - 1} {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \) |
mindestens k Treffer | \(P\left( {X \ge k} \right) = 1 - P\left( {X \le k - 1} \right) = 1 - \sum\limits_{i = 0}^{k - 1} {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \) |
mehr als k Treffer | \(P\left( {X > k} \right) = 1 - P\left( {X \le k} \right) = 1 - \sum\limits_{i = 0}^k {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \) |
mindestens k aber höchstens m Treffer | \(\begin{array}{l} P\left( {k \le X \ge m} \right) = P\left( {X \le m} \right) - P\left( {X \le k - 1} \right) = \\ = \sum\limits_{i = 0}^m {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} - \sum\limits_{i = 0}^{k - 1} {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right) \cdot {p^i} \cdot {{\left( {1 - p} \right)}^{n - i}}} \end{array}\) |
Illustration zur Veranschaulichung
Wahrscheinlichkeitsfunktion der Binomialverteilung mit den Parametern n=10 Wiederholungen und einer Erfolgswahrscheinlichkeit von p=0,3
Laplace Bedingung
Wenn die Laplace Bedingung \(\sigma = \sqrt {n \cdot p \cdot \left( {1 - p} \right)} > 3\) erfüllt ist, kann man die Binomialverteilung durch die Normalverteilung annähern.
Sigma-Umgebungen
Der Erwartungswert ist der Wert mit der größten Wahrscheinlichkeit. Links und rechts vom Erwartungswert gruppieren sich die restlichen binomialverteilten Wahrscheinlichkeiten. Wenn die Streuung groß genug ist, kann man die Binomialverteilung durch die Normalverteilung annähern. Um zu prüfen ob diese Näherung zulässig ist, verwendet man die Laplace Bedingung.
Radius der Sigma Umgebung (also Vielfachen der Standardabweichung):
\(\begin{array}{l} 1\sigma \buildrel \wedge \over = P\left( {\mu - \sigma \le X \le \mu + \sigma } \right) \approx 68\% \\ 2\sigma \buildrel \wedge \over = P\left( {\mu - 2\sigma \le X \le \mu + 2\sigma } \right) \approx 95,5\% \\ 3\sigma \buildrel \wedge \over = P\left( {\mu - 3\sigma \le X \le \mu + 3\sigma } \right) \approx 99,7\% \end{array}\)
Verteilungsfunktion der Binomialverteilung
Verteilungsfunktion der Binomialverteilung gibt die Wahrscheinlichkeit dafür an, dass es höchstens k Treffer gibt:
\(F\left( k \right) = P\left( {0 \le X \le k} \right) = \sum\limits_{i = 0}^k {\left( {\begin{array}{*{20}{c}} n\\ i \end{array}} \right)} \cdot {p^i} \cdot {\left( {1 - p} \right)^{n - i}}\)
Erwartungswert der Binomialverteilung
Der Erwartungswert eine Binomialverteilung, deren Zufallsvariable nur 2 Werte (Treffer / Niete) annehmen kann und deren Trefferwahrscheinlichkeit immer p ist, ergibt sich bei n unabhängigen Bernoulli-Versuchen aus dem Produkt von n und p.
\(E\left( X \right) = \mu = n \cdot p\)
Dabei handelt es sich um eine Vereinfachung der nachfolgenden Formel für den Erwartungswert einer diskreten Zufallsvariablen, die mehrere Werte annehmen kann.
Erwartungswert einer diskreten Verteilung
Der Erwartungswert einer diskreten Verteilung, deren Zufallsvariable mehrere Werte X=xi annehmen kann, die ihrerseits mit unterschiedlicher Wahrscheinlichkeit P(X=xi) vorkommen entspricht der Summe der Werte der Zufallsvariablen X=xi multipliziert mit der Wahrscheinlichkeit für das Eintreten von xi also P(X=xi).
\(E(X) = \sum\limits_{i = 1}^n {{x_i} \cdot P\left( {X = {x_i}} \right)} = \mu \)
\(P\left( E \right) = \dfrac{{{\text{Anzahl günstiger Fälle}}}}{{{\text{Anzahl mölicher Fälle}}}}\)
Varianz der Binomialverteilung
Die Varianz einer Binomialverteilung mit den Parametern n und p ist gegeben durch:
\({\sigma ^2} = Var\left( X \right) = n \cdot p \cdot \left( {1 - p} \right)\)
Hierbei ist X eine Zufallsvariable, welche die Anzahl der Treffer in n unabhängigen Bernoulli-Versuchen mit Erfolgswahrscheinlichkeit p beschreibt.
Standardabweichung der Binomialverteilung
\(\sigma = \sqrt {Var(X)} = \sqrt {n \cdot p \cdot \left( {1 - p} \right)} \)
Binomialverteilung → Normalverteilung
Die Binomialverteilung kann bei großen Stichproben, also bei relativ hohem n, durch die Normalverteilung ersetzt werden. Wobei dann für die Normalverteilung - so wie bei der Binomialverteilung - wie folgt gilt:
- Erwartungswert bei großem n: \(E\left( x \right) = \mu = n \cdot p\)
- Standardabweichung bei großem n: \(\sigma = \sqrt {Var(x)} = \sqrt {n \cdot p \cdot \left( {1 - p} \right)} \)
Hat eine Zufallsvariable X eine Normalverteilung mit beliebigen μ und σ, so kann man die Werte der Normalverteilung mit \(z = \dfrac{{X - \mu }}{\sigma }\) in eine Standardnormalverteilung umrechnen.
Das zugehörige \(\Phi \left( {{z}} \right)\) entnimmt man anschließend der entsprechenden Tabelle für die Standardnormalverteilung.
Bei 2 zum Erwartungswert symmetrisch liegenden Wahrscheinlichkeiten kann man den Umstand, dass \(\left| {{z_{oG}}} \right| = \left| {{z_{uG}}} \right|\) ausnützen und aus speziellen Tabellen für die Standardnormalverteilung direkt den Wert für das Intervall D ablesen.
Zusammenhang
Laplace Experiment bzw. Laplace Wahrscheinlichkeit
mit Bernoulli- bzw. Binomialverteilung
Laplace Experiment
- Einstufiges Zufallsexperiment
- n-mögliche Ergebnisse
- jedes Ergebnis hat dieselbe Wahrscheinlichkeit
- P(X) = konst.
Beispiel: Einmaliges Würfel
Man würfelt 6-mal, die Wahrscheinlichkeit für jede der 6 Augenzahlen ist konstant 1/6
Laplace Wahrscheinlichkeit
- Die Laplace Wahrscheinlichkeit P(E) gibt den relativen Anteil der „günstigen“ Versuchsausgänge zu den „möglichen“ Versuchsausgängen an.
Bsp.: gerader oder ungerader Tag im Jänner:
Jeder Tag im Jänner muss entweder gerade oder ungerade sein, aber es gibt im Jänner 15 gerade aber 16 ungerade Tage, folglich
- P(X=gerade) =15/31
- P(X=ungerade) = 16/31
Bernoulli Verteilung
- Einstufiges Zufallsexperiment
- 2 mögliche Ergebnisse,
- Die Wahrscheinlichkeit p für einen Treffer oder für eine Niete muss aber keinesfalls gleich groß also etwa 50:50 bzw. 0,5 sein, sondern sie errechnet sich aus der Laplace Wahrscheinlichkeit („günstige“ durch „mögliche“)
- P(X=Treffer)=p
- P(X=Niete)=1-p
Binomialverteilung
- Mehrstufiges Zufallsexperiment
- In jeder der n Stufen genau 2 mögliche Ergebnisse
- Die Wahrscheinlichkeit p für einen Treffer oder für eine Niete errechnet sich aus der Laplace Wahrscheinlichkeit („günstige“ durch „mögliche“)
- X ... Trefferzahl
- k … Anzahl der Treffer
Bsp.: Es werden 3 Tage im Jänner ausgewählt. Wie groß ist die Wahrscheinlichkeit, dass alle 3 Tage gerade Tage sind?
- n=3 Tage
- p = 15/31
- k=3 Treffer, d.h. der jeweilige Tag ist ein gerader Tag
- X ... Zufallsvariable
\(\begin{array}{l} P\left( {X = k} \right) = \left( {\begin{array}{*{20}{c}} n\\ k \end{array}} \right) \cdot {p^k} \cdot {\left( {1 - p} \right)^{n - k}}\\ P\left( {X = 3} \right) = \left( {\begin{array}{*{20}{c}} 3\\ 3 \end{array}} \right) \cdot {\left( {\dfrac{{15}}{{31}}} \right)^3} \cdot {\left( {1 - \dfrac{{15}}{{31}}} \right)^{3 - 3}} = 1 \cdot {\left( {\dfrac{{15}}{{31}}} \right)^3} \cdot {\left( {\dfrac{1}{{31}}} \right)^0} = 0,113 \buildrel \wedge \over = 11,3\% \end{array}\)
Die Wahrscheinlichkeit, dass alle 3 im Jänner willkürlich ausgewählten 3 Tagen gerade Tage sind beträgt 11,3%
Poissonverteilung
Die Poissonverteilung ist eine diskrete Verteilung, die dann Verwendung findet, wenn die Häufigkeit eines Ereignisses über eine gewisse Zeit betrachtet wird. Sie ist ein Grenzfall der Binomialverteilung. Die Zufallsvariable X der Poissonverteilung ist definiert als die Zahl der Erfolge bei einer sehr hohen Anzahl \(n \to \infty \left( { \ge 100} \right)\) an Bernoulli Experimenten, mit einer sehr kleinen Erfolgswahrscheinlichkeit \(p \to 0\).
1 Parameter
- \(\lambda\) ... Erwartungswert und zugleich Varianz \(E\left( X \right) = \lambda = Var\left( X \right)\)einer poissonverteilten Zufallsgröße
Wahrscheinlichkeitsfunktion der Poissonverteilung
\(f\left( k \right) = P\left( {X = k} \right) = \left\{ {\begin{array}{*{20}{c}} {{e^{ - \lambda }} \cdot \dfrac{{{\lambda ^k}}}{{k!}}}&{k = 0,1,..}\\ 0&{{\rm{sonstige}}} \end{array}} \right.\)
Verteilungsfunktion der Poissonverteilung
\(F\left( X \right) = {e^{ - \lambda }}\sum\limits_{x = 0}^n {\dfrac{{{\lambda ^k}}}{{k!}}}\)
Erwartungswert der Poissonverteilung
\(E\left( X \right) = \lambda\)
Varianz der Poissonverteilung
\(Var\left( X \right) = \lambda \)
Hypergeometrische Verteilung
Die hypergeometrische Verteilung ist eine diskrete Verteilung, deren Zufallsvariable X nur zwei Werte annimmt: 0 = Misserfolg / Niete bzw. 1 = Erfolg / Treffer. Die Grundgesamtheit vermindert sich aber bei jeder Wiederholungen, denn es handelt sich um ein „Ziehen ohne Zurücklegen“. Das Ereignis X tritt genau k mal ein. Die hypergeometrische Verteilung kann durch eine Binomialverteilung approximiert werden, wenn \(\dfrac{N}{n} > 10\)
3 Parameter:
- N ... Anzahl der Elemente in der Grundgesamtheit (am Anfang vom Experiment)
- M ... Anzahl der Elemente (am Anfang vom Experiment) die ein „Erfolg“ sind
- n ... Anzahl der Ziehungen = Stichprobenumfang
- N-M Anzahl der Elemente, die kein "Erfolg" sind
- k … Anzahl der Merkmalsträger in der Stichprobe: \(k \le n;\,\,\,\,\,k \le M;\,\,\,\,\,n - k \le N - M\)
Wahrscheinlichkeitsfunktion der hypergeometrischen Verteilung
\(f\left( k \right) = P\left( {X = k} \right) = \dfrac{{\left( {\begin{array}{*{20}{c}} M\\ k \end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}} {N - M}\\ {n - k} \end{array}} \right)}}{{\left( {\begin{array}{*{20}{c}} N\\ n \end{array}} \right)}}\)
Verteilungsfunktion der hypergeometrischen Verteilung
\(F\left( X \right) = \sum\limits_{k = 0}^x {\dfrac{{\left( {\begin{array}{*{20}{c}} M\\ k \end{array}} \right) \cdot \left( {\begin{array}{*{20}{c}} {N - M}\\ {n - k} \end{array}} \right)}}{{\left( {\begin{array}{*{20}{c}} N\\ n \end{array}} \right)}}} \)
Erwartungswert der hypergeometrischen Verteilung
\(E\left( X \right) = \mu = n \cdot \dfrac{M}{N}\)
Varianz der hypergeometrischen Verteilung
\(Var\left( X \right) = V\left( X \right) = {\sigma ^2} = n \cdot \dfrac{M}{N} \cdot \left( {1 - \dfrac{M}{N}} \right) \cdot \dfrac{{N - n}}{{N - 1}}\)
Beispiel österreichisches Lotto "6 aus 45" (in Deutschland: 6 aus 49)
N = 45 ... Grundgesamtheit. Also die Anzahl der möglichen Kugeln, die gezogen werden können.
M=6 ... Anzahl der Elemente, die ein Erfolg sind. Also die Anzahl der gezogenen Kugeln
n=6 ... Anzahl der Ziehungen
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Stetige Zufallsvariable
Man spricht von einer stetigen Zufallsvariablen, wenn die Anzahl der Ergebnisse des Zufallsexperiments unendlich,also nicht abzählbar, ist. Sie wird durch eine Dichtefunktion und/oder eine Verteilungsfunktion beschrieben.
Spezielle Verteilungen stetiger Zufallsvariabler sind
- Rechtecksverteilung
- Exponentialverteilung
- Normalverteilung
- Standardnormalverteilung
Dichtefunktion
Die Fläche unter der Dichtefunktion beschreibt (mittels Integralrechnung) die Wahrscheinlichkeit dafür, dass die stetige Zufallsvariable innerhalb vom Intervall [a, b] liegt. Umgekehrt bedeutet dies, dass in Intervallen in denen die Dichte (de-facto) Null ist auch (de-facto) keine Realisierungen von X liegen, während in Intervallen mit hoher Dichte auch eine große Anzahl an Realisierungen von X liegen.
Dichtefunktion f(x): \(P\left( {a < X \le b} \right) = \int\limits_a^b {f\left( x \right)} \,\,dx = F\left( b \right) - F\left( a \right)\) , wobei die Fläche unter der Dichtefunktion normiert ist gemäß: \(\int\limits_{ - \infty }^\infty {f\left( x \right)} \,\,{\mathop{\rm dx}\nolimits} = 1\)
Die Dichtefunktion ist für stetige Zufallsvariablen das Äquivalent zur Wahrscheinlichkeitsfunktion von diskreten Zufallsvariablen. Sie kann nur positive Werte annehmen und die gesamte Fläche unter ihrem Graph hat den Wert 1. Aus der Dichtefunktion f(x) lässt sich keine Wahrscheinlichkeit P(X) ablesen, da die Wahrscheinlichkeit dafür, dass eine stetige Zufallsvariable X einen konkreten Wert x annimmt, Null ist. Es gilt also: \(f\left( x \right) \ne P\left( {X = x} \right)\)
Zwischen der Dichtefunktion f(x) und der Verteilungsfunktion F(x) besteht folgender Zusammenhang:
\(\begin{array}{l} f\left( x \right) = F'\left( x \right)\\ F\left( X \right) = \int\limits_{ - \infty }^\infty {f(t)\,\,dt} \end{array}\)
Durch Ableiten der Verteilfunktion F erhält man die Dichtefunktion. Aus einer gegebenen Dichtefunktion f erhält man durch Integrieren die Verteilfunktion F.
Verteilungsfunktion
Die Verteilungsfunktion F(x) einer stetigen Zufallsvariablen gibt die Wahrscheinlichkeit dafür an, dass eine Zufallsvariable X einen Wert der kleiner oder gleich x annimmt. Sie entspricht der Fläche unter der Dichtefunktion f(t), die sich bis zum Wert x kumuliert hat.
\(F(X) = \int\limits_{ - \infty }^\infty {f\left( t \right)} \,\,dt\)
Weil bei stetigen Zufallsvariablen die Wahrscheinlichkeit für jeden einzelnen Wert Null ist, gemäß \(P(X = x) = 0\) ist es egal, ob die Intervallgrenze zum Intervall gezählt wird [a, b], oder ob nicht (a, b):
\(P\left( {a \le X \le b} \right) = P\left( {a < X \le b} \right) = P\left( {a \le X < b} \right) = P\left( {a < X < b} \right) = F(b) - F(a)\)
Erwartungswert
Der Erwartungswert E(X) einer stetigen Zufallsvariable X gibt an, welchen Wert die Zufallsvariable X im Mittel bei einer unbegrenzten Wiederholung annimmt. Gegenüber dem Erwartungswert einer diskreten Verteilung ersetzt man bei der stetigen Verteilung die Summe durch das Integral und die Wahrscheinlichkeit P(X=xi) durch die Dichtefunktion f(x).
\(E(X) = \mu = \int\limits_{ - \infty }^\infty {x \cdot f\left( x \right)} \,\,dx\)
Varianz
Die Varianz einer stetigen Zufallsvariablen ist die mittlere quadratische Abweichung der Zufallsvariablen von ihrem Erwartungswert und somit ein Streumaß der beschreibenden Statistik.
\({\sigma _x}^2 = Var\left( X \right) = E{\left( {X - {\mu _x}} \right)^2} = \int\limits_{ - \infty }^\infty {{{\left( {x - {\mu _x}} \right)}^2}} \cdot f\left( x \right)\,\,dx\)
Verschiebungssatz
Der Verschiebungssatz für stetige Zufallsvariablen kann den Rechenaufwand für die Berechnung der Varianz verringern.
- Der 1. Term ist das einfacher zu rechnende Integral von X2 , also dem Erwartungswert von X2
- Der 2. Term ist ganz simpel das Quadrat vom Erwartungswert von X
\({\sigma _x}^2 = Var(X) = E{\left( X \right)^2} - {\left( {E\left( X \right)} \right)^2} = \left( {\int\limits_{ - \infty }^\infty {{x^2} \cdot f\left( x \right)\,\,dx} } \right) - {\left( {E\left( X \right)} \right)^2}\)
Standardabweichung
Die Varianz einer stetigen Zufallsvariablen hat den Nachteil, als Einheit das Quadrat der Einheit der zugrunde liegenden Zufallsvariablen zu haben. Das ist bei der Standardabweichung (auf Grund der Quadratwurzel) und beim Erwartungswert nicht der Fall.
\({\sigma _x} = \sqrt {Var\left( X \right)} \)
Physikalische Analogie für den Erwartungswert und für die Varianz:
- Physikalisch entspricht der Erwartungswert dem Schwerpunkt. Man muss sich dabei die Massen R(X=xi) an den Positionen xi entlang vom Zahlenstrahl x plaziert vorstellen.
- Physikalisch entspricht die Varianz dem Trägheitsmoment, wenn man den oben beschriebenen Zahlenstrahl um eine Achse dreht, die senkrecht auf den Zahlenstrahl steht und die durch den Schwerpunkt verläuft
Rechteckverteilung
Man wählt eine Rechteckverteilung, wenn sich für die stetige Zufallsvariable X eine Ober- bzw. Untergrenze angeben lässt, und alle Werte zwischen diesen beiden Grenzen gleich wahrscheinlich sind. Die Rechteckverteilung im Intervall [a, b] ist eine stetige Gleichverteilung, bei der jedes Ergebnis gleich wahrscheinlich ist. Sie hat also im Intervall [a, b] eine konstante Wahrscheinlichkeitsdichte von 1/(b-a).
Die Rechteckverteilung wird noch als stete Gleichverteilung, als kontinuierliche Gleichverteilung bzw. als Uniformverteilung bezeichnet.
Dichtefunktion der Rechteckverteilung
\(f\left( x \right) = \left\{ {\begin{array}{*{20}{c}} {\dfrac{1}{{b - a}}}&{a \le x \le b}\\ 0&{{\rm{sonst}}} \end{array}} \right.\)
Verteilfunktion der Rechteckverteilung
\(F\left( x \right) = \left\{ {\begin{array}{*{20}{c}} 0&{x \le a}\\ {\dfrac{{x - a}}{{b - a}}}&{a < x < b}\\ 1&{x \ge b} \end{array}} \right.\)
Erwartungswert der Rechteckverteilung
Der Erwartungswert und der Median der Rechteckverteilung sind gleich dem Wert in der Mitte des Intervalls [a,b].
\(\mu = E\left( X \right) = \int\limits_{ - \infty }^\infty {x \cdot f\left( x \right)} \,\,dx = \dfrac{{a + b}}{2}\)
Varianz der Rechteckverteilung
\(Var\left( X \right) = {\sigma ^2} = \dfrac{{{{\left( {b - a} \right)}^2}}}{{12}}\)
Exponentialverteilung
Die Exponetialfunktion von stetigen Zufallsvariablen wird zur Modellierung von der Zeit zwischen 2 Ereignissen oder der Lebensdauer von Bauteilen verwendet. Die stetige Exponentialverteilung wird durch die Ereignisrate \(\lambda\) - das ist die mittlere Anzahl der Ereignisse pro Zeiteinheit - bestimmt. Sie ist eine „gedächtnislose“ Funktion.
Dichtefunktion der Exponentialverteilung
Die Dichtefunktion sinkt umso steiler, je größer \(\lambda\) ist.
\(f\left( x \right) = \left\{ {\begin{array}{*{20}{c}} {\lambda \cdot {e^{ - \lambda x}}}&{x \ge 0}\\ 0&{x < 0} \end{array}} \right.\)
Verteilungsfunktion der Exponentialverteilung
Die Verteilungsfunktion steigt umso steiler, je größer \(\lambda\) ist.
\(F\left( x \right) = \left\{ {\begin{array}{*{20}{c}} {a - {e^{ - \lambda x}}}&{x \ge 0}\\ 0&{x < 0} \end{array}} \right.\)
Erwartungswert der Exponentialverteilung
\(E\left( X \right) = \dfrac{1}{\lambda }\)
Varianz der Exponentialverteilung
\(Var\left( x \right) = \dfrac{1}{{{\lambda ^2}}}\)
Gedächtnislosigkeit der Exponentialverteilung und der geometrischen Verteilung
Sie gibt die Wahrscheinlichkeit an, dass ein Ereignis (z.B. ein Produktfehler) nach weiteren t Minuten eintritt, nachdem man schon s Minuten gewartet hat. Man spricht auch von der "Nichtalterungseigenschaft".
Die Gedächtnislosigkeit ist eine spezielle Eigenschaft der Exponentialverteilung und der geometrischen Verteilung.
- Sie besagt, dass die bedingte Wahrscheinlich weitere s Zeiteinheiten zu überdauern unabhängig vom bis dahin erreichten Lebensalter ist , also für beliebige Vorbedingungen gleich ist. Die Zufallsvariable „merkt“ sich also nicht welches Lebensalter zum Betrachtungszeitpunkt bereits erreicht ist, und ist daher gedächtnislos. Bereits absolvierte Lebensdauer hat keinen Einfluss auf die Zukunft. Gegenstände altern nicht sonder versagen auf Grund zufälliger Ereignisse.
- Die Nichtalterungseigenschaft besagt, dass für ein gebrauchtes Bauteil, welches im Intervall (0,t) nicht ausgefallen ist, die Wahrscheinlichkeit noch länger als s zu funktionieren gleich groß ist, wie die Wahrscheinlichkeit für ein neues Bauteil noch länger als s zu funktionieren..
Eine Verteilung P mit der Verteilungsfunktion F heißt gedächtnislos, wenn für alle \(s,t \ge 0\) gilt: \(P\left( {X > s + t\left| {X > t} \right.} \right) = P\left( {X > s} \right)\) bzw. für stetige Verteilungen \(P\left( {X \ge s + t\left| {X \ge t} \right.} \right) = P\left( {X \ge s} \right)\)
Schon den nächsten Urlaub geplant?
Auf maths2mind kostenlos auf Prüfungen vorbereiten!
Nach der Prüfung in Ruhe entspannen
Normalverteilung \(N\left( {\mu ;{\sigma ^2}} \right)\)
Die Normalverteilung, auch gaußsche Glockenverteilung genannt, ist zusammen mit ihrem Spezialfall (μ=0, σ2=1) der Standardnormalverteilung die wichtigste Verteilungsfunktion. Sie bietet sich immer dann an, wenn Werte innerhalb eines begrenzten Intervalls liegen und es kaum Ausreißer gibt. Bei großen Stichproben einer Binomialverteilung kann diese durch eine Normalverteilung approximiert werden.
2 Parameter:
- \(\mu = E\left( X \right)\) .. Erwartungswert, bestimmt an welcher Stelle das Maximum der Normalverteilung auftritt, d.h. er verschiebt die Dichte- und Verteilungsfunktion entlang der x-Achse
- \(\sigma ^2\) .. Varianz, ist ein Maß für die Streuung der Werte um den Erwartungswert, d.h. sie bestimmt wie breit die Dichtefunktion ist, bzw. wie steil die Verteilungsfunktion ansteigt
Wahrscheinlichkeit der Normalverteilung
Die Zufallsvariable X ist normalverteilt mit dem Erwartungswert \(\mu\) und der Varianz \(\sigma ^2\).
\(P\left( {X \leqslant {x_1}} \right) = \int\limits_{ - \infty }^{{x_1}} {f\left( x \right)} \,\,dx = \int\limits_{ - \infty }^{{x_1}} {\dfrac{1}{{\sigma \cdot \sqrt {2 \cdot \pi } }}} \cdot {e^{ - \,\,\dfrac{1}{2} \cdot {{\left( {\dfrac{{x - \mu }}{\sigma }} \right)}^2}}}\,\,dx\)
- Die Dichtefunktion der Normalverteilung \(N\left( {\mu ;{\sigma ^2}} \right)\) ist symmetrisch um die y-Achse, welche die x-Achse bei \(x = \mu = E\left( X \right)\) also beim Erwartungswert schneidet.
- Die Glockenkurve erreicht Ihr Maximum an der Stelle vom Erwartungswert. Hier liegen ebenfalls der Modus und der Median.
- Die Dichtefunktion der Normalverteilung \(N\left( {\mu ;{\sigma ^2}} \right)\) hat links und rechts vom Erwartungswert E(X) zwei Wendestellen, die jeweils genau 1 Standardabweichung \(\sigma\) vom Erwartungswert entfernt liegen.
- Die Dichtefunktion der Normalverteilung \(N\left( {\mu ;{\sigma ^2}} \right)\) ist stetig, von -∞ bis ∞ definiert und nähert sich der negativen und der positiven x- Achse an, ohne sie je zu berühren.
- Die Dichtefunktion der Normalverteilung \(N\left( {\mu ;{\sigma ^2}} \right)\) ist kein Maß für die Wahrscheinlichkeit eines einzelnen Werts, sondern grundsätzlich nur für ein Intervall.
- Die Standardabweichung \(\sigma\) bestimmt, den Verlauf der Dichtefunktion: Je kleiner \(\sigma\) ist, um so steiler wird der Graph
- Der Erwartungswert \( \mu = E\left( X \right)\) bestimmt hingegen, bei welchem x-Wert die Normalverteilung ihr Maximum hat. Ändert sich der Erwartungswert, so verschiebt sich die Normalverteilung entlang der x-Achse
- Die Verteilungsfunktion der Normalverteilung hat Ihren Wendepunkt \(WP\left( {\mu ,0.5} \right)\) an der Stelle vom Erwartungswert. An dieser Stelle hat die Dichtefunktion ihr Maximum
Sigma-Umgebungen
Zusammenhang zwischen Wendepunkt der Wahrscheinlichkeitsfunktion einer Normalverteilung und dem Erwartungswert
Der Erwartungswert ist der Wert mit der größten Wahrscheinlichkeit. Links und rechts vom Erwartungswert gruppieren sich die restlichen normalverteilten Wahrscheinlichkeiten.
Die Wendepunkte der Wahrscheinlichkeitsfunktion der Normalverteilung liegen eine Standardabweichung rechts vom Erwartungswert und eine Standardabweichung links vom Erwartungswert.
Wahrscheinlichkeiten für 1, 2 und 3-fache \(\sigma\) -Umgebungen:
\(\eqalign{ & P\left( {\mu - \sigma \leqslant X \leqslant \mu + \sigma } \right) \approx 0,683 \cr & P\left( {\mu - 2 \cdot \sigma \leqslant X \leqslant \mu + 2 \cdot \sigma } \right) \approx 0,954 \cr & P\left( {\mu - 3 \cdot \sigma \leqslant X \leqslant \mu + 3 \cdot \sigma } \right) \approx 0,997 \cr} \)
Obige Gleichungen in Worten:
Die Wahrscheinlichkeit, dass eine Zufallsvariable X einen Wert
- im Bereich µ+/- 1σ annimmt beträgt ca. 68,3%,
- im Bereich µ+/- 2σ annimmt beträgt ca. 95,4% und
- im Bereich µ+/- 3σ ist sie mit ca. 99,7% schon sehr nahe bei 100%.
Erwartungswert und Standardabweichung einer Normalverteilung
Die Normalverteilung ersetzt bei großen Stichproben, also bei relativ hohem n, die Binomialverteilung, wobei dann für die Normalverteilung - so wie bei der Binomalverteilung - wie folgt gilt:
-
Erwartungswert bei großem n: \(\mu =E\left( x \right) = n \cdot p\)
-
Standardabweichung bei großem n: \(\sigma = \sqrt {Var(x)} = \sqrt {n \cdot p \cdot \left( {1 - p} \right)} \)
Hat eine Zufallsvariable X eine Normalverteilung mit beliebigen μ und σ, so kann man die Werte der Normalverteilung mit \(z = \dfrac{{X - \mu }}{\sigma }\) in eine Standardnormalverteilung umrechnen.
Für die tabellarische Ermittlung von z aus \(\gamma\) gibt es 2 Möglichkeiten
- man geht mit dem Wert \(\Phi \left( z \right) = \dfrac{{\gamma + 1}}{2}\) in eine \(\Phi \left( z \right) \Rightarrow z\) Tabelle und liest z ab
- man geht mit dem Wert \(D\left( z \right) = \gamma \) in eine \(D\left( z \right) \Rightarrow z\) Tabelle und liest z ab
D(z) entspricht der Fläche unter der Gaußkurve, zwischen 2 vom Erwartungswert E bzw. μ um \( \pm z \cdot \sigma \) entfernt liegende Grenzen. Für das zugehörige Konfidenzintervall gilt:
\({p_{1,2}} = \mu \pm z \cdot \sigma \Rightarrow \left[ {{p_1},\,\,{p_2}} \right] = \left[ {\mu - \sigma ;\,\,\mu + \sigma } \right]\)
Dichtefunktion f(t) einer Normalverteilung mit \(X \sim N\left( {\mu ,{\sigma ^2}} \right)\)
\(f\left( t \right) = \dfrac{1}{{\sigma \cdot \sqrt {2\pi } }} \cdot {e^{ - \dfrac{1}{2} \cdot {{\left( {\dfrac{{t - \mu }}{\sigma }} \right)}^2}}}\)
-
Die Dichtefunktion der Normalverteilung hat die Form einer Glockenkurve, ist symmetrisch um den Erwartungswert µ, der zugleich ihr Maximum ist. Ihre beiden Wendestellen liegen bei µ-σ bzw. bei µ+σ. Ihr Graph nähert sich asymptotisch der positiven bzw. negativen x-Achse an. Sie illustriert, dass Abweichungen vom Erwartungs- bzw. Mittelwert umso unwahrscheinlicher werden, je weiter die Zufallsvariable X von µ entfernt ist. Um die Dichtefunktion der Normalverteilung zeichnen zu können benötigt man nur den Erwartungswert µ, der die Lage vom Maximum auf der x-Achse bestimmt und die Streuung σ, welche die Breite vom Graph bestimmt.
-
Der Flächeninhalt, der von der Dichtefunktion der Normalverteilung eingeschlossen wird - also das Integral von minus Unendlich bis plus unendlich - ist unabhängig von den Werten von µ und σ immer genau 1.
- Wahrscheinlichkeit, dass die Zufallsvariable X einen Wert kleiner oder gleich einer Grenze G annimmt: \(P(X \le G) = \int\limits_{ - \infty }^G {f\left( t \right)} \,\,dt\)
- Wahrscheinlichkeit, dass die Zufallsvariable X einen Wert größer oder gleich einer unteren Grenze U und gleich oder kleiner einer oberen Grenze O annimmt: \(P(U \le X \le O) = \int\limits_U^O {f\left( t \right)} \,\,dt\)
- Wahrscheinlichkeit, dass die Zufallsvariable X mindestens einen Wert größer oder gleich einer Grenze O annimmt: \(P\left( {X \ge G} \right) = \int\limits_G^\infty {f\left( t \right)} \,\,dt\)
Verteilungsfunktion F(x) einer Normalverteilung
\(F\left( x \right) = \int\limits_{ - \infty }^x {f\left( t \right)\,\,dt} = \dfrac{1}{{\sigma \cdot \sqrt {2\pi } }} \cdot \int\limits_{ - \infty }^x {{e^{ - \dfrac{1}{2} \cdot {{\left( {\dfrac{{t - \mu }}{\sigma }} \right)}^2}}}} \,\,dt\)
- Auf Grund der Symmetrie der Verteilungsfunktion gilt \(F(x) = 1 - F( - x)\)
Anmerkung:
- Bei der Dichtefunktion f(t) lautet das Argument t, bei der Verteilungsfunktion F(x) lautet das Argument x nur um besser zwischen den beiden Funktionen unterscheiden zu können. Das t hat nichts mit Zeit zu tun, es hat sich einfach für die Dichtefunktion so etabliert.
Dichte- und Verteilungsfunktion der Normalverteilung
- Die Verteilungsfunktion - sie hat den Graph einer logistischen Wachstumsfunktion - ist das Integral der Dichtefunktion bzw. die Dichtefunktion ist die Ableitung der Verteilungsfunktion
- Dort wo die Verteilungsfunktion ihren Wendepunkt \(WP\left( {\mu ,0.5} \right)\) hat, dort liegt der Erwartungswert und an dieser Stelle hat die Verteilungsfunktion die Wahrscheinlichkeit 0,5 bzw hat dort die Dichtefunktion ihr Maximum.
- Auf der y-Achse der Verteilungsfunktion kann man die Wahrscheinlichkeit \(P\left( {X \le {x_1}} \right)\) ablesen, höchstens den Wert x1 zu erreichen.
- In unten stehender Illustration beträgt die Wahrscheinlichkeit höchstens den Wert x1 zu erreichen: 0,7 bzw. 70%
- Der verbleibende Rest auf 1 entspricht der Wahrscheinlichkeit mindestens den Wert x1 zu erreichen.
- In unten stehender Illustration beträgt die Wahrscheinlichkeit mindestens den Wert x1 zu erreichen: 0,3 bzw. 30%
Standardnormalverteilung
Die Normalverteilung oder gaußsche Verteilung ist eine stetige Verteilung und hat den Erwartungswert μ und die Varianz ,σ2 als Parameter. Da die Normalverteilung nur aufwändig zu berechnen ist, hat man sie standardisiert und in Tabellenform gebracht, wobei man den Mittelwert \(\mu = 0\) und die Standardabweichung \(\sigma = 1\) gesetzt hat. Hat eine Zufallsvariable X eine Normalverteilung mit beliebigen \(\mu\) und \(\sigma\) , so kann man die Werte der Normalverteilung mit \(Z = \dfrac{{X - \mu }}{\sigma }\)in eine Standardnormalverteilung umrechnen. Man nennt diese Umrechnung auch z-Transformation. Mit Hilfe der z-Transformation kann jede Normalverteilung standardisiert werden und dadurch viel einfacher (mit Hilfe einer Tabelle) berechnet werden.
- Um bei der Verteilungsfunktion Verwechslungen mit der Normalverteilung zu vermeiden, verwendet man für die Standardnormalverteilung die Bezeichnung \(\Phi \left( z \right)\), statt F(x).
- Um bei der Dichtefunktion Verwechslungen mit der Normalverteilung zu vermeiden, verwendet man für die Standardnormalverteilung die Bezeichnung \(\varphi \left( x \right)\) , statt f(x).
Bei um den Erwartungswert symmetrischen Intervallen gilt folgender Zusammenhang:
\(P\left( { - z \leqslant Z \leqslant z} \right) = 2 \cdot \Phi \left( z \right) - 1\)
\(P\left( { - z \leqslant Z \leqslant z} \right)\) | =90% | =95% | =99% |
z | \( \approx 1,645\) | \( \approx 1,960\) | \( \approx 2,576\) |
Dichtefunktion der Standard Normalverteilung
\(\varphi \left( x \right) = \dfrac{1}{{\sqrt {2\pi } }} \cdot {e^{ - \dfrac{{{x^2}}}{2}}}\)
Verteilungsfunktion der Standard Normalverteilung
Die Verteilungsfunktion der Standard Normalverteilung entspricht dem Integral über die Dichtefunktion
\(\begin{array}{l} \Phi \left( z \right) = P\left( {Z \le z} \right) = \int\limits_{ - \infty }^z {\varphi \left( x \right)} \,\,dx = \dfrac{2}{{\sqrt {2\pi } }} \cdot \int\limits_{ - \infty }^z {{e^{ - \dfrac{{{x^2}}}{2}}}} \,\,dx\\ \Phi \left( { - z} \right) = 1 + \Phi \left( z \right) \end{array}\)
Für den Graph der gaußschen Glockenkurve gilt:
- die Funktion nimmt nur positive Werte an \(p\left( x \right) > 0\) , wird aber für \(x < \mu - 3\sigma \) und \(x > \mu + 3\sigma\) "fast null und sie hat daher an der Basis eine "sichtbar" Breite von \(6\sigma \)
- hat \(\int\limits_{ - \infty }^\infty {f\left( x \right)\,\,dx = 1}\) als Flächeninhalt mit der x-Achse
- je kleiner die Streuung \(\sigma\) umso schmäler und höher ist die Glockenkurve, je größer die Streuung \(\sigma\) um so breiter und flacher ist die Glockenkurve
- hat einen Sattelpunkt an der Stelle \(x = \mu\)
- hat zwei Wendepunkte an den Stellen \(x = \mu \pm \sigma\)
- hat die x-Achse als Asymptote
- ist symmetrisch bezüglich der Geraden \(x = \mu\)
- die Wahrscheinlichkeit dass eine Messung exakt einen Wert a auf der Glockenkurve annimmt ist immer Null. Man erhält nur Aussagen für Intervalle, d.h. man muss eine Messungenauigkeit, einen absoluten Fehler \(\left| {\Delta x} \right|\) mit einbeziehen \(P\left( {a - \left| {\Delta x} \right| \leqslant x \leqslant a + \left| {\Delta x} \right|} \right)\)
Konfidenzintervall für Normal- bzw. Standardnormalverteilung
Bei der Ermittlung statistischer Parameter wie Mittelwert oder Standardabweichung prüft man selten alle möglichen Ergebnisse, sondern man beschränkt sich auf eine Stichprobe. Dadurch ist die Messung aber Ungenauigkeiten unterworfen.
Das Konfidenzintervall definiert einen Bereich, in dem man mit einer bestimmten Wahrscheinlichkeit (dem Konfidenzniveau \(\gamma\)) darauf vertrauen darf, dass sich der wahre Wert einer Zufallsgröße darin befindet. Typische Werte für das Konfidenzniveau liegen bei 90%, 95% oder bei 99%. Umgekehrt kann man die Frage nach dem erforderlichen Stichprobenumfang klären, wenn man ein konkretes Konfidenzintervall vorgibt.
Vereinfachte Merksätze:
- Größere Stichprobe ergibt ein schmäleres Konfidenzintervall (Hochrechnung bei Wahlen: höherer Auszählungsgrad → geringere Schwankungsbreite)
- Größere Sicherheit (höheres Konfidenzniveau = höherer Prozentsatz beim Konfidenzintervall) bedeutet breiteres Konfidenzintervall
- Je näher der Prozentsatz an der 50 % Grenze liegt, umso breiter wird das Konfidenzintervall. Das heißt je deutlicher Zustimmung bzw. Ablehnung sind, umso schmäler wird das Konfidenzintervall
Für diejenigen Werte p, in deren das \(\gamma\) Konfidenzintervall der Wert h liegt, gilt
\({p_{1,2}} = \left[ {h - z \cdot \sqrt {\dfrac{{h \cdot \left( {1 - h} \right)}}{n}} ;\,\,\,\,h + z \cdot \sqrt {\dfrac{{h \cdot \left( {1 - h} \right)}}{n}} } \right]\)
h | relative Häufigkeit in einer Stichprobe |
p | unbekannter relativer Anteil in der Grundgesamtheit |
\(\gamma\) | Konfidenz- / Vertrauensniveau |
n | Umfang der Stichprobe |
z | Ist aus der Tabelle der Standardnormalverteilung abzulesen
Für das 95%-Konfidenzintervall gilt beispielhaft: \(\eqalign{ & 2 \cdot \Phi \left( z \right) - 1 = 0,95 \cr & \Phi \left( z \right) = \dfrac{{1,95}}{2} = 0,975 \cr} \) Aus der Tabelle der Standardnormalverteilung können wir ablesen: \(z\left( {0,975} \right) = 1,96\) |
Illustration zur Veranschaulichung:
Die Fläche unter der gaußschen Glockenkurve und zwischen den Intervallgrenzen p1 bzw. p2 errechnet sich zu \(2\Phi \left( z \right) - 1 = \gamma \).
Das zugehörige z kann man auf 2 Arten aus den entsprechenden Tabellen ermitteln:
- man geht mit dem Wert \(\Phi \left( z \right) = \dfrac{{\gamma + 1}}{2}\) in eine \(\Phi \left( z \right) \Rightarrow z\) Tabelle und liest z ab
- man geht mit dem Wert \(D\left( z \right) = \gamma \) in eine \(D\left( z \right) \Rightarrow z\) Tabelle und liest z ab
α von 5 % bzw. z(0,975)=1,96 bedeutet, dass das Intervall den gesuchten Wert der Grundgesamtheit mit 95 % Wahrscheinlichkeit enthält.
Zweiseitiges (1 – α)-Konfidenz- /Schwankungsintervall für einen Einzelwert einer normalverteilten Zufallsvariablen
\(\left[ {\mu - {z_{1\, - \,\dfrac{\alpha }{2}}} \cdot \sigma ;\,\,\,\,\,\mu + {z_{1\, - \,\dfrac{\alpha }{2}}} \cdot \sigma } \right]\)
Zweiseitiges (1 – α)-Konfidenz- /Schwankungsintervall für den Stichprobenmittelwert normalverteilter Werte
\(\left[ {\mu - {z_{1\, - \,\dfrac{\alpha }{2}}} \cdot \dfrac{\sigma }{{\sqrt n }};\,\,\,\,\,\mu + {z_{1\, - \,\dfrac{\alpha }{2}}} \cdot \sigma \cdot \dfrac{\sigma }{{\sqrt n }}} \right]\)
Zweiseitiges (1– α)-Konfidenz- /Schwankungsintervall für den Erwartungswert einer normalverteilten Zufallsvariablen bei bekanntem σ und bekanntem Mittelwert der Zufallsstichprobe
\(\left[ {\overline x - {z_{1\, - \,\dfrac{\alpha }{2}}} \cdot \dfrac{\sigma }{{\sqrt n }};\,\,\,\,\,\overline x + {z_{1\, - \,\dfrac{\alpha }{2}}} \cdot \dfrac{\sigma }{{\sqrt n }}} \right]\)
\(\overline x\) | Stichprobenmittelwert |
\({s_{\overline x }} = {s_{n - 1}}\) | Standardabweichung einer Stichprobe |
n | Stichprobenumfang |
\({z_{1\, - \,\dfrac{\alpha }{2}}}\) |
\(\left( {1 - \dfrac{\alpha }{2}} \right)\)- Quantil der Standardnormalverteilung, wobei: \(\begin{array}{l} P\left( { - z \le Z \le z} \right) = 90\% \to z = 1,654\\ P\left( { - z \le Z \le z} \right) = 95\% \to z = 1,960\\ P\left( { - z \le Z \le z} \right) = 99\% \to z = 2,576 \end{array}\) |
Konfidenzintervall für die studentsche t-Verteilung
Wenn die Standardabweichung σ der Grundgesamtheit unbekannt ist, man aber die Standardabweichung s der Stichprobe kennt und man nur einen kleinen Stichprobenumfang hat, benützt man anstelle der Normalverteilung die (studentsche) t-Verteilung.
Die Grundgesamtheit muss dabei (annähernd) normalverteilt sein. Die t-Verteilung hat ein glockenförmiges Aussehen, die Fläche unter der Glocke ist 1 und sie ist symmetrisch um Null. Median, Modus und Mittelwert sind null.
- Der 1. Parameter der t-Verteilung ist deren Freiheitsgrad f, der sich zu f=n-1 ergibt.
- Stichprobenumfang n=8 → f=8-1=7
- Der 2. Parameter ergibt sich gemäß \(\left( {1 - \dfrac{\alpha }{2}} \right)\)
- zweiseitiger 95% Vertrauensbereich: \(\alpha = 5\% \overset{\wedge}\to{=} 0,05 \to 1 - \frac{{0,05}}{2} = 0,975\)
Mit den beiden Werten geht geht man in die t-Tabelle und liest wie folgt ab: \({t_{7;0,975}} \approx 2,3646{\text{ }}\)
Zweiseitiges (1– α)- Konfidenz- /Schwankungsintervall für den Erwartungswert einer normalverteilten Zufallsvariablen bei unbekanntem σ
\(\left[ {\overline x - {t_{f;\,\,1\, - \,\dfrac{\alpha }{2}}} \cdot \dfrac{{{s_{n - 1}}}}{{\sqrt n }};\,\,\,\,\,\overline x + {t_{f;\,\,1\, - \,\dfrac{\alpha }{2}}} \cdot \dfrac{{{s_{n - 1}}}}{{\sqrt n }}} \right]\)
mit
\({t_{f;\,\,\,1\, - \,\dfrac{\alpha }{2}}}\) | \(\left( {1 - \dfrac{\alpha }{2}} \right)\)- Quantil der t-Verteilung mit f Freiheitsgraden |
α von 5 % (bei der Normalverteilung: z(0,975)=1,96) bedeutet, dass das Intervall den gesuchten Wert der Grundgesamtheit mit 95 % Wahrscheinlichkeit enthält. \({\dfrac{\alpha }{2}}\buildrel \wedge \over =2,5% \) der Werte liegen links vom Intervall und \({\dfrac{\alpha }{2}}\buildrel \wedge \over =2,5% \) der Werte liegen rechts vom Intervall.
Die Berechnung des Konfidenzintervalls kann z.B. mit dem Wahrscheinlichkeitsrechner von GeoGebra erfolgen:
Wahrscheinlichkeitsrechner
- Statistik
- T-Schätzung eines Mittelwerts
- Eingabe von 4 Werten erforderlich:
- Konfidenzniveau:
- Mittelwert der Stichprobe:
- Standardabweichung s der Stichprobe:
- Größe n der Stichprobe
- Eingabe von 4 Werten erforderlich:
- T-Schätzung eines Mittelwerts