Erwartungswert

Erwartungswert.png
Errechnung des Erwartungswerts durch Mittelung wiederholter Zufallsexperimente
Der Erwartungswert (selten und doppeldeutig Mittelwert) ist ein Begriff der schließenden Statistik. Der Erwartungswert (\(\displaystyle \operatorname{E}(X)\) oder \(\displaystyle \mu\)) einer Zufallsvariablen \(\displaystyle (X)\) ist jener Wert, der sich (in der Regel) bei oftmaligem Wiederholen des zugrunde liegenden Experiments als Mittelwert der Ergebnisse ergibt. Er bestimmt die Lokalisation (Lage) einer Verteilung. Er ist vergleichbar mit dem empirischen arithmetischen Mittel einer Häufigkeitsverteilung in der deskriptiven Statistik. Das Gesetz der großen Zahlen sichert in vielen Fällen zu, dass der Stichprobenmittelwert bei wachsender Stichprobengröße gegen den Erwartungswert konvergiert.
Ein Erwartungswert muss kein mögliches Ergebnis des zugrunde liegenden Zufallsexperiments sein. Insbesondere kann der Erwartungswert die Werte \(\displaystyle \pm \infty\) annehmen.
 
 

Definitionen

Allgemein wird der Erwartungswert als das Integral bezüglich des Wahrscheinlichkeitsmaßes definiert: Ist \(\displaystyle X\) eine \(\displaystyle P\)-integrierbare oder quasiintegrierbare Zufallsvariable von einem Wahrscheinlichkeitsraum \(\displaystyle (\Omega,\Sigma,P)\) nach \(\displaystyle (\overline{\R},\mathcal{B})\), wobei \(\displaystyle \mathcal{B}\) die Borelsche \(\displaystyle \sigma\)-Algebra über \(\displaystyle \overline{\R}:=\R\cup\{-\infty,\infty\}\) ist, so definiert man
\(\displaystyle \operatorname{E}(X) = \int\limits_\Omega X \, dP = \int\limits_\Omega X(\omega)P(d\omega) \, \).
Ist eine Zufallsvariable diskret oder besitzt sie eine Dichte, so existieren einfachere Formeln für den Erwartungswert, die im Folgenden aufgeführt sind.

Erwartungswert einer diskreten Zufallsvariablen

Im diskreten Fall errechnet sich der Erwartungswert als die Summe der Produkte aus den Wahrscheinlichkeiten jedes möglichen Ergebnisses des Experiments und den "Werten" dieser Ergebnisse.
Ist \(\displaystyle X\) eine diskrete Zufallsvariable, die die Werte \(\displaystyle x_1,\, x_2\), ... mit den jeweiligen Wahrscheinlichkeiten \(\displaystyle p_1,\, p_2\), ... annimmt, errechnet sich der Erwartungswert \(\displaystyle \operatorname{E}(X)\) zu:
\(\displaystyle \operatorname{E}(X)=\sum\limits_{i} x_i p_i=\sum\limits_{i} x_i P(X=x_i)\)

Sonderfall: abzählbar unendlich viele Werte einer diskreten Zufallsvariablen

Nimmt die Zufallsvariable \(\displaystyle X\) abzählbar unendlich viele Werte an, dann liegt eine unendliche Reihe vor. In diesem Fall existiert der Erwartungswert \(\displaystyle \operatorname{E}(X)\) nur, wenn die Konvergenzbedingung
\(\displaystyle \sum\limits_{i=1}^\infty |x_i|p_i <\infty\)
erfüllt ist, d.h. die Summe für den Erwartungswert absolut konvergent ist.

Erwartungswert einer stetigen Zufallsvariablen mit Dichtefunktion

Hat eine Zufallsvariable \(\displaystyle X\) eine Wahrscheinlichkeitsdichtefunktion \(\displaystyle f(x)\), so berechnet sich der Erwartungswert zu
\(\displaystyle \operatorname{E}(X)=\int\limits_{-\infty}^\infty x f(x)dx\, \)
Der Erwartungswert existiert nur, wenn das Integral für den Erwartungswert absolut konvergent ist, d.h. wenn das uneigentliche Integral \(\displaystyle \int\limits_{-\infty}^\infty \ntxbraceI{ x } f(x)dx\) konvergiert.

Erwartungswert von zwei Zufallsvariablen mit gemeinsamer Dichtefunktion

Haben eine Zufallsvariable \(\displaystyle X\) und eine Zufallsvariable \(\displaystyle Y\) eine gemeinsame Wahrscheinlichkeitsdichtefunktion \(\displaystyle f(x,y)\), so berechnet sich der Erwartungswert einer Funktion \(\displaystyle g(X,Y)\) von \(\displaystyle X\) und \(\displaystyle Y\) zu
\(\displaystyle \operatorname{E}(g(X,Y))=\int\limits_{-\infty}^\infty \int\limits_{-\infty}^\infty g(x,y) f(x,y)dxdy\, \)
Der Erwartungswert existiert nur, wenn das Integral \(\displaystyle \int\limits_{-\infty}^\infty \int\limits_{-\infty}^\infty \ntxbraceI{ g(x,y) } f(x,y)dxdy\) konvergiert.
Insbesondere ist:
\(\displaystyle \operatorname{E}(X)=\int\limits_{-\infty}^\infty \int\limits_{-\infty}^\infty x f(x,y)dxdy\, \)

Beispiele

Würfeln

Das Experiment sei ein Würfelwurf. Als Zufallsvariable \(\displaystyle X\) betrachten wir die gewürfelte Augenzahl, wobei jede der Zahlen 1 bis 6 mit einer Wahrscheinlichkeit von jeweils 1/6 gewürfelt wird.
\(\displaystyle \operatorname{E}(X)=\sum\limits_{i=1}^6 i\cdot \dfrac{1}{6} = 3{,}5\)
Wenn man beispielsweise 1000 Mal würfelt, d.h. das Zufallsexperiment 1000 mal wiederholt, die geworfenen Augenzahlen zusammenzählt und durch 1000 dividiert, ergibt sich mit hoher Wahrscheinlichkeit ein Wert in der Nähe von 3,5. Es ist jedoch unmöglich, diesen Wert mit einem einzigen Würfelwurf zu erzielen.

St. Petersburger Spiel

Das sogenannte St. Petersburger Spiel ist ein Spiel mit unendlichem Erwartungswert: Man werfe eine Münze, zeigt sie Kopf, erhält man 2€, zeigt sie Zahl, darf man nochmals werfen. Wirft man nun Kopf, erhält man 4€, wirft man wieder Zahl, so darf man ein drittes mal werfen, usw. Man sieht sofort, dass der Erwartungswert
\(\displaystyle \operatorname{E}(X)= 2\cdot\dfrac{1}{2} + 4\cdot\dfrac{1}{4} + \cdots = 1 + 1 + \cdots = \sum\limits_{i=1}^\infty 2^i\cdot \dfrac{1}{2^i} = \infty\)
ist. Auch wenn man das Spiel noch so oft spielt, wird man am Ende nie eine Folge von Spielen haben, bei denen das Mittel aller Gewinne unendlich ist.

Rechenregeln

Der Erwartungswert ist linear, da das Integral ein linearer Operator ist. Daraus ergeben sich die folgenden zwei sehr nützlichen Regeln:

Erwartungswert der Summen von n Zufallsvariablen

Die Erwartungswerte der Summen von n Zufallsvariablen \(\displaystyle (X_i)\) lässt sich berechnen als die Summe der einzelnen Erwartungswerte:
\(\displaystyle \operatorname{E}\braceNT{\sum\limits_{i=1}^nX_i}=\sum\limits_{i=1}^n\operatorname{E}(X_i)\)

Lineare Transformation

Für die Lineare Transformation \(\displaystyle Y=kX + d \, \) gilt:
\(\displaystyle \operatorname{E}(Y)=\operatorname{E}(kX+d)=k\operatorname{E}(X)+d\)
weil
\(\displaystyle \operatorname{E}(a + bX) = \int\limits_{-\infty}^\infty (a + b x) f(x) \, dx \)\(\displaystyle = a {\int\limits_{-\infty}^\infty f(x) \, dx} \)\(\displaystyle + b {\int\limits_{-\infty}^\infty x \cdot f(x) \, dx} \)\(\displaystyle = a + b \operatorname{E}(X) \)
Insbesondere:
\(\displaystyle \operatorname{E}(cX)=c\operatorname{E}(X)\)

Erwartungswert des Produkts von n Zufallsvariablen

Wenn die Zufallsvariablen \(\displaystyle X_i\) stochastisch voneinander unabhängig sind, gilt:
\(\displaystyle \operatorname{E}\braceNT{\prod\limits X_{i}} = \prod\limits \, \operatorname{E}(X_{i})\)

Wahrscheinlichkeiten als Erwartungswerte

Wahrscheinlichkeiten von Ereignissen lassen sich auch über den Erwartungswert ausdrücken. Für jedes Ereignis \(\displaystyle A\) gilt
\(\displaystyle \operatorname{P}(A) = \operatorname{E}(\mathrm1_A) \, \),
wobei \(\displaystyle \mathrm1_A\) die Indikatorfunktion von \(\displaystyle A\) ist.
Dieser Zusammenhang ist oft nützlich, etwa zum Beweis der Tschebyschow-Ungleichung.

Erwartungswerte von Funktionen von Zufallsvariablen

Wenn \(\displaystyle Y=g(X)\) wieder eine Zufallsvariable ist, so kann man den Erwartungswert von \(\displaystyle Y\) wie folgt berechnen:
\(\displaystyle \operatorname{E}(Y)=\int\limits_{-\infty}^\infty g(x) f(x)dx\).
Auch in diesem Fall existiert der Erwartungswert nur, wenn \(\displaystyle \int\limits_{-\infty}^\infty \ntxbraceI{ g(x) } f(x)dx\) konvergiert.
Bei einer diskreten Zufallsvariable verwendet man eine Summe:
\(\displaystyle \operatorname{E}(Y)=\sum\limits_{i} g(x_i) \cdot p_i\)
Ist die Summe nicht endlich, dann muss die Reihe absolut konvergieren damit der Erwartungswert existiert.

Erwartungswert von Matrizen

Ist \(\displaystyle X\) eine \(\displaystyle m \times n\) Matrix, dann ist der Erwartungswert der Matrix definiert als:
\(\displaystyle \operatorname{E}[X] = \operatorname{E} \begin{bmatrix} x_{1,1} & x_{1,2} & \cdots & x_{1,n} \\ x_{2,1} & x_{2,2} & \cdots & x_{2,n} \\ \vdots \\ x_{m,1} & x_{m,2} & \cdots & x_{m,n} \end{bmatrix}\)\(\displaystyle = \begin{bmatrix} \operatorname{E}(x_{1,1}) & \operatorname{E}(x_{1,2}) & \cdots & \operatorname{E}(x_{1,n}) \\ \operatorname{E}(x_{2,1}) & \operatorname{E}(x_{2,2}) & \cdots & \operatorname{E}(x_{2,n}) \\ \vdots \\ \operatorname{E}(x_{m,1}) & \operatorname{E}(x_{m,2}) & \cdots & \operatorname{E}(x_{m,n}) \end{bmatrix} \)

Siehe auch

Literatur

  • Erich Härtter: Wahrscheinlichkeitsrechnung für Wirtschafts- und Naturwissenschaftler. Vandenhoeck & Ruprecht, Göttingen 1974, ISBN 3525031149

"Offensichtlich" ist das gefährlichste Wort in der Mathematik.

Eric Temple Bell

Copyright- und Lizenzinformationen: Diese Seite basiert dem Artikel Erwartungswert aus der frеiеn Enzyklοpädιe Wιkιpеdιa und stеht unter der Dοppellizеnz GNU-Lιzenz für freie Dokumentation und Crеative Commons CC-BY-SA 3.0 Unportеd (Kurzfassung). In der Wιkιpеdιa ist eine Listе dеr Autorеn des Originalartikels verfügbar. Da der Artikel geändert wurde, reicht die Angabe dieser Liste für eine lizenzkonforme Weiternutzung nicht aus!
Anbieterkеnnzeichnung: Mathеpеdιa von Тhοmas Stеιnfеld  • Dοrfplatz 25  •  17237 Blankеnsее  • Tel.: 01734332309 (Vodafone/D2)  •  Email: cο@maτhepedιa.dе