Theorie:
Die Rechenregeln für Wahrscheinlichkeiten, die wir bisher kennen gelernt haben, lassen sich nicht direkt auf stetige Variablen übertragen. Das hat einen einfachen Grund:
Wichtig!
Bei stetigen Zufallsvariablen ist die Wahrscheinlichkeit für einen genauen Wert typischerweise null.
Ein Mensch wird beispielsweise nie ganz genau \(182,76023 cm\) groß sein. Dieser Wert kann zwar innerhalb einer gewissen Rundungsgenauigkeit vorkommen, je weiter man aber zusätzliche Stellen hinter dem Komma betrachtet, umso unwahrscheinlicher wird der entsprechende Wert - bis die Wahrscheinlichkeit (im Grenzwert für unendliche Genauigkeit) auf \(0\) sinkt.
Um sinnvolle Wahrscheinlichkeiten zu erhalten ist es daher nötig, Intervalle zu betrachten. Es wäre beispielsweise sinnvoll zu fragen:
Beispiel:
Wie groß ist die Wahrscheindlichkeit, dass ein zufällig ausgewählter Mensch zwischen \(182\) und \(183\) cm groß ist?
Diese Wahrscheinlichkeit ist im Allgemeinen ein endlicher Wert, den man bestimmen kann. Wir unterscheiden daher (anders als bei diskreten Zufallsvariablen) zwischen der Wahrscheinlichkeit \(P\) und der Wahrscheinlichkeitsdichte \(p\). Die Wahrscheinlichkeitsdichte ist dabei eine Größe, die jedem einzelnen Wert zugeordnet werden kann, während eine Wahrscheinlichkeit nur für Intervalle sinnvoll definiert ist.
Die Wahrscheinlichkeit, dass der Wert von \(x\) zwischen \(a\) und \(b\) liegt ist
\(P(a,b) = \int_a^b p(x) dx\)
wobei \(P(a,b)\) diese Wahrscheinlichkeit ist und \(p(x)\) die Wahrscheinlichkeitsdichtefunktion.
Die Wahrscheinlichkeitsdichte wird auch Wahrscheinlichkeitsverteilung genannt.
Beispiel:
Hier ist eine Wahrscheinlichkeitsdichtefunktion abgebildet, die in einem gewissen Bereich um den Nullpunkt konstant ist, und an allen anderen Orten null. Wir könnten sie mathematisch folgendermaßen beschreiben:
Beispiel:
Das ist die Wahrscheinlichkeitsdichte. Die Wahrscheinlichkeit, dass \(x\) einen gegebenen Wert \(x_0\) annimmt, ist null:
\(P(x = x_0) = 0\).
Vielmehr müssen wir Intervalle betrachten, um sinnvolle Wahrscheinlichkeitsaussagen machen zu können. So können wir beispielsweise berechnen:
\(P(x < 0) = P(-0,5; 0) = 0,5\) oder
\(P(-0,5; 0,5) = 1\)