Bedingte Wahrscheinlichkeit

Gegeben zwei Ereignisse . Das Ereignis ist bereits eingetreten (sicheres Ereignis). Dadurch muss die Eintrittswahrscheinlichkeit von neu bewertet werden:

  • kann nur noch eintreten, wenn
  • vor Neubewertung: a priori
  • nach Neubewertung: a posteriori

Für einen Wahrscheinlichkeitsraum bezeichnen wir für alle mit die Wahrscheinlichkeit als die bedingte Wahrscheinlichkeit von unter der Bedingung , wobei:

Zwei mögliche Interpretationen:

  1. Wahrscheinlichkeit von , nachdem eingetreten ist
  2. Anteil der Fälle, in denen eingetreten ist, unter der Gesamtheit der Fälle, in denen eingetreten ist, bei einem (häufig) wiederholten Zufallsexperiment

Totale Wahrscheinlichkeit

Satz der Totalen Wahrscheinlichkeit: Sei ein Wahrscheinlichkeitsraum und eine abzählbare Zerlegung von in paarweise disjunkte Ereignisse . Dann gilt für alle :

Beweis über Axiom 2 sowie Definition der bedingten Wahrscheinlichkeit

4-Felder-Tafel

Gegeben sind ein Wahrscheinlichkeitsraum sowie zwei Ereignisse . Dann ist die 4-Felder-Tafel darstellbar als Tabelle von Häufigkeiten oder Wahrscheinlichkeiten.

Summe
Summe

Für Wahrscheinlichkeiten mit für jeden Eintrag

Sensitivität: Anteil der positiven Fälle, der als solcher erkannt wird
Spezifität: Anteil der negativen Fälle, der als solcher erkannt wird


Satz von Bayes

Sei ein Wahrscheinlichkeitsraum. Dann gilt für alle mit und , dass

Herleitung über Definition der bedingten Wahrscheinlichkeit.

Gut zu wissen

Hiermit Berechnung von aus und umgekehrt.


Stochastische Unabhängigkeit

Zwei Ereignisse in einem Wahrscheinlichkeitsraum heißen stochastisch unabhängig, wenn

  • dann gilt auch | folgt aus der Definition der bedingten Wahrscheinlichkeit
  • außerdem gilt dann | folgt analog oder über den Satz von Bayes

Stochastische Unabhängigkeit mehrerer Ereignisse: Eine Familie von Ereignissen mit heißt stochastisch unabhängig, genau dann, wenn für jede endliche Teilfamilie mit gilt, dass:

  • stochastische Unabhängigkeit bleibt in Teilmengen erhalten
  • stochastische Unabhängigkeit ist symmetrisch
  • zwei Ereignisse mit je positiver Wahrscheinlichkeit und leerer Schnittmenge sind stets stochastisch unabhängig

Mehrstufige Modelle

Mit bezeichnen wir die Wahrscheinlichkeitsverteilung für das -te Teilexperiment, wobei die Ergebnisse bereits bekannt sind.

Gesamtwahrscheinlichkeit in mehrstufigen Modellen: Gegeben ein mehrstufiges Modell aus Teilexperimenten mit Ergebnismenge und Ereignissystem . Dann gilt, dass die Wahrscheinlichkeitsverteilung für das Gesamtexperiment eindeutig beschreiben werden kann, für alle , für jedes Ergebnis mit:

Multiplikationsformel

Sei ein Wahrscheinlichkeitsraum und Ereignisse. Dann gilt:

Zufallsvariablen

z.B.
z.B.

Definition

Wir nennen die Funktion eine Zufallsvariable, wenn für jedes Ereignis gilt, dass , das heißt wenn messbar ist.

Diskrete und reelle Zufallsvariablen

Wenn endlich oder abzählbar unendlich ist, so bezeichnen wir als diskrete Zufallsvariable. Wenn , so bezeichnen wir als stetige oder reelle Zufallsvariable.

Verteilung

Gegeben zwei Wahrscheinlichkeitsräume und mit einer Zufallsvariable

Notationen nachtragen

Gilt für zwei Zufallsvariablen und , dass , so nennen wir und identisch verteilt (Achtung: nicht gleichverteilt). Wir schreiben hierfür auch kurz .

  • bei gilt stets , aber nicht umgekehrt

Dichte und Zähldichte

Eine Zähldichte / Gewichtung ist eine Funktion mit ( ist normiert).

Bei stetigen Zufallsvariablen verwendet man die Borelalgebra () als Ereignissystem.

Dichte nachtragen


Verteilungsfunktion

Nachtragen

Verteilungsfunktion ist Stammfunktion der Dichte | Dichte ist Ableitung (Differentialfunktion) der Verteilungsfunktions (nur eine von vielen möglichen)


Transformation von Zufallsvariablen

Gegeben eine Zufallsvariable mit Verteilung sowie eine Funktion . Dann wird durch Anwendung von auf den Wert von eine neue Zufallsvariable . Wir nennen die Transformation von mit .

Sie eine Zufallsvariable in einem Raum . Gegeben die Transformation von mit einer Funktion , wobei differenzierbar und strikt monoton wachsen oder fallend ist. Dann ist die Dichte von gegeben durch

wobei und ist.

Beweis / Beispiele nachtragen

Erwartungswert nachtragen


Varianz

Sei eine Zufallsvariable mit Erwartungswert . Dann definieren wir die Varianz dieser Zufallsvariable als

Ferner definieren wir als Standardabweichung von .

Nach dem Varianzzerlegungssatz gilt:

Sehr wichtig!

Rechenregeln nachtragen


Ungleichungen

Abschätzung einer Wahrscheinlichkeit oft mittels Erwartungswert und Varianz möglich.

Markov-Ungleichung

Sei eine Zufallsvariable, welche nur positive Werte annehmen kann (). Dann gilt für alle :

Tschebyscheff-Ungleichung

Sei eine reelle Zufallsvariable mit Erwartungswert und Varianz. Dann gilt für alle :


Mehrdimensionale Zufallsvariablen

Gemeinsame Verteilung: Seien und Zufallsvariablen auf einem Raum , wobei in den Raum und in den Raum abbildet. Dann ergibt sich eine eindeutige gemeinsame Verteilung von und , wobei für beliebige und gilt:

Nachtragen


Randverteilung

Nachtragen


Unabhängigkeit von Zufallsvariablen

Seien und Zufallsvariablen mit zugehörigen Bildräumen und . Wir nennen und unabhängig genau dann, wenn für alle und gilt, dass

Kriterien:

  • Für diskrete Räume sind und genau dann unabhängig, wenn für alle und alle gilt. dass
  • Für stetige reelle Räume sind und genau dann unabhängig, wenn für alle gilt, dass

Produktverteilung

Nachtragen


Nachtragen


Erwartungswert

Gegeben zwei reelle Zufallsvariablen und und eine Funktion . Dann ist der Erwartungswert von definiert als

Linearität des Erwartungswertes

Seien und reelle Zufallsvariablen mit je einem existierenden Erwartungswert. Seien außerdem . Dann gilt:

Beweis über Definition des Erwartungswertes

Unabhängigkeit nicht benötigt!

Produktregel für Erwartungswert

Seien und reelle Zufallsvariablen mit je einem existierenden Erwartungswert. Wenn und unabhängig sind, dann gilt:

Beweis über Definition des Erwartungswertes und Unabhängigkeit


Kovarianz

Gegeben seien zwei reelle Zufallsvariablen und mit jeweils existierendem Erwartungswert und Varianz. Die Kovarianz zwischen und ist dann gegeben als

Negatives Vorzeichen, genau dann wenn Abweichung in verschiedene Richtungen (Vorzeichen)

Interpretation

  • positives Vorzeichen: mit höheren Werten von treten tendenziell höhere Werte für auf (und umgekehrt)
  • negatives Vorzeichen: mit höheren Werten von treten tendenziell niedrigere Werte für auf (und umgekehrt)
  • gleich bzw. ungefähr 0: keine erkennbare Tendenz für einen linearen Zusammenhang

Kovarianzzerlegung

Für zwei reelle Zufallsvariablen und gilt:

Beweis über Definition der Kovarianz und Linearität des Erwartungswertes

Insbesondere ist damit:

Für unabhängige und folgt außerdem:

Die Umkehrung gilt im Allgemeinem nicht!

Wertebereich

Der Wertebereich der Kovarianz ist abhängig von und und beschränkt auf

Beweis über Varianzzerlegungssatz auf

Rechenregeln

Seien und zwei reelle Zufallsvariablen mit Erwartungswert und Varianz sowie . Dann gilt:

Beweis über die Linearität des Erwartungswertes

Kovarianz einer Summe

Seien und drei reelle Zufallsvariablen mit Erwartungswert und Varianz. Dann gilt:

Beweis über Linearität des Erwartungswertes

Linearität der Kovarianz

Seien und reelle Zufallsvariablen mit Erwartungswert und Varianz. Dann gilt:

Beweis über Kovarianz einer Summe

Varianz der Summe

Gegeben eine Folge von reellen Zufallsvariablen mit mit Erwartungswert und Varianz. Dann gilt:

Im Spezialfall zweier reeller Zufallsvariablen und gilt:


Korrelation

Gegeben zwei reelle Zufallsvariablen und mit Erwartungswerten und sowie Varianzen und ist die Korrelation zwischen und gegeben als

Interpretation

  • nahe an 1: stärkerer positiver linearer Zusammenhang zwischen und
  • nahe an -1: stärkerer negativer linearer Zusammenhang zwischen und
  • nahe an 0: kein erkennbarer linearer Zusammenhang zwischen und