Begriffe und Theorie

(1) Ereignisse

Wähle die richtige(n) Antwort(en) aus:
Was ist (in jedem Fall) ein Ereignis?

□ eine Teilmenge des Ergebnisraums
□ gerade Zahl beim Würfeln
□ ein mögliches Ergebnis bei einem Zufallsexperiment
A
□ eine Menge aus mehreren Elementarereignissen


Lösung

\(\checkmark\) eine Teilmenge des Ergebnisraums
\(\quad \rightarrow\) Definition: Ein Ereignis ist eine Teilmenge zusammengefasster Elementarereignisse.
Der Ergebnisraum als Gesamtmenge beinhaltet alle möglichen Elementarereignisse. Diese Elementarereignisse werden durch bzw. als Ereignisse zusammengefasst zu Teilmengen des Ergebnisraums. Eine solche Teilmenge (d.h. ein Ereignis) kann auch aus nur einem einzelnen Elementarereignis bestehen. Üblicherweise umfassen Ereignisse mehrere, aber nicht alle möglichen Elementarereignisse.


\(\checkmark\) gerade Zahl beim Würfeln
\(\quad \rightarrow\) Ein klassisches Beispiel: Angenommen, dass der Ergebnisraum hierbei aus allen möglichen Augenzahlen (den Elementarereignissen) \(\Omega\) = {1, 2, 3, 4, 5, 6} besteht, bilden die geraden Zahlen zusammen eine Teilmenge des Ergebnisraums, also ein Ereignis.

\(\checkmark\) ein mögliches Ergebnis bei einem Zufallsexperiment
\(\quad \rightarrow\) Definition von Elementarereignissen. Da ein Ereignis immer ein oder mehrere Elementarereignisse umfasst, ist es ebenfalls ein mögliches Ergebnis des Zufallsexperiments.

\(\checkmark\) A
\(\quad \rightarrow\) Konvention: Benennung von Ereignissen

\(\checkmark\) eine Menge aus mehreren Elementarereignissen
\(\quad \rightarrow\) Definition, allerdings kann auch ein einzelnes Elementarereignis ein Ereignis sein.


Was ist (in jedem Fall) ein Elementarereignis?

□ eine Teilmenge des Ergebnisraums
□ gerade Zahl beim Würfeln
□ ein mögliches Ergebnis bei einem Zufallsexperiment
A
□ eine Menge aus mehreren Elementarereignissen


Lösung

□ eine Teilmenge des Ergebnisraums
\(\quad \rightarrow\) Nur in dem Spezialfall, dass die Teilmenge aus genau einem Element besteht. Da allerdings Ereignisse bzw. Teilmengen auch mehr als ein Elementarereignis umfassen können, trifft die Beschreibung nicht auf Elementarereignisse im Allgemeinen zu.

□ gerade Zahl beim Würfeln
\(\quad \rightarrow\) Im allgemeinen Fall nicht, denn dabei wären die geraden Zahlen eine Teilmenge des Ergebnisraums, welche aus mehreren Elementarereignissen (2,4,6 Augen) besteht. Hypothetisch allerdings könnte man einen Ergebnisraum \(\Omega =\) {gerade, ungerade} annehmen, in dem alle gerade Zahlen, nicht weiter differenziert, zusammen ein Elementarereignis wären.

\(\checkmark\) ein mögliches Ergebnis bei einem Zufallsexperiment
\(\quad \rightarrow\) Definition: Ein Elementarereignis ist das Ergebnis eines Zufallsexperiments.

A
\(\quad \rightarrow\) Nach Konvention werden so Ereignisse bezeichnet, sodass hier wiederum nur ein Spezialfall korrekt wäre. Dazu müsste A aus nur einem Element bestehen.

□ eine Menge aus mehreren Elementarereignissen
\(\quad \rightarrow\) Dies ist nicht richtig, da hier von mehreren Elementarereignissen die Rede ist. Hierin liegt genau der Unterschied zwischen Ereignis und Elementarereignis, denn ein Ereignis kann eine Teilmenge mehrerer Elementarereignisse sein, ein Elementarereignis nicht (stattdessen muss die »Menge« aus exakt einem Element bestehen).



(2) Ergebnisraum

Was könnte man nicht als Ergebnisraum bezeichnen?

□ eine (echte) Teilmenge der Menge der Elementarereignisse
□ alles, was eintreten kann
A
\(\Omega\)
□ {Erfolg, Misserfolg, weder noch} bei einer Therapie


Lösung

\(\times\) eine (echte) Teilmenge der Menge der Elementarereignisse
\(\quad \rightarrow\) Eine echte Teilmenge zeichnet aus, dass auf jeden Fall weniger als in der Gesamtmenge (dem Ergebnisraum) enthalten ist.

□ alles, was eintreten kann
\(\quad \rightarrow\) Wenn auch etwas salopp formuliert, entspricht dies der Definition: Der Ergebnisraum ist die Menge aller möglichen Ergebnisse eines Zufallsexperiments.

\(\times\) A
\(\quad \rightarrow\) Nach Konvention werden so Ereignisse benannt. Möglich wäre ein Fall, indem A alle Elementarereignisse enthielte.

\(\Omega\)
\(\quad \rightarrow\) Konvention: Benennung

□ {Erfolg, Misserfolg, weder noch} bei einer Therapie
\(\quad \rightarrow\) Beispiel; es ist schwer vorstellbar, dass in einem Ergebnisraum noch weitere Möglichkeiten bestehen könnten.



(3) Axiome von Kolmogorov

Was besagen die Axiome der Wahrscheinlichkeit nach Kolmogorov?

□ Die Wahrscheinlichkeit eines unmöglichen Ereignisses beträgt 0.
□ Die Wahrscheinlichkeit, dass irgendein Ereignis eintritt, beträgt 1.
□ Die Wahrscheinlichkeit, dass entweder A oder B eintritt, ist die Summe beider Einzelwahrscheinlichkeiten.
□ Die Wahrscheinlichkeit, dass A und B gemeinsam eintreten, ist das Produkt beider Einzelwahrscheinlichkeiten.


Lösung

\(\checkmark\) Die Wahrscheinlichkeit eines unmöglichen Ereignisses beträgt 0.
\(\quad \rightarrow\) 1. Axiom: Für die Wahrscheinlichkeit eines zufälligen Ereignisses A gilt: \(0 \leq P(A) \leq 1\). Ein Ereignis mit der Wahrscheinlichkeit \(P(A) = 0\) ist ein unmögliches Ereignis; ein Ereignis mit der Wahrscheinlichkeit \(P(B) = 1\) heißt ein sicheres Ereignis.

\(\checkmark\) Die Wahrscheinlichkeit, dass irgendein Ereignis eintritt, beträgt 1.
\(\quad \rightarrow\) 2. Axiom: Die Wahrscheinlichkeit eines sicheren Ereignisses ist 1: \(P(\Omega) = 1\). Obige Aussage geht also direkt aus dem zweiten Axiom hervor.

□ Die Wahrscheinlichkeit, dass entweder A oder B eintritt, ist die Summe beider Einzelwahrscheinlichkeiten.
\(\quad \rightarrow\) Dies gilt nur dann, wenn A und B disjunkt sind.

□ Die Wahrscheinlichkeit, dass A und B gemeinsam eintreten, ist das Produkt beider Einzelwahrscheinlichkeiten.
\(\quad \rightarrow\) Diese Aussage ist nur dann korrekt, wenn A und B unabhängig voneinander sind, und wird durch eine Vereinfachung des Multiplikationstheorems ausgedrückt - findet sich aber nicht in den Axiomen nach Kolmogorov.



(4) Zufallsexperiment

Welches ist kein Merkmal eines Zufallsexperiments?

□ unter gleichen Bedingungen durchgeführt
□ mit ungewissem Ausgang
□ ohne eigenes Zutun
□ beliebig oft wiederholbar


Lösung

□ unter gleichen Bedingungen durchgeführt
□ mit ungewissem Ausgang
\(\times\) ohne eigenes Zutun
□ beliebig oft wiederholbar

Definition: Versuch, der unter genau festgelegten Versuchsbedingungen durchgeführt wird, beliebig oft wiederholbar ist und einen nicht im Vorhinein festen Ausgang hat.
Der Ausschluss eigenen Zutuns ist nicht Bestandteil der Definition. »Aktiv« ist man häufig in einem Zufallsexperiment, z.B. indem man eine Kugel zieht oder einen Würfel wirft.



(5) Laplace Experiment I

Bei welchem Beispiel handelt es sich nicht um ein Laplace-Experiment?

□ Farben einer zufällig gezogenen Karte aus einem klassischen Kartensatz
□ Augenzahl beim Würfeln
□ Studierende(n) in einem Hörsaal aufrufen
□ Gewinnerlos ziehen
□ im Kino zugeteilte Platznummer


Lösung

□ Farben einer zufällig gezogenen Karte aus einem klassischen Kartensatz
\(\quad \rightarrow\) Laplace-Experiment, da alle Farben in dem Kartensatz gleich häufig vertreten sind. Dies entspricht den Voraussetzungen eines Laplace-Experiments: Ein Zufallsexperiment, bei dem alle Elementarereignisse die gleiche Wahrscheinlichkeit haben.

□ Augenzahl beim Würfeln
\(\quad \rightarrow\) Vorausgesetzt, dass der Würfel nicht gezinkt ist, haben auch hierbei alle Elementarereignisse dieselbe Wahrscheinlichkeit. Somit ist dies ein Laplace-Experiment.

\(\times\) Studierende(n) in einem Hörsaal aufrufen
\(\quad \rightarrow\) Das Aufrufen der einzelnen Teilnehmenden erfolgt üblicherweise jeweils nicht mit derselben Wahrscheinlichkeit (auch wenn dies theoretisch möglich wäre, indem ein Zufallsgenerator genutzt würde). Die aufrufende Person wählt z.B. eher diejenigen, die vorne sitzen, weil sie sie besser sieht; oder ruft eher die auf, die sich auch melden usw.

\(\times\) Gewinnerlos ziehen
\(\quad \rightarrow\) Im Allgemeinen sind Nieten und Gewinne nicht gleich wahrscheinlich, deshalb ist das kein geeignetes Beispiel.

\(\times\) im Kino zugeteilte Platznummer
\(\quad \rightarrow\) Da in der Praxis wohl selten die Plätze zufällig gezogen werden, handelt es sich hierbei noch nicht einmal um ein Beispiel für ein Zufallsexperiment.


(6) Laplace Experiment II

Bestimme den Ergebnisraum \(\Omega\) folgender Laplace-Experimente:

  1. Es wird eine Münze geworfen.

  2. Aus dem lateinischen Alphabet wird zufällig ein Buchstabe ausgewählt.


Lösung

  1. Es wird eine Münze geworfen.
    \(\Omega =\) {Kopf, Zahl}
    Die Münzkante wird in der Statistik meistens ignoriert. Wenn sie einbezogen würde, handelte es sich nicht mehr um ein Laplace-Experiment.

  2. Aus dem lateinischen Alphabet wird zufällig ein Buchstabe ausgewählt.
    \(\Omega =\) {A, B, C, D, E, F, G, H, I, J, K, L, M, N, O, P, Q, R, S, T, U, V, W, X, Y, Z}
    Hierbei beziehen wir uns auf die 26 Buchstaben und lassen Groß- und Kleinbuchstaben, Umlaute etc. unbeachtet.



(7) Gegenwahrscheinlichkeit

Es sei A = {1,2,3,4}.
Welches ist das Gegenereignis zu A?

  1. B = {5,6,7,8,9,10}
  2. C = {4,3,2,1}
  3. D = {-1,-2,-3,-4}
  4. Es gibt kein Gegenereignis, da A mehrere Elemente enthält.
  5. Es gibt kein Gegenereignis, da kein Ergebnisraum spezifiziert ist.

Lösung

e. ist korrekt.
Wenn wir gar nicht wissen, welche Ergebnisse möglich sind, also welche Elementarereignisse außer den zu A gehörigen im Ergebnisraum sind, können wir auch nicht das Gegenereignis \(\bar{A}\) bestimmen.
Auf keinen Fall korrekt:
b. können wir vollkommen ausschließen, da Gegenereignisse nie dieselben Elemente wie das Ereignis selbst enthalten.
d. stimmt ebenso in keinem Fall, denn selbstverständlich haben auch solche Ereignisse Komplementärereignisse, die nicht zugleich Elementarereignisse sind.



(8) Disjunkte Ereignisse

Welche Aussage trifft auf disjunkte Ereignisse zu?

□ Die Vereinigung disjunkter Ereignisse ist leer.
□ Disjunkte Ereignisse sind unabhängig.
□ Ereignis und Gegenereignis sind disjunkt.
□ Ein disjunktes Ereignis ist das Eintreten von sowohl A als auch B.


Lösung

□ Die Vereinigung disjunkter Ereignisse ist leer.
\(\quad \rightarrow\) Stattdessen müsste es »Schnittmenge« oder »Durchschnitt« heißen. Denn disjunkte Ereignisse haben per Definition keine gemeinsamen Elemente; aber eine Vereinigungsmenge ist nur dann leer, wenn die einzelnen Ereignisse leere Teilmengen sind.

□ Disjunkte Ereignisse sind unabhängig.
\(\quad \rightarrow\) Diese Aussage trifft nur genau dann zu, wenn eines der Ereignisse eine leere Menge ist. Ansonsten sind disjunkte Ereignisse gerade nicht unabhängig, da man sicher weiß, dass A nicht eintritt, wenn bekannt ist, dass B eingetreten ist.

\(\checkmark\) Ereignis und Gegenereignis sind disjunkt.
\(\quad \rightarrow\) Korrekt, denn Ereignis und Gegenereignis haben nie gemeinsame Elemente; es gibt allerdings auch disjunkte Ereignisse, die keine Komplementärereignisse sind (d.h. es gibt noch andere Ereignisse im Ergebnisraum, die keinem der beiden Ereignisse zugeordnet sind).

□ Ein disjunktes Ereignis ist das Eintreten von sowohl A als auch B.
\(\quad \rightarrow\) Das gemeinsame Auftreten zweier Ereignisse wird als Schnittmenge dieser Ereignisse bezeichnet. Dass zwei Ereignisse disjunkt sind, bedeutet gerade, dass sie keine gemeinsamen Elemente haben und deshalb nie zugleich eintreten können.



(9) Bedingte Wahrscheinlichkeit

Welche Aussage über bedingte Wahrscheinlichkeit trifft zu?

\(P(A|B)\) ist die bedingte Wahrscheinlichkeit, dass A eintritt.
\(P(A|B)\) ist die Wahrscheinlichkeit, dass B eintritt, wenn A ein sicheres Ereignis ist.
\(P(A|B)\) ist die Wahrscheinlichkeit, dass A und B eintreten.
\(P(A|B)\) ist die Wahrscheinlichkeit, dass A eintritt, wenn ich schon weiß, dass B eingetreten ist.


Lösung

\(P(A|B)\) ist die bedingte Wahrscheinlichkeit, dass A eintritt.
\(\quad \rightarrow\) Hier müsste genauer ausgedrückt sein, was »bedingt« bedeutet, nämlich dass B bereits eingetreten ist.

\(P(A|B)\) ist die Wahrscheinlichkeit, dass B eintritt, wenn A ein sicheres Ereignis ist.
\(\quad \rightarrow\) Es müsste \(\boldsymbol{P(B|A)}\) heißen, damit diese Aussage korrekt wäre; die Wahrscheinlichkeit, dass B eintritt, gegeben dass A eingetreten ist.

\(P(A|B)\) ist die Wahrscheinlichkeit, dass A und B eintreten.
\(\quad \rightarrow\) Das wäre die Wahrscheinlichkeit der Schnittmenge \(P(A \cap B)\). Richtig wäre die Aussage mit dem Zusatz, dass \(P(B) = 1\) (s.o.) bzw. es müsste deutlich werden, dass B bereits eingetreten ist.

\(\checkmark\) \(P(A|B)\) ist die Wahrscheinlichkeit, dass A eintritt, wenn ich schon weiß, dass B eingetreten ist.
\(\quad \rightarrow\) Korrekt; A gegeben B.


Wann spricht man von unabhängigen Ereignissen?

□ Für das Bestimmen von \(P(A|B)\) hat \(P(B)\) keinen zusätzlichen Informationsgehalt.
□ Die Wahrscheinlichkeit für A gegeben B ändert sich nicht abhängig davon, ob A ein sicheres Ereignis ist.
□ Ob B stimmt oder nicht, ändert nichts an der Wahrscheinlichkeit von A.
□ Wenn zwei Ereignisse disjunkt sind, d.h. keine Schnittmenge haben.


Lösung

\(\checkmark\) Für das Bestimmen von \(P(A|B)\) hat \(P(B)\) keinen zusätzlichen Informationsgehalt.
\(\quad \rightarrow\) Korrekt: Bei Unabhängigkeit gilt \(\boldsymbol{P(A|B) = P(A)}\). Wenn die Ereignisse unabhängig sind, dann ist es für die Wahrscheinlichkeit von A egal, ob B gegeben ist \((P(A|B))\) oder nicht \((P(A))\).

□ Die Wahrscheinlichkeit für A gegeben B ändert sich nicht abhängig davon, ob A ein sicheres Ereignis ist.
\(\quad \rightarrow\) Anstatt A müsste \(\boldsymbol{B}\) das sichere Ereignis heißen, damit die Aussage allgemeingültig wäre. Ob A ein sicheres Ereignis ist oder nicht, ändert auf jeden Fall die Wahrscheinlichkeit \(P(A|B)\). Wenn A ein sicheres Ereignis ist, dann gilt \(P(A) = P(A|B) = 1\). Im Gegensatz dazu stehen alle anderen möglichen Wahrscheinlichkeiten für A: Für diese Fälle (aber genauso für \(P(A) = 1\)) gilt \(P(A) = P(A|B)\) nur dann, wenn »B ein sicheres Ereignis ist.«

\(\checkmark\) Ob B stimmt oder nicht, ändert nichts an der Wahrscheinlichkeit von A.
\(\quad \rightarrow\) Korrekt, dies ist eine Formulierung davon, was Unabhängigkeit bedeutet.

□ Wenn zwei Ereignisse disjunkt sind, d.h. keine Schnittmenge haben.
\(\quad \rightarrow\) Wenn zwei Ereignisse disjunkt sind, sich also gegenseitig ausschließen, impliziert das gerade, dass die Eintrittswahrscheinlichkeit vom (nicht-)Eintreten des anderen Ereignisses abhängt. Beispielsweise sind beim Würfelwurf die Ereignisse A = {1,2,3} und B = {4,5} disjunkt. Wenn wir wissen, dass A nicht eingetreten ist, ist es viel wahrscheinlicher, dass B eintritt bzw. wenn A eingetreten ist, ist es sogar unmöglich, dass auch B eintritt.



Theoreme

(10) Multiplikationstheorem

Was besagt das Multiplikationstheorem? Die Wahrscheinlichkeit, zwei Ereignisse A und B gleichzeitig zu bekommen …

□ …ist gleich dem Produkt der Wahrscheinlichkeiten für das Auftreten jedes einzelnen Ereignisses.
□ …ist gleich der Wahrscheinlichkeit für das Ereignis A multipliziert mit der Wahrscheinlichkeit des Ereignisses B.
□ …ist gleich dem Produkt der Wahrscheinlichkeit des Ereignisses A mit der bedingten Wahrscheinlichkeit des Ereignisses B gegeben A.
□ …ist gleich dem Produkt der Wahrscheinlichkeit des Ereignisses A mit der bedingten Wahrscheinlichkeit des Ereignisses A gegeben B.


Lösung

Was besagt das Multiplikationstheorem? Die Wahrscheinlichkeit, zwei Ereignisse A und B gleichzeitig zu bekommen …

□ …ist gleich dem Produkt der Wahrscheinlichkeiten für das Auftreten jedes einzelnen Ereignisses.
\(\quad \rightarrow\) Falsch, dies ist nicht die allgemeine Form des Multiplikationstheorems. \(P(A \cap B) = P(A) \cdot P(B)\) gilt nur, wenn die Ereignisse A und B unabhängig voneinander sind. In diesem Fall gilt nämlich \(P(B) = P(B|A)\), d.h. die einfache Wahrscheinlichkeit von B ist gleich der bedingten Wahrscheinlichkeit von B, gegeben dass A bereits eingetreten ist. Dadurch lässt sich die allgemeine Form des Multiplikationstheorems vereinfachen zu:
\(\begin{aligned} P(A \cap B) &= P(A) \cdot P(B|A)\\ P(A \cap B) &= P(A) \cdot P(B)\\ \end{aligned}\)

□ …ist gleich der Wahrscheinlichkeit für das Ereignis A multipliziert mit der Wahrscheinlichkeit des Ereignisses B.
\(\quad \rightarrow\) Falsch. Dies ist eine Umformulierung der ersten Option, d.h. \(P(A \cap B) = P(A) \cdot P(B)\), und somit falsch. (s.o.)

\(\checkmark\) …ist gleich dem Produkt der Wahrscheinlichkeit des Ereignisses A mit der bedingten Wahrscheinlichkeit des Ereignisses B gegeben A.
\(\quad \rightarrow\) Richtig. Hier ist die allgemeingültige Form des Multiplikationstheorems für zwei (abhängige oder unabhängige) Ereignisse A und B gegeben: \(P(A \cap B) = P(A) \cdot P(B|A)\)
Wir fragen uns zuerst: »Wie wahrscheinlich ist es, dass A eintritt?« Anschließend fragen wir uns: »Und wie wahrscheinlich ist es nun, dass zusätzlich B eintritt, gegeben dass A bereits eingetreten ist?«

□ …ist gleich dem Produkt der Wahrscheinlichkeit des Ereignisses A mit der bedingten Wahrscheinlichkeit des Ereignisses A gegeben B.
\(\quad \rightarrow\) Falsch. Der Ausdruck \(P(A \cap B) = P(A) \cdot P(A|B)\) enthält nur (bedingte) Wahrscheinlichkeiten des Ereignisses A. Allerdings suchen wir die Schnittmenge von A und B. Im Multiplikationstheorem wird mit der bedingten Wahrscheinlichkeit \(P(B|A)\) multipliziert, um die Abhängigkeit von A und B zu berücksichtigen.



(11) Satz der totalen Wahrscheinlichkeit - Knobelaufgabe

Was besagt der Satz der totalen Wahrscheinlichkeit?

\(P(A) = P(A \cap B) + P(\bar{A} \cap B)\)
\(P(A) = P(A \cap B) \cdot P(\bar{A} \cap B)\)
\(P(B \cap A) = P(A) - P(\bar{B} \cap A)\)
\(P(A) = P(A|B) + P(A|\bar{B})\)


Lösungsansatz

Um die richtige Option zu finden, müssen wir Kombinieren und Umformen. Wir benötigen noch anderes Wissen aus der Wahrscheinlichkeitstheorie.



Lösung

\(P(A) = P(A \cap B) + P(\bar{A} \cap B)\)
\(P(A) = P(A \cap B) \cdot P(\bar{A} \cap B)\)
\(\checkmark\) \(P(B \cap A) = P(A) - P(\bar{B} \cap A)\)
\(P(A) = P(A|B) + P(A|\bar{B})\)

\(\rightarrow\) Der Satz der totalen Wahrscheinlichkeit lässt sich mit Hilfe des Multiplikationstheorems zu der dritten Aussage umformen:

\(\begin{aligned} P(A) &= P(B) \cdot P(A|B) + P(\bar{B}) \cdot P(A|\bar{B}) \\ &= P(A \cap B) \hspace{2,23em} + P(A \cap \bar{B}) \\ P(A) - P(A \cap \bar{B}) &= P(A \cap B) \\ \end{aligned}\)


Bayes-Theorem

(12) Sensitivität & Spezifität

Welche Aussage bezüglich diagnostischer Tests ist falsch?

□ Die Sensitivität eines Tests gibt die Wahrscheinlichkeit an, dass eine kranke Person auch als krank diagnostiziert wird.
□ Die Spezifität eines Tests berechnet man als \(P(\)nicht krank|Diagnose negativ\()\).
□ Eine hohe Sensitivität ist besonders wichtig, wenn wir alle „kranken“ sicher finden wollen.
□ Die Spezifität eines Tests ist die bedingte Wahrscheinlichkeit der Diagnose »gesund«, wenn man gesund ist.


Lösung

□ Die Sensitivität eines Tests gibt die Wahrscheinlichkeit an, dass eine kranke Person auch als krank diagnostiziert wird.
\(\quad \rightarrow\) Richtig. Das ist die Definition der Sensitivität. Alternativ könnten wir schreiben \(P(\)Diagnose positiv | krank\()\) oder: Anteil der richtig-positiven Testergebnissen an allen Testergebnissen der Erkrankten.

\(\times\) Die Spezifität eines Tests berechnet man als \(P(\)nicht krank | Diagnose negativ\()\).
\(\quad \rightarrow\) Falsch, denn dieser Ausdruck beschreibt den negativen Vorhersagewert. Es wäre umgekehrt richtig: \(P(\)Diagnose negativ | nicht krank\()\), also der Anteil der »richtig-negativen« Diagnosen an allen negativen Diagnosen.

□ Eine hohe Sensitivität ist besonders wichtig, wenn wir alle „Kranken“ sicher finden wollen.
\(\quad \rightarrow\) Richtig. Wenn die Sensitivität hoch ist, ist der Anteil der richtig-positiven Testergebnisse an allen Testergebnissen der “Kranken” sehr hoch. Somit ist der Anteil an falsch-negativen Testergebnissen gering und es werden wenige “Kranke” als “gesund” klassifiziert.

□ Die Spezifität eines Tests ist die bedingte Wahrscheinlichkeit der Diagnose “gesund”, wenn ein Mensch wirklich gesund ist.
\(\quad \rightarrow\) Richtig, hier wird folgender Ausdruck umschrieben: \(P(\) Diagnose negativ | nicht krank\()\) bzw. \(P(\) Diagnose “gesund” | gesund\()\). Es handelt sich um die Wahrscheinlichkeit, dass das erfasste Merkmal (z.B. Krankheit) nicht vorliegt und dies durch den Test korrekt erkannt wird. “Gesund” ist in diesem Fall die negative Diagnose, da das Merkmal “Krankheit” nicht vorliegt.

Übrigens: Antwort 2 und 4 widersprechen sich - eine von beiden musste also falsch sein!

Hier eine Übersicht zu Diagnosen, Sensitivität, Spezifität und den Vorhersagewerten:

Zuordnung aufgrund des Tests
Diagnose - Diagnose +
tatsächliche Zugehörigkeit Merkmal + Falsch-Negative
(FN)
Richtig-Positive
(RP)
tatsächliche Zugehörigkeit Merkmal - Richtig-Negative
(RN)
Falsch-Positive
(FP)


Sensitivität: Wahrscheinlichkeit eine kranke Person zu erkennen (richtig zu klassifizieren) = \(P(\)Diagnose positiv | krank\()\) = \(\frac{RP}{RP + FN}\)
Spezifität: Wahrscheinlichkeit eine gesunde Person zu erkennen (richtig zu klassifizieren) = \(P(\)Diagnose negativ | nicht krank\()\) = \(\frac{RN}{RN + FP}\)
Positiver Vorhersagewert: Wahrscheinlichkeit, dass Person krank ist, wenn Diagnose positiv ist = \(P(\)krank| Diagnose positiv\()\) = \(\frac{RP}{RP+FP}\)
Negativer Vorhersagewert: Wahrscheinlichkeit, dass Person nicht krank ist, wenn Diagnose negativ ist
= \(P(\)nicht krank | Diagnose negativ\()\) = \(\frac{RN}{RN+FN}\)


(13) Herleitung zum Theorem von Bayes

Aus welchen Wahrscheinlichkeitssätzen ergibt sich das Theorem von Bayes?

□ Multiplikationstheorem und Additionstheorem
□ Additionstheorem und Satz der totalen Wahrscheinlichkeit
□ Satz der totalen Wahrscheinlichkeit und Multiplikationstheorem
□ Das Bayes-Theorem lässt sich nicht einfach aus zwei Sätzen herleiten.


Lösung

□ Multiplikationstheorem und Additionstheorem

□ Additionstheorem und Satz der totalen Wahrscheinlichkeit

\(\checkmark\) Satz der totalen Wahrscheinlichkeit und Multiplikationstheorem
\(\quad \rightarrow\) Richtig: Das Multiplikationstheorem steht im Zähler, der Satz der totalen Wahrscheinlichkeit steht im Nenner des Bayes-Bruchs.

□ Das Bayes-Theorem lässt sich nicht einfach aus zwei Sätzen herleiten.



Anwendung

(14) Mengen

Gegeben seien der Ergebnisraum
\(\Omega\) = {Do, Re, Mi, Fa, So, La, Ti}
sowie die Ereignisse A = {La}, B = {Re, La} und C = {So, La, Ti}.

Bestimme die folgenden Mengen:

  1. \(A \cap B \cap C\)

  2. \(A \cap \bar{B}\)

  3. \(\bar{B} \cup \bar{C}\)


Lösung

  1. \(A \cap B \cap C =\) {La}
  • Hierbei handelt es sich um die Schnittmenge der drei Ereignisse. Wir müssen also das Element (allgemein: die Teilmenge) finden, das die drei Ereignisse gemein haben.
  • Da A aus nur einem Elementarereignis besteht, nämlich »La«, müssen wir nur prüfen, ob »La« auch in den Mengen B und C vorkommt. Das ist hier der Fall. Deshalb bildet »La« die Schnittmenge \(A \cap B \cap C\).
  1. \(A \cap \bar{B} = \varnothing =\) { }
  • Wir suchen nach der Schnittmenge, d.h. den gemeinsamen Elementen, von A = {La} und \(\bar{B} =\) {Do, Mi, Fa, So Ti}.
  • Allerdings enthält A kein Ereignis, das B nicht ebenfalls enthält (s.o.), bzw. A und \(\bar{B}\) haben keine gemeinsamen Elemente. Die gesuchte Schnittmenge ist also eine leere Menge.
  1. \(\bar{B} \cup \bar{C}\) = {Do, Re, Mi, Fa, So, Ti}
  • Wir suchen die Vereinigung der Gegenereignisse von B und C.
  • \(\bar{B} =\) {Do, Mi, Fa, So, Ti}
  • \(\bar{C} =\) {Do, Re, Mi, Fa}
  • Jedes Element, das in mindestens einer der beiden Teilmengen auftaucht, ist Teil der Vereinigung.
  • Alternativer Lösungsweg:
    • Nur »La« ist in B und C enthalten.
    • Damit ist es das einzige Element des Ergebnisraums, das nicht in \(\bar{B}\) oder \(\bar{C}\) enthalten ist.
    • Alle anderen Elemente des Ergebnisraumes bilden die Vereinigungsmenge \(\bar{B} \cup \bar{C}\).


Sei Ereignis D = {Do, Mi}. Wir nehmen gleiche Wahrscheinlichkeiten für alle Ereignisse an.

  1. Wie wahrscheinlich ist das Ereignis \(A \cap D\)?

  2. Wie wahrscheinlich ist das Ereignis \(A \cap B \cap C \cap D\)?


Lösung

  1. \(P(A \cap D) = 0\)
  • Gesucht ist die Wahrscheinlichkeit der Schnittmenge von A und D.
  • Die Schnittmenge der beiden Ereignisse ist aber eine leere Menge; A und D haben keine gemeinsamen Elemente.
  • Somit ist die Schnittmenge \(P(A \cap D)\) ein unmögliches Ereignis mit der Eintrittswahrscheinlichkeit 0.
  1. \(P(A \cap B \cap C \cap D) = 0\)
  • Gesucht ist die Wahrscheinlichkeit der Schnittmenge von A, B, C und D.
  • Allerdings ist schon \(A \cap D\) ein unmögliches Ereignis. Somit ist \(A \cap B \cap C \cap D\) automatisch auch eine leere Menge mit der Wahrscheinlichkeit 0.
  • Die zusätzliche Bedingung der Ereignisse B und C macht die Schnittmenge restriktiver. Die Wahrscheinlichkeit kann also nicht größer werden.



(15) Schnelltest

Seit Anfang 2020 hat sich das Coronavirus SARS-CoV-2 zunehmend verbreitet. Zur Diagnose werden oft Antigen-Schnelltests verwendet.
Du verwendest einen Test, bei dem 96% der Personen mit und 0.22% der Personen ohne ein positives PCR-Testergebnis ein positives Schnelltestergebnis erhalten. In der Normierungsstichprobe hatten 125 von 582 ein positives PCR-Testergebnis.

(a) Welchen Wert haben Prävalenz, Sensitivität und Spezifität?

(b) Wie wahrscheinlich ist es, dass eine Person mit positivem Schnelltestergebnis auch ein positives PCR-Testergebnis erhält (erkrankt ist)?

(c) Wie wahrscheinlich ist es, dass eine Person mit negativem Schnelltestergebnis auch ein negatives PCR-Testergebnis erhält (nicht erkrankt ist)?

Disclaimer: Die Aufgabe ist ein Beispiel und kann nicht als Berechnungsgrundlage für Testgüte genutzt werden. Dabei gilt es weitere Kriterien, wie Vortestwahrscheinlichkeit, Testindikation und Prävalenz zu beachten.
Lösungsansatz

  1. Prävalenz: \(P(PCR)\)
    Sensitivität: \(P(ST|PCR)\)
    Spezifität: \(P(\bar{ST}|\bar{PCR})\)

  2. Gesucht ist der positive Vorhersagewert \(P(PCR|ST)\).

  3. Gesucht ist der negative Vorhersagewert \(P(\bar{PCR}|\bar{ST})\).



Lösung


(a)

  • Prävalenz: der Anteil von Störungsfällen in der Bevölkerung, d.h. die Wahrscheinlichkeit, dass eine zufällig gewählte Person aus der Bevölkerung ein positives PCR-Testergebnis hat.
    • \(P(PCR)\)
    • Die Grundgesamtheit sind in dieser Aufgabe alle Personen in der Normierungsstichprobe.
    • »125 von 582 [hatten] ein positives PCR-Testergebnis« sagt uns, dass die Prävalenz bei \(\frac{125}{582}\)= .215 liegt.
  • Sensitivität: die bedingte Wahrscheinlichkeit, dass eine Person mit positivem PCR-Testergebnis auch ein positives Schnelltestergebnis erhält bzw. als krank diagnostiziert wird.
    • \(P(ST|PCR)\)
    • 96% der Personen mit positivem PCR-Testergebnis erhalten auch ein positives Schnelltestergebnis, d.h. 96% der Personen mit positivem PCR-Testergebnis werden korrekt (positiv) diagnostiziert.
      \(\quad \rightarrow\) Die Sensitivität des Konzentrationstests beträgt .96.
  • Spezifität: die bedingte Wahrscheinlichkeit, dass eine Person mit negativem PCR-Testergebnis auch ein negatives Schnelltestergebnis erhält bzw. als gesund diagnostiziert wird. Die Krankheit liegt nicht vor und dies wird durch den Test korrekt erkannt, in Form einer negativen Diagnose.
    • \(P(\bar{ST}|\bar{PCR})\)
    • 0.22% der Kinder ohne positives PCR-Testergebnis werden positiv diagnostiziert. Hier handelt es sich um die Wahrscheinlichkeit \(P(ST|\bar{PCR})\)
    • Um die Spezifität zu erhalten, müssen wir die Gegenwahrscheinlichkeit zu diesem Wert bilden, also 1 - .0022 = .9978

\(\hspace{1em}\) Prävalenz: \(P(PCR) =\) \(\frac{125}{582}\) \(= \underline{\underline{.215}}\)
\(\hspace{1em}\) Sensitivität: \(P(ST|PCR) = \underline{\underline{.96}}\)
\(\hspace{1em}\) Spezifität: \(P(\bar{ST}|\bar{PCR}) = \underline{\underline{.9978}}\)

(b)

  • Gesucht ist die Wahrscheinlichkeit \(P(PCR|ST)\), also der positive Vorhersagewert
  • Diesen können wir mit Hilfe des Theorems von Bayes und des Satzes der totalen Wahrscheinlichkeit ermitteln:
    • Bayes-Theorem: \[P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B)}\]
    • P(B) ist in unserem Fall die Wahrscheinlichkeit einer positiven Diagnose bzw. eines positiven Schnelltestergebnisses. Diese Wahrscheinlichkeit kennen wir nicht.
    • Wir können diese Wahrscheinlichkeit aber durch den Satz der totalen Wahrscheinlichkeit berechnen: \[P(B) = P(B|A) \cdot P(A) + P(B|\bar{A}) \cdot P(\bar{A})\]
    • Kombiniert ergeben die beiden Formeln Folgendes: \[P(A|B) = \frac{P(B|A) \cdot P(A)}{P(B|A) \cdot P(A) + P(B|\bar{A}) \cdot P(\bar{A})}\]
  • Wir setzen ein:
    \(\begin{aligned} P(PCR|ST) &= \frac{P(ST|PCR) \cdot P(PCR)}{P(ST|PCR) \cdot P(PCR) + P(ST|\bar{PCR}) \cdot P(\bar{PCR})}\\[1,2ex] &= \frac{0.96 \cdot 0.215}{0.96 \cdot 0.215 + 0.0022 \cdot (1 - 0.215)}\\[1,2ex] &= \underline{\underline{0.992}}\\[1,2ex] \end{aligned}\)
    \(\rightarrow\) Die Wahrscheinlichkeit, dass eine Person mit positivem Schnelltestergebniis auch ein positives PCR-Testergebnis erhält, liegt bei 99.2%.

Hier noch eine Veranschaulichung der Aufgabe im Baumdiagramm:
(c)

  • Gesucht ist die Wahrscheinlichkeit \(P(\bar{PCR}|\bar{ST})\), also der negative Vorhersagewert
  • Auch diesen können wir mit Bayes berechnen:
    \(\begin{aligned} P(\bar{PCR}|\bar{ST}) &= \frac{P(\bar{ST}|\bar{PCR}) \cdot P(\bar{PCR})}{P(\bar{ST}|\bar{PCR}) \cdot P(\bar{PCR}) + P(\bar{ST}|PCR) \cdot P(PCR)}\\[1,2ex] &= \frac{(1 - 0.0022) \cdot (1 - 0.215)}{(1 - 0.0022) \cdot (1 - 0.215) + (1 - 0.96) \cdot 0.215}\\[1,2ex] &= \frac{0.9978 \cdot 0.785}{0.9978 \cdot 0.785 + 0.04 \cdot 0.215}\\[1,2ex] &= \underline{\underline{0.989}}\\[1,2ex] \end{aligned}\)
    \(\rightarrow\) Die Wahrscheinlichkeit, dass eine Person mit negativem Schnelltestergebnis auch ein negatives PCR-Testergebnis hat, liegt bei 98.9%.



(16) Kartenspiele

Wie groß ist die Wahrscheinlichkeit, aus einem Kartenspiel mit 32 Karten (4 Farben à 8 Werte) mit einem Versuch jeweils folgende Karte(n) zu ziehen?

  1. A: Das Karo Ass

  2. B: Eine Dame

  3. C: Eine 7 oder eine rote Karte

  4. D: Eine 9 oder eine 10

  5. Ein Ass (B), unter der Voraussetzung, dass es sich um eine Herzkarte handelt (A)

  6. Sind die Ereignisse A und B aus Teilaufgabe (e) unabhängig voneinander?


Lösung

a. Das Karo Ass

  • Es gibt nur ein Karo Ass (= günstiges Ergebnis) in dem Kartenset mit 32 Karten (= mögliche Ergebnisse).

\(\qquad \enspace P(A) =\) \(\frac{1}{32}\) \(= \underline{\underline{.03125}}\)

b. Eine Dame

  • Es gibt vier Damen (= günstige Ergebnisse) in dem Kartenset mit 32 Karten (= mögliche Ergebnisse).

\(\qquad \enspace P(B) =\) \(\frac{4}{32} = \frac{1}{8}\) \(= \underline{\underline{0.125}}\)

c. Eine 7 oder eine rote Karte

\(\rightarrow\) Additionstheorem \(P(A \cup B) = P(A) + P(B) - P(A \cap B)\)

  • Günstige Ergebnisse: Es gibt vier Siebenen und 2 x 8 rote Karten, nämlich acht Herzen und acht Karos. 2 Karten der 16 roten Karten sind aber Siebenen und wir wollen sie nicht doppelt zählen.
  • In dem Kartenset sind 32 Karten (= mögliche Ergebnisse).
  • Wir berechnen die Wahrscheinlichkeit der Vereinigungsmenge der Siebenen (\(P(Sieben)\)) und der roten Karten (\(P(Rot)\)). Dazu müssen wir die Einzelwahrscheinlichkeiten addieren und die Wahrscheinlichkeit für die Schnittmenge (\(P(Sieben \cap Rot)\)) subtrahieren.

\(\qquad \enspace P(C) =\) \(\frac{4+16-2}{32} = \frac{18}{32} = \frac{9}{16}\) \(= \underline{\underline{.5625}}\)

d. Eine 9 oder eine 10

\(\rightarrow\) Additionstheorem für disjunkte Ereignisse \(P(A \cup B) = P(A) + P(B)\)

  • Keine der vier Neunen ist gleichzeitig eine der vier Zehnen, d.h. die Einzelereignisse sind disjunkt.
  • Somit vereinfacht sich das Additionstheorem: Da es keine Schnittmenge gibt, müssen wir ihre Auftrittswahrscheinlichkeit (=0) nicht subtrahieren.

\(\qquad \enspace P(D) =\) \(\frac{4+4}{32} = \frac{8}{32} = \frac{1}{4}\) \(= \underline{\underline{.25}}\)

e. Ein Ass (A), unter der Voraussetzung, dass es sich um eine Herzkarte handelt (B)

  • Wir suchen die Schnittmenge der Herzkarten und der Asse: Das Herzass.
    • Da es sich um eine Karte handelt, bei der man Farbe (Herz) und Wert (Ass) nicht getrennt ziehen kann (erst Herz, dann Ass), benötigen wir die Formel für bedingte Ereignisse hier nicht.
    • Wir können einfach überlegen, wie oft es das Herzass gibt (1x) und wie viele Karten insgesamt im Kartendeck vorhanden sind (32).

\(\qquad \enspace P(A \cap B) = \underline{\underline{\frac{1}{32}}}\)

f. Sind die Ereignisse A und B aus Teilaufgabe e. unabhängig voneinander?

A = {Herzkarte}
B = {Ass}
\(\qquad \enspace P(A) =\) \(\frac{8}{32} = \frac{1}{4}\)
\(\qquad \enspace P(B) =\) \(\frac{4}{32} = \frac{1}{8}\)
\(\qquad \enspace P(B|A) =\) \(\frac{P(A \cap B)}{P(A)} =\frac{\frac{1}{32}}{\frac{1}{4}} = \frac{1}{8}\) \(= \underline{\underline{.125}}\)
\(\rightarrow P(B|A) = P(B)\)
\(\rightarrow\) B ist unabhängig von A.



(17) Wer wird Millionär

Du sitzt gegenüber von Günther Jauch bei »Wer wird Millionär?« und hast ein absolutes Blackout.
(Bei der Quizshow hat man pro Frage 4 Antwortmöglichkeiten, aus denen man die richtige wählen muss. Mit jeder richtig beantworteten Frage gewinnt man Geld und bekommt mit einer neuen Frage die Chance, mehr Geld zu gewinnen. Bis zu 16.000€ sind es 9 Fragen - wobei man ausscheidet, sobald man eine Fage falsch beantwortet:)

Wie wahrscheinlich ist es, dass Du 16.000€ nur durch Raten gewinnst, unter Verwendung der drei Joker?
(Wir nehmen an, dass der Telefonjoker eine Antwortalternative ausschließen kann und dass das Publikum per Schwarmintelligenz allwissend ist.)


Lösung

  • Um 16.000€ zu gewinnen, musst Du 9 Fragen korrekt beantworten.
  • Stochastisch ausgedrückt: Wir suchen die Wahrscheinlichkeit für die Schnittmenge, dass 9 Mal hintereinander das Ereignis »Richtig« eintritt.
  • Wir nutzen dazu das Multiplikationstheorem:

\(P(F1_{richtig} \cap F2_{richtig} \cap \ldots \cap F8_{richtig} \cap F9_{richtig}) = P(F1_{richtig}) \cdot P(F2_{richtig}) \dots P(F9_{richtig})\)

  • Pro Frage gibt es 4 Antwortmöglichkeiten und eine richtige Antwort. Es gibt also ein günstiges unter 4 möglichen Ergebnissen. Somit liegt die Wahrscheinlichkeit, eine Frage zufällig korrekt zu beantworten, bei \(\frac{1}{4}\).
  • Du hast aber noch die drei Joker:
    • Mit dem 50:50-Joker steigt Deine Ratewahrscheinlichkeit für eine der 9 Fragen auf \(\frac{1}{2}\). (Es gibt nur noch 2 mögliche Ergebnisse.)
    • Mit dem Telefonjoker kannst Du eine Antwortmöglichkeit ausschließen, sodass es nur noch 3 mögliche Ergebnisse Ergebnisse für eine weitere Frage gibt. Für diese Frage steigt Deine Ratewahrscheinlichkeit auf \(\frac{1}{3}\).
    • Mit dem Publikumsjoker erhälst Du für eine letzte Frage ein sicheres Ereignis: Die »Ratewahrscheinlichkeit« liegt hier bei 100%.
  • Wir setzen ein:

\(\qquad \enspace P(F1_{richtig} \cap F2_{richtig} \cap \ldots \cap F9_{richtig}) =\) \(\frac{1}{4} \cdot \frac{1}{4} \cdot \frac{1}{4} \cdot \frac{1}{4} \cdot \frac{1}{4} \cdot \frac{1}{4} \cdot \frac{1}{2} \cdot \frac{1}{3} \cdot\) \(1\) \(\qquad \enspace = \frac{1}{24576}\) \(= \underline{\underline{.0000405}}\)

Die Wahrscheinlichkeit, in dieser Situation die 16.000€ zu gewinnen, liegt bei 0.00405%…



(18) Stoffwechselerkrankung

1 von 10000 Personen leidet an einer bestimmten Stoffwechselerkrankung.
Für diese Erkrankung gibt es einen einfachen diagnostischen Test, der bei Kranken mit einer Wahrscheinlichkeit von 90% und bei Gesunden mit einer Wahrscheinlichkeit von 98% die korrekte Diagnose liefert.

Berechne den positiven und negativen Vorhersagewert. Gib den Rechenweg an und beschrifte eindeutig.


Lösung

Prävalenz: \(P(K) = .0001\)
Sensitivität: \(P(D|K) = .9\)
Spezifität: \(P(\bar{D}|\bar{K}) = .98\)

(Für die Klausur müssen die vorangegangenen Wahrscheinlichkeiten bei dieser Aufgabenstellung nicht als Prävalenz etc. benannt werden. Allerdings muss die Beschriftung eindeutig sein. Der folgende Rechenweg wird selten gefordert, aber damit ihr ggf. Folgefehler angerechnet bekämet, wäre er notwendig.)

positiver Vorhersagewert:

\(P(D|\bar{K}) = 1 - P(\bar{D}|\bar{K}) = 1 - .98 = .02\)
\(P(\bar{K}) = 1 - P(K) = 1 - .0001 = .999\)

\(\begin{aligned} P(K|D) &= \frac{P(D|K) \cdot P(K)}{P(D|K) \cdot P(K) + P(D|\bar{K}) \cdot P(\bar{K})}\\[1,2ex] &= \frac{.9 \cdot .0001}{.9 \cdot .0001 + .02 \cdot .9999}\\[1,2ex] &= \underline{\underline{0.004}}\\[1,2ex] \end{aligned}\)

negativer Vorhersagewert:

\(\begin{aligned} P(\bar{K}|\bar{D}) &= \frac{P(\bar{D}|\bar{K}) \cdot P(\bar{K})}{P(\bar{D}|\bar{K}) \cdot P(\bar{K}) + P(\bar{D}|K) \cdot P(K)}\\[1,2ex] &= \frac{.98 \cdot .9999}{.98 \cdot .9999 + .1 \cdot .0001}\\[1,2ex] &= \underline{\underline{1}}\\[1,2ex] \end{aligned}\)



(19) Mensch ärgere Dich nicht

Es ist Weihnachten und Du spielst »Mensch ärgere dich nicht!« mit Deiner Familie. Ihr verwendet für das Spiel nur einen Würfel.
Alle anderen haben schon Spielfiguren auf dem Feld, nur Du hattest noch immer nicht das Glück, eine »6« zu würfeln. Du kommst an die Reihe und darfst 3 mal würfeln. Die ersten beiden Würfe waren keine »6«.

Wie wahrscheinlich ist es, im dritten Wurf nun eine »6« zu würfeln, gegeben die bisherigen Ergebnisse?


Lösung

Ereignis A = {Würfeln einer 6 im ersten Wurf} = \(\frac{1}{6}\)
Ereignis B = {Würfeln einer 6 im zweiten Wurf} = \(\frac{1}{6}\)
Ereignis C = {Würfeln einer 6 im dritten Wurf} = \(\frac{1}{6}\)

Da die Ereignisse voneinander unabhängig sind, ist die Wahrscheinlichkeit, im dritten Wurf eine »6« zu würfeln, noch immer \(\frac{1}{6}\).

Hat Dich Deine Intuition hierbei fehlgeleitet? Das bezeichnet man als gambler‘s fallacy: Die Tendenz anzunehmen, dass die Auftretenswahrscheinlichkeit von zukünftigen Ereignissen durch vergangene Ereignisse beeinflusst wird - obwohl sie unabhängig voneinander sind.



(20) Hellseherei

In einem parapsychologischen Experiment wird ein selbst ernannter Hellseher aufgefordert, vorherzusagen, welches Menü sich ein Gast in einem Restaurant zusammenstellen wird.

Auf der Speisekarte stehen 4 Vorspeisen, 6 Hauptgerichte und 3 Nachspeisen.
Vereinfachend soll davon ausgegangen werden, dass der Gast die drei Speisen jeweils unabhängig voneinander wählt.

Wie groß ist die Wahrscheinlichkeit, dass der »Hellseher« die Menüzusammenstellung durch Zufall richtig errät?


Lösungsansatz

Die Ereignisse sind unabhängig voneinander, d.h. für jeden Gang kannst Du die einfachen Wahrscheinlichkeiten nutzen.
Zudem kennen wir die jeweiligen Alternativen nicht, also müssen wir lediglich die Wahrscheinlichkeit dafür berechnen, dass irgendeine Kombination richtig geraten wird.



Lösung

Eine bestimmte Kombination der Gänge berechnet sich als die Schnittmenge der drei Ereignisse, dass der Hellseher den jeweiligen Gang richtig rät. Es gibt pro Gang nur zwei Möglichkeiten, nämlich richtig oder falsch zu raten. Die Wahrscheinlichkeit, richtig zu raten, ist für dieses Laplace-Experiment jeweils die Anzahl der günstigen Ergebnisse, d.h. 1 (denn der Gast wählt nur je eine Vorspeise, ein Hauptgericht und aus irgendeinem Grund nur eine Nachspeise), geteilt durch die Anzahl der möglichen Ergebnisse. Die Anzahl der möglichen Ereignisse ist die jeweilige Anzahl der Alternativen, zwischen denen für den Gang gewählt werden kann:

\(P(V_{richtig} \cap H_{richtig} \cap N_{richtig}) = P(V_{richtig}) \cdot P(H_{richtig}) \cdot P(N_{richtig})\)
\(P(V_{richtig} \cap H_{richtig} \cap N_{richtig}) =\) \(\frac{1}{4} \cdot \frac{1}{6} \cdot \frac{1}{3} = \frac{1}{72}\) \(= .013\bar{8} \approx \underline{\underline{.014}}\)



(21) Zum Knobeln: Münzproblem

Eine Freundin präsentiert Dir 3 Münzen. Eine der Münzen ist gezinkt, so dass sie immer Kopf zeigt.
Du nimmst eine der Münzen und wirfst sie drei Mal. Das Ergebnis ist 3 Mal Kopf.

(1) Wie wahrscheinlich ist es, dass die Münze gezinkt ist?


Lösung

  • Gesucht ist die bedingte Wahrscheinlichkeit, dass die Münze gezinkt ist, gegeben, dass drei Mal Kopf gefallen ist.
  • Es gibt drei Münzen, von denen eine gezinkt ist. Die unbedingte Wahrscheinlichkeit, dass eine gegebene Münze gezinkt (gez) ist, beträgt also \(P(gez) =\) \(\frac{1}{3}\).
  • Entsprechend ist die unbedingte Wahrscheinlichkeit, dass eine gegebene Münze nicht gezinkt (\(\bar{gez}\)) ist, die Gegenwahrscheinlichkeit \(P(\bar{gez}) =\) \(\frac{2}{3}\)
  • \(P(3 \times Kopf|\bar{gez})\)
    • Wenn die Münze nicht gezinkt ist, gilt für jeden der drei Münzwürfe eine Erfolgswahrscheinlichkeit von 50%, dass Kopf fällt.
    • Wir betrachten hier das gemeinsame Auftreten dreier Ereignisse, nämlich, dass drei Mal Kopf fällt (K). Daher verwenden wir das Multiplikationstheorem, um die zugehörige Wahrscheinlichkeit zu berechnen.
      \(P(K|\bar{gez}) =\) \(\frac{1}{2} \cdot \frac{1}{2} \cdot \frac{1}{2} = (\frac{1}{2})^3 = \frac{1}{8}\)
  • \(P(3 \times Kopf|gez)\)
    • Wenn die Münze gezinkt ist, muss Kopf fallen. Es handelt sich um ein sicheres Ereignis, dessen Wahrscheinlichkeit also 1 ist.
      \(P(K|gez) = 1\)
  • Diese Größen setzen wir in die Formel für das Bayes-Theorem ein.

    \(\begin{aligned} P(gez|K) &= \frac{P(K|gez) \cdot P(gez)}{P(K|gez) \cdot P(gez) + P(K|\bar{gez}) \cdot P(\bar{gez})}\\ &= \frac{1 \cdot \frac{1}{3}}{1 \cdot \frac{1}{3} + \frac{1}{8} \cdot \frac{2}{3}}\\ &= \underline{\underline{0.8}}\\ \end{aligned}\)

\(\quad \rightarrow\) Unter diesen Umständen beträgt die Wahrscheinlichkeit, dass die Münze gezinkt ist,
\(\hspace{2,5em}\)80%.


Du wirfst die Münze erneut 3 Mal und erhältst wiederum 3 Mal Kopf.

(2) Wie hoch ist nun die Wahrscheinlichkeit, dass die Münze gezinkt ist, wenn Du die Posteriorwahrscheinlichkeit (= Dein Ergebnis) des letzten Experiments als Prior verwendest?
Was erwartest Du?


Lösungsansatz

Die Priorwahrscheinlichkeit ist die unbedingte Wahrscheinlichkeit eines Ereignisses



Lösung

  • Die Priorwahrscheinlichkeit ist im Kontext des Bayes-Theorems die unbedingte Wahrscheinlichkeit eines Ereignisses.
    • Für Krankheiten oder psychische Störungen ist das die Prävalenz.
    • In diesem Fall ist die unbedingte Wahrscheinlichkeit gemeint, dass die Münze gezinkt ist (P(gez)).
  • Die Posteriorwahrscheinlichkeit ist entsprechend die bedingte Wahrscheinlichkeit dieses Ereignisses (dass die Münze gezinkt ist), gegeben, dass bereits ein anderes Ereignis eingetreten ist (3 x Kopf).
  • Wir arbeiten hier entsprechend der Aufgabenstellung mit der Priorwahrscheinlichkeit \(\boldsymbol{P(gez) = 0.8}\). Die anderen Wahrscheinlichkeiten bleiben gleich:
    \(P(K|\bar{gez}) =\) \((\frac{1}{2})^3 = \frac{1}{8}\)
    \(P(K|gez) = 1\)
    \(P(gez) = 0.8\)


    \(\begin{aligned} P(gez|K) &= \frac{P(K|gez) \cdot P(gez)}{P(K|gez) \cdot P(gez) + P(K|\bar{gez}) \cdot P(\bar{gez})}\\[1,2ex] &= \frac{1 \cdot 0.8}{1 \cdot 0.8 + \frac{1}{8} \cdot 0.2}\\[1,2ex] &= 0.9697 \approx \underline{\underline{0.97}}\\[1,2ex] \end{aligned}\)

Übrigens: Zu demselben Ergebnis führt es, wenn wir von der Priorwahrscheinlichkeit von \(\frac{1}{3}\) und von 6 Mal Kopf in 6 Münzwürfen ausgehen. D.h., wir gehen von der unbedingten Wahrscheinlichkeit für eine gezinkte Münze \(P(gez) =\) \(\frac{1}{3}\) aus und betrachten alle sechs Würfe, in denen jeweils Kopf fällt, als einen Durchgang. Es macht also keinen Unterschied, ob wir die Priorwahrscheinlichkeit in einem Zwischenschritt anpassen und zwei getrennte Vorgänge berechnen, oder nicht:

\(P(K|\bar{gez}) =\) \((\frac{1}{2})^{\boldsymbol{6}} = \frac{1}{64}\)
\(P(K|gez) = 1\)
\(P(gez) =\)
\(\frac{1}{3}\)

\(\begin{aligned} P(gez|K) &= \frac{P(K|gez) \cdot P(gez)}{P(K|gez) \cdot P(gez) + P(K|\bar{gez}) \cdot P(\bar{gez})}\\[1,2ex] &= \frac{1 \cdot \frac{1}{3}}{1 \cdot \frac{1}{3} + \frac{1}{64} \cdot \frac{2}{3}}\\[1,2ex] &= 0.9697 \approx \underline{\underline{0.97}}\\[1,2ex] \end{aligned}\)



(22) Augenerkrankung

Durch einen seltenen Erreger wird eine bestimmte Erkrankung der Augen ausgelöst.
Man unterscheidet im Krankheitsverlauf die Stadien A (Augentrübung) und B (Blindheit).
Im Stadium A kann sich die Krankheit stabilisieren oder in das Stadium B fortschreiten.

Folgende Wahrscheinlichkeiten seien bekannt:
\(P(A) = .6\) und \(P(B|A) = .3\).

a. Berechne \(\boldsymbol{P(B)}\), d.h. die unbedingte Wahrscheinlichkeit einer Person, sich letztendlich in Stadium B zu befinden.

b. Nehmen wir nun an, zu erblinden, ohne vorher in Stadium A gewesen zu sein, trete in 10% der Fälle auf. Berechne erneut \(\boldsymbol{P(B)}\).


Lösungsansatz

zu a.



Lösung

a.

Wir wissen, dass eine erkrankte Person mit einer Wahrscheinlichkeit von \(P(A) = .6\) eine Augentrübung bekommt. Mit der Gegenwahrscheinlichkeit \(P(\bar{A}) = .4\) bekommt die Person also keine Augentrübung. In letzterem Fall kann die Person an dieser Erkrankung nicht erblinden, das heißt, in diesem Fall ist \(P(B|\bar{A}) = 0\) und die Wahrscheinlichkeit nicht zu erblinden lautet \(P(\bar{B}|\bar{A}) = 1\).
Wenn die Person aber bereits eine Augentrübung hat, dann erblindet sie mit einer Wahrscheinlichkeit von \(P(B|A) = .3\) auch an der Krankheit. Die Gegenwahrscheinlichkeit, mit der Augentrübung nicht zu erblinden, berechnet sich als \(P(\bar{B}|A) = .7\).

Unsere Wahrscheinlichkeiten zu der Krankheit lauten also:

\(P(A) = .6\)
\(P(\bar{A}) = .4\)
\(P(B|\bar{A}) = 0\)
\(P(\bar{B}|\bar{A}) = 1\)
\(P(B|A) = .3\)
\(P(\bar{B}|A) = .7\)

Einige davon müssen wir in den Satz der totalen Wahrscheinlichkeit einsetzen:

\(P(B) = P(A) \cdot P(B|A) + P(\bar{A}) \cdot P(B|\bar{A})\)

\(\qquad \enspace = .6 \cdot .3 + .4 \cdot .0 = \underline{\underline{.18}}\)

\(\rightarrow\) 18% der Erkrankten erreichen Stadium B der Krankheit.

b.

Es ändern sich nur die Wahrscheinlichkeiten \(P(B|\bar{A})\) und \(P(\bar{B}|\bar{A})\): Erblinden ohne vorherige Augentrübung erfolgt mit der Wahrscheinlichkeit \(P(B|\bar{A}) = .1\). Die Gegenwahrscheinlichkeit, weder Augentrübung noch Erblinden zu erleiden, ist entsprechend \(P(\bar{B}|\bar{A}) = .9\).

\(P(B) = P(A) \cdot P(A|B) + P(\bar{A}) \cdot P(B|\bar{A})\)
\(\qquad \enspace = .6 \cdot .3 + .4 \cdot .1 = \underline{\underline{.22}}\)

\(\rightarrow\) 22% der Erkrankten erreichen Stadium B der Krankheit.