Vorlesungsskript: Grundlagen des Entscheidens I

Eckhart Arnold

1 Vorwort
2 Techniken des Entscheidens
3 Zur Theorie der Kollektiven Entscheidungen
4 Wahrscheinlichkeitsrechnung
    4.1 Wahrscheinlichkeiten I: Rechentechniken
    4.2 Wahrscheinlichkeiten II: Interpretationsfragen nicht klausurrelevant!)
        4.2.1 Objektive Wahrscheinlichkeit
            4.2.1.1 Klassische Wahrscheinlichkeit
            4.2.1.2 Häufigkeitstheorie
            4.2.1.3 Ein Wort zu Propensitäten
        4.2.2 Subjektive Wahrscheinlichkeiten
        4.2.3 Aufgaben
5 Neumann-Morgensternsche Nutzentheorie
6 Spieltheorie
7 Kritische Reflexion
8 Beispielklausur
Literaturverzeichnis

4.2.1 Objektive Wahrscheinlichkeit

4.2.1.1 Klassische Wahrscheinlichkeit

Den Begriff der „klassischen“ oder auch „Laplaceschen“ Wahrscheinlichkeit kann man als eine Art Vorläufer der Häufigkeitstheorie betrachten. Der klassischen Wahrscheinlichkeit merkt man die Herkunft der Wahrscheinlichkeitstheorie aus dem Glücksspiel am deutlichsten an, denn sie definiert die Wahrscheinlichkeit als:



Wobei unter „günstigen“ Fällen diejenigen Fälle aus einer nicht-leeren Grundgesamtheit von gleichartigen möglichen Fällen zu verstehen sind, die - aus welchem Grund auch immer - von Interesse sind. Typische Fälle sind z.B. die Wahrscheinlichkeit aus einem Stapel von 52 Spielkarten (mögliche Fälle) ein As zu ziehen (günstige Fälle), oder im Roulette unter allen möglichen Zahlen (einschließlich der Null 37 mögliche Fälle) eine gerade Zahl zu bekommen (18 günstige Fälle). Zu den wesentlichen Eigenschaften der klassischen Wahrscheinlichkeit gehört, dass sie ähnlich wie die etwas weiter unten besprochenen Propensitäten eine Wahrscheinlichkeit für den Einzelfall beschreibt. Auch wenn der Begriff der Wahrscheinlichkeit auf eine Gesamtheit von mehreren möglichen Fällen bezogen ist, ist es keineswegs erforderlich, dass der Vorgang, um den es geht (also z.B. das Ziehen einer Karte), mehrfach wiederholt wird oder wiederholbar ist, damit der klassische Begriff der Wahrscheinlichkeit Sinn hat. Denn auch, wenn man nur ein einziges Mal Roulette spielt, hat es Sinn zu sagen, dass es 37 mögliche und, wenn man z.B. auf Zahl setzt, einen günstigen Fall gibt.

Die möglichen Fälle, aus denen sich die Grundgesamtheit zusammensetzt, müssen sich wechselseitig ausschließen, wobei aber sicher ist, dass irgendeiner der Fälle eintritt, und sie müssen in einem gewissen Sinne „gleichartig“ sein. Diese „Gleichartigkeit“ lässt sich zwar im Einzelfall näher beschreiben (etwa bei einem Würfel die gleichmäßige Form und Masseverteilung), aber nicht leicht allgemein charakterisieren, denn die naheliegende Charakterisierung, dass die Fälle der Grundgesamtheit gleichartig sind, wenn sie alle gleichwahrscheinlich sind, fällt aus, weil sonst die Definition der (klassischen) Wahrscheinlichkeit zirkulär werden würde.

Ereignisse kann man in der klassischen Wahrscheinlichkeit in naheliegender Weise als Mengen möglichen Fäller und damit Teilmengen der Grundgesamtheit auffassen. Das Ereignis, aus einem Kartenspiel ein As zu ziehen umfasst beispielsweise die vier möglichen Fälle: Kreuz-As, Pik-As, Herz-As, Karo-As. (Daher bietet sich für die klassische Wahrscheinlichkeit auch in besonderer Weise die mengentheoretische Darstellung der mathematischen Wahrscheinlichkeit an, aber man kann ebensogut - der aussagenbasierten Darstellung in der letzten Vorlesung folgend - davon sprechen, dass das Ereignis, dass ein As gezogen wird, eingetreten, wenn die Aussage, „es wurde ein As gezogen“, wahr ist. Aussagen über Ereignisse kann man dabei immer mittels und-Verknüpfung aus Aussagen über Fälle der Grundgesamtheit zusammensetzen.)

Eine weitere Frage wäre die, ob man die klassische Definition eher als logisch-theoretische oder als empirische Definition auffassen will. Grundsätzlich ist die Definition eher logisch-theoretischer Natur und nur in dem weitläufigen Sinn empirisch als die Begriffe „günstige Fälle“, „mögliche Fälle“ und „Anzahl“ in einer unbestimmt großen (und nicht einmal zwangsläufig nicht-leeren) Menge von empirischen Anwendungskontexten einen konkreten Sinn haben. Bezieht man diesen Wahrscheinlichkeitsbegriff auf einen bestimmten Anwendungskontext, so geht man davon aus, dass die Eigenschaften der Gleichartigkeit und der wechselseitigen Ausschließlichkeit in diesem Kontext gegeben sind, was sich aber immer auch als empirisch falsch herausstellen kann.

Zu zeigen ist nun, dass die so definierte Wahrscheinlichkeit die kolmogorowschen Axiome erfüllt. Wir gehen dazu die Axiom einzeln durch:

  1. Axiom (): Da die Anzahlen von günstigen oder möglichen Fällen niemals kleiner 0 sind, ist diese Bedingung offensichtliche gegeben
     
  2. Axiom ( wenn sicher ist): Da ein Ereignis genau dann sicher ist, wenn es alle möglichen Fälle der Grundgesamtheit enthält, und schon aufgrund der Definition keine Fälle enthalten kann, die nicht in der Grundgesamtheit enthalten sind, ergibt der definierende Qutient der klassischen Wahrscheinlichkeit für das[56] sichere Ereignis einen Wert von 1.
     
  3. Axiom ( wenn und sich ausschließen): Zwei Ereignisse schließen sich dann aus, wenn jeder möglich Fall (der Grundgesamtheit), durch den das eine Ereignis eintritt, kein Fall ist, in dem das andere Ereignis eintritt. (Fassen wir Ereignisse als Mengen von möglichen Fällen auf, dann kann man auch sagen: Zwei Ereignisse schließen sich aus, wenn ihre Schnittmenge leer ist.) Dann tritt dasjenige Ereignis, das eintritt, wenn das eine Ereignis oder das andere Ereignis eintritt (), aber in genauso vielen Fällen ein wie beide Ereignisse zusammen.

Die kolmogorowschen Axiome werden also durch den Begriff der klassischen Wahrscheinlichkeit erfüllt. Aber wie verhält es sich mit der bedingten Wahrscheinlichkeit? Da es für die bedingte Wahrscheinlichkeit eine mathematische Definition gibt (), könnten wir uns eigentlich dabei beruhigen. Allerdings bliebe die klassische Definition der Wahrscheinlichkeit sehr unbefriedigend, wenn man nicht auch die bedingte Wahrscheinlichkeit in Bezug mögliche und günstige Fälle (also in Bezug auf das „Modell“ der klassischen Wahrscheinlichkeit) definieren würde. Tut man das aber, dann muss man zeigen, dass diese Definition mit dem mathematischen Begriff der bedingten Wahrscheinlichkeit übereinstimmt.

Für die klassische Wahrscheinlichkeit lässt sich die bedingte Wahrscheinlichkeit in naheliegender Weise folgendermaßen definieren: Die bedingte Wahrscheinlichkeit ist die Anzahl der Fälle, in denen sowohl das Ereignis als auch das Ereignis eintritt, geteilt durch die Anzahl der Fälle, in denen nur eintritt. Wenn unmöglich ist, dann setzen wir die bedingte Wahrscheinlichkeit auf 0 fest. Für entspricht die Definition dann bereits unmittelbar der Standarddefinition von . Andernfalls gilt:


Die Definition der bedingten Wahrscheinlichkeit in Bezug auf mögliche und günstige Fälle entspricht also genau der mathematischen Definition der bedingten Wahrscheinlichkeit.

Die Laplace'sche Wahrscheinlichkeit ist sicherlich die verständlichste und naheliegendste Interpretation des Wahrscheinlichkeitsbegriffs. Sie wirft aber auch eine Reihe von mehr oder minder gravierenden Problemen auf:

  1. Sie lässt sich nur dort anwenden, wo wir die Anzahl der möglichen Fälle feststellen können, d.h. wo eine endliche und wohlumrissene Grundgesamtheit vorliegt. Die Wahrscheinlichkeit etwa, mit der es zu einem Börsencrash kommt, ließe sich mit der Laplaceschen Wahrscheinlichkeit nicht mehr ohne Weiteres ausdrücken.
     
  2. Die Fälle zu bestimmten, aus denen sich die Grundgesamtheit zusammensetzt, kann unter Umständen ein nicht-triviales Problem darstellen. Will man z.B. die Frage beantworten, wie groß die Wahrscheinlichkeit ist, bei zwei Münzwürfen zweimal Kopf zu erhalten, dann besteht die Grundgesamtheit aus den vier möglichen Kombinationen: Kopf-Kopf, Kopf-Zahl, Zahl-Kopf, Zahl-Zahl. Aber warum besteht sie nicht aus den drei möglichen Kombinationen: Beidemale Kopf, Beidemale Zahl, Einmal Kopf und einmal Zahl? Die Frage ist gar nicht so leicht zu beantworten, vor allem wenn man sich Situationen vorstellt, in denen die richtige Lösung nicht so offensichtlich ist.
     
  3. Schließlich stellt sich das Problem, was zu tun ist, wenn die Fälle der Grundgesamtheit nicht gleichartig sind. Wenn wir uns beispielsweise einen Holzwürfel vorstellen, in dessen Innerem ein Stück Blei direkt unter der Eins angebracht ist, wie sollten wir die nun nicht mehr gleichverteilten Fälle von Würfen von eins bis sechs auf eine Grundgesamtheit gleichverteilter Fälle herunterbrechen? Was wären die Fälle der Grundgesamtheit, wenn es nicht mehr die möglichen Würfelergebnisse sein können?

Eine Antwort auf die letzte Frage gibt insbesondere die Häufigkeitstheorie der Wahrscheinlichkeit, der wir uns nun zuwenden.

[56] Da „jedes“ sichere Ereignis alle Fälle der Grundgesamtheit enthalten muss, gibt es nur noch ein sicheres Ereignis.

t g+ f @