Vorlesungsskript: Grundlagen des Entscheidens I

Eckhart Arnold

1 Techniken des Entscheidens
2 Zur Theorie der Kollektiven Entscheidungen
3 Wahrscheinlichkeitsrechnung
    3.1 Wahrscheinlichkeiten I: Rechentechniken
    3.2 Wahrscheinlichkeiten II: Interpretationsfragen nicht klausurrelevant!)
        3.2.1 Objektive Wahrscheinlichkeit
            3.2.1.1 Klassische Wahrscheinlichkeit
            3.2.1.2 Häufigkeitstheorie
                1. Erläuterung.
                2. Nachweis der Erfüllung der Kolmogorowschen Axiome.
                3. Einwände und Diskussion
            3.2.1.3 Ein Wort zu Propensitäten
        3.2.2 Subjektive Wahrscheinlichkeiten
        3.2.3 Aufgaben
4 Neumann-Morgensternsche Nutzentheorie
5 Spieltheorie
6 Kritische Reflexion
7 Beispielklausur
Literaturverzeichnis

3.2.1.2 Häufigkeitstheorie

Das Problem, das die Fälle der Grundgesamtheit nicht „gleichartig“ sind, und ebenso die Frage, wie man ggf. feststellen kann, ob sie es sind, wird in sehr naheliegender Weise durch die Häufigkeitstheorie der Wahrscheinlichkeit beantwortet. Nach der Häufigkeitstheorie besteht die Wahrscheinlichkeit eines Ereignisses darin, wie häufig es innerhalb einer Menge oder Folge von möglichen Ereignissen vorkommt. Präziser müsste man von der Häufigkeit eines Ereignistyps in einer Menge von Möglichkeiten, dem „Individuenbereich“ sprechen, denn bei der Häufigkeitstheorie bezieht sich die Wahrscheinlichkeit nicht mehr auf ein einzelnes Ereignis sondern auf mehrfach vorkommende bzw. wiederkehrende Ereignisse derselben Art. Nach der Häufigkeitstheorie würde man unter der Wahrscheinlichkeit, mit der es zu einem Flugzeugunglück auf der Strecke von Frankfurt nach New York kommt, die Häufigkeit verstehen, mit der dieses Ereignis bezogen auf alle Flüge von Frankfurt nach New York eintritt. Die bedingte Wahrscheinlichkeit wäre dann die beispielsweise Häufigkeit, mit der Flugzeuge auf dem Flug von Frankfurt nach New York bei schlechtem Wetter abstürzen, wenn man in diesem Beispiel das schlechte Wetter einmal als Bedingung nimmt.

Entscheidend im Unterschied zur klassischen Wahrscheinlichkeitstheorie ist, dass die Häufigkeitstheorie keine Grundgesamtheit gleichartiger im Sinne von „gleichmöglicher“ Fälle mehr voraussetzt, und daher auch auf einen wesentlichen breiteren Bereich von Phänomenen passt. Eine zweite wichtige Eigenschaft der Häufigkeitstheorie besteht darin, dass sie sich auf Ereignisfolgen unbestimmter Größe beziehen lässt. Wenn wir die Wahrscheinlichkeit von „Kopf- oder Zahl“ bei einem Münzerwurf im Sinne der Häufigkeitstheorie verstehen, dann ist die Menge der Eriegnisse, auf die sich die Häufigkeit bezieht, d.h. die Menge der Münzwürfe überhaupt, unbestimmt groß. Wenn von Häufigkeit die Rede ist, so muss die relative Häufigkeit von der absoluten Häufigkeit unterschieden werden. Unter der absoluten Häufigkeit ist zu verstehen, wie oft ein bestimmtes Merkmal (z.B. Kopf beim Münzwurf) in einer Folge von Ereignissen (Münzwürfe überhaupt) auftritt. Die relative Häufigkeit ist dann durch den Quotienten definiert:



Eine Schwierigkeit entsteht nun, wenn die Ereignisfolge unbestimmt groß ist: Wie soll man die relative Häufigkeit in diesem Fall bestimmen. Greift man nur eine bestimmte Teilfolge heraus, dann besteht die Gefahr, dass die relative Häufigkeit des Merkmals in dieser Teilfolge eine andere ist als die einer größeren Folge. Die relative Häufigkeit bezogen auf die Gesamtfolge lässt sich wegen der Unbestimmtheit ihrer Größe ja nicht feststellen. (Es ist praktisch unmöglich alle Münzwürfe, die jemals auf der Welt durchgeführt werden, zu registrieren.) Häufigkeitstheoretiker antworten darauf mit einer empirischen Hypothese, dem

Gesetz der Stabilität der statistischen Häufigkeiten: Bei Massenphänomenen (Münzwürfe, Würfel u.a.) stabilisiert sich die relative Häufigkeit bestimmter Merkmale mit zunehmender Zahl der Beobachtungen. (Gillies 2000, S. 92)

Wenn man etwas vorsichtiger ist, wird man das Gesetz nicht auf alle Massenphänomene schlechthin, sondern nur auf jeweils bestimmte Massenphänomene beziehen und damit die Möglichkeit zulassen, dass es Massenphänomene gibt, die nicht statistisch erfassbar sind. Akzeptiert man das Gesetz der Stabilität der statistischen Häufigkeiten aber erst einmal, dann lässt sich die Wahrscheinlichkeit im Sinne der Häufigkeitstheorie im Prinzip sehr einfach messen, indem man empirische Beobachtungen oder Experimente anstellt. Ab welcher Zahl von Beobachtungen die relative Häufigkeit bei einem Massenphänomen hinreichend stabil ist, damit wir zuverlässige statistische Aussagen darüber treffen können, ist keine Frage mehr, die die philosophischen Grundlagen der Häufigkeitstheorie betrifft, sondern die der Kunstlehre der Statistik überlassen bleibt. Für die Rechtfertigung der Häufigkeitstheorie muss diese Frage nicht entschieden werden.

Das empirische Gesetz der Stabilität der statistischen Häufigkeiten motiviert eine bestimmte Art der Axiomatisierung speziell des häufigkeitstheoretischen Wahrscheinlichkeitsbegriffs. Da der häufigkeitstheoretische Wahrscheinlichkeitsbegriff sich auf das Auftreten von Merkmalen in einer Ereignisfolge bezieht, wird dafür zunächst der Begriff eines Kollektivs definiert. Unter einem Kollektiv versteht man unendliche Folgen von Merkmalen eines Merkmalsraumes . Dass man in der mathematischen Darstellung der unbestimmt großen empirischen Ereignisfolgen unendliche Merkmalsfolgen verwendet, kann dabei - vergleichbar den „ausdehnungslosen Punkten“ in der Geometrie - als eine der Idealisierungen gerechtfertigt werden, deren man sich bei der mathematischen Repräsentation empirischer Sachverhalte stets bedient. Die Wahrscheinlichkeit des Auftretens eines Merkmals wird dabei immer auf ein solches Kollektiv bezogen. Die Häufigkeitstheorie definiert die Wahrscheinlichkeiten also von vornherein als bedingte Wahrscheinlichkeiten. Von diesen „Kollektive“ genannten Merkmalsfolgen wird nun verlangt, dass sie die folgenden beiden Axiome erfüllen (Vgl. (Gillies 2000, S.97, 105)):

  1. Axiom (Axiom der Konvergenz): Sei A eine beliebige Menge von Merkmalen des Kollektivs und die Häufigkeit, mit der Merkmale dieser Menge unter den ersten Folgegliedern des Kollektivs auftreten, dann existiert der Grenzwert und es gilt per Definition
     
  2. Axiom (Axiom der Zufälligkeit): Für jedes zufällig ausgewählte Teilkollektiv von gilt: , d.h. der Grenzwert der relativen Häufigkeit des Teilkollektivs muss derselbe sein wie der Grenzwert des relativen Häufigkeit des Kollektivs selbst.

Bezüglich dieser Axiome stellen sich nun drei Fragen: 1. Ist die Axiomatisierung sinnvoll, d.h. was sagen die beiden Axiome eigentlich aus und warum werden beide gebraucht? 2. Ist mit diesen Axiomen eine Wahrscheinlichkeit im Kolmogorowschen Sinne definiert? 3. Gibt es Einwände gegen die Axiome und insbesondere, gibt es Wahrscheinlichkeiten, die von diesen Axiomen nicht erfasst werden?

t g+ f @