Vorlesungsskript: Grundlagen des Entscheidens I |
Inhalt |
Das Problem, das die Fälle der Grundgesamtheit nicht „gleichartig“ sind, und ebenso die Frage, wie man ggf. feststellen kann, ob sie es sind, wird in sehr naheliegender Weise durch die Häufigkeitstheorie der Wahrscheinlichkeit beantwortet. Nach der Häufigkeitstheorie besteht die Wahrscheinlichkeit eines Ereignisses darin, wie häufig es innerhalb einer Menge oder Folge von möglichen Ereignissen vorkommt. Präziser müsste man von der Häufigkeit eines Ereignistyps in einer Menge von Möglichkeiten, dem „Individuenbereich“ sprechen, denn bei der Häufigkeitstheorie bezieht sich die Wahrscheinlichkeit nicht mehr auf ein einzelnes Ereignis sondern auf mehrfach vorkommende bzw. wiederkehrende Ereignisse derselben Art. Nach der Häufigkeitstheorie würde man unter der Wahrscheinlichkeit, mit der es zu einem Flugzeugunglück auf der Strecke von Frankfurt nach New York kommt, die Häufigkeit verstehen, mit der dieses Ereignis bezogen auf alle Flüge von Frankfurt nach New York eintritt. Die bedingte Wahrscheinlichkeit wäre dann die beispielsweise Häufigkeit, mit der Flugzeuge auf dem Flug von Frankfurt nach New York bei schlechtem Wetter abstürzen, wenn man in diesem Beispiel das schlechte Wetter einmal als Bedingung nimmt.
Entscheidend im Unterschied zur klassischen Wahrscheinlichkeitstheorie
ist, dass die Häufigkeitstheorie keine Grundgesamtheit gleichartiger
im Sinne von „gleichmöglicher“ Fälle mehr voraussetzt,
und daher auch auf einen wesentlichen breiteren Bereich von Phänomenen
passt. Eine zweite wichtige Eigenschaft der Häufigkeitstheorie besteht
darin, dass sie sich auf Ereignisfolgen unbestimmter Größe beziehen
lässt. Wenn wir die Wahrscheinlichkeit von „Kopf- oder Zahl“
bei einem Münzerwurf im Sinne der Häufigkeitstheorie verstehen, dann
ist die Menge der Eriegnisse, auf die sich die Häufigkeit bezieht,
d.h. die Menge der Münzwürfe überhaupt, unbestimmt groß. Wenn von Häufigkeit
die Rede ist, so muss die relative Häufigkeit von der absoluten Häufigkeit
unterschieden werden. Unter der absoluten Häufigkeit ist zu verstehen,
wie oft ein bestimmtes Merkmal (z.B. Kopf beim Münzwurf) in einer Folge
von Ereignissen (Münzwürfe überhaupt) auftritt. Die relative Häufigkeit
ist dann durch den Quotienten definiert:
Eine Schwierigkeit entsteht nun, wenn die Ereignisfolge unbestimmt
groß ist: Wie soll man die relative Häufigkeit in diesem Fall bestimmen.
Greift man nur eine bestimmte Teilfolge heraus, dann besteht die Gefahr,
dass die relative Häufigkeit des Merkmals in dieser Teilfolge eine
andere ist als die einer größeren Folge. Die relative Häufigkeit bezogen
auf die Gesamtfolge lässt sich wegen der Unbestimmtheit ihrer Größe
ja nicht feststellen. (Es ist praktisch unmöglich alle Münzwürfe, die
jemals auf der Welt durchgeführt werden, zu registrieren.) Häufigkeitstheoretiker
antworten darauf mit einer empirischen Hypothese, dem
Gesetz der Stabilität der statistischen Häufigkeiten: Bei Massenphänomenen (Münzwürfe, Würfel u.a.) stabilisiert sich die relative Häufigkeit bestimmter Merkmale mit zunehmender Zahl der Beobachtungen. (Gillies 2000, S. 92)
Wenn man etwas vorsichtiger ist, wird man das Gesetz nicht auf alle Massenphänomene schlechthin, sondern nur auf jeweils bestimmte Massenphänomene beziehen und damit die Möglichkeit zulassen, dass es Massenphänomene gibt, die nicht statistisch erfassbar sind. Akzeptiert man das Gesetz der Stabilität der statistischen Häufigkeiten aber erst einmal, dann lässt sich die Wahrscheinlichkeit im Sinne der Häufigkeitstheorie im Prinzip sehr einfach messen, indem man empirische Beobachtungen oder Experimente anstellt. Ab welcher Zahl von Beobachtungen die relative Häufigkeit bei einem Massenphänomen hinreichend stabil ist, damit wir zuverlässige statistische Aussagen darüber treffen können, ist keine Frage mehr, die die philosophischen Grundlagen der Häufigkeitstheorie betrifft, sondern die der Kunstlehre der Statistik überlassen bleibt. Für die Rechtfertigung der Häufigkeitstheorie muss diese Frage nicht entschieden werden.
Das empirische Gesetz der Stabilität der statistischen Häufigkeiten motiviert eine bestimmte Art der Axiomatisierung speziell des häufigkeitstheoretischen Wahrscheinlichkeitsbegriffs. Da der häufigkeitstheoretische Wahrscheinlichkeitsbegriff sich auf das Auftreten von Merkmalen in einer Ereignisfolge bezieht, wird dafür zunächst der Begriff eines Kollektivs definiert. Unter einem Kollektiv versteht man unendliche Folgen von Merkmalen eines Merkmalsraumes . Dass man in der mathematischen Darstellung der unbestimmt großen empirischen Ereignisfolgen unendliche Merkmalsfolgen verwendet, kann dabei - vergleichbar den „ausdehnungslosen Punkten“ in der Geometrie - als eine der Idealisierungen gerechtfertigt werden, deren man sich bei der mathematischen Repräsentation empirischer Sachverhalte stets bedient. Die Wahrscheinlichkeit des Auftretens eines Merkmals wird dabei immer auf ein solches Kollektiv bezogen. Die Häufigkeitstheorie definiert die Wahrscheinlichkeiten also von vornherein als bedingte Wahrscheinlichkeiten. Von diesen „Kollektive“ genannten Merkmalsfolgen wird nun verlangt, dass sie die folgenden beiden Axiome erfüllen (Vgl. (Gillies 2000, S.97, 105)):
Bezüglich dieser Axiome stellen sich nun drei Fragen: 1. Ist die Axiomatisierung sinnvoll, d.h. was sagen die beiden Axiome eigentlich aus und warum werden beide gebraucht? 2. Ist mit diesen Axiomen eine Wahrscheinlichkeit im Kolmogorowschen Sinne definiert? 3. Gibt es Einwände gegen die Axiome und insbesondere, gibt es Wahrscheinlichkeiten, die von diesen Axiomen nicht erfasst werden?