Karl Bosch Elementare Einführung in die Wahrscheinlichkeitsrechnung
Mathematik/Stochastik
Elementare Einführung in die angewandte Statistik
von Karl Bosch Stochastik einmal anders
von Gerd Fischer
Wahrscheinlichkeitstheorie
von Christian Hesse
Obungsbuch zur angewandten Wahrscheinlichkeitstheorie
von Christian Hesse und Alexander Meister Stochastik für Einsteiger
von Norbert Henze
Statistische Datenanalyse
von Werner A. Stahel Statistik - wie und warum sie funktioniert
von Jörg Bewersdorff Grundlegende Statistik mit R
von Jürgen Groß
www.viewegteubner.de ___________--.
Karl Boseh
Elementare Einführung in die Wahrscheinlichkeitsrechnung Mit 82 Beispielen und 73 Übungsaufgaben mit vollständigem Lösungsweg 11., aktualisierte Auflage STUDIUM
•
V1EWEG+
TEUBNER
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
abrufbar.
Prof. Dr. Karl Bosch Universität Hohenheim Institut für Angewandte Mathematik und Statistik Schloss Hohenheim 70599 Stuttgart [email protected]
1. 2., 3., 4., 5., 6., 7., 8., 9.,
Auflage 1976 durchgesehene Auflage 1979 durchgesehene Auflage 1982 durchgesehene Auflage 1984 durchgesehene Auflage 1986 durchgesehene Auflage 1995 durchgesehene Auflage 1999 korrigierte Auflage 2003 durchgesehene Auflage 2006 Nachdruck 2008 10., durchgesehene Auflage 2010 11., aktualisierte Auflage 2011
Alle Rechte vorbehalten © Vieweg+Teubner Verlag I Springer Fachmedien Wiesbaden GmbH 2011 Lektorat: Ulrike Schmickler-Hirzebruch
I Barbara Gerlach
Vieweg+ Teubner Verlag ist eine Marke von Springer Fachmedien. Springer Fachmedien ist Teil der Fachverlagsgruppe Springer Science+Business Media. www.viewegteubner.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Druck und buchbinderische Verarbeitung: AZ Druck und Datentechnik, Berlin Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in Germany ISBN 978-3-8348-1861-4
Vorwort zur enten Auflage 1976 Dieser Band ist aus dem ersten Teil einer zweisemestrigen Vorlesung entstanden, die der Autor wiederholt rur Studenten der FachrichlUngen Biologie, Pädagogik, Psychologie und Betriebs- und Wir tschaftswissenschaften an der Technischen Uni· versität Braunschweig gehalten hat. In ihm sollen möglichst anschaul ich die wichtigsten Grundbegriffe der Wahrscheinlichkeits rechnung eingeHih rt werden, die fur ein sinnvolles Studium der Statistik unentbehrlich sind. Da die Statistik bei immer mehr Wissenschaftszweigen benötigt wird, ist der Aufbau und die Darstellung so gewählt, daß ein möglichst breiter Leserkreis ange· sp rochen werden kann. So wird bei den ZufalJsvariablen zunächst der "diskrete" Fall behandelt, weil zu deren Verständnis nur wenig mathematische Vorkenntnisse benötigt we rden. Erst anschließend werden " stetige" Zufallsvariable be trachtet. Häufig werden neue Begriffe über ein Beispiel anschaulich eingefwut, bevor sie allgemein definiert werden. Zahlreiche Beispiele und Obungsaufgaben, de ren Lö· sungswege im Anhang vollständig angegeben werden, sollen zum besseren Verständnis beitragen. Die mit. versehenen Stellen erfordern einige mathematische Vorkenntnisse. Sie können jedoch überlesen werden, ohne daß dadurch eine Lücke entsteh t. En tsprechend sind etwas schwierige Obungsaufgaben mit einem. gekennzeichnet. Das Ende eines Beweises wird mit dem Zeichen - , das Ende eines Beispiels mit . ge kennzeichnet. Auf Mengensysteme und auf den Begriff der Meßbarkeit soll in di esem Rahmen nicht eingegangen werden. Dazu sei auf die weiterruhrende Uteratur verwiesen. Als For tsetzung dieses Ih ndes ist die Angewandte Mathematische Statistik gedacht. Das Manuskript wurde von Herrn Prof. Dr. E. Henze und Herrn Akad. Direktor Dr. H. Wolff du rchgesehen. Beiden bin ich ru r wertvolle Hinweise und Ratschläge SOwie Hir das überlassen zahlreicher Obungsaufgaben zu großem Dank verpflichtet. Den Herren Kruse. Möller, Scholz und Stegen danke ich für die Mi thilfe beim Ko;rekturenlesen. Schließlich sei dem Verlag rur die vorbildlkhe Zusammenarbeit gedankt. In einer sehr kurzen Zeit wurde dieser Band in einer ansprechenden Form von ihm herausgebrach t. Jedem Lese r bin ich für Verbesserungsvorschläge dankba r. Braunschwcig, im J anuar 1976
Karl Bosch
Vorwort zur zweiten bla eIhn Auflage Wegen des erfolgreichen Einsatzes des Buches in zablreichen Lehrveranstaltungen wurde bei den Neuaufiagen tUe Grundkonzeption des Buches nicht verIIndert. Neben der Beseitigung von Fehlern im Thxt und in den Aufgaben wnrde das litmaturverzeichnis aktualisiert. Für tUe Lösung der Aufgabe 3 aus Abschnitt 23.6 wurde von einem Leser ein ft1r die Praxis geeignet.«ea Modell vorgeschlagen. Die gelinderte Lösung wurde nach diesem Modell berechnet. In der 11. Auflage wurde in den Anhang eine Liste "WlChtige Bezeichmmgen und Fonne1n" integriert. Stuttgart-Hohenheim, im Juli 2011
Karl Bosch
Inhalt 1.
Der Wahrscheinlichkeitsbegriff
1.1. 1. 2. 1.3. 1.4.
1.5 . 1.6. 1.7. 1.7 . 1. 1.7.2. 1.7.3. 1.8. 1.9. 1.10.
Zufallige Ereignisse . . . . . . . . . . Die relative Häufigkeit . . . . . . . . Axiomatische Definition der Wahrscheinlichkeit nach Kolmogoroff . Der Begriff der Wahrscheinlichkeit nach Laplace und kombinatorische Methoden zur Berechnung von Wahrscheinlichkeiten . . . . . . . . . . . .. . Geometrische Wahrscheinlichkeiten . . .. . . . . . . . . . . . . .. . . Bedingte Wahrscheinlichkeiten und unabhängige Ereignisse . .. . . . . Bernoulli-Experimente und klassische Wahrscheinlichkeitsverteilungen Die Binomialverteilung . . . Die Polynomialverteilung . . . . . . . . . . . . . . . . . . . . . . . . . . Die geometrische Verteilung . .. . . . . .. .. . . . .. . . .. . .. . Der Satz von der vollständigen Wahrscheinlichkeit und die Bayessche Formel Das Bernoullische Gesetz der großen Zahlen Obungsaufgaben
2.
Zufallsvariable
55
2.1. 2.2. 2.2.1. 2.2.2. 2.2.3. 2.2.4 . 2.2.5. 2.2.6. 2.2.7. 2.3. 2.3.1. 2.3.2. 2.3.3. 2.3.4. 2.3.5. 2.3.6. 2.4. 2.4. 1. 2.4.2. 2.4.3 . 2.4.4 . 2.5. 2.5.1. 2.5 . 2.
Definition einer Zufallsvariablen Diskrete Zufallsvariable . . . . . Definition einer diskreten Zufallsvariablen Verteilungsfunktion einer diskreten Zufallsvariable n . Erwartungswert einer diskreten Zufallsvariablen . . . . Varianz und Streuung einer diskreten Zufallsvariablen Paare diskreter Zufallsvariabler .. . . . . . . . . . Summen und Produkte diskreter Zufallsvariabler Erzeugende Funktionen .. . . . Spezielle diskrete Verteilungen . . Die geometrische Verteilung . . . Die hypergeometrische Verteilung Die Binomialverteilung .. . .. . VergleiCh der hypergeometrischen- und der Binomialverteilung Die Poisson-Verteilung als Grenzwert der Binomialverteilung Übungsaufgaben über diskrete Zufallsvarlable Stetige Zufallsvariable . .. . . . .. . . . . . . . . . . . . . . Definition einer stetigen Zufallsvariablen . . . . . . . . .. . Erwartungswert und Varianz e;ner stetigen Zufallsvariable n Stetige zweidimensionale Zufallsvariable .. .. Summen und Produkte stetiger Zufallsvariabler Spezielle stetige Verteilungen . . . . . . . . . . . Die gleichmäßige Verteilung .. . .. .. .. . . Die N (O;I)-Normalverteilung als Grenzwert standardisierter Binomial· verteilungen . . . . . . . . . . . . . Die allgemeine Normalverteilung . . . . . . . . . Die Exponentialverteilung . . . . .. .. . . . . . Übungsaufgaben über stetige ZufaUsvariable . . Allgemeine Zufallsvariable .. .. . . . . . .. . Verteilungsfunktion, Erwartungswert und Varianz einer beliebigen Zufallsvariablen . . . . . . . . . . . . . . . . . . . Median und Quantile einer Zufallsvariablen . . . Übungsaufgaben über allgemeine Zufallsvariable
55 56 56
2.5.3. 2.5.4. 2.5.5 . 2.6. 2.6.1. 2.6 .2. 2.6 .3.
5 8 12 25
29 36 37 39 40 42 45
49
58 61
69 72
74 80 82 82 83 86
90 92
96 98 98 104
113 120
128
128
129 134 138 141 143 144 146
148
3.
Gesetze der großen Zahlen
3.1. 3. 2.
Die
T scheb~schcffsche
D ~s
schwache Gese~z
n.
Ungldchung deI großen Zahlen.
,,,
,,,
ISO IS'
J .4.
Der zentrale G.cnzwellsalz OburJg:laufgaben
4.
Testverteilungen .
4.l. 4. 2. 4.3.
Die St"d."tsche I-Verteilu", . Die F.verteilung >'on Fishe,
1S6
5.
Ausblick
IS'
6.
Anhang
6.1. 6.2.
lö~ungc .. de r Obun~sau fgaben
Tafel der Ve. teilungsfunktion ot> de r N(O;l) ·Ve rl ei lung .
1S9 159 188
Wiclrti.ge Bezeichnungen und Formeln . . . . . . . . . .
190
6.3 6.4 6.5
D ie Ch~Quad ut · Ve' t.ilung.
'" ,,,,,, ,,,
•.••.•••••••••••••.••.••.•••••• 193 NaDleJlI- und ~ter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 W~ Literatur
1. Der Wahrscheinlichkeitsbegriff
Bevor wir den Begriff "Wahrscheinlichkeit" einfuhren, beschäftigen wir uns mit den Grundbausteinen der Wahrscheinlichkeitsrechnung, den sogenannten zufälligen Ereignissen.
1.1. Zufällige Ereignisse Bei der Durchfuhrung vieler Experimente kann eines von mehreren möglichen Ergebnissen eintreten. Dabei sind zwar die verschiedenen Ergebnisse, die eintreten können, bekannt, vor der Durchfuhrung des Experiments weiß man jedoch nicht, welches Ergebnis tatsächlich eintreten wird. In einem solchen Fall sagt man, das Ergebnis hängt vom Zufall ab. Experimente dieser Art nennen wir Zufallsexperi· mente. Beispiele von Zufallsexperimenten sind: das Werfen einer Münze oder eines Würfels, das Verteilen der 32 Skatkarten, die Lotto-Ausspielung, das Messen der Körpergröße, des Blutdrucks und des Gewichts einer zufällig ausgewählten Person oder die Feststellung des Intelligenzquotienten eines Kindes. Unter einem zufälligen Ereignis (oder kurz Ereignis) verstehen wir einen Versuchsausgang, der bei der Durchfuhrung eines Zufallsexperiments eintreten kann, aber nicht unbedingt eintreten muß. Dabei muß von einem Ereignis nach jeder Versuchsdurchführung feststellbar sein, ob es eingetreten ist oder nicht. Ereignisse, die stets gemeinsam eintreten oder nicht eintreten, werden als gleich angesehen. Wir bezeichnen Ereignisse mit großen lateinischen Buchstaben A, B, C, D, E, ... ; AI, A2 , . . Das Ereignis, das bei jeder Durchfuhrung des Zufallsexperiments eintritt, nennen wir das sichere Ereignis und bezeichnen es mit n. Das sichere Ereignis n besteht somit aus allen möglichen Versuchsergebnissen. Ein Ereignis, das nie eintreten kann, heißt unmögliches Ereignis und wird mit f/) bezeichnet. Beispiel1.l. Beim Werfen eines Würfels können als mögliche Versuchsergebnisse die Augenzahlen 1,2,3,4,5,6 eintreten. Es gilt also n = {l, 2, 3, 4,5, 6}. Ist G das Ereignis "eine gerade Augenzahl wird geworfen", so tritt G genau dann ein, wenn eine der Augenzahlen 2,4,6. geworfen wird, es gilt also G = {2, 4, 6}. Das Ereignis U "eine ungerade Augenzahl wird geworfen" besitzt die Darstellung U = {l, 3, 5} und fur das Ereignis A "die geworfene Augenzahl ist mindestens gleich vier" erhält man A = {4, 5, 6}. Jede Zusammenfassung von Versuchsergebnissen stellt ein Ereignis dar. Unmögliche Ereignisse sind hier z.B. {xix = 7} =~; {xix = O} =~; {xix = 15 oder x = 16} =~. • Beispiel 1.2. Ein Ball werde auf eine rechteckige Wand geworfen. Dabei sei die Wand und der Standort des Werfers so gewählt, daß dieser bei jedem Wurf sicher K. Bosch, Elementare Einführung in die Wahrscheinlichkeitsrechnung, DOI 10.1007/978-3-8348-8331-5_1, © Vieweg+ Teubner Verlag | Springer Fachmedien Wiesbaden GmbH 2011
2
1. Der Wahrscheinlichkeitsbegriff
Bild 1.1. Ereignisse
trifft. Versuchsergebnisse sind dann die Berührungspunkte des Balles mit der Wand, die wir (Bild 1 .1) symbolisch als Punkte eines Rechtecks darstellen können. D besteht somit aus allen Punkten des eingezeichneten Rechtecks. Beträgt der Abstand des Beriihrungspunktes vom Mittelpunkt der Wand höchstens r Einheiten, so tritt das Ereignis K ein. Das Ereignis L tritt ein, wenn die linke Hälfte der Wand getroffen wird, und das Ereignis A, wenn der Abstand des Beriihrungspunktes vom rechten unteren Eckpunkt der Wand höchstens s Einheiten beträgt. Jeder Figur (z.B. F) kann ein Ereignis zugeordnet werden. • Aus den Ereignissen A, B gewinnen wir neue Ereignisse durch folgende Vorschriften : 1. Das Ereignis An B =AB (sprich "A und BH ) tritt genau dann ein, wenn sowohl A als auch B, wenn also beide eintreten. Man nennt An B den Durchschnitt oder das Produkt von A und B. 2. Das Ereignis AU B (sprich "A oder BH ) tritt genau dann ein, wenn A oder B oder beide eintreten, wenn also mindestens eines der Ereignisse A, Beintritt. AU B heißt dieVereinigung von A und B.
3. Das Ereignis A (sprich "A nicht tritt genau dann ein, wenn das Ereignis A nicht eintritt. Man nennt A das zu A entgegengesetzte Ereignis oder das Komplementärereignis von A. 4. Das Ereignis A \ B =AB tritt genau dann ein, wenn A eintritt und B nicht. A \ B heißt die Differenz von A und B. H
)
Spätere wahrscheinlichkeitstheoretischeBetrachtungen werden durch folgende Verabredungen wesentlich erleichtert: 5. Man sagt: A zieht B nach sich oder aus A folgt B, im Zeichen AC B, wenn aus dem Eintreten des Ereignisses A auch das von B folgt. Gilt AC Bund B C A, so sind die Ereignisse A und B gleich, d .h. A = B. 6. Zwei Ereignisse A und B heißen unvereinbar (oder unverträglich oder disjunkt), wenn sie nicht beide gleichzeitig eintreten können, wenn also gilt An B = 0. Für unvereinbare Ereignisse A, B schreibt man anstelle von AU Bauch A + Bund nennt A + B die Summe von A und B.
3
1.1. Zufallige Ereignisse
Die Schreibweise C = A + B bedeutet also folgendes: die beiden Ereignisse A und B sind unvereinbar und C ist die Vereinigung von A und B. Ein Ereignis, das nicht als Summe zweier disjunkter, von f/J verschiedenen Ereignisse darstellbar ist, heißt Elementarereignis. Elementarereignisse lassen sich also nicht mehr zerlegen. Beispiel 1.3 (vgl. Beispiel 1.1). Beim Werfen eines Würfels seien folgende Ereignisse betrachtet n = {I, 2, 3, 4, 5, 6}, A={2,3,4},
G = {2, 4, 6},
B={2,4,5},
U = {l, 3, 5},
M = {4, 5, 6},
C={2,4}.
Das Ereignis AB tritt ein, wenn entweder eine 2 oder eine 4 geworfen wird. Der Durchschnitt AB besteht also aus allen Augenzahlen, die sowohl in A als auch in B enthalten sind; damit gilt AB = {2, 4}. Ferner erhalten wir Gnu = f/J und U n M = {5}. Die Vereinigung A U B besteht aus allen Zahlen, die in A oder B oder in beiden enthalten sind, es ist also AU B = {2, 3,4, 5}. Weiter gilt Ä={I,5,6},
G={l,3,5}=U,
M={I,2,3},
n=G+u,
O={2,4,6}=G,
A \ B = AB = {2, 3, 4} n {I, 3, 6} = {3},
CCG. Die Beziehung B C G gilt nicht, wir schreiben dafür B
••
Beispiel 1.4. Das Zufallsexperiment bestehe im Messen der Körpergröße einer zufallig ausgewählten Person. Als Versuchsergebnis tritt eine Zahl x auf, welche die Körpergröße der gemessenen Person angibt. Ist A das Ereignis "die Körpergröße beträgt mindestens 165 und höchstens 175 cm", so besteht A aus allen reellen Zahlen x mit 165 ~ x ~ 175. Das Ereignis A können wir somit darstellen als A = {x 1 165 ~ x ~ 17 5}. Ferner betrachten wir die Ereignisse B = {x 1170 ~ x ~ I80} und C = {x 1150 ~ x ~ I60}. Damit erhalten wir An B = {x 1170
~x ~
AU B = {x 1165
~
x
~
I75}, I80},
AnC=f/J. Das Ereignis Ä tritt ein, wenn die Körpergröße kleiner als 165 oder größer als 175 ist. Ä besteht also aus allen Werten x mit x< 165 oder x> 175, es gilt also • Ä = {x 1x < I65} U {x 1x > I75}.
4
1. Der Wahrscheinlichkeitsbegriff
Beispiel 1.5 (vgl. Beispiel 1.2 und Bild 1.2) A = "Kreisfläche"; B =,,Rechtecksfläche"; C = ,,Dreiecksfläche" ; AB = "schraffierte Fläche"; AC=BC =~; AU B ="stark umrandete Fläche"; A \ B = "nichtschraffierte Teilfläche des Kreises"; B \ A = "nichtschraffierte Teilfläche des Rechtecks".
Bild 1.2. Ereignisse
Aus dem Bild 1.2 erkennt man die Identität
•
AU B =AB + AB + AB . Die Operationen n und U können unmittelbar auf mehrere Ereignisse Al, A2 , •.• , An übertragen werden. 7. Das Ereignis Al n A2 n A3 n ... n An = Ereignisse Al, A2 ,
.. • ,
n
n Ai
i=l
tritt genau dann ein, wenn alle n
An eintreten. Das Ereignis Al U A2 U ... U An
tritt genau dann ein, wenn mindestens eines der Ereignisse Al, A2 , tritt.
=U
•••,
i=l
Ai
An ein-
In den bisher betrachteten Beispielen haben wir Ereignisse stets durch Teilmengen A, H, ... einer Grundmenge .n dargestellt. Ferner benutzten wir bei der Definition der Ereignisoperationen die Symbole der Mengenoperationen. Man wird daher vermuten, daß zwischen zufalligen Ereignissen dieselben Beziehungen bestehen wie zwischen Mengen. Tatsächlich kann man sämtliche Eigenschaften, die für Mengen gelten, direkt auf zufallige Ereignisse übertragen, wenn man die Grundmenge durch das sichere Ereignis .n und die leere Menge C1iurch das unmögliche Ereignis fJ ersetzt. Dabei können sämtliche Gesetze direkt in dllr Sprache der Ereignisse bewiesen werden, wobei viele Eigenschaften unmittel~ar einleuchtend sind. Als Beispiel zeigen wir die sog. De Morgan~hen Regeln.
5
1.2. Die relative Häufigkeit
Es gilt AUB=Ans, AnB=AuB
ftir alle Ereignisse A, B.
(1.1)
Das Ereignis AU B tritt nach Definition genau dann ein, wenn das Ereignis AU B nicht eintritt, wenn also weder A noch B, d.h. wenn A und Beintreten. Das Ereignis An B tritt genau dann ein, wenn das Ereignis An B nicht eintritt, wenn also von den Ereignissen A und B nicht beide eintreten. Diese Bedingung ist genau dann erflillt, wenn mindestens eines der Ereignisse A, B nicht eintritt, wenn also AU B eintritt, womit (1.1) bewiesen ist. Als nächstes zeigen wir ftir beliebige Ereignisse A und B die Identität AU B = AB + AB + AB,
(1.2)
die wir in Beispiel 1.5 ftir zwei spezielle Ereignisse A, B aus Bild 1.2 direkt abgelesen haben. Das Ereignis AU B tritt genau dann ein, wenn mindestens eines der Ereignisse A, B eintritt. Dies ist genau dann der Fall, wenn entweder beide Ereignisse (d. h. das Ereignis AB), oder nur B (also AB) oder nur A (d.h. AB) eintritt. Ferner sind die drei Ereignisse AB, AB, AB paarweise unvereinbar, d. h. je zwei von ihnen können zusammen nicht eintreten, woraus (1.2) folgt. Abschließend geben wir einige Rechengesetze an, die sich in der Sprache der Ereignisse sehr einfach beweisen lassen. AnB=BnA, (Kommutativgesetze) AUB=BUA, An (B n C) =(An B) n C, (Assoziativgesetze ) AU (B U C) = (A U B) U C , An (B U C) = AB U AC , (Distributivgesetz) An=A, AnA=A, A=A,
fi = r»,
~ = n,
A(B\ C) = AB \ AC, AuA=n.
1.2. Die relative Häufigkeit Beispiel 1.6. Wir wählen zufällig 10 Personen aus und bestimmen deren Körpergrößen. Wir Hihren also das in Beispiel 1.4 beschriebene Zufallsexperiment 100mal durch. Dabei ergeben sich folgende auf cm gerundete Meßwerte :
172, 169, 178, 183, 175, 159, 170, 187, 174, 173.
6
1. Der Wahrscheinlichkeits begriff
Bei jedem Versuch können wir dann feststellen, ob die in Beispiel 1.4 angegebenen Ereignisse A= {x 1165 ~ x ~ 175}, B = {x 1170 ~ x ~ 180}, C = {x1150 ~ x ~ 160} eingetreten sind . Beim ersten Versuch sind z.B. A und Beingetreten, C dagegen nicht; somit ist C eingetreten. Insgesamt erhalten wir folgende Serien A={xI165~x~175}
A A A A A A A A A A
B={xI170~x~180}
B B B B B B B B B B
C={xI150~x~160}
ce
C C C C C C C C
•
Allgemein werde ein Zufallsexperiment n-mal unter denselben Bedingungen durchgeftihrt, wobei n eine bestimmte natürliche Zahl ist. Ist A ein beliebiges zufalliges Ereignis, so tritt bei jeder Versuchsdurchftihrung entweder A oder das komplementäre Ereignis Ä ein. Die Anzahl der Versuche, bei denen A eintritt, heißt absolute Häufigkeit des Ereignisses A; wir bezeichnen sie mit h n (A). Der Quotient h (Al
rn (A) = - ; - heißt relative Häufigkeit von A. Die relative Häufigkeit hängt als Ergebnis eines Zufallsexperiments selbst vom Zufall ab . Verschiedene Versuchsserien vom gleichen Umfang n werden daher im allgemeinen verschiedene relative Häufigkeiten liefern. Trotzdem wird man erwarten, daß die Werte rn(A) in der unmittelbaren Nähe eines festen Wertes liegen, falls n nur hinreichend groß gewählt wird. Betrachten wir dazu folgendes Beispiel 1.7. W sei das Ereignis, daß beim Werfen einer Münze Wappen auftritt. Eine Münze werde lOOO-mai geworfen. Berechnet man nach jedem Versuchsschritt die durch die bisherige Versuchsserie bestimmte relative Häufigkeit des Ereignisses W, so erhält man 1000 Zahlenwerte rn (W), n = I, 2, ... , 1000, die ftir n ~ 100 auf dem Graphen der in Bild 1.3 eingezeichneten Kurve liegen.
•
Für große n liegt rn (W) sehr nahe bei ~ .
t (.7 .............. I -+---WO-Wo 1/2
/'""-!..c:---,. ~...v=~ =--, ,",",
Bild 1.3. Relative Häufigkeiten
I
1000
.. n
7
1. 2. Die relative Häufigkeit
Eine solche Stabilität zeigen i. A. die relativen Häufigkeiten eines beliebigen Ereignisses A. Daher hat Richard von Mises (1931) versucht, die Wahrscheinlichkeit P(A) eines Ereignisses zu definieren durch einen Zahlenwert, dem sich die relativen Häufigkeiten rn (A) beliebig nähern, wenn nur n genügend groß ist. Dieser Zahlenwert heißt der Grenzwert der Folge rn (A). Man bezeichnet ihn mit P(A)
= lim n -+
rn (A) . 00
Gegen diese Definition, die man übrigens noch in einigen in letzter Zeit erschienenen Büchern finden kann, ist folgendes einzuwenden : Wird das Zufallsexperiment sehr oft wiederholt, so können sich im Laufe der Zeit die Versuchsbedingungen ändern. Bei einem Würfel könnten z.B. Abnutzungserscheinungen auftreten. Auch wenn man die Versuchsbedingungen konstant halten könnte, so würde die Existenz des Grenzwertes doch bedeuten, daß zu jeder noch so kleinen Zahl e > 0 ein Index no(e) existiert, so daß sich ftir alle n ~ no(e) die relativen Häufigkeiten rn (A) vom Grenzwert P(A) um höchstens e unterscheiden. Daher müßte die Ungleichung P(A) - e :::; rn (A) :::; P(A) + e
ftir alle n
~ no(e)
(1.3)
gelten. Es können jedoch Versuchsreihen entstehen, ftir die (1.3) nicht gilt, auch wenn no noch so groß gewählt wird. So kann mit der in Beispiel 1.7 benutzten Münze durchaus einmal eine Serie auftreten, in der die relativen Häufigkeiten nicht in der Nähe von liegen, auch wenn n noch so groß ist, z.B. eine Serie, bei der es immer wieder ein n mit rn (W) ~ 0,55 gibt. Allerdings werden solche Serien bei großen n höchst selten vorkommen. Der Grenzwert lim rn (A) muß also nicht existieren. n -+ 00
4
Wir müssen daher versuchen, die Wahrscheinlichkeiten auf eine andere Art einzuftihren. Da die relativen Häufigkeiten rn (A) mit den Wahrscheinlichkeiten P(A) doch in einer gewissen Beziehung stehen müssen, leiten wir einige Eigenschaften ftir die relativen Häufigkeiten ab . Diese Eigenschaften benutzen wir dann zur axiomatischen Definition der Wahrscheinlichkeit. Mit diesen Axiomen entwickeln wir dann eine Theorie, mit der wir schließlich im sog. Bernoullischen Gesetz der großen Zahlen (s. Abschnitt 1.9) zeigen werden, daß unter gewissen Voraussetzungen für jedes e > 0 Versuchsserien mit Irn (A) - P(A) I > e bei wachsendem nimmer seltener auftreten, daß also (1.3) mit wachsendem no immer häufiger erfüllt ist. Eigenschaften der relativen Häufigkeit:
Aus 0:::; hn (A) :::; n folgt nach Division durch n 0:::; r n (A) :::; 1
Da das sichere Ereignis
ftir jedes A .
n
(1.4)
immer eintritt, gilt (1.5)
8
1. Der Wahrscheinlichkeitsbegriff
Sind A und B zwei unverträgliche Ereignisse, so können bei einer speziellen Versuchsdurchfuhrung nicht beide Ereignisse zugleich, sondern jeweils höchstens eines davon eintreten. Damit gilt fur die absoluten Häufigkeiten hn(A + B)
= hn(A) + hn(B) .
Division durch n liefert hieraus die Gleichung rn (A + B)
= rn (A) + rn (B) .
(1.6)
Sind die Ereignisse A, B nicht unverträglich, so können bei einer Versuchsdurchfuhrung die Ereignisse A und B gleichzeitig eintreten. Dann sind in der Summe h n (A) + h n (B) diejenigen Versuche, bei denen der Durchschnitt An Beintritt, doppelt gezählt, während diese Versuche in hn (A U B) nur einfach mitgezählt werden. Daraus folgt hn (AU B)
= hn(A) + hn(B) -
hn(AB).
Division durch n liefert die Gleichung rn (A U B)
= rn (A) + rn (B) -
rn (AB) .
(1.7)
1.3. Axiomatische Definition der Wahrscheinlichkeit nach Kolmogoroft Fragt man jemanden, der sich nic.h t intensiv mit Wahrscheinlichkeitsrechnung beschäftigt hat, was Wahrscheinlichkeit wirklich bedeutet, so bekommt man Antworten folgender Art: "Ereignisse, die eine große Wahrscheinlichkeit besitzen, treten häufig ein, Ereignisse mit einer kleinen Wahrscheinlichkeit dagegen selten." Oder "Besitzt das Ereignis A eine größere Wahrscheinlichkeit als B, so hat A eine größere Chance, einzutreten als B". Die Wahrscheinlichkeit P(A) eines Ereignisses A wird meistens als Maß fur das Eintreten des Ereignisses A betrachtet, wobei dieses Maß durch einige Eigenschaften erklärt wird, die es offensichtlich erfullt. Ähnliche Antworten erhält man auf die Frage nach den Grundbegriffen der Geometrie: Punkt, Gerade und Ebene . Dort ist es nicht möglich, die entsprechenden Begriffe direkt zu definieren. Zu ihrer Definition benutzt man daher wesentliche Beziehungen zwischen diesen Elementen, sogenannte Axiome. Als Beispiel sei das Axiom "durch zwei verschiedene Punkte geht genau eine Gerade" genannt. Kolmogoroffflihrte 1933 den Wahrscheinlichkeitsbegriffaxiomatisch ein. Es genügt bereits, die in (1.4), (1.5) und (1.6) für die relativen Häufigkeiten abgeleiteten Eigenschaften als Axiome zu postulieren. Aus diesen Axiomen können dann viele weitere Eigenschaften direkt gefolgert werden.
Definition 1.1 (Kolmogoroff). Eine auf einem System von Ereignissen defmierte Funktion P heißt Wahrscheinlichkeit, wenn sie folgende Axiome erfli1lt:
9
1.3. Axiomatische Definition der Wahrscheinlichkeit nach Kolmogoroff
Axiom I : Die Wahrscheinlichkeit P(A) eines Ereignisses A ist eine eindeutig bestimmte, nichtnegative reelle Zahl , die höchstens gleich Eins sein kann, d.h. es gilt 0:$ P(A) :$ 1.
Axiom II: Das sichere Ereignis besitzt die Wahrscheinlichkeit Eins, peil)
=1 .
Axiom III: Für zwei unverträgliche Ereignisse A, B (also mit An B =f/J) gilt P(A + B)
= P(A) + P(B) .
Aus diesen Axiomen lassen sich eine Reihe wichtiger Eigenschaften ableiten, die uns später bei der Berechnung von Wahrscheinlichkeiten sehr nützlich sein werden.
Folgernngen aus den Axiomen: Satz 1.1 Für jedes Ereignis A gilt P(A) = 1 - P(A).
Beweis: Wegen il = A + A folgen aus den Axiomen die Gleichungen 1 =peil) =P(A + A) =P(A) + P(A) und hieraus die Behauptung P(A)
=1 -
P(A) .•
Setzt man A gleich il , so folgt aus Satz 1.1 unmittelbar der Satz 1.2 Das unmögliche Ereignis f/J besitzt die Wahrscheinlichkeit Null, es gilt P(f/J)
=O.
Satz 1.3 Aus AC B folgt P(A) :$ P(B).
Beweis: Wegen AC B gilt AB = A. Damit erhalten wir B =ilB =(A + A) B = AB + AB = A + AB und P(B) =P(A) + P(AB). Wegen P(AB) ~ 0 folgt hieraus schließlich P(B) ~ P(A).
•
Satz 1.4 Für beliebige Ereignisse A und B gilt P(B \ A)
Beweis: Aus B =BA + BA = BA + B \ A folgt die Behauptung P(B \ A) =P(B) - P(BA).
=P(BA) =P(B) - P(BA). P(B) =P(BA) + P(B \ A) und hieraus •
Satz 1.5 Für beliebige Ereignisse A und B gilt P(A U B) = P(A) + P(B) - P(AB).
Beweis: Aus AU B = AB + AB + AB (s. (1.2» folgt P(A U B) =P(AB) + P(AB) + P(AB) =P(A(B + B» + P(AB) = =P(Ail) + P(AB) =P(A) + P(AB) .
(1.8)
Aus B = AB + AB erhält man P(B) =P(AB) + P(AB) oder P(AB) =P(B) - P(AB). Mit dieser Identität folgt aus (1.8) unmittelbar die Behauptung.
•
10
1. Der Wahrscheinlichkeitsbegriff
Definition 1.2. Die Ereignisse AI, A2 , ... , An (n ~ 2) heißen paarweise unvereinbar, wenn jeweils zwei von ihnen nicht zugleich eintreten können, wenn also gilt AjAk =fft für alle i"* k. Die Ereignisse Al, A2 , ••• , An heißen (vollständig) unvereinbar, wenn alle Ereignisse nicht zugleich eintreten können, d.h. wenn AI n A2 n ... n An =f/J gilt. Sind die Ereignisse Al> A 2 , •• • , An paarweise unvereinbar, so sind sie auch (vollständig) unvereinbar. Die Umkehrung braucht nicht zu gelten, wie man aus Bild 1.4 sieht. Die Ereignisse Al> A2 , A 3 können nicht zusammen eintreten. Wegen Al n A2 n A 3 = f/J sind die Ereignisse Al> A 2 , A 3 (vollständig) unvereinbar. Wegen Al A 2 "* f/J sind die Ereignisse Al, A 2 , A 3 dagegen nicht paarweise unvereinbar.
A,
Bild 1.4. Ereignisse
Sind die Ereignisse Al, A2 , ••• , An paarweise unvereinbar, so schreiben wir anstelle der Vereinigung wieder die Summe: n
=AI
LAi j
+ A 2 + .. , + An
= Al
U A2 U ... U An.
=1
Mit Hilfe des Prinzips der vollständigen Induktion läßt sich Axiom III auf die Vereinigung endlich vieler paarweise disjunkter Ereignisse übertragen. Es gilt also der Satz 1.6 Sind die Ereignisse AI, A2 , ••• , An paarweise unvereinbar, so gilt P(A I + A2 + ... + An) =P(A I ) + P(A 2 ) + ... + P(A n). *Bemetkung: Die Vereinigungsbildung kann unmittelbar auf abzählbar unendlich viele Ereignisse Al, A2 , A 3 , .• , übertragen werden. Das Ereignis U Aj tritt genau dann ein, wenn mindestens eines der Ereignisse j
Al, A 2 ,
•••
=1
eintritt.
Bei Systemen, die abzählbar unendlich viele Ereignisse enthalten, muß Axiom III ersetzt werden durch das Axiom IIf' : Sind Al> A2 , Ereignisse, so gilt P(
I
j=1
Aj)
.••
abzählbar unendlich viele, paarweise unvereinbare
= P(A I + A2 + .. .) =P(Ad + P(A2 )
+ ...
=
.I
(=1
P(Ai) .
1.3. Axiomatische Definition der Wahrscheinlichkeit nach Kohnogoroff
11
Bei vielen Zufallsexperimenten sind nur endlich viele verschiedene Versuchsergebnisse möglich. Bezeichnen wir die einzelnen Versuchsergebnisse mit WI, W2 , ... , Wm , so läßt sich das sichere Ereignis, das ja aus allen möglichen Versuchsergebnissen besteht, darstellen durch
n ={WI, W2, ... , w m } .
(1.9)
Die Elementarereignisse {w I}' {W2}, ... , {w m } - daflir schreiben wir auch {Wi}, i = 1,2, .. . , rn-sollen die Wahrscheinlichkeiten P({WI}) = PI, P( {W2}) = P2, . .. , P( {w m }) = Pm besitzen . Wegen Axiom I erfillien die Wahrscheinlichkeiten Pi die Bedingung
o ~ Pi ~ Aus
1
flir i = 1,2, .. . , m.
(1.1 0)
n = {w.} + {W2} + .. . + {w m } folgt wegen Axiom 11 und Satz 1.6 m
1 = PI + P2 + .., + Pm=
L Pi ·
(l.1l)
i =1
Da n nur endlich viele Elemente besitzt, nennen wir n selbst endlich. Jedes zufallige Ereignis A läßt sich als Zusammenfassung von bestimmten Versuchsergebnissen darstellen, z. B. A = {Wil' Wi2 ' .. . , Wir}' A ist also eine sogenannte Teilmenge von n. Aus A = {Wi l } + {Wi2} + ... + {Wir} folgt P(A) = P( {Wil}) + '" + P( {Wir}) = Pi l + Pi 2 + ... + Pi r '
(l.l2)
Die Wahrscheinlichkeit von A ist also gleich der Summe der Wahrscheinlichkeiten derjenigen Elementarereignisse, deren Vereinigung A ist. Bei endlichem n ist wegen (1.12) die Wahrscheinlichkeit flir jedes Ereignis A durch die Wahrscheinlichkeiten Pi der Elementarereignisse {w;} eindeutig bestimmt. Beispiel 1.8. Durch n = {I, 2, 3, 4, 5,6}, PI =P({I}) = 0, I ; P2 =P3 =P4 =Ps =0 ,15; P6 = P( {6}) = 0,3 könnte in einem mathematischen Modell z.B. das Zufallsexperiment beschrieben werden, das im Werfen eines "verfalschten" Würfels besteht. Der entsprechende verfalschte Würfel kann so konstruiert sein, daß in einen Holzwfufel (s. Bild 1.5) an der Seite, auf welcher die Augenzahl I steht, eine Stahl platte eingearbeitet ist. Dabei sei die Stahl platte gerade so dick, daß die Wahrscheinlichkeiten flir das Auftreten der einzelnen Augenzahlen gleich den oben angegebenen Zahlenwerten sind. Die einzelnen Wahrscheinlichkeiten Pi, i = I , 2, ... , 6 hängen natürlich von der Dicke der eingearbeiteten Stahl platte ab. Aussagen über die unbekannten Wahrscheinlichkeiten Pi bei einem verfalschten Würfel zu machen, ist z.B. Holz ein Problem der Statistik. Mit Hilfe einer auf den Axiomen von Kolmogoroffaufgebauten Stahl Theorie werden dort die entsprechenden Aussagen über die (zunächst unbekannten) WahrBild 1.5 scheinlichkeiten abgeleitet. • Verf:ilschter Würfel
12
1. Der Wahrscheinlichkeitsbegriff
*Bemerkung: Die flir endliche il abgeleiteten Eigenschaften können unmittelbar auf Zufallsexperimente übertragen werden, bei denen unendlich viele verschiedene Versuchsergebnisse möglich sind, die aber, wie die natürlichen Zahlen, durchnumeriert werden können. In diesem Fall sagt man, il besitze abzählbar unendlich viele Elemente und stellt il dar durch (1.13) Dabei muß Axiom III durch das Axiom III' ersetzt werden. Bedingung (1.11) geht über in 00 (1.14) p, + P2 + ... + pß + ... = Pi = 1.
I
i=l
Setzt sich A aus abzählbar unendlich vielen Versuchsergebnissen zusammen, d.h. ist A = {WiI'Wi2' ... ,Wi ß ' ••• }, so gilt 00
P(A) = Pi, + Pi2 + ... + Piß + .. . =
I
Pik·
(1.15)
k=l
1.4. Der Begriff der Wahrscheinlichkeit nach Laplace und kombinatorische Methoden zur Berechnung von Wahrscheinlichkeiten Bei einem aus homogenem Material gefertigten Würfel kann man wegen der Symmetrie davon ausgehen, daß keine der Augenzahlen 1,2,3,4,5,6 bevorzugt auftritt. Das bedeutet aber, daß alle Augenzahlen mit gleicher Wahrscheinlichkeit auftreten. Alle sechs Elementarereignisse besitzen somit dieselbe Wahrscheinlichkeit P = i . Wir betrachten allgemein ein Zufallsexperiment, bei dem il aus m verschiedenen Versuchsergebnissen besteht, bei dem sich also das sichere Ereignis darstellen läßt als (m endlich).
(1.16)
Ferner sollen alle m Elementarereignisse {w,}, {W2}, ... , {w rn } dieselbe Wahrscheinlichkeit P besitzen; es gelte also P({wtl)
=P({W2}) =... =P({w rn }) =p.
(1.17)
Zufallsexperimente, welche die Bedingungen (1.16) und (1.17) erftillen, nennen wir
Laplace-Experimente. Aus il = {wtl+ {W2}+ {W3}+ . .. + {w rn } folgt
1 = P(il) = P( {wtl) + ... + P( {w rn }) = p + P + ... + P = m· p und hieraus 1
P=m ·
(1.18)
13
1.4. Der Begriff der Wahrscheinlichkeit nach Laplace
Ein Ereignis A, das aus r verschiedenen Versuchsergebnissen besteht, besitzt die Darstellung A = {Wi I ' Wi2 ' . .. , Wir}' Daraus folgt P(A)
r =P({Wit}) + ... + P({Wi r }) = r· p = m'
Für die Wahrscheinlichkeit P(A) erhalten wir somit r
P(A)
Anzahl der für A giinstigen Fälle
=m= Anzahl der insgesamt möglichen Fälle
~
Inl
(1 .19)
Dabei stellt lAI die Anzahl der in A enthaltenen Versuchsergebnisse dar. Die Gleichung (1 .19), die wir für Laplace-Experimente direkt aus den Axiomen von Kolmogoroff abgeleitet haben, benutzte Laplace (1749-1827) zur Definition der sogenannten klassischen Wahrscheinlichkeit. Voraussetzung für die Anwendbarkeit dieser Regel - das sei nochmals besonders betont - sind die beiden Bedingungen: 1. daß nur endlich viele verschiedene Versuchsergebnisse möglich sind und 2. daß alle Elementarereignisse dieselbe Wahrscheinlichkeit besitzen. Die erste Bedingung allein genügt nicht, wie wir noch in Beispiel 1.10 sehen werden. Beispiel 1.9 {idealer Würfel}. Bei einem aus homogenem Material angefertigten Würfel kann - sofern beim Werfen nicht ,,manipuliert" wird - davon ausgegangen werden, daß alle sechs Elementarereignisse {i}, i = 1,2, ... ,6, dieselbe Wahrscheinlichkeit und damit nach (1.18) die Wahrscheinlichkeit besitzen. Man spricht hier von einem idealen Würfel.
i
Ist G das Ereignis "die geworfene Augenzahl ist gerade", so folgt aus (1.19) P(G) ~ Für das Ereignis M "die geworfene Augenzahl beträgt mindestens 3" erhalten wir P(M) =~ =~ . •
= =!.
Beispiel 1.10. Beim Werfen zweier idealer Würfel berechne man die Wahrscheinlichkeiten, mit denen die einzelnen Augensummen geworfen werden. Zur Berechnung der einzelnen Wahrscheinlichkeiten betrachten wir folgendes Modell: die beiden Würfel werden unterscheidbar gemacht. Ein Würfel sei z.B. weiß, der andere rot. Die einzelnen Versuchsergebnisse können dann dargestellt werden als Paare (i, k), wobei i die Augenzahl des weißen und k die Augenzahl des roten Würfels ist. Die möglichen Paare stellen wir in folgendem Schema übersichtlich dar:
(1,1) (2,1) (3,1) (4,1) (5,1) (6,1)
(1,2) (2,2) (3,2) (4,2) (5,2) (6,2)
(1,3) (2,3) (3,3) (4,3) (5,3) (6,3)
(1,4) (2,4) (3,4) (4,4) (5,4) (6,4)
(1,5) (2,5) (3,5) (4,5) (5,5) (6,5)
(1,6) (2,6) (3,6) (4,6) (5,6) (6,6) .
14
1. Der Wahrscheinlichkeitsbegriff
Wir nehmen an, daß es sich beim Werfen der beiden Würfel um ein Laplace-Experiment handelt, daß also alle 36 Zahlenpaare mit derselben Wahrscheinlichkeit auftreten. Für die einzelnen Augensummen stellen wir die günstigen Fälle und die entsprechenden Wahrscheinlichkeiten in Tabelle 1.1 dar. TabeUe 1.1: Augensumme zweier idealer Würfel Augensumme 2
günstige Fälle (1,1)
Anzahl der günstigen Fälle
Wahrscheinlichkeiten rur die Augensummen
1
36
1
2
3
(2,1); (1,2)
2
36
4
(3,1); (2,2); (1,3)
3
36
3
4
5
(4,1); (3,2); (2,3); (1,4)
4
36
6
(5,1); (4,2); (3,3); (2,4); (1,5)
5
36
5
6
7
(6,1); (5,2); (4,3); (3,4); (2,5); (1,6)
6
36
8
(6,2); (5,3); (4,4); (3,5); (2,6)
5
36
9 10
5
4
(6,3); (5,4); (4,5); (3,6)
4
36
(6,4); (5,5); (4,6)
3
36
3
2
11
(6,5); (5,6)
2
36
12
(6,6)
1
36
1
Für das Ereignis A "die Augensumme beträgt mindestens 6 und höchstens 8" gibt es 16 günstige Fälle. Daher besitzt es die Wahrscheinlichkeit P(A) = ~ = ~. Zur Berechnung solcher Wahrscheinlichkeiten genügt bereits die Kenntnis der Wahrscheinlichkeiten, mit der die einzelnen Augensummen auftreten. Betrachtet man nur die Augensummen als Versuchsergebnisse, so besteht das sichere Ereignis n aus den elf Zahlen 2, 3, ... , 12; es gilt also die Darstellung
n ={2,3,4,5,6,7,8,9, 10, 11, 12}.
(1.20)
Die Wahrscheinlichkeiten der Elementarereignisse erhält man aus der letzten Spalte der Tabelle 1.1. Die einzelnen Elementarereignisse besitzen also nicht mehr alle dieselbe Wahrscheinlichkeit. Wir stellen uns folgendes Experiment vor: in der Klasse 9a werden wiederholt zwei Würfel geworfen. Die Augensummen werden der Klasse 9b mitgeteilt, wobei die Klasse 9b aber nicht erfahren soll, durch welches Zufallsexperiment diese Zahlen entstanden sind. Nach einer gewissen Zeit wird die Klasse 9b auf Grund des ihr gelieferten Zahlenmaterials sicherlich feststellen, daß n die in (1.20) angegebene Darstellung besitzt. Der Schluß, daß aUe Elementarereignisse dieselbe Wahrscheinlichkeit besitzen, wäre hier falsch. Vermutlich wird die Klasse dies bald selbst merken, da ihr z. B. die Zahl 7 wohl wesentlich häufiger geliefert wird als die Zahlen 2 oder 12. •
IS
1.4. Der Begriff der Wahrscheinlichkeit nach Laplace
Bei vielen Zufallsexperimenten kann davon ausgegangen werden, daß es sich um ein Laplace-Experiment handelt, wobei allerdings m als die Anzahl der insgesamt möglichen Fälle nicht sehr einfach anzugeben ist. Zur Berechnung der Zahl mund der Anzahl der flir ein Ereignis A günstigen Fälle benutzt man Methoden aus der Kombinatorik. Wir werden daher einige grundlegende Sätze aus der Kombinatorik behandeln. Kombinatorik
a) Anordnungsmöglichkeiten von n Elementen. Wir betrachten zunächst folgendes Beispiell.ll. Ein Studienanfänger kauft sich zunächst zwei verschiedene Fachbücher. Diese kann er in einem Bücherregal auf zwei verschiedene Arten anordnen. Kauft er sich ein drittes Buch dazu, so gibt es drei Möglichkeiten, dies im Regal zu den anderen beiden Büchern hinzustellen: rechts, links oder in die Mitte. Da er bei jeder der beiden Anordnungsmöglichkeiten der beiden zuerst gekauften Büchel so vorgehen kann, gibt es für drei Bücher insgesamt 2 . 3 verschiedene Anordnungsmöglichkeiten. Ein viertes Buch kann er auf vier (s. Bild 1.6), ein ftinftes auf ftinf Arten hinzustellen, usw. Daher gibt es ftir vier Bücher 1 . 2 ·3 ·4 =24 und ftir ftinf Bücher 1· 2·3·4· S = 120 verschiedene Anordnungsmöglichkeiten. Ist n eine beliebige natürliche Zahl, so erhält man allgemein die Anzahl der verschiedenen Anordnungsmöglichkeiten • ftir n Bücher aus derjenigen flir n - 1 Bücher durch Multiplikation mit n. Nach dem sogenannten Prinzip der vollständigen Induktion folgt daraus, daß man n Bücher auf I· 2' 3· .... (n -I) . n verschiedene Arten anordnen kann. •
non +.
t
Bild 1.6
Das Produkt 1'2·3 ' ... . (n - 1) . n bezeichnen wir mit n! (sprich "n Fakultät "). Anstelle der Bücher in Beispiel 1.11 kann man beliebige andere unterscheidbare Dinge betrachten. Somit gilt der Satz 1.7 n verschiedene Dinge lassen sich unter Berücksichtigung der Reihenfolge auf n! =1 ·2 . ' " . (n -1) . n verschiedene Arten anordnen. Jede Anordnung von n verschiedenen Dingen nennt man eine Permutation. Damit besagt Satz 1.7, daß es flir n verschiedene Dinge genau n! Permutationen gibt. Beispiel 1.12. Bei einer Geburtstagsfeier sollen zehn Personen an einem runden Tisch Platz nehmen. Die Tischordnung wird zufällig ausgelost. Herr Meyer möchte gerne neben Fr!. Schultze sitzen. Man berechne die Wahrscheinlichkeit p, mit der dieses Ereignis ein tritt.
16
L Der Wahrscheinlichkeitsbegriff
Wir numerieren die Plätze von 1 bis 10 durch und wählen als Versuchsergebnisse die 10! möglichen Verteilungen der Personen, von denen wir annehmen, daß sie alle gleichwahrscheinlich sind. Das betrachtete Ereignis tritt z. B. ein, wenn Herr Meyer den Platz 1 und Fr\. Schultze entweder Platz 2 oder Platz 10 erhält. Die übrigen Personen dürfen dabei auf den restlichen Stühlen in beliebiger Reihenfolge sitzen, wofür es 8! verschiedene Anordnungen gibt. Falls Herr Meyer den Platz 1 erhält, gibt es somit 2· 8! günstige Fälle. Dieselbe Anzahl erhält man, wenn Herr Meyer einen anderen Platz einnimmt. Da insgesamt 10 Plätze vorhanden sind, gibt es für das betrachtete Ereignis 1O·2·8! günstige Fälle. Daraus folgt für die gesuchte Wahrscheinlichkeit
P
=
2 ·1O·8! 1O!
2 ·10· 8! 8!·9 · 10
2 9'
Das sichere Ereignis n besteht hier aus den 10! Permutationen. Durch eine andere Wahl von n läßt sich p wesentlich einfacher berechnen und zwar durch folgende Modellvorstellung: Zunächst werde der Platz für Herrn Meyer, danach der für Fr!. Schultze ausgelost. Für Fr!. SchuHze bleiben 9 mögliche Plätze übrig, von denen 2 fUr das betrachtete Ereignis günstig sind. Daraus folgt unmittelbar p = ~ . •
Beispiell.13. Bei einem Gesellschaftsspiel werden 10 Personen in zufalliger Reihen· folge aufgestellt. Mit welcher Wahrscheinlichkeit steht Herr Müller neben seiner Gattin? Als Versuchsergebnisse betrachten wir wieder die 10! möglichen Permutationen. Das betrachtete Ereignis tritt genau dann ein, wenn das Ehepaar Müller eines der 9 Platzpaare (1,2), (2, 3), (3, 4), ... , (8, 9), (9,10) einnimmt, während die übrigen Personen jeweils auf den restlichen 8 Plätzen in beliebiger Reihenfolge stehen dürfen. Da es wegen der Berücksichtigung der Reihenfolge für jedes der 9 Platzpaare 2 Möglichkeiten gibt, erhält man insgesamt 2·9· 8! günstige Fälle. Damit ergibt sich fUr die gesuchte Wahrscheinlichkeit p der Wert 2·9·8! 2·9·8! 2 P=lö!=8!9·1O=1O·
•
Häufig sollen in einer beliebigen Reihenfolge Dinge angeordnet werden, von denen manche gleich sind. Dazu betrachten wir das
Beispiell.14. Auf einem Schiff seien 3 blaue, 2 rote und 4 gelbe Flaggen vorhanden, wobei die gleichfarbigen Flaggen nicht unterscheidbar sind. Alle 9 Flaggen sollen in einer Reihe aufgehängt werden. Auf wieviele verschiedene Arten ist die Bildung unterscheidbarer Anordnungen der Flaggen möglich? Eine dieser Anordnungen ist z.B. B,B,B,R,R,G,G,G,G,
(1.21)
wobei die Symbole B, R, G jeweils für blau, rot bzw. gelb stehen. Werden in einer bestimmten Anordnung jeweils nur gleichfarbige Flaggen untereinander vertauscht,
17
1.4. Der Begriff der Wahrscheinlichkeit nach Laplace
so ist diese neue Anordnung von der ursprünglichen nicht zu unterscheiden. Daher betrachten wir folgendes Hilfsmittel: die Flaggen mit der gleichen Farbe werden durchnumeriert und somit unterscheidbar gemacht. Dadurch erhalten wir 9 verschiedene Flaggen, flir die es insgesamt 9! verschiedene Permutationen gibt. Durch diese Numerierung gehe z.B. (1.21) über in (1.22) Die Permutation (1.23) unterscheidet sich in unserem Hilfsmodell von der in (1 .22) dargestellten, im Ausgangsmodell dagegen nicht. läßt man im Hilfsmittel in einer bestimmten Reihenfolge alle blauen und roten Flaggen fest, während die gelben permutiert werden, so ergeben sich daflir 4! verschiedene Permutationen. Durch Vertauschen der roten erhält man den Faktor 2! und Permutation der blauen Flaggen liefert schließlich den Faktor 3! Damit erhält man aus jeder festen Reihenfolge aus dem Ausgangsmodell 3! 2! 4! verschiedene Permutationen im Hilfsmodell, in dem es insgesamt 9! verschiedene Anordnungen gibt. Für die gesuchte Zahl x gilt somit die Gleichung x ' 3!'2!'4! =9! oder 9! (3 + 2 + 4)! x = 3! 2! 4! = 3! .2! .4! = 1260.
(1.24) •
Wendet man die in dem Beispiel benutzte Methode an auf die Anordnungen endlich vieler Dinge, von denen manche gleich sein dürfen, so erhält man unmittelbar den Satz 1.8 n Dinge, von denen jeweils nJ, n2 , ... , nr gleich sind, lassen sich auf n! verschiedene Arten anordnen. Dabei gilt nt + n2 + ... + nr = n. Bemerkung: Zerfallen die n Dinge in nur zwei Gruppen von jeweils gleichen Dingen, von denen die eine k und die andere somit (n - k) Dinge enthält, so ergibt sich flir die Anzahl der verschiedenen Anordnungsmöglichkeiten n! _n · (n-l) ... (n-k+l)·(n-k)! k! (n - k)! k! . (n - k)! _ n(n-I)(n-2) .. . (n-k+l) 1·2 · 3 ... (k-l)·k Für k! (~!-k)! schreiben wir auch
(~)
(1.25)
(sprich: "n über k").
Die Zahlen (~) heißen Binomialkoeffizienten. Damit diese Zahlen auch flir k = 0 erklärt sind, setzt man O! = 1, woraus (8) = 1 folgt.
18
1. Der Wahrscheinlichkeitsbegriff
Beispiel 1.15. Herr Meyer hat seinen Schlüssel für das Bahnhof-Schließfach verloren. Die Schließfach-Nummer hat er leider vergessen. Er erinnert sich allerdings daran, daß es sich um eine vierstellige Zahl handelt, bei der zwei Ziffern gleich sind und daß als Ziffern die 3, 5 und 7 vorkommen. Wieviele Schließfächer müssen gesperrt werden? Falls die Ziffer 3 in der Schließfach-Nummer zweimal vorkommt, gibt es nach Satz 1.8 4·3·2 4! 2! l! l! = - 2 - = 12 Nummern, die in Frage kommen. Dieselbe Zahl erhält man, falls die 5 bzw. die 7 doppelt vorkommt. Daher müssen 3 ·12 = 36 Schließfächer gesperrt werden. •
b) Auswahlmäglichkeiten aus n Elementen Bei den bisher betrachteten Fällen haben wir alle n Elemente in einer Reihenfolge angeordnet. Häufig nimmt man jedoch nicht alle Elemente , sondern wählt nur eine Teilmenge davon aus. Für eine solche Auswahl zeigen wir folgende 2 Sätze.
Satz 1.9 Aus n verschiedenen Elementen kann man unter Berücksichtigung der Reihenfolge k Stück (1 :$ k :$ n) auf n(n -1)(n - 2) ... (n -k + 1)
(1.26)
verschiedene Arten auswählen.
Beweis: Wir beweisen die Behauptung durch vollständige Induktion über k. 1. Für k = 1 ist die Behauptung richtig, da aus n verschiedenen Elementen eines auf n Arten ausgewählt werden kann. 2. Wir nehmen an, die Behauptung sei für ein k o mit 1 :$ k o :$ n -1 richtig, d.h. ko Elemente können unter Berücksichtigung der Reihenfolge auf n(n -1)· . .. . (n - k o + 1) verschiedene Arten ausgewählt werden. Für die Auswahl des (ko + 1)-ten Elements stehen dann noch n - k o Elemente zur Verfügung. Damit entstehen aus jeder ein::elnen der n (n -1) .... . (n - k o + 1) Auswahlmöglichkeiten für ko Elemente (n - k o) Auswahlmöglichkeiten für ko + 1 Elemente. Somit können ko + 1 Elemente auf n (n -1) ..... (n - k o + l)(n - k o) = n (n - 1) ... (n - ko + 1) [n - (ko + 1) + 1] verschiedene Arten ausgewählt werden. Die Behauptung (1.26) gilt somit auch für k o + 1. 3. Für ko = 1 ist die Behauptung richtig. Nach 2. gilt sie dann aber auch für k o = 2, daraus folgt sie für ko = 3, usw., bis sie schließlich aus ko = n -1 auch für n folgt , womit der Satz bewiesen ist. • Bemerkung: Für k = n werden alle Elemente ausgewählt, was unter Berücksichtigung der Reihenfolge auf n(n -1) ... 2 ·1 = n! verschiedene Arten möglich ist. Die verschiedenen Auswahlmöglichkeiten ergeben aber die verschiedenen Permutationen. Satz 1.7 folgt somit für k = n unmittelbar aus Satz 1.9.
19
1.4. Der Begriff der Wahrscheinlichkeit nach Laplace
Beispiel 1.16. Man bestimme die Anzahl derjenigen vierziffrigen Zahlen, deren Ziffern alle verschieden sind. Die erste Ziffer muß von 0 verschieden sein. Daher kommen rur die erste Ziffer 9 in Frage. Für die zweite Ziffer gibt es 9 Möglichkeiten, rur die dritte noch 8 und rur die vierte noch 7. Damit erhält man rur die gesuchte Anzahl aus Satz 1.9
•
x = 9' 9 · 8· 7 = 4536.
Beispiel 1.17 (erste Ausspielung der Glücksspirale 1971). Die erste Ausspielung der GlücksspiraIe wurde durch das folgende Zufallsexperiment durchgeführt: in einer einzigen Trommel befanden sich 70 gleichartige Kugeln, von denen jeweils 7 mit den Ziffern 0, 1,2, ... ,9 beschriftet waren. Aus der Trommel wurden nach gründlichem Mischen gleichzeitig 7 Kugeln gezogen, aus denen die 7·stellige Gewinnzahl ennittelt wurde. Man berechne die Wahrscheinlichkeiten, mit denen bei der Durchführung des beschriebenen Zufallsexperiment die Zahlen a) 6666666; b) 1234567; c) 7778841 gezogen werden? Zur Berechnung der Wahrscheinlichkeiten nehmen wir an, alle Kugeln seien unterscheidbar, was man durch Durchnumerieren der jeweiligen 7 gleichen Kugeln erreichen kann. Aus den 70 verschiedenen Kugeln können unter Berücksichtigung der Reihenfolge 7 Kugeln auf 70 ·69 ·68·67·66·65· 64 verschiedenen Arten ausgewählt werden. Da insgesamt nur 7 Kugeln mit der Ziffer 6 vorhanden sind, kann die Zahl 6666666 auf 7 ·6·5·4·3·2 · 1 = 7! verschiedene Arten ausgewählt werden. Daraus folgt 7·6·5·4·3·2·1 ~ ~ _ a) P({6666666}) - 70.69.68.67.66.65.64 - 0,83· 10 . b) Da die Zahl 1234567 aus lauter verschiedenen Ziffern besteht, kann jede einzelne Ziffer aus 7 möglichen ausgewählt werden. Es gibt also 7·7·7·7 ·7·7·7 = 7 7 günstige Fälle. Damit erhalten wir P({1234567})
= 70'69 . 68.;; . 66 .65 . 64 = 0,136· 10-6
c) Für die Auswahl der Zahl 7778841 gibt es schließlich 7·6·5·7·6·7·7 mögliche Fälle, woraus P({7778841})
74 '6 2 • 5
= 70.69.68.67.66 . 65.64 =0,715'10
_
7
folgt. Die Zahlen mit lauter verschiedenen Ziffern besitzen bei dieser Ausspielung die höchste, die mit lauter gleichen Ziffern die niedrigste Wahrscheinlichkeit, gezogen zu werden. Aus a) und b) folgt P({1234567}) 7·7·7·7·7 · 7·7 P({6666666}) = 7.6.5.4.3 . 2.1 = 163,40.
20
1. Der Wahrscheinlichkeitsbegriff
Bemerkung: Bei späteren Ausspielungen wurde die Trommel in sieben Fächer unterteilt, wobei in jedem Fach 10 Kugeln mit den Ziffern 0, 1,2, ... ,9 waren. Bei der Ausspielung wurde aus jedem Fach eine Ziffer der 7-stelligen Zahl gezogen. Bei diesem Zufallsexperirnent gibt es 10 7 mögliche Versuchsergebnisse, nämlich die Zahlen 0= 0000000 bis 9999999. Jede bestinunte 7-stellige Zahl kann nur auf eine Art gewonnen werden. Daher besitzen bei dieser Ausspielung alle Zahlen dieselbe Wahrscheinlichkeit p = 1~7' Die Gewinnzahl könnte genauso gut durch das folgende Zufallsexperiment gewonnen wllrden: In einer Trommel befinden sich 10 Kugeln mit den Ziffern 0, 1, ... ,9. Daraus wird eine Kugel zufällig gezogen, wodurch die erste Ziffer der Gewinnzahl ermittelt wird. Die gezogene Kugel wird wieder zurückgelegt und nach gründlichem Mischen wird aus der Trommel zum zweitenmal eine Kugel gezogen, welche die zweite Ziffer der Gewinnzahl ergibt, usw. Der gleiche Vorgang wird also 7-mal durchgeftihrt. • Beispiel 1.18 (Geburtstagsproblem). n Personen werden zufällig ausgewählt. Wie groß ist die Wahrscheinlichkeit dafür, daß mindestens 2 von den ausgewählten Personen an demselben Tag Geburtstag haben? Dabei nehme man an, daß das Jahr 365 Tage hat, die als Geburtstage für jede der n Personen gleich wahrscheinlich sind. Das entsprechende Ereignis bezeichnen wir mit An. Im Falle n ;::: 366 müssen mindestens 2 Personen am gleichen Tag Geburtstag haben. Damit gilt für n ;::: 366. Für n ::; 365 läßt sich die Anzahl der für An günstigen Fälle direkt sehr schwer berechnen. Daher betrachten wir das komplementäre Ereignis An, welches eintritt, wenn alle n Personen an verschiedenen Tagen Geburtstag haben. Numerieren wir die n Personen durch, so kommen für die 1. Person 365, für die zweite 364, für die dritte 363, ., ., für die note 365 - n + 1 Tage in Frage. Für das Ereignis An gibt es somit 365 ·364 ..... (365 - n + 1) günstige Fälle. Insgesamt gibt es 365 n mögliche Fälle. Daraus folgt
_
P(An ) =
365·364· .... (365 --n + 1) 365 n
Nach Satz 1.1 erhalten wir hieraus P(A n ) = 1 -
365 ·364 ·363 ..... (365 - n + 1) 365 n
für n::; 365.
Wir haben die Werte (gerundet) für verschiedene n in der Tabelle 1.2 zusammengestellt. Für n =23 erhält man den (etwas überraschenden) Wert P(A 23 ) "'" 0,507
>1.
•
21
1.4. Der Begriff der Wahrscheinlichkeit nach Laplace
Tabelle 1.2: Wahrscheinlichkeiten beim Geburtstagproblem
n
P(A n }
1 2 3 4 5 6 7 8 9 10 11 12
0.00000000 0.Q0273973 0.00820417 0.01635591 0.02713557 0.04046248 0.05623570 0.07433529 0.09462383 0.11694818 0.14114138 0.16702479 0.19441028 0.22310251 0.25290132 0.28360401 0.31500767 0.34691142 0.37911853 0.41143838 0.44368834 0.47569531 0.50729723 0.53834426 0.56869970 0.59824082 0.62685928 0.65446147 0.68096854 0.70631624 0.73045463 0.75334753 0.77497185 0.79531686 0.81438324 0.83218211 0.84873401 0.86406782 0.87821966 0.89123181
13
14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
n
41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 . 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73
74 75 76 77 78 79 80
P(A n }
n
P(A n }
0.90315161 0.91403047 0.92392286 0.93288537 0.94097590 0.94825284 0.95477440 0.96059797 0.96577961 0.97037358 0.97443199 0.97800451 0.98113811 0.98387696 0.98626229 0.98833235 0.99012246 0.99166498 0.99298945 0.99412266 0.99508880 0.99590957 0.99660439 0.99719048 0.99768311 0.99809570 0.99844004 0.99872639 0.99896367 0.99915958 0.99932075 0.99945288 0.99956081 0.99964864 0.99971988 0.99977744 0.99982378 0.99986095 0.99989067 0.99991433
81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113
0.99993311 0.99994795 0.99995965 0.99996882 0.99997600 0.99998159 0.99998593 0.99998928 0.99999186 0.99999385 0.99999537 0.99999652 0.99999740 0.99999806 0.99999856 0.99999893 0.99999922 0.99999942 0.99999958 0.99999969 0.99999978 0.99999984 0.99999988 0.99999992 0.99999994 0.99999996 0.99999997 0.99999998 0.99999998 0.99999999 0.99999999 0.99999999 1.00000000
22
1. Der Wahrscheinlichkeitsbegriff
Satz 1.10 Aus n verschiedenen Elementen können ohne Berücksichtigung der Reihenfolge k Stück (1 ::; k ::; n) auf (
n) n! n(n-l) .. . (n-k+2)(n-k+l) k =k!(n-k)!= 1·2·3· . .. ·(k-l)·k
verschiedene Arten ausgewählt werden. Dabei gilt O! = 1.
Beweis: Die Behauptung des Satzes leiten wir aus Satz 1.9 mit einer Methode ab, die der in Beispiel 1.14 (für r = 2) benutzten sehr ähnlich ist. Die Anzahl der verschiedenen Auswahlmöglichkeiten ohne Berücksichtigung der Reihenfolge bezeichnen wir mit x. Aus jeder bestimmten Auswahlmöglichkeit ohne Berücksichtigung der Reihenfolge erhalten wir durch Permutationen k! verschiedene Auswahlmöglichkeiten unter Berücksichtigung der Reihenfolge. Aus Satz 1.9 folgt daher für x die Gleichung x· k! = n(n -1) ... (n - k + 1) und hieraus x =
n · (n-l) ... (n-k+l) k!
(1.27)
Erweitert man den Bruch auf der rechten Seite der Gleichung (1.27) mit (n - k)! = (n - k)(n - k - 1) ... 2·1, so erhält man die Behauptung n! (n) x = k! (n - k)! = k .
•
Beispiel 1.19_ Bei einer Feier stößt jeder der 8 Teilnehmer mit dem Weinglas mit jedem Teilnehmer an. Wie oft klingen dabei die Gläser? Aus 8 Personen können 2 (ohne Berücksichtigung der Reihenfolge) auf (~) Arten ausgewählt werden. Damit erhält man für die gesuchte Anzahl den Wert x=(~)=~:~=4·7=28. •
c) Das Urnenmodell I
Satz 1.11 Eine Urne enthalte N Kugeln, von denen M schwarz und die restlichen N-M weiß sind. Dabei gelte I::; M < N. Aus der Urne werden n (n ::; N) Kugeln zufällig herausgegriffen, wobei die einzelnen Kugeln nach dem entsprechenden Zug nicht zurückgelegt werden. Sofern es sich bei dem Ziehen der Kugeln um ein Laplace-Experiment handelt, gilt für die Wahrscheinlichkeit Pk, unter den n gezogenen Kugeln genau k schwarze zu finden, die Gleichung Pk
=
(~) (~~~) (~)
für 0::; k::; min(M, n) .
1.4. Der Begriff der Wahrscheinlichkeit nach Laplace
23
Beweis: Ein Versuchsergebnis besteht aus n Kugeln, die aus der Menge der N Kugeln ausgewählt werden, wobei es auf die Reihenfolge nicht ankommt. Daher gibt es insgesamt (~) mögliche Fälle. Aus den M schwarzen Kugeln lassen sich k auf (~) verschiedene Arten auswählen. Zu jeder bestimmten Auswahl der k schwarzen Kugeln gibt es (~ =~) verschiedene Möglichkeiten, die restlichen n - k weißen Kugeln aus der Menge der weißen Kugeln auszuwählen. Für das Ereignis A~ "unter den n gezogenen Kugeln befmden sich genau k schwarze" gibt es somit (k)(~ =~) günstige Fälle. Daraus folgt die Behauptung
• Beispiel 1.20. In einer Kiste befinden sich 10 Werkstücke, von denen 4 fehlerhaft sind. Dabei lassen sich die Fehler nur durch genaue tJberprüfung des Werkstücks feststellen . Aus der Kiste werden 2 Werkstücke zufallig entnommen. Unter der Annahme, daß es sich dabei um ein Laplace-Experiment handelt, berechne man die Wahrscheinlichkeit dafür, daß sich unter den 2 ausgewählten Werkstücken genau k fehlerhafte befinden, für k =0, 1,2. Durch die Zuordnung: fehlerhaftes Werkstück +-+ schwarze Kugel brauchbares Werkstück +-+ weiße Kugel können wir mit M =4, N - M =6, N =10, n =2 die in Satz 1.1 I abgeleitete Formel benutzen und erhalten wegen (\0) =45 für die gesuchten Wahrscheinlichkeiten der Reihe nach die Werte
(i)(~)
4 ·6
(~)(~)
6 .I
8
PI
= ~=4s=i5'
P2
= 45=45"
•
Beispiel 1.21 (Zahlenlotto ,,6 aus 49"). a) Wieviele Möglichkeiten gibt es, von 49 Zahlen 6 anzukreuzen? b) Unter der Voraussetzung, daß es sich bei der Lotto-Ausspielung um ein LaplaceExperiment handelt, berechne man die Wahrscheinlichkeiten, mit denen man in einer Reihe 6 richtige, 5 richtige und Zusatzzahl, 4 richtige bzw. 3 richtige Zahlen angekreuzt hat. Für die Anzahl der möglichen Fälle erhalten wir
( 49) 6
= 49 ·48 ·47 ·46 ·45 ·44 = 13983816. 1·2·3·4·5·6
24
1. Der Wahrscheinlichkeitsbegriff
Bei der Ausspielung werden von den 49 Zahlen 6 "richtige" sowie eine Zusatzzahl gezogen. Für das Ereignis ,,6 richtige Zahlen sind getippt" gibt es somit nur einen günstigen Fall. Daher gilt
P(6 "richtige")
= 13 9!3 816 = 0,715.10- 7 •
Um ,,5 richtige" mit Zusatzzahl getippt zu haben, müssen die Zusatzzahl sowie von den 6 "richtigen" 5 Zahlen angekreuzt sein, wofiir es (~) verschiedene Möglichkeiten gibt. Daraus folgt P(5 "richtige" und Zusatzzahl)
= 13;l;816
139;3816
=
0,429 Bei 5 "richtigen" ohne Zusatzzahl muß anstelle der Zusatzzahl eine der 42 nichtgezogenen Zahlen angekreuzt sein. Damit gilt (6) 42 252 4 P(5 "nc . h tlge ' " 0 hn e Zusatzz ahl) -13983816 - 5' 13983816 -- 0 , 180 '10- . =
'10- 6 •
Da bei weniger als 5 "richtigen" die Zusatzzahl keine Rolle mehr spielt, erhalten wir
P(4 "richtige")
=
P(3 "richtige")
=
(ÜCi) 13983816 (~)(4l)
13983816
13545 13 983 816
0,969 .10-3 ,
246820 13 983 816
0,01765.
•
d) Das Urnenmodell /I: Satz 1.12 Aus der in Satz 1.11 beschriebenen Urne werden n Kugeln einzeln gezogen, wobei jede gezogene Kugel vor dem nächsten Zugwieder in die Urne zurückgelegt wird. Handelt es sich dabei um ein Laplace-Experiment, so gilt ftir die Wahrscheinlichkeit, unter den n gezogenen Kugeln genau k schwarze zu finden
fUr k =0, I, ... , n . Beweis: Wir numerieren die schwarzen und die weißen Kugeln durch. und mdchen sie somit unterscheidbar. Dann besteht jedes Versuchsergebnis aus einem n-Tupel, wobei an der Stelle i das Symbol der beim i-ten Zug gezogenen Kugel steht. Die Reihenfolge spielt dabei eine Rolle. Ein Elementarereignis ist z. B. {(SI, S2 , ... Sk; Wb W1 , ... , Wn-k)}. Da bei jedem der n Züge N Kugeln zur Auswahl stehen, gibt es insgesamt N n verschiedene Elementarereignisse. Mit Ak bezeichnen wir das Ereignis "unter den n gezogenen Kugeln befinden sich"k schwarze". Von den n Komponenten des n-Tupels wählen wir k aus, was auf (~) verschiedene Arten möglich ist. Für das Ereignis, daß bei den entsprechenden k Zügen jeweils eine schwarze und bei den restlichen n - k Zügen jeweils eine weiße Kugel gezogen wird, gibt es Mk(N -Mt- k günstige Fälle. Somit gibt es fUr das Ereignis Ak insges3uit (~)Mk(N - M)n-k günstige Fälle.
25
1.5. Geometrische Wahrscheinlichkeiten
Daraus folgt
• Bemerkung: Beim Urnenmodell I können entweder alle Kugeln zugleich oder einzeln gezogen werden, wobei bei der "Einzelziehung" die gezogene Kugel vor dem nächsten Zug nicht wieder zurückgelegt werden darf. Daher ändert sich nach jedem Zug der Urneninhalt, und somit auch die Wahrscheinlichkeit, eine schwarze Kugel zu ziehen. Beim Urnenmodell II dagegen liegt bei jedem Zug dieselbe Konstellation vor. Bei jedem Zug ist daher die Wahrscheinlichkeit, eine schwarze Kugel zu ziehen, gleich ~. Das entsprechende Zufallsexperiment setzt sich also hier aus n gleichen Einzelexperimenten zusammen. 1.5. Geometrische Wahrscheinlichkeiten Bevor wir allgemein erklären, was wir unter einer geometrischen Wahrscheinlichkeit verstehen, betrachten wir zwei einftihrende Beispiele. Beispiel 1.22. Mit weIcher Wahrscheinlichkeit steht der große Zeiger einer stehengebliebenen Uhr zwischen 0 und 4? Nach Bild 1.7 können die Versuchsergebnisse entweder durch den Winkel
•
Bild 1. 7
Beispiel 1.23. An einem Stab der Länge a werden zufällig und unabhängig voneinander zwei Stellen markiert. An diesen Stellen wird der Stab durchgesägt. Mit welcher Wahrscheinlichkeit läßt sich aus den so gewonnenen Stücken ein Dreieck bilden?
26
1. Der Wahrscheinlichkeitsbegriff
Die zuerst markierte Stelle bezeichnen wir mit x, die andere mit y. Die Versuchsergebnisse können somit durch die Zahlenpaare (x, y) mit 0 ~ x, y ~ a dargestellt werden. n ist also ein Quadrat mit der Seitenlänge a (s. Bild 1.8). Damit aus den Teilstücken ein Dreieck gebildet werden kann, muß der Stab in drei Teile zerlegt werden, wobei wegen der sogenannten Dreiecksungleichung jedes der drei Teilstücke kürzer sein muß als die beiden anderen zusammen. Um alle günstigen Fälle zu erhalten, machen wir folgende Fallunterscheidungen. 1. Fall: x
o
< y.
I x
a+---------~---------,
I
a
Y
Bild 1.8. Geometrische Wahrscheinlichkeiten
L--------- ~--------~------~_x Q
2"
a
Damit aus den Teilstücken ein Dreieck gebildet werden kann, müssen wegen der obigen Bemerkung folgende Bedingungen erfIillt sein
1. x< a - x.
2. y-x<x+a-y.
3. a-y < y.
Daraus folgen die Bedingungen a
x<2";
a
y<x+2";
a
Y>2".
(1.28)
Sämtliche Punkte (x, y), deren Koordinaten die Bedingung (1.28) erfIillen, liegen im Innem des in Bild 1.8 eingezeichneten Dreiecks D 1 • 2. Fall: y < x_ Durch Vertauschung der Zahlen x und y erhalten wir aus (1.28) unmittelbar die Bedingung (1.29) Alle Punkte, deren Koordinaten die Bedingungen (1.29) erfIillen, liegen im Innem des Dreiecks D2 . Wir nehmen an, daß die Wahrscheinlichkeit dafür, daß die Versuchsergebnisse im Innern eines Dreiecks liegen, proportional zur Dreiecksfläche ist. Dann erhalten wir für die gesuchte Wahrscheinlichkeit p den Zahlenwert
l.!!..!!.+l . !!..!!. p=
222222
1
4·
•
27
1.5. Geometrische Wahrscheinlichkeiten
Anstelle des Intervalls [0, 2 r1T 1aus Beispiel 1.22 betrachten wir ein beliebiges Intervall I mit der Länge L(I). Ist A ein Teilintervall von I mit der Länge L(A), so betrachten wir die durch L(A) (J .30) P(A) = L(I) erklärte Funktion P. Sind A, B zwei disjunkte Intervalle, so folgt aus der Additivität der Länge von Intervallen die Gleichung P(AUB)=
L(A U B) L(A) L(B) L(I) = L(I) + L(I) =P(A)+P(B) ftir AB=~.
(1.31)
Durch das Prinzip der vollständigen Induktion kann diese Gleichung unmittelbar auf die Vereinigung endlich vieler paarweise disjunkter Teilintervalle übertragen werden. Es gilt also P(A 1 U A 2 U '" U An) = P(A 1 ) + P(A 2 ) + . .. + P(A n) für Ai Ak = ~. i
(1.32)
1 k.
Die durch (J .30) erklärte Funktion erfüllt somit die Axiome von Kolmogoroff, wenn n das Intervall I und das unmögliche Ereignis ~ gleich der leeren Menge ist. Aus der Definitionsgleichung (1.30) folgt unmittelbar, daß jedes Elementarereignis {x} die Wahrscheinlichkeit 0 besitzt. Die Definitionsgleichung (1.30) wird man vor allem dann zur Berechnung von Wahrscheinlichkeiten benutzen, wenn man davon ausgehen kann, daß kein Punkt des Intervalls I bevorzugt auftritt. Besitzen alle Elementarereignisse {x} mit x E I dieselbe Wahrscheinlichkeit p, so muß p = 0 sein, da sonst aus P ({x}) = p > 0 die Identität P(I) = 00' p = 00 folgen würde. Da einpunktige Ereignisse die Wahrscheinlichkeit 0 besitzen, ist es gleichgültig, ob man offene, halboffene oder abgeschlossene Intervalle betrachtet. Anstelle des Quadrates aus Beispiel 1.23 betrachten wir allgemein ein Gebiet G der Zahlenebene mit dem Flächeninhalt F (G). Ist A ein beliebiges Teilgebiet von G mit existierendem Flächeninhalt F (A), so wird wegen der Additivität des Flächeninhalts durch P(A)
F(A)
= F(G)
(1.33)
auf gewissen Teilgebieten von G eine Wahrscheinlichkeit erklärt. Dabei besitzt jeder Kurvenzug (z. B. ein Geradenstück) die Wahrscheinlichkeit Null. Daraus folgt jedoch nicht, daß kein Punkt auf diesem Kurvenzug eintreten kann. So kann in Beispiel 1.23 durchaus der Fall eintreten, daß das Versuchsergebnis (x, y) auf dem Rand des Dreiecks D 1 liegt. Die Menge der Punkte auf den Dreiecksseiten ist im Vergleich zur Gesamtmenge G vernachlässigbar. Daher wird das Versuchsergebnis höchst selten (d.h. fast nie) auf dem Rand des Dreiecks D 1 bzw. D2 liegen.
Definition 1.3. Die durch (1.30) auf Intervallen der Zahlengeraden bzw. durch (1.33) auf Teilgebieten der Zahlenebene definierten Wahrscheinlichkeiten, heißen geometrische Wahrscheinlichkeiten.
28
1. Der Wahrscheinlichkeitsbegriff
Bemerkung: Durch Volumenberechnung lassen sich entsprechend geometrische Wahrscheinlichkeiten im dreidimensionalen Raum erklären. Beispiel 1.24 (das Nadelproblem von Button). In der Ebene seien parallele Geraden gezogen, die voneinander den Abstand d haben. Auf diese Ebene werde zufallig eine Nadel der Länge I geworfen, wobei I < d sei. Mit welcher Wahrscheinlichkeit schneidet die Nadel eine der eingezeichneten Geraden? x sei der Abstand des Mittelpunktes der Nadel von derjenigen Geraden, die ihm am nächsten liegt, und .p der Winkel, den die Nadel mit dieser Geraden einschließt (s. Bild 1.9). Für jedes Versuchsergebnis (x,.p) gilt damit 0 :S x :S ~ und 0 :S.p :S 11. Alle möglichen Punkte (x , .p) liegen daher in dem in Bild 1.10 eingezeichneten Rechteck. Die geworfene Nadel schneidet eine der gezeichneten Geraden, wenn die Bedingung x:s sin.p erftillt ist, wenn also der Punkt (x,.p) in dem schraffierten Bereich des Bildes 1.1 0 liegt.
4
Die schraffierte Fläche besitzt den Inhalt F(A) =
"
"
o
0
S~ sin.p d.p = ~ (- cos.p) I = I.
Wird das Experiment so durchgefUhrt, daß kein Punkt (x , .p) des Rechtecks bevorzugt auftritt, so erhalten wir nach (1.33) ftir die gesuchte Wahrscheinlichkeit den Wert F(A) I 2/ P = F(G) = - d = 11 d . 11 .
2
r
d
'f lT k - - - -G .,----,
d ~~--r_------~--------_x
I
"2 Bild 1.9
Bild 1.10
29
1.6. Bedingte Wahrscheinlichkeiten und unabhängige Ereignisse
Führt man qieses Experiment n-mal durch (n groß), so gilt flir die relative Häufigkeit r n (A) der Versuche, bei denen die Nadel eine Gerade schneidet, 21
rn(A)~1Td'
Damit kann die Zahl
1T
•
näherungsweise bestimmt werden .
Bemerkung: Geometrische Wahrscheinlichkeiten dürfen nur dann benutzt werden, wenn aus den Durchftihrungsbestimmungen des Zufallsexperiments folgt, daß die Wahrscheinlichkeit flir ein bestimmtes Teilgebiet proportional zum Flächeninhalt ist. Es darf also nicht zwei verschiedene Gebiete mit gleichem Flächeninhalt geben, so daß eines davon gegenüber dem anderen bevorzugt auftritt. Wird z.B. ein Stab der Länge a zufallig durchgebrochen und wird danach eines der Teilstücke zuHillig ausgewählt und wiederum durchgebrochen, so unterscheidet sich das Zufallsexperiment von dem in Beispiel 1.23 beschriebenen völlig. Die Wahrscheinlichkeit daflir, daß man aus den Teilstücken ein Dreieck bilden kann, lautet hier (vgl. Praxis der Mathematik 1974 (3), Problem P533) p ~ 0,193 .
1.6. Bedingte Wahrscheinlichkeiten und unabhängige Ereignisse Wir betrachten zunächst das Beispiel 1.25. Für einen Betriebsrat soll eine Person nachgewählt werden. Dabei kandidieren 5 Frauen und 8 Männer. Von den Kandidaten stehen 3 Frauen und 3 Männer im Angestelltenverhältnis, während die restlichen Kandidaten Arbeiterinnen bzw. Arbeiter sind. Durch diese Angaben kann die Menge der Kandidaten nach zwei Merkmalen (weiblich - männlich ; angestellt - Arbeiter) in folgendem Schema eingeteilt werden: angestellt
Arbeiter
Zeilen summen
weiblich
3
2
5
männlich
3
5
8
Spaltensummen
6
7
13
Wir betrachten folgende Ereignisse: A "die gewählte Person ist angestellt" M "die gewählte Person ist männlich". TJnter der Annahme, daß es sich bei der Wahl um ein Laplace-Experiment handelt, erhalten wir die Wahrscheinlichkeiten P(A)
6
= 13;
P(M)
8
=13;
Nach der Wahl und vor Veröffentlichung des Wahlergebnisses ist bekannt geworden, daß ein Mann gewählt wurde. Damit kommt als gewählter Vertreter nur einer der
30
I. Der Wahrscheinlichkeitsbegriff
8 männlichen Kandidaten in Frage. Die Wahrscheinlichkeit, daß davon ein Angestellter gewählt wurde, beträgt somit ~. Dies ist die Wahrscheinlichkeit ftir das Ereignis ,,A tritt ein, unter der Bedingung, daß M eingetreten ist." Bezeichnen wir dieses Ereignis mit AlM, so erhalten wir fUr die sogenannte bedingte Wahrscheinlichkeit den Wert P(A/M) =~. Dieser Wert ist von P(A) verschieden. Für P(A/M) gilt in diesem speziellen Beispiel die Gleichung P(A/M) = ~ =
3
13 = p(An M) 8!. P(M)
(1.34)
•
13
Wir betrachten nun zwei beliebige Ereignisse A und B mit P(B) > O. Mit AlB bezeichnen wir das Ereignis ,,A tritt ein unter der Bedingung, daß B eingetreten ist." Um dem Ereignis AlB eine Wahrscheinlichkeit sinnvoll zuzuordnen, leiten wir zunächst eine wesentliche Eigenschaft ftir die relative Häufigkeit des Ereignisses AlB ab, die wir dann wie bei den Axiomen von Kolmogoroff zur Definition von P(A/B) benutzen werden. In einer Versuchsserie vom Umfang n seien die Ereignisse A, B, AB h n (A), h n (B) bzw. h n (AB}mal eingetreten. Dabei gelte h n (B) > O. Wir betrachten jetzt nur noch diejenigen Versuche aus der Gesamtserie, bei denen B eingetreten ist. In dieser Teilserie vom Umfang h n (B) ist das Ereignis A jeweils eingetreten, wenn der Durchschnitt AB eingetreten ist. Somit besitzt das Ereignis AlB in der Teilserie die relative Häufigkeit r n (AlB)
hn(AB)
= hn(B)
.
Division des Zählers und Nenners durch n liefert die Identität r n (AlB)
=
hn(AB) -nhn(B)
=
r n (AB) r n (B)
.
(1.35)
n
Diese Eigenschaft gibt Anlaß zur Definition 1.4: A und B seien zwei beliebige Ereignisse mit P(B) die durch P(A/B)
=
P(AB) P(B)
>O. Dann heißt (1.36)
definierte Zahl P(A/B) die bedingte Wahrscheinlichkeit von A unter der Bedingung B.
Beispiel 1.26. Das in Beispiel 1.20 beschriebene Zufallsexperiment werde folgendermaßen durchgeführt: ohne zwischenzeitliches Zurücklegen werde zweimal hintereinander je ein Werkstück zuflillig herausgegriffen. Dann läßt sich die Wahrscheinlichkeit Po, daß beide Werkstücke brauchbar sind, mit bedingten Wahrscheinlichkeiten berechnen. B sei das Ereignis "das zuerst gezogene Werkstück ist brauchbar" und A das Ereignis "das im zweiten Zug erhaltene Werkstück ist brauchbar". Damit gilt Po =P(AB).
31
1.6. Bedingte Wahrscheinlichkeiten und unabhängige Ereignisse
Aus (J .36) folgt durch Multiplikation mit P(B) die Gleichung P(AB)
= P(A/B) . P(B).
(1.37)
Ist das Ereignis B eingetreten, so sind für den zweiten Zug noch 5 brauchbare und 4 fehlerhafte Stücke vorhanden. Damit erhalten wir fUr das Ereignis A/B die Wahrscheinlichkeit P(A/B) =~ . Mit P(B) = folgt aus (1.37) fUr die gesuchte Wahrscheinlichkeit Po =P(AB) =~ ·10= 3. •
&
Wie in diesem Beispiel sind häufig die beiden Wahrscheinlichkeiten P(A/B) und P(B) bekannt, während die Wahrscheinlichkeit P(AB) berechnet werden soll. Zur Berechnung eignet sich die sogenannte Multiplikationsgleichung (J .37). Diese Gleichung folgt fUr P(B) > 0 unmittelbar aus der Definition der bedingten Wahrscheinlichkeit. Sie gilt jedoch auch rur P(B) =O. Satz 1.13 (Multiplikationssatz) Für zwei beliebige Ereignisse A und B gilt P(AB) = P(A/B) . P(B).
( 1.38)
Beweis: l. Fall: P(B) = O. Wegen AB C B gilt nach Satz 1.3 die Ungleichung o ~ P(AB) ~ P(B) =0, d. h. P(AB) =O. Damit verschwinden beide Seiten von (1.38).
2. Fall: P(B) > O. Hier folgt die Behauptung unmittelbar aus der Definitionsgleichung (1.36), womit der Satz bewiesen ist.
•
Mit A =A 3 , B =A2 Al erhalten wir aus (1.38) die Identität P(A 3 A2 Al) = P(A 3 / A2 Al) P(A 2 Al) und hieraus mit A = A2 , B = Al die Gleichung P(A 3 A2 Al)
=P(A 3 / A2 Al) P(A 2 / Al) P(A I) .
( 1.39)
Durch das Prinzip der vollständigen Induktion kann (1.39) auf den Durchschnitt von n Ereignissen übertragen werden. Es gilt also
( 1.40)
Für ein festes B erfüllt P(A/B) folgende Eigenschaften
o ~ P(A/B) ~ P(B/B)
(1.41)
I rur alle A (wegen P(AB) ~ P(B».
P(BB)
P(B)
= P(B) =P(ß) = I.
P«A) + A2 )/B)
=
P«A I + A2 ) B) P(B)
( 1.42)
=
P(A I B + A2 B) P(B)
= P(AI/B) + P(A 2 /B)
für Al A2
=
P(A I B) P(A 2 B) P(B) + P(B)
= f/J,
=
(1.43)
32
I. Der Wahrscheinlichkeitsbegriff
wobei (1.43) nach Axiom III' auch für Vereinigungen abzählbar vieler paarweise unvereinbarer Ereignisse gilt. Hält man B fest und läßt A variieren, so entsprechen die Gleichungen (1.41) -(l.43) den drei Axiomen von Kolmogoroff, wobei anstelle des sicheren Ereignisses n hier das Ereignis B steht. Das ist nicht verwunderlich, da bei dem Ereignis AlB ja vorausgesetzt wurde, daß B eingetreten ist. Wegen P(B/B)
= P~~~) = ~~; = 0
kann in diesem Modell B als das sichere Ereignis und B
(und somit alle Teilereignisse von B) als unmögliches Ereignis interpretiert werden. Damit gilt der Satz 1.14 Für ein fest gewähltes Ereignis B mit P(B) > 0 stellt die durch PB(A) =P(A/B) erklärte Funktion PB eine Wahrscheinlichkeit dar, welche die Bedingung PB(ß) =0 erftillt. Bevor wir den Begriff der Unabhängigkeit von Ereignissen einführen, betrachten wir das
Beispiel l.27. A sei das Ereignis "ein Mensch bekommt Lungenkrebs" und B das Ereignis "ein Mensch ist Raucher". Hat das Rauchen keinen Einfluß auf Lungenkrebs, so müßte in der Gruppe der Raucher und der Nichtraucher der prozentuale Anteil derjenigen Personen, die Lungenkrebs bekommen, ungeflihr gleich sein. Für große n müßte also die Näherung gelten ( 1.44) Diese Eigenschaft benutzen wir zur Definition 1.5: Für das Ereignis B gelte 0 < P(B)"':: 1. Dann heißt das Ereignis A (stochastisch) unabhängig von B, wenn gilt P(A/B) = P(A/B).
(1.45)
Durch diese Definition wird der Begriff der Unabhängigkeit, der im täglichen Sprachgebrauch benutzt wird, auf eine natürliche Art auf das wahrscheinlichkeitstheoretische (stochastische) Modell übertragen. Gleichzeitig folgt aus der Definition, daß mit A von Bauch A von B (stoch.) unabhängig ist. Wählt man aus einer Versuchsreihe vom Umfang n diejenigen Versuche aus, bei denen das Ereignis B eingetreten ist, so wird dadurch die Gesamtreihe in zwei Teilreihen eingeteilt. Sind in beiden Teilreihen die relativen Häufigkeiten r n (AlB) und r n (AlB) ungefähr gleich, so ist die relative Häufigkeit des Ereignisses A in der Gesamtserie nach den Rechengesetzen der Prozentrechnung ebenfalls ungefähr gleich diesen Werten. Aus (1.44) folgt somit rn(A) "" rn (AlB) "" rn (AlB).
(1.46)
Daher wird man vermuten,daß aus (l.45) die Identität
P(A)
=P(A/B) =P(A/B)
(1.47)
33
1.6. Bedingte Wahrscheinlichkeiten und unabhängige Ereignisse
folgt und umgekehrt. Daß diese Vermutung richtig ist, zeigen wir im folgenden Satz 1.1S Das Ereignis A ist von B mit 0 hängig, wenn gilt P(A/B)
< P(B) < I genau dann (stochastisch) unab-
= P(A).
(I.48)
Beweis: Wir müssen zeigen, daß aus (1.45) die Gleichung (1.48) folgt und umgekehrt. a) Wir nehmen an, es gelte P(A/B) =P(A/S). Dann folgt aus A = AB + AB die Gleichung P(A) =P(AB) + P(AS) . Auf die beiden Summanden wenden wir jeweils den Multiplikationssatz an und erhalten wegen P(A/S) = P(A/B) die Gleichungen
P(A)
=P(A/B) P(B) + P(A/S) peS) =P(A/B) [P(B) + P(S)] = P(A/B).
Aus (1.45) folgt also (I .48). b) Umgekehrt gelte P(A/B) =P(A). Dann erhalten wir aus (1.36) und Satz 1.4 _ P(A/B)
=
P(AS) P(B)
=
P(A \ B) peS)
=
P(A) - P(AB) P(B)
P(A) - P(A I B) P(B) = P(A) - P(A) P(B) P(B) P(A) (I - P(B» P(B) Damit gilt P(A/S) =P(A) der Satz bewiesen ist.
peS) P(A) peS) = P(B)
=P(AI B),
= P(A) .
also die Definitionsgleichung (l.45), womit •
Satz 1.16 a) Das Ereignis A ist vom Ereignis B mit 0< P(B) < I genau dann (stoch.) unabhängig, wenn gilt P(AB) = P(A)· P(B).
(1.49)
b) Ist A mit 0< P(A) < 1 (stoch.) unabhängig von B mit 0< P(B) < I, dann ist auch B (stoch.) unabhängig von A. Beweis: a) Nach Satz 1.15 ist das Ereignis A von B genau dann (stoch.) unabhängig, wenn gilt P(A) =P(AI B). Aus der Definitionsgleichung (1.36) der bedingten Wahrscheinlichkeit folgt damit
P(A)
P(AB)
= P(AI B) = P(B)
P(AB)
und hieraus
= P(A) P(B) .
Die Gleichungen (1.48) und (1.49) sind daher äquivalent.
34
1. Der Wahrscheinlichkeitsbegriff
b) Diese Behauptung folgt wegen AB
•
= BA unmittelbar aus Teil I .
Die drei Gleichungen (1.45), (1.48) und (1.49) sind somit völlig gleichwertig. Aus einer von ihnen folgt die Gültigkeit der beiden anderen. Daher könnte jede von ihnen als Definitionsgleichung fUr die (stochastische) Unabhängigkeit benutzt werden. In Beispiel 1.25 sind die Ereignisse A und M nicht (stoch.) unabhängig, P(A/M) =~ die Gleichung (1.48) nicht erfüllt ist. Ereignisse, da wegen P(A) = die nicht (stoch.) unabhängig sind, nennt man (stach.) abhängig.
-&,
Beispiel 1.28 (vgl. Bsp. 1.10). Beim Werfen eines weißen und eines roten Würfels werde ein Laplace-Experiment durchgeflihrt . Dabei betrachten wir folgende Ereignisse : Wi Rk A B C D
"der weiße Würfel zeigt die Augenzahl i", i = I, 2, ... ,6; "der rote Würfel zeigt die Augenzahl k", k = 1,2, ... ,6; "die Augenzahl des weißen Würfels ist gerade"; "die Augenzahl des roten Würfels ist ungerade"; "die Augensumme ist gerade"; "die Augensumme ist ungerade".
Durch Abzählen der günstigen Fälle erhalten wir aus der in Beispiel 1.10 angegebenen Tabelle 1.1 unmittelbar die Wahrscheinlichkeiten
=P(Rk) =~ =L P(W; Rk) =J'6 =P(B) =P(C) =P(D) =~ ; P(AB) =P(AC) =P(BC) =16 =! ; P(CD) =O. P (W;)
1 ~ i, k ~ 6;
P(A)
Für jedes Paar (i, k) sind wegen P(WiR k ) = P(W i) P(R k ) die beiden Ereignisse Wi und R k (stoch.) unabhängig. Dasselbe gilt jeweils ftir die Ereignisse A, B; A, C und B, C. Die Ereignisse C und D sind wegen P(CD) = 0 f P(C) P(D) nicht stochastisch unabhängig. Die drei Ereignisse A, B, C können zusammen nicht eintreten. Es gilt also P(ABC) = per)~ =0, während das Proqukt der einzelnen Wahrscheinlichkeiten P(A) P(B) P(C) von Null verschkden ist. Gleichung (1.49) gilt zwar ftir jedes aus den Ereignissen A, B, C ausgewählte Paar, fUr alle drei Ereignisse gilt die entsprechende Gleichung jedoch nicht. Daje zwei der Ereignisse A, B, C (stoch.) unabhängig sind, nennen wir die drei Ereignisse A, B, C paarweise u/Ulbhängig. • Durch Erweiterung der Gleichung (1.49) auf mehrere Ereignisse erhalten wir eine sinnvolle Definition der (stoch.) Unabhängigkeit mehrerer Ereignisse. Definition 1.6: Die Ereignisse AI, A2 , .•. , An heißen (vollständig stach.) unabhängig, wenn fUr jede Auswahl von mindestens zwei Ereignissen Ai" Ai2' ... , A ik mit verschiedenen Indizes gilt P(A i1
n Ai2 n ... n Aik ) = P(A il ) P(A i2 ) ... P(A ik )
fUr 2
~
k
~
n.
(1.50)
1.6. Bedingte Wahrscheinlichkciten und unabhängige Ereignisse
35
Die Ereignisse AI, A2 , ... , An heißen paarweise (stach.) unabhängig, wenn ftir alle Paare Ai, Ak mit i -=1= k gilt P(Ai Ak) = P(Ai) peAk).
Bemerkungen 1. (Vollständig) unabhängige Ereignisse sind auch paarweise unabhängig. Die Umkehrung muß nicht gelten, denn in Beispiel 1.28 sind die drei Ereignisse A, B, C zwar paarweise, aber nicht vollständig unabhängig. 2. Bei den Urnenmodellen seien Ai Ereignisse, die nur von der beim i-ten Zug gezogenen Kugel abhängen (i = 1, 2, ... , n). Dann sind die Ereignisse AI, A2, ... , An beim Urnenmodell I (ohne "Zurücklegen") nicht paarweise unabhängig, während sie beim Urnenmodell 11 (mit "Zurücklegen") vollständig unabhängig sind. Die Ursache liegt darin, daß beim Urnenmodell I die Grundgesamtheit beim i-ten Zug von den bereits gezogenen Kugeln abhängt, während beim Urnenmodell 11 bei jedem Zug dieselbe Grundgesamtheit vorliegt. In der Reihe der (vollständig) unabhängigen Ereignisse AI, A2 , ... , An ersetzen wir das Ereignis AI durch dessen Komplement AI, während wir die übrigen Ereignisse unverändert lassen. Sind Ai2 , Ai3 , .. . , Aik (k ~ 2) Ereigniss~au~der Menge {A 2, A 3, ... , An} mit verschiedenen Indizes, so erhalten wir mit A = AI, B = Ah n Ai3 n ... n Ain aus Satz 1.4 und wegen der (vollständigen) Unabhängigkeit der Ereignisse A2, A 3, ... , An die Gleichungen P(A I n Ai2 n Ai3 n .. . n Aik ) = P(A i2 n Ai3 n ... n Aik)-P(A I nA i2 n . .. nA ik) P(A i2 ) P(A i3 ) ... P(A ik ) - P(A I) P(A i2 ) '" P(A ik )
=
=
= [1 - P(A I)) P(A i2 ) P(A i3 ) ... P(A ik ) =
=P(AI ) P(A i2 ) P(A i3 ) '"
P(A ik )·
Die Gleichungen (1.50) gelten somit auch dann noch, wenn dort das Ereignis AI jeweils durch dessen Komplement AI ersetzt wird. Daher sind auch die Ereignisse AI' A2 , A3 , ... , An (vollständig) unabhängig. Anstelle der Ereignisse AI können wir auch ein anderes Ereignis Ai durch dessen Komplement ersetzen und erhalten genauso die (vollständige) Unabhängigkeit der Ereignisse AI, A2 , ... , Ai - I , Ai, Ai + I, . .. , An . Danach können wir dasselbe Verfahren auf ein Ereignis Ak mit k -=1= j anwenden, wobei wir wieder (vollständig) unabhängige Ereignisse erhalten. Mehrfache Wiederholung des Verfahrens liefert unmittelbar den Satz 1.17 Die Ereignisse AI, A2 , ... , An seien (vollständig) unabhängig. Ersetzt man in AI, ... , An eine beliebige Anzahl von Ereignissen durch deren Komplemente, so erhält man wiederum n (vollständig) unabhängige Ereignisse.
=
36
1. Der Wahrscheinlichkeitsbegriff
1.7. Bernoulli-Experimente und klassische Wahrscheinlichkeitsverteilungen
Beispiel 1.29. Mit A bezeichnen wir das Ereignis, daß ein aus der Produktion eines Betriebes zufalIig ausgewähltes Werkstück Ausschuß ist. Der Produktion sollen nacheinander drei Werkstücke entnommen werden. Die drei Einzelexperimente fassen wir zu einem Gesamtexperiment zusammen. Interessiert man sich bei jedem einzelnen Versuchsschritt nur für das Eintreten des Ereignisses A, so ist jedes Versuchsergebnis des Gesamtexperiments darstellbar durch drei Ereignisse BI, B2 , B3 mit B.
= { ~, wenn beim i-ten Versuch A eintritt,
I
A, sonst.
Insgesamt gibt es acht Elementarereignisse, nämlich (A, A, A), (A, A, A), (A, A, A), (A, A, A), (A, A, A), (A, A, A), (A, A, A), (A, A, A). (1.51) Dabei bedeutet z.B. (A, A, A), daß beim ersten und dritten Versuch jeweils das Ereignis A und beim zweiten Versuch A eintritt. Wir machen folgende Annahmen: 1. Die Wahrscheinlichkeit, daß ein ausgewähltes Werkstück fehlerhaft ist, ist bei allen drei Einzelversuchen gleich einem festen Wert p = P(A). 2. Die Versuchsergebnisse der Einzelversuche sind voneinander vollständig unabhängig. Aus diesen beiden Annahmen folgen wegen P(A) =1 - P die Gleichungen P(A, P(A, P(A, P(A,
A, A) = P(A) P(A) P(A) = p3, A, A) =P(A, A, A) =P(A, A, A) =P(A) P(A) P(A) = p2 (1- p), A, A) =P(A, A, A) = P(A, A, A) =P(A) P(A) P(A) = p(1 - p)2, (1.52) A, A) = P(A) P(A) P(A) = (1- p)3 .
Dabei folgen nach Satz 1.17 bereits aus P(A, A, A)
=p(A)3
alle anderen Gleichungen ..
Definition 1.7: Ein Zufallsexperiment, bei dem· das Ereignis A eintreten kann, werde n-mal wiederholt. Ai sei das Ereignis, daß in der Versuchsreihe beim i-ten Schritt das Ereignis A eintritt. Dann heißt die Versuchsreihe vom Umfang nein Bemoulli-Experiment für das Ereignis A, wenn folgende Bedingungen erftillt sind: I. P(Ai) = P für alle i. 2. Die Ereignisse AI, A2 ,
••• ,
An sind vollständig unabhängig.
Der Begriff Bernoulli-Experiment wurde zu Ehren des Mathematikers Jakob Bernoulli (1654 -1705) eingeftihrt. Wird ein Zufallsexperiment mit zwei möglichen Ausgängen n-mal unter denselben Bedingungen durchgeftihrt, wobei die einzelnen Versuchsergebnisse sich gegenseitig nicht beeinflussen sollen, so kann man davon ausgehen, daß es sich um ein BernoulIi-Experiment handelt.
1.7. Bernoulli-Experimentc und klassische Wahrscheinlichkeitsverteilung
37
Beispiel 1.30. Beim Tennisspiel gewinne Spieler I gegen Spieler II einen einzelnen Satz mit Wahrscheinlichkeit p. Bei einem Turnier siegt derjenige Spieler, der zuerst drei Sätze gewonnen hat. Unter der Voraussetzung, daß es sich um ein BernoulIiExperiment handelt, berechne man die Wahrscheinlichkeit P, mit der Spieler I siegt. Mit G bezeichnen wir das Ereignis "Spieler I gewinnt einen Satz". Spieler I siegt dann, wenn folgendes Ereignis eintritt : S=(G,G,G)+(G,G,G,G)+(G,G,G,G)+(G,G, G,G)+ +(G,G,G,G,G)+(G,G,G,G,G)+(G,G,G,G,G)+ + (G, G, C;, G, G) + (G, G, G, G, G) + (G, G, G, G, G). Wegen P(G) = p, P(G) = 1 - P folgt hieraus P = peS) = p3 + 3· p3 (I - p) + 6 p3 (I _ p)2 = = p3 [I + 3 - 3 P + 6 (1 - 2p + p2)] = = p3 (1o -15 P + 6 p2). Für p =
kergibt sich
P = 1. 8
[10 - ~2 + 4~J = 1.8 20 - 215 + 3 = 1.2
und flir p = ~ lautet die Siegeswahrscheinlichkeit P = 0,896 . Allgemein gilt ftir p > 0,5 die Ungleichung P > p. Der bessere Spieler siegt also bei drei Sieg-Sätzen mit größerer Wahrscheinlichkeit als nur bei einem Satz. • 1.7.1. Die Binomialverteilung Beispiel 1.31 (Fortsetzung von Beispiel 1.29). In Beispiel 1.29 sei Sk das Ereignis "in der Versuchsserie vom Umfang 3 tritt das Ereignis A genau k-mal ein" ftir k = 0, 1,2,3 . Dabei gilt So
=(A, A, A),
S2
= (A, A, A) + (A, A, A) ;, (A, A, A),
s, = (A, A, A) + (A:, A, A) + (A, A, A), S3 = (A, A, A).
Die Ereignisse Sk besitzen wegen (I .52) folgende Wahrscheinlichkeiten P(So) = (1- p)3; peS,) = 3p(l- p)2; P(S2) = 3 p2(I - p); P(S3) = p3 . Allgemein zeigen wir den Satz 1.18 Das Ereignis A besitze die Wahrscheinlichkeit p = P(A). Dann gilt ftir die Wahr~heinlichkeit Pk, daß in einem BernoulIi-Experiment vom Umfang n das Ereignis A genau k-mal eintritt, Pk = (~) pk(l_ p)o-k ftir k = 0,1 , ... , n.
•
38
1. Der Wahrscheinlichkeitsbegriff
Beweis: Wir bezeichnen mit Sk das Ereignis, daß in der Versuchsreihe vom Umfang n A genau k-mal eintritt. Dann tritt Sk z. B. ein, wenn bei den ersten k Versuchen jeweils A und bei den restlichen n - k Versuchen jeweils Ä eintritt. Es gilt also
-------
---
C =(A , A, .. . ,A, Ä, Ä, ... , Ä) C Sk. k-mal
(n-k)-mal
Da es sich um ein Bernoulli-Experiment handelt, folgt aus Satz 1.17 P(C) = pk (1- p)"- k. Jede andere Realisierung von Sk erhält man d4rch Permutation der Komponenten aus C, wobei jede Permutation dieselbe Wahrsche;nlichkeit besitzt. Nach der Bemerkung im Anschluß an Satz 1.8 gibt es (~) verschiedene solche Permutationen, woraus die Behauptung Pk = P(Sk) = (~) pk(l _ p)n-k ftir k = 0, 1,2, ... , n folgt.
•
Bemerkung: (k; (~) pk(l- p)n-k), k =0, I, ... , n heißt Binomialverteilung. Wendet man auf I = [p + (I - p)]n den binomischen Lehrsatz an, so erhält man
=L n
I
(~) pk(l_ p)n-k =
k=O
L Pk. Die Wahrscheinlichkeiten Pk stellen also die n
k=O
Glieder in der Binomialentwicklung von [p + (1- p)]" dar. Daher der Name Binomialverteilung. Beispiel 1.32. Die Wahrscheinlichkeit, daß eine an einer bestimmten Krankheit leidende Person durch ein bestimmtes Medikament geheilt werde, sei 0,8. Das Medikament werde 10 Patienten verabreicht. Mit welcher Wahrscheinlichkeit werden mindestens 8 der 10 Patienten geheilt? Dabei sei vorausgesetzt, daß die Heilerfolge flir die einzelnen Patienten voneinander unabhängig sind und die Heilwahrscheinlich· keit bei allen Personen gleich 0,8 ist. Wegen der Voraussetzung ist das durchgeführte Zufallsexperiment ein BernoulliExperiment, wobei A das Ereignis "der Patient wird geheilt" ist mit P(A) = p = 0,8. Mindestens 8 Patienten werden geheilt, wenn genau 8 oder genau 9 oder alle 10 geheilt werden. Damit erhalten wir nach Satz 1.18 für die gesuchte Wahrscheinlichkeit P den Wert P = Ps + P9 + PIO = (ISO) 0,8 8 .0,2 2 + (I:) 0,8 9 ·0,2 + (:~) 0,8 10 =
9 .02+08 10 =0 678 = 102 . 9 0 "8 s ·0 2 2 + 10.08 " , ,.
•
Beispiel 1.33. Mit welcher Wahrscheinlichkeit erscheint beim gleichzeitigen Werfen 6 idealer Würfel mindestens eine Sechs? Das Ereignis "unter den 6 geworfenen Zahlen ist mindestens eine Sechs" bezeichnen wir mit S. Dann tritt S genau dann ein, wenn keine Sechs geworfen wird. Aus peS) =(~)6 erhalten wir ftir die gesuchte Wahrscheinlichkeit den Wert peS) = 1 - peS) = I -
dt = 0,665.
•
39
I. 7. Bernoulli-Experimente und klassische Wahrscheinlichkeitsverteilung
1.7.2. Die Polynomialverteilung
Bei einem Bernoulli-Experiment vom Umfang n wird bei jedem Einzelversuch nur nachgeprüft, ob das Ereignis A oder das Komplementärereignis A eintritt. Man betrachtet also jedesmal die beiden Ereignisse A, A mit A + A = n. . Häufig interessiert man sich jedoch ftir mehrere paarweise unvereinbare Ereignisse, von denen bei jedem Versuchsschritt genau eines eintreten muß, also ftir die Ereignisse A I ,A 2 , ... ,A r mit A I +A 2 + ... +A r =n.,
(AiAk=1{J ftir
j,6
k) .
(1.53)
Für die Wahrscheinlichkeiten Pi = P(Ai) erhalten wir aus (1 .53) (1.54)
PI + P2 + .. , + Pr = 1.
Wie beim Bernoulli-Experiment wiederholen wir das Einzelexperiment n-mal unabhängig, wobei sich bei jeder einzelnen Wiederholung die Wahrscheinlichkeiten Pi = P(Ai) der Ereignisse Ai nicht ändern sollen. Für das Gesamtexperiment zeigen wir den Satz 1.19 Ein Zufallsexperiment werde n-mal unabhängig durchgeftihrt. AI, A2 , ... , Ar seien dabei paarweise unvereinbare Ereignisse , von denen bei jedem Versuchsschritt genau eines eintreten muß (es gelte also n. = AI + A2 + ... + Ar). Bei jedem einzelnen Versuchsschritt trete das Ereignis Ai mit konstanter Wahrscheinlichkeit Pi = P(Ai) ein ftir i = 1,2, ... , r. Dann ist die Wahrscheinlichkeit daftir, daß bei den n Versuchen k1-mal das Ereignis A., krmal das Ereignis A2 , ••• , kr-mal das Ereignis Ar (k l + k 2 + ... + k r = n) eintritt, gleich _ n! kJ k2 kr PkJ k2... kr - k l ! k 2 ! ... k r ! PI P2 .. . Pr
Beweis: Wir bezeichnen mit Ski k2 .. . kr das Ereignis, daß in der Versuchsserie vom Umfang n kl-mal A., krmal A2 , ... , kr-mal Ar eintritt. Dann ist z.B. das Ereignis C = (A., .. . Ab A2 , .. . A2 , .. . , At> ... Ar)
ein Teilereignis von Ski k2 ... kr . Wegen der vorausgesetzten Unabhängigkeit gilt dabei P(C) = p(AI)k l p(A 2 l2
... p(Ar)kr .
Jede andere Realisierung von Ski k2 ... kr erhält man aus C durch Permutation der einzelnen Komponenten, wobei jede permutierte Anordnung dieselbe Wahrschein-
l ..
lichkeit besitzt. Nach Satz 1.8 gibt es k ! :~I Daraus folgt die Behauptung Pkl .. ·kr
= peSkJ ... kr) = k
l
krl verschiedene Permutationen.
n! kl k2 kr !k2! ... kr!PI P2 "'Pr
•
40
1. Der Wahrscheinlichkeitsbegriff
Bemerkungen: 1. Entwickelt man I = (PI + pz + ... + Pr)" nach dem sog. polynomischen Lehrsatz, so erhält man die Wahrscheinlichkeiten Pk l . .. kr als Summanden; deshalb heißt die Gesamtheit der Wahrscheinlichkeiten Pk l ... kr Polynomialverteilung. 2. Setzt man im Falle r = 2 in der Polynomialverteilung AI = A (daraus folgt A z = A) PI = P und k l = k, so erhält man mit pz = 1 - P die Wahrscheinlichkeiten Pk, n-k
k( )n-k = k! (nn!_ k)! Pk( 1- P)n-k = (n) k P 1- P = Pk,
also die Binomialverteilung. Beispiel 1.34. Mit welcher Wahrscheinlichkeit wird beim gleichzeitigen Werfen 12 idealer Würfel jede Augenzahl zweimal geworfen. Wir bezeichnen mit Ai das Ereignis "mit einem Würfel wird die Augenzahl i geworfen" für i = I, 2, .. , , 6. Mit Pi = ~, k i = 2 fur i = I, . .. ,6 erhalten wir für die gesuchte Wahrscheinlichkeit P den Wert
•
12! 12! (1)6 P = (2!t' 6 2 = 6 12 • 26 = 0,00344. 1.7.3. Die geometrische Verteilung
Ein Zufallsexperiment, bei dem ein Ereignis A mit Wahrscheinlichkeit peintreten kann, werde so lange unter denselben Bedingungen wiederholt , bis zum erstenmal das Ereignis A eintritt. Mit Bk bezeichnen wir das Ereignis, daß in dem zugrunde liegenden Bernoulli·Experiment bei den ersten k - 1 Versuchen das Ereignis A und beim k·ten Versuch das Ereignis A eintritt. Bk tritt also genau dann ein, wenn beim koten Versuch das Ereignis Azurn erstenmal eintritt. Aus der Darstellung Bk = (A, A, ... , A, A) folgt
---(k-\)-mal
(1.55) Wir machen folgende Fallunterscheidungen
1. Fall: p =O. Dann gilt P(Bk) =0 ftir alle k . 2. Fall: p = 1. Aus (1.55) folgt P(B I) = 1 und P(B k) = 0 ftir k ~ 2. 3. Fall: 0< p < 1. In diesem Fall sind alle Wahrscheinlichkeiten P(B k) positiv, d.h . jedes der paarweise unvereinbaren Ereignisse BI> B2 , B3 , '" kann mit positiver Wahrscheinlichkeit eintreten. Bei einer Versuchsdurchftihrung kann es durchaus einmal vorkommen, daß immer das Ereignis Ä, also keines der Ereignisse BI> Bz , .. , eintritt . Das Ereignis U Bk k=\
=
L Bk ist daher vom sicheren Ereignis n k=\
41
1. 7. Bernoulli-Experimcntc und klassische Wahrscheinlichkcitsvertcilung
verschieden. Seine Wahrscheinlichkeit erhalten wir aus der geometrischen Reihe als n
00
P(IBk)= lim n-H)O k=l
p( '\'B ~
n
k)
n-+oo
Aus p
'\' (1 - p)k = P lim
~
n-+oo
k=O
>0 P(
folgt 0 S 1- P
I:
'\'P(Bk)= lim "\-'O - pl - lp= n~(X) L n~oo ~ k=l k=l
' k=t ·
n- 1
P lim
Bk) = 1
I - (l - pt _ . I-(l-pt - p nl~= p
1 - (1 - p)
< 1 und hieraus
für p
n
= lim
.
hm
n-+=
1 - (1 - p)" p
=
1
P'
> O.
Damit gilt
(1.56)
k=l Mit Wahrscheinlichkeit 1 tritt somit eines der Ereignisse BI, B2 , B3 , . • . ein. Die Wahrscheinlichkeit dafür, daß keines der Ereignisse Bk eintritt , ist daher gleich Null. Der Fall, daß immer das Ereignis Ä eintritt, ist jedoch prinzipiell möglich. Da die Wahrscheinlichkeit dafür Null ist, wird dieser Fall jedoch höchst selten, also praktisch nie vorkommen. Die Folge (k, (I - p)k - 1 . p), k = 1, 2, '" heißt geometrische Verteilung. Damit gilt folgender Satz 1.20 Die Wahrscheinlichkeit daftir , daß bei einem BernoulJi-Experiment das Ereignis A mit p = P(A) zum erstenmal beim k-ten Versuch eintritt, ist gegeben durch Pk = p·(I_pl-l
für k= 1,2,3, ....
Beispiel 1.35. Ein Mann kommt im angetrunkenen Zustand nach Hause. Er hat N ähnliche Schlüssel in einer Tasche und versucht, die Haustür folgendermaßen zu öffnen: Er wählt zufällig einen Schlüssel aus. Falls dieser nicht paßt, legt er ihn zu den anderen zurück und wählt wiederum einen Schlüssel aus. Dieses Experiment wiederholt er so lange, bis der entsprechende Schlüssel paßt. Mit welcher Wahrscheinlichkeit benötigt er höchstens M Versuche, um die Tür zu öffnen? Dabei handle es sich um ein Bernoulli-Experiment. Mit p =~ ist die Wahrscheinlichkeit dafür, daß er beim k-ten Versuch die Tür öffnet, gleich ~ (I - ~)k - 1, k = I, 2, .... Damit erhalten wir für die gesuchte Wahrscheinlichkeit den Wert
_
~~ I (
P- L..,
k=\
N
I-
I)k-l_ I
N
-N
1-(l-~)M 1
N
_ ( I)M -1- I-N' .
Für N = 4, M = 4 erhalten wir z.B. den Zahlenwert
P = 1-
(~)4 = 0,684.
•
42
1. Der Wahrscheinlichkeitsbegriff
1.8. Der Satz von der vollständigen Wahrscheinlichkeit und die Bayessche Formel
Beispiel 1.36. In einem ersten Regal befinden sich 30 Elektronenröhren, von denen 3 unbrauchbar sind, in einem zweiten Regal dagegen SO, darunter 8 unbrauchbare. Eines der beiden Regale werde zufällig ausgewählt und daraus eine Röhre entnommen. Dabei soll davon ausgegangen werden, daß es sich bei der Auswahl jeweils um ein Laplace-Experiment handelt. Gesucht ist die Wahrscheinlichkeit daflir, daß die entnommene Röhre unbrauchbar ist. Wir bezeichnen mit AI das Ereignis, daß das erste Regal ausgewählt wird, und mit A2 das zweite Regal. Dabei gilt P(Ad =P(A 2 ) =!. F sei das Ereignis "die entnommene Röhre ist fehlerhaft". Aus den Angaben flir die Inhalte der einzelnen Regale erhalten wir die bedingten Wahrscheinlichkeiten P(F lAI) = Tri; P(F IA 2 ) = 5%-. Die Ereignisse Al> A2 sind unvereinbar mit AI + A2
= n.
Daraus folgt
P(F) = P(F n n) = P(F (AI + A2 )) = P(FAd + P(FA 2 ). Wendet man auf beide Summanden den Multiplikationssatz 1.13 an, so ergibt sich
1 1 8 1 P(F) = P(F lAI) P(AI) + P(F /A 2 ) P(A2 ) = 10 ·2+ so ·2=
•
8) 13 =21(110 + 50 = 100 . Das in diesem Beispiel behandelte Experiment besteht in der gleichwahrscheinlichen Auswahl eines von zwei möglichen Einzelexperimenten, nämlich der Entnahme der Elektronenröhre aus dem ersten bzw. aus dem zweiten Regal. Die Auswahl aus mehreren Einzelexperimenten fUhrt zu folgender Definition 1.8: Die n Ereignisse Al> A2 , ••• , An bilden eine vollständige Ereignisdisjunktion, wenn alle Paare A;, Ak, i l' k unvereinbar sind (AjAk = 0 ftir i l' k) und wenn gilt AI + A2 + .. . + An =n, wenn also bei jeder Versuchsdurchflihrung genau eines der Ereignisse Al' A2 , ••• , An eintritt.
Satz 1.21 (Satz über die vollständige Wahrscheinlichkeit) AI' A 2 , ••• , An sei eine vollständige Ereignisdisjunktion mit den Wahrscheinlichkeiten P(Aj) > 0 ftir i = 1, 2, ... , n (dabei ist
±
j
=1
P(A j )
= 1).
Dann
gilt ftir die Wahrscheinlichkeit eines beliebigen Ereignisses B
n
= LP(B/Aj)P(AÜ. j=l
(1.57)
43
l.!f. Der Satz von der vollständigen Wahrscheinlichkeit
n
Beweis: Aus n =
L Ai folgt i=l
P(B) = p(Bn) =P (B
i =p(i Ai)
i=l
BAi) =
i=l
i:
P(BAi) =
i=l
L P(B/Ai) P(Ai), womit der Satz bewiesen ist. n
=
•
i =1
Bemerkung: Die Bedeutung der Formel (J .57) liegt in der Tatsache (vgl. Beispiel 1.36), daß häufig die Wahrscheinlichkeiten P(Aj) und die bedingten Wahrscheinlichkeiten P(B / Ai) bekannt sind, woraus sich dann die Wahrscheinlichkeit P(B) sehr einfach berechnen läßt. Beispiel 1.37 (vgl. Beispiel 1.20). In einer Kiste befinden sich zehn Werkstücke, von denen vier fehlerhaft sind. Daraus werden zwei Werkstücke hintereinander ohne zwischenzeitliches Zurücklegen ausgewählt. Unter der Annahme, daß es sich dabei um ein Laplace-Experiment handelt, berechne man die Wahrscheinlichkeit daflir, daß das beim zweiten Zug ausgewählte Werkstück brauchbar ist. A sei das Ereignis "das zuerst ausgewählte Stück ist brauchbar" und B das Ereignis "das zuletzt ausgewählte Stück ist brauchbar". Damit erhalten wir P(A) =
L
P(A) = 1- P(A) =
L
P(B/A) =
L
P(B/A) = ~.
Wegen n = A + A folgt aus (1.57) mit Al = A, A2 = A die Gleichung P(B)=P(B/A)P(A)+P(B/A)P(Ä)=~.~ +~.~ =N=~ .
Die Ereignisse A und B besitzen also dieselbe Wahrscheinlichkeit. Wegen P(B/A) =t- P(B) sind sie jedoch nicht (stochastisch) unabhängig.
•
Für die bedingten Wahrscheinlichkeiten P(AdB) gilt der Satz 1.22 (Bayessche FormeT) Für eine vollständige Ereignisdisjunktion A" A 2 , f1ir alle i und jedes Ereignis B mit P(B) > 0 gilt P(Ak/ B) =
P(B/A k ) peAk) P(B/A k) peAk) P(B) = n '
L P(B/Ai) P(Ai)
.. . ,
An mit P(A i) > 0
k = 1, 2, ... , n.
i=l
Beweis: Definitionsgemäß gilt für die bedingte Wahrscheinlichkeit
P(AkB) P(BAk) P(Ak/ B) = P(B) = P(B) .
(1.58)
44
1. Der Wahrscheinlichkeitsbegriff
Wenden wir auf den Zähler den Multiplikationssatz 1.13 und auf den Nenner den Satz 1.21 an, so erhalten wir unmittelbar die Behauptung P(Ak/ B)
= ~(B /A k ) peAk)
•
L P(B/Aj) P(Aj)
i =1
Beispiel1.38. In einer Schraubenfabrik stellen drei Maschinen Mt, M2 , M3 von der Gesamtproduktion 20, 30 bzw. 50 % her. Dabei sind im Mittel 2 % der von der Maschine Mt, 4 % der von M2 und 7 % der von M3 gefertigten Schrauben Ausschuß. Aus der Gesamtproduktion werde zufallig eine Schraube entnommen, von der sich herausstellt, daß sie fehlerhaft ist. Wie groß sind die WahrscheirIlichkeiten Pt, P2 , P3 daflir , daß sie von der Maschine MI> M2 bzw. M3 produziert wurde? Mit A k bezeichnen wir das Ereignis, daß eine aus der Gesamtproduktion zufällig ausgewählte Schraube von der Maschine Mk hergestellt wurde, k = 1, 2,3 . F sei das Ereignis "die Schraube ist fehlerhaft". Dann gilt P(A t ) = 0,2; P(A 2) = 0,3; P(A 3) = 0,5. P(F /A t ) = 0,02; P(F /A 2) = 0,04 und P(F /A 3) = 0,07. Damit folgt aus (1 .58) P(F /A k ) peAk)
Pk
= P(Ak/ F ) = P(F /A t ) P(A t ) + P(F /A2) P(A 2) + P(F /A 3) P(A 3 )'
Für den Nenner erhalten wir P(F) = 0,02 · 0 ,2 + 0 ,04·0,3 + 0,07 · 0,5 = 0,004 + 0,012 + 0,035 = 0,051. Von der Gesamtproduktion sind also im Mittel ungefähr 5,1 % fehlerhaft. Damit erhalten wir ftir die gesuchten Wahrscheinlichkeiten
-±-.
_ _ 0,004 _ Pt -P(At/F) - 0,051 - 51' _ _0,012_12. P2 -P(A2/F) - 0,051 - 51 ' 0,035 35 P3 = P(A3/F) = 0,051 = 51'
•
Beispiel1.39. Die Schützen 1,2,3 schießen auf ein Ziel. Im gleichen Zeitraum gibt 1 dreimal und 2 doppelt soviel Schüsse ab wie 3. Die Trefferwahrscheinlichkeiten der eirIzelnen Schützen seien der Reihe nach 0 ,3; 0,6; 0,8. Es fällt ein Schuß, der das Ziel trifft. Man berechne die Wahrscheinlichkeiten Pk dafür, daß der Schuß vom Schützen k abgefeuert wurde. Dabei handle es sich um ein Laplace-Experiment. Mit Sj bezeichnen wir das Ereignis, daß ein Schuß vom Schützen i abgegeben wurde.
1.9. Das Bernoullische Gesetz der
grof~en
45
Zahlen
Für die Wahrscheinlichkeiten dieser Ereignisse erhalten wir P(St) =3P(S3); P(S2) = 2P(S3)' Aus P(St) + P(S2) + P(S3) = 1 folgt 6P(S3) = 1, also P(S3) = ~; P(St) = ~; P(S2) = ~. T sei das Ereignis "ein Schuß trifft". Dann gilt Pk
P(T /Sk) P(Sk)
= P(Sk/ T) = - - : 3 : - - - - - -
L peT /Sj) P(Sj)
j
=1
Damit erhalten wir P(T) =
L P(T /Sj) P(Sj) = 2"1 . 0,3 +"3'1 0,6 + (5'1 0,8 = 9 + 6012 + 8 = 6029 3
j
=1
P3
und
•
8
= 29'
Beispiel 1.40. Wir nehmen an, daß 1 % aller Menschen an einer bestimmten Krankheit leiden. Ein Diagnosetest habe die Eigenschaft, daß er bei Kranken mit Wahrscheinlichkeit 0,95 und bei Gesunden mit Wahrscheinlichkeit 0,999 die richtige Diagnose stellt. Wie groß ist die Wahrscheinlichkeit daftir, daß eine Person, bei der auf Grund des Testes die Krankheit (nicht) diagnostiziert wird, auch tatsächlich an dieser Krankheit (nicht) leidet? K sei das Ereignis "eine Person leidet an der entsprechenden Krankheit" und A das Ereignis "die Krankheit wird diagnostiziert". Dann gilt P(K) = 0,01; P(A/K) = 0,95; P(A/K) = 0,05; P(A/K) = 0,999; P(A/K) =0,001. Hiermit erhalten wir ftir die gesuchten Wahrscheinlichkeiten ( / ) P KA
P(A/K) P(K)
= P(A/K) P(K) + P(A/K) P(K) 0,0095 0,0095 +0,00099
P(K/A) -
0,95 ·0,01 0,95·0,01+ 0,001·0,99
0,0095
= 0,01049 = 0,906 ;
P(A/K) P(K) P(A/K) P(K) + P(A/K) P(K)
0,999· 0,99 0,999 · 0,99 + 0,05·0,01
=0,9995 .
•
1.9. Das Bernoullische Gesetz der großen Zahlen
Um die absolute Häufigkeit h n (A) bzw. die relative Häufigkeit In (A) = hnn(A) eines Ereignisses A (vgl. Abschnitt 1.2) berechnen zu können, muß die Versuchsserie vom
46
I. Der Wahrscheinlichkeitsbcgritf
Umfang n bereits durchgeftihrt sein . Da die Werte h n (A) und r n (A) durch ein Zufallsexperiment ermittelt werden, werden LA. verschiedene Versuchsreihen auch verschiedene Häufigkeitswerte liefern. Die vom Zufall abhängende Größe, welche die absolute Häufigkeit hn(A) bzw. die relative Häufigkeit rn(A) beschreibt, bezeichnen wir mit Hn(A) bzw . mit Rn(A). Bei der Durchführung der Versuchsserie kann Hn (A) mit gewissen Wahrscheinlichkeiten die Werte 0, 1,2, ... , n annehmen. Wir nehmen nun an, daß es sich bei dem Zufallsexperiment um ein Bernoulli-Experiment vom Umfang n handelt. Dann gilt nach Satz 1.18 mit p = P(A) P(Hn(A) = k) = (k) pk(l- p)n- k Für die Zufallsgröße Rn (A) = P(Rn(A)=*)=
ftir k = 0, 1, 2, ... , n.
(1.59)
H~(A) folgt aus (1.59)
(~)pk(1_p)"-k
ftir k=0,1,2, .. . ,n.
(1.60)
°
Zu einer fest vorgeg~benen Zahl e > betrachten wir nun die Wahrscheinlichkeit daftir, daß die Zufallsgröße der relativen Häufigkeit von dem Zahlenwert p um mehr als e abweicht (vgl. Abschnitt 1.2), also (1.61 )
P(IRn(A)- pi >e) = P(Rn(A) < p- e) + P(Rn(A) >p + e). Für diese Wahrscheinlichkeit erhalten wir P(lRn (A) - pi> e) = P(Hn (A) < n(p - e» + P(H n (A) > n(p + e» =
(1.62) P(Hn(A) = k). P(Hn(A) = k) + kn(p+e)
L
Aus k < n(p - e) folgt np - k > ne sowie (k - np)2 > n 2e2 und aus k> n(p + e) die Ungleichungen k - np > ne sowie (k - np)2 > n 2 e2. Für alle Werte k, über die in (1.62) summiert wird, gilt daher (k - np)2
n2 e2
> 1.
Multiplikation der einzelnen Summanden auf der rechten Seite von (1.62) mit (np- k)2 ~ liefert daher die Ungleichung P(IRn(A)-pl>e)<
(k - np)2 22 P(Hn(A)=k)+ k
L-
(k - np)2
+
2 2
k>n(p+e)
n e
P(H n (A) = k).
Summiert man über alle Werte k, so wird die rechte Seite dieser Ungleichung höchstens vergrößert.
47
I. 9. Das Bernoullische Gesetz der großen Zahlen
Wegen (1.59) gilt daher n
n2e2 P(lR n (A)-pl>e)< L(k - np)2(~)pk(1_p)n-k= k=O
(1.63)
L (k2-2npk+n2p2)(~)pk(1_p)n-k= n
=
k=O
=
L k (~) pk(l- p)n-k_ 2np L k(~) pk(1- pt- k + n
n
2
k=O
k=O
~-----
+n 2p2
L (~)pk(l_p)n-k. n
k=O S3
..
>
.
n = n(n-I) .. . (n-k+1). _n·(n-1) ... (n-k+1)_ n-1 Furk_1 gilt k(k) 1.2 ... (k-1)k k1.2 ... (k-l) -n(k-1). Damit erhalten wir n
nir die zweite Summe
L
n-l
S2 = L>(~=h pk(1_p)n-k = n (n~l) pm+1 (1_p)n-l- m = k=1 m=O n-I =n C~l) p.pm(1- pin-I) -m = np(p + (1- p)t- I = n .p. m=O
L
Entsprechend gilt ftir k
~
2
k2(~) = [k + k(k -1)] (~) = k(~) + k ·(k -I) (~) = k(~) + n(n -I) (~=
b.
Damit erhalten wir für die erste Summe
L k2 (k) pk(l_ p)n- k = n
SI = ()') p(l- pt-I +
k=2 = ()') p(l-pt- 1 +
n
n
L k(k) pk(1- p)n- k + n(n -I) L (J~= b pk(l- p)n- k =
k=2 =
k=2
L k(k)p\l-p)n-k+n(n-l) L (n~2)p2pm(l_p)n-2-m = n
n- 2
k=1
m=O
= S2 + n(n -I) p2[p + l_p]n-2 = np + n(n-I) p2 =
--.-=1
= n2p2 + np - np2 = n2p2 + np(l - p).
48
I. Der Wahrscheinlichkeitsbegriff
Wegen S3 = I folgt schließlich aus (1.63) die Abschätzung n2 €2 P(IRn(A) - pI> €)
< n 2 p2 + np(l- p) -
2n 2 p 2 + n2 p 2 = np(1- p)
und hieraus P(lRn(A) - pi > €)
p(l- p)
< - -n€2- .
(1.64)
Das Produkt p(l- p) wird ftir p = ~ am größten. Daher folgt aus (1.64) P(lR n (A) - pI >
€)
I < 4~ n€
ftir jedes
€
> O.
(1.65)
Die Wahrscheinlichkeit daftir, daß die Zufallsgröße der relativen Häufigkeit von dem festen Wert p um mehr als € abweicht, wird nach (1.65) beliebig Klein, wenn der Umfang n des Bernoulli-Experiments nur genügend groß gewähltwird. Für diesen Sachverhalt schreiben wir lim P(lRn (A) - pi> €)
n-+oo
=0
ftir jedes
€
> O.
Wegen peS) = 1- P(B) folgt aus (1.65) P(IRn(A) - pi
I .
~ €) = I -
lim P(lR n (A) - pI
n"""'*oo
P(lRn(A) - pi > €) > I - 4 ~€2' d.h.
~ €) = I
ftir jedes
€
> O.
Damit haben wir folgenden Satz bewiesen: Satz 1.23 (Bernoullisches Gesetz der großen Zahlen) Für jede natürliche Zahl n sei Rn(A) die Zufallsgröße, weiche die relative Häufigkeit r n (A) eines Ereignisses A mit p =P(A) in einem BernoulliExperiment vom Umfang n beschreibt. Dann gilt ftir jedes € > 0 lim P(IR n (A) - pi
n-+oo
~
€)
=I
Bemerkung: In Abschnitt 1.3 haben wir die Wahrscheinlichkeit axiomatisch eingefUhrt, wobei uns drei wesentliche Eigenschaften der relativen Häufigkeiten als Axiome dienten. Mit Hilfe dieser Axiome entwickelten wir eine Theorie, mit der gezeigt werden konnte, daß in einem Bernoulli-Experiment vom Umfang n die Zufallsgröße Rn(A) mit einer Wahrscheinlichkeit von beliebig nahe an I Werte in der unmittelbaren Umgebung des Wahrscheinlichkeitswertes p =P(A) annimmt, wenn nur n genügend groß ist. Diese Eigenschaft kann folgendermaßen interpretiert werden: es kann als praktisch sicher angesehen werden, daß in einem BernoulliExperiment von großem Umfang n die relative Häufigkeit r n (A) von einer festen Zahl, der Wahrscheinlichkeit P(A), nur wenig abweicht. Damit haben wir eine
49
1.10. Übungsaufgaben
Beziehung zwischen der relativen Häufigkeit und der Wahrscheinlichkeit eines Ereignisses A gefunden. Allerdings muß dabei bemerkt werden, daß in der Interpretation "praktisch sicher" nicht bedeutet, daß die relative Häufigkeit immer in der unmittelbaren Umgebung von P(A) liegt. Ausnahmen sind möglich. Wegen (1.65) werden solche Ausnahmen allerdings höchst selten vorkommen. Wenn man daher eine unbekannte Wahrscheinlichkeit P(A) eines Ereignisses A durch die relative Häufigkeit r n (A) eines BernouIli-Experiments approximiert, wenn man also (1.66) setzt, und solche Approximationen häufig vornimmt, so wird man bei großem n auf die Dauer höchst selten eine schlechte Näherung erhalten.
1_10_ Übungsaufgaben I. Ein Elementarereignis bestehe im Auftreten eines Wortes mit vier Buchstaben. Ereignis A bedeute: Die bei den ersten Buchstaben des Wortes sind Konsonanten; Ereignis B tritt ein, wenn die drei letzten Buchstaben des Wortes Konsonanten sind. Man drücke die Ereignisse A, AB, AB, AU B verbal aus. 2. Beim Werfen eines weißen und eines roten Würfels stelle man folgende Ereignisse dar: A: "die Augenzahl des roten Würfels ist größer als die des weißen", B: "die Augensumme ist gerade", C: "das Produkt der beiden Augenzahlen ist kleiner als 5", ferner die Durchschnitte AB, AC, BC, ABC. 3. Gegeben seien n = {w =(x,y)/O:O; x,y :O;4}, A= {w = (x,y)/y:o; x}, B={w=(x,y)/y:O;4-~x} und C={w=(x,y)/Yd}. Man stelle das Ereignis ABC graphisch dar. 4. Von den drei Ereignissen A, B, C trete a) nur A, f) mindestens zwei, b) genau eines, g) mindestens eines nicht, c) höchstens eines, h) mindestens zwei nicht, d) mindestens eines, e) genau zwei, ein. Man stelle diese Ereignisse mit Hilfe der Ereignisoperationen durch die Ereignisse A, B, C dar. 5. Bei einer Stellenausschreibung werden nach Möglichkeit englische, französische und russische Sprachkenntnisse verlangt. Von insgesamt 190 Bewerbern können 70 nur Englisch, 45 nur Französisch, 40 nur Russisch, 10 können Englisch und Russisch aber kein Französisch, 8 Englisch und Französisch aber kein Russisch, 5 Französisch und Russisch aber kein Englisch. Wie viele Bewerber können alle drei Sprachen, falls jeder mindestens eine der drei Sprachen beherrscht?
50
I. Der Wahrscheinlichkeitsbegriff
6. Von 25 Studenten studiert jeder wenigstens eines der Fächer Biologie, Geographie, Chemie. Biologie studieren insgesamt 14, Geographie 10. Genau 2 Studenten haben alle Fächer, genau 8 mindestens zwei der genannten Fächer belegt. Wie viele Studenten studieren Chemie? 7. Ein Würfel werde so verändert, daß die Wahrscheinlichkeit, mit ihm eine bestimmte Zahl zu werfen, proportional zu dieser Zahl ist. a) Man bestimme die Wahrscheinlichkeiten der Elementarereignisse. b) Man berechne die Wahrscheinlichkeiten der Ereignisse: A: "eine gerade Augenzahl wird geworfen", B: "eine Primzahl wird geworfen", C: "eine ungerade Augenzahl wird geworfen". c) Man berechne P(A U B), P(BC) und P(AB). 8. Es werden gleichzeitig drei Münzen geworfen. a) Man gebe ein geeignetes n an. Unter der Voraussetzung, daß es sich um ein Laplace-Experiment handelt, bestimme man die Wahrscheinlichkeiten daftir, daß b) dreimal Wappen, c) einmal Wappen und zweimal Zahl auftritt. 9. Wie viele Permutationen können aus den Buchstaben folgender Wörter gebildet werden: a) ROT, c) NONNE, b) OTTO, d) STUTTGART? 10. Wie viele Permutationen der Elemente a1, a2 , ... , an gibt es, bei denen a1 und a2 nebeneinander stehen? 11 . a) Wie viele verschiedene siebenziffrige Zahlen gibt es, die dreimal die 1, zweimal die 3 und zweimal die 5 enthalten? b) Wie viele dieser Zahlen beginnen mit 135? 12. Ein Autokennzeichen besteht neben dem Städtesymbol aus einem oder zwei Buchstaben sowie aus einer ein- ms dreiziffrigen Zahl. Wie viele verschiedene Kennzeichen können in einer Stadt ausgegeben werden, wenn 26 Buchstaben zur Wahl stehen? 13. Aus den bei den Elementen ,,Punkt" und "Strich" bildet die Morse-Telegraphenschrift ihre Zeichen, wobei bis zu fünf Elemente (in einem einzigen Ausnahmefall sechs) ftir ein Zeichen benutzt werden. Wie viele Zeichen lassen sich damit zusammenstellen? 14. Aus 5 Psychologen und 7 Medizinern sollen 2 Psychologen und 3 Mediziner für einen Ausschuß gewählt werden. Auf wie viele verschiedene Arten ist dies möglich, falls a) jeder delegiert werden kann, b) ein bestimmter Mediziner delegiert werden muß, c) zwei bestimmte Psychologen nicht delegiert werden können?
1.10. Übungsaufgaben
51
15. Aus 5 Ehepaaren werden zufallig 4 Personen ausgewählt. Mit welcher Wahrscheinlichkeit ist unter ihnen kein Ehepaar? 16. Ein Ortsnetz hat 12 Fernwahlleitungen nach 12 verschiedenen Orten. Die Orte werden rein zufällig von 8 Teilnehmern gleichzeitig angewählt. Wie groß ist die Wahrscheinlichkeit daftir, daß a) alle Teilnehmer, verschiedene Orte, b) genau 2 der Teilnehmer den gleichen Ort wählen? 17. Beim Skatspiel erhält jeder der drei Spieler 10 Karten, während die restlichen beiden Karten in den Skat gelegt werden. Auf wieviel verschiedene Arten können die 32 Karten verteilt werden? 18. Wie groß ist die Wahrscheinlichkeit dafm , daß beim Skatspiel a) der Kreuz-Bube, b) genau ein Bube, c) zwei Buben im Skat liegen? 19. a) Ein Skatspieler hat vor Aufnahme des Skats 2 Buben. Wie groß ist die Wahrscheinlichkeit dafm, daß jeder Gegenspieler genau einen Buben hat? b) Wie groß ist diese Wahrscheinlichkeit, falls der Spieler nach Aufnahme des Skats 2 Buben hat? 20. Wie groß ist die Wahrscheinlichkeit mit drei Würfeln a) drei gleiche Augenzahlen, b) zwei gleiche und eine davon verschiedene Augenzahl, c) drei verschiedene Augenzahlen , d) mindestens eine 6 zu werfen? Dabei handle es sich um ein Laplace-Experiment. 21. In einer Gruppe von 90 Versuchspersonen befinden sich genau 30 Linkshänder. Sechs Personen werden zufällig ausgewählt. Wie groß ist die Wahrscheinlichkeit daftir, daß sich unter den 6 ausgewählten Personen genau 3 Linkshänder befinden? Man berechne diese Wahrscheinlichkeit a) exakt nach dem Urnenmodell I, b) approximativ nach dem Urnenmodell H. 22. Eine pharmazeutische Firma liefert bestimmte Tabletten in Packungen zu 20 Stück. Laut Liefervertrag darf bei höchstens drei Tabletten einer Packung der in der Tablette enthaltene Wirkstoff um mehr als 1 % vom Sollwert abweichen. Jede Packung wird geprüft, indem man 3 Tabletten zufällig und ohne zwischenzeitliches Zurücklegen entnimmt. Sind die 3 Tabletten einwandfrei, wird die Packung angenommen, andernfalls wird sie zurückgewiesen. Man beurteile dieses Prüfverfahren, indem man die Wahrscheinlichkeit dafür berechne, daß eine Packung zurückgewiesen wird, obwohl sie nur 3 nicht einwandfreie Tabletten enthält. Wie groß ist diese Wahrscheinlichkeit, wenn die Packung nur 2 bzw. 1 nicht einwandfreie Tablette enthält?
52
1. Der Wahrscheinlichkeitsbegriff
23. Von drei Kästchen mit je zwei Schubfächern enthalte das erste in jedem Fach eine Goldmünze, das zweite in einem Fach eine Goldmünze, im anderen eine Silbermünze und das dritte in jedem Fach eine Silbermünze. Zufällig werde ein Kästchen ausgewählt und ein Schubfach geöffnet. Wie groß ist die Wahrscheinlichkeit, im anderen Fach des ausgewählten Kästchens eine Goldmünze zu finden, wenn das geöffnete Fach schon eine Goldmünze enthält? 24. Die Kinder der sechsten Klasse einer Schule werden durch einen Test auf ihre Fähigkeit im Rechnen geprüft. Die Wahrscheinlichkeiten, mit denen Jungen und Mädchen den Test nicht bestehen, seien in folgender Tabelle enthalten. Test nicht bestanden
Test bestanden
Jungen
0,2
0,25
Mädchen
0,3
0,25
Sind die Ereignisse M "die Testperson ist ein Mädchen" und B "der Test wird bestanden" (stoch.) unabhängige Ereignisse? 25. Die 4 Seiten eines Tetraeders seien wie folgt gefärbt: Fläche I rot, Fläche 11 bl~u, Fläche III grün, Fläche IV rot, blau und grün gleichzeitig. Der Tetraeder werde geworfen. Man prüfe, ob die Ereignisse, die unten liegende Fläche enthält die rote, blaue bzw. grüne Farbe paarweise bzw. vollständig (stoch.) unabhängig sind. 26. Ein Schütze treffe bei einem Schuß mit Wahrscheinlichkeit 0,6 ein Ziel. Wie oft muß er in einem Bernoulli-Experiment mindestens schießen, damit er mit Wahrscheinlichkeit von mindestens 0,99 das Ziel mindestens einmal trifft? 27. In einem Bernoulli-Experiment werde ein idealer Würfel 12-mal geworfen. Man bestimme die Wahrscheinlichkeit dafür, daß a) genau zweimal die 6, b) mindestens einmal die 6 geworfen wird. 28. Aus Erfahrungswerten sei bekannt, daß ein neugeborenes Kind mit Wahrscheinlichkeit 0,515 ein Junge ist. Wie groß ist die Wahrscheinlichkeit dafür, daß in einer Familie mit sechs Kindern . a) alle Kinder Mädchen, b) wenigstens 5 der Kinder Mädchen, c) wenigstens 3 der Kinder Mädchen sind? 29. Unter den von einer Maschine hergestellten Schrauben befinden sich im Durchschnitt 20 % Ausschuß. Aus der Tagesproduktion dieser Maschine werden zufällig 10 Schrauben herausgegriffen. Wie groß ist die Wahrscheinlichkeit dafür, daß von diesen Schrauben a) genau 2, b) mehr als 2, c) mehr als 5 unbrauchbar sind?
1.10. Übungsaufgaben
53
30. Eine Fußballmannschaft bestehe jeweils aus 4 Stürmern, 2 Mittelfeldspielern, 4 Verteidigern und einem Torwart. Man wähle aus 6 verschiedenen Mannschaften jeweils zufallig einen Spieler aus. Wie groß ist die Wahrscheinlichkeit dafür, daß a) genau 5 Stürmer, b) nur Verteidiger und Mittelfeldspieler, c) höchstens 2 Torwarte, d) 2 Stürmer, 2 Verteidiger, 1 Mittelfeldspieler und 1 Torwart, e) 3 Stürmer und 3 Verteidiger, ausgewählt werden? 31. Eine Schachtel enthält 8 rote, 3 weiße und 9 blaue Bälle. Daraus werden zufallig 3 Bälle entnommen. Wie groß ist die Wahrscheinlichkeit dafiir, daß a) alle 3 Bälle rot, b) alle 3 Bälle verschiedenfarbig sind? *32. Zwei Schützen schießen so lange abwechselnd auf ein Ziel bis einer trifft. Die Trefferwahrscheinlichkeit pro Schuß sei für Schütze I gleich PI und ftir Schütze II gleich P2. Schütze I beginne mit dem Wettbewerb. a) Mit welcher Wahrscheinlichkeit gewinnt Schütze I bzw. Schütze II? b) Welche Bedingungen müssen PI und P2 erflillen, damit beide Schützen die gleiche Siegeswahrscheinlichkeit besitzen? 33. Die Belegschaft einer Firma setzt sich wie folgt zusammen: 50% Arbeiter, 40 % Angestellte und 10 % Leitende Angestellte. Aus Erfahrung sei bekannt, daß während eines Jahres ein Arbeiter mit Wahrscheinlichkeit 0,2, ein Angestellter mit Wahrscheinlichkeit 0,1 und ein Leitender Angestellter mit Wahrscheinlichkeit 0,05 die Firma verläßt. a) Mit welcher Wahrscheinlichkeit scheidet ein bestimmtes Belegschaftsmitglied während eines Jahres aus? b) Mit welcher Wahrscheinlichkeit ist eine Person, welche die Firma verläßt, ein Arbeiter? 34. Eine Urne U I enthalte 4 weiße und 6 rote Kugeln, eine andere Urne U2 dagegen 6 weiße und x rote. Eine der bei den Urnen werde rein zufallig ausgewählt und daraus eine Kugel gezogen. a) Wie groß ist die Wahrscheinlichkeit dafür, daß die gezogene Kugel rot ist? b) Eine rote Kugel wurde gezogen. Mit welcher Wahrscheinlichkeit stammt sie aus UI ? c) Die 16 + x Kugeln bei der Urnen werden zusammengelegt. Wie groß ist dann die Wahrscheinlichkeit, daraus eine rote Kugel zu ziehen? d) Wie groß muß x sein, damit die in c) ermittelte Wahrscheinlichkeit gleich der Wahrscheinlichkeit, aus U I eine rote Kugel zu ziehen, ist? 35. 60 % einer bestimmten Population seien Frauen, 40 % Männer. 5 % du Männer und 1 % der Frauen seien zuckerkrank.
54
1. Der Wahrscheinlichkeitsbegriff
a) Wie groß ist die Wahrscheinlichkeit dafür, daß eine zufallig ausgewählte Person zuckerkrank ist? b) Sind sie Ereignisse "eine Person ist zuckerkrank" und "eine Person ist weiblich" (stoch.) unabhängig? c) Eine zufallig ausgewählte Person sei zuckerkrank. Mit welcher Wahrscheinlichkeit ist diese Person ein Mann bzw. eine Frau? 36 . Drei einer ansteckenden Krankheit verdächtigen Personen A, B, C wurde eine Blutprobe entnommen. Das Untersuchungsergebnis sollte vorläufig nicht bekannt gegeben werden. A erfuhr jedoch, daß sich nur bei einer Person der Verdacht bestätigte, und bat den Arzt, ihm im Vertrauen den Namen einer der Personen B oder C zu nennen, die gesund ist. Der Arzt lehnt die Auskunft mit der Begründung ab, daß damit die Wahrscheinlichkeit daflir, daß A erkrankt ist, von ~ auf! ansteigen würde. A bestreitet dies. Man schlichte den Streit unter der Annahme, daß der Arzt, wenn A an der ansteckenden Krankheit leidet, mit gleicher Wahrscheinlichkeit B oder C nennen würde. 37. Eine Firma produziert Fernsehapparate. Mit Wahrscheinlichkeit 0,04 ist ein produziertes Gerät fehlerhaft. Bei der Endprüfung zeigt das Prüfgerät bei fehlerhaften Fernsehapparaten mit Wahrscheinlichkeit 0,8 und bei einwandfreien mit Wahrscheinlichkeit 0,1 einen Ausschlag. Ein zuflillig ausgewählter Apparat werde geprüft, wobei das Prüfgerät nichts anzeigt. Mit welcher Wahrscheinlichkeit ist dieser Fernsehapparat fehlerhaft bzw. fehlerfrei? *38. Ein Medikament in Tablettenform zeige unabhängig voneinander zwei Wirkungen: die nicht sofort erkennbare Heilwirkung mit der Wahrscheinlichkeit 0,8 und die sofort erkennbare Nebenwirkung mit der Wahrscheinlichkeit 0,3. Durch ein Versehen bei der Herstellung mögen 1 % der Tabletten eine falsche Dosierung besitzen, wobei die Heilwirkung mit Wahrscheinlichkeit 0,3 und die Nebenwirkung mit Wahrscheinlichkeit 0,8 eintritt. Mit welcher Wahrscheinlichkeit kann man auf Heilwirkung rechnen, wenn nach Einnahme des Medikaments a) die Nebenwirkung eintritt, b) die Nebenwirkung ausbleibt? Dabei sei das Eintreten der Heilwirkung nur von der Dosierung und nicht vom Eintreten der Nebenwirkung abhängig. *39. Bei einer Serienherstellung von wertvollen Werkstücken wird von einer Kontrolle ein Werkstück mit Wahrscheinlichkeit 0,1 als Ausschuß ausgesondert. Bei der überprüfung dieser KontrollsteIle wurde festgestellt, daß von ihr ein fehlerfreies Werkstück mit Wahrscheinlichkeit 0,042 und ein fehlerhaftes mit Wahrscheinlichkeit 0,94 als Ausschuß deklariert wird. Arbeitet die Einrichtung zufriedenstellend? Um zu einer Antwort zu kommen, berechne man die Wahrscheinlichkeit daflir, daß ein Werkstück fehlerhaft ist, wenn es von der Kontrollstelle ausgesondert bzw. nicht ausgesondert wird.
55
2.1. Definition der Zufallsvariabkn
*40. Wie ändert sich das Ergebnis von Aufgabe 39, wenn alle Werkstücke ein zweites Mal die Kontrollstelle durchlaufen und nur diejenigen Stücke ausgesondert werden, die zweimal als Ausschuß bezeichnet werden? Dabei sei vorausgesetzt, daß das' Ergebnis der I. Kontrolle auf die zweite Kontrolle keinen Einfluß hat.
2. Zufallsvariable 2.1. Definition einer Zufallsvariablen Bei dem Zufallsexperiment "Werfen eines Würfels" haben wir die möglichen Versuchsergebnisse durch die Zahlen 1,2,3,4,5,6 dargestellt. Dabei tritt z.B. das Elementarereignis {6} genau dann ein, wenn nach dem Wurf die mit sechs Punkten gekennzeichnete Seite des Würfels oben liegt. Weitere Beispiele von Zufallsexperimenten, bei denen das Versuchsergebnis unmittelbar durch einen Zahlenwert angegeben werden kann, sind: Die Anzahl der in einem bestimmten Blumengeschäft an einem Tag verkauften Blumen, das Gewicht eines von einem Versandhaus bei der Post aufgegebenen Paketes, die Gewichtsklasse eines Eies, die Größe oder das Gewicht einer zufällig ausgewählten Person oder die Geschwindigkeit eines an einer Radarkontrolle vorbeifahrenden Autos. Auch bei Zufallsexperimenten, bei denen die Versuchsergebnisse nicht unmittelbar Zahlen sind, interessiert man sich häufig flir Zahlenwerte, welche durch die Versuchsergebnisse wEn eindeutig bestimmt sind. Bei der Einftihrung der Binomialverteilung interessierten wir uns z.B. für die Anzahl der Versuche, bei denen ein Ereignis A in einem Bernoulli-Experiment vom Umfang neintritt. Wir stellen uns allgemein folgende Situation vor: Jedem Versuchsergebnis wEn ordnen wir durch eine wohlbestimmte Zuordnungsvorschrift genau eine reelle Zahl X(w) E IR zu. Nach jeder Durchftihrung des entsprechenden Zufallsexperiments soll daher mit dem Versuchsergebnis w auch der zugeordnete Zahlenwert X(w) festliegen. X ist also eine auf n erklärte reellwertige Funktion. Wie die Ergebnisse w eines Zufallsexperiments, so hängen auch die Werte der Funktion X vom Zufall ab. Daher nennt man X eine Zufallsvariable. Die Zufallsvariable X nimmt also einzelne Zahlenwerte bzw. Werte aus einem ganzen Intervall nur mit gewissen WahrscheinIichkeiten an. Zur Berechnung der Wahrscheinlichkeit, mit der die Zufallsvaiiable X einen bestimmten Zahlenwert x E IR annimmt, betrachten wir alle Versuchsergebnisse w, welche durch die Funktion X auf den Zahlenwert x abgebildet werden. Die Gesamtheit dieser Versuchsergebnisse bezeichnen wir mit Ax ; wir setzen also A x = {w E n/X(w) =
x},
x E IR.
(2.1 )
K. Bosch, Elementare Einführung in die Wahrscheinlichkeitsrechnung, DOI 10.1007/978-3-8348-8331-5_2, © Vieweg+ Teubner Verlag | Springer Fachmedien Wiesbaden GmbH 2011
56
2. Zufallsvariable
Bei der Durchftihrung des Zufallsexperiments nimmt die Zufallsvariable X genau dann den Zahlenwert x an, wenn das Ereignis Ax eintritt. Daher können wir die Wahrscheinlichkeit, mit der die Zufallsvariable X den Wert x annimmt, angeben, wenn Ax zu denjenigen Ereignissen gehört, denen durch die Axiome von Kolmogoroff eine Wahrscheinlichkeit zugeordnet wird. Diese Wahrscheinlichkeit bezeichnen wir mit P(X = x). Für sie erhalten wir aus (2 .1) die Definitionsgleichung P(X = x)
=P(A x ) =P({w E D/X(w) =x}).
(2.2)
Entsprechend nimmt X Werte aus dem Intervall (a, b] genau dann an, wenn das Ereignis ~a,bJ
= {w E DIa< X(w) ~ b}
(2.3)
eintritt. Besitzt auch dieses Ereignis eine Wahrscheinlichkeit, so erhalten wir fur die Wahrscheinlichkeit dafür, daß X einen Wert aus dem Intervall annimmt, die Gleichung P(a
< X ~ b) =P(A(a,bJ) =P({w E DIa< X(w) ~ b}).
(2.4)
Von einer Zufallsvariablen fordern wir allgemein, daß ftir jede reelle Zahl x und ftir jedes Intervall (a, b], a < b, die in (2.2) bzw. (2.4) angegebenen Wahrscheinlichkeiten erklärt sind. Wir geben allgemein die Definition 2.1: Eine auf D definierte reellwertige Funktion X heißt Zufallsvariable, wenn sie folgende Eigenschaften besitzt: Für jedesxE JR und jedes Intervall (a, b], a < b besitzen die Ereignisse Ax = {w E D/X(w);' x} und ~a,bJ = {w E DIa< X(w) ~ b} Wahrscheinlichkeiten. Dabei ist auch a =- 00 zugelassen. Die Menge aller Zahlen , die eine Zufallsvariable X als Werte annehmen kann, nennen wir den Wertevorrat der Zufallsvariablen X. Wir bezeichnen ihn mit W = W(X). Eine Zahl x gehört also genau dann zum Wertevorrat W, wenn es mindestens ein Versuchsergebnis w E D gibt mit X(w) = x.
2.2. Diskrete Zufallsvariable 2.2.1. Definition einer diskreten Zufallsvariablen BeispieI2.1. Der Besitzer eines Jahrmarktstandes bietet folgendes Spiel an: Beim Werfen zweier idealer Würfel erhält der Spieler DM 10,-, wenn beide Würfel eine 6 zeigen, DM 2,-, wenn genau ein Würfel eine 6 zeigt. Wir bezeichnen mit X die Zufallsvariable , die den Gewinn eines Spielers beschreibt. Die Werte von X erhalten wir durch folgende Zuordnung (vgl. Beispiel 1.10)
= {(6,6)} ~ 10; X' A2 ={(6,1), (6,2), (6,3 ), (6,4), (6 ,5), (5 ,6),(4,6) ,(3,6),(2,6),(1 ,6)} -
A IO
Ao = D\ (A IO U A2)~0.
2;
57
2.2. Diskrete Zufallsvariable
Daraus erhalten wir die Wahrscheinlichkeiten P(X = 10) = -b,; P(X = 2) =~; P(X = 0) = ;~, wobei natürlich P(X = 10) + P(X = 2) + P(X = 0) = 1 gilt. Die Werte der Zufallsvariablen X und die Wahrscheinlichkeiten, mit denen sie angenommen werden, stellen wir in der folgenden Tabelle zusammen. Werte von X Wahrscheinlichkeiten
(Zeilensumme = 1).
Diese Wahrscheinlichkeiten stellen wir als Stabdiagramm in Bild 2.1 graphisch dar.
~I
o
~I
I
36, 10
2
.. x
•
Bild 2.1. Wahrscheinlichkeiten einer diskreten Zufallsvariablen
Beispiel 2.2 (,,Mensch ärgere Dich nicht "). Die Zufallsvariable X beschreibe die Anzahl der bis zum Erscheinen der ersten ,,6" notwendigen Würfe mit einem idealen Würfel. X kann im Gegensatz zu der in Beispiel 2.1 angegebenen Zufallsvariablen unendlich viele verschiedene Werte annehmen, nämlich alle natürlichen Zahlen . Da die Zahlen des Wertevorrats W = {I, 2, 3, ... } durchnumeriert werden können, ist W abzählbar unendlich. Nach Satz 1.20 lauten die Wahrscheinlichkeiten Pi = P(X = i) = a)i. flir i=1,2, .. , . •
i.
Definition 2.2: Eine Zufallsvariable X, deren Wertevorrat W nur endlich oder abzählbar unendlich viele verschiedene Werte enthält, heißt diskret. Die Gesamtheit aller Zahlenpaare (Xi, P(X = Xi)), Xi E W heißt Verteilung der diskreten Zufallsvariablen X. Sind Xi und Xj zwei verschiedene Werte aus W, so sind die beiden Ereignisse A Xi = {w E U/X(w) = Xi} und AXj = {w E U/X(w) = Xj} unvereinbar, da der Funktionswert X(w) für jedes w eindeutig bestimmt ist. Damit sind die Ereignisse Axl , AX2 ' '" paarweise unvereinbar. Da die diskrete Zufallsvariable X aber einen ihrer Werte annehmen muß, erhalten wir aus U = ~ Ax . die Identität i
1 = ~ P(X = Xi),
(2.5)
1
wobei über alle Werte
Xi
1
E W summiert werden muß.
58
2. Zufallsvariable
Bemerkung: Wir bezeichnen allgemein die Verteilung einer diskreten Zufallsvariablen mit (Xi> P(X = Xi», i = 1, 2, .... Dabei läuft der Index i bis zu einer Zahl m, falls der Wertevorrat endlich ist. Im abzählbar unendlichen Fall durchläuft i alle natürlichen Zahlen. Aus A(a, bl = {w E variable
n ja< X(w) ::; b} =
L
P(a<X::;b)=
L AXi folgt für eine diskrete Zufallsa < xi::; b
P(X=Xi).
(2.6)
P(X=Xi).
(2.7)
a<xi::;b Entsprechend erhält man P(a::;X::; b)=
L
a ::;Xi ::; b
Die Wahrscheinlichkeiten, mit denen eine diskrete Zufallsvariable X Werte aus einem Intervall annimmt, können also unmittelbar aus der Verteilung von X berechnet werden. Die Ereignisse A(a,bl bzw. Ala,bl müssen dazu nicht untersucht werden. Durch welches Zufallsexperiment die diskrete Zufallsvariable X entstanden ist, spielt dabei keine Rolle. Wichtig sind nur die Werte der Zufallsvariablen X und die Wahrscheinlichkeiten, mit denen sie angenommen werden. Daher können die Werte Xi selbst als Versuchsergebnisse interpretiert werden, d.h. man kann n' = W = {x I> X2, ... } als sicheres Ereignis betrachten. Durch p' ({ Xi}) = Pi = P (X = Xi) wird zunächst jedem Elementarereignis und durch p' (A') = . L ,Pi jedem Ereignis 1: Xi€A:
AC n'
eine Wahrscheinlichkeit zugeordnet. Dabei erflillt p' offensichtlich die Axiome von Kolmogoroff. Wegen P/({xj) = P(X = Xi) = P({w E njX(w) = Xi}) ist die Wahrscheinlichkeit p' durch die Wahrscheinlichkeit P und die Zufallsvariable X eindeutig bestimmt. Das Ausgangssystem (n, P) wird somit durch die diskrete Zufallsvariable X abgebildet auf das System (n', P').
2.2.2. Verteilungsfunktion einer diskreten Zufallsvariablen Häufig interessiert man sich für die Wahrscheinlichkeit dafür, daß eine Zufallsvariable X Werte annimmt, die nicht größer als ein fest vorgegebener Wert X sind, d.h. für P(X ::; x). Läßt man X die Zahlengerade IR durchlaufen, so wird durch F(x) = P(X ::; x),
x E IR
(2.8)
eine reellwertige Funktion F erklärt. Diese Funktion F, die durch die Zufallsvariable X bestimmt ist, heißt Verteilungs/unktion von X. Die Funktionswerte F(x) lassen sich bei diskreten Zufallsvariablen nach folgender Formel berechnen F(x) = P(X::; x) =
L
Xi::; x
P(X = Xi).
(2.9)
59
2.2. Diskrete Zufallsvariable
Zur Untersuchung der Eigenschaften der Verteilungsfunktion einer diskreten Zufallsvariablen betrachten wir folgendes BeispieI2.3_ X sei die Augenzahl beim Werfen eines idealen Würfels . Die Verteilung von X lautet (i, ~), i =1,2, .. . ,6. Diese Verteilung stellen wir in Bild 2.2 als Stabdiagramm graphisch dar.
o
,
2
t 13 t 1 5 6
F(~)
~ ~ ~ ~
I
--..j
"6
----------~~~-+--~ -+--+ --~-------~~
o
2
3
456
Bild 2_2. Wahrscheinlichkeiten und zugehörige Verteilungsfunktion
F(x) = ~ F(x) =~ ftir 4 S F(x) =~ für 5 S bis wir schließlich nir
X
< 5, X <6,
X
~ 6 die Funktionswerte F(x) = P(X s x) =
L.: P(X = 6
Xi)
=I
i=1
erhalten. Die Verteilungsfunktion von X ist die in Bild 2.2 dargestellte Treppenfunktion, die an den Stellen i ftir i = I, 2, .. . , 6 Sprünge der Höhe P(X = i) = ~ besitzt und dazwischen konstant ist .
•
Jede diskrete Zufallsvariable X besitzt als Verteilungsfunktion eine Treppenfunktion F, die nur an den Stellen Xi aus dem Wertebereich W Sprünge der Höhe P(X =Xi) besitzt. Aus X < x folgt F(x) s F(x), d.h. F ist monoton nichtfallend. Die Funktionswerte F(x) werden beliebig klein , wenn nur X klein genug gewählt wird ,
60
2. Zufallsvariable
während sich die Funktionswerte F(x) mit wachsendem x der Zahl Eins beliebig nähern. Für die Verteilungsfunktion F einer diskreten Zufallsvariablen gelten also folgende Eigenschaften Aus X< x folgt F(x)::; F(x) lim
x---?--oo
F(x) = 0;
lim
X---++<X>
(2.10)
F(x) = 1.
Umgekehrt kann aus jeder Treppenfunktion F, welche die Bedingungen (2.1 0) erfüllt, die Verteilung (Xj, P(X = xÜ), i = 1, 2, . . . einer diskreten Zufallsvariablen gewonnen werden. Dabei besteht der Wertevorrat W der Zufallsvariablen X aus allen SprungsteIlen von F, während die Wahrscheinlichkeit P(X = Xj) gleich der Sprunghöhe an der Stelle Xj ist. Mit Hilfe der Verteilungsfunktion F läßt sich sehr einfach die Wahrscheinlichkeit dafür berechnen, daß X Werte aus einem Intervall annimmt. Daftir gilt der Satz 2_1 Ist F die Verteilungsfunktion einer diskreten Zufallsvariablen X, so gelten folgende Gleichungen P(a < X::; b) = F(b) - F(a), P( a ::; X ::; b)
=F (b) -
F (a - 0) ,
P(a < X) = 1 - F(a). Dabei ist F (a - 0) der linksseitige Grenzwert von F (x) an der Stelle a. Dieser Grenzwert ist gleich F(a), wenn a keine SprungsteIle ist, und sonst gleich dem Wert der Treppenstufe, die unmittelbar links neben dem Punkt a liegt.
Beweis: 1. P(a<X::;b)=
L
L P(X=Xj)- L P(X=xj)=F(b)-F(a).
P(X=Xj)=
Xj ::;b
a <Xj::; b
Xi ~a
2. P(a::; X::; b) = P(X = a) + P(a < X::; b) = P(X = a) + F(b) - F(a) = F(b) - [F(a) - P(X = a)] = F(b) - F(a - 0). 3 . P(a<X)=
L P(X=Xj)=I- L
Xj>a
Xi
•
P(X=Xj)=l-F(a).
::::;a
Beispiel 2.4 (vgl. Beispiel 2.2). Wir bestimmen die Verteilungsfunktion F der Zufallsvariablen X, welche beim Spiel "Mensch ärgere Dich nicht" die Anzahl der bis zum Start notwendigen Würfe mit einem idealen Würfel beschreibt. Aus der Verteilung (i, (~)j - 1), i = 1, 2, ... erhalten wir F(x) = 0 ftir x < 1 und ftir n ,;;;; x < n + 1 die Funktionswerte
i
L i (~)j j
=1
i.I=+1 _ (~)"
n
F(x) = P(X::; x) =
-1
=
6
=I-
(~)",
n = 1,2, .,.
61
2.2. Diskrete ZufaUsvariablc
Für jedes endliche x gilt zwar F(x) lim F(x)
X400
= lim
fl400
(1- (it)
= 1.
< 1;
wir erhalten jedoch
Für die Wahrscheinlichkeit dafm, daß bis zum Start mehr als n Versuche notwendig sind, gilt
P (X
> n) = 1 - P (X :0; n) = 1 - [1 -
(i )n 1= (~ t
•
.
2.2.3. Erwartungswert einer diskreten Zufallsvariablen Beispiel2.S (vgI. BeispieI2.1). Wir nehmen an, daß das in Beispiel 2.1 beschriebene Jahrmarkt-Spiel innerhalb einer bestimmten Zeitspanne n-mal gespielt wird. Dabei werde hlO-mal der Hauptgewinn von DM 10,- und h 2-mal ein Gewinn von DM 2,verteilt, während bei den restlichen h o = n - h lO - h 2 Spielen kein Gewinn erzielt wird. Damit erhalten wir ftir den in dieser Zeitspanne ausbezahlten Gesamtgewinn x die Darstellung x = 10· hJO + 2· h 2 + o· ho .
(2.11)
Division durch n ergibt den Durchschnittsgewinn (2.12) Dabei stellen die Werte rIO, r2 , ro die relativen Häufigkeiten der Spiele dar, bei denen 10 bzw. 2 bzw. 0 DM gewonnen wurden. Handelt es sich bei den Spielen um ein BernouIli-Experiment, so werden nach dem BernouIlischen Gesetz der großen Zahlen fm große n die relativen Häufigkeiten mit hoher Wahrscheinlichkeit in der unmittelbaren Nähe der entsprechenden Wahrscheinlichkeitswerte liegen. Daher werden wir in
x: ~
10· P(X = 10) + 2 . P(X = 2) + 0 . P(X = 0)
(2.13)
meistens eine gute Näherung erhalten. Die rechte Seite in (2.13) hängt nur noch von der Verteilung der Zufallsvariablen X und nicht mehr von den einzelnen Spielausgängen ab. Da der mittlere Gewinn (= Durchschnittsgewinn) mit großer Wahrscheinlichkeit in der Nähe dieses Zahlenwertes liegt, nennen wir ihn den Erwartungswert der Zufallsvariablen X und bezeichnen ihn mit E(X) oder mit IJ.. Er lautet hier E(X) = 10· + 2 · ~ = ~ = ~.
-k
Für große n wird also der mittlere Gewinn mit hoher Wahrscheinlichkeit ungefähr ~ DM betragen. Verlangt der Besitzer des Jahrmarktstandes von jedem Spieler 1 DM
Einsatz, so wird er über einen längeren Zeitraum mit großer Wahrscheinlichkeit einen Gewinn von ungefähr ~ DM pro Spiel erzielen. Dabei kann es aber durchaus einmal vorkommen, daß er an einem Tag einen Verlust erleidet . Dafm wird der mittlere Gewinn an einem anderen Tag evtI. mehr als ~ betragen. •
62
2. Zufallsvariable
Besitzt eine Zufallsvariable X den endlichen Wertevorrat W = {XI> X2, ... , x m }, so heißt der durch m
(2.14)
E(X) = J.I = 2'>iP(X = XÜ i=l
erklärte Zahlenwert E(X) der Erwartungswert der Zufallsvariablen X. Wie in Beispiel 2.5 besitzt der durch die Verteilung von X bestimmte Zahlenwert E(X) folgende Eigenschaft: Wird das zugrunde liegende Zufallsexperiment n-mal unabhängig durchgeführt, so liegt flir große n der Mittelwert der erhaltenen Zahlenwerte mit hoher Wahrscheinlichkeit in der Nähe von E(X), es gilt also mit großer Wahrscheinlichkeit
x
I
X"" E(X).
(2.15)
Als nächstes betrachten wir eine diskrete Zufallsvariable X mit abzählbar unendlichem Wertevorrat W = {Xi, i =1,2, ... }, deren Werte xdedoch alle nichtnegativ n
sind. Dann bilden die endlichen Partialsummen
Sn
l>i P(X = Xi), n = 1,2,3, ...
=
i=1
eine monoton nichtfallende Folge, die entweder gegen einen endlichen Grenzwert konvergiert oder divergent ist (d.h. die Glieder Sn werden beliebig groß, wenn nur n hinreichend groß ist). 1m ersten Fall nennen wir den Grenzwert der Folge Sn den Erwartungswert der nichtnegativen Zufallsvariablen X, d.h. n
E(X) = lim
n~oo
00
"XiP(X = xü = "XiP(X = Xi)
L-
i
L...J
=1
i
=1
<
00
(Xi;::: 0).
1m zweiten Fall sagen wir, die Zufallsvariable X besitzt keinen (endlichen) Erwartungswert. Sind dagegen sämtliche Werte Xi nichtpositiv (d.h. Xi $ 0), so bilden die Partialn
summen
Sn
=
LXi P(X = Xi), n = 1,2, ... eine monoton nichtwachsende Folge. i=l
Sofern sie gegen einen endlichen Grenzwert konvergiert, heißt auch dieser Grenzwert der Erwartungswert der nichtpositiven Zufallsvariablen X. Besitzt der abzählbar unendliche Wertevorrat W sowohl unendlich viele positive als auch unendlich viele negative Werte, so kann eventuell folgende Situation eintreten: Bei einer bestimmten Durchnumerierung der Werte erhält man einen end-
L Xi P(X =Xi)' Durch eine Umnumerierung kann sich n
lichen Grenzwert lim
n-+co i=l
aber plötzlich ein anderer Grenzwert ergeben
~der
die entsprechende Folge der
63
2.2. Diskrete Zufallsvariable
Partialsummen konvergiert gar nicht mehr. In diesem Fall kann der Zufallsvariablen X kein Erwartungswert zugeordnet werden, da dieser doch von der Durchnumerie-
L IXi IP(X = Xi)' n
rung der Werte aus W unabhängig sein sollte. Wenn jedoch die Folge sn =
i= 1
n = 1, 2, .. . einen Grenzwert besitzt, wir bezeichnen ihn mit ~ Ixi I P(X = Xi), so konvergiert auch die Folge sn =
1
L Xi P(X = Xi), n = 1,2, ... , wobei man bei jeder ben
i=1
liebigen Umordnung der Werte Xi denselben Grenzwert erhält. Diesen Grenzwert nennen wir den Erwartungswert der Zufallsvariablen X. Wir bezeichnen ihn mit J..I = E(X) = ~ xi P(X = xJ Diese Eigenschaft gibt Anlaß zur 1
Definition 2.3: Ist X eine diskrete Zufallsvariable mit der Verteilung (Xi, P(X = Xi», i = 1,2, ... und ist ~ lxii P(X = Xi) endlich, so heißt (der dann 1 auch existierende Grenzwert) J..I = E(X) = ~ Xi P(X = Xi) 1
(2.16)
der Erwartungswert der Zufallsvariablen X. Beispiel 2_6 (idealer Würfel). Die Zufallsvariable X, welche die mit einem idealen Würfel geworfene Augenzahl beschreibt, besitzt den Erwartungswert E(X) = I . ~ + 2 . ~ + 3 .
! + 4 . ~ + 5 . ! + 6 . ~ = ~ = 3 ,5.
•
Beispiel 2.7 _ X bezeichne die Anzahl der von einem Autohändler aneinem Tag verkauften Autos. Dabei sei bekannt, daß die Zufallsvariable X folgende Verteilung besitzt 10 0,004 Daraus erhalten wir den Erwartungswert E(X) =0 ·0,3 + 1 · 0,25 +2 ·0,20 + 3 ' 0,10 +4 ·0,05 + 5 ·0,03 + 6 ·0,025 + • + 7·0,02 + 8 ·0,015 +9 ·0,006 + 10·0,004 = 1,804 . Beispiel 2.8 (Roulette). Beim Roulette-Spiel wird eine der 37 Zahlen 0, 1,2, ... ,36 ausgespielt. Dabei setzen 3 Spieler jeweils eine Spieleinheit nach folgenden Strategien: Spieler I setzt immer auf die Zahl I , Spieler II auf die Kolonne {I, 2, .. . , 12} und Spieler III auf Impair, d. h. auf die ungeraden Zahlen {I, 3, 5, . .. , 35}. Bei der Ausspielung handle es sich um ein Laplace-Experiment, d.h. jede Zahl soll mit Wahrscheinlichkeit gezogen werden. Die Zufallsvariablen Xl' X2 , X3 sollen den Reingewinn der Spieler I, II, III in Spieleinheiten beschreiben. Wird die Zahl 1 ausgespielt, so erhält Spieler I den 36-fachen Einsatz ausbezahlt. Nach Abzug seines Einsatzes verbleibt ihm somit ein Reingewinn von 35 Einheiten.
f.7
64
2. Zufallsvariable
Wird die I nicht ausgespielt, so verliert er seinen Einsatz. Die Zufallsvariable XI besitzt somit die Verteilung - I
35
36
I
37
37
und den Erwartungswert E(xd = 35 .
f.7 - I . ~ = - f.7 .
*
Tritt das Ereignis D = {I, 2, ... , 12} ein, so erhält Spieler II den dreifachen Einsatz ausbezahlt (Reingewinn =2 Einheiten). Andernfalls verliert er seinen Einsatz. Wegen P(D) = besitzt die Zufallsvariable X2 die Verteilung -1 25
37
*-*
und den Erwartungswert E(X2 )
=2·
=- f.7.
Für Spieler III, der auf "einfache Chance" spielt, gibt es eine Sonderregelung. Wird eine ungerade Zahl ausgespielt, so bekommt er den doppelten Einsatz ausbezahlt, falls die erscheint, kann er den halben Einsatz herausnehmen, sonst verliert er seinen Einsatz. Daher gilt für X3
°
• Beispiel 2.9 (Verdoppelungsstrategie) a) Bevor beim Roulette-Spiel ein Höchsteinsatz festgesetzt wurde, spielte der Multimilliardär Huber nach der folgenden Strategie: Er setzte immer auf die Kolonne {I, 2, ... , 12}, und zwar begann er mit einer Spiel einheit. Im Falle eines Gewinns kassierte er den Reingewinn, sonst verdoppelte er beim nächsten Spiel seinen Einsatz. Gewann er nun, so bekam er 6 Einheiten ausbezahlt, während er insgesamt 1 + 2 =3 Einheiten eingeseizt hatte. Andernfalls verdoppelte er wieder seinen Einsatz, und zwar so lange, bis er einmal gewann. Die Zufallsvariable X beschreibe den Reingewinn (in Spieleinheiten) in einer solchen Serie. Falls Herr Huber beim i-ten Spiel zum erstenmal gewann, betrug der Einsatz ftir dieses Spiel 2 i - 1 und der Gesa:nteinsatz 1 + 2 + 2 2 + ... + 2 i - 1 =2 i -1 Einheiten. Da er 3 . i - I Einheiten ausbezahlt bekam, betrug der Reingewinn 3 . 2 i - 1 - (2 i -1) =1 + 1,5 ·2· 2 i - 1- 2i = I + 1,5 ' 2i - 2 i = 1 + 0,5 . 2 i = I + 2i -I . Da die Gewinnwahrscheinlichkeit in einem Einzelspiel gleich ~; ist, erhalten wir ftir die Wahrscheinlichkeit Pi> daß Herr Huber beim i-ten Versuch zum erstenmal gewinnt, aus der geometrischen Verteilung den
65
2.2. Diskrete Zufallsvariable
* *
Wert Pi = (~)i -1 für i = 1,2, '" . Damit besitzt die Zufallsvariable X die Ver· (~)i -: 1), i = 1,2, '" und den Erwartungswert teilung (1 + 2i -1; 00
E(X) =
•
1
~' (1 + 2 i -1) . 12 . (25 )'- = 37
L-,
i =1
37
Die Zufallsvariable X besitzt also keinen (endlichen) Erwartungswert. Zur Anwendung dieser Strategie, die mit Wahrscheinlichkeit 1 immer zu einem Gewinn fUhrt, müssen 2 Bedingungen erfüllt sein: 1. es darf keinen Höchsteinsatz geben, 2. der Spieler muß überbeliebig viel Geld verfügen, damit er, falls notwendig, lange genug verdoppeln kann. b) Wir nehmen nun an, daß die Spielbank den Höchsteinsatz auf 2048 Einheiten beschränkt hat. Wegen 2 11 = 2048 kann Herr Huber höchstens li-mal verdoppeln. Verliert er 12-mal hintereinander, so hat er seinen bisherigen Gesamteinsatz in der Höhe von 2 12 - 1 = 4095 Einheiten verloren. Die Wahrscheinlichkeit dafm beträgt [p(D)]12 =
(~;
Die Zufallsvariable Erwartungswert
X,
11
r
= 0,00905.
die den Reingewinn in diesem Spiel beschreibt, besitzt den
=!l '\" (25 37 L-, 37 k=O
=!l 37
)k + ! l "l1)k (50 _ (212 _ 1) (25 )12 37 L-, 37 k=O
37
1 - (~~Y2 1 _ (:?2)12 12 37 +!l 37 _(212 _ 1)(25) 11 37 1 _ 50 37 37 37
=1_(25)12 +!l[2 12 (25)12 -lJ _2 12 (25)12 (25)12 37 13 37 37 + 37 1 (50)12 1 =-13 37 +13=-2,776.
•
66
2. Zufallsvariable
Eigenschaften des Erwartungswertes einer diskreten ZufaIlsvariablen Nimmt eine diskrete Zufallsvariable X nur einen Wert c an, so nennen wir X eine Konstante und bezeichnen sie mit c. Ihr Erwartungswert ist natürlich auch gleich dieser Konstanten c, es gilt also
(2.17)
E(c) = c . Für ein bestimmtes Ereignis A wird durch I (w) = { 1, falls w E ~, A 0, falls w E A
eine Zufallsvariable IA , der sog. Indikator von A erklärt. Für seinen Erwartungswert erhalten wir (2.18)
E(IA) = I · P(A) +O · P(A) =P(A) .
Die Wahrscheinlichkeit P(A) eines Ereignisses A ist also gleich dem Erwartungswert des Indikators von A. Beispiel 2.10. Den Wertevorrat der Reingewinn-Zufallsvariablen XI, X 2 , X 3 in Beispiel 2.8 haben wir dadurch erhalten, daß wir von der jeweiligen A.uszahlung den Einsatz subtrahierten. Beschreibt die Zufallsvariable Y I die Auszahlung nach einem Spiel an den Spieler I, so erhalten wir die Werte der Zufallsvariablen YI durch Addition der Zahl 1 (Einsatz) zu den Werten von XI ' Die entsprechenden Wahrscheinlichkeiten bleiben dabei erhalten ; es gilt also P(Y I = 36) = kund P(YI = 0) = Wegen dieses Bildungsgesetzes bezeichnen wir die Zufallsvariable YI auch mit XI + 1. Für den Erwartungswert der Zufallsvariablen XI + 1 erhalten wir 1
36
1
E(X I + 1) = (35 + 1) . 37 + (- 1 + 1) . 37 = 35 · 37
36
1
36
- 37 + 1· 37 + 37 = E(X I) + 1.
'------' =E(XI)
~
=1
Entsprechend gilt E(X 2 + 1) = E(X 2 ) + I ; E(X 3 + 1) = E(X 3 ) + I . Setzt Spieler III anstelle einer Einheit a Einheiten (den neuen Einsatz erhält man aus dem alten durch Multiplikation mit a), so multipliziert sich auch der Reingewinn mit a. Die ZufalJsvariable a · X 3 , die nun den Reingewinn beschreibt, besitzt die Verteilung
- a
Werte von a . X 3
18
Wahrscheinlichkeiten
37
und den Erwartungswert E(a . X 3 ) = a·
18
1
1
18
*
a
37 + a· (-"2' 37) + a · (- I · 37) = - 74 = a · E(X 3) ·
•
Multipliziert man sämtliche Werte Xi einer diskreten Zufallsvariablen X mit einer Konstanten a und addiert anschließend eine Konstante b, so erhält man den Werte-
67
2.2. Diskrete Zufallsvariable
vorrat W = {aXi + b, i =1,2, . . . } einer diskreten Zufallsvadablen. Diese Zufallsvariable bezeichnen wir mit aX + b. Im Falle a =0 nimmt diese Zufallsvariable nur den Wert b an. Für a 0 sind alle Werte aXi + b , i =1,2, . . , verschieden. Die Zufallsvariable aX + b nimmt genau dann den Wert aXi + b an, wenn X den Wert Xi annimmt; es gilt also P(aX + b = aXi + b) = P(X = Xi), i =1,2, ... . Die Zufallsvariable Y = aX + b besitzt somit die Verteilung (axi + b , P(X =Xi)), i =1, 2, ... . Für den Erwartungswert von aX + b zeigen wir den
*
Satz 2.2 X sei eine diskrete Zufallsvariable mit der Verteilung (Xi, P(X = Xi», i =1,2 , '" und dem Erwartungswert E(X). Dann gilt flir den Erwartungswert der Zufalls· variablen aX + b, a, b E IR
(2.19)
E(aX + b) = aE(X) + b .
Beweis: 1. Für a =0 nimmt die Zufallsvariable aX + b nur den Wert b an. Dann ist dieser Zahlenwert auch der Erwartungswert. 2. Im Falle a 0 besitzt die diskrete Zufallsvariable aX + b die Verteilung (axi + b, P(X = Xi» , i = 1,2, . ... Daraus folgt
*
E(aX + b)
=k I
(axi + b) P(X
=Xi) =a k
Xi P(X
I
=Xi) + b kP(X =Xi) = I
= aE(X) + b ,
•
womit der Satz bewiesen ist. Häufig kann der Erwartungswert einer diskreten Zufallsvariablen direkt aus Symmetrie-Eigenschaften der Verteilung gewonnen werden. Dazu betrachten wir zunächst das
Beispiel 2.11 (Augensumme zweier Würfel, vgl. Beispiel 1.10). Die Verteilung der Zufallsvariablen X der Augensumme zweier idealer Würfel ist in Bild 2.3 in einem Histogramm dargestellt.
1
36
~----~--+---t--+--~--+-~r--+---r--+-~r-------~Xi
o
3
4
5
6
7
Bild 2.3. Augensumme zweier idealer Würfel
B
9
10
11
12
68
2. Zufallsvariable
Die Werte von X liegen auf der x-Achse symmetrisch zum Punkt s "' 7. Ferner besitzen jeweils die beiden zum Punkt x = 7 symmetrisch liegenden Werte die gleiche Wahrscheinlichkeit. Es gilt also P(X
= 7 + k) = P(X = 7 -
k)
für k
= 0, 1, ... ,5.
Die Zufallsvariable X - 7 besitzt die Verteilung Werte von X - 7
5
Wahrscheinlichkeiten
36
1
Dieselbe Verteilung besitzt aber auch die Zufallsvariable - (X - 7) = 7 - X. Somit haben die beiden Zufallsvariablen X - 7 und 7 - X auch den gleichen Erwartungswert. Es gilt also
= E(7 -
E(X - 7)
X).
Nach Satz 2.2 erhalten wir hieraus die Gleichung
=7 -
E(X) - 7
E(X)
mit der Lösung E(X) = 7. Der Symmetrie-Punkt s = 7 ist also der Erwartungswert von X.
•
Allgemein gilt der
Satz 203 Lassen sich die Werte einer diskreten Zufallsvariablen X darstellen in der Form {s ± Xk, k = 1, 2, ... } und ist dabei ftir alle k die Gleichung P(X = s + xd =P(X = s - Xk) erflillt, so gilt im Falle der Existenz des Erwartungswertes von X E(X) = s.
Beweis: Die Zufallsvariablen X - sund - (X - s) = s - X besitzen dieselbe Verteilung und, falls der Erwartungswert von X existiert, auch den gleichen Erwartungswert. Damit gilt nach Satz 2.2 E(X - s)
= E(X) - s = E(s -
X)
=s -
E(X) ,
woraus unmittelbar die Behauptung E(X) = s folgt.
•
Ist g eine auf dem Wertevorrat W einer diskreten Zufallsvariablen definierte, reellwertige Funktion, so bildet g die Menge W auf die Bildmenge g(W) ={g(Xi), Xi E W} ab o Dabei kann der Fall eintreten, daß verschiedene Werte Xi der Zufallsvariablen X gleiche Bildpunkte besitzen, zoB. g(Xj) = g(Xk) für ein j *- k. Wie bei der linearen Abbildung aXi + b ist die Bildmenge g(W) Wertevorrat einer diskreten Zufallsvariablen Y = g(X)o
69
2.2. Diskrete Zufallsvariable
Wir bezeichnen den Wertevorrat g(W) mit g(W) = {Yt, Y2, . .. }. Dann gilt ftir Yj Eg(W)
L
P(g(X) = Yj) =
(2.20)
P(X = Xi).
i : g(Xi) = Yj
Im Falle der Existenz des Erwartungswertes der Zufallsvariablen g(X) gilt der Satz 2 .4 g sei eine auf dem Wertevorrat einer diskreten Zufallsvariablen X definierte , reellwertige Funktion. Existiert der Erwartungswert der Bildvariablen g(X) , so gilt
(2.21)
E(g(X» = ~ g(Xi) P(X = Xi) . I
Beweis: Der Wertevorrat der Zufallsvariablen g(X) sei {y 1, Y2, .. . }. Dann folgt aus (2.20) E(g(X» =
L
Yj
P(g(X) = Yj) =
=L L j
L
Yj
L
P(X = Xi) =
i: g(Xj} = Yj
Yj P(X = Xi).
i : g( xi) = Yj
Für alle Werte Xj, über die in der zweiten Summe summiert wird, gilt aber Daraus folgt E(g(X»=
LL j
Yj
= g(Xj).
(2.22)
g(Xi) = Yj
Da auf der rechten Seite von (2 .22) insgesamt über alle Werte Xi E W(X) summiert wird, folgt daraus die Behauptung
•
E(g(X» = k g(Xi) P(X = Xi) . I
Bemerkung: Ist der Wertevorrat WendIich, so auch g(W). Dann existiert der Erwartungswert E(g(X» als endliche Summe. Falls W abzählbar unendlich ist, existiert E(g(X» genau dann, wenn die Bedingung
L Ig(xj)1 P(X = xi) <
00
erftillt ist.
i=1
Zur Nachprüfung, ob der Erwartungswert von g(X) existiert, und im Falle der Existenz zur Berechnung von E(g(X» muß.wegen (2 .21) die Verteilung der Zufallsvariablen g(X) nicht bestimmt werden; darin liegt die Bedeutung des Satzes 2.4. 2.2.4. Varianz und Streuung einer diskreten Zufallsvariablen Mit den in Beispiel 2.8 beschriebenen Strategien spielen die drei Roulette-Spieler mit verschiedenen Risiken, wobei Spieler I das größte und Spieler III das kleinste
70
2. Zufallsvariablc
Risiko auf sich nimmt. Daraus resultieren die verschiedenen Verteilungen der Gewinn -Variablen Xl, X2 , X3 . Die Werte der einzelnen Zufallsvariablen sind auf der x-Achse verschieden "gestreut". Trotzdem besitzen die beiden Zufallsvariablen Xl und X2 denselben Erwartungswert p. =- -f.7 . Der Erwartungswert p. einer diskreten Zufallsvariablen liefert somit keine Information über die Größe der Abweichungen der Werte Xi von p.. Aus dem Erwartungswert der Zufallsvariablen X - p. mit der Verteilung (Xi - p., P(X =Xi», i =1,2, .. . erhalten wir wegen E(X - p.) = E(X) - p. =p. - p.
=0
ebenfalls keine Information darüber, da sich die positiven und negativen Differenzen Xi - P. bei der Erwartungswertbildung ausgleichen. Daher wäre es naheliegend, die Absolutbeträge lXi - p.1 zu betrachten, also die Zufallsvariable IX - p.1, und deren Erwartungswert E( IX - p.1) = k lXi - p.1 P(X =Xi) als Maß für die Streuung einer 1
Zufallsvariablen X einzufwuen. Da sich jedoch Ausdrücke mit Absolutbeträgen mathematisch nur sehr schwer behandeln lassen, ist es vom mathematischen Standpunkt aus günstiger, an Stelle der Absolutbeträge die Abweichungsquadrate (Xi - p.)2 und als Maß für die Streuung den Zahienwert+JE([X - p.f) zu wählen . Wir geben daher die Definition 2.4: Ist p. der Erwartungswert einer diskreten Zufallsvariablen X, so heißt im Falle der Existenz der Zahlenwert
a2 =D2 (X)
=E([X -
p.12)
= ~ (Xi -
p.)2 P(X
1
=Xi)
die Varianz und die positive Quadratwurzel a = D(X) =+JD2 (X) die Standardabweichung oder Streuung von X. Bei vielen Zufallsvariablen sind die Werte Xi ganzzahlig. Falls dann p. nicht auch ganzzahlig ist, läßt sich die Varianz nach der im folgenden Satz angegebenen Formel einfacher berechnen. Satz 2.5 Für die Varianz a2 einer di~kreten Zufallsvariablen gilt die Beziehung
a2
= ~ x~ P(X =Xi) 1
Beweis: a2 =E([X - p.12)
= ~ (X~ 1
I
= E(X 2) -
= ~ (Xi -
p.)2 P(X
1
- 2P.Xi + p.2) P(X
=k X~ P(X = Xi) = ~1 X~ P(X =Xi) =E(X2) - p.2 . I
p.2
p.2 .
(2 .23)
=Xi) =
=Xi) =
=Xi) + p.2 ki P(X =Xi) = 2p.· p. + p.2·1 = ~ X~ P(X =Xi) - p.2 = 1
2p. ~ Xi P(X I
•
71
2.2. Diskrete Zufallsvariable
Beispiel 2.12 (vgl. Beispiel 2.8). Für die in Beispiel 2.8 erklärten ReingewinnVariablen Xl, X2 , X 3 erhalten wir nach Satz 2.5 die Varianzen und Streuungen (auf drei Stellen gerundet) . 2_ 2 _ 2 1 36 (1)2 _ ul-D (Xd-35 '37+1'37- 37 -34,080, ul=5,838; 2_ D2( X2)_ 12 + 1 . 37 25 - 4 . 37
U2 -
(-.1..) 37
2
-1972' , ,
U2
=
1,404;
Für eine lineare Transformation aX + b gilt der Satz 2.6 Ist X eine diskrete Zufallsvariable mit der Varianz D2(X), so gilt für beliebige reelle Zahlen a, b (2.24) Beweis: Aus E(aX + b) = aE(X) + b = aJ.l + b folgt
D2 (aX + b) = E([aX + b - E(aX + b)]2) = E([aX + b - a E(X) - b]2) = = E([aX - aE(X) ]2) = E(a 2 . [X - J.l]2) = a2 E([X - J.l]2) = a2D2(X) . Bemerkungen: 1. Für a = 1 erhalten wir
•
(2.25) Diese Eigenschaft ist unmittelbar einleuchtend, da die Werte und der Erwartungswert der Zufallsvariablen X + b aus denen von X durch eine Parallel verschiebung um b hervorgehen. Daher streuen die Werte der Zufallsvariablen X + b um den Erwartungswert E(X) + b genauso wie die Werte von X um E(X). 2. Für b = 0 ergibt sich (2.26) und hieraus für die Standardabweichung D(aX) = lai D(X) = lai u.
(2.27)
Multiplikation der Zufallsvariablen X mit einer Zahl a bewirkt also die Multiplikation der Varianz D2(X) mit a2 und die Multiplikation der Streuung D(X) mit lai. Definition 2.5: Ist X eine diskrete Zufallsvariable mit dem Erwartungswert J.l und der Standardabweichung u > 0, so heißt die daraus abgeleitete Zufallsvariable X-J.l X*=-u-
die Standardisierte von X. Die lineare Transformation
X;", heißt Standardisierung.
72
2. Zufallsvariable
Bemerkung: Für eine standardisierte Zufallsvariable X* gilt
1 I I E(X*) = (i E(X-J.l) =(i(E(X) - J.l) = (i(J.l-J.l) =0 ; D2 (X*) = D2
(1a [X -J.ll )=-1a D (X - J.l) = -1. a a 2
2
2
2
= I.
X* besitzt also den Erwartungswert 0 und die Varianz (und damit die Streuung) I. 2.2.5. Paare diskreter Zufallsvariabler
Beispiel 2.13 (vgl. Beispiel 2.8). Beim Roulette-Spiel setze Spieler IV jeweils eine Einheit auf die Kolonne {I, 2, ... , 12} und eine auf "Impair", also auf die ungeraden Zahlen. Seine Gewinne werden durch die beiden Zufallsvariablen X(= X2 ) und Y(= X3 ) beschrieben, also durch das sogenannte Zu[allsvariablenpaar (X, Y). Wenn die Ereignisse K = {I, 2, ... , 12} und U = {I, 3, ... , 35} zugleich, d.h., wenn K n U = {l, 3 , 5, 7,9, 11} eintritt, nimmt X den Wert 2 und Y den Wert 1 an. Wir schreiben dafür (X = 2, Y = 1). Dabei gilt P(X = 2, Y = 1) = P(K n U) =
f:r.
Entsprechend erhalten wir P(X=2 , Y= - !)
=p(Kn{O})=p(~)=O,
P(X = 2, Y = - 1)
= P(K iJ) = P({2, 4, ... , 12}) =
P(X = - 1, Y = 1)
=p(KU) =P({13, 15, .. . , 35}) =*,
f:r,
P(X =-1, Y =-~) =p(Kn {O}) = P({O}) = i?, P(X=-I, Y =-I)=p(KD {O})= P({l4, 16, ... ,J6})=*. Diese sechs Wahrscheinlichkeiten stellen wir in folgendem Schema übersichtlich dar, wobei die Werte von X in der ersten Spalte und die von Y in der ersten Zeile stehen.
~
Y= 1
Y= - ~
Y=-1
X=2
37
6
0
37
6
P(X=2)=*
X =-1
12
1
12
P(X = -1) =*
37
37
37
P(Y = 1) =M- p(Y=-4) =i? P(Y= - 1) =MDie Zeilensummen liefern die Wahrscheinlichkeiten, mit denen die Zufallsvariable X ihre Werte annimmt. Durch Bildung der Spaltensummen erhält man die Wahrscheinlichkeiten ftir Y. Diese Wahrscheinlichkeiten stellen wir in Analogie zu denen einer einzelnen Zufallsvariablen in einem räumlichen Stabdiagramm dar. Dazu tragen wir die sechs Zahlenpaare (2; 1); (2; -!); (2; -1); (-1; 1); (-1; - ~); (-1 ; -1) in die x-y-Ebene als Punkte ein. In jedem dieser Punkte stellen wir senkrecht auf die x-y-Ebene einen
73
2.2. Diskrete Zufallsvariable
Stab, dessen Länge die Wahrscheinlichkeit des entsprechenden Punktes ist. Der Stab über dem Punkt mit der x-Koordinate 2 und der y-Koordinate 1 besitzt z. B. die (s. Bild 2.4). Länge P(X = 2, Y = 1) =
f7
PIX=x.Y=y}
1-1,1}
•
1-1.-1}
Bild 2.4 Wahrscheinlichkeiten einer zweidimensionalen diskreten Verteilung
Wir betrachten nun zwei beliebige diskrete Zufallsvariable X und Y, die beide durch das gleiche Zufallsexperiment bestimmt sind und die Verteilungen (Xj , P(X = xD), i = 1,2, ... bzw. (Yj, P(Y = Yj)),j = 1,2, ... besitzen. Dabei haben wir in Abschnitt 2.2.1 folgende Bezeichnungen eingeftihrt (X=xj)=Aj={wEnjX(w)=xd, (Y = Yj) = Bj = {w E njY(w) = Yj},
i=I,2, . .. j = 1,2, ."
(2.28)
Daher nimmt X den Wert Xj und zugleich Y den Wert Yj genau dann an, wenn der Durchschnitt Aj Bj eintritt. Wir schreiben daftir i j
=1, 2, .. . =1,2, .. .
Hieraus folgt P(X = Xj, Y = Yj) = P(Aj Bj); Wegen n = ~ I
~ J
i =1, 2, .. . j = 1,2, .. .
(2 .29)
(2.30)
Aj Bj gilt
(2.31)
74
2. Zufallsvariablc
Aus Ai =
~ J
Ai Bj bzw. Bj =
~
Ai Bj erhalten wir
I
P(X = Xi) = P(Ai) = ~ P(Ai Bj) = ~ P(X = Xi, Y = Yj) J
für i = 1,2, ...
J
P(Y = Yj) = P(Bj) = ~ P(Ai Bj) = I
~
P(X = Xi, Y = Yj)
für j = 1,2, .,.
~.3~
I
Die Wahrscheinlichkeiten der Zufallsvariablen X bzw. Y lassen sich also direkt aus den gemeinsamen Wahrscheinlichkeiten P(X = xi, Y = Yj) durch Summenbildung berechnen. Trägt man die Wahrscheinlichkeiten P(X = Xi, Y = Yj), wie in Beispiel 2.13 durchgeführt, in ein zweidimensionales Schema ein, so lassen sich die Werte und die Wahrscheinlichkeiten der Zufallsvariablen X und Y auf dem Rand dieses Schemas (durch Summenbildung) darstellen. Daher nennt man die Verteilungen (Xi, P(X = xj)), i = 1,2, ... und (Yj, P(Y = Yj)), j = 1,2, ... auch Randverteilungen. Definition 2.6: Die Gesamtheit (Xi,Yj,P(X = Xi, Y= Yj)), i = 1, 2, ... ,j = I, 2, ... heißt gemeinsame"Verteilung der beiden diskreten Zufallsvariablen X und Y. Die eindimensionalen Verteilungen (Xi, ~ P(X = Xi, Y = Yj)), i = 1,2, ... bzw. J
(Yj, ~ P(X = Xi, Y = Yj)),j = 1,2, ... heißen Randverteilungen. I
Sind für alle i, j jeweils die Ereignisse Ai und Bj (stoch.) unabhängig, so ist es sinnvoll, die beiden diskreten Zufallsvariablen (stoch.) unabhängig zu nennen. Mit Satz 1.16 erhalten wir daher folgende Definition 2. 7: Zwei diskrete Zufallsvariable heißen (stochastisch) unabhängig, falls für alle Wertepaare (Xi, Yj) die Gleichung P(X = Xi, Y = Yj) = P(X = xj) . P(Y = Yj)
(2.33)
gilt. Bei (stoch.) unabhängigen Zufallsvariablen ist die gemeinsame Verteilung wegen (2.33) durch die Verteilungen der einzelnen Zufallsvariablen bereits bestimmt. Die beiden in Beispiel 2.13 behandelten Zufallsvariablen X und Y sind nicht (stoch.) unabhängig. Man nennt sie daher (stoch.) abhängig, Aus den beiden Einzelverteilungen läßt sich im allgemeinen die gemeinsame Verteilung nicht durch Produktbildung bestimmen. Man muß dazu, wie in Beispiel 2.13 die Wahrscheinlichkeiten P(A i Bj) berechnen. 2.2.6. Summen und Produkte diskreter Zufallsvariabler
Beispiel 2.14 (vgl. Beispiel 2.13). Spieler IV aus Beispiel 2.13 wird sich nach einem Einzelspiel für die Gewinnsumme interessieren, die ihm seine beiden Einsätze eingebracht haben. Die Zufallsvariable, welche die Gewinnsumme beschreibt, bezeichnen wir mit X + Y. Die gemeinsame Verteilung der beiden Zufallsvariablen X und Y bestimmt die Verteilung der Summenvariablen.
75
2.2. Diskrete Zufallsvariable
Aus der in Beispiel 2.13 angegebenen Tabelle erhalten wir die Zuordnung: (X=2, (X=2, (X = 2, (X=-I, (X =- I, (X =- I,
X +Y=3, Y=I) y=-n - x+Y=L Y =- I) - X+Y=I, Y= I) X+ Y= 0, Y =- ~ ) x+Y=-L Y =- I) X + Y = - 2.
Damit lautet die Verteilung der diskreten Zufallsvariablen X + Y:
-2
Werte von X + Y
12
Wahrscheinlichkeiten
37
Für den Erwartungswert der Summenvariablen X + Y erhalten wir E(X + Y) = 3 . ~ + 1 . ~ 37 37
=-
;4
_l . J... _ 2 . 11 = 36 + 12 2 37
37
74
3 - 48
=
= E(X) + E(Y).
Der Erwartungswert der Summe X + Y ist also hier gleich der Summe der einzelne;n Erwartungswerte. • Diese Eigenschaft wollen wir nun allgemein für die Summe zweier diskreter Zufallsvariabler zeigen. Sind X und Y zwei diskrete Zufallsvariablen mit der gemeinsamen Verteilung Yj , P(X = Xi, Y =Yj)), ;: ::;::::' so besteht der Wertevorrat der Summenvariablen X + Y aus allen möglichen Summen Xi + Yj . Dabei können manche Summen gleich sein. W(X + Y) besteht somit aus allen Zahlen Zk, zu denen es mindestens ein Wertepaar (Xi, Yj) gibt mit Xi +Yj =Zk. Wir setzen W(X + Y) = {Zl, Z2, Z3, .. . } . Dabei erhalten wir für die entsprechenden Wahrscheinlichkeiten die Gleichung
(Xi,
P(X =Xi, Y
= Yj),
(2.34)
Xi+ Yj = zk
wobei in (2.34) über alle Paare (Xi, Yj) mit Für die Summe X + Y zeigen wir den
Xi
+ Yj = Zk summiert werden muß.
Satz 2.7 Sind X und Y zwei diskrete Zufallsvariablen mit den Erwartungswerten E(X) und E(Y), so gilt E(X + Y) = E(X) + E(Y).
(2.35)
76
2. Zufallsvariable
Beweis: Ist {Zl, Z2, ... } der Wertevorrat von X + Y, so erhalten wir aus (2.34) und (2.32) die Gleichungen
E(X + Y)
=
L ZkP(X + Y =Zk) = L Zk L k
k
P(X
=Xi, Y =Yj) =
~+~=~
=L L =L
L Xi P(X =Xi. Y =Yj) + L L Yj P(X =Xi, Y = Yj) =
=L
Xi
i
L P(X =xi, Y =Yj) + L Yj L P(X =Xi, Y =Yj) =
i
=
i
L xi P(X =Xi) + L Yj P(Y =Yj) =E(X) + E(Y).
•
Mit dem Prinzip der vollständigen Induktion läßt sich (2.35) unmittelbar auf die Summe von n diskreten Zufallsvariablen mit existierenden Erwartungswerten übertragen. Es gilt also E(f Xi) = i
=1
f
i
=1
E(Xi).
(2.36)
Betrachtet man anstelle der Zufallsvariablen Xi die Zufallsvariablen ai Xi. ai E IR. i = 1 , ... , n, so folgt aus (2.36) und Satz 2.2 unmittelbar die Gleichung n
E( LaiXi) = i =1
n
I
aiE(Xi), ajEIR.
(2.37)
i =1
Für die Produktvariable X· Y muß die entsprechende Gleichung E(X· Y) nicht unbedingt gelten, wie folgendes Beispiel zeigt.
= E(X) . E(Y)
77
2.2. Diskrete Zufallsvariable
Beispiel 2.15 (vgl. Beispiel 2.13). Aus der gemeinsamen Verteilung der in Beispiel 2.13 behandelten Zufallsvariablen X, Y erhalten wir durch Produktbildung folgende Zuordnung: (X=2,Y=1)
- X·Y=2,
(X=2,Y=-i) (X = 2, Y = - 1)
- X·Y=-I, - X·y = - 2,
>
identisch
(X = - 1, Y = 1) - X· Y = - 1 , (X=-I, Y= - 1)- x·Y=L (X= - I, Y=-1)- X ·Y=1. Die Produktvariable X· Y besitzt somit die Verteilung Werte von X· Y
2
Wahrscheinlichkeiten
37
6
Daraus folgt 12 12 1 12 12 1 E(X· Y) = - 37 - 37 + 74 + 37 + 37 = 74 '
•
während E(X) . E(Y) = 37 ~ 74 ist. Es gilt jedoch der Satz 2.8 Sind X und Y zwei (stoch.) unabhängige diskrete Zufallsvariable, deren Erwartungswerte existieren, so gilt
(2 .38)
E(X'Y) = E(X)' E(Y) .
Beweis: Wir bezeichnen den Wertevorrat der Produktvariablen X .Y mit {z 1, Z2 , ... }. Dann gilt wegen der vorausgesetzten Unabhängigkeit E(X·Y) =
L zk P(X·y = Zk) = L zk L k
k
P(X = xi, Y = Yj) =
xi 'Yj= zk
xi Yj P(X = Xi) . P(Y = Yj) =
=L
L xi Yj P(X = Xi) P(Y = Yj) = L Xi P(X = Xi) . L Yj P(Y = Yj) = i
= E(X)' E(Y).
•
Den Begriff der (stochastischen) Unabhängigkeit übertragen wirauf mehrere diskrete Zufallsvariable in der folgenden
78
2. Zufallsvariable
Definition 2.8: Die diskreten Zufallsvariablen XI, X2 , ... , X n heißen (stach.) unabhängig, wenn für alle Wertekombinationen Xii E W(X I ), .. . , Xi n E W(X n ) gilt P(X I = Xii'
... ,
Xn = Xi n ) = P(X I = Xii)
. '"
.
P(X n = Xi n )'
(2.39)
Durch vollständige Induktion folgt aus Satz 2.8 der Satz 2.9 Sind XI> X2 , ••. , Xn (stoch.) unabhängige diskrete Zufallsvariablen, deren Erwartungswerte existieren, so gilt
(2.40) BeispieI2.16. Eine Person, die von der Wahrscheinlichkeitsrechnung nicht allzuviel versteht, bietet gegen jeweils 50 Pfg. Einsatz folgende Spiele an: Spiel 1: Würfeln mit drei idealen Würfeln. Das Augenprodukt wird in Pfennigen ausgezahl t. Spiel 2: Würfeln mit drei idealen Würfeln. Die flinffache Augensumme wird in Pfennigen ausgezahlt. Welches der Spiele kann man spielen? Wir numerieren die Würfel durch und bezeichnen mit XI, X2 , X3 die Zufallsvariablen der jeweils geworfenen Augenzahlen. Dabei gibt es insgesamt 6 3 = 216 verschiedene Versuchsergebnisse. Handelt es sich um ein Bernoulli-Experiment, so gilt für jedes mögliche Zahlentripel (i, j, k) die Identität P(X I = i, X 2 = j, X3 = k) = 2~6 = P(X I = i)' P(X2 = j). P(X 3 = k), 1::; i,j, k::; 6. Die Zufallsvariablen XI, X2 , X3 sind also (stoch.) unabhängig. Damit gilt nach Satz 2.9 für die Gewinnerwartung in Spiel 1 E(XI' X2 ' X3 ) = E(X I) . E(X 2 ) • E(X 3 ) = 3Y = 42,875. Die Gewinnerwartung aus Spiel 2 lautet
»
E(5 (XI + X2 + X3 » = 5 E(X I + X2 + X 3 ) = 5 (E(X I ) + E(X2 ) + E(X 3 = = 5·3 ·3,5 = 52,5. Die Gewinnerwartung liegt bei Spiel 1 unter, bei Spiel 2 über dem Einsatz. Daher kann man das zweite Spiel mitmachen, das erste dagegen nicht. • Zur Berechnung von D2 (X + Y) bilden wir zunächst folgende Umformung [X + Y - E(X + Y)]2 = [X + Y - E(X) - E(y)]2 = [(X - E(X» + (Y - E(y»]2 = (2.41) = [X - E(X)]2 + [Y - E(Y)]2 + 2 [X - E(X)] [Y - E(Y)] = = [X - E(X)]2 + [Y - E(Y)f + 2· [X' Y - E(X)' Y - E(Y) ' X + E(X)E(Y)]. Durch Erwartungswertbildung erhalten wir hieraus D2 (X + Y) = D 2(X) + D2 (Y) + 2[E(X·Y) - E(X) ·E(Y) - E(Y) ·E(X) + E(X) E(Y)] = =D2(X) + D 2(y) + 2 [E(X'Y) - E(X)· E(Y)]. (2 .42)
79
2.2. Diskrete Zufallsvariable
Damit gilt der
Satz 2.10 Sind X und Y zwei diskrete Zufallsvariable, deren Varianzen existieren, so gilt D2 (X + Y)
=D2(X) + D2(Y) + 2[E(X ·Y) -
E(X)' E(Y)].
(2.43)
Aus der (stoch.) Unabhängigkeit von X und Y folgt D2(X + Y)
=D2(X) + D2(y).
(2.44)
Beweis: Die Gleichung (2.43) wurde bereits in (2.42) gezeigt. Die Gleichung (2.44) folgt mit Satz 2.8 aus (2.43). •
Durch vollständige Induktion folgt aus (2.44) unmittelbar der
Satz 2.11 Sind die Zufallsvariablen XI, X2 , ... , Xn paarweise (stoch.) unabhängig, d.h. sind alle Paare Xi, Xj flir i f j (stoch.) unabhängig, und existieren die Varianzen D2 (Xi) fUr i = 1,2, .. . , n, so gilt n
D2
n
(I Xi) = L D2(Xi). j;
1
j
(2.45)
=1
Beispiel 2.17 (vgl. die Beispiele 2.12 und 2.15). Für die Varianz der ReingewinnVariablen X + Y für Spieler IV erhalten wir aus den Beispielen 2.12 und 2.15 sowie aus (2.43) D2(X + Y)
=1,972 +0,980 +2 [714 -
3/74J =2,978.
•
Den Ausdruck E(X ' Y) - E(X) . E(Y) = E [(X - E(X» (Y - E(Y» 1 nennt man Kovarianz der Zufallsvariablen X und Y. Wir bezeichnen ihn mit Kov(X, V). Nach (2.43) ist die Varianz D2 genau dann additiv, wenn die Kovarianz verschwindet. Sind die Zufallsvariablen X und Y (stoch.) unabhängig, so verschwindet die Kovarianz. Die Umkehrung braucht nicht zu gelten. Es gibt Zufallsvariable X, Y mit Kov(X, Y) =0, die nicht (stoch.) unabhängig sind. Zum Abschluß dieses Abschnitts zeigen wir, daß mit a = D(X) auch der Erwartungswert E(lX - J.LI) der Zufallsvariablen IX - J.LI, die den Abstand der Werte von X vom Erwartungswert J.L darstellt, klein ist.
Satz 2.12 Für jede diskrete Zufallsvariable X mit der Standardabweichung D(X) gilt die Ungleichung E(lX - J.LI)
~
D(X).
(2.46)
Beweis:
Für die Zufallsvariable Y = IX - J.LI gilt offensichtlich y 2 = (IX - J.L1)2 = (X - J.L)2.
80
2. Zufallsvariable
Da flir jeden beliebigen Zahlenwert;>.. die Werte der Zufallsvariablen (Y - ;>..)2
=y 2 -
2;>" Y +;>..2
nicht negativ sind, erhalten wir hieraus
o s E«Y - W) = E(y 2) -
2;>" E(Y) +;>..2.
Für;>" = E(Y) geht diese Ungleichung über in
o S E(y2) -
2 (E(y»2 + (E(y»2 = E(y2) - [E(YW ,
woraus (E(YW S E(y 2) folgt. Mit Y
= IX -.ul
E(IX-.ul}
s
E(Y) S JE(y 2 )
bzw.
folgt hieraus schließlich die Behauptung
JE([X-.u1 2 )
•
= D(X).
2.2.7. Erzeugende Funktionen
In diesem Abschnitt betrachten wir nur diskrete Zufallsvariable X, deren Werte· vorrat Waus nichtnegativen ganzen Zahlen besteht. Gehört eine ganze Zahl i 2 0 nicht zum Wertevorrat W, so können wir sie mit P(X =i) =0 hinzunehmen. Damit ist W darstellbar durch W = {O, 1,2,3, . .. }. X besitze also die Verteilung (i, P(X =i» , i =0, 1,2, .. . . Durch Gx (x)
=L
xi P(X
= i),
(2.47)
x E IR
i=0
wird die sogenannte erzeugende Funktion G x der Zufallsvariablen X erklärt. Dabei ist XO = 1 zu setzen. Für lxi s 1 gilt IGx (x) I
s
L P(X =i) = 1.
i=0
Die erzeugende Funktion Gx ist somit für alle lxi
Gx (0) =P(X
s 1 erklärt. Dabei gilt
=0) .
Aus (2.47) erhalten wir durch Differentiation nach x
L ix 00
Gx(x) =
i- I
P(X =i),
i=1
=0 Gi<: (0) =P(X = 1) .
woraus sich für x
ergibt.
81
2.2. Diskrete Zufallsvariable
Nochmalige Differentiation liefert Gx(x)= Li.(i-l)xi-2~(X=i) und i =2
Gx(O) = 2! P(X = 2). Allgemein erhält man durch k-fache Differentiation die Identitäten
G~)(x) =
L i(i -1)(i - 2) ...(i - k + l)xi-kp(X = i) .
(2.48)
i =k
Für x = 0 folgt hieraus unmittelbar
G~)(O) P(X = k) = -k-' -
(2.49)
für k = 0 , 1,2, ...
Sämtliche Wahrscheinlichkeiten lassen sich also durch Differenzieren aus der erzeugenden Funktion zurückgewinnen. Mit G~) (I) bezeichnen wir die k-te linksseitige Ableitung an der Stelle x = 1, falls diese existiert. Dann folgt aus (2.48)
G~ (1) =
L iP(X = i) = E(X) . i=1
G~(l) =
L i(i-l)P(X=i) = L i p(X=i) - I 2
i=2
i =2
i =1
iP(X=i)=
i=2
i=1
Damit gilt E(X 2 ) = G~ (1) + E(X) = G~ (1) + G~ (l). Insgesamt ergibt sich iJ.
=E(X) =G~ CD..
02
= D 2 (X) = E(X 2) - iJ.2 = G~ (1) + G~ (1) - (G~ (1»2.
(2.50)
Diese Gleichungen sind zur Berechnung von iJ. und 0 besonders dann geeignet, wenn die erzeugende Funktion einfach berechenbar ist. Bildet man die Ableitungen bis zur k-ten Ordnung, so erhält man entsprechende Formeln für die Erwartungswerte E(X I ), 1= 1, 2, . .. , k.
82
2. Zufallsvariable
2.3.
Spezielle diskrete Verteilungen
2.3.1. Die geometrische Verteilung Die Zufallsvariable X beschreibe die bis zum erstmaligen Eintreten des Ereignisses A mit P =P(A) >0 notwendigen Versuche in einem Bernoulli·Experiment. Nach Ab· schnitt 1.7.3 besitzt die Zufallsvariable X die Verteilung (k, p . (I - p )k-l), k = 1,2, ... Die Zufallsvariable X heißt geometrisch verteilt mit dem Parameter p. Wegen P(X = k + 1) = p(I - p)k =(I - p) p(I - p)k-l =(I - p) P(X =k) gilt die ftir die praktische Berechnung nützliche Rekursionsformel
I
P(X=k+I)=(I-p)P(X=k), k=I,2, ... mit P(X=i)=p.
1(2.51)
Da sämtliche Werte von X nichtnegative ganze Zahlen sind, können wir die erzeu· gende Funktion G bestimmen. Wegen P(X =0) = 0 erhalten wir mit q =1 - P G(x) =
~ xkp qk-l =px L., ;, (xq)k-l = px ~ (qx)/ = ~. L.. l-qx
L.,
k=l
k=l
/=0
Differentiation liefert , p(I-qx)+qpx P (i _ qX)2 = (-I.....:_~q-X)-:::2; G (x) =
G"(x) =
2pq (l-qX)3·
Wegen 1 - q = P folgt hieraus ftir x = I
G'(l) = ~;
G"(l) = 2; . P
Wegen (2.50) gilt daher
=1
tl = E(X) =1. D2(X) = 2q
P'
p2
+! _ L P
p2
=q+
q+p -1 p2
q 2'
P
Für eine geometrisch verteilte Zufallsvariable gilt somit (2.52) Beispiel 2.18. Beim Spiel "Mensch ärgere Dich nicht" mit einem idealen Würfel ist die Zufallsvariable X, weIche die Anzahl der bis zum Werfen der ersten ,,6" notwendigen Versuche beschreibt, geometrisch verteilt mit dem Parameter p = Die Verteilung von X lautet (k, (~)k-l), k = 1,2, .... Für k = 1,2, ... ,12 haben wir die Werte nach (2.51) auf drei Stellen genau berechnet
i
und in Bild 2.5 graphisch dargestellt.
i.
83
2.3. Spezielle diskrete Verteilungen
P(X=x) 0,4
-L--~~--~--~~--~--+-~---r--+--+--~---------------X
2
3
5
10
Bild 2.5. Wahrscheinlichkeiten einer geometrischen Verteilung
=~ =6
Wegen J1 2
Aus a =
5.6 2 --6-
muß ein Spieler im Mittel sechsmal werfen, um starten zu können.
nr; = 30 erhalten wir a = y30 = 5,48.
•
2.3.2. Die hypergeometrische Verteilung (vgl. Urnenmodell I aus Abschnitt 1.4) Aus einer Urne, welche M schwarze und N - M weiße Kugeln enthält, werden durch ein Laplace-Experiment ohne zwischenzeitliches Zurücklegen n Kugeln gezogen. Beschreibt die Zufallsvariable X die Anzahl der gezogenen schwarzen Kugeln, so besitzt X nach Satz 1.11 die Verteilung (k, P(X =k)),k =0, ),2, ... mit
,, ,
P(X = k) = h (k n M N - M) =
(~)(~ C) : ~)
flir k = 0, 1, ... , n.
(2.53)
Für k > M verschwindet der Binomialkoeffizient (~) und damit die Wahrscheinlichkeit P(X = k). Dasselbe gilt für n - k > N - M, also ftir k < n - (N - M). Die Wahrscheinlichkeiten Pk sind also nur ftir max(O, n - (N - M»:::; k:::; minen, M) von Null verschieden. Die Zufallsvariable X heißt hypergeometrisch verteilt. Zur praktischen Berechnung der Wahrscheinlichkeiten h(k, n, M, N - M) leiten wir wieder eine Rekursionsformel ab. Dazu betrachten wir folgende Identitäten
M)(N-M)
P(X = k + 1) = h(k + 1, n, M, N - M) =
(k+)
n-k-)
N
(n)
)
M(M -) '" (M - k + I)(M - k) (N - M)(N - M - I) ... (N - M - n + k + 2) ~(~) 1·2·3 ... k · ( k + I ) · )·2 ... (n-k-l)
= ...L . (M ). M (~)
k
k . (N - M) ... (N - M - n + k + 2)(N - M - n + k + I) . (n - k) k+l 1·2 ... (n -k- l)(n - k) (N-M-n+k+
(M-k)(n-k)
(~)(~=~)
(k + I)(N - M - n + k + 1)
(~)
84
2. Zufallsvariable
Damit gilt die Rekursionsformel (M - k)(n - k) h(k + 1, n, M, N - M) = (k + I)(N _ M _ n + k + 1)' h(k, n, M, N - M)
(2.54)
für max(O, n - (N - M»:O; k:o; min(n, M). Zur Berechnung von E(X) und D2 (X) betrachten wir das Modell, in dem die Kugeln einzeln und ohne "zwischenzeitliches Zurücklegen" gezogen werden. A sei das Ereignis, daß eine bestimmte schwarze Kugel während der n Züge gezogen wird, und Aj das Ereignis, daß sie beim i-ten Zug gezogen wird, i = I, 2, ... , n. Damit gilt A = Al + A 2 A I + A3 A 2 A I + ... + AnA n _1 An -2
•••
AI,
Wegen der Identitäten
I 1 P(AI)=N; P(A j /Aj-I .. . AI)=N_i+l
für i=2, .. . ,n,
N-l P(A I ) =~; P(Aj Aj_I ... Ad = P(Ai/Ai_1 ... A I) P(Aj_1 ... AI) = N-i =N _ i+l·P(Ai-1 ... AI)
für i=2,3, . . . ,n
folgt aus (2.55) 1 1 N-l 1 N-2N-l P(A) = "N + N - 1 ~ + N - 2 N - 1 ~ + ... = 1 1 1 1 n ="N+"N+N+"'+"N="N ' Wir numerieren die schwarzen Kugeln durch und setzen
X- = { 1, falls die i-te schwarze Kugel unter den n gezogenen ist, I
0, sonst
für i=I,2, .. . ,M. Die Zufallsvariablen Xi, i = 1,2, ... , M sind paarweise (stochastisch) abhängig mit 2
n
E ( Xj) = E(Xj ) = P(Xj = 1) = P(A) = N und E(Xj ·Xj) =P(X i ·Xj = 1) = P(Xj = 1; Xj = 1) = n -1 n =P(Xj=I/Xj=I),P(Xj=I)=N_l'"N
für i*j.
85
2.3. Spezielle diskrete Verteilungen
Aus X = Xl + X2 + ... + XM folgt 11 = E(X) =
L E(Xj) = M . Nn = n . NM . M
j
=1
In der Darstellung
gibt es insgesamt M(M - I) Paare mit i*- j. Daher gilt M
E(X 2) = LE(XD+ j
=1
n n(n-1) L E(Xj , Xj)=M·N+M(M-I)N(N_I); j"
j
D2(X)=E(X2) - J./2=n·
M
N +n
M·(M-I)(n - I) M2 N ' (N-I) - n 2 N2 =
= n . M. [ I + (M - I) n - I - n M.] = N N- I N M N2 - N + NMn - NM - Nn + N - nNM + nM N(N - 1)
= n' N
_ M (N - M)(N - n) _ M ( M) N - n N(N -- 1) - n .N 1- N N- I . - n .N Mit P = ~ , q = I - P erhalten wir somit die Parameter (2.56) Beispiel 2.19. Eine Lieferung von 100 Dioden enthalte genau 4 fehlerhafte. Aus der Lieferung werden (ohne "zwischenzeitliches Zurücklegen") zufallig 5 Dioden entnommen. Die Zufallsvariable X beschreibe die Anzahl der fehlerhaften unter den 5 entnommenen Dioden. Mit n = 5, M = 4, N = 100 gilt nach (2.53) P(X=0)=h(0,5,4, 96)= Aus der
Rekursion~formel
(6)(~6)
96.95.94.93.92 e~o) = 100.99.98 . 97 . 96 =0,8119 ;
(2.54) erhalten wir
4 ·5 P(X = 1) = h(l , 5 , 4 , 96)= 1.92' P(X =0) =0,1765, 3 ·4 P(X = 2) = h(2, 5 , 4 , 96) = 2. 93 P(X = 1) = 0 ,011 4,
86
2. Zufallsvariable
2·3 P(X = 3) = h(3, 5,4,96) = 3.94 . P(X = 2) = 0 ,00024, P(X=4)=hC.4 , 5,4,96) P(X
= 5) =0.
Nach (2.56) gilt wegen p = ~ =
=~ 4 ·95
P(X=3)=0 1275 '10- 5 ' ,
-t
1
p=E(X)=5 ' 25 =0 ,2; 02
1 24 95 = D2 (X) = 5· 25 . 25 . 99 = 0,1842 und
0
= 0 ,4292 .
Die Verteilung dieser hypergeometrisch verteilten Zufallsvariablen ist in Bild 2.6 dargestellt . • P(X:x)
o
2
4
5
Bild 2.6. Wahrscheinlichkeiten einer hypergeometrischen Verteilung
2.3.3. Die Binomialverteilung (vgl. Abschnitt 1.7.2) Beschreibt die Zufallsvariable X die Anzahl der Versuche, bei denen in einem Bernoulli-Experiment vom Umfang n das Ereignis A mit p = P(A) eintritt , so besitzt X nach Satz 1.18 die Verteilung (k, P(X = k» , k = 0, I, 2, ... , n mit P(X = k)= b(k, n, p) = (k) pk qn-k; q = 1 - p; k = 0, I, . '" n.
(2.57)
Die Zufallsvariable X heißt binomialverteilt mit den Parametern n und p, wir nennen sie kurz B(n,p)-verteilt.
°
Für q = 1 - P #0 gilt )-( n ) k+l n_k_L n (n-I)" . (n-k+l)·(n-k) p k n-k (k b + I, n, p - k + 1 P q 1 · 2 . '" . k . (k + 1) . q .P q n-k P(n) k n.k n-k P = k+ 1 ' q k P q =k+ 1 ·qb(k,n,p).
87
2.3. Spezielle ciskrcte Verteilungen
Für die praktische Rechnung eignet sich somit die Rekursionsformel (n - k)p b(k + l , n, p)= (k+ l)q b(k,n , p); k= 0, 1, 2, ... , n-l
(2.58)
mit b(O, n, p) = qn . Zur Berechnung von E(X) und D2(X) setzen wir X' = { 1, falls beim i-ten Versuch A eintritt I 0, sonst
für i = 1,2, ... , n.
Dabei gilt E(XD = E(X~) = P(X; = 1) = P(A) = p; D2(X;)=E(XD- p2=p_p2=p(1_p)=pq
für i=I,2 , ... ,n.
Da die Zufallsvariablen Xl, X2 , . .. , Xn paarweise unabhängig sind, folgen aus der
L X; die Werte n
Darstellung X =
;=1 n
E(X) = E (~1 X;) = D2(X) = D2(
n
;~ E(X;) = np,
LX;) = L D2(X;) = npq. n
n
;=1
;=1
Damit gilt für die binomialverteilte Zufallsvariable X
I
J1 = E(X) = np;
02
(2.59)
= D2 (x) = npq.
Für n = 5 und p = 0,1; 0,3; 0,5; 0,7; 0,9 sind die Wahrscheinlichkeiten einer B(5;p)verteilten Zufallsvariablen (nach der Rekursionsformel (2.58) berechnet) in der nachfolgenden Tabelle zusammengestellt und anschließend in Bild 2.7 graphisch dargestellt. b(0,5, p)
b(1 ,5, p)
b(2,5, p)
b(3,5, p)
b(4,5, p)
b(5,5, p)
p = 0,1
0,5905
0,3280
0,0729
0,0081
0,00045
0,00001
P =0,3
0,1681
0,3601
0 ,3087
0,1323
0,0283
0,0024
P = 0,5
0,0313
0,1562
0,3125
0,3125
) ,1562
0,0313
P = 0,7
0,0024
0,0283
0,1323
0,3087
0,3601
0,1681
p =0,9
0,00001
0,00045
0,0081
0,0729
0,3281
0,5905
88
2. Zufallsvariable
b(k;S,O,l)
b(k;S; 0,3)
b(k; 5;0,5)
QS
0,5
°
1
2 3 n=S;p=O,l
1
4
5 k
0,5
°
1
1"",,0,91
b(k;S;0,7)
I I
0,5 +
j °
I
I I I .. 3
5
°
5 x
2 3 n=5 ; p=0,3
k
0,5 ,
I
1• • °
1
2
l
1 2 3 n=S; p= 0,5
5 k
I I .. 5
k
Bild 2.7. WahIscheinlichkeiten von Binomialverteilungen
Beispiel 2.20. Bei einer Prüfung wird einem Kandidaten ein "Multiple-Choice"Fragebogen vorgelegt . Dabei steht unter jeder der 9 Fragen in zufalliger Reihenfolge die richtige und zwei falsche Antworten. Zum Bestehen der Prüfung müssen mindestens 5 Antworten richtig angekreuzt werden. Ein Kandidat kreuzt bei jeder Frage eine der drei Antworten zufallig an , a) Mit welcher Wahrscheinlichkeit besteht er die Prüfung? b) Man bestimme Erwartungswert und Streuung der Zufallsvariablen X der Anzahl der richtigen Antworten, die man durch zufalliges Ankreuzen erreicht . Zu a) Da die Zufallsvariable X binomialverteilt ist, erhalten wir ftir die gesuchte Wahrscheinlichkeit den Wert
= ~ (126 .2 4 + 84 . 23 + 36 .2 2 + 9·2 + I) = 0,1448. Zu b) Aus (2.59) folgt
~ = E(X) = 9· ~ = 3;
a = D(X) =
V ~. ~ 9·
=.J2 = 1,4142.
•
89
2.3. Spezielle diskrete Verteilungen
BeispieI2.21. Nach der Einnahme eines bestimmten Medikaments treten bei einer Person mit Wahrscheinlichkeit p = 0,04 Nebenwirkungen auf. Das Medikament werde 5 Personen verabreicht. Die Zufallsvariable X beschreibe die Anzahl der· jenigen von den 5 Personen, bei denen die Nebenwirkung auftritt. Unter der Vor· aussetzung, daß es sich um ein Bernoulli·Experiment handelt, bestimme man
P(X = k) fUr k = 0, I, . .. , 5;
E(X) und D(X).
Da X binomialverteilt ist mit n = 5 und p = 0,04, gilt P(X = 0) = b(O; 5; 0,04) = (1- 0,04)5= 0,8154. Aus der Rekursionsformel (2.58) folgt 5 ·0,04 P(X = I) = b(l; 5; 0,04) = 1.0,96 b(O; 5; 0,04) = 0,1699, 4 · 0,04 P(X = 2) = b(2; 5; 0,04)= 2.0,96 b(1; 5; 0,04) = 0,0142, 3·004 P(X = 3) = b(3; 5; 0,04) = 3.0:96 b(2; 5; 0,04) = 0,00059, 2·0,04 _ P(X=4)=b(4;5;0,04)= 4.096 b(3; 5;0,04) =0,1229 '10 4 , 1·004 _ P(X=5)=b(5;5;0,04)=5.0:96 b(4; 5;0,04) =0,1023 .10 6 . Aus (2.59) folgt
Jl = E(X) = 0,2,
a = D(X) = ..j5· 0,04·0,96 = ..j0,192 = 0,438.
•
Für die erzeugende Funktion einer binomialverteilten Zufallsl'ariablen erhalten wir unter Anwendung des binomischen Lehrsatzes G(x) =
L xk (r) pk qn.k = L (r) (px)k qn-k = (px -i- q)n. n
n
k=O
k=O
Die Zufallsvariablen X und Y seien B(n., p)- bzw. B(n" p)-verteilt, wobei die Parameter nl und n, verschieden sein dürfen, die Wahrscheinlichkeiten p jedoch bei beiden Verteilungen gleich sein müssen. Dann beschreibt die Zufallsvariable X die Anzahl der Versuche, bei denen in einem Bernoulli-Experiment vom Umfang n. das Ereignis A mit P(A) = p eintritt, und Y die entsprechende Anzahl bei einem Bernoulli-Experiment vom Umfang n,. Sind X und Y (stoch.) unabhängig, so handelt es sich bei den beiden Bernoulli-Experimenten um zwei unabhängige Versuchsreihen, die zusammen ein BernoulJi-Experiment vom Umfang n. + n, bilden. Darin beschreibt aber die Summe X + Y die Anzahl der Versuche, bei denen das Ereignis A eintritt. Die Zufallsvariable X + Y ist somit B(n. + n" p)-verteilt. Diese Reproduktivität leiten wir nochmals direkt aus den einzelnen Verteilungen ab.
90
2. Zufallsvariable
Satz 2.13 Sind die B(n l , p)- bzw. B(n2' p)-verteilten Zufallsvariablen X und Y (stoch.) unabhängig, so ist ihre Summe X + Y ebenfalls binomialverteilt und zwar B(nl + n2, p)-verteilt. Beweis: Aus
P(X = i) P(Y
= (~I)piqnl-i
=j) =(j2)piqn2- i
ftir i für
=0, I, ... , nl ,
j~O,I,
... ,n2
und der vorausgesetzten (stoch.) Unabhängigkeit von X und Y folgt P(X + Y =k) =
L
P(X = i, Y = j) =
i+i= k
L
P(X = i) P(Y = j) =
i+i= k
Dabei wurde die bekannte Identität
•
benutzt. 2.3.4. Vergleich der hypergeometrischen und der Binomialverteilung
Die in Beispiel 2.l9 behandelte hypergeometrische Verteilung und die Binomialverteilung aus Beispiel 2.21 hatten jeweils die Parameter n = 5 und p =0,04 gemeinsam. Dabei war in Beispiel 2.l9 die Zahl p die Wahrscheinlichkeit, im ersten Zug eine fehlerhafte Diode zu erhalten, während in Beispiel 2.21 p die abstrakte Wahrscheinlichkeit dafür ist, daß bei einer Person nach Einnahme eines bestimmten Medikaments die Nebenwirkung eintritt. Wählt man in Beispiel 2.l9 die fünf Dioden einzeln aus und legt man jeweils vor dem nächsten Zug die bereits gezogene zurück, so geht die hypergeometrisch verteilte Zufallsvariable X aus Beispiel 2.19 in die binomialverteilte aus Beispiel 2.21 über. Aus dem Urnenmodell I des Abschnittes 1.4 erhält man so das Urnenmodell 11. Vergleicht man die entsprechenden Wahrscheinlichkeiten, so stellt man fest, daß sie ungefähr gleich groß sind. In diesen Beispielen gilt also mit ~ =0,04 h(k, 5,4, 96)
~
b(k, 5,0,04) ftir k
=0, 1, ... , 5.
91
2.3. Spezielle diskrete Verteilungen
Diese Eigenschaft ist plausibel, wenn man die hypergeometrische Verteilung durch das Urnenmodell I aus Abschnitt 1.4 und die Binomialverteilung durch das Urnenmodell II erzeugt. Beim Urnenmodell II wird bei jedem Zug eine schwarze Kugel mit der konstanten Wahrscheinlichkeit p = f:1 gezogen . Beim Urnenmodell I erhalten wir ftir den ersten Zug dieselbe Wahrscheinlichkeit. Beim zweiten Zug ist sie jedoch entweder gleich ~ =~ oder gleich N~ I' je nachdem, ob beim ersten Zug eine schwarze oder eine weiße Kugel gezogen wurde. Für große N sind diese Werte jedoch ungef 1 kleiner als die Varianz n pq der entsprechenden binomialverteilten Zufallsvariablen. Ist N groß und n nicht, so sind wegen
~ =~ ~ 1 beide Varianzen ungefahr gleich.
Für die entsprechenden Wahrscheinlichkeiten zeigen wir den Satz 2.14 Für = p und festes n gilt
f;t
!im h(k,n,M,N-M)=b(k,n,p)
N-+oo
Für große N gilt also mit h(k, n, M, N - M)
~
fUr k=O,I, ... ,n.
M= p die Näherungsformel
b (k, n, p)
ftir k = 0, 1, .. . , n.
Beweis: Für festes n und k gilt M
h(k,n,M,N-M) =
N-M
(k)~n-k) (n)
M(M-I)(M-2) ... (M-k+l)
k!
(N-M)(N-M-l) ... (N-M-n+k+l)
•
(n-k)!
N (N-l)(N- 2) .. , (N- n+ I)
n!
n! M(M - 1) ... (M - k + 1) (N - M)(N - M - 1) '" (N - M - n + k + 1) k! (n - k)! N(N -1) ... (N - k + 1) ... (N - n + 1) :-:-:---:-~
Der Zähler und Nenner dieses Bruches besitzt jeweils.n Faktoren. Dividiert man im Zähler und Nenner jeden Faktor durch N, so ergibt sich daraus wegen k! (~~ k)! =
(~), _
f;t = p
und 1 1
f;t = q die Identität k-l
1
n-k-l
_(n) p(p-jij) ... (P-N)q(q-jij)···(q--N-) h(k, n, M, N M) - k 1 2 n- 1 . 1 (l - jij) (l - jij)'" (l - N)
92
2. Zufallsvariable
Da im Zähler und Nenner jeweils n Faktoren stehen, und n bei der Grenzwertbildung konstant bleibt, folgt flir N -> =
Nl~ooh(k,n,M,N-M)=(~)pkqn-k
mit
~=p,
•
womit der Satz bewiesen ist. 2.3.5. Die Poisson -Verteilung als Grenzwert der Binomialverteilung
Beispiel 2.22. Die Wahrscheinlichkeit, daß eine mit einem bestimmten Serum geimpfte Person die Impfung nicht verträgt, sei p = 0,001. Insgesamt werden 2000 Personen mit diesem Serum geimpft. Die binomiaIverteiite Zufallsvariable X beschreibe dabei die Anzahl derjenigen geimpften Personen, welche die Impfung nicht vertragen. Dabei ist n = 2000 sehr groß und der Parameter p = 0,001 sehr klein. Aus P(X=k) = b(k, 2000, 0,001) =
(20~0). (0,001)k·(0,999)2000.k
erhalten wir flir k = 0 die Wahrscheinlichkeit 2 )2000 P(X = 0) = 0,999 2000 = (1- 0,001)2000 = ( 1 - 2000 = 0,13520, die sich nur sehr mühsam ausrechnen läßt. Wegen lim (1 - ~)n = e- A (dabei ist e die sog. Eulersche Zahl mit e = 2,7182818 ... ) n->oo gilt flir große Werte n die Näherung
'A)n "" e-A . ( 1- n Damit erhalten wir die Approximationsformel b(O, 2000, 0,001) "" e- 2 = 0,13534.
(2.60)
Aus der Rekusionsformel (2.58) folgt b(l, 2000, 0,001)
2000 ·0,001 -2 1.0,999 'b(0,2000,0,001) "" 2·e = 0,271,
b(2, 2000, 0,001)
1999 ·0,001 22 2.0,999 b(1, 2000,0,001) "" 2" e- 2 = 0,271,
b(3,2000,0,001) =
1998 ·0,001 23 3.0,999 b(2, 2000, 0,001) ""3fe-2 =0,180.
Durch vollständige Induktion über k läßt sich leicht zeigen, daß für alle k = 0, 1, ... , n die Näherungsformel k
b(k,2000,0,001) ""
~!
e- 2
gilt. Dabei ist die Zahl 2 gleich dem Erwartungswert E(X) = np.
(2.61)
•
93
2.3. Spezielle diskrete Verteilungen
Daß eine solche Näherung ftir große n und kleine p immer gilt, zeigen wir in dem folgenden Satz 2.15 Strebt in der Binomialverteilung n gegen unendlich, und zwar so, daß np = X konstant bleibt (daraus folgt p -+ 0 für n -+ (0), so gilt
. _ Xk hm b(k,n,p)-k,e
n400
A
.
ftir k=0,1,2,...
(2.62)
np= A
Für große n und kleine p gilt somit die Näherungsformel b(k, n, p ) ""
(n p)k - np k !e
fi
tir
k
0 1 2 = " , ...
Beweis: Wegen np = X setzen wir p = ~. Daraus folgt ftir festgehaltenes k 1-
x)n-k n =
k = 0,1,2, ...
•
n) k n.k n(n-l) ... (n-k+l) Xk b(k, n, p) = ( k P (1- p) = k! . nk
·
(
= n(n -1) ... (n - k + 1) . Xk (1- ~)n (1- ~)- k = k! n ~ n · n ... n
Für festes k gilt
nl~
00
(1 -
k) ... (1 - k ~ 1) = 1;
(1--nX)-
!im
n-+oo
Ferner gilt lim (1- ~)n = e- A. n-+oo
k
k\
Daraus folgt die Behauptung lim b(k, n, p) = e- \ n"'OO . np=A
L 00
Aus eA =
k
~!
00
k=O
=1.
k
L ~! e- A= e- A. eA= e
folgt
k
O
= 1.
k=O
Damit wird durch
I P(X=k)=~e-\ auf
k=0,1,2, ...
(2.63)
n = {O, 1,2, ... } eine diskrete Zufallsvariable X erklärt . Diese Zufallsvariable
mit der Verteilung (k,
IT e- A), k = 0, 1,2, ... heißt Poisson-verteilt mit dem k
Parameter X. Die Verteilung selbst heißt Poisson-Verteilung. Sie kommt bei seltenen Ereignissen vor.
94
2. Zufallsvariable
Für große n und kleine p läßt sich also nach Satz 2.15 die Binomialverteilung durch die Poisson-Verteilung mit dem Parameter A= np approximieren. Diese Eigenschaft ist für die praktische Rechnung von großer Bedeutung, da für große n die Wahrscheinlichkeiten (~) pk (1- p)D -k sehr schwer zu berechnen sind. Für die erzeugende Funktion der Poisson-verteilten Zufallsvariablen X erhalten wir 00 k . . 00 (XA)k G(X) = "xk~e-A=e-A" _ _ =e-AeAX=eA(X-1) L., k! L., k! .
k;O
G'(x) = AeA(X -1) ;
k;O
G"(x) = A2 eA(X -1).
Damit folgt aus (2.50) Jl = E(X) = G'(l) = A;
Für eine mit dem Parameter A Poisson-verteilte Zufallsvariable X gilt daher (2 .64) _ _ Ak + 1 _ A_ ~ . Ak - A_ ~ _ . . . Wegen P(X - k + 1) - (k+ 1)! e - k+ 1 k! e - k+ I P(X - k) gilt fur die Wahrscheinlichkeiten einer Poisson-verteilten Zufallsvariablen X die für die praktische Berechnung wichtige Rekursionsformel
A P(X=k+l)=k+1P(X=k), k=0, 1,2, .. . mit P(X=O)=e- A. (2.65) Wir berechnen die Wahrscheinlichkeiten P(X = k) flir 0 ~ k ~ 7 der in Beispiel 2.22 beschriebenen Zufallsvariablen X einmal exakt nach der Binomialverteilung und einmal zum Vergleich nach der approximierenden Poissonverteilung nach (2.58) bzw. (2.65) k
°
I
2
3
4
5
6
7
e~O)O,OOlk 0,999 2OOO ' k 0,1352 0,2707 0,2708 0,1805 0,0902 0,0361 0,0120 0,0034 2k
kfe
-2
0,1353 0,2707 0,2707 0,1804 0,0902 0,0361 0,0120 0,0034
Da die entsprechenden Wahrscheinlichkeiten auf mindestens drei Stellen übereinstimmen, sind sie in Bild 2.8 nicht mehr unterscheidbar. Beispiel 2.23. 100 kg flüssiges Glas enthalte 50 Steine. Daraus werden x Flaschen hergestellt. Eine Flasche ist unbrauchbar, wenn sie mindestens einen Stein enthält. Es soll angenommen werden, daß bei der Produktion jeder der 50 Steine mit derselben Wahrscheinlichkeit und unabhängig von den anderen in jede der x Flaschen gelangen kann. Mit welcher Wahfscheinlichkeit ist eine der Produktion zuHillig entnommene Flasche brauchbar?
· 2.3. Spezielle diskrete Verteilungen
95
P{X:k)
o
2
1
t 5
6
7
Bild 2.8. Wahrscheinlichkeiten einer Poisson-Verteilung
Die Wahrscheinlichkeit, daß ein bestimmter Stein in die entsprechende Flasche gelangt ist, ist gleich {. Somit gelangt er mit Wahrscheinlichkeit 1 - ~ nicht in diese Flasche. Für die Wahrscheinlichkeit daflir, daß in die Flasche keiner der SO Steine gelangt ist, erhalten wir wegen der vorausgesetzten Unabhängigkeit
Po
50
=
""e
(Binomialverteilung)
x
(Poissonverteilung)
Tabelle 2.1 x
Po (exakt)
Po (approximativ nach der Poissonverteilung)
50
0,3642
0,3679
100
0,6050
0,6065
150
0,7157
0,7165
200
0,7783
0,7788
250
0,8184
0,8187
300
0,8462
0,8465
350
0,8667
0,8669
400
0,8824
0,8825
500
0,9047
0,9048
600
0,9200
0,9200
1000
0,9512
0,9512
2000
0,9753
0,9753
3000
0,9835
0,9835
4000
0,9876
0,9876
5000
0,9900
0,9900
96
2. Zufallsvariable
Für verschiedene x-Werte erhalten wir die in der Tabelle 2.1 angegebenen Wahrscheinlichkeiten.
•
Für Poisson-verteilte Zufallsvariable gilt folgendes Reproduktivitätsgesetz Satz 2.16 Sind X und Y zwei (stoch.) unabhängige Poisson-verteilte Zufallsvariablen mit dem Parameter Al bzw. A2, so ist die Summe Z = X + Y ebenfalls Poisson-verteilt mit dem Parameter Al + A2' Beweis: Mit X und Y besitzt auch Z = X + Y den Wertevorrat W = {O, 1,2, ... }. Aus P(X = i) =
hi
i/ e- hl , P(Y = j) = /
hi
e- h2 und der (stoch.) Unabhängigkeit
von X und Y folgt für k E W P(Z = k) =
L
k
P(X = i) P(Y = j) =
i +i = k
L P(X = i) P(Y = k - i) = i=O
(2.66)
Die Binomialentwicklung von (Al + A2)k ergibt
Hiermit folgt aus (2.66) die Behauptung P(Z=X+Y=k)=
(A + A )k lk! 2 e-(hl+h2)
•
2.3_6_ Übungsaufgaben zu diskreten Zufallsvariablen 1. Ein idealer Würfel werde so lange geworfen, bis zum erstenmal eine 6 erscheint. Man berechne den Erwartungswert und die Standardabweichung der Zufallsvariablen X, die folgende Werte annimmt: X = { 0, w~nn mehr als 3 Würfe erforderlich sind, 104 k, wenn k Würfe mit k ~ 3 erforderlich sind.
97
2.3. Spezielle diskrete Verteilungen
2. Eine Schachtel enthält 10 Transistoren, von denen 3 defekt sind. Ein Transistor wird zufällig aus der Schachtel genommen und geprüft. Ist er defekt, so wird er weggeworfen, und de.r nächste Transistor wird aus der Schachtel genommen und geprüft. Dieses Verfahren wird so lange fortgesetzt, bis ein Transistor gefunden ist, der in Ordnung ist . Man bestimme Erwartungswert und Streuung der Zufallsvariablen X, welche die Anzahl der Transistoren beschreibt, die geprüft werden müssen, bis ein brauchbarer gefunden wird. *3. Fünf Gegenstände werden zufällig auf drei Kästchen verteilt. Dabei beschreibe die Zufallsvariable X die Anzahl der Kästchen, die dabei leer bleiben. Man berechne E(X) und D2 (X). 4 . Beim Werfen einer idealen Münze spielt ein Spieler folgendermaßen: er setzt sein Geld immer auf "Zahl" und falls "Wappen" erscheint, spielt er beim nächsten Mal mit der doppelten Summe wie beim vorherigen Wurf, sonst hört er auf und kassiert den Gewinn, der gleich dem doppelten Einsatz fUr das betreffende Teilspiel ist. Man berechne den Erwartungswert und die Varianz der Gewinnvariablen X a) falls der Spieler über beliebig viel Kapital verfUgt, b) falls der Spieler pro Serie höchstens 31 Einheiten einsetzen kann. 5. Die zweidimensionale Zufallsvariable (X, Y) besitze die Verteilung
~ xi
2
3
1
0,1
0,2
0,3
2
0
0,2
0,2
a) Man berechne Erwartungswert und Varianz der Zufallsvariablen X und Y. Sind X und Y (stoch.) unabhängig? b) Man bestimme die Verteilung, den Erwartungswert und die Varianz der SummeX+Y. c) Man bestimme die Verteilung und den Erwartungswert des Produktes X ·Y. d) Mit diesen Ergebnissen bestätige man die Gleichung (2 .42). 6. Die Zufallsvariable X beschreibe die Anzahl der Buben im Skat. Man bestimme Verteilung, Erwartungswert und Streuung von X a) ohne Information über die Kartenverteilung unter den drei Spielern zu haben, b) falls Spieler I nach Verteilung der Karten b 1) keinen, b 2 ) genau zwei, b 3 ) genau drei Buben auf der Hand hat. *7. Die Zufallsvariable X nehme jeden Wert ihres Wertebereiches W ={I, 2, _.. , n} mit derselben Wahrscheinlichkeit an. Man berechne E(X) und D2 (X).
98
2. Zufallsvariable
8. Ein Betrunkener kommt im Dunkeln nach Hause. Die Haustür ist abgeschlossen, und er hat n Schlüssel in der Tasche, von denen nur einer paßt. Er entnimmt seiner Tasche zufallig einen Schlüssel, probiert ihn, und falls er nicht paßt, a) legt er ihn beiseite, b) steckt er ihn in die Tasche zurück. In beiden Fällen probiert er so lange, bis er den passenden Schlüssel gefunden hat. Die Zufallsvariable X beschreibe die Anzahl der zum Öffnen der Tür benötigten Versuche. Man berechne den Erwartungswert und die Streuung von X ftir beide Fälle. 9 . 2 % der Bevölkerung seien Alkoholiker. Man berechne die Wahrscheinlichkeit daftir., daß unter 100 zufällig ausgewählten Personen mindestens 3 Alkoholiker sind a) mit Hilfe der Binomialverteilung, b) mit Hilfe der Poissonverteilung. 10. Die Selbstmordziffer betrage pro Jahr im Durchschnitt 2 auf 50000 Einwohner. a) Mit weIcher Wahrscheinlichkeit finden in einer Stadt von 100000 Einwohner während eines Jahres k Selbstmorde statt flir k =0, 1, ... , 7? b) Wie groß ist die Wahrscheinlichkeit daftir, daß in dieser Stadt mehr als 7 Selbstmorde innerhalb eines Jahres stattfinden?
* 11.
In dem in Aufgabe 32 aus Abschnitt 1.10 beschriebenen Spiel beschreibe die Zufallsvariable X die Anzahl der bis zur Spielentscheidung benötigten Schüsse. Man berechne mit Hilfe der erzeugenden Funktion den Erwartungswert der Zufallsvariablen X.
2.4. Stetige Zufallsvariable
2.4.1. Definition einer stetigen Zufallsvariablen Beispiel 2.24. Wir nehmen an, beim Roulette erfolge die Ausspielung mit Hilfe eines drehbaren Zeigers. Dann gewinnt die Zahl, auf weIche die Spitze des zum Stillstand gekommenen Zeigers zeigt. Durch eine feinere Einteilung auf dem Rand könnten wesentlich mehr Zahlen untergebracht werden. Man könnte also den Wertevorrat der entsprechenden diskreten Zufallsvariablen beliebig vergrößern. Mißt man in Bild 2.9 den Winkel x im Bogenmaß, so kann ftir x jeder reelle Wert zwischen 0 und 211' auftreten. Die Zufallsvariable X, die bei der Versuchsdurch· ftihrung dieses Winkelmaß beschreibt, besitzt als Wertevorrat die Menge W = {x(O < x ~ 211'}, also das halboffene Intervall 1= (0,211'] (den Winkel x = 0 identifizieren wir dabei mit x =211'). W ist also im Gegensatz zum Wertevorrat einer diskreten Zufallsvariablen überabzählbar unendlich. Die Verteilungs/unk-
99
2.4. Stetige Zufallsvariable
Bild 2.9
tion F dieser Zufallsvariablen X definieren wir wie bei diskreten Zufallsvariablen durch F(x)
=P(X :::; x),
x E IR.
Da nur Winkel x aus dem Intervall I möglich sind, gilt
P(O < X:::; 21T) = I; =0; P(X > 21T)
P(X :::; 0)
=o.
Wir nehmen nun an, daß rur jedes x E I die Verhältnisgleichung P(X :::; x) : P(X :::; 21T)
=x : 21T
gilt. (Dann kann man sagen, das Ausspielungsgerät ist in Ordnung.) Wegen P(X :::; 21T) = 1 besitzt die Verteilungsfunktion F die Funktionswerte F(x) =
j
0 2X1T 1
rur x:::; 0,
rur 0 < x:::; 21T, rur x > 21T.
F besitzt im Gegensatz zu den Verteilungsfunktionen diskreter Zufallsvariabler keine SprungsteIlen. Der Graph dieser stetigen Funktion F ist in Bild 2.10 gekenn· zeichnet.
i" .
Für x E I läßt sich F(x) = x darstellen als Flächeninhalt eines Rechtecks mit den Seiten x und 2~' Den Flächeninhalt dieses in Bild 2.10 schraffierten Rechtecks bezeichnen wir mit x
F(x) =
du · SJ... 21T '
o
0<X:::;21T.
100
2. Zufallsvariable
Durch f(x)
j~
=
211'
o
ftir x :s; 0, ftir 0 <'x :s; 211', ftir x> 211'
wird die sog. Dichte der Zufallsvariablen X erklärt. Da diese Dichte außerhalb des Intervalls (0, 211'] mit der x-Achse keine Fläche einschließt, gilt ftir jedes x E IR die Beziehung x
F(x) =
Sf(u) du.
•
(2.67)
- 00
F(x)
F(x)
o
x
2fT
.. x Büd 2.10. Verteilungsfunktion und Dichte einer stetigen Zufallsvariablen
Die Eigenschaft (2.67) gibt Anlaß zu folgender Definition 2. 9. Eine .Zufallsvariable X heißt stetig, wenn eine nichtnegative, integrierbare Funktion f existiert, so daß ftir ihre Verteilungsfunktion F(x) =P(X :s; x) die Integraldarstellung · x
F(x)
=P(X:S; x) =
S
f(u) du
(2.68)
-00
gilt. Die Wahrscheinlichkeit P(X :s; x) ist also gleich der Fläche, welche die Kurve f links vom Punkt x mit der x-Achse einschließt (s. Bild 2.11). Die Funktion f heißt Dichte der stetigen Zufallsvariablen X.
101
2.4. Stetige Zufallsvariable
P(a<X.. b)
a
b
Bild 2.11. Dichte einer stetigen Zufallsvariablen
Wegen (- 00 < X < + 00) = {w/- 00 < X (w) < + oo} = n erfüllt eine Dichte f die Bedingung
f
+ 00
(2.69)
f(u) du = 1.
Bei vielen Zufallsvariablen verschwindet die Dichte außerhalb eines endlichen Inter-
f I
valls [I, rl· Dann folgt aus
f
00
f(u) du =
f(u) du = 0 flir die Funktionswerte der
-00
Verteilungsfunktion F
o
f
flirx:$/,
x
F(x)=
f(u) du flir I:$x :$r, flir x
~ r.
Für eine stetige Zufallsvariable X gilt der Satz 2.17 Ist X eine stetige Zufallsvariable mit der Dichte f, so gilt flir beliebige Zahlen a, b, c E IR mit a < b
f
b
P(a<X:$b)=F(b)-F(a)=
f
00
P(X > c) = 1 - F(c) =
c
(vgl. Bild 2.11).
f(u)du
f(u) du, (2.70)
102
2. Zufallsvariable
Beweis:
1. Die Ereignisse (X::; a) = {w/X(w)::; a} und (a < X::; b) = {w/a < X(w) ::; b} sind unvereinbar. Aus der Identität
(X::; a) + (a < X::; b) = (X::; b) folgt P(X ::; a) + P(a < X::; b) = P(X::; b) und hieraus P(a < X::; b) = P(X::; b) - P(X::; a) = F(b) - F(a) =
f
f
b
=
•
f(u) du -
-co
f b
f(u) du =
f(u) du.
-00
2. Aus (X::; c) + (X> c) = n folgt entsprechend P(X::; c) + P(X > c) = I, d.h.
f
f c
+00
P(X>c)=I-P(X::;c)=
f(u)du-
f(u) du =
f
•
f(u)du.
-00
Die Verteilungsfunktion F einer stetigen Zufallsvariablen X ist stetig. Nähern sich die Zahlen x einem bestimmten Zahlenwert Xo von links bzw. von rechts, so konvergieren die entsprechenden Funktionswerte F(x) gegen F(xo). Wir schreiben daftir mit h > 0 lim F(xo - h) = !im F(xo + h) = F(xo).
h ..... O
(2.71)
h ..... O
Für jedes h> 0 gilt (X =xo) = {w/X(w) =xo} C {w/xo -h < X(w)::; xo} =(xo -h<X::; xo). Daraus folgt P(X =x o) ::; P(xo - h < X::; xo)
=F(xo) -
F(xo - h) flir alle h > O.
Die rechte Seite dieser Ungleichung wird beliebig klein, wenn nur h klein genug ist. Daher erfilllt eine stetige Zufallsvariable X die Bedingung (flir h ..... 0)
I P(X = xo) = 0 flir jedes Xo E IR.
(2.72)
Aus P(X = Xo) = 0 folgt jedoch nicht, daß der Wert Xo von der stetigen Zufallsvariablen X nicht angenommen werden kann. Jeder einzelne Wert besitzt zwar die Wahr-
2.4. Stetige Zufallsvariable
103
scheinlichkeit 0, bei der Durchflihrung des zugrunde liegenden Zufallsexperiments muß jedoch einer der Werte von X angenommen werden. Wegen dieser Eigenschaft kann man bei der Berechnung der Wahrscheinlichkeit daflir, daß X Werte aus einem Intervall annimmt, die Intervallgrenzen hinzunehmen oder weglassen, ohne daß sich die entsprechende Wahrscheinlichkeit ändert. Es gilt also flir eine stetige Zufallsvariable X P(a < X::; b)
=P(a < X < b) =P(a::; X::; b) =P(a ::; X < b); F(x) = P(X ::; x) = P(X < x).
Im Falle f(xo) t- 0 ist f(xo) nicht die Wahrscheinlichkeit, mit der die Zufallsvariable X den Wert Xo annimmt. f(xo) kann sogar größer als 1 sein. Dann wäre eine solche Interpretation sowieso unsinnig. Die Dichte selbst kann im Gegensatz zur Verteilungsfunktion SprungsteIlen besitzen. Wir nehmen an, die Funktion f sei im Punkt Xo stetig und ßx o > 0 sei eine kleine Zahl. Dann unterscheidet sich die Wahrscheinlichkeit Xo+.
P(xo ::; X::; Xo + ßx o) = F(xo + t:lxo) - F(xo) =
S f(u) du
Xo
(s. Bild 2.12) von der Rechtecksfläche f(xo) ßx o umso weniger, je kleiner ßx o ist. Der Betrag der Differenz d = IP(xo ::; X ::; Xo + ßx o) - f (xo) t:lxo I kann beliebig klein gemacht werden, wenn nur ßx o klein genug gewählt wird. Damit erhalten wir in P(xo ::; X::; Xo + t:lxo) "" f(xo) t:lxo, wenn Xo Stetigkeitspunkt von fist.
(2.73)
flir kleine Werte ßx o > 0 eine gute Approximation. Besitzt dagegen f an der Stelle Xl einen Sprung, so muß in der entsprechenden Näherungsformel der
x Bild 2_12_ Dichte einer stetigen Zufallsvariablen
104
2. Zufallsvariable
rechtsseitige Grenzwert lim f(xi + h) = f(xi + 0) genommen werden; dann gilt die Näherung ~:; ~ (2.74)
Ist Xo Stetigkeitspunkt der Dichte f, so gilt mit lim O~h)
=0
h~O
F (xo + h) - F (xo) F (xo + h) - F (xo) -":'--'---:-h--'-:':"
= f (xo) h + o(h), o(h)
=f (xo) + -h- .
Mit h ~ 0 erhalten wir flir die Ableitung der Funktion F an der Stelle Xo gerade den Wert f (xo). Es gilt also F' (xo)
=
lim
F(x + h) - F(xo) 0
= f (xo),
(2.75)
h wenn Xo Stetigkeitspunkt von fist. h~O
2.4.2. Erwartungswert und Varianz einer stetigen Zufallsvariablen
Um zu einer sinnvollen Definition des Erwartungswertes und der Varianz einer stetigen Zufallsvariablen X zu gelangen, betrachten wir zunächst eine Zufallsvariable X, deren Dichte f außerhalb eines endlichen Intervalls [a, b 1verschwindet und im Intervall [a, b1 stetig ist. fIx)
X4
Xs
•••
xi_.
Xi
Bild 2.13. Diskretisierung einer stetigen Zufallsvariablen
Xi ••• Xn _2 Xn-. Xn _. xn
b=x n
x
105
2.4. Stetige Zufallsvariable
Das Intervall [a, b] teilen wir in n gleiche Teile mit der jeweiligen Länge t.x = b~a ein. Die Zerlegungspunkte bezeichnen wir dabei mit a = Xo, Xl = a + t.x, X2 = a + 2 t.x, ... , xn_1 = a + (n -1) t.x, x n = b. Aus dem Intervall (Xi-I, X;] wählen wir einen beliebigen Punkt Xi, z. B. die Intervallmitte, aus für i = 1,2, ... , n (vgl. Bild 2.13).
f Xi
Durch P(X n = Xi) = P(Xi-1
< X::; Xi) =
f(u) du für i = 1,2, ... , n
Xi-l
wird wegen b
n
I
i=
P(X n = Xi) = I
Sf(u) du =
1
a
eine diskrete Zufallsvariable Xn erklärt. Wegen Xi
S f(u) du ~ f(Xi)(Xi - Xi-I) = f(Xi)' t.x xi-I
gelten für den Erwartungswert und die Varianz der diskreten Zufallsvariablen X n für große n (d. h. kleine t.x) folgende Näherungsformeln : n
E(Xn) =
n
I i
=I
D2(Xn )=
I
Xi P(X n = Xi) ~
I i
=I
X;f(Xi) t.x;
n
(2.76)
I
n
[xi-E(Xn)]2p(Xn=X;)~
[Xi- E (X n )]2f(Xi)t.x·
i = I
i= I
Vergrößert man n, so wird t.x = b ~ a kleiner. Daher werden diese Approximationen mit wachsendem n besser. Für jede Auswahl der Werte Xi E (Xi -I' Xi] existiert der Grenzwert lim
n
L Xi f (Xi) t.x, wobei dieser Grenzwert von der
n4ooi=1
speziellen Wahl dieser Werte unabhängig ist. Den Grenzwert bezeichnen wir mit b
SX f(x)dx. Gegen diesen Grenzwert konvergiert aber auch die Folge E(X
n),
n = 1, 2, ... Wegen "Xn -+ X" ist es sinnvoll, diesen Grenzwert als den Erwartungswert der stetigen Zufallsvariablen X zu erklären ; wir setzen also b
Il=E(X)=
Sxf(x)dx.
(2.77)
106
2. Zufallsvariable
Entsprechend heißt
J b
a2
=D 2 (X)=
(2.78)
(x-JI)2f(x)dx
die Varianz der stetigen Zufallsl'ariablen X. Bei Dichten, die außerhalb eines endlichen Intervalls [a, b] verschwinden, im Intervall [a, b] jedoch SprungsteIlen besitzen, kann man das obige Verfahren auf die einzelnen Teilbereiche zwischen je zwei SprungsteIlen anwenden und die so erhaltenen Einzelintegrale aufaddieren. Schwierigkeiten können wie im diskreten Fall dann auftreten, wenn es kein endliches Intervall [a, b] gibt, außerhalb dessen die Dichte f verschwindet. Dann kann nämlich folgende Situation vorliegen: Bei einer speziellen Zerlegung der reellen Achse in abzählbar viele paarweise disjunkte Intervalle I k = (ak, b k ], ak < b k , d. h. mit der Darstellung 00
IR = U Ik mit Ik
k=1
lim 00
f
L j
;l
.
bj
n
n---1-
n Ij = f/J rlir k 1- j, ist es möglich, daß der Grenzwert
x f (x) dx existiert. Bei einer Umnumerierung oder bei einer
v
aj
anderen Zerlegung ergibt sich aber plötzlich ein anderer Grenzwert oder er existiert gar nicht. Solche Fälle sind ausgeschlossen, wenn die beiden Grenzwerte b
!im
b -+00
0
Sx f(x) dx und a~-oo lim r x f(x) dx existieren. Wegen J
o
o
0
0
Sxf(x)dx= ali~\"J Xf(X)dX=-ali~ooj' Ixlf(x)dx, -00
r xf(x)dx= J
o
b
lim
b-»oo
r xf(x)dx= J
0
b
lim
b-+oo
S Ixlf(x)dx 0
existieren diese beiden Grenzwerte genau dann, wenn der Grenzwert b
lim
+00
Slxi f(x)dx = Jr
a-+-oo b-++ooa
S x f(x) dx = a li~
00
-00
J~
lxi f(x)dx existiert. Dann existiert aber auch
b
f (x) dx und ist unabhängig davon, wie man diesen
b-++ooa
Grenzwert bildet. Damit haben wir eine Motivation gefunden rur die
107
2.4. Stetige Zufallsvariable
Definition 2.10. Ist X eine stetige Zufallsvariable mit der Dichte f und existiert b
das Integral
S lxi fex) dx = a l~oo S lxi fex) dx, so heißt das (dann auch b~
00
a
existierende) Integral +00
E(X)=~=
S xf(x)dx -00
der Erwartungswert der stetigen Zufallsvariablen X. Im Falle der Existenz heißt
-00
die Varianz von X und a = + variablen X.
#
die Standardabweichung der stetigen Zufalls-
Für die praktische Rechnung erinnern wir an folgende Eigenschaften des Integrals
S(CI g(x) + c2 h (x» dx = CI Sg(x) dx + C2 Jhex) dx, CI> C2 E IR, b
b
b
a
(2.79)
xR + I SxRdx =_I_ n+l b
1 b
a
a
=_I_(b R+ 1 n+1
-
aR+ 1) flir alle ganzzahlige n f-1.
Beispiel 2.25. Die Funktion f sei gegeben durch fex) = {
~+c.x flirO:$x:$l ,
o sonst. Zunächst bestimmen wir die Konstante c so, daß f Dichte ist. Aus der Bedingung
J
J(~+
o
0
1
1
f (x) dx = 1 erhalten wir die Gleichung 1 =
(
cx) dx =
~ x + C~2) I x = 1 = ~ + %mit der Lösung c = 1. Da flir c = I die Funktion nichtx=O
negativ ist, ist f Dichte. Besitzt die Zufallsvariable X die Dichte f, so lautet die Verteilungsfunktion F(x) = P(X :$ x) flir x :$ 0, flirO:$x:$l, flir x
~
1.
108
V
2. Zufallsvariable
Die Funktionen fund F sind in Bild 2.14 graphisch dargestellt. Für die Wahrscheinlichkeit P(O,S .;;; X .;;; 1) erhalten wir nach Satz 2.17
t(Xl
1
P(O,S .;;; X';;; 1) = F(1) - F(O,S) =
=1-~-~=~.
Bild 2.14 Dichte und Verteilungsfunktion einer stetigen Zufallsvariablen
1
I I
I r
2 r
I
r
I
o
t
• x
.. x 1
Ferner gilt 1
Jl=E(X) =
1
Sx(~+x)dx= S(~+X2) dx= o
1
1)2 (X) =
0
r
S(x - 172 (i + x) dx = 11;4 . o
Die Varianz erhält man dabei durch elementare Rechnung.
•
Beispiel 2.26. Es gibt keine Konstante c, so daß die durch fex) = {
o
sonst
definierte Funktion f Dichte ist. Wegen
S(1 + cx) dx = (x + C~2) I = 3 + ic müßte c = - t sein. Dann wären aber 3
1=
I + cx fur 0::; x::; 3,
3
o 0 fur alle x mit ~ < x::; 3 die Funktionswerte fex) negativ, weshalb f keine Dichte sein kann.
•
Den übergang von einer diskreten zu einer stetigen Zufallsvariablen können wir uns formal so vorstellen, daß die Wahrscheinlichkeiten P(X = Xi), Xi E W, durch die Dichte f, der Wertevorrat W durch eine überabzählbare Teilmenge der reellen Zahlengeraden und die Summation durch die Integration ersetzt wird. Daher liegt die Vermutung nahe, daß sämtliche bisher gezeigte Eigenschaften des Erwartungs-
109
2.4. Stetige Zufallsvariable
wertes und der Varianz diskreter Zufallsvariabler auch flir stetige Zufallsvariable gültig bleiben, wenn man in den entsprechenden Formeln diese formale Übertragung vornimmt. Dabei wird diese Vermutung noch bestärkt durch die zu Beginn dieses Abschnitts vorgenommene Diskretisierung der stetigen Zufallsvariablen X. Da die Eigenschaften flir die diskreten Approximationsvariablen Xn gelten, liegt es doch nahe, daß sie auch bei der Durchflihrung des Grenzübergangs n ..... 00 gültig bleiben. Tatsächlich lassen sich die gezeigten Eigenschaften alle auf stetige Zufallsvariable übertragen. Bevor wir uns allgemein mit der linearen Transformation aX + b, a, b E IR beschäftigen, betrachten wir folgendes Beispiel: Beispiel 2.27 (vgl. Beispiel 2.25). X sei eine stetige Zufallsvariable mit der in Beispiel 2.25 angegebenen Dichte fex) = 4 + x flir 0:::; x:::; 1, fex) = 0 sonst. Aus X leiten wir eine Zufallsvariable Y durch folgende Vorschrift ab : nimmt X den Wert x an, so soll die Zufallsvariable Y den Wert 4x - I annehmen. Daflir schreiben wir auch Y = 4X - I. Aus den Identitäten (Y :::;y)=(4X-I :::;y)= (4X :::;y + 1)= (X :::;Y: 1) erhalten wir die Verteilungsfunktion G der Zufallsvariablen Y als Y+I) = F (Y+I) G(y) =P(Y :::;y) =P ( X :::;-4-4- . Dabei folgt aus Beispiel 2.25
I)
YI
y+ + F ( -4- = 0 flir -4-:::; 0, also flir Y :::; -I, y
+ I)
. Y +I -4-~ 1,
F ( -4- = 1 fur
.
d.h.fur
y~3,
wahrend wir flir -I :::; y :::; 3 folgende Funktionswerte erhalten G(y)=F(Y+I)=!.Y+I +!.(Y+I)2 =4y+4+y 2 +2y+1 = 4 2 4 2 4 32 5 I 2 3 = 32 Y + 16 Y + 32 . Die Funktionswerte g(y) der Dichte von Y erhalten wir flir Y f -I und Y '13 durch Ableitung der Funktion G nach y. An den Stellen Y = - I und Y = 3 setzen wir ge-I) = l~ bzw. g(3) = l~ und erhalten damit flir die Dichte g der Zufallsvariablen Y die Darstellung g(y) =
0
fliry<-I,
o
flir y > 3.
1;6 + ~6 flif -I :::; y :::; 3,
110
2. Zufallsvariable
Dabei gilt rur jedes y E IR die Beziehung
1 (Y + 1) .
•
g(Y)=4 f ~
Für eine beliebige lineare Transformation aX + b zeigen wir den
Satz 2.18 Ist X eine stetige Zufallsvariable mit der Dichte f, so besitzt die Zufallsvariable Y = aX + b flir a f 0 die Dichte 1 f (Y-b) g.(y) =""T;J -a- .
(2.80)
Beweis:
1. Zunächst betrachten wir den Fall a > O. Ist F die Verteilungsfunktion der
Zufallsvariablen X, so folgt aus (Y=aX+b~y)=(aX~y-b)=
Y-b) ( X~-a-
die Gleichung
S
P(Y~Y)=F(Y:b)=
f(u) du.
-00
Durch die Substitution u = v - b geht dieses Integral über in a y
y
S~f(V:b)dV= S g(v)dv.
P(Y~y)=
- 00
-00
Damit ist g (y) = ~ f (Y : b) Dichte der Zufallsvariablen Y. 2. Für a < 0 gilt wegen lai = - a entsprechend (Y = aX + b
~
y) = (aX 00
P(Y~y)=
~
y - b) =( X ~ Y-b) -a- ; -00
S f(u) du = S ~f(V~b)dV= Y
I (V-b) 1 (V-b) -a- dv= .fY laff -a- dv= SY g (v) dv, Sy -;f 00
-00
'MJmit auch rur diesen Fall die Behauptung g(y) = ~ f (Y: b) gezeigt ist. •
111
2.4. Stetige Zufallsvariable
Satz 2.19 Ist X eine stetige Zufallsvariable mit dem Erwartungswert E(X), so gilt ftir beliebige reelle Zahlen a, b die Gleichung (2.81 )
E(aX + b) = aE(X) + b.
Beweis: Ist f die Dichte von X und a 'f 0, so erhalten wir aus (2.80) ftir den Erwartungswert der Zufallsvariablen Y = aX + b die Gleichungen
f
+00
E(Y) =
J
+00
yg (y) dy =
Y'
~ f ( Y ~ b) dy.
Mit der Substitution y: b = x folgt hieraus +00
S (ax+b)f(x)dx=a
E(Y)=
+
f
+00
00
fXf(X)dx+b
-00
f(x)dx =aE(X) +b.
-00
Im Falle a = 0 ist aX + b = b eine konstante diskrete Zufallsvariable, deren Erwartungswert gleich bist. • Satz 2.20 Für die Varianz einer stetigen Zufallsvariablen X mit der Dichte f und dem Erwartungswert p. gilt +00
(2.82) Beweis: Aus der Definition 2.10 und der Linearität des Integrals folgt +00
-00 +00
=
f
+00
-00 +00
x 2f(x)dx-2p. f Xf (X)dx+p.2 Sf(X)dx= - 00
+00
=
S
-00
+00
+00
x 2 f(x) dx - 2p.- p. + p.2 =
f
-00
x 2 f(x)dx-p.2 .
•
112
2. Zufallsvariable
Für symmetrische Dichten gilt wie bei diskreten Zufallsvariablen (vgl. Satz 2.3) der Satz 2.21 X sei eine stetige Zufallsvariable mit der Dichte f, deren Erwartungswert existiert. Ist die Dichte symmetrisch zur Achse x = s, d. h. ist fes + x) = fes - x) fur alle x E IR, so gilt E(X)
=s.
Beweis: Nach Satz 2.18 besitzt die Zufallsvariable Y = X - s die Dichte g(y) = fes +y) und Y =- X + s die Dichte h(y) = f(-I") = f(s-y). Wegen fes + y) = fes - y) besitzen daher die Zufallsvariablen X - sund - X + s dieselbe Dichte und somit denselben Erwartungswert. Damit gilt wegen Satz 2.19 mit a = 1 und b =-s E(X - s) = E(X) - s = E(- X + s) = - E(X) + S,
•
woraus unmittelbar die Behauptung E(X) = s folgt. Die Varianz läßt sich bei symmetrischen Dichten einfacher nach der Formel des folgenden Satzes berechnen Satz 2.22 Ist fur die Dichte f einer stetigen Zufallsvariablen X die Bedingung fes + x) = fes - x) fur alle x E IR erfmlt, so gilt •
00
S(X-S)2 f (X)dx=2j (x-s)2f(x)dx.
D2(X)=2'
(2.83)
-00
Beweis: Wegen E(X) = s lautet die Varianz
S (x-s)2f(x)dx= S(x-s)2f(x)dx+ +00
D2(X)=
•
-00
-00
00
+
S (x-s)2f(x)dx.
Durch die Substitution x - s = u erhält man fur das erste Integral •
0
S(x-s)2f(x)dx= Su2f(s+u)du, -00
-00
(2.84)
113
2.4. Stetige Zufallsvariable
während die Substitution x - s = - u das zweite Integral überfUhrt in ~
0
-~
S(x-s)lf(x)dx=- S u1f(s-u)du= Su1f(s-u)du= o
-00
o
Su1f(s+u)du. -00
Beide Integrale auf der rechten Seite von (2.84) stimmen somit überein. Sie sind daher jeweils gleich der halben Varianz, womit die Behauptung gezeigt ist. • Beispiel 2.28. Die Dichte f der Zufallsvariablen X sei gegeben durch (vgl. Bild 2.15)
fex) =
j
fix}
I
: SymmetriE' - Ach se I
I
0
fur x ~ [0,4],
~X
fur 0::;; x::;; 2,
1 - ~x fur 2 ::;; X :5 4.
Bild 2.15. Symmetrische Dichte
Da f nichtnegativ ist, und das in Bild 2.15 gezeichnete Dreieck den Flächeninhalt I hat, ist f Dichte. Wegen f(2 + x) = f(2 - x) fur alle x ist f symmetrisch zur Achse x = 2. Nach Satz 2.21 besitzt X daher den Erwartungswert E(X) = 2. Nach Satz 2.22 gilt fur die Varianz von X die Gleichung 2
D2(X)=2'
2
S (X-2)2·~xdx=~ S(x -4x2 +4x)dx= 3
o
=
H~ -
4/
0 x-2
+4
"t) I -
x=O
=
~ (4 -
332 + 8) =
~.~=~.
•
2.4.3. Stetige zweidimensionale Zufallsvariable Wir betrachten zunächst zwei durch dasselbe Zufallsexperiment bestimmte Zufallsvariable X und Y mit den Verteilungsfunktionen F 1 (x) = P(X ::;; x) und F 2(y)=P(Y::;;y). Durch F(x, y) = P(X::;; x, Y::;; y) = P({w/X(w) :5 x} n {wJY(w) ::;; y}), x, yE IR (2.85) wird der zweidimensionalen Zufallsvariablen (X, Y) eine Funktion F in zwei Veränderlichen zugeordnet. Das Zahlenpaar (x, y) stellt einen Punkt in der x-yEbene dar. Wir schreiben fur x E IR, Y E IR kurz (x, y) E IR 1. Durch (2.85) wird jedem Punkt (x, y) E IR 2 ein Zahlenwert F(x, y) zugeordnet.
114
2. Zufallsvariable
Definition 2.11. Die durch F(x, y) = P(X ~ x, Y ~ y), (x, y)E lR 2 definierte Funktion F heißt Verteilungsfunktion der zweidimensionalen Zufallsvariablen (X, V). Für eine diskrete zweidimensionale Zufallsvariable (X, Y) mit der Verteilung (Xi> Yj, P(X = Xi> Y = yj),i = 1,2, ... , j = 1,2, ... erhalten wir F(x, y) = P(X ~ X, Y ~ y) =
L L Xi ~ x
P(X = xi> Y = Yj)'
l2.86)
Yj ~ Y
Ersetzt man in dieser Gleichung die Wahrscheinlichkeiten P(X = xi, Y = Yj) durch eine Dichte fex, y) und die Doppelsumme durch das Doppelintegral, so fUhrt dies unmittelbar zu der
Definition 2.12. Die zweidimensionale Zufallsvariable (X, Y) heißt stetig, wenn eine nichtnegative Funktion fex, y) existiert, so daß fUr jedes (x, y) E IR 2 gilt Y
x
F(x,y)=P(X~x,Y~y)=
SS -00
f(u,v)du dv.
(2.87)
-00
Die Funktion fex, y) heißt gemeinsame Dichte der Zufallsvariablen X und Y. Aus (X< 00, Y < (0) = {w/X(w) < oo} n {w/X(w) < oo} = n n +00
S
f
n = n folgt
+00
(2.88)
f(u,v)dudv=1.
-00
Die Dichte fex, y) spannt über der x-y-Ebene eine Fläche auf. In Bild 2.17 ist eine solche Fläche über einem Quadrat der x-y-Ebene graphisch dargestellt. Der Körper, den diese Fläche mit der x-y-Ebene zusammen bildet, besitzt das Volumen 1. Wegen (2.87) ist die Wahrscheinlichkeit P(X ~ xo, Y ~ Yo) = F(xo, Yo) gleich dem Volumen desjenigen Teilkörpers, den die Fläche über dem Bereich M = {(x, y)/ x ~ Xo, Y ~ Yo} mit der x-y-Ebene bildet. Für die Wahrscheinlichkeit dafUr, daß (X, Y) Werte aus einem halboffenen Rechteck annimmt, zeigen wir den Satz 2.23 Ist (X, Y) eine stetige zweidimensionale Zufallsvariable mit der Verteilungsfunktion F(x, y) und der gemeinsamen Dichte fex, y), so gilt fUr XI < x 2, YI
=
Y2
S S f(x,y)dxdy. XI
YI
(2.89)
115
2.4. Stetige Zufallsvariable
Wir setzen (vgl. Bild 2.16) A = (X:::; XI> YI < Y:::; Y2), B = (X:::; XI> Y:::; YI), C = (XI< X:::; X2, Y :::; YI)' G = (XI< X :::; X2, YI < Y :::; Y2)· Aus Bild 2.16 erkennt man unmittelbar die Identität A + B + C + G = (X:::; X2, Y :::; Y2).
(2.90)
Für die Ereignisse A, B, C gilt dabei A + B = (X :::; XI> Y :::; Y2), C + B = (X:::; X2, Y:::; YI). Daraus folgt
G
Yl' I
P(A) + P(B) = F(xl> Y2),
p(e)
,, ,,
A
---B --~ I
= F(x2' Yd- F(xl> Yd·
Aus (2.90) erhalten wir
---c----r.;--, X2
Xt
(2.91)
P(A) + P(B) + P(C) + P(G)
=F(x2, Y2)
Bild 2.16
und hieraus mit (2.91) P(X I < X:::; X2, YI
rr
< Y :::; Y2) = P(G) = F(x2' Y2) -
rr
P(A) - P(B) - P(C) =
= F(x2' Y2) - F(xl> Y2) - F(x2' YI) + F(xl' Yd = f(x,y)dxdy -
=
-00
-00
X2
-00
f(x,y)dxdy-
-00
YI
XI
YI
- S S f(x,y)dxdy+ S S f(x,y)dxdy = -00
-
X2
Y2
S S X2
=
-00
00
J X2
f(x,y)dxdy-
-00
YI
S f(x,y)dxdxdy=
Y2
S S f(x,y)dxdy. XI
•
YI
Ist G ein Gebiet in der x-y-Ebene, P((X, Y) E G) =
S0
läßt sich allgemein folgende Formel zeigen
SS fex , y) dx dy. G
(2.92)
116
2. Zufallsvariable
Die Wahrscheinlichkeit daflir, daß die zweidimensionale Zufallsvariable (X, Y) Werte aus dem Gebiet G annimmt, ist also gleich dem Doppelintegral bezüglich der Dichte über dieses Gebie~. Besteht dieser Bereich nur aus einer Kurve L, so folgt insbesondere P((X, Y) E L) = 0,
(2.93)
L = Kurve in IR 2 .
Daher kann man in (2.89) den Rand hinzunehmen oder teilweise weglassen, ohne die entsprechende Wahrscheinlichkeit zu ändern. Falls im Punkt (xo, Yo) die Dichte stetig ist, so gilt entsprechend dem eindimensionalen Fall
(2.94) In einem Stetigkeitspunkt (xo, Yo) erhält man die Dichte f(xo, Yo) durch Differentiation von F nach x und anschließend nach y oder umgekehrt. Es gilt also . F (xo + h, Yo + k) - F (xo, Yo) a2 F(xo, Yo) hm h'k = a a =f(xo,yo), h->O x Y
k->O
(2.95)
wenn (x o, Yo) Stetigkeitspunkt von fist.
Beispiel 2.29. Die zweidimensionale Zufallsvariable (X, Y) besitze die Dichte fex, y)
={
x+ y flir
o
o ::;x, y::; 1,
sonst.
Für 0 ::; x, y ::; I lautet die Verteilungsfunktion x
F(x,y)=
o =
x
y
2
v=y
SS(u +v)dvdu = J(uv+ v2 )1_ 0
0
du=
v-O
SX( uy + Y22) du = (1u2 Y + u Y22)IU=X = ~2Y + x . Y22.
o
u=O
Wegen F(l, 1) = ~ + ~ = 1 und fex, y) ~ 0 ist f Dichte. über dem Quadrat 0 ::; x, y ::; 1 stellt f eine Ebene dar und verschwindet außerhalb davon (s. Bild 2.17). Der in Bild 2.17 dargestellte Körper besitzt das Volumen 1. •
117
2.4. Stetige Zufallsvariable
Bikl2.17 Gemeinsame Dichte zweier abhängiger stetiger Zufallsvariabler
Aus der gemeinsamen Dichte fex, y) erhalten wir die Dichten f l (x), f 2 (y) der einzelnen Zufallsvariablen X und Y durch folgende überlegungen x
+00
S{ Sf(u,v)dv}du ;
P(X~x)=P(X~x,Y
-00
+
-00
y
SS
P(Y~y)=P(X
00
-00
f(u,v)dvdu=
-00
f(u,v)du}dv. -00
f l (x) =
-00
S
fex, y) dy,
S fex, y)
f 2 (y) =
dx
(2.96)
-00
-00
sind die Dichten von X bzw. Y, die sog. Randdichten. Beispiel 2.30 (vgl. Beispiel 2.29). Die stetige zweidimensionale Zufallsvariable (X, Y) besitze die Dichte (vgl. Bild 2.17) fex, y) =
{
X
+ y fur
o
0
~
x, y
~
1,
sonst.
Die Dichte f l (x) der Zufallsvariablen X lautet fur 0 ~ x ~ 1 1
fl(x) =
2
y =l
S(x+ Y)dy =( xy + y2 )1 = x+~ . o
y =o
118 Für x
2. Zufallsvariable
$ [0, I]
verschwindet f l (x).
Für die Dichte f 2(y) der Zufallsvariablen Y erhalten wir entsprechend 1
S(x+y)dx=y+~
für
O~y~l,
o
o
sonst.
Aus Beispiel 2.25 folgt E(X) = E(Y) = 172; D 2 (X) = D2(y) =
•
I~~'
Bei der übertragung der (stoch.) Unabhängigkeit von diskreten Zufallsvariablen auf stetige benutzen wir folgende Eigenschaft, die aus der Definition 2.7, aus Satz 2.1 und aus (2.86) abgeleitet werden kann. Z\Wi diskrete Zufallsvariable X und Y mit der gemeinsamen Verteilungsfunktion F(x, y) = P(X ~ x, Y ~ y) und den einzelnen Verteilungsfunktionen F I (x) = P(X ~ x) und F 2 (y) = P{Y ~ y) sind genau dann (stoch.) unabhängig, wenn für alle (x, y) E IR 2 gilt F(x,y) = P(X ~ x, Y ~y) =P(X ~ x)· P(Y ~ y) = FI(x)' F 2(y).
(2.97)
Diese Gleichung hätte also auch zur Definition der (stoch.) Unabhängigkeit zweier diskreter Zufallsvariabler benutzt werden können. Wir geben daher allgemein die
Definition 2.13. Zwei beliebige Zufallsvariable X und Y mit der gemeinsamen Verteilungsfunktion F(x, y) und den Randverteilungen F I und F 2 nennt man (stach) unabhängig, wenn für alle (x, y) E IR 2 gilt F(x,y) =P(X
~x,
Y
~y)
=P(X
~x)·
P{Y
~y)
= FI(x)' Fl(y).
(2.98)
Für (stoch.) unabhängige Zufallsvariable gilt der Satz 2.24 Sind X und Y zwei (stoch.) unabhängige Zufallsvariable, so gilt ftir beliebige Zahlen XI, X2, Yb Y2 E IR P(XI
< X ~ Xl' YI < Y ~ Y2) = P(XI < X ~ X2)' P(YI < Y ~ Y2)'
(2.99)
Beweis: Ist F die Verteilungsfunktion von (X, Y), F I die von X und Fl die von Y, so gilt nach (2.89) und (2.98) P(XI
< X ~ x 2, YI < Y ~ Y2) = F(X2' Y2) -
F(x!> Y2) -
- F(X2' Yd + F(x l , YI) = F I (X2) F 2(Y2) - F I (XI) F 2 (Y2)- F I (x2)F 2(yd + F I (xdF 2 (YI) ; = [FI(X2)- FI(xI)]' [F2(Y2)- F 2(YI)];
= P(x i < X ~ Xl)' P(YI < Y ~ Y2)'
•
119
2.4. Stetige Zufallsvariable
Für (stoch.) unabhängige stetige Zufallsvariable gilt damit X2
P(x, ::;X::;X2,Y' ::;Y::;Y2)=
S f,(x)dx'
(2.100) y,
Ist die Dichte f im Punkt (x, y) stetig, so erhält man durch Differentiation der Identität F(x, y) = F, (x) . F 2(y) nach x und Y wegen (2.95) ftir unabhängige stetige Zufallsvariable die Beziehung fex, y) = f, (x)· f 2(y).
(2.101)
Gilt (2.10 1) ftir alle (x, y) E IR 2, so sind die Zufallsvariablen X und Y unabhängig. Daher wird diese Beziehung häufig zur Definition der (stoch.) Unabhängigkeit zweier stetiger Zufallsvariabler benutzt. Sind f, und f2 Dichten der stetigen Zufallsvariablen X und Y, so wird durch fex, y) = f, (x) . f2(y) eine Dichte der zweidimensionalen Zufallsvariablen (X, Y) erklärt. Die Zufallsvariablen sind dann (stoch.) unabhängig. Beispiel 2.31 (vgl. Beispiele 2.29 und 2.30). Die Zufallsvariablen X, Y mit der gemeinsamen Dichte fex, y) = {
x+ y ftir
o
0::; x, y::; 1,
sonst
sind nicht (stoch.) unabhängig, da flir 0 ::; x, y ::; 1 das Produkt f 1 (x) . f2(x) = (x + ~) (y + ~) von f (x, y) verschieden ist. • • Wir wählen nun als Dichte der zweidimensionalen stetigen Zufallsvariablen (X, Y) die durch • {(x+~)(Y+~)flir O::;x,y::;l, fex, y) = o sonst definierte Funktion f. Die eindimensionalen Zufallsvariablen X und X bzw. Y und Y besitzen jeweils gleiche Dichten, nämlich die Funktionen f, bzw. f2 aus Beispiel 2.30. Die Zufallsvariablen X und Y sind jedoch im Gegensatz zu den Zufallsvariablen X und Y (stoch.) unabhängig. Die gemeinsame Dichte ist in Bild 2.18 graphisch darges tell t. • über dem Quadrat 0::; x, y ::; 1 stellt fex, y) keine Ebene dar, sondern ein Hyperboloid. Die Zufallsvariablen (X, Y) und (X, Y) besitzen somit verschiedene gemeinsame Dichten, obwohl die Dichten von Xund X und Yund Y jeweils übereinstimmen.
120
2. Zufallsvariable
i (x,y)
/' Bild 2.18 Gemeinsame Dichte zweier unabhängiger Zufallsvariabler
0,1>
o
2.4.4. Summen und Produkte stetiger Zufallsvariabler
Die zweidimensionale Zufallsvariable (X, Y) sei stetig mit der gemeinsamen Dichte fex, y). Für die Verteilungsfunktion F(z) der Summe Z = X + Y erhalten wir F(z) = P(X + Y:;:; z)=
ff x+ Y
:;:;
f(x,y)dxdy = z
-00
Durch die Substitution y = u - x geht dieses Integral über in
-00
- 00
-00
-00
Entsprechend gilt
SS
F(z) =
f(x,y)dxdy =
x+y:;:;z
=
-00
Z
-00
f(x,y)dx }dY =
-00
J{ f +00
(Y
foo{
Z
f(V-y,y)dV}dY =
+00
f {f
-00
-00
f(V-Y,Y)dY}dV.
121
2.4. Stetige Zufallsvariable
Damit ist auch Z = X + Y stetig und besitzt die Dichte +00
+00
S
h(z)=
f(x,z-x)dx=
S
(2.102)
f(z-y,y)dy.
Für den Erwartungswert von X + Y zeigen wir den Satz 2.25 Sind X und Y zwei stetige Zufallsvariable, deren Erwartungswerte E(X) und E(Y) existieren, so gilt E(X + Y) = E(X) + E(Y).
(2.103)
Beweis: Aus (2.102) folgt mit Z = X + Y und der Substitution z = x + y +
+
00
00
+ 00
S zh(z)dz= S z S f(x,z-x)dxdz=
E(Z)=
-00
-00
+00
+00
+00
+00
S S zf(x,z-x)dxdz= S S -00
-00
-00
+ 00
=
+00
-00
-00
S X{ f +00
-00
+ 00
S
-00
-00
f
+00
f(X,y)dY}dX+
-00
+ 00
=
+00
S S xf(x,y)dxdy+ S S yf(x,y)dxdy=
-00
=
(x+y)f(x,y)dxdy=
-00
- 00
+00
y {
S
f(X,y)dx} dy=
-00
+00
xf,(x) dx +
S
Yfl (y) dy = E(X) + E(Y).
•
- 00
Durch vollständige Induktion läßt sich (2.103) auf eine endliche Summe stetiger Zufallsvariabler übertragen. Es gilt also ftir stetige Zufallsvariable Xl> Xl, '" , Xn , deren Erwartungswerte existieren, die Identität '
(2.104)
122
2. Zufallsvariable
Beispiel 2.32 (vgl. Beispiel 2.29). Für die Dichte h(z) der Summe Z = X + Y der Zufallsvariablen X, Y mit der gemeinsamen Dichte f(x,y)= {
0::; x, y ::; I,
X + y ftir
o
sonst
erhalten wir nach (2.102) die Gleichung +00
J'
h(z)=
f(x,z-x)dx.
Der Integrand fex, z - x) verschwindet außerhalb des Bereiches 0 ::; x ::; I; x ::; I, insbesondere also ftir aUe z!f= [0, 2J. Für 0 ::; z ::; 1 erhal ten wir
o ::; z -
h(z) =
Sf(x,z-x)dx= S(x+z-x)dx=z2 o
o·
und ftir 1 ::; z ::; 2 die Funktionswerte I
x=1
S Zdx=ZX!
h(z)=
z-I
=z(l-(z-I))=z(2-z)=2z-z 2 .
x=z-I
Die Zufallsvariable Z = X + Y besitzt daher die Dichte (vgl. Bild 2.19)
0
h(z) =
1
fur z ::; 0,
h(z)
Z2 ftir 0::; z ::; I, 2z - Z2 ftir 1 ::; z ::; 2,
o
ftir z
~
2.
Bild 2.19
--t-~------~------~2~~Z
Für den Erwartungswert der Zufallsvariablen Z erhalten wir 2
E(Z) =
I
Szh(z)dz= S
z3
o
0
2
dz+
S
I
2
I +C;3 -~) 1=
I
0
I
(2Z 2 -z 3 )dZ=z;
123
2.4. Stetige Zufallsvariable
Beispiel 2.33 (vgl. Beispiel 2.31). Die zweidimemionale Zufallsvariable (X, Y) besitze die Dichte
{(x+~)(y+~) fur O::;x,y::; 1, • f(x,y)= o sonst. Für die Dichte h(z) der Summe Werte h (z) = 0 fur z $. [0,2].
Z = X + Y erhalten wir wie in Beispiel 2.32 die
z
Für
0::; z ::; 1 gilt h(z) =
z
S(x + ~) (z - x +~) dx = S(xz - x o
2
+~
+~) dx =
o
Z3
Z3
Z2
Z
Z3
Z2
Z
=---+-+-=-+-+_. 2 3 2 4 6 2 4' 1
Für
1 < z ::; 2 ergibt sich h(z) =
S (xz - x
2
+ ~ + ~) dx =
z -1
z • 1 = "2 (1- Z2 + 2z - 1) -:3 (1- Z3 + 3z 2 Z3
=- -
2
+ Z2
2
- -
3
Z3
+- 3
Z2
+Z +Z-
Z2 -
2
-
z 1 3z + 1) +"2 (2 - z) + 4" (2 - z) = I
z
+- - 2 4
=
Z3 Z2 7 I = - 6-2+4"z-6·
Damit besitzt die Zufallsvariable
Z die Dichte (vgl. Bild 2.20) flir z < 0,
• Die Graphen der Funktionen hund h in Bild 2.20 und 2.19 sehen sehr ähnlich aus. Sie sind jedoch verschieden, was man an der Stelle z = 1 unmittelbar sehen kann. Die Dichten der Summen X + Y und X + Y sind also verschieden, obwohl X und X bzw. Y und Y gleiche Dichten besitzen. Für die Dichte der Summe
124
2. ZufaUsvariable
x + Y ist nämlich nach der Gleichung (2.102) die gemeinsame Dichte fex, y) maßgebend, die flir die Paare (X, Y) und CX, Y) verschieden ist. Bild 2.20
h(z)
---4~-------+--------~--~z
Beispiel 2.34. Die Zufallsvariablen XI> YI seien (stoch.) unabhängig und sollen dieselbe Dichte (s. Bild 2.21) besitzen: f l (x) = {
I flir
o
O~x~l,
sonst.
3 Bild 2.21. Dichten von Summen
Für die Dichte f2 der Zufallsvariablen X2 die Funktionswerte
=XI + YI erhalten wir nach (2. 102)
-00
Da der Integrand außerhalb des Bereickes 0
~
u
~
I; 0
~
x- u
f
~
1 verschwindet,
x
gilt f 2 (x) = 0 flir x r:F [0, 2]. Ferner erhalten wir f2 (x) =
f
I
und f2 (x)
X2
=XI
=
du
=2 -
x fur 1 ~ x
+ YI die Dichte
f 2 (x) =
0
du = x flir 0
~x~1
~ 2. .Somit besitzt die Summenvariable
x-I
0 x 2-x
0
flir x ~ 0, fur O~x~l, flir 1 ~ x ~ 2, flif X ~ 2.
125
2.4. Stetige Zufallsvariable
Die Funktion f 2 ist im Gegensatz zu f l überall stetig, an den Stellen x = 0, x = I, x = 2 jedoch nicht differenzierbar (s. Bild 2.21). Wir nehmen nun an, die Zufallsvariable Y2 besitze ebenfalls die Dichte f l und sei von X2 (stoch.) unabhängig. Dann gilt flir die Dichte f 3 (x) der Zufallsvariablen X 2 +Y 2
f
+00
f 3 (x)=
f2 (u)f l (x-u)du.
-00
Da der Integrand außerhalb des Bereichs 0 :$ u :$ 2; 0 :$ x - u :$ I verschwindet, gilt f 3 (x) = 0 flir x Ef [0, 3]. Für xE [0,3] erhalten wir
f
min (2, x)
f 3 (x) =
f2(u) du.
max (x -I, 0)
f
x
Für O:$x:$1 gilt f3 (x) =
udu =x;.
o Für 1 :$ x :$ 2 erhalten wir
f
x
f 3 (x)=
f(u) du = fUdU+
x -I
f
x
1
(2-u)du=
x -I x
U2~
+ ( 2u-2 x -I
I (X-l)2 1 =---·--+2(x-l)--(x 2 -1)= 2 2 2
I
1 x2 I 1 1 3 =---+x--+2x -2--x 2 +-=-x 2 +3x-2 2 2 2 2 2' Für 2 :$ x :$ 3 gilt schließlich
f
f
;)1
2 2 2
f 3 (x)=
x-I
f(u) du =
(2-U)dU=(2U- U
x-I
x -I
= 2(2-(x-l))- .!. (4 -(x -1)2) = 2(3 -x)-.!.(4 -x 2 + 2x -1) =
2
3 x2 x2 9 = 6 - 2x - 2 + 2"- x =2"- 3x +2'
2
126
2. Zufallsvariable
Die Zufallsvariable X3 = X, + Y, + Y2 besitzt somit die Dichte flir x ::; 0,
0 x2
[,(x), [
l
flirO::;x::;l, T 2 - x + 3x-t flir 1 ::; x ::; 2, x 2 _ 3x + ~ flir 2 ::; x::; 3, 2 2 flirx~3
0
Die Funktion f 3 ist nicht nur stetig, sondern überall differenzierbar. Durch +00
S
die Integralbildung
f i (x - u) f, (u) du werden die Kurven der Funktionen fi
-00
•
immer mehr geglättet.
Für die Verteilungsfunktion des Produkts Z = X . Y zweier stetiger Zufallsvariabler gilt F(z)=P(X·Y::;z)=
SS
f(x,y)dxdy.
x · y ::; z
Durch die Substituion x = ~ geht dieses Integral nach elementarer Rechnung über in +00
Z
+00
Z
S { S f(~,Y) ·I~I dV}dY = S{ S fG,Y) .~dY }dV. -00
-00
-00
-00
Damit lautet die Dichte h(z) des Produkts X· Y (wobei man die rechte Seite entsprechend erhält) +
+00
00
(2.105) -00
-00
Mit Hilfe dieser Gleichung zeigen wir den Satz 2.26 Sind X und Y (stoch.) unabhängige stetige Zufallsvariable mit existierenden Erwartungswerten, so gilt E(X· Y) = E(X)· E(Y).
(2.106)
127
2.4. Stetige Zufallsvariable
Beweis: Aus (2.105) folgt mit der Substitution ~ = x und wegen der (stoch.) Unabhängigkeit der beiden Zufallsvariablen HX>
E(X'Y)=
S
zh(z)dz=
S
z{
dy } dz = S r( y'~ Y) . --.L Iyl
-00 +00
+00
.\ S x'y'f(x,y)dydx= -00 +00
11
Aus (2.42) und (2.106) folgt auch ftir stetige Zufallsvariable der Satz 2.27 Sind X und Y zwei (stoch.) unabhängige stetige Zufallsvariable, deren \lirianzen existieren, so gilt (2.107) Durch vollständige Induktion läßt sich die Formel (2.107) unmittelbar auf die Summe von n paarweise (stoch.) unabhängigen Zufallsvariablen übertragen. Es gilt also der Satz 2.28 Sind X to X2 , ... , Xn paarweise (stoch.) unabhängige stetige Zufallsvariable mit existierenden Varianzen, so gilt n
D2
n
(L Xi) L D (X i
=1
2
=
i
=1
i )·
(2.108)
128
2. Zufallsvariable
2.5. Spezielle stetige Verteilungen 2.5.1. Die gleichmäßige Verteilung
Die Zufallsvariable X besitze die in Bild 2.22 graphisch dargestellte Dichte
Jb ~ a
f (x) =
10
flir xE [a, b], a < b, sonst.
Die Funktion f ist wegen f(x)
~
0 und
b
Sf(X)dx=b~a (b-a)= 1
f(x) I
tHir b
S - a·b - 2
Q
Bild 2.22 Dichte und Verteilungsfunktion der gleichmäßigen Verteilung
Dichte einer Zufallsvariablen X. Sie heißt gleichmäßig verteilt in [a, b J. Ihre Verteilungsfunktion F lautet 0 flir x::; a, F(x) -- xb -- aa fiur a::; x::; b ,
j
1
flir x
~
Da die Dichte f zur Achse x =
b.
a;
b
symmetrisch ist, folgt aus Satz 2.21
I ~ = E(X) =-2-' a+b
(2.109)
Ferner gilt
b 2 + ab + a 2 3 0 2(X)
=E(x2) _ J12 =b 2 + ab + a 2 3
4b 2 + 4ab + 4a 2 - 3a2 - 6ab - 3b 2 12
b 2 - 2ab + a2
12
=(b -
a)2
12
129
2.5. Spezielle stetige Verteilungen
Damit lautet die Varianz (2.110)
2.5.2. Die N (0, 11-Normalverteilung als Grenzwert standardisierter Binomialverteilungen
In Abschnitt 2.3.5 haben wir gezeigt, daß die Binomialverteilung ftir sehr kleine p und große n durch die Poisson-Verteilung mit dem Parameter A = np approximiert werden kann. In dem Grenzwertsatz 2.15 muß dabei n ~ "", p ~ 0 mit np = A gelten. Wir betrachten nun den Fall, daß der Parameter p konstant bleibt und n gegen unendlich geht, daß also ein Bernoulli-Experiment mit einem großen Ver· suchsumfang n durchgeftihrt wird. Die Zufallsvariable Xn sei B(n, p)-verteilt mit dem Wertevorrat W(X n) = {O, 1,2, ... ,n}, den Wahrscheinlichkeiten P(X = k)
=b (k, n, p) =(~) pk(l- p)n - k,
k
=0,
1, ... , n; 0
< P < I,
dem Erwartungswert E(X n) =np und der Varianz D2 (X n ) =npq. Die Wahrscheinlichkeiten der diskreten Zufallsvariablen Xn stellen wir nicht wie bisher in einem Stabdiagramm, sondern in einem sog. Histogramm dar. Dazu konstruieren wir ftir jedes k = 0, 1, ... , n ein Rechteck mit der Breite 1 und der Höhe b (k, n, p), wobei die Grundseite auf der x-Achse liegt mit der Abszisse x =k als Mittelpunkt. Damit ist die Wahrscheinlichkeit P(Xn =k) gleich dem Flächeninhalt des über x =k liegenden Rechtecks. In Bild 2.23 sind ftir p = kund ftir die Werte n = 10, 15 bzw. 20 die entsprechenden Histogramme dargestellt. Mit wachsendem n erhöht sich die Anzahl der Rechtecke, wobei jedoch ihre Höhen immer niedriger werden. Erwartungswert und Varianz der Zufallsvariablen Xn wachsen linear in n. Daher ist es praktisch unmöglich, ftir große Werte n die entsprechenden Histogramme in einem geeigneten Maßstab darzustellen. Aus diesem Grunde gehen wir zur Standardisierung der Zufallsvariablen Xn über, d. h. wir betrachten die Zufallsvariable
*
X = n
X n - E(Xn ) Xn - np =-D(X n) ynpq'
mit dem Erwartungswert 0 und der Varianz 1. Die Zufallsvariable X~ besitzt - np k -_ 0,1, ... , n. } . Aus X - k.~ - np ) -_ (X -_ k) den Wertevorrat W(Xn) - k ~' n n folgt v npq V npq
* _{
P ( X~
(* _
=~:pn: ) =P(Xn =k) =b (k, n, p) ftir k =0,
1, 2, ... , n.
130
2. Zufallsvariable
!~
0
2
3
4
5
6
7
8
9
p=0,5;n=10
..
10
p=0,5;n=15
1
Q2
0
2
~ 3
4
5
6
7
9
8
10 11
12 13
14 15
p=O,5;n=20
[ Q2
0
2
3
4
~ 5
6
7
9
8
10
11
12
13 14 15
16
.-
Bild 2,23. Histogramme von Binomialverteilu~gen
0.2
~ ,~ 0.2
1
o
i
1
Bild 2.24. Histogramme standardisierter Binomialverteilungen
.. x
.. x
131
2.5. Spezielle stetige Verteilungen
Zwei benachbarte Werte der Zufallsvariablen X~ besitzen auf der x-Achse den Abstand . ~. Sollen die Wahrscheinlichkeiten P (x~ = k~ ) wie in ynpq ynpq Bild 2.23 durch Flächeninhalte von Rechtecken dargestellt werden, deren Grundseiten jedoch die Längen _1_ haben, so müssen die Höhen gleich v'i1Pci. . b (k, n, p)
y'npq
gewählt werden. In Bild 2.24 sind die so entstandenen Histogramme ftir die standardisierten Zufallsvariablen X~o, X~5 und X;o graphisch dargestellt. Da alle Rechtecke zusammen den Flächeninhalt I besitzen, bilden die Deckseiten aller Rechtecke eine Dichte
j
k _ np _ .! k - np + .! vnpq 2:::;x< v'i1Pci. 2, k=O,I, ... ,n, npq npq sonst. (2.111)
vnpqb(k,n,p)ftir
o
Die stetige Zufallsvariable, welche die Dichte
~e-"2 .
y2rr
Es gilt also
!im
n~OO
~
y2rr
x2
e-"2 ftir alle x E IR .
(2.112)
Die Gleichung (2. 112) folgt aus dem sogenannten lokalen Grenzwertsatz von
de Moivre-Laplace. Wir wollen ihn hier kurz zitieren. Wegen des Beweises verweisen wir auf die weiterftihrende Literatur (z.B. Renyi S. 125-127). Satz 2.29 (lokaler Grenzwertsatz von de Moivre-Laplace) Für jedes 0 < P < 1 gilt ( n)pkqn-k= k
(k-np)2 1 e- 2npq ' [1 + Rn (k)] fürk=O,I, ... ,n.(2.113) 2rrnpq
v
Dabei gilt ftir das Restglied Rn(k) die Grenzwertaussage lim Rn(k) = 0 für alle k. n ~ 00 Wir lassen nun n und k so gegen unendlich gehen, daß gilt lim k~ = X. n~oo ynpq
132
2. Zufallsvariable
Dann folgt aus der Definition von
lim
n-+oo
~ e- T,
y2rr
also die Gleichung (2.112).
Für die Wahrscheinlichkeiten der diskreten Zufallsvariablen X~ gilt folgender Satz, fiir dessen Beweis wir wieder auf Renyi S. 129 verweisen. Satz 2.30 Für die Standardisierungen
X~ = Xn ~ ynpq
von B(n, p )-verteilten Zufalls-
variablen Xn gilt rur 0 < P < 1 und a < b
b_~
1
lim
n-+oo
P(a:::;;X~:::;;b)= ~fe y2rr
2dx.
(2.114)
a
x2
Die Kurve von
~e - '2
ist symmetrisch zur Achse x = 0 und hat an den y2rr Stellen x = ± 1 Wendepunkte. Sie heißt Gaußsehe Glockenkurve (s. Bild 2.25). Es läßt sich zeigen, daß sie mit der x-Achse eine Fläche mit dem Inhalt 1 einschließt. 0.4
0.2
-3
-2
-
,
o
2
3
Bild 2.25. Dichte der N (0; l)-Normalverteilung
Die Kurve der Funktion .,020 aus Bild 2.24 stimmt bereits sehr gut mit der von .,0 überein. Da die Werte der Funktion .,0 nichtnegativ sind, ist .,0 Dichte einer stetigen Zufallsvariablen Z. Man kann zeigen, daß die Zufallsvariable Zeinen Erwartungswert besitzt. Dieser muß dann wegen der Symmetrie der Dichte .,0 zur Achse z = 0 gleich Null sein. Ferner läßt sich folgende Identität nachweisen
133
2.5. Spezielle stetige Verteilungen
Daraus folgt für die Varianz von Z wegen der Symmetrie von <{!
z2
Für die Zufallsvariable Z mit der Dichte <{!(z) =.
~ e-"2 gilt also
y2rr
E(Z) = 0;
D2 (Z) = 1.
(2.115) z2
Definition 2.14. Eine Zufallsvariable Z, welche die Dichte <{! (z) = . ~ e- 2 y2rr besitzt, heißt normalverteilt mit dem Erwartungswert 0 und der Varianz I, oder kurz N (0; 1}-verteilt. Da die Funktion <{! nicht elementar integrierbar ist, müssen die Werte der Verteilungsfunktion (z)=P(Z
y2rr
r z
~
u2
e- 2 du
J
-00
mit Hilfe numerischer Verfahren bestimmt werden. Daher ist die Verteilungsfunktion
S <{!(u) du = f <{!(u)du=P(Z;:::z). -z
P(Z::;-z)=
00
(2.116)
-00
Wegen 1 = P(Z::; z) + P(Z;::: z) ergibt sich aus (2.116) für alle z E IR die Identität P(Z ::; - z) = P(Z ;::: z) = 1 - P(Z ::; z). Damit gilt für alle z E IR
I
(- z) = 1 - (z); P (- z:s; Z :s; z) = 2 cf> (z) -1.
(2.117)
Daher genügt es, die Funktion nur für nichtnegative Werte z zu tabellieren. Für eineN(O; l}-verteilte Zufallsvariable Z erhalten wir aus (2.117) und der Tabelle im Anhang die Waluscheinlichkeiten P(- 1 ::; Z::; 1) = <1>(1) - <1>(-1) = <1>(1) - (1- <1>(1» =
= 2<1>(1) -1
= 0,683 "" P(- 2 ::; Z ::; 2) = 2<1> (2) - 1 = 0,954, P(- 3::; Z::; 3) = 2<1>(3)-1 =0,997.
L
(2.118)
134
2. Zufallsvariabie
3emerkung: Ist X eine B(n, p )-verteilte Zufallsvariable, so sind bereits flir npq > 9 folgende Näherungen brauchbar
(2.119)
Die Tatsache, daß zuk-np die Zahl 0,5 addiert bzw. davon subtrahiert werden muß, wird dabei aus Bild 2.24 plausibel. Dieses "Korrekturglied " ist jedoch nur rur relativ kleine Werte n von Bedeutung, da es bei großen Werten flir n kaum ins Gewicht fallt. Beispiel 2.35. Ein Medikament heile einen Patienten mit einer Wahrscheinlichkeit von 0,8. Das Medikament werde 1000 Personen verabreicht. Unter der Annahme, daß es sich um ein Bernoulli-Experiment handelt, berechne man die Wahrscheinlichkeit daflir, daß mindestens 790 Personen dabei geheilt werden. Die Zufallsvariable X IOOO , welche die Anzahl der geheilten Personen beschreibt, ist B(lOOO; 0,8)-verteilt mit dem Erwartungswert p. = 800 und der Standardabweichung a = v'1000' 0,8' 0,2 =..;I60 = 12,65. Damit folgt aus (2.119) und (2.117) P(X
> 790) ~ 1- cf> (790 - 800 - 0,5)= 1- cf>(-O 83) =
1000 -
12,65
'
= cf> (0,83) = 0,797.
•
Im zentralen Grenzwertsatz (s. Abschnitt 3.3) werden wir sehen, daß unter sehr allgemeinen Bedingungen die Verteilungsfunktionen standardisierter Summen von (stoch.) unabhängigen Zufallsvariablen gegen die Verteilungsfunktion cf> einer N (0; 1)-verteilten Zufallsvariablen konvergieren. Daher spielt die N (0; 1)Verteilung in der Wahrscheinlichkeitsrechnung eine zentrale Rolle.
2.5.3. Die allgemeine Normalverteilung Ist Zeine N(O; I)-verteilte Zufallsvariable, so besitzt nach Satz 2.18 die Zufallsvariable X = aZ + b, a 1- 0, die Dichte
1 (X-b) 1 -2.2 = v'2tra 1 f(x)=TaTc,o -a- = laly'2iTe (x - b)2
_ (x - b)2 2
e
2a2
(2.120)
Dieselbe Dichte besitzt aber auch die Zufallsvariable Y = - aZ + b. Wegen E(Z) = 0, D 2 (Z) = 1 folgt aus den Sätzen 2.19 und 2.20 p. "'E(X) =E(aZ + b) =E(-aZ +b) = b;
a2
= D2 (X) = D2 (aZ + b) = D2 (- aZ + b) = a2 .
135
2.5 . Spezielle stetige Verteilungen
b ist also der Erwartungswert von X bzw. Y und a2 die Varianz. Damit geht die in (2.120) angegebene Dichte über in (x - ,..)2
1 --fex) = - - e 2a 2 2rra 2
(2.121)
V
Definition 2.15. Eine Zufallsvariable X heißt normalJ'erteilt, wenn sie eine Dichte (x -,..)~
der Gestalt fex) = ; . , ey2rra 2
~
besitzt. Wir nennen sie kurz N( /1, a 2 )-verteilt.
Die Parameter /1 und a 2 stellen nach den obigen Ausflihrungen den Erwartungswert bzw. die Varianz von X dar. f ist symmetrisch zur Achse x = /1 und besitzt an der Stelle x = /1 das Maximum. An den Stellen /1 ± a hat f Wendepunkte. Für /1 = 5 sind in Bild 2.26 die Graphen von f flir verschiedene Standardabweichungen a gezeichnet. j(x)
Bild 2.26. Dichten von Normalverteilungen mit konstantem ,..
Ist X eine
NC/1, a 2 )-verteilte Zufallsvariable, so ist ihre Standardisierte
X* = X - /1 eine N(O; I)-verteilte Zufallsvariable. Für die Verteilungsfunktion F
a
einer
NC/1, a 2 )-verteilten Zufallsvariablen X gilt daher X-/1 ~-aX-/1) =P ( X* ~-aX-/1) =<1> (X-/1) F(x)=P(X~x)=P ( -a-a- ,(2.122)
\mb ei die Verteilungsfunktion einer N (0; 1)-verteilten Zufallsvariablen ist. Daraus folgt flir k
>0
P(IX-/11 ~ka) =PC/1-ka~X~/1+ka)=FC/1+ka)-FC/1-ka)= = (/1
+:a -
/1 ) _ (/1- ~a
-
/1 ) = (k) - <1>(- k) = 2 (k) - 1.
136
2. Zufallsvariable
Aus (2.118) folgt insbesondere flir die Abweichungen der Zufallsvariablen X vom Erwartungswert P(IX-J.lI:::; 0)=0,683; P(IX - J.lI?: 0)=0,317; P(I X - J.l1 :::; 20) = 0,954; P(I X - /ll ?: 20) = 0,046; P(I X - J.l1:::; 30) = 0,997; P(I X - J.l1 ?: 30) = 0,003 .
(2.123)
Hiermit bekommt die Standardabweichung 0 einer normalverteilten Zufallsvariablen eine anschauliche Bedeutung. Die Wahrscheinlichkeit daflir, daß die Werte um mehr als 0 vom Erwartungswert J.l abweichen, ist gleich 0,317. Eine Abweichung um mehr als 20 vom Erwartungswert wird nach (2.123) sehr selten, eine Abweichung um mehr als 30 fast nie vorkommen. In Abschnitt 2.5.2 haben wir gesehen, daß rur große n die Standardisierten X: = Xn; ' ; ; ' binomialverteilter Zufallsvariabler Xn näherungsweise N(O; 1)ynpq verteilt sind. Wegen Xn =..;npq X: + np sind daher flir große n die Zufallsvariablen Xn selbst näherungsweise N (np; npq)-verteilt. Dasselbe gilt flir Summen vieler (stoch.) unabhängiger Zufallsvariabler (s. zentralen Grenzwertsatz in Abschnitt 3.3). Beispiel 2.36. Die Durchmesser (in mm) neu produzierter Autokolben seien N(45; O,OI)-verteilt. Ein Kolben ist unbrauchbar, wenn sein Durchmesser vom Sollwert 45 um mehr als 0,15 mm abweicht. Mit welcher Wahrscheinlichkeit ist ein zufällig der Produktion entnommener Kolben unbrauchbar? Beschreibt die Zufallsvariable X den Durchmesser, so erhalten wir flir die gesuchte Wahrscheinlichkeit wegen 0 = 0,1 p = 1- P(I X -451:::; 0,15) = 1- P(45 -0,15:::; X :::;45 + 0,15) = = 1- p(45 -0,15 -45 < X-45 <45 + 0,15 -45) = 1- [<1>(15)-<1>(-15)] = 0,1 - 0,1 0,1 " = 1- (2 i:I>(1,5) -1) = 2 - 2<1>(1,5) = 2 - 1,866 = 0,134.
•
Beispiel 2.37. Der Intelligenzquotient (IQ) einer bestimmten Bevölkerungsschicht sei N(lOO; I 52 )-verteilt. Man bestimme die Konstante c so, daß eine aus dieser Bevölkerungsschicht zufällig ausgewählte Person mit Wahrscheinlichkeit 0,3 einen IQ von mindestens c besitzt. Die N(IOO; 152)-verteilte Zufallsvariable X beschreibe den Intelligenzquotienten. Dann erhalten wir flir c die Bestimmungsgleichung 0,7 = P(X:::; c) = P (X ~~OO :::; c ~~OO)= <1>
C~;OO).
Aus der Tabelle flir die Verteilungsfunktion <1> erhalten wir c - 100 = 0 525 15 '
137
2.5. Spezielle stetige Verteilungen
und hieraus
•
c = 15·0,525 + 100 = 107,875. Die Normalverteilung ist reproduktiv. Es gilt nämlich der Satz 2.31 a) Ist X eine N(J.L, u2)-verteilte Zufallsvariable, so ist rur at- 0 die Zufallsvariable aX + b wieder N(lII1 + b, a2 u2)-verteilt. b) Die Summe XI + X2 zweier (stoch.) unabhängiger N(J.LI , uD- bzw. N(J.L2, uD-verteilter Zufallsvariabler ist N(}.tl + 112, ui + uD-verteilt.
"'Beweis
(x _IJ)2
a) X besitzt die Dichte fex) = __ 1_ e - ~ . Dann lautet die Dichte der .j21TU2 Zufallsvariablen aX + b nach Satz 2.18 1 (x b ) =1- · -1- ef(x)=-f -- lai a lai J2rru 2 A
)2 X- b (. - - IJ 2 1 2u =--===e J2rra2 u2
Die Zufallsvariable aX + b ist somit N(all + b, a2 u 2)-verteilt. b) Für die Dichte h(z) der Zufallsvariablen XI + X2 erhalten wir wegen der vorausgesetzten (stoch.) Unabhängigkeit aus (2.102) die Integraldarstellung + 00
S
1 --·_ 1 h(z)= J2rrui \.hrru~ -00
dx.
x-Il
Durch die Substitution _ _I = u erhalten wir wegen x UIU2
dx = UI U 2 du mit der Abkürzung z - 111 -
+00
2
2u~
2U2
+ U I U2 u,
= v folgende Gleichungen
ai u 2 v2 2vO'l u a~ u 2 -----+-----
e -00
112
=111
2
du =
138
2.
Zufallsvariable
+00
+
00
+00
du. -00
Durch die Substitution
J a~ + a~
[u -
aI v
a2(a~ +
an ]
=w, du =
geht wegen v = z - J.lI - J.ll dieses Integral über in _ w2
-.--el=---e 21TJa~ + a~
e
2
1
.Ja~ + a~
dw
(z - 1'1 - 1'1)
dw=
1
e- 2(a~+a~)
.
J21T(ar +aD
-00
~ h(z) ist also Dichte einer N{J.11 + J.l2' a~ + aD·verteilten Zufallsvariablen, womit der Satz bewiesen ist. • 2.5.4. Die Exponentialverteilung x=OO
Wegen
S ae-ax dx = - e-ax I o
fex) = {
0
rur x
~
= 1 flir a> 0 ist
x=O 0,
ae- ax rur x >0, a> 0
(2.124)
Dichte einer stetigen Zufallsvariablen X. Die Zufallsvariable X heißt exponential· verteilt mit dem Parameter a . Die Verteilungsfunktion F der Zufallsvariablen X besitzt dabei die Funktionswerte
o F(x) = {
rur x
~
0,
1 - e- ax flir x> o.
(2.125)
In Bild 2.27 sind fund F rur a = 0,5 graphisch dargestellt. Mit Hilfe der partiellen Integration erhält man rur eine mit dem Parameter a exponentialverteilte Zufallsvariable X (2.126)
139
2.5. Spezielle stetige Verteilungen
F(x)
1
2
4
3
,
• x
5
0.5
.. x Bild 2.27. Dichte und Verteilungsfunktion der Exponentialverteilung ftir
Q
= 0,5
Für jedes x > 0, h > 0 folgt aus der Definition der bedingten Wahrscheinlichkeit sowie aus (2.124) und (2.125)
P(X ::;; x + h/X ~ x) =
P(x < X < x +h) P(X ~ ;)
Durch die Substitution v =u - x, du
f
x
1- F(x)
= dv geht die rechte Seite über in
h
Qe- Qx . e-Qvdv
0"----_ _, -_ _
e- Qx
h
=
f
Qe -Qy dv
=P(O ::;; X ::;; h).
o
Für eine exponentialverteilte Zufallsvariable X gilt somit P(X ::;; x + h/X
~
x) = P(O ::;; X ::;; h) flir alle x, h > O.
(2.127)
Die Gleichung (2.127) besagt folgendes: Die Wahrscheinlichkeit damr, daß die Zufallsvariable X Werte aus dem Intervall [x, x + h) annimmt, unter der Bedingung, daß (X ~ x) eingetreten ist, ist gleich der Wahrscheinlichkeit P(O ::;; X ::;; h) flir alle x ~ O. Urgekehrt sei X eine stetige Zufallsvariable, welche die Bedingung (2.127) erflillt. Die Dichte g der Zufallsvariablen X verschwinde flir x ::;; 0 und sei flir x > 0 differenzierbar.
140
2. Zufallsvariable
Dann folgt ftir alle x, h> 0 aus (2.127) 1 [P(x < X < x + h) ~ P(X;x) -P(O::;X::;h)J =
I
O=h[P(X::;x+h/X~x)-P(O::;X::;h)l=h x+h
1
h
S
g(u) du
x
- - ---.!h
Sh
1
g(u)du=_h---
00
Sg(u) du
- g (x) . h 00
0
S g(u)du
1 h
-' g(O +) . h + R(h) =
x
x
---,=,g..o..(x...:...)_ _ g(O+) + R(h). 00
S g(u)du x
\\egen lirn R(h) = 0, folgt hieraus ftir alle x> 0 h-+O
g(X)=g(O+)-J g(u) du.
(2.128)
x
Da die Funktion g ftir u > 0 stetig und integrierbar ist, erftillt sie die Bedingung g(oo) = lim g(u) = o. u-+oo
Differentiation der Gleichung (2.128) liefert die Differentialgleichung g'(x) = - g(O +) . g(x) mit der allgemeinen Lösung g(x) = c· e-g(o+), x . Da g Dichte ist, folgt aus
J
g(x) dx = I ftir c die Identität c = g(O +). Mit g (0 +) = 0: erhalten wir somit
o fiir die Dichte die Darstellung
g(x)
={
0
für x ::; 0,
o:e -o:x
für x> O.
Aufgrund der Eigenschaft (2.127) gibt es in der Praxis viele Zufallsvariable, die zumindest näherungsweise exponential verteilt sind. Als Beispiele seien hier die Dauer von Telephongesprächen, die Bedienungszeit von Kunden oder die Reparaturzeit ftir Maschinen erwähnt.
141
2.5. Spezielle stetige Verteilungen
Beispiel 2.38. Die Zufallsvariable T, welche die Dauer (in Minuten) der in einem Betrieb registrierten Telephongespräche beschreibt, sei exponentialverteilt mit dem Parameter a = 0,8. Nach (1.126) besitzt T den Erwartungswert E(T) =o~s = 1,25, der gleich der Standardabweichung a =D(T) ist. Für die Wahrscheinlichkeit, daß ein Telephongespräch länger als 2 Minuten dauert, erhalten wir peT> 2)
= I-P(T ~ 2) = I-(l-e-o,s'2) =e- 1 ,6 =0,202.
•
Ferner gilt peT ~ 1) = I-e-o,s = 0,551.
2_5.5. Übungsaufgaben über stetige Zufallsvariable 1. X sei eine stetige Zufallsvariable mit der Dichte fex)
={ cx(l-x) o
für 0:-:;; x:-:;; 1, sonst.
a) Man bestimme die Konstante c. b) Wie lautet die Verteilungsfunktion F der Zufallsvariablen X? c) Man berechne p(4 ~ X ~ E(X) und D2 (X).
i),
2. X besitze die Dichte
f(X)=l!-ox
für x <0, für 0 ~ x ~ 4, für x> 4.
Man bestimme a) die Konstante c, b) die Verteilungsfunktion F sowie die Wahrscheinlichkeit P(l c) E(X) und D 2 (X).
*
~
X
~
2),
3. Die Zufallsvariable X besitze die Dichte fex) = ce- P Ix I, p > O. a) Man bestimme den Koeffiz;enten c. b) Man bestimme die Verteilungsfunktion F. c) Man berechne E(X) und D2 (X).
4. Die Dichte fex, y) der zweidimensionalen Zufallsvariablen (X, Y) sei in dem Quadrat Q aus Bild 2.28 konstant und verschwinde außerhalb dieses Quadrates. a) Man bestimme die Randdichten f) und f 2 der Zufallsvariablen X und Y. b) Sind die Zufallsvariablen X und Y y (stoch.) unabhängig? , c) Man berechne E(X), D2 (X), E(Y) und D2 (y).
-,
Bild 2.28
_,
142
2. ZufaIlsvariable
5. Einem Prüfling werden 40 Fragen vorgelegt, die alle nur mit ja oder nein zu beantworten sind. Wieviel richtige Antworten müssen zum Bestehen der Prüfung mindestens gefordert werden, damit ein Kandidat durch zufalliges Beantworten (Raten) höchstens mit Wahrscheinlichkeit von 0,05 die Prüfung besteht? 6. Ein Automat produziert Schrauben. Im Durchschnitt sind 10 % der Produktion unbrauchbar. Aus der Produktion dieser Maschine werden 400 Schrauben zufallig ausgewählt. Wie groß ist die Wahrscheinlichkeit, daß unter diesen 400 Schrauben a) mindestens 30 aber höchstens 50 unbrauchbare, b) mindestens 55 unbrauchbare sind? 7. Ein Vertreter weiß erfahrungsgemäß, daß er bei jedem seiner Erstbesuche mit Wahrscheinlichkeit p =0,05 einen Verkauf tätigen kann. Wie groß ist die Wahrscheinlichkeit, daß er bei 300 Erstbesuchen wenigstens 10 Verkäufe tätigt? 8. Vom Ort A fahren gleichzeitig zwei Züge nach B, die von insgesamt 1000 Personen benutzt werden. Jede Person besteige unabhängig von den anderen Personen mit Wahrscheinlichkeit p = einen der beiden Züge. Wieviele Sitzplätze muß jeder der Züge mindestens haben, wenn die Wahrscheinlichkeit daflir, daß alle Personen einen Sitzplatz erhalten, mindestens gleich 0,99 sein soll?
4
9. Für eine technische Meßgröße X sei ein Sollwert von 152 mit Toleranzen ± 5 vorgegeben. a) Mit welcher Wahrscheinlichkeit liegt ein Meßwert X(w) außerhalb der Toleranzen, falls X eine N (152 ; 2 2 )-verteilte Zufallsvariable ist? b) Wie ändert sich das Resultat, falls nur Toleranzen ± 1 zugelassen sind? 10. Eine Apparatur flillt XI Gramm eines pulverförmigen Medikaments in X2 Gramm schwere Röhrchen. Die Zufallsvariablen XI und X2 seien dabei (stoch.) unabhängige näherungsweise N(50; 1)- bzw. N(20; 0,5)-verteilte Zufallsvariable. a) Mit welcher Wahrscheinlichkeit liegt das Gewicht eines geflillten Röhrchens zwischen 69 g und 71 g? b) Mit welcher Wahrscheinlichkeit ist ein geflilltes Röhrchen leichter als 68 g? 11 . Der Anhalteweg X eines mit 60 km(h fahrenden Autos setzt sich additiv zusammen aus dem Reaktionsweg XI und dem Bremsweg X2 , wobei XI und X2 (stoch.) unabhängige näherungsweise N(14 ; 9)- bzw. N(36; 25)verteil te Zufallsvariable sind. a) Wie ist die Zufallsvariable X I + X2 näherungsweise verteilt? b) Mit welcher Wahrscheinlichkeit liegt der Anhalteweg eines mit 60 km(h fahrenden Autos über 55 m?
143
2.6. Allgemeine Zufallsvariable
12. Die Studentenschaft einer Universität setzt sich zu 20 % aus weiblichen und zu 80 % aus männlichen Studenten zusammen. Unter der Annahme, daß die !(örpergewichte (in Pfund) N(l16; 100)- bzw. N(150; 225)-verteilt sind, berechne man a) die Wahrscheinlichkeit daftir, daß eine aus der Studentenschaft zuflillig ausgewählte Person zwischen 130 und 150 Pfund wiegt, b) den Erwartungswert der Anzahl von Studierenden, die unter 100 zufallig ausgewählten über 130 Pfund wiegen.
*13.
Die Zufallsvariable T, welche die Dauer eines Telephongespräches beschreibt, sei exponentialverteilt mit dem Parameter A, sie besitze also die Dichte flir t
:$;
0,
ftir t > O. Man bestimme die Dichte fn(t) der Zufallsvariablen Tn , welche die Gesamtdauer von n Telephongesprächen beschreibt. Dabei seien die einzelnen Gesprächsdauern unabhängig und besitzen alle die Dichte [(t).
2.6. Allgemeine Zufallsvariable Wir haben bisher zwei Klassen von Zufallsvariablen betrachtet: diskrete und stetige. Daneben gibt es aber auch noch Zufallsvariable, die weder diskret noch stetig sind. Folgendes Beispiel möge dies erläutern.
Beispiel 2.39. Die Zufallsvariable X beschreibe die ftir ein Telephongespräch in einer Telephonzelle während einer bestimmten Tageszeit verwendete Zeit. Als Wertevorrat der Zufallsvariablen X kommt zwar wie bei den stetigen Zufallsvariablen ein ganzes Intervall I in Frage. Trotzdem ist X nicht stetig und zwar aus folgendem Grund: bei Ferngesprächen legen viele Teilnehmer den Hörer erst dann auf, wenn die Verbindung nach dem letzten Münzeinwurfund nachdem Hinweis "Sprechzeit zu Ende" abrupt abgebrochen wird. Sie ist aber auch nicht diskret, weil manche Teilnehmer nicht die volle Sprechzeit ausnutzen, und weil es ftir Ortsgespräche ftir eine Einheit keine zeitliche Begrenzung gibt. Die Zufallsvariable X nimmt somit die Werte ia, ib, ic, i = 1,2, ... , mit positiven Wahrscheinlichkeiten an, wobei die Zahlen a, b, c, ... die ftir die verschiedenen Entfernungszonen festgelegten Sprechzeiten pro Einheit sind. Die restlichen Punkte des Intervalls I besitzen jeweils die Wahrscheinlichkeit 0, was aber wie im stetigen Fall nicht bedeutet, daß diese Punkte von der Zufallsvariablen X nicht angenommen werden können. Die Verteilungsfunktion F(x) =P(X :$; x) besitzt somit an den Stellen ia, ib, ic, ... • i = 1, 2, ... Sprünge und ist dazwischen stetig.
144
2. Zufallsvariable
2.6.1. Verteilungsfunktion, Erwartungswert und Varianz einer beliebigen Zufallsvariablen
Wir betrachten nun eine beliebige Zufallsvariable X, d. h. eine nach Definition 2.1 auf n definierte reellwertige Funktion, ftir welche den Ereignissen {w/X(w) =x} x E IR und {w/a < X(w) ~ b}, a < b, auf Grund der Axiome von KolmogoroffWahrscheinlichkeiten zugeordnet sind. Setzt man a = - 00, so folgt hieraus, daß jede Zufallsvariable X eine Verteilungsfunktion F(x) = P(X ~ x) besitzt. Die Verteilungsfunktion hat an der Stelle x genau dann einen Sprung, wenn die Wahrscheinlich· keit P(X = x) positiv ist. Die Sprunghöhe ist dabei gleich der Wahrscheinlichkeit P(X = x). Zwischen zwei benachbarten SprungsteIlen ist F stetig, wobei F an den SprungsteIlen noch rechtsseitig stetig ist. Es gilt also ftir h> 0 lim F(x + h) = F(x). Für die Verteilungsfunktion F gilt h .... 0 lim
x-+-oo
F(x.)
F(x) = 0;
~
F(x2) fiir
lim
x-++oo XI ~
F(x) = I.
lim F(x + h) = F(x).
h-+O
(2.129)
h>O
x 2 (F ist also monoton nichtfallend).
1 F(x)
x, Bild 2.29. Verteilungsfunktion einer allgemeinen Zufallsvariablen
In Bild 2.29 ist eine solche Funktion graphisch dargestellt. Aus {w/a<X(w)
~
P(a<X~b)
P(X > b)
b} = {w/X(w)
=F(b)-F(a), = 1- F(b).
~
b} n {w/X(w)
~
a} folgt nach Satz 1.4 (2.130)
Zur Definition des Erwartungswertes einer beliebigen Zufallsvariablen X mit der Verteilungsfunktion F betrachten wir analog zum stetigen Fall in Abschnitt 2." 2 folgenden Diskretisierungsprozeß. Für h> 0 besitze die diskrete Zufallsvariable Xh den Wertevorrat W(Xh ) = {kh; k = 0, ± 1, ± 2, ... } mit den Wahrscheinlichkeiten P(Xh = kh) = P((k -I)h < X ~ k · h) = F(kh) - F((k -I)h), k=O,± 1, ... (2.131)
145
2.6. Allgemeine Zufallsvariable
Für kleine Werte h stellt die diskrete Zufallsvariable Xh eine Näherung rur X dar, wobei die Approximation umso besser wird, je kleiner h ist. Die diskrete Zufallsvariable Xh besitzt defini,tionsgemäß genau dann einen Erwartungswert, wenn die Summe der Absolutglieder +
L
00
(2.132)
Ikhl[F(kh)-F«k-l)h)]
k=-OO
endlich ist. Falls der Grenzwert +
lim
L
00
Ik'hl[F(kh)-F«k-l)h)]
h-+O k=-oo +
00
S
existiert, bezeichnen wir ihn mit
lxi dF(x). Dann existiert auch
-00
+
+
00
~~O k~OO kh[F(kh)-F«k-l)h)]=
00
S x dF(x). Dieses sogenannte -00
Lebesgue-Stieltjes-Integral nennen wir den Erwartungswert der Zufallsvariablen X. Es gilt also
J.L = E(X) = lim
f
+00
L
+00
kh [F(kh)- F«k -1)h)] =
h-+O k=-OO
xdF(x)= lim E(Xh ).
-00
h-+O
(2.133) Entsprechend erklären wir im Falle der Existenz die Varianz einer beliebigen Zufallsvariablen X mit der Verteilungsfunktion F durch
L (kh-Il)2[F(kh)-F«k-l)h)]= +00
a2 =D 2 (X)= lim
(2.134)
h-+O k=-OO + 00
=
S
-00
Bemerkung. Es läßt sich relativ einfach zeigen, daß aus den Defmitionsgleichungen (2.133) und (2.134) rur diskrete bzw. stetige Zufallsvariable unmittelbar die an den entsprechenden Stellen gegebenen Definitionen folgen.
146
2. Zufallsvariable
Entsprechend lassen sich alle bisher rur die Erwartungswerte und Varianzen diskreter bzw. stetiger Zufallsvariablen gezeigte Eigenschaften auch auf allgemeine Zufallsvariable übertragen. Dabei ist die (stoch.) Unabhängigkeit in Definition 2.13 bereits allgemein formuliert. Beispiel 2.40. Die Zufallsvariable X besitze die in Bild 2.30 dargestellte Verteilungsfunktion F, wobei F nur aus Geradenstücken besteht. Nur die Zahlen x = 1 und x = 2 werden von der Zufallsvariablen X mit positiver Wahrscheinlichkeit angenommen. Da die Sprunghöhen jeweils gleich ~ sind, erhalten wir P(X = 1) = P(X = 2) =~ . Für 0< x< 1 und 1< x< 2 ist F(x) differenzierbar mit der Ableitung F'(x) =~. Für 0< x, x + h < 1 und 1< x, x + h < 2 x+h
gilt dabei die Identität F(x + h) - F (x)
= S ~ du = ~ h. Damit erhalten wir 5 4'
a
2 = E(X2) _ 2 = 23 _ 25 = 92 - 75 = !2 jJ. 12 16 48 48 .
•
F(x)
r
~ ,
t .1 4
2 Bild 2.30. Verteilungsfunktion
2.6.2. Median und Quantile einer Zufallsvariablen Ist die Verteilungsfunktion Feiner Zufallsvariablen X stetig und streng monoton wachsend, so besitzt die Gleichung F(x) =
4
(2.135)
2.6 . Allgemeine Zufallsvariable
F(X)b 1- ---b)
I
I
,
I
,
I
147
x
j1
Bild 2.31. Median
genau eine Lösung x = /:i (vgl. Bild 2.31 a). /:i heißt Median der Zufallsvariablen X. Bei einer N (p, a 2 )-verteilten Zufallsvariablen X stimmt der Median /:i mit dem Erwartungswert J1 überein. Ist F(x) stetig, jedoch nicht streng monoton wachsend, so kann der Fall eintreten, daß die Gleichung (2.135) ein ganzes Intervall als Lösungsmenge besitzt (s. Bild 2.31 b). Ist F (x) nicht stetig, so braucht (2.135) überhaupt keine Lösung zu besitzen. Für den in Bild 2.31c gekennzeichneten Zahlenwert /:i gilt jedoch P(X >
/:i) ::;~,
P(X< /:i)::; ~
.
(2.136)
Wegen dieser Eigenschaft nennen wir auch /:i Median der Zufallsvariablen X. Für einen Zahlenwert, der die Gleichung (2.135) erfullt, gilt auch (2.136). Daher ist fur den allgemeinen Fall folgende Definition sinnvoll.
Definition 2.16. Jeder Zahlenwert /:i, der die beiden Ungleichungen P(X < /:i) ::; ~ und P(X> /:i) ::; ~ erfullt, heißt Median der Zufallsvariablen X. In Verallgemeinerung des Begriffs Median geben wir die
Definition 2.17. Jeder Zahlenwert x q , der die Ungleichungen P(X < x q ) ::; q und P(X > x q ) ::; 1- q erftillt, heißt q-Quantil der Zufallsvariablen X. Beispiel 2.41 (vgl. Beispiel 2.40). Für die Zufallsvariable X, welche die in Bild 2.30 dargestellte Verteilungsfunktion F(x) besitzt, gilt
/:i = 1;
xO,2s=l;
•
xs=I,5. "8
Beispiel 2.42. Die diskrete Zufallsvariable X besitze die Verteilung 1000 0,05 Die Zufallsvariable X nimmt mit Wahrscheinlichkeit 0,95 Werte aus { I, 2, 5, 10} an. Der sog. "Ausreißer" 1000 besitzt zwar eine geringe Wahrscheinlichkeit. Trotzdem hat er auf den Erwartungswert einen großen Einfluß. Der Erwartungswert lautet J1
=E(X) = 54,2.
148
2. Zufallsvariable
Für den Median dagegen erhalten wir den (hier eindeutig bestimmten) Wert
/1 =5.
•
Der Median ist also gegen "Ausreißer" unempfindlich. 2.6.3. Obungsaufgaben zu allgemeinen Zufallsvariablen
4
I. An einer Straßenkreuzung befindet sich eine Ampel, die abwechselnd Minute grünes und eine Minute rotes Licht zeigt. Ein Fahrzeug fahre zu einem zufällig gewählten Zeitpunkt an die Kreuzung heran, wobei sich unmittelbar vor ihm keine weiteren Fahrzeuge befinden. a) Man bestimme die Wahrscheinlichkeit daftir, daß das Fahrzeug ohne anzu· halten die Kreuzung passieren kann. b) Man zeichne die Verteilungsfunktion F der Zufallsvariablen T und berechne E(T) und o (T). c) Man berechne den Median /1 (ist er eindeutig bestimmt?) *2. Die Zufallsvariable T, welche die Dauer der in einem Betrieb geftihrten privaten Telephongespräche beschreibt, war bisher exponentialverteilt mit dein Parameter a = Da dabei einige Gespräche sehr lange dauerten, wurde angeordnet, daß kein Privatgespräch mehr länger als 3 Minuten dauern darf. a) Mit welcher Wahrscheinlichkeit dauerte früher ein Privatgespräch länger als 3 Minuten? b) Unter der Annahme, daß alle Teilnehmer die Anordnung befolgen,berechne man die Verteilungsfunktion und den Erwartungswert der Zufallsvariablen t, die jetzt die Gesprächsdauer beßchreibt. c) Man berechne den Quotienten
4.
Hfl.
3. Man bestimme Median und 0,2-Quantile der diskreten Zufallsvariablen X mit der Verteilung Xi
P(X =Xi)
11 13 14 15 0,2
0,2
0, I
0,5
149
3. Gesetze der großen Zahlen
3.1. Die Tschebyscheffsche Ungleichung Ist die Verteilung bzw. die Verteilungsfunktion einer Zufallsvariablen X bekannt, so läßt sich die Wahrscheinlichkeit P(IX - J.l1
~
(3.1)
a),
exakt berechnen. Häufig kennt man jedoch die Verteilungsfunktion einer Zufalls· variablen X nicht, wohl aber aus Erfahrungswerten ihren Erwartungswert J.l und ihre Varianz a 2 • Da wir die Varianz als Maß ftir die Abweichung der Werte einer Zufallsvariablen vom Erwartungswert J.l eingeftihrt haben, ist die Vermutung naheliegend, daß zwischen den Abweichungswahrscheinlichkeiten (3.1) und der Varianz a2 eine Beziehung besteht. Aussagen über einen solchen Zusammenhang macht der folgende Satz 3.1 (Die Tschebyscheffsche Ungleichung) X sei eine beliebige Zufallsvariable, deren Erwartungswert J.l und Varianz a2 existieren. Dann gilt ftir jede positive Zahl a die Ungleichung von Tschebyscheff
(3.2) Beweis: Wir zeigen die Ungleichung nur ftir diskrete Zufallsvariable. Im stetigen bzw. allgemeinen Fall verläuft der Beweis entsprechend. (Xi, P(X = Xi», i = 1,2, ... sei die Verteilung von X. Summiert man in a 2 = ~ (Xi - J.l)2P(X = Xi) nur über die i Werte xi mit lXi - J.l1 ~ a, so folgt a2
~
L
(Xk - J.l)2 P(X = Xk)'
(3.3)
IXk-"I~a
Für die einzelnen Summanden auf der rechten Seite von (3.3) gilt (Xk - J.li P(X = Xk) ~ a2P(X = Xk)' Somit folgt aus (3.3) die Ungleichung
a2~a2
L
P(X=xk)=a2P(lX-J.lI~a).
IXk-"I~.
Division dieser Ungleichung durch a2 liefert die Behauptung a2
P(IX-J.l1 ~a)~2 '
a
K. Bosch, Elementare Einführung in die Wahrscheinlichkeitsrechnung, DOI 10.1007/978-3-8348-8331-5_3, © Vieweg+ Teubner Verlag | Springer Fachmedien Wiesbaden GmbH 2011
150
3. G esetze der großen Zahlen
Für a :s; a liefert die Tschebyscheffsche Ungleichung keine Information über P( 1X - J.l1 ~ a), da dann die rechte Seite von (3.2) nicht kleiner als 1 ist. Mit a = ka , k > 1, geht (3.2) über in
I
P(IX-J.lI~ka):s;~ .
(3.4)
Hieraus folgt z. B. P(IX-J.l1 ~ 2a):s;~ ; P(IX-J.l1 ~ 3a):s;~. Daß diese Abschätzungen wesentlich schlechter sind als die in (2.123) f1ir normal verteilte Zufallsvariable angegebenen, liegt in der Tatsache, daß über die Verteilung von X keine Annahmen gemacht werden. Man muß evtl. mit dem ungünstigsten Fall rechnen. Beispiel 3.1. Von einer Zufallsvariablen seien E(X) = 1 und a 2 = D 2(X) = 2 bekannt. Man gebe eine obere Schranke f1ir P( 1X-li ~ 3) an. Aus (3.4) folgt P(IX-II ~ 3):S;
a2
•
2
9=9 '
3.2. Das schwache Gesetz der großen Zahlen Wird ein Zufallsexperiment n-mal unter denselben Bedingungen durchgeftihrt, so nimmt bei jeder einzelnen Versuchsdurchflihrung die Zufallsvariable X einen Wert aus ihrem Wertevorrat W(X) an. Die so erhaltenen Werte bezeichnen wir mit Xl, X2, ... , Xn , wobei manche dieser Werte gleich sein können. Xi ist also die Realisierung der Zufallsvariablen X bei der i-ten Versuchsdurchflihrung. Wir betrachten nun die n-malige Durchftihrung der Einzelexperimente als neu es Zufallsexperiment. Dann können die Werte Xi als Realisierungen von Zufallsvariablen Xi aufgefaßt werden, wobei die Zufallsvariablen Xl' .. . , Xn (stoch.) unabhängig sind. Dabei stimmen die Verteilungsfunktionen, Erwartungswerte und Varianzen der Zufallsvariablen Xi und X überein. Das arithmetische Mittel
(3.5) ist dann Realisierung der Zufallsvariablen Zn = Unabhängigkeit der Xi> i = 1, 2, ... , n, gilt E(Zn)
=nL 1
n
i=1
E(Xi)
~ .~ t-
Xi> f1ir die wegen der (stoch.) 1
=J.l ; (3 .6)
151
3.3. Der zentrale Grenzwertsatz
Für die Zufallsvariable Zn erhalten wir aus der Tschebyscheffschen Ungleichung ftir jedes € > 0 die Abschätzung
P(IZ n -11 1 ;:::
D2 (Zn)
a2
(3.7)
€)::O; - 2 - = - - 2 . €
ll' €
Für jedes € > 0 wird die rechte Seite dieser Ungleichung beliebig klein, wenn nur n groß genug gewählt ist. Die Wahrscheinlichkeit daftir, daß die Zufallsvariable
1n .~ 1 Xj Werte annimmt, die von 11 um mehr als € I~
abweichen, ist somit ftir große n
sehr klein. Der Mittelwert i wird daher meistens in der Nähe des Erwartungswertes 11 liegen. Diese Eigenschaft ermöglicht es uns, Näherungswerte ftir 11 mit Hilfe von Zufallsexperimenten zu gewinnen. Zur Herleitung von (3.7) genügt bereits die paarweise (stoch.) Unabhängigkeit der Zufallsvariablen XI, X2 , ... ,X n und die Bedingung, daß alle Zufallsvariablen XI> X2 , ... ,X n denselben Erwartungswert und die gleiche Varianz besitzen. Diesen Sachverhalt fassen wir zusammen im folgenden Satz 3.2 (Das schwache Gesetz der großen Zahlen) Für jede natürliche Zahl n seien die Zufallsvariablen XI' X2 , ... ,X n paarweise (stoch.) unabhängig und besitzen alle denselben Erwartungswert 11 und dieselbe Varianz a 2 • Dann gilt ftir jedes € > 0
(3.8) Beweis: Die Behauptung folgt unmittelbar aus (3.6) und (3.7).
Bemerkung. Mit Xj(w)
={
•
I ftir w E A,
o sonst,
folgt wegen E(Xj) = p aus Satz 3.2 unmittelbar das Bernoullische Gesetz der großen Zahlen (Satz 1.23).
3.3. Der zentrale Grenzwertsatz Für jedes n seien die Zufallsvariablen Xl' X2 , .. . 'X n (stoch.) unabhängig, ihre = D2 (Xj), i = 1, ... , n, sollen Erwartungswerte Ilj = E(Xj) und Varianzen existieren. Die Summenvariable Sn =XI + X2 + ... + X n besitzt den Erwartungswert
ar
n
E(Sn) =
L Ilj j~l
152
3. Gesetze der großen Zahlen
und wegen der (stoch.) Unabhängigkeit die Varianz n
D 2 (Sn) =
L at·
i =1
Daher lautet die Standardisierte S~ der Zufallsvariablen Sn
(3.9)
Unter sehr allgemeinen Bedingungen, die im wesentlichen besagen, daß in (3 .9) jeder einzelne Summand auf die Summenbildung nur einen kleinen Einfluß hat, ist ftir große n die standardisierte Summenvariable S~ ungeHihr N (0, 1)-verteilt. Diese Bedingungen sind z. B. erftillt, wenn alle Zufallsvariablen Xi dieselbe Verteilungsfunktion besitzen und ihre Erwartungswerte und Varianzen, die dann ftir alle Xi identisch sind, existieren. Der Vollständigkeit halber wollen wir die sehr allgemeine, sog. LindebergBedingung kurz formulieren : Ist Fi(x) die Verteilungsfunktion von Xi> i = 1, 2, ... , so gelte ftir jedes € >0 n
mit B2n = i L a? =1 t (3.10)
Damit gilt der Satz 3.3 (Zentraler Grenzwertsatz) Für jedes n seien die Zufallsvariablen X., Xl' ... , Xn (stoch.) unabhängig und sie erflillen die Lindeberg-Bedingung (3.10). Dann gilt ftir die.standardisierten Summen S~ (s. (3 .9» lim
n~OO
P(S~::; x) =
x
u2
S e-2 du ftir jedes x E IR. -00
Wegen des Beweises verweisen wir auf die weiternihrende Literatur, z.B. Renyi S. 365.
153
3.4. Übungsaufgaben
3.4. Übungsaufgaben 1. Von einer Zufallsvariablen X sei nur der Erwartungswert 11 = 100 und die Varianz a2 =90 bekannt. Man gebe eine Abschätzung nach oben ftir die . Wahrscheinlichkeit P( 1X - 100 1~ 20) an.
2. Eine Zufallsvariable X nehme nur Werte aus dem Intervall [0; 12] an. X habe den Erwartungswert 11 = 10 und die Varianz a2 = 0,45. Man schätze P(X ~ 7) nach oben ab. 3. Die Zufallsvariablen XI> X 2 , .•. , X n seien (stach.) ~nabhängig und besitzen alle denselben Erwartungswert 11 und die gleiche Varianz a2 = 9. I n a) Man berechne Erwartungswert und Streuung der Zufallsvariablen X =- . LXi. _ n.=1 b) Wie groß muß n mindestens sein, daß gilt P( 1X - 111 ~ 0,1) ~ 0,95. 4. Wie oft muß mit einer idealen Münze mindestens geworfen werden, damit mit Wahrscheinlichkeit von mindestens 0,95 die Zufallsvariable der relativen Häufigkeit ftir Wappen von p = um höchstens a) 0,01 b) 0,001 abweicht?
4
••. , X IOOO seien unabhängige, identisch verteilte Zufallsvariable mit den Verteilungen
5. XI' X 2 , xi
P(X =
Xi)
1
3
5
4
11 5
~
Man bestimme mit Hilfe des zentralen Grenzwertsatzes approximativ die Wahr1000
scheinlichkeit daftir, daß die Zufallsvariable SIOOO =.L Xi Werte zwischen 4820 und 5180 annimmt. •= I 6. Die mittlere Lebensdauer (in Stunden) eines sehr empfindlichen Maschinenteils betrage 50 mit der Varianz 900. Fällt dieses Maschinenteil aus, so wird es sofort ohne Zeitverlust durch ein Reserveteil ersetzt, welches dieselbe mittlere Lebensdauer und dieselbe Varianz besitzt. Wie viele Maschinenteile sind erforderlich, damit mit einer Wahrscheinlichkeit von 0,95 die Maschine mindestens 5000 Stunden mit diesen Maschinenteilen läuft?
154
4. Testverteilungen In diesem Abschnitt behandeln wir drei Verteilungen, welche in der Statistik neben den bisher behandelten Verteilungen eine sehr große Rolle spielen. 4.1. Die Chi-Quadrat-Verteilung Aus den (stoch.) unabhängigen, N(O,1 )-verteilten Zufallsvariablen XI> X 2 , bilden wir die Quadratsumme x~
=X~ + X~ + ... + X~
rur n
= 1, 2, ....
•• • ,
Xn
(4.1)
Die Zufallsvariable X~ ist stetig und besitzt die Dichte gn(x) =
j
0
x
n
rur x :::; 0,
~ e- 2 x:Z- 1 rur x>O.
(4.2)
2 2 rc~)
f
00
Dabei ist r(a)
=
e-tta-1dt die sogenannte Gammafunktion. Partielle Integration
o liefert die Beziehung I'(a + 1) = a I'(a).
(4.3)
4
Für a = und a = 1 gil t speziell
rd)=v'1T;
r(1)=!.
(4.4)
Aus (4.4) und (4.3) folgt rur jede natürliche Zahl n
ren) =(n -
I)!
(4.5)
Die Verteilung der Zufallsvari~.blen X~ heißt Chi-Quadrat- Verteilung mit n Freiheitsgraden. Sie stammt von Helmert [1876] und ist von Pearson [1900] wiederentdeckt worden. Gleichung (4.2) läßt sich mit Hilfe einiger Umrechnungen durch vollständige Induktion zeigen. Wir verweisen dazu auf die weiterruhrende Literatur, z. B. RenyL Für n = 1 und 2 sind die Kurven monoton fallend. Für n ;;:: 3 besitzen die Kurven an der Stelle x =n - 2 ein Maximum. Für die Freiheitsgrade n = 1, 2, 3, 6 lauten rur x> 0 die in Bild 4.1 graphisch dargestellten Dichten
1 -~ gl (x) = - - e 2, y2rrx
1 _!f g2(x)=-e 2, 2 K. Bosch, Elementare Einführung in die Wahrscheinlichkeitsrechnung, DOI 10.1007/978-3-8348-8331-5_4, © Vieweg+ Teubner Verlag | Springer Fachmedien Wiesbaden GmbH 2011
155
4.2. Die Studentsche t-Verteilung
10 Bild 4.1. Dichten von Chi-Quadrat-Verteilungen
Erwartungswert und Varianz eine X~-Verteilung lauten
I E(X~) = n;
D2
(X~) = 2n.
(4.6)
Nach dem zentralen Grenzwertsatz ist X~ ftir große nungefahr N(n, 2n)-verteilt.
4.2. Die Studentsehe t·Verteilung Gosset (i 876-1937) veröffentlichte unter dem Pseudonym "Student" die Verteilung folgender Zufallsvariablen
X Tn = - - - .
(4.7)
Jx~/n
Ile Zufallsvariable X ist dabei N(O; I)-verteilt und X~ Chi-Quadrat-verteilt mit n Freiheitsgraden. Ferner seien X und X~ (stoch.) unabhängig. Die Verteilung der Zufallsvariablen T n heißt t- Verteilung oder Studentsehe Verteilung mit n Freiheitsgraden. Ihre Dichte lautet hn(x) =
r(n; I)
n+1 ftirn=I,2, ... .
..jiiir r(~) (i + ~ )-2-
(4.8)
156
4. Testverteilungen
Für n = 1 erhalten wir hieraus die sogenannte Cauchy- Verteilung mit der Dichte
h (x) 1 1 -n(1+x 2 )
(4.9)
Obwohl die Dichte h l (x) symmetrisch zur Achse x = 0 ist, besitzt eine Cauchyverteilte Zufallsvariable keinen Erwartungswert. Für n ~ 2 gilt E(T n )
= O.
n
Die Zufallsvariable T 2 besitzt keine endliche Varianz. Für n ~ 3 gilt D2 (T n) = n _ 2 .
Mit wachsendem n strebt die Dichte der t-Verteilung mit n Freiheitsgraden gegen die Dichte der N (0; 1)- Verteilung. Für die Werte n h 2 (x)
1
=2y2 r;:;
h (x) 10
=2 undn = 10 erhalten wir z. B.
=
3' 2-
(l + X2
315 256
v'IO
)2
2 !! . (l + ~O)2
In Bild 4.2 sind die Funktionen h 2 , h lO sowie die Dichte der N(O; 1)-Verteilung graphisch dargestellt. 0,5
n:l0
3
-4
4
5
Bild 4.2. Dichten von t·Verteilungen
4.3. Die F·Verteilung von Fisher X~ und X~ seien zwei (stach.) unabhängige Zufallsvariable, welche Chi-Quadratverteilt mit m bzw. n Freiheitsgraden sind: Dann heißt die Zufallsvariable
x2m F
-
m (m, n) - x2n
-n
F - oder Fisher-verteilt mit (m, n) Freiheitsgraden.
(4.10)
157
4.3 . Die F -Verteilung von Fisher
Sie besitzt die Dichte
o
ftif x< 0 sonst.
ftif (m, n)
= (6,4) bzw. = (6,10) gilt
g6,4(X)
z. B. ftir x> 0
x2
= 12 'IY' CI + 1,5x)5 .
Die Kurve besitzt an der Stelle x g6 10 (x) ,
(4.11 )
=4~5 =0,444
x2
= 105· 0,6 3 ( 1 + 0,6x )8
.
g(x)
4
Bild 4.3. Dichten von F -Verteilungen
5
6
(vgl. Bild 4.3) das Maximum.
158
5. Ausblick Durch die Axiome von Kolmogoroff sind zwar drei wesentliche Eigenschaften einer Wahrscheinlichkeit P gegeben, nicht aber der Zahlenwert P(A) eines Ereignisses A. Die einzelnen Wahrscheinlichkeiten sind in einem Laplace-Modell mit Hilfe der m gleichwahrscheinlichen Elementarereignisse {w 11, {W2}' ... , {w m } durch kombinatorische überlegungen berechenbar. Allerdings muß dort die wesentliche Voraussetzung gemacht werden, daß jedes der m Elementarereignisse die (gleiche) Wahrscheinlichkeit p = besitzt. Wie kann man jedoch prüfen, ob bei enQlichem Q alle Elementarereignisse auch wirklich gleichwahrscheinlich sind? Bei der Behandlung zahlreicher Aufgaben sind wir zwar auf Grund bestimmter Gegebenheiten von dieser Gleichwahrscheinlichkeit ausgegangen, wir haben aber noch kein Verfahren kennengelernt, mit dem man "Prüfen" kann, ob diese Bedingung nicht verletzt ist. Ist p =P(A) z. B. die (unbekannte) Wahrscheinlichkeit daftir, daß ein von einer Maschine produziertes Werkstück fehlerhaft ist, so können wir p nicht durch kombinatorische Überlegungen berechnen. Allerdings werden wir wegen des Bernoullischen Gesetzes der großen Zahlen in
k
p "" rn(A)
(5.1)
ftir große n meistens eine brauchbare Näherung erhalten, wobei rn(A) die relative Häufigkeit des Ereignisses A in einem Bernoulli-Experiment vom Umfang n ist. Dabei haben wir ftir die Ableitung dieses Gesetzes nur die Axiome von Kolmogoroff benutzt. Aussagen über die Güte einer solchen Approximation zu machen, ist z. B. eine Aufgabe der Statistik. Ein anderes Beispiel ist die Frage, ob eine Zufallsvariable X normalverteilt ist, und wenn ja, weIchen Erwartungswert und weIche Varianz sie besitzt. Auch auf diese Frage wird die Statistik eine gewisse Antwort geben. Solche und ähnliche Probleme werden wir in dem Fortsetzungsband Elementare Einführung in die angewandte Statistik behandeln. Dazu werden die in diesem Band aus den Axiomen von Kolmogoroff abgeleiteten Ergebnisse benutzt, insbesondere die Gesetze der großen Zahlen und die Testverteilungen aus Abschnitt 4, deren Werte dort auch tabelliert sind. Ziel des Autors ist es, die Verfahren nicht kochrezeptartig zu beschreiben, sondern sie auch (so gut wie möglich) zu begründen.
K. Bosch, Elementare Einführung in die Wahrscheinlichkeitsrechnung, DOI 10.1007/978-3-8348-8331-5_5, © Vieweg+ Teubner Verlag | Springer Fachmedien Wiesbaden GmbH 2011
159
6.1. Lösungen der Übungsaufgaben
6. Anhang 6.1. Lösungen der Übungsaufgaben Lösungen der Übungsaufgaben aus Abschnitt 1.10
A:
1.
"unter den beiden ersten Buchstaben ist höchstens ein Konsonant", AB: "alle Buchstaben sind Konsonanten", "AB: "der erste Buchstabe ist ein Vokal, die drei letzten sind Konsonanten", A U B = AB: "mindestens einer der Buchstaben ist ein Vokal".
2.
Q
A
={(i, j) 1 ::;; i, j ::;; 6, i =Augenzahl des weißen, j =Augenzahl des roten Würfels}.
={(J,2), (1,3), (1,4), (1,5), (1,6), (2,3), (2,4), (2,5), (2,6), (3,4), (3,5),
(3,6), (4,5), (4,6), (5,6)}, B = {(1,I), (1,3), (1,5), (2,2), (2,4), (2,6), (3,1), (3,3), (3,5), (4,2), (4,4), (4,6), (5,1), (5,3), (5,5), (6,2), (6,4), (6,6)}, C = {(J,I), (1,2), (1,3), (1,4), (2,1), (2,2), (3,1), (4,1)}, AB = ((l,3), (1,5), (2,4), (2,6), (3,5), (4,6)}, AC = {(l,2), (1,3), (1,4)}, BC ={(I,I), (1,3), (2,2), (3,I)}, ABC = {(l,3)}. 3.
ABC = Fläche des von den Punkten 0; P(4; 2) und Q(~, ~) aufgespannten Dreiecks, wobei die Seiten dazugehören.
Y
4 -!<::-- --
y=x - -- - - - ; ( '
3
Q
y=~x y=4- tx
4.
a) b) c) d) e) f) g) h)
ABC; ABC + ABC + ABC (genau ABC + ABC + ABC + ABC AUBUC; ABC + ABC + ABC (genau ABC + ABC + ABC + ABC AU B U C =ABC (alle drei ÄBC + ABC + ABC + ÄBC
A oder genau B oder genau C); (keines oder genau eines);
A oder genau B oder genau C); (genau zwei oder alle drei); nicht); (genau eines oder keines).
K. Bosch, Elementare Einführung in die Wahrscheinlichkeitsrechnung, DOI 10.1007/978-3-8348-8331-5, © Vieweg+ Teubner Verlag | Springer Fachmedien Wiesbaden GmbH 2011
160 5.
6. Anhang
x+5+IO+8+70+45+40=I90, x+I78 =190, X = 12.
F
R
6.
Genau 3 Fächer studieren 2, genau 2 Fächer 8 - 2 = 6 und genau 1 Fach 25 - 2 - 6 = 17 Personen. In der Summe IBI + IGI + IC I werden diejenigen Personen, die ein einziges Fach studieren, einfach gezählt, diejenigen mit 2 Fächern doppelt und die mit allen Fächern dreifach gezählt. Damit gilt IBI+IGI+ICI= 17+2'6+3'2=35. Wegen IB I = 14 und I G I = 10 folgt hieraus fur die gesuchte Anzahl ICI=I!.
7.
n={l,2,3,4,5,6}. a) Aus P({l}) : P({2}) : P({3}) : P({ 4}) : P( {5}) : P({6}) = 1 : 2: 3 : 4: 5 : 6 folgt mit P({l}) = p, P({i}) = i' P fur i = 1,2, ... ,6. I = p(n).= p + 2p + 3p + 4p + 5p + 6p = 2Ip ~ P =-ft; P({i}) = fur i = 1, 2, ... ,6.
;1
b) A = {2, 4, 6}; P(A) = P({2}) + P({4}) + P({6}) =
2\4/6 = ~ ;
5
B = {2, 3, 5}; P(B) = P({2}) + P({3}) + P({ 5}) = 2~: + = ~~ ; C = A; P(C) = P(A) = 1 - P(A) = ~ . c) AU B = {2, 3, 4,5, 6} = {1}; P(A U B) = I-P({l})= ;~ ; BC = {3, 5}; P(BC) =
3;15= :1 ;
AB = {4, 6}; P(AB) = ~~ . 8.
Die Münzen werden unterscheidbar gemacht. W = Wappen, Z = Zahl. w=(W, Z, W)
tI. h. h.
Münze
a) n = {(W, W, W), (W, W, Z), (W, Z, W), (Z, W, W), (W, Z, Z), (Z, W, Z), (Z, Z, W), (Z, Z, Z)}. b) Inl = 8; A = {(W, W, W)}; P(A) =
k.
c) B = {(W, Z, Z), (Z, W, Z), (Z, Z, W)}; P(B) = ~.
161
6 . 1. Lösungen der Übungsaufgaben
9.
a) 3! =6. 4! 2'3'4 b) 2f2T =2-2 = 6. ) g=3! '3!4' S =20 . C 3! d)
9' 4t = 5' 6' 7' 8· 9 = 15120.
------* * ... *
(n - 2)! (Permutationen der übrigen n - 2 Elemente
10.
1) al a2 a2 al 2)
* al * a2
n - 1)
!2(n-2)!
* * ... * a2 * * ... * } 2 (n al * * ... *
2)!
* * * ... * al a2 } 2(n - 2)!
* * * ... * a2
al
Gesuchte Anzahl = (n -1) 2(n - 2)! = 2(n - I)! 11.
a) Alle Permutationen von 1113355, 7! 2'3 ' 4'5·6'7 x=3!2!2!= 2.3'2'2 =210. b) 1 3 5 L-.J
12.
1 1 3 5 ~ x = i.. 2 ; = 12. L---1
.
fest; dürfen permutiert werden; ~ ..- 999 Möglichkeiten . Kennzeichen BS - C W ~ (Zahlen 1,2, ... , 999) t 26 Möglichkeiten t27 Möglichkeiten (26 Buchstaben + Leerstelle) gesuchte Anzahl 27· 26· 999 = 701298.
13.
l-elementige Zeichen = 2, 2-elementige Zeichen = 22 = 4, 3-elementige Zeichen = 23 = 8, 4-elementige Zeichen = 24 = 16, 5-elementige Zeichen = 2s = 32, 6-elementige Zeichen = 1 (Ausnahmefall). Summe =63.
14.
a) (;)·G)=350. b) Auswahl: aus 5 Psychologen 2 und aus 6 Medizinern 2.
(;)(~) = 150. c) Aus 3 Psychologen werden 2 und aus 7 Medizinern 3 ausgewählt.
(~)G) = 105.
162 15.
6. Anhang
Auswahl ohne Berücksichtigung der Reihenfolge. Mögliche Fälle C~). Günstige Fälle unter Berücksichtigung der Reihenfolge: Für die Auswahl der 1. Person gibt es 10 Möglichkeiten. Für die Auswahl der 2. Person gibt es 8 Möglichkeiten, da die zuerst ausgewählte Person und deren Ehepartner nicht ausgewählt werden dürfen. Für die 3. Person gibt es 6 und flir die 4_ Person 4 Auswahlmöglichkeiten. ~ günstige Fälle ohne Berücksichtigung der Reihenfolge:
10·8·6·4 4! 16.
p=IO ' 8'6'4'4! =,!, 4!10·9·8·7 21'
Jeder der 8 Teilnehmer kann 12 Orte wählen. Damit gibt es 12 8 mögliche Fälle. a) Günstige Fälle 12' II . 10 . 9 . 8 . 7 . 6 . 5 ; Pa = 0,0464. b) Günstige Fälle 12· 1l · 1O·9· 8·7· 6 .(~); Pb = 0,2599.
17.
n = {Aufteilungen der 32 Karten in 3 Zehnerblöcke und einen Zweierblock ohne Berücksichtigung der Anordnungen} Spieler I
I I
10 Karten 32! x = IO! 10! IO! 2! 18.
Spieler 11
I I
10 Karten
Spieler III
Skat I
10 Karten
2 Karten
Die bei den Karten flir den Skat werden aus 32 ausgewählt, wobei die Verteilung der restlichen 30 Karten unter die 3 Spieler flir das Problem keine Rolle spielt.
ei) = 32~ 31 = 16· 31 = 496. a) Günstige Fälle l' e/ )(Kreuz-Bube und eine beliebige Karte). Mögliche Fälle
31 I Pa = 16' 31 = 16 = 0,0625. b) Günstige Fälle
(1) (218) (ein Bube und eine der 28 übrigen Karten).
4· 28 7 Pb = 16.31 =31=0,2258. c) Günstige Fälle
(i).
4· 3 3 PC =I'2'16'31 =248=0,0121.
163
6.1. Lösungen der Übungsaufgaben
19.
Modell a: ein Spieler bekommt 10 Karten. Danach werden die restlichen 22 Karten in 3 Teile zu 10, 10,2 Karten eingeteilt. .11 = {Einteilungen der restlichen 22 Karten in 3 Blöcke zu 10, 10,2 Karten, wobei unter den 22 Karten 2 Buben sind}, mögliche Fälle
(i~)
G~) (~)
+-
Skat
t ftir den 2. Gegenspieler aus den restlichen 12 Karten t ftir den 1. Gegenspieler
günstige Fälle
(i) (290) (D
(191)
---..-
(~)
Skat
---..- ftir den 2. Gegenspieler ftir den 1. Gegenspieler. I Bube und 9 andere Karten
P =2·20! 11! 1O! 12! 1O! 2! = 100=04329 a 9! 11! 9! 2! 22! 12! 231'·
Modell b: ein Spieler bekommt 10 Karten und den Skat . .11 = {Aufteilungen der restlichen 20 Karten in 2 Zehnerblöcke, wobei unter den 20 Karten 2 Buben sind}, mögliche Fälle günstige Fälle
(ig) Gg),
(i) (198) Gg) , -----.-
1. Gegenspieler
P =2!18!1O!10!=1O=05263 b 9!9!20! 19' . 20.
.11 = {(i,j, k), i = Augenzahl des 1., j = Augenzahl des 2., k = Augenzahl des 3. Würfels}. 1.111=6·6·6=216. a) A = {(l, I, I), (2, 2, 2), (3,3,3), (4,4,4), (5,5,5), (6,6,6)}. lAI 6 I P(A) = TnT = 216 = 36 = 0,0278. b) Von den 3 Zahlen müssen genau 2 gleich sein. Da die übereinstimmenden Zahlen I bis 6 sein können, gibt es hierftir 6 . (~) Möglichkeiten. Für die davon verschiedene Zahl gibt es noch 5 Möglichkeiten. Somit gibt es 6 . (~) . 5 günstige Fälle, woraus 6·3·5 5 Pb = ~ = 12 = 0,4167 folgt. c) Günstige Fälle 6·5·4
~
Pe = 6 ·2~~4 = ~ = 0,5556 .
d) P (mindestens eine 6) = 1- P (keine 6) = 1- ~: = 0,4213.
164 21.
6. Anhang
M = 30; N = 90; n = 6; k = 3 30 · 29' 28 ' 60' 59' 58· 1 . 2' 3 . 4· 5 . 6 _ 30) (63°) a) P3 = (960) 1 . 2 . 3 ' . 1 . 2 . 3 . 90' 89 . 88 . 87 . 86 . 85
e
= 0,22314.
b)P3=(~)G~Y (1-~~r =~:~:~ 'Gr-(~r =0,21948 . 22.
Urnenmodell I mit N = 20, n = 3. A: "Packung wird angenommen". a) Die Packung enthalte 3 nicht einwandfreie Tabletten ~ M = 3, 17
e
3
P(A) = (3 )(0) = 17' 16' 15 ' 1 . 2' 3 = 34 = 05965 1'2'3'20 ' 19'1857 ' . 30)
-
P (Packung wird unberechtigt zUlÜckgewiesen) = P(Ä) = 1 - P(A) = ~~ = 0,4035. b) Die Packung enthalte 2 nicht einwandfreie Tabletten ~ M = 2; P(A) = e~)(~) = 18 ' 17'16 ' 1·2·3 =68 =0 7158' e~) 1 ' 2 ' 3'20 ' 19'1895 ' , 27 P(A) = 95 = 0,2842. Die Packung enthalte 1 nicht einwandfreie Tablette ~ M = 1; ( 19)(1
P(A)=~=19'18'17
e
30)
20' 19' 18
=.!2=085' 20 ' ,
3 P(A) = 20 = 0,15.
Da im Falle a) und b) mit einer relativen großen Waltrscheinlichkeit die Packungen unberechtigt zulÜckgewiesen werden, ist das PlÜfverfaltren unzulänglich. 23.
A sei das Ereignis, beim Öffnen des 1. Schubfaches eine Goldmünze ZU finden. B sei das Ereignis, beim Öffnen des 2. Schubfaches eine Goldmünze zu finden.
EBEBEE
1. Kästchen 2. Kästchen 3. Kästchen
t.
P(A) = ~ =
P(AB) = P(1. Kästchen wird ausgewählt) =
4.
165
6.1. Lösungen der Übungsaufgaben
P(MB) = 0,25 ; P(MB) = 0,2; P(MB) = 0,25. P(MB) = 0,3; Daraus folgt P(M) = P(MB) + P(MB) = 0,55, P(B) = P(MB) + P(MB) = 0,5, P(M) P(B) = 0,55 ·0,5 = 0,275 f P(MB) ~ Mund B sind nicht (stoch.) unabhängig.
24.
Gegeben:
25.
Die Ereignisse A, B bzw. C treten ein, wenn die entsprechende einfarbige Fläche oder die mit allen Farben unten liegt. Daraus folgt P(A) = P(B) = P(C)= Jeweils zwei der Ereignisse treten ein, wenn die Fläche mit allen Farben unten liegt, dann treten aber auch alle 3 Ereignisse zugleich ein. Damit gilt
t.
P(AB) = P(AC) = P(BC) = P(ABC) =
-i.
Aus P(AB) = P(A) P(B); P(AC) = P (A) P(C); P(BC) = P(B)P(C) folgt die paarweise (stoch.) Unabhängigkeit. Wegen P(ABC) f P(A) P(B) P(C) sind die drei Ereignisse nicht vollständig (stoch.) unabhängig. 26.
An sei das Ereignis "von n Schüssen trifft keiner", P(A n ) =0,4 n ; P = P(An) = 1 - 0,4 n ~ 0,99 => O,4n ~ 0,01; n ~ 6.
27.
(Binomialverteilung mit p =
t;
n = 12).
_ (12) ( I )2 (5 )10 _ 12 . 11 . 5 10 _ 11 . 5 10 _ a) P2 - 2 6 6 - I .2 . 612 -~-0,296. b) P 28.
=1-Po=I-(~r =0,888.
(Binomialverteilung mit p = 0,485; n = 6). a) P6 = 0,485 6 = 0,0130. b) Pb = (~) 0,485 5 · 0,515 + P6 = 0,0959. c) Pe = (~) 0,485 3 ·0,5 I 53 + (~) 0,485 4 .0,515 2 + Pb = 0,6277 .
29.
(Binomialverteilung mit n = 10 und P = 0,2). 2 8 a) Pa = (10) 22 ·0 8 8, = 0 3020 2 . 0 "2 . 0 8 = 45 · 0" . b) Pb = I - Pa - (\0) 0,2 1 . 0,8 9 -0,8 10 =0,3222. c) Pe = (160 ) 0,260,84 + + 0,2 10 = 0,0064.
(70)OY · 0,8 3 + ( ~O) 0,2
8
.0,82 + C90 ) 0,29 .0,8 +
166 30.
6. Anhang
4 Stürmer 2 Mittelfeldspieler 4 Verteidiger I Torwart a) Pa
=(~)
b) Pb =
(:lf
(Urnerunodell Il)
.171 =0,0243 .
r
(~) (161
c) Pe = ( 6) 0 (I Tl
= 0,0263 .
)0 (10)6 I )1 (10)5 1 )2 (10 Tl + (6) 1 ( Tl Tl + (6) 2 ( Tl Tl)4=0,9878.
kein Torwart
genau 1 Torwart
genau 2 Torwarte
d) (Polynomialverteilung) Pd =
2f~! (:Ir ( t J
2
1
Tl' Tl = 0,0520.
rr
e) (Polynomialverteilung) Pe = 31.
* 32.
3f~!
(:1
(tl
= 0,0462.
a) (Multiplikationssatz) Ai : "der beim i-ten Zug erhaltene Ball ist rot"; Pa = P(A I A2AJ ) = P(A J /A 2 Ad P(A 2/A I ) P(A I ) = :8 b) (Multinomialverteilung) 8 ' 3 ' 9 8 · 3·9'2 ' 3 Pb = e30) = 20 ' 19'18 0,1895.
.
~9 . 2~ = 0,0491.
a) Wir bezeichnen mit PI die Wahrscheinlichkeit dafur, daß Schütze I den Wettbewerb gewinnt, P2 sei die Gewinnwahrscheinlichkeit für den Schützen 11. 1. Fall: PI=I~PI=I; P 2 =0. 2. Fall: PI O. Ak sei das Ereignis, daß insgesamt beim koten Schuß das Ziel getroffen wird; AI: "Schütze I trifft bei seinem 1. Versuch" ~ P(A I) = PI ; A2: "Schütze I trifft bei seinem 1. Versuch nicht und Schütze Il trifft bei seinem 1. Versuch" ~ P(A 2) = (1- pd P2; k>2 k ungerade ~ k = 2r + 1 A2r + 1 : "beide Schützen treffen bei ihren r ersten Versuchen nicht und Schütze I trifft bei seinem (r + l)-ten Versuch";
167
6.1. Lösdngen der Obungsaufgaben
P(Azr+d = (I-pS (I-pS' PI fur r = 0,1,2, ... k gerade
*
k = 2r
Azr : "Schütze I trifft bei seinen r ersten Versuchen nicht und Schütze II trifft bei seinen (r -1) ersten Versuchen nicht und trifft bei seinem r-ten Versuch; P(A zr ) = (1- pS (I- pS- 1 P2 fur r = 1,2,3, ...
L AZr +I eintritt. Daraus folgt 00
Schütze I gewinnt, wenn das Ereignis
r=O 00
r= 0
r= 0
PI 1 - (1- PI)(1 - P2) P2 =
00
00
L
L
r=O PI PI + P2 - PI . P2 '
00
P(A zr ) =
r=1
(I- pS (1- P2)r-1 P2 =
r=1 00
v=O
P2(1- PI) 1- (1- PI)(1 - P2)
P2(1- PI) PI + P2 - PI' P2
Probe: PI + P2 = 1. b) Aus der Forderung PI = P2 folgt PI PI = P2 (1 - pd, d. h. P2 = -1- . -PI Zahlenbeispiele: PI = ~
33.
1
* P2 =} = j . 4
PI =j * P2 = ~ . A: "Arbeiter"; B "Angestellter"; C "Leitender Angestellter"; V "eine Person verläßt die Firma". Gegeben:
fo ;
P(A) = ~; P(B) = ~; P(C) = P(V/A) =0,2; P(V/B) =0,1 ; P(V/C)= 2~'
a) P(V) = P(V/A) P(A) + P(V/B) P(B) + P(V/C) P(C) = = 0,2 ' 0,5 + 0,1' 0,4 + 0,05 ' 0,1 = 0,145. 0,1 P(V/A) P(A) b) P(A/V) = P(V) = 0,145 = 0,6897.
168 34.
6. Anhang
U I ,,1. Urne wird ausgewählt", U2 ,,2. Urne wird ausgewählt", R "die gezogene Kugel ist rot". a) peR) = P(R/UI) P(U 1 ) + P(R/U 2 ) P(U 2 ) =
x
1
x
1
= 0,6 . '2 + 6 + x . '2 = 0,3 + 12 + 2x . b) P(U /R) = P(R/UI) P(Ud = I peR)
0,3
x
0,3 + 12 + 2x
.
• 6 +x c) P(R) = 16+x' d) P(R/UI)
35.
=>
9,6 + 0,6x =6 + x = 0,4x 3,6 x =9.
M: "die ausgewählte Person ist männlich", F: "die ausgewählte Person ist weiblich", Z: "die ausgewählte Person ist zuckerkrank". Gegeben: P(M) =0,4; P (F) =0,6; P(Z/M) =0,05; P(Z/F) =0,01. a) P(Z) =P(Z/M) P(M) + P(Z/F) P(F) =0,05 . 0,4 + 0,01 . 0,6 =0,026. b) P(Z/F) =0,01; P(Z) t- P(ZjF) => Z und F sind nicht (stoch.) unabhängig. c
=P(Z/M)P(M) =0,05' 0,4 =0 7692
) P(M/Z) P(F /Z)
36.
6 +x
=0,6 = 16 + x
P(Z)
=P(M/Z) = I -
0,026
P(M/Z)
'
.
=0,2308.
A, B, C sei das Ereignis A, B bzw. C leidet an der ansteckenden Krankheit P(Ä.) =peS) =P(C) =~, da nur einer krank ist. A*, B*, C* sei das Ereignis,
=>
der Arzt nennt A, B bzw. C. P(B*) =P(B* /Ä.) P(Ä.) + P (B*/B)P(B) + P(B* /C)P(C); P(B*/Ä) = 4 (nach Angabe), P(B*/B) = 0, da der Arzt keine kranke Person nennen soll, P(B* /e) = 1, da der Arzt keine kranke Person nennen soll, ~ + 1. ~ = P(B*) =
4. 4. P(C*) =4(analog). P(Ä/B*)
A
P(A/C*)
1
1
=P(B* / A) P(A) ='2 . 3 =1. .
4
P(B*)
=
P(C*/A)P(A) P(C*)
=
3'
4·.! ='13 (analog). T 2
Der Arzt hat somit nicht recht. Die Wahrscheinlichkeit bleibt ~.
169
6.1. Lösungen der Übungsaufgaben
37.
F "Fernsehapparat ist fehlerhaft", A "Prüfgerät zeigt Ausschlag". Gegeben:
P(F) = 0,04; P(F) = 0,96; P(A/F) =0,8; P(A/F) =0,1. P(A/F)P(F) P(A/F)P(F) P(A) P(A/F) P(F) + P(A/F) P(F)
P(F / Ä)
0,2' 0,04 000917 0,2 . 0,04 + 0,9 . 0,96 =, . P(F /A) = 1 - P(F /A) = 0,99083.
* 38.
R "richtige Dosierung", H "Heilwirkung tritt ein", N "Nebenwirkung tritt ein". Gegeben: peR) = 0,99; P(H/R) = 0,8; P(N/R) = 0,3; P(H/R) = 0,3; P(N IR) = 0,8. P(HN) a) P(H/N) = P (N) . P(N) = P(N/R)P(R) + P(N/R)P(R) = 0,3' 0,99 + 0,8' 0,01 = 0,305 . P(HN) = P(HNR) + P(HNR) = P(H/NR) P(NR) + P(H/NR) P(NR) = (H ist unabhängig von N)
=P(H/R) P(N/R) P(R) + P(H/R) P(N/R) P(R) =
= 0,8' 0,3 ' 0,99
+ 0,3 ' 0,8 ' 0,01
= 0,24.
0,240 ~ P(H/N) = 0,305 = 0,7869. b) P(H/N)
=Pp~~)
;
Aus P(HN) + P(HN) =P(H) folgt P(HN) =P(H) - P(HN). P(H) = P(H/R)P(R) + P(H/R)P(R) = 0,8' 0,99 + 0,3 ' 0,01 = 0,795; P(HN) = 0,795 - 0,24 = 0,555; P(N) = 1 - P(N) = 0,695; P(H/N)
* 39.
0,555
=0,695 =0,7986.
A "Werkstück wird von der KontrollsteIle als Ausschuß deklariert", F "Werkstück ist fehlerhaft". Gegeben:
1 94 42 P(A) = 10; P(A/F) = 100 ; P(A/F) = 1000'
Gesucht:
P
( F/ ) =P(A/F)P(F) A P(A) '
170
6. Anhang
Bestimmungsgleichung flir P(F): P(A) = P(A/F) P(F) + P(A/F) P(F) = = P(A/F) P(F) + P(A/F) (l - P(F» = = [P(A/F) - P(A/F)] P(F) + P(A/F); =>
=>
58 898 .
P(F) = P(A) - P(A/F) = P(A/F) -- P(A/F) 94'58'10 P(F/A) = 100. 898 = 0,6071.
P(F/A) = P(A/F) P(F) = 6 . 58 . 10 = 0 0043. P(A) 100' 898 . 9 ' Die KontrollsteIle deklariert zu viele Werkstücke als Ausschuß, obwohl sie fehlerfrei sind. 40.
AI "Werkstück wird bei der 1. Kontrolle als Ausschuß deklariert", A z "Werkstück wird bei der 2. Kontrolle als Ausschuß deklariert", F "Werkstück ist fehlerhaft". Gegeben:
P(A I) = P(A z ) = I~; P(AI/F) = P(Az/F) = I~~ -
-
P(AdF) = P(Az/F) =
;
42 1000 ;
P(F) = i9~ (folgt aus Aufgabe 39). Gesucht: P(F/AIA z) und P(F/~) P(F/AIA z)=
P(A I Az/F)P(F) P(AIA z) ; Aus P(Az/AIF)=P(Az/F) folgt
P(A I Az/F) =
P(AIAzF) P(Az/AIF)P(AIF) P(F) = P(F) =
=
P(Az/F) P(AI/F) P(F) = P(A /F) P(A /F) z I' P(F)
P(A I A2 ) = P(A I Az/F) P(F) + P(A I Az/F) P(F) = = P(AI/F) P(Az/F) P(F) + P(AdF) P(Az/F) P(F) = 42 42 840 94 94 58 = 100 . 100 . 898 + 1000 . 1000 . 898 = 0,05872. =>
1 94 94 58 P(F/AIAz) = 100' 100' 898' 0,05872 = 0,9719.
171
6. 1. Lösungen der Übungsaufgaben
_ _ P(F/A I UA 2 ) P(F(A I A2 +A I A2 +A I A2 » P(F/A I A2 )= P(A I A2 ) = I-P(A I A2 ) P(FA I A 2 ) + P(FA I A2 ) + P(FA I A2 ) 1- P(A I A2 ) P(F) [P(A I/F)P(A2 /F) + P(A 2 /F)P(A I/F) + P(A2 /F)P(A I/F)] 1- P(A I A2 ) =0,0080. Die Doppelkontrolle arbeitet wesentlich besser als die Einfachkontrolle aus Aufgabe 39.
Übungsaufgaben aus Abschnitt 2.3.6
1.
A sei das Ereignis, bei einem Wurf erscheint die ,,6".
n = {(A),
(A, A), (A, A, A), ... }
.j..j.
X:
10 3
.j.
102
10
T
0
'krteilung von X
E(X) = 10· ~ + 100·.lQ.. + 1000'l&.. = 250 + 3000 + 36000 216 216 216 216 = 39 250 216
= 181 713' "
D(X) =.jE(XZ) - EZ(X) = 367,488. 2.
Dj sei das Ereignis, der beim i-ten Zug gewählte Transistor ist in Ordnung. W(X) = {I, 2, 3, 4}, da nur 3 defekte Transistoren vorhanden sind und somit spätestens beim 4. Zug ein brauchbarer Transistor gefunden wird. P(X = 1) =P(D I ) = I~ P(X = 2)
;
7 3 7 = P(Dz/Dd P(D I ) = 9"'10 = 30; =P(DIDz)
P(X = 3) = P(DIDz D3) = P(D3/DzDI)P(Dz/DI)P(Dd = P(X =4)
t· ~. I~ = I~O
;
=P(UI Dz D3D4 ) = P(D4 /D 3 D2 DdP(D3/D2 DI)P(Dz/DI)P(Dd = =1. . 1.1. . ..1..=_1_ 7
8
9
10
120 '
172
6. Anhang
Verteilung von X Summe
P(X = xi) E(X)
= 18:-0 + 15;0 + 12;0 + 1~0 = !~~ = 181 = 1,375. =~ + 4· ~ + 9. ~ + 16. _1_ =84 + 112 + 63 + 16 = 275
E (X 2 )
120
2
D (X) 3.
=1
275
120
120
121
= 120 - 64 = 0,401
=> a
120
120
120 .
=0,633.
Unterscheidbare Kästchen: A, B, C; unterscheidbare Gegenstände: GI' G 2 , G 3 , G 4 , G 5 · Modell: jeder Gegenstand gelangt zufällig in eines der 3 Kästchen. Anzahl der möglichen Fälle:
In I =
35 = 243.
(X = 2): alle 5 Gegenstände in A bzw. in B bzw. in C;
3 günstige Fälle.
(X = 1): alle 3! = 6 Permutationen der beiden Belegungsmöglichkeiten für die Kästchen A, B, C: 4, 1 , 0 ; 3 , 2 , 0 ; günstige Fälle für 4, 1, 0: günstige Fälle für 3, 2, 0: für (X für (X
5! - 5. 4! ·1!· O! - , 5! 3! . 2! . O! = 10 ;
= 1) gibt es insgesamt 6· (5 + 10) = 90 günstige Fälle; = 0) gibt es 243 - 3 - 90 = 150 günstige Fälle;
Verteilung von X:
= ~i = 0,395 ; E(X 2) = ~i; D 2 (X) = E(X 2 ) - E 2 (X) = ~;~~ = 0,264.
E(X)
4.
Ak sei das Ereignis, daß das Gesamtspiel nach dem k-ten Versuch beendet wird. a) peAk)
=~ rur k = 1,2, ... 2
; Einsatz zu Beginn
= 1.
Gesamteinsatz, falls A k eintritt: 1 + 2 + 4 + ... + 2 k - 1 Auszahlung, falls Ak eintritt: 2· 2 k -1 =2 k . Reingewinn: 2 k - 2 k + 1 = 1.
=2 k -1.
Für die Zufallsvariable X, die den Gewinn des Spielers beschreibt, gilt P(X
= 1) =
L peAk) = I, woraus E(X) = 1 und D (X) =0 folgt. 2
k=1
173
6.1. Lösungen der Übungsaufgaben
b) Falls der Spieler höchstens 31 Einheiten pro Serie einsetzen kann, kann er höchstens 4 Mal verdoppeln, also 5 Spiele mitmachen. 5
LA
Sofern
k
eintritt, erzielt er einen Reingewinn von 1 E, sonst
k=1
verliert er seinen Gesamteinsatz 1 + 2 + 4 + 8 + 16 = 31.
L P(A 5
Wegen
L ~2 = 1 - ~ = ~~ besitzt X die Verteilung. 5
k)
=
k=1
2
k=1
-31 1 32
Daraus folgt E(X) = ~~ - ~~ = 0; E(X 2) = 1 . II + 31 2 . ~ = 31 (1 + 31) = 31' 32
32
32
'
D2(X) = E(X 2)-0 =31 ~ D(X) =01 = 5,568. 5.
a) Randverteilungen 1
2
0,6
0,4
Xi
P(X = Xi)
E(X) = 0,6 + 0,8 = 1,4; D2(X) = 0,6 + 4' 0,4 - 1,42 = 2,2 - 1,96 = 0,24; E(Y) = 0,1 + 0,8 + 1,5 = 2,4; D 2(y) = 0,1 + 4' 0,4 + 9' 0,5 - 2,42 = 6,2 - 5,76 = 0,44; X, Y sind wegen P(X = 2, Y = 1) f P(X = 2)P(Y = 1) nicht (stoch.) unabhängig. b)
5
zk
----------r---+---r-~~-
Verteilung von X + Y
0,2
E(X + Y) = 0,2 + 0,6 + 2,0 + 1,0 = 3,8; D 2(X + Y) = 4' 0,1 + 9' 0,2 + 16' 0,5 + 25' 0,2 - 3,8 2 = 15,2 - 14,44 = 0,76. c)
uk P(X' Y =Uk) E(X' Y)
d)
D2 (X)
I 0,11 I 0,22 I0,33 I0,24 I0,26
Verteilung von X' Y
=0,1 + 0,4 + 0,9 + 0,8 + 1,2 =3,4;
+ D2(y) + 2 [E(X' Y) - E(X)' E(Y)]
=0,24 + 0,44 + 2 [3,4 -
1,4' 2,4]
=0,76 =D2(X + Y).
174 6.
6. Anhang
Modell a): die beiden Karten werden aus den 32 , unter denen sich 4 Buben befinden, ohne Zurücklegen gezogen.
X ist hypergeometrisch Iierteilt mit M = 4 ; N = 32, n = 2. Damit gilt
P(X=0)=(~)(22S)=28.27
e es) _1_ 1_ e
1·2 =189=07621 . 1· 2 ·32 · 31 248 ' ,
2 2 )
P(X = 1) =
(4)
2 2 )
4 28 =. · 1·2 32 · 31
P(X = 2) = (i)(20S) = 4·3 ·1· 2 (;2) 1 . 2 ·32 . 31 E(X) = n·
M
4
56 248 = 0,2258;
=~ =0 0121 248
'
.
1
N= 2· 32 = 4;
.z.
M. ( _M.)
2 _. N - n _ . .!. . 30 _ 105 _ D (X)-n N 1 N N-l -2 8 8 31-496- 0 ,2117 .
D(X) = 0,4601. Modell b):
b l ) Spieler I hat die Information, daß sich unter den restlichen 22 Karten alle 4 Buben befinden müssen. Da zwei von diesen 22 Karten im Skat liegen, kann das Modell benutzt werden, daß 2 Karten aus 22 ohne Zurücklegen gezogen werden, wobei sich unter den 22 Karten 4 Buben befinden. Damit ist X hypergeometrisch verteilt mit M = 4 ; N = 22, n = 2. Daraus folgt: P(X=O) = (~)(~8) = 18·17 = ~ = 06623. 2 22 · 21 77 ' , 2 )
e
e
P(X = 1) = C)(118 ) 2 2 )
P(X = 2) =
(i)e08 ) (;2)
E(X) = 2' 2~ =
:1
=4 · 18 · 2 22·21
= 24 = 03117 · 77 ' ,
4·3 2 = 22 . 21 = 77 = 0,0260. = 0,3636;
- 0,2834', DZ(X) -- 2·.L 11 · .2...11 · 20 21 -
D(X) = 0,5323 .
b z) X ist hypergeometrisch verteilt mit M = 2; N = 22; n = 2 P(X = 0)
ee
= (~) 2o) = 20· 19 = 190 = 08225 ' 2 2 )
22'21
231
'
,
175
6.1. Lösungen der Obungsaufgaben
E(X) = 2·
2 22
D2 (X) = 2'
2
= TI = 0,1818;
-&. :~. ;~ = 0,1574;
D(X) = 0,3968.
b 3 ) .X ist hypergeometrisch verteilt mit M = 1; N = 22; n = 2 ( 1) (21)
P(X = 0) = _0_2_ = 21 ' 20 = 10 = 09091' (':}) 22· 21 11 ' , =J....= 0 0909' ee/) =~ 22'21 11 ' ,
P(X = 1) = (:) E(X) = 2·
212
2 2 )
= 1\ = 0,0909;
ll. D2 (X) -- 2' .L. 22 22
7.
20 21
= 0 ' 0826 ',
D(X) = 0,2875.
P(X=i)=kfuri=I,2, ... ,n E(X) =
~
L..
i=1
i ' !.=!. ~ i=!.n(n+l) =n+l . n nL.. n 2 2 ' i=1
E(X 2 )= ~ i2 . !.=!..n(n+l)(2n+l)=(n+l)(2n+l). L.. n n 6 6' i =1
DZ(X) = E(Xz) _ (n + I)Z = (n + 1) [2n + 1_ n + 1] = 464 (n + l)(n - 1) = nZ - 1 12 12 . 8.
a) Ak sei das Ereignis, daß der beim koten Versuch gezogene Schlüssel paßt. W(X) = {l, 2, ... , n}. 1
P(X= 1)=P(A 1 )=n; 1 n-l 1 =- ; P(X = 2) = P(A 1 Al) = P(Az/A 1 ) P(A 1 ) = - 1 nn n
176
6. Anhang
Allgemein gilt P(X = i) = P(AI A2... Ai_lAi) = P(A/ A I ... Ai-dP(Ai-dAi-2 ... AI)'" P(A I ) = n-i+1 n - 2 n-I I. 1 = n - i + 1 n - i + 2 ... . n - 1 . - n- = 1 = 1, 2, ., . , n.
n'
Damit folgt aus Aufgabe 7 a=D(X)=V n21;1.
E(X)=n;l ;
b) X ist geometrisch verteilt mit P = E(X) = n; 9.
0
k. Damit gilt
= D(X) =V I - 1/ n l/n 2
=Jn
2
-no
a) X ist B(100; 0,02)-verteilt. Pa = I-P(X=O)-P(X= 1)-P(X=2) = = 1 - (lgO) 0,020 . 0,98 100 - (I~O) 0,02 ' 0,98 99 - (I~O) 0,02 2 . 0,9898 =
= 0,323314. b) X ist Poisson-verteilt mit A = np = 2. Pb = l-e- 2 [I + '1O.
+ ~~J = l-e- 2 [1 +2 + 2] = I-Se- 2 =0,323324.
Selbstmordwahrscheinlichkeit flir einen Einwohner: P = 25~OO ' Die Zufallsvariable X, welche die Anzahl der Selbstmorde beschreibt, ist näherungsweise Poisson-verteilt mit dem Parameter A = np = 4. a) P(X
11.
i:
k =k) = e-4 • 4k!
1. Fall : PI = 1
'*
.
E(X) = 1.
2. Fall: PI < 1; P2 = 1
'*
E(X) = PI + 2(1 - pd = 2 - PI'
3. Fall: PI< 1, Pl < 1 und PI + P2
>
° '*
W(X) = {I, 2,3, ... }.
Nach Aufgabe 32 aus Abschnitt l.l0 gilt P(X = 2r + 1) = (1- PI)' (1 - pd PI fur r.= 0, 1, 2, ... ; P(X = 2r)
= (I - PI)' (1- P2y-1 P2 fur r = 1,2, ... .
177
6.1. Lösungen der Übungsaufgaben
Damit erhalten wir ftir die erzeugende Funktion den Zufallsvariablen X G(x) =
L xkp(X=k)= L k=l
=
L
L 00
x 2r + 1P(X=2r+I)+
x 2r P(X=2r)=
r= 1
r= 0
I
00
x 2r + 1(l_p,)'(l-P2)'PI +
r= 0
x 2r (l-PS(l-P2),-IP2
r= 1 00
00
r=O
r:;;;; 1
p,x + P2(l- pdx 2 I-x 2(1-p,)(l-p2) Differentiation nach x ergibt nach der Quotientenregel , [l-x 2(l-P,)(l-P2)] [PI +2XP2(l-P,)] +2x(I-P,)(l-P2)[P,X +p2(I-p,)x 2]
G(x)=~~~~~~~~~~~~~~~~~~~~
[1- x2(l- pd (1- P2)]2
x = I liefert , [I-l+p, +P2-P,P2][P, +2P2- 2P,P2] + 2[l-P,-P2 +P,P2][P, +P2 -P,P2] G(l)= 2 [I-l+p, +P2-P,P2] p, +2p2 -2P,P2 +2-2p, -2P2 +2P,P2 P,+P2 - P,P2 Damit gilt E(X) = G'(l)
2-p, P,+P2-P,P2·
2-p , p, + P2 - P,P2
Für p, = P2 = P folgt hieraus 2-p 2-p I E(X)=2P_p2 =p(2-p)=P· X ist in diesem Fall geometrisch verteilt mit dem Parameter p, womit dieses Ergebnis plausibel ist. Übungsaufgaben aus Abschnitt 2.5.5 1
1.
a)l=
CX2 CX3)X=1 -S(cx-cx 2)dx= (2 3
o
x=O
0 fur x ~ 0, b) F(x) = 3X2 - 2x 3 ftir 0 ~ x ~ I, I ftir x ~ 1.
1
C C c 2 3 6
=- - -=-~c=6
.
178
2.
6. Anhang
a) 1 =
S(t-cx)dx= (12x-c~
2)X=4
4
o
1
=2-8c ~ c=S .
x=O
b)F(x)=
0
ftir x :::; 0,
1
ftir x
1tX-l~X2 ftirO:::;x:::;4, ~
4.
P(l :::; X:::; 2)= F(2) - F(l) = 1-t-t+ 1~ = 1~
2 E(X)=
S4 (p 1
o
2
(x x 3
x-4
1 3 -gX )dx= 6-32 )
D2(X) = E(X2) - E2(X) = ~ _ 3.
4
.
-
64 256 _ 8 =6-32-3;
x=O
1: = ~.
r
a) Da die Dichte f symmetrisch zur Achse x = 0 ist, gilt 00
~=
00
S f(x)dx=c S e-pxdx=-~e-Px o
b)x:::;O
o
oo
=~ ~ c=~.
x=O
x
~ f(x)=~ePx ~ F (x)=~
SePudu=te Px ; -00
x>O -
~
x
F(X)=F(O)+S
o
~epUdu=!_E.!.e-pulu=x 2
2
2p
=t-t(e- PX -1)= 1-te- px .
u=O
179
6.1. Lösungen der Übungsaufgaben
Damit gilt
J 1.. ePx
F(x)
1
= ~ -t e- PX
ftir
X
ftir
X ~
::=:; 0,
o.
c) Aus der Symmetrie der Dichte zur Achse
X
=0 folgt aus der Existenz
00
des Integrals
Sx ~ e
Px
fiir den Erwartungswert E(X) = O.
o
Durch partielle Integration geht dieses Integral über in x=
I
00
x=o
+
00
IWnit gilt D2 (X) =
4.
~.
P a) Da die Seitenlänge des Quadrates gleich inhalt 2. Daraus folgt ftir die Dichte fex , y)
={
V2 ist, besitzt Q den Flächen-
1.. ftir (x, y) E Q, 02 sonst. ---_~1~---r~--7-------.x
+00
S
Wegen f 1 (x) =
fex, y) dy folgt ftir -1 ::=:; x::=:; 0 fiir die Dichte von X
-00
x+l
f1
(x) = S t du = t(x + 1)- t (- x-1) = ~ + t + ~ + t = 1 + -x-l
X
180
6. Anhang
und für 0 ::; x ::; 1
+x
-1
Damit gilt f 1 (x)
={
I +X
für - 1 ::; x ::; 0,
I-x
für
O::;x::;1
Entsprechend erhält man ftir die Dichte der Zufallsvariablen Y die Darstellung f 2 (y)
={
l+ Y
ftir - 1 ::; Y ::; 0,
l-y
ftir
O::;y::;l.
b) Wegen f 1 (x)· f 2 (y):$ fex, y) sind die beiden Zufallsvariablen nicht (stoch.) unabhängig. c) Aus f 1 (- x) = f 1 (x), f 2 (-y) = f2 (y) folgt E(X) = E(Y) = O. 1
D2(X)=E(X2)=2
1
Sx2(1-x)dx=2 S o
(X 2
-x 3 )dx=
o
Entsprechend erhält man D2(y)=~.
5.
Die Zufallsvariable X beschreibe die Anzahl der durch zufälliges Beantworten erzielten richtigen Antworten. X ist B(40; t)-verteilt mit E (X) = 40' t = 20 und D2 (X) = 40 ' t . t = 10. Wegen npq = 10 > 9 kann X durch eine Normalverteilung approximiert werden. Für die gesuchte Zahl k gilt die Bestimmungsgleichung P(X ;:0: k) = P(X ;:0: k - 0,5) = P
(X:;!o0
;:0:
k - ~- 20 ) =
= P (X* ;:0: k - 20,5) '" 1 _ (k - 20,5) ::; 0 05
v'IO
= (k~,5);:o: 0,95 .
v'IO'
181
6.1. Lösungen der Übungsaufgaben
Aus der Tabelle der N(O; I)-Verteilung folgt k -;,:;,52: 1,645 und hieraus V 10
k 2: 1,645 v'fO + 20,5 = 25,70 => k 2: 26. 6.
X beschreibe die Anzahl der unbrauchbaren Schrauben unter den 400 ausgewählten. X ist B(400; O,I)-verteilt mit E(X) = 400 · 0,1 = 40 und DZ(X) = 400· l~ . l~ = 36 > 9 => B(400; 0,1) ~ N(40; 36). P(30 < X < 50) = P (29,5 - 40 < X* < 50,5 - 40) ~ a) -6 6
~ C~5)
- ( - 160,5) = 2<1> C~5) -I = 2 <1>(1,75) -1 = 0,920.
b) P(X 2: 55) ~ 1- (54,56- 40) = 1- 7.
= 0,008.
X ist B(300; 0,05)-verteilt mit E(X) = 300·0,05 = 15, DZ(X) = 300·0,05·0,95 = 14,25> 9 => Approximation durch die N (15 ; 14,25)-Verteilung. P(X 2: 10)=P(X 2:
10-0,5)~ 1_(9~) v 14,25
= I-(~) v'14,25 8.
CiS)
=
=(~) =0,93. v'14,25
Xl beschreibe die Anzahl der Personen, die den 1. Zug besteigen,
X z beschreibe die Anzahl der Personen, die den 2. Zug besteigen. Dann gilt Xl + X z = 1000, d.h. X2 = 1000 - Xl. Beide Zufallsvariablen sind B(1000; })-verteilt mit E(Xj ) = 500; DZ(X j ) = 1000 · = 250 fur i = 1,2. k sei die gesuchte Mindestzahl. Dann lautet die Bedingung
t
P(X I :::; k, X z :::; k) 2: 0,99. Wegen (X z :::; k) = (1000 - Xl :::; k) = (Xl 2: 1000 - k). Daraus folgt P(1000 - k :::; XI :::; k) 2: 0,99; p(1000-k-0,5-500 <X*
y'25O
-
I _
y'25O
~ (k -499,5) _ ( _ k -499,5) = 2<1> (k - 499,5 \) _1> 0 99
y'25O
, y'250
=><1> (ky'25O - 499,5) > 0, 995·,
y'25O
- ,
k ; ' , 5 2: 2,58 => k> 541. 250
182
6. Anhang
t)-
Bemerkung: Obwohl beide Zufallsvariablen Xl und X 2 jeweils B(1000; verteilt sind, ist die Summe Xl + X 2 nicht binomialverteilt. Dies liegt an der (stoch.) Abhängigkeit von Xl und X2 • Die Summe Xl + X 2 ist diskret mit W(X I + X 2 ) = {l000}. 9.
147 -2 152 ~X * ~ 157 -2 152) =2<1> (5) a)P(147~X~157)=P ( 2 -1=0,9876 Die gesuchte Wahrscheinlichkeit lautet Pa = I - 0,9876 = 0,0124. b) P(151 ~ X ~ 153) = 2<1>(0,5) - 1=0,3830; ~ Pb = 1- 0,383 = 0,6170.
10.
X = XI + X2 ist näherungsweise N (70; 1,5)-verteilt.
~ X ~ 71) = P (69;;;0 ~ X* ~ 71 ;;;0)
a) P(69
y 1,5
y 1,5
""
""2<1>(~)-1 =0,58. b) P(X 11.
~ 68) = p(X* ~ 68;;;0) "" <1>( -~) = 1- <1>( ~) = 0,05. yl,5
yl,5
b) P(X > 55) = I-P(X < 55)= I-P
-
12.
yl,5
a) X = XI + X2 ist näherungsweise N(l4 + 36; 9 + 25) = N(50; 34)-verteilt.
-
(x* <- 55-50)"" 1_<1>(_5_)' =020. y'34 v'34'
M: "ein männlicher Student wird ausgewählt". F: "eine Studentin wird ausgewählt". P(M) = 0,8; P(F) = 0,2. a) P(130
~
X
~
150) = P(l30
~
X ~ I 50/M)P(M) +P(130
~
X ~ I 50/F)P(F) =
= [ (I SO ~ 5150 ) - ( 130 ;5 150 ) J 0,8 +
+ [
C50 ;0116 ) - (130 ;0116 ) JO,2 =
= 0,8 [<1>(0) - <1>(- i~)l + 0,2 [(~~) - (:~)] = 0,34. b) P(X > 130) = 1- P(X ~ 130) = = 1- P(X ~ 130/M)P(M) - P(X ~ 130/F)P(F) = = I - (130 - 150) 0 8 - (130 - 116) 0 2 = 074 15' 10" . Y beschreibe die Anzahl derjenigen unter den 100 ausgewählten Personen mit einem Gewicht über 130 Pfund. Y ist B(100; 0,74)-verteilt. Daraus folgt E(Y) = 100' 0,74 = 74.
6. 1. Lösungen der Übungsaufg.ben
13.
Aus peT n
:::;
0)
=0
183
=0
folgt f n (t)
fur t :::; 0 und alle n.
1. Fall n = 2: Es gilt T 2 = T + U, wobei T und U unabhängig sind, und beide dieselbe Dichte f besitzen. Für t > 0 folgt aus der Faltungsgieichung +
f2 (t)
00
S
=
f(u) f(t - u) du wegen f(u)
=0 fur
f(t - u)
fur u :::; 0 und
u:::: t, also fur t - u :::; O.
I
f 2 (t)
=0
I
= Sf(u)f(t-u)du = SXe-AuXe-A(I-u)du = o
o
X2
Se-Aue-AleAudu = o
I
=
I
X2
I
Se-Atdu = X e- AI Sdu = X te- AI . 2
2
o
0
2. Fall n = 3: Aus T 3 = T2 + T folgt rür t > O. I
f 3 (t) =
I
Sf (u)f(t - u)du SX ue- Au Xe- A(I-u)du = =
2
o
2
0 I
=
X3
Sue-Aue-AleAudu
I
=
X3 e- AI
o
Su du = X
3 .
te-AI.
0
3. Fall n = 4: T4 = T 3 + T I
f4 (t) =
I
Sf (u)f(t-u)du =X · t Su e- Au e- A(I-u)du = 4
3
2
o
0 I
= X4 • te-AI
Su du = X 2
4 .
te-At.
o Allgemein zeigt man leicht durch vollständige Induktion über n fur t > 0 die Identität f n + I (t)
=An + I .
tn!n e- At f ür n
=0 , 1, 2,. . .
.
184
6. Anhang
Übungsaufgaben aus Abschnitt 2.6.3
1.
f
Da die Länge einer Grün-Rot-Phase Minuten beträgt, ist die Ankunftszeit des Fahrzeugs an der Kreuzung im Intervall [0; gleichmäßig verteilt mit der Dichte f(t) = t ftir 0 ~ t ~ f(t) = 0 sonst.
f(t)
t
fl
f,
~I
--------------
I
I
t
grün
.. t
I
t
-v----' ' - - - v - - - - '
rot
a) Die Wartezeit ist genau dann gleich 0, wenn das Fahrzeug während der Grün-Phase an die Kreuzung heranfährt. Daher gilt peT = 0) =
l.
b) Für die Zufallsvariable T der Wartezeit gilt 0 ~ T ::; 1. Ihre Verteilungsfunktion F besitzt die Werte F(t) = 0 ftir t
< 0, t
F(O)=L F(t)=P(T::;t)=P(T=O)+ StdU=t+ttftirO::;t::;1
o und F(t) = 1 ftir t ~ 1. F(t)
1
2" 1
3'
1
E(T) = 1.. 0+ 3
St . ~ dt = 13
3'
o 1
E(T 2 )
= t· 0 +
St2. t dt =}
=?
D 2 (T) =
t;
a=
l·
o c) F(jl)=t+til=t;
til=t;
J1 =t·
il ist eindeutig, da F an der Stelle x wachsend ist.
=t
stetig und dort streng monoton
185
6.1. Lösungen der Übungsaufgaben
2.
a)
P(T>3)=I - P(T~3)=I -
3
I
I
t=3
S~e-2tdt=I+e-2t I
o = 1 + e-I,s - 1 = e-I,S = 0,2231.
t=o
b) peT = 3) = e-I,S = 0,2231. Es gilt T = min (T, 3). F(t) = peT ~ t), I
t~O~F(t)=O,
--t
0~t<3 ~ F(t)=P(T~t)=I - e 2; F(t)=Iftirt~3.
F besitzt an der Stelle 3 einen Sprung der Höhe e-I,s. Partielle Integration liefert E(T) =
f~ t
e- -4 t dt + 3' peT = 3)
o u7
S
I t=3 3 I =_te- 2t + e- 2t dt+3' e-I ,s = t= 0 0
I
I
--t
=-3e- I,S- 2e2
t=3
1
_
+3'e-1,5-
1=0
=-3e- l ,s -2(e- l ,s -I)+3e- l ,s =2(1-e- l ,s)= 1,5537. _ E(T) 2(1-e- l ,s) c) E(T) = 2 = 1- e 1,5 = 0,7769. 3.
a) Ii = 4 (eindeutig bestimmt). b) Jede Zahl x mit 1 ~ x ~ 3 ist xo,rQuantil.
Obungsaufgaben aus Abschnitt 3.4
1.
Aus der Tschebyscheffschen Ungleichung folgt P(IX - 1001 ~ 20) ~ :o~ = 0,225.
2.
1
1
o
7
Wegen P(X
~
I 1'= 10
I
1- - -
12 13
13) = 0 gilt nach der Tschebyscheffschen Ungleichung
P(X ~ 7) =P(X ~ 7) + P(X
~ 13) =P(IX-lOl ~ 3) ~ 0 9 45 =0,05.
186
3.
6. Anhang
L
L
_ 1 n 1 n 1 E(X j ) =;;: /J. =;;:. n/J. = /J.. a) E(X) =;;:
=1
j
j
=1
1 ~ 1 02 9 3 If(X)=- \ ' D 2(X.)=-n0 2 =-=- ~ D(X)=-. n 2 .~ I n2 n n . In 1;::;
1
VJl
b) Nach dem zentralen Grenzwertsatz gilt
pr" - 01 < I}'
,
X<
-
-
"-01-" X-tl <,..."+01-") + 01) = p'" , ,.. < --,.. , ,... = ( /J., 3/v'n - 3/v'n 3/vIn
°3 1 vn ~ X* ~ °3 1 vIn) "" 2 (°31 v'n) - 1 ; ~2<1> (°3 1v'n) ~ 1,95; (°3 1 v'n) ~ 0,975; °3 1 v'n ~ 1,96; n ~ 3458. = p (-
4.
Die Zufallsvariable Sn der notwendigen Würfe ist B(n; t)-verteilt mit E(Sn)=i; D2(Sn)=~' E(Sn)=1.. n 2'
D2(Sn)=!! . .L=.L n 4 n 2 4n'
Nach dem zentralen Grenzwertsatz gilt ftir jedes f P(O 5 ,
°,
< Sn <
°
5 + f) = p (0,5 - f - 0,5 < (' Sn) * < 0,5 + f - 0,5) ""
n -
f -
>
I/Fn
-
n
-
I/Fn
"" 2<1>(2 fvn) - 1. a) 2<1> (2 ' O,OI'vn) - 1 ~ 0,95 ~ 2· 0,01 vn ~ 1,96 ~ n ~ 9604. b) 2<1>(2, 0,001 vn) - 1 ~ 0,95 ~ 2· 0,001 v'n ~ 1,96 ~ n ~ 960400. 5.
E ( X j ) -- 1 .
4 20
+3.
5 20
io
+6.
8 20
E(Xl) = I . 2~ + 9 . + 36 . D2 (X j ) = 35 - 52 = 10.
3
100
+ 11 . 20 = 20 = 5;
280
+ 121 . {O = ~~O = 35;
E(SIOOO) = 5000; D2 (SIOOO) = 10000; D(SIOOO) = 100. Nach dem zentralen Grenzwertsatz gilt P(4820<S -
<5180)=p(4820-5000<S* <5180-5000)' "" 100 - 1000 100
1000 -
"" 2<1>(1,8) -1 = 0,93.
187
6.1. Lösungen der Übungsaufgaben
6.
Xi: Lebensdauer des i-ten Maschinenteils. n
E(X i)=5Q; D2 (X i) =900; Sn = LXi; E(Sn)=50n; i= 1
D2 (Sn) = 900 n. n soll minimal sein mit
P(Sn 2': 5000) 2': 0,95. Nach dem zentralen Grenzwertsatz gilt (Sn - SO n 5000 - SO n ) 2': 30 y ' n - ~ P(Sn 2': 5000) = P \ 30 y'n
~ 1-
(5000 - SO 30y'n
n) = (SO n - 5000 ) 2': 0,95;
=> 50 n - 5000 > 1,645. 30y'n 50 n - 5000 2': 49,35 y'ni n - 100 2': 0,987 y'n; n2
-
200 n + 100002': 0,974 n;
x2
-
200,974
X
=-
10000;
100,487 ± 9,88; =>n2':lll. XI,2 =
30y'n
188
6. Anhang
6.2. Tafel der Verteilungsfunktion
=1 -
z
z
(z)
z
(z)
z
(z)
z
(z)
0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09 0,10 0,11 0,12 0,13 0,14 0,15 0,16 0,17 0,18 0,19 0,20 0,21 0,22 0,23 0,24 0,25 0,26 0,27 0,28 0,29 0,30 0,31 0,32 0,33 0,34 0,35 0,36 0,37 0,38 0,39 040
0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517 06554
0,41 0,42 0,43 0,44 0,45 0,46 0,47 0,48 0,49 0,50 0,51 0,52 0,53 0,54 0,55 0,56 0,57 0,58 0,59 0,60 0,61 0,62 0,63 0,64 0,65 0,66 0,67 0,68 0,69 0,70 0,71 0,72 0,73 0,74 0,75 0,76 0,77 0,78 0,79 080
0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 o~ 7190 0,7224 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852 0788 1
0,81 0,82 0,83 0,84 0,85 0,86 0,87 0,88 0,89 0,90 0,91 0,92 0,93 0,94 0,95 0,96 0,97 0,98 0,99 1,00 1,01 1,02 1,03 1,04 1,05 1,06 1,07 1,08 1,09 1,10 1,11 1,12 1,13 1,14 1,15 1,16 1,17 1,18 1,19 12O
0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830 08849
1,21 1,22 1,23 1,24 1,25 1,26 1,27 1,28 1,29 1,30 1,31 1,32 1,33 1,34 1,35 1,36 1,37 1,38 1,39 1,40 1,41 1,42 1,43 1,44 1,45 1,46 1,47 1,48 1,49 1,50 1,51 1,52 1,53 1,54 1,55 1,56 1,57 1,58 1,59 160
0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441 09452
z
<11 (z)
z
z
z
<11 (z)
1,61 1,62 1,63 1,64 1,65 1,66 1,67 1,68 1,69 1,70 1,71 1,72 1,73 1,74 1,75 1,76 1,77 1,78 1,79 1,80 1,81 1,82 1,83 1,84 1,85 1,86 1,87 1,88 1,89 1,90 1,91 1,92 1,93 1,94 1,95 1,96 1,97 1,98 1,99 2,00 2,01 2,02 2,03 2,04 2,05 2,06 2,07 2,08 2,09 2,10 2,11 2,12 2,13 2,14
0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817 0,9821 0,9826 0,9830 0,9834 0,9838
2,15 2,16 2,17 2,18 2,19 2,20 2,21 2,22 2,23 2,24 2,25 2,26 2,27 2,28 2,29 2,30 2,31 2,32 2,33 2,34 2,35 2,36 2,37 2,38 2,39 2,40 2,41 2,42 2,43 2,44 2,45 2,46 2,47 2,48 2,49 2,50 2,51 2,52 2,53 2,54 2,55 2,56 2,57 2,58 2,59 2,60 2,61 2,62 2,63 2,64 2,65 2,66 2,67 2,68
0,9842 0,9846 0,9850 0,9854 0,9857 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916 {l,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963
2,69 2,70 2,71 2,72 2,73 2,74 2,752,76 2,77 2,78 2,79 2,80 2,81 2,82 2,83 2,84 2,85 2,86 2,87 2,88 2,89 2,90 2,91 2,92 2,93 2,94 2,95 2,96 2,97 2,98 2,99 3,00 3,01 3,02 3,03 3,04 3,05 3,06 3,07 3,08 3,09 3,10 3,11 3,12 3,13 3,14 3,15 3,16 3,17 3,18 3,19 3,20 3,21 3,22
0,9964 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993 0,9993 0,9993 0,9994
3,23 3,24 3,25 3,26 3,27 3,28 3,29 3,30 3,31 3,32 3,33 3,34 3,35 3,36 3,37 3,38 3,39 3,40 3,41 3,42 3,43 3,44 3,45 3,46 3,47 3,48 3,49 3,50 3,51 3,52 3,53 3,54 3,55 3,56 3,57 3,58 3,59 3,60 3,61 3,62
0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9999
189
Wichtige Bezeichnungen und Formeln absolut..:
h,,(A);
lI.ii.ufi ~kcit
tl
eines Ereisni.us
Versuch.u mfang ; 0 ~ h,,(A)
cdal.; v<: lIäufi&k;.cil eines
h,,(A)
r,,(A) = -,, -;
:S n
E~eignisse.
o:S f,,{A) :S
1
W ..... nochcinlicl.kcil eines Ereigni....,.
P(Al mit o:S P(A):S 1; P(O)
=1; P(AuB) = P(Al + PIß) für AnS = 0;
Laplace- Wahnchei nlichkcit
P( A) =
X;;;;;r.r:i;;:'
falls aUe Versuchsergebniss.e gleich wahrsche inli ch I~o nndn
der Kombinat.orik
Anzahl der Auswahlmögli chkcitcn VOn k ,,,u n veuchi.,.)<:Il <:1l D ingen
ohne Wi ederholung
mit Berücksichtig ung
o h ne Berücksichtigung
der Reihenfolge
der Reihenfolge
n ' (11-1) ', . . " (n-k+l)
(ohne Zurücklegen )
(k)
,,'
mit Wiederholung
(mit Zurücklegen) U rncnrnoddlc
Urne mit N Kugeln, 1\1 davon schwan; zur"Uige Auswahl von n Kugeln;
A : k der n gezogenen Kugeln sind SChWal"L k
( M).(N-M) k k n-
Pk
bei m Ziehen olm e Wiederho lung (Zuriiddegen)
*)
= P(A k ) =( ~ ).( ~ )k . (I _
n-k beim Ziehen mit Wiederholung
bedingte Wahnchcinlichkcit
P(A I S)
Pl AnS)
=
!'(B)
für P (B)
>0
Multiplikatio ......... tz P(A nB) = !'IA I B)' P(B) Satz von der t o tale" (vollstiindigcn) Wahnchcinlichh.it !'(B)
=
o
L
i",,1
mit P(A i )
P(B I Ai)' !'(A i );
>0
für .. l1e i
Al' A 2 , .. ·• An vollständige Ereignisdi . junktion
Baycssche Formcl P(B I Ak )' P(A k ) P(Akl B) = n für k=I,:2, ... , n; P(B) > 0 P(BIA.)·P(A.) i=1 ' I AL' A:2" . " An volbt&ndig~ Ereignisdisjunktion mit P(A i) > 0 für
1'1
I:
all~
;
unabh.i.n«ige ~rcipu..e A. S sind (stochast isch) unabhängig, ralls P(A n B) = P(A)· PIS) Vcrtcilu.ng
.,in.,.. d iskret en Zufallow&ri&blen
(xi' Pi)' ;=1,2...
E Pi=1
mit Pi = P(X=xi)·
V.,rteiluogllfuobion ci ner d iskret en Zufallov&ri&blen F(x)=P(X:S: x) =
E
i : Xi
:5 x
P( X =xi); xER
Mod.a.I.ert (Mod Wl) euu,r diok...,ten Zufal1avariablen
=
XM mit P(X
KM) =
mr: P(X = Xi) (wahl"5Ch~inlichSL~r W~rt)
E.... artunt;" ..erl ein.,.. d iskret en ZufaJl8>'&riahlen jJ=E(X)= 4~x., · P(X-:= x ,.). fall. 4~lx·l·p(x=x.)
,
,
V&riarur. ei ner disk...,ten ZufaUsvariablen 2 17:2 = VarIX) = E«(X -1~)2) = ~ (xi-I,)2. P(X = Xi) = E(X ) - [E(X))2
,
S L..... d&rdab . eichung einer
diskr~t~n
Zufall.variablen
gemcillllalJIe Verteil u.ng 'Zweier diskret er ZufaUsvari..bler X Wld V ((X j,Y),Pij=P(X=x,'V=Yj»),XiE WX'YjE Wy urnobhängige diskrete Zufallsv&riablcn P(X = xi' Y = Yj) = P(X '" xi)· P(Y = Yj) für alle Xi und Yj E(X . Y) = E(X) · E(Y); VarIX V) = VarIX) Var(Y)
+
Dichte einer fIx) mi t fIx)
+
Zufallsv ..ri ..blen +00 0 für aUe x E R und f(x)dx = I
st~t ig~n
2:
I
b
- 00
P( .. :s: x:s: b) = Ir(x)dx, .. :S: b
•
Verteilungllfunklion eiMr .tetigen Zufall.vari..blen Fmit F( x)= P(X :S:x) =
•
I f(u)du fürjw~s xE R
- 00
P( .. :s: X :s: b) = F(b) - F(.. ) , .. :s: b Erwartungll. ert einer stetigen Zufall. v..ri .. blen +00 +00 jJ = E(X)= x·f(x}dx, fall. Ixl · f(x)d x
I
V&ri ....... einer
5tetig~n
I
Zufallsvari..blen +00
17:2 = V..r(X) = E((X _ jJ)2) =
I
- 00
(x - jJ)2 . f( x)dlC = E(X:2) _ [E(X))2
192 StandardabweichlUll!:
~iner
stdigen Zufa.llsv""ablen
= + ~ = ~VllT(X)
u
all&emeine EiJl:enachaft..... eine. Enr&rtunpwertal
E(a + bX)
= .. + b· E{X),
&,
bE
R,
E(X
+ Y)= E(X) + E(Y)
Kovarianz zweier Zufa.l.lsv",iabler
Cov(X. Y) = O"XY = E[(X-PX)(Y-/-l y )] = E(X' Y) - E(X)' 8(Y) KondalioWlkoeßi..ient zweier Zufallsv""i ..bler
Cov(X, Y) O"XY Y)--P -p(X , - ~V""'(X). Var(Y) - 17X . l!y
Ipl:5 l,al&O - 1::5
P:5
1;
Ipl =
1 {:} alle WertepaAr.. liegen &ufeinerGeraden
aJ&emeine Eill:enacha!kD eine.- Variamt;
V,.,.(a+bX)=b 2 .Var(X) für",b eR; VariX
+ Y) = VariX) + Va:r(Y). f"U. X und Y unabhängig bzw. unkorreliert sind
Slandardisierte (St ....dardiai~) einer bel iehigen Zufallsvaria.blen X -1-1 2 =er-, /J = E(X), = VariX); 2 E(X") =0; VarIX " ) = E(X · ) = 1
X
•
(J
Mc:di .... (Zentralwert ) eine r beliebigen Zufallsvariablen
-Il
mit P(X
->' :51-') _ '2 und P(X >->' _ jJ)-1
gleichwertig: P(X
< ~jJ) :5 '11
und P(X
'" > 11) :5 2I
Q11lUItil eine r beliebigen Zuf"lI.v"riabl~n eqi.t q-QU&IItii oder 100 q %-QU&IItii vOn X, w~nn gil~
p(Xs:eq);?q und P(X;::€q)?:l-q gl~ichwwig: P(X < €q) s: q und P(X
TKhebyKhellKhe
fürO
> e q)
s: I - q fiir 0 < q < I
Un&leichu~
V..... (X)
p(IX-I'I;:: a)s:----:z- fiirj ed~.a >O; I'=E(X) k_aipna Rqd
•
P(lX-I'I;::kq)S:~ riirj~de. k>O; I'=E{X)
Literaturverzeichnis Basler,o. [1994]: Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistischen Methodenlehre, I!. Auflage. Physika-Verlag, Heidelberg Behnen, K.; Neubaus, G. [1995]: Grundkurs Stochastik, 3. Auflage. Teuhner Verlag, Stuttgart Bauer, 0. [2002]: Wahrscheinlichkeitstheorie, 5. Auflage. Verlag de Gruyter, Berlin
Boseh, K. [2011]: Statistik für Nichtstatistiker, 6. Auflage. Oldenbourg Verlag, München Boseh, K. [2003]: Formelsamm1ung Statistik. Oldenbourg Verlag, München Boseh, K. [2002]: Übungs- und Arbeitsbuch Statistik. Oldenbourg Verlag. München Boseh, K. [2002]: Statistik - Waheheit und Lüge. Oldenbourg Verlag, München Boseh, K. [2010]: Elementare Einführung in die Statistik. 9. Auflage. Vieweg+Teohner Verlag Wiesbaden Boseh, K. [2000]: Glücksspiele - Chancen und Risiken. Oldenbourg Verlag, München Boseh, K. [1999]: Lotto und andere Zuflille. Wie man die Gewinnquoten erhöht, 2. Auflage. Oldenbourg Verlag, München Boseh, K. [2004]: Das Lottobuch. Oldenbourg Verlag, München Boseh, K. [1998]: Statistik-Taschenbuch, 3. Auflage. Oldenbourg Verlag, München Boseh, K. [1997]: Lexikon der Statistik. Oldenbourg Verlag, München Boseh, K. [1996]: Großes Lehrbuch der Statistik. Oldenbourg Verlag, München Boseh, K. [1994]: Klausurtraining Statistik. Oldenbourg Verlag München Feiler, W. [1970]: An Introduction to Probability Theorie and Ist Applications Vol. 1,3'" edition. Wiley, New York Fisz, M. [1989]: Wahrscheinlichkeitsrechnung und mathematische Statistik. I!. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin GiiDssler, P.; Stute, W. [1977]: Wahrscheinlichkeitstheorie. Springer Verlag, Berlin, Heidelberg, New York Gnedenko, J. [1997]: Lehrbuch der Wahrscheinlichkeitsrechnung, 10. Auflage. Akademie-Verlag, Berlin Hartung, J. H.; Elpelt, B. [1999]: Multivatiate Statistik, 6. Auflage. Oldenbourg Verlag, München Hartung, J. 0.; E1pe1t, B.; K1öser, H. 0. [2005]: Statistik, Lehr- und Handbuch der angewandten Statistik. 14. Auflage. Oldenbourg Verlag, München Benze, N. [2010]: Stochastik für Einsteiger, 8. Aufl.Vieweg+Teuhner Verlag,Wiesb. Hinderer, K. [1985]: Grundbegriffe der Wahrscheinlichkeitstheorie, 3. Auflage. Springer Verlag, Ber\in, Heidelberg, New York Besse, Ch. [2009]: Angewandte Wahrscheinlichkeitstheorie, 2. Auflage. Vieweg+Teuhner Verlag, Wiesbaden K. Bosch, Elementare Einführung in die Wahrscheinlichkeitsrechnung, DOI 10.1007/978-3-8348-8331-5, © Vieweg+ Teubner Verlag | Springer Fachmedien Wiesbaden GmbH 2011
194 Irle, A. [2005]: Wahrscheinlichkeitstheorie und Statistik, Grundlagen - Resultate, 2. Aullage. Teubner Verlag, Wiesbaden Krämer, W. [1998]: So lügt man mit Statistik, 8. Aullage. Campus Verlag, Frankfurt, New York Krengel, U. [2005]: Einführung in die Wahrscheinlichkeitstheorie und Statistik, 8. Aullage. Vieweg Verlag, Wiesbaden Kreyszik, E. [1991]: Statistische Methoden und ihre Anwendungen, 7. Aullage. Vandenhoeck & Rupprecht-Verlag, Göttingen Krickeherg, K.; Zlezold, H. [1995]: Stochastische Methoden, 4. Auflage. Springer Verlag, Berlin, Heidelberg, New York Morgenstern, D. [1968]: Einführung in die Wahrscheinlichkeitstheorie und mathematische Statistik. Springer Verlag, Berlin, Heidelberg, New York Pfanzag1, J. [1983]: Allgemeine Methodenlehre der Statistik I: Elementare Methoden, 6. Aullage, und [1978] 11: Höhere Methoden, 5. Aullage. Verlag de Gruyter, Berlin, New York Pfanzag1, J. [1991]: Elementare Wahrscheinlichkeitsrechnung, 2. Auflage. Verlag de Gruyter, Berlin R&lyl, A. [1971]: Wahrscheinlichkeitsrechnung, 3. Aullage. VEB Deutscher Verlag der Wissenschaften, Berlin Sachs, L. [2002]: Statistische Auswertungsmethoden, 10. Aullage. Springer Verlag, Berlin, Heidelberg, New York Schmetterer, L. [1966]: Einführung in die mathematische Statistik, 2. Aullage. Springer Verlage, Berlin, Heidelberg, New York Storm, R. [2001]: Wahrscheinlichkeitsrechnung, mathematische Statistik und statistische Qualitätskontrolle, 11. Auflage. Teubner, Wiesbaden Witting, H. [1985]: Mathematische Statistik I: Parametrische Verfahren bei festem Stichprobennmfaog. Teubner Verlag, Stuttgart Witting, H. [1978]: Mathematische Statistik, 3. Aullage. Teubner Verlag, Stuttgart Witting, H.; Nöße, G. [1970]: Angewaodte mathematische Statistik: Optimale finite u. asymptotische Verfahren. Teuhner Verlag, Stuttgart
6.5. Namens- und Sachregister
.bhängige Ereignisse 34 ab~ählbar unendlich 12.57 Axiome der Wahrscheintichl<eitsrcchnung 9 f Bayessche Fonnel 43 bedingte Wahrscheinlich keit 30 ff Bernoulli·Experiment 36 Bernoullisches Gesetz der großen Zahlen 48.
'50
Binomialkoeffizienten 17 Binomialverteilung 37 f, 86 - , erzeugende Funktion 89 Buffon, Nadclproblem von 28 Cauchy -Verteilung 156 Chi·Quadrat -Vcrtcilung ISS Dichte einer stetigen Zufalisvariablcn 100 - ,I(",neinsame 114 E1cmcntareretgnis 3, 1 I Ereignisse I - , abhängige J4 - . Differenz 2 - , diljunkle 2 _ , entgcgengeset~te 2 - , Durchschnitt 2 - , Indikator 66 - , kumplementäre 2 - , siche. e I _ , Summe 2 unabllängige 32 ff unmögliche 1 unverdnb.r. 2. 10 - , paarweise 10,34 - , zufallige I E.eignisdisjunktion, vollständige 42 Erwartungswert einer di>krclen Zufallsva. iablen 61 fT - - sletigen lufallsvariablcn IQ4 ff _ _ allgemeinen Zufallsva.-iabJen 144 f crtcugeno.le Fun k tion 80 f E"por.cntialve,teUung 138 ff
Gauß.che Glocken kurve 132 Geburtstagspmblem 20 geometrische VCllcilung 40 f, 82 geomeuische Wahrscheinlichkeit 25 rr gJeichmiißig verteilte lufallsvari.blc 128 Glücbspirale 19 Gonel 15S lläufigkeit eines Ereignisses, abwlutc 6 ff - - - , relative 6 fr Ildmcrt 155 hypcrgeomeuisehe Verteilung 83 In d ikator 66 KOlmogomff 8 Kombin atorik 15 Kovari.n>- 79 laplace-E"pe,iment 12 r l..cbcsgue-Stiltjcs-Inlegral 145 lindeberg·Bedingung 152 Median 147 v. Mises 7 de ),ioivre-laplace, lokaler Grentwe,tSllt,. von 131 de Morga n~he Regeln 4 r Mulliphkationss.at~ 31 Nadelprol>lem von Buffon 28 normalve,teiltc lufallSliariable N(O ; lj verteilte 133 N(,,;,,'j·ve.teilte 135 P.arwn 155 Permutation I S POi§SQn·Verteilung 93 - , erzeugende F unktion 94 Polynomialve, teilung 39f Quan l il 147
F .Verteilung I S6 Fakultät 15 Fimer -Verteilung 156
74 Ra nddichten 117 f
Randver\e~ungen
196 SChW'CMSGc5eU der .... o~ ühlen 151 Standardabweichung einer diskreten ZufallS" variablen 70 _ _ nctigen ZufaUsvariablen 104 ff Standardisierung 7 . St,euulIi. $. St."dardabweicllu!li SludentJoChe ,-Verteilu", ISS symmelr>scl\e Dichte 112 _ Velle~ung 51
!·Ve,ldlurc ISS TtchebY5CheffK he Ungleichung 149 Unabhängigkeit vOn F.rciMn iuen 32 ff _ von ZuhUsvariablen 74,78.118 U,ncnmoddl l 22 U,nenmod.1I1I 24 Varianz ein., diskreten l"f.lb""riablen 10 __ stel.en Zufallsvariablen 104 ff _ _ angemeinen Zuhllsvlri.blcn 145 Verdoppelung!!t.al.gi. 64
6 .5. Namen ... und Sod"eai....
Verteil,,", 51 f _, Icmeinsame 74.113f volIslärnll,e Wahrschein lichkeit. Sa!z ube.
die 42 Ventilunllfunktion 58, 100. 144 - . zweidimensionale 114 WahrSChe inlichke it 8
_ , UM)mui~e 8 - , bedingte JO ff - . leome u ische 25 ff - , klassiSChe 13 -. Satz über die vol1stiindige 42 Wertevorrat eine r Zur.lIsvariablcn 56 ZahlenlottQ 23 zcnt rJIcrGrenl.....,r t .. t~ 152 Z"r.I1Rxpt rime nt 1 z..faUw,udble 55 f • d isk rete 57.72 rr - . s teliae 100. 114 _ . un~bhän&ig. 74.78. 118