l-^. Fiir n —> oo geht G^ITK? gegen null. Daraus folgt die Behauptung. 7.4.4
MaBzahlen fiir Schiefe und Wolbung
Mafizahlen fiir die Schiefe von Verteilungen lassen sich in Analogie zu Kennzahlen fiir empirische Verteilungen definieren. Der p-Quantilskoeffizient nutzt die Beziehung zwischen Median und Quantilen.
2>Quantilskoeffizient der Schiefe
\X\—p
7p
^med) X\—.p
yarned Xp
70.25 heifit Quartilskoeffizient der Schiefe.
^p)
0 < p < 1,
7.5
331
Zusammenfassung und Bemerkungen
Es gilt —1 < 7P < 1 und 7p = 0 fiir symmetrische Verteilungen, 7p > 0 fiir linkssteile Verteilungen, 7p < 0 fiir rechtssteile Verteilungen. Ein weiterer Schiefeparameter ist der Momentenkoeffizient der Schiefe ^m —
E{X - t^f
mit fi = E{X), a'^ = Var{X), Wegen der dritten Potenz wird 7 ^ positiv, wenn die x-Werte iiberwiegen, die grofier als fi sind. Dies ist bei linkssteilen Verteilungen der Fall. Bei symmetrischen Verteilungen heben sich positive und negative Abweichungen gerade auf. Also gilt 7m = 0 fiir symmetrische Verteilungen, 7rn > 0 fiir linkssteile Verteilungen, 7m < 0 fiir rechtssteile Verteilungen . Beispiel 7.3
Rechtssteile Verteilung
Im Beispiel 6.10 (Seite 292) ist XQ.TS = VO.75, xo.25 = VO.25. Daraus folgt 70.25
{VoJE - Vo^) - {Vol - \/o:25) = -0.13. VoTrE-y/o^
Der negative Quartilskoeffizient indiziert also eine rechtssteile Verteilung.
7.5
D
Zusammenfassung und Bemerkungen
Die in Abschnitt 7.1.1 formuHerten Gesetze grofier Zahlen sind von grundlegender Bedeutung fiir die induktive Statistik: Falls man Daten x i , . . . , x ^ so erhebt, dafi sie sich als Ergebnisse von n unabhdngigen Wiederholungen der interessierenden Zufallsvariable X interpretieren lassen, dann konvergieren fiir n —^ 00 empirische Verteilungen und Parameter gegen die Verteilung von X und entsprechende Verteilungsparameter. Fiir Zufallsstichproben, wie sie in den spateren Kapiteln
7. Mehr uber Zufallsvariablen und Verteilungen
332
zur induktiven Statistik zugrunde gelegt werden, ist diese Voraussetzung zumindest naherungsweise erfiillt. Dann lassen sich die Verteilungen bzw. Parameter von X durch die empirischen Analoga sinnvoU schatzen. Ebenso grundlegend ist der zentrale Grenzwertsatz: Er rechtfertigt die Annahme einer - zumindest approximativen - Normalverteilung fiir Zufallsvariablen, die sich additiv aus vielen zufalligen Einfliissen ahnlicher Grofienordnung erklaren lassen, und - noch wichtiger - Normalverteilungsapproximationen fiir eine Reihe von Schatz- und Teststatistiken der induktiven Statistik, Beweise dieser Grenzwertsatze und Verallgemeinerungen finden sich in Lehrbiichern zur Wahrscheinlichkeitstheorie und mathematischen Statistik, z.B. Fisz (1989). Zufallszahlen sind Basisbausteine fiir moderne, computerintensive Simulationstechniken. Sie konnen aber auch (wie in Abschnitt*7.3) zur empirischen Uberpriifung oder zur Gewinnung von theoretischen Resultaten der Statistik dienen. Umfasssende Darstellungen zur Erzeugung von Zufallszahlen finden sich bei Ripley (1987) und Devroye (1986).
7.6
Aufgaben
Aufgabe 7.1
Die Studie zum Gesundheitszustand von Friihgeburten aus Aufgabe 6.S wurde an mehreren Kliniken durchgeftihrt, so dafi insgesamt 500 Kinder teilgenommen haben. Welche Verteilung besitzt die Anzahl der Kinder, die weniger als 980 g wiegen? Wie grofi ist die Wahrscheinlichkeit, dafi genau 175 Kinder der Studie ein Geburtsgewicht kleiner als 980 g aufweisen?
Aufgabe 7.2
In der Situation von Aufgabe 5.10 befragt der Journalist zufallig fiinf der 200 Angestellten eines Kaufhauses. Wie lauten annahernd die gesuchten Wahrscheinlichkeiten, wenn der Anteil der Angestellten, die bereit sind, langer zu arbeiten, wieder gleich 0.2 ist? Welche approximative Verteilung hat die interessierende Zufallsvariable ferner, wenn 40 Personen der ganzen Warenhauskette mit 1000 angestellten Verkauferinnen befragt wiirden?
Aufgabe 7.3
Ihr kleiner Neffe bastelt eine 50-teilige Kette, deren einzelne Glieder im Mittel eine Lange von 2 cm mit einer Standardabweichung von 0.2 cm aufweisen. Welche Verteilung hat die Gesamtlange der Spielzeugkette?
Aufgabe 7.4
Die Nettomiete von Zwei-Zimmer-Wohnungen eines Stadtteils sei annahernd symmetrisch verteilt mit Erwartungswert 570 und Standardabweichung 70. Es wird eine Zufallsstichprobe von 60 solcher Wohnungen gezogen. Geben Sie mit Hilfe der Ungleichung von Tschebyscheff ein um den Erwartungswert symmetrisches Intervall an, in dem das Stichprobenmittel mit 95 % Wahrscheinlichkeit liegt.
7.6
Aufgaben
333
Eine Fertigungslinie stellt Fufiballe her, deren Durchmesser im Mittel normgerecht ist, aber eine Standardabweichung von 0.4 cm aufweisen. Balle die mehr als 0.5 cm von der Norm abweichen gelten als Ausschufi. Wie groB ist der Auschufianteil hochstens?
Aufgabe 7.5
Wie kann man mit Hilfe von normalverteilten Zufallszahlen t-verteilte Zufallszahlen simulieren?
Aufgabe 7.6
Bestimmen Sie den Quartilskoeffizienten der geometrischen Verteilung mit TT = 0.5 sowie der Exponentialverteilung mit dem Parameter A = 0.5.
Aufgabe 7.7
8 Mehrdimensionale Zufallsvariablen
Bei der Durchfiihrung von Zufallsexperimenten interessiert man sich haufig nicht nur fiir ein einziges Merkmal allein, sondern fiir zwei oder mehrere Variablen, die fiir dieselben Untersuchungseinheiten erfafit werden. Es ist dann notwendig, die gemeinsame Verteilung dieser Merkmale zu betrachten. Im folgenden wird zuerst das Konzept mehrdimensionaler Zufallsvariablen eingefiihrt und anschliefiend der zweidimensionale Fall fiir diskrete und stetige Zufallsvariablen eingehender betrachtet. Ein wesentlicher Abschnitt gilt der Kovarianz und der Korrelation als Verteilungsparametern, die den Zusammenhang zwischen je zwei Zufallsvariablen charakterisieren.
8.1
BegrifF mehrdimensionaler Zufallsvariablen
Eindimensionale Zufallsvariablen erhalt man, indem man die Auspragungen von Merkmalen als Ergebnisse eines Zufallsvorgangs auffafit. Mehrdimensionale Zufallsvariablen ergeben sich dadurch, dafi anstatt eines Merkmals, d.h. einer Zufallsvariable, mehrere betrachtet werden. Den Ergebnissen des Zufallsvorgangs werden demnach mindestens zwei reelle Zahlen zugeordnet. Einige typische Beispiele soUen dies veranschaulichen. Mietspiegel
Bei der Erstellung eines Mietspiegels ist man an mehreren Merkmalen wie beipielsweise Nettomiete, Wohnflache und Zimmerzahl interessiert. Jede Wohnung weist fiir diese Merkmale bestimmte Auspragungen auf. Die Merkmale lassen sich als Abbildungen verstehen, die jeder Wohnung die ihr entsprechende Nettomiete, Wohnflache und Zimmerzahl zuordnet. Wahlt man nun eine der Wohnungen rein zufallig aus, so ist die Wahrscheinlichkeit, mit der bestimmte Auspragungen des Tupels (Nettomiete, Wohnflache, Zimmerzahl) resultieren, bestimmt durch die in der jeweihgen Stadt vorhegenden Wohnverhaltnisse. D
Beispiel 8.1
8. Mehrdimensionale Zufallsvariablen
336
Beispiel 8.2
Roulette
Die Felder des Roulettes tragen die Zahlen 0,1 bis 36. Geht man von einem idealen Kessel aus, wird jedes Feld mit der Wahrscheinlichkeit 1/37 auftreten. Setzt man nicht auf Zahlen, sondern auf das Merkmal "Farbe" (also rot oder schwarz) bzw. auf den "Zahlentyp" (gerade oder ungerade) fokussiert sich das Interesse nur auf das Ergebnis dieser beiden Merkmale. Man betrachtet somit die Zufallsvariablen Farbe rote Zahl schwarze Zahl Zero
X
und Typ 1 gerade Zahl 2 ungerade Zahl 3 Zero.
Y=i
Das gesamte Zufallsexperiment reduziert sich damit auf die Betrachtung der Wahrscheinlichkeiten iiiv X = i,Y = j mit ij e {1,2,3}. Die Felder des Roulette sind bestimmt durch das folgende Schema, wobei die schwarzen Felder schattiert und die roten unschattiert sind.
Die Wahrscheinlichkeit fiir das gemeinsame Ereignis X = l , y = 1, also gerade und rot, entspricht demnach dem Auftreten der Zahlen 12, 14, 16, 18, 30, 32, 34, 36, d.h. P{X = 1,Y = 1) = P({12,14,16,18,30,32,34,36}) = 8/37. Die Wahrscheinlichkeiten fiir X = i,Y = j lassen sich fiir jede Auspragung von X und Y analog zu diesem Beispiel berechnen und in einer Tabelle darstellen
Y P{X = i,Y = j)
X
rot schwarz Zero
1 2 3
gerade 1 8/37 10/37 0
ungerade 2 10/37 8/37 0
Zero 3 0 0 1/37 D
8.1
Begriff mehrdimensionaler Zufallsvariablen
337
MeBwiederholungen
Beispiel 8.3
Ein einfaches Experiment wie der Miinzwurf wird dreimal wiederholt. Bezeichne Xk das Merkmal Y _ j I Kopf im fc-ten Wurf ^ ~ \ 0 Zahl im fc-ten Wurf. Eine Sequenz wie {K, K, Z) steht fiir das sukzessive Auftreten von Kopf, Kopf, Zahl beim 1., 2. und 3. Wurf. Fiir die gemeinsamen AuftretenswahrscheinUchkeiten erhalt man beispielsweise P(Xi = 1, X2 = 1, Xs = 1) = P{{{K, K,K))), P{Xi = 1,X2 = 1,^3 = 0) = P{{{K,K,Z)}). Die jeweils rechts stehenden Wahrscheinlichkeiten sind die Wahrscheinhchkeiten des Zufallsexperiments. Links steht die dadurch festgelegte WahrscheinUchkeit fiir das gemeinsame Auftreten bestimmter Auspragungen der einzelnen Zufallsvariablen. D
Jede Komponente von mehrdimensionalen Zufallsvariablen ist eine eindimensionale Zufallsvariable im Sinne der Kapitel 5 und 6. Wahrend bei eindimensionalen Zufallsvariablen jedem Ergebnis eines Zufallsvorgangs genau eine reelle Zahl zugeordnet wird, werden nun einem Ergebnis simultan mehrere reelle Zahlen zugeordnet. Jede Komponente, d.h. jede einzelne Zufallsvariable, entspricht dabei einer Zuordnung. Mehrdimensionale Zufallsvariablen lassen sich somit in Analogic zu Abschnitt*7.4 auch als mehrdimensionale Abbildungen verstehen. Den Zufallsvariablen X i , . . . , Xn liegt die Abbildung X i , X 2 , . . . ,Xri: r i — ^ R'^ U)\ >{Xi{uj),,.,,Xn{u))) zugrunde, die jedem Ergebnis uj genau n Mefiwerte zuordnet. Im Mietspiegelbeispiel entspricht Vt der Menge aller Wohnungen, im Roulette-Beispiel der Menge der Zahlen und im Miinzwurfbeispiel der Menge moglicher Kopf-Wappen-Kombinationen. Der Zufallscharakter der Auspragungen von X i , . . . , Xn ergibt sich aus dem Zufallsexperiment "Ziehen aus Jl". Von zentraler Bedeutung ist die sich daraus ergebende gemeinsame Verteilung der Zufallsvariablen. Fiir die Zufallsvariablen X i , . . . , X^ ist diese bestimmt durch P(XIG5I,...,X,
eBn),
womit die Wahrscheinlichkeit bezeichnet wird, dafi die Zufallsvariable Xi Werte in der Menge Bi annimmt, gleichzeitig X2 Werte in der Menge B2 annimmt, usw. Die Schreibweise Xi G S i , X 2 G B25 • • • , ^ n ^ 5 ^ , bei der Ereignisse durch
8. Mehrdimenslonale Zufallsvariablen
338
Kommata getrennt sind, entspricht wiederum dem logischen "und", d.h. alle Ereignisse treten gemeinsam (Schnittmenge) auf. Unter Betonung des Abbildungscharakters lafit sich das Ereignis {Xi G J5i,... ,Xn G 5^} auch darstellen durch {uj\Xi{uj) e B i , . . . , Xn{c^) G Bn}' Wie sich die gemeinsame Verteilung analog zum Fall einer Variable durch Instrumente wie Verteilungsfunktion und Dichte naher charakterisieren lafit, wird in den nachsten Abschnitten behandelt. Dabei werden wir uns weitgehend auf den Fall zweier Zufallsvariablen X und Y beschranken.
8.2
Zweidimensionale diskrete Zufallsvariablen
Seien X und Y zwei diskrete Zufallsvariablen, wobei X die Werte xi,a:2,... und Y die Werte yi,2/2, • • • annehmen kann. Die gemeinsame Wahrscheinlichkeitsverteilung ist bestimmt durch die Wahrscheinlichkeiten, mit der die Werte (xi^yj)^ i = 1,2,..., j = 1,2,..., angenommen werden.
Gemeinsame Wahrscheinlichkeitsfunktion
Die Wahrscheinlichkeitsfunktion ist bestimmt durch
der bivariaten diskreten Zufallsvariable (X, Y)
/•/^ y) = l ^ ( ^ = x,Y = y) fiir {x,y) G {(a;i,yi), {xi,2/2), • • • } [ 0 sonst. Wir bezeichnen die Wahrscheinlichkeitsfunktion auch als (gemeinsame) diskrete Dichte oder (gemeinsame) Verteilung,
endlich viele Ausprdgungen
In der Wahrscheinlichkeitsfunktion ist die gesamte Information des Zufallsexperiments in bezug auf die Merkmale X, Y enthalten. Besitzen X und Y jeweils nur endlich viele Ausprdgungen^ lafit sich die gemeinsame Wahrscheinlichkeitsfunktion iibersichtlich in Kontingenztafeln zusammenfassen. Besitze X die moglichen Auspragungen x i , . . . , Xj^ und Y die moghchen Auspragungen y i , . . . , ym- Bezeichne Pij = P{X = Xi,Y = yj) = f{xi, yj)
8.2
Zweidimensionale diskrete Zufallsvariablen
339
die Auftretenswahrscheinlichkeit an den Stellen (xi^yj)^ z = l,...,fc, j = 1 , . . . , m, mit positive! Wahrscheinlichkeitsfunktion, erhalt man die Kontingenztafel der Wahrscheinlichkeiten durch yi
•"
Vm
XI
pii
."
Plm
Xk
Pki
'
Kontingenztafel der Wahrscheinlichkeiten
Pkm
Ein einfaches Beispiel fiir eine Kontingenztafel ist die in Beispiel 8.2 wiedergegebene Tabelle fiir die Merkmale "Farbe" und "Zahlentyp". Eine graphische Veranschaulichung lai3t sich durch ein Stabdiagramm in der (rr:-y)-Ebene erreichen.
Stabdiagramm
ABBILDUNG 8.1: Stabdiagramm zu den Zufallsvariablen "Farbe" (1: rot, 2: schwarz, 3: Zero) und "Zahltyp" (1: gerade, 2: ungerade, 3: Zero) beim Roulette (Beispiel 8.2)
Aus der gemeinsamen Verteilung f{x,y) erhalt man problemlos die Verteilung der Zufallsvariable X ohne Beriicksichtigung der Zufallsvariable Y durch einfaches Aufsummieren. Die entsprechende Randverteilung von X ist bestimmt durch
fx{x) = P{X = X) = Y;^P{X = X,Y = yj) =
J2fi^,yj)-
Randverteilung von X
8. Mehrdimensionale Zufallsvariablen
340
Randverteilung von Y
Das Aufsummieren iiber samtliche mogliche Werte von Y bedeutet, dafi nicht beriicksichtigt wird, welchen Wert Y annimmt. Insbesondere gilt fx{^) = 0, wenn X nicht aus der Menge der moglichen Auspragungen xi,X2,... ist. Entsprechend ergibt sich die Randverteilung von Y durch die Wahrscheinlichkeitsfunktion
friy) = P{Y = y) = J2P{X = Xi,Y = y) = Y^f{xi,y)
mit /y(y) = 0, wenn y ^ {yi,y2,
•••}•
Randverteilungen Die Randverteilung von X ist gegeben[ durch fx{x) = P{X =-X)-
>yi). 3
die Randverteilung von Y durch fviv) = P{Y =-y)-
,y)i
Fiir den Fall endlich vieler Auspragungen von X und Y lassen sich die Randverteilungen wieder als Rander der Kontingenztafel darstellen, die die Wahrscheinlichkeiten enthalt. In Analogic zu den Kontingenztafeln fiir relative Haufigkeiten in Abschnitt 3.1 wahlt man dann wieder die "Punktnotation", in der
Pi- = YIP'^ ^ fx{xi)
und
p.j = ^Pij
j=i
die jeweiligen Zeilen- und Spaltensummen bezeichnen.
i=i
= friVj)
8.2
Zweidimensionale diskrete Zufallsvariablen
341
Kontingenztafel der Wahrscheinlichkeiten Die {k X m) Kontingenztafel der Wahrscheinlichkeiten hat die Form yi
•. •
Vm
Xi
Pn
• •.
Pim Pi-
Xk
Pkl
•••
Pfcm
Pfc.
p.l
...
p.m
1
Dabei bezeichnen fiir i = 1 , . . . , fc, j = 1 , . . . , m, p- = P(^X = Xi^Y = yj)
die Wahrscheinlichkeiten fiir (a:^,yj)^
Pi- = S Pij
die Wahrscheinlichkeiten fiir Xi^
k
p.j = ^ Pij
die Wahrscheinlichkeiten fiir yj,
2=1
Der wesentliche Unterschied zwischen dieser Kontingenztafel und den Kontingenztafeln in Abschnitt 3.1 liegt darin, dafi dort Haufigkeiten zusammengefafit sind, d.h. Daten beschrieben werden, wahrend die Eintrage in der hier betrachteten Kontingenztafel die wahren, allerdings in Anwendungen meist unbekannten Wahrscheinlichkeiten sind. Wenn man die gemeinsame Verteilung der Zufallsvariablen X und Y kennt, kann man einfach ableiten, wie eine der Zufallsvariablen verteilt ist, wenn man die Auspragung der anderen kennt. Unter der bedingten Wahrscheinlichkeitsfunktion von X gegeben Y = y (abgekiirzt X\Y = y) versteht man die Verteilung der Zufallsvariable X, wenn bekannt ist, dafi Y = y eingetreten ist. Es gilt also bei festgehaltenem y zu bestimmen, mit welcher Wahrscheinhchkeit die Werte xi,X2,... unter dieser Voraussetzung auftreten. Aus der Definition der bedingten Wahrscheinhchkeit erhalt man fiir P{Y = y)^0 PiX = Xi\Y = y) =
P{X = Xi,Y = y) _
PiY = y)
bedingte Wahrscheinlichkeitsfunktion
f{xi,y)
fy{y) '
wobei benutzt wird, dafi die Schreibweisen X = x oder Y = y Abkiirzungen fiir Ereignisse sind. Daraus ergibt sich unmittelbar die bedingte Wahrscheinlichkeitsfunktion bedingte Wahrscheinlichvon X gegeben Y = y bzw. die diskrete Dichte von X gegeben Y = y durch
fx{x\y) =
fix,y) fviy)
keitsfunktion von X
fiir festen Wert y.
8. Mehrdimensionale Zufallsvariablen
342
Fiir den (uninteressanten) Fall /y(y) = 0 definiert man fxi^lv) = 0 fiir alle x, Fiir festgehaltenes y ist fxi^lv) wieder eine Wahrscheinlichkeitsfunktion fiir die x-Werte, d.h. es gilt J2i fx{^i\y) = 1- Die Wahrscheinlichkeitsfunktion beschreibt das Verhalten der bedingten Zufallsvariable X\Y = y. Man beachte, dafi die bedingte Verteilung von X vollig analog zur bedingten Hdufigkeitsverteilung von X konstruiert ist. In Abschnitt 3.1.2 wird die bedingte Haufigkeitsverteilung fxio.ilbj) = hij/h.j betrachtet. Im Nenner findet sich dabei die Haufigkeit des Auftretens von Y = bj^ entsprechend bezieht man sich nur auf die Population mit Y = bj. In der Entsprechung dazu findet sich in der Definition der bedingten Wahrscheinhchkeitsfunktion im Nenner die Wahrscheinhchkeit P{Y = y), man bezieht sich also auf die Subpopulation, fiir die Y = y gilt. Vollig analog ergibt sich die bedingte Wahrscheinlichkeitsfunktion von Y gegeben bedingte Wahrscheinlich- X = X (kurz: Y\X = x) durch keitsfunktion von Y f{x,y) /y(yk) fx{x)' Dadurch wird das Verhalten der Zufallsvariable Y beschrieben, wenn bekannt ist, dafi X = x aufgetreten ist.
Bedingte Wahrscheinlichkeitsfunktionen
Die bedingte Wahrscheinlichkeitsfunktion Wert y und /y(y) ^ 0) bestimmt durch fx{x\y)
=
von X gegeben Y = y ist (fiir festen
fviy) '
die bedingte Wahrscheinlichkeitsfunktion von Y gegeben X = x ist (fiir festen Wert X und fx{x) ^ 0) bestimmt durch fY(y\x)
f{x,y) fxix) •
Fiir friv) = 0 legt man fx{x\y) = 0 und fiir fx(x) = 0 entsprechend fY{y\x) = 0 fest.
Beispiel 8.4
Roulette
Die Randverteilungen des Roulette-Beispiels mit den Variablen Farbe {X) und Zahlentyp (Y) ergeben sich unmittelbar als die Randsummen in der folgenden Tabelle.
8.2
Zweidimensionale diskrete Zufallsvariablen
343
Y P{X = i,Y = j)
X
rot 1 schwarz 2 Zero 3
gerade 1 8/37 10/37 0 18/37
ungerade 2 10/37 8/37 0 18/37
Zero 3 0 0 1/37 1/37
18/37 18/37 1/37
Tx
1
fy Die Randsummen spiegeln wider, dafi weder eine Farbauspragung noch ein bestimmter Zahlentyp beim Roulette bevorzugt werden. Es gilt jeweils die Wahrscheinlichkeit 18/37 fiir die einzelnen Auspragungen, wobei Zero natiirlich eine Sonderstellung einnimmt. Fiir die bedingte Wahrscheinlichkeitsfunktion der Zufallsvariable "Zahlentyp, gegeben rote Zahl", die vom Typ y | X = 1 ist, ergibt sich P(Y = i\X = 1) = 8/18,
P{Y = 2\X = 1) = 10/18,
P{Y = 3\X = 1) = 0.
Fiir "Zahlentyp, gegeben schwarze Zahl" erhalt man P{Y = 1|X = 2) = 10/18,
P(Y = 2\X = 2) = 8/18,
P{Y = 3\X = 2) = 0.
Daraus ergibt sich fiir logisch denkende Spieler, dafi wenn sie auf rot {X = 1) gesetzt haben, sie im gleichen Spieldurchgang besser auf ungerade (Y = 2) setzen als auf gerade (Y" = 1), wenn Sie die Chance auf eine Verdoppelung des Einsatzes im Auge haben. Zu bemerken ist allerdings, dafi die Gewinnerwartung insgesamt nicht von der Plazierung des zweiten Chips abhangt. Die Zufallsvariablen X und Y sind offensichthch nicht unabhangig im Sinne von Abschnitt 5.2.2. D
Die Verallgemeinerung des Konzeptes der Verteilungsfunktion auf zwei Variablen fiihrt zu einer zweidimensionalen Funktion. Die gemeinsame Verteilungsfunktion von X und Y ist gegeben durch
Fix,y)
= PiX<x,Y
gemeinsame Verteilungsfunktion
/(^-^i)" Xi<xyj
In dieser weniger anschaulichen, aber gelegentlich hilfreichen Funktion wird die simult ane Wahrscheinlichkeit angegeben, dafi X Werte annimmt, die kleiner oder gleich X sind, und Y gleichzeitig Werte annimmt, die kleiner oder gleich y sind. Aus F{x^ y) lassen sich unmittelbar die Randverteilungsfunktionen bestimmen. Man erhalt
Fx{x) = P{X <x)=
F{x, ^)=J2J2 Xi<x
Fy{y)=
/ ( ^ i ' y^)' Vj
P(y
von X bzw. y
Randverteilungsfunktion
8. Mehrdimensionale Zufallsvariablen
344
Gemeinsame Verteilungsfunktion
Als gemeinsame Verteilungsfunktion zu X und Y erhalt man fi^^^Vj)-
F{x,y) = P{X<x,Y
8.3
Zweidimensionale stetige Zufallsvariablen
Wenn X und Y stetig sind, das heifit, wenn zu jeweils zwei Wert en auch jeder Zwischenwert auftreten kann, lafit sich die Wahrscheinlichkeit fiir das gemeinsame Auftreten bestimmter Werte X = x und Y = y nicht mehr sinnvoU angeben. Wie in der eindimensionalen Betrachtung lafit sich aber die Wahrscheinlichkeit fiir Intervalle angeben. Gemeinsame stetige Verteilung und Dichte zweier Zufallsvariablen
Die Zufallsvariablen X und Y sind gemeinsam stetig verteilt^ wenn es eine zweidimensionale Dichtefunktion f{x^y) > Q gibt, so dafi P{a<X
Randdichte von X
f
f
Ja
Jc
f{x, y)dydx.
Die Dichtefunktion / besteht nicht wie im diskreten Fall nur aus Staben an bestimmten Punkten, sondern ist eine zumindest stiickweise glatte Funktion, die darstellt, wie dicht die Wahrscheinlichkeit an bestimmten Stellen "gepackt" ist. Das Doppelintegral in der Definition entspricht anschaulich dem von der Funktion / ( x , y) eingeschlossenen Volumen iiber der Grundflache [a, 6] x [c,d]. Ein Beispiel fiir eine derartige Dichtefunktion ist in Abbildung 8.2 dargestellt. Jede zweidimensionale Dichtefunktion lafit sich als derartiges ^'Gebirge" in der {x-yyEhene darstellen, wobei das Volumen des Gebirges der Gesamtwahrscheinlichkeit entsprechend eins betragt. Aus dem durch / festgelegtem Verteilungsgesetz lassen sich wieder die Randdichten bestimmen. Die Randdichte von X, d.h. unter Vernachlassigung von y , ist bestimmt durch oo
f{x,y)dy.
/ -OO
8.3
345
Zweidimensionale stetige Zufallsvariablen
ABBILDUNG 8.2: Form einer zweidimensionalen Dichte
f{x^y)
Das bei diskreten Zufallsvariablen benutzte Summieren iiber alle moglichen y-Werte wird hier ersetzt durch das Integrieren iiber alle y-Werte. Entsprechend ergibt sich die Randdichte von Y (unter Vernachlassigung von X) durch oo
Randdichte von Y
f{x,y)dx.
/ -oo
In volliger Analogic zum diskreten Fall erhalt man die bedingte Dichte von X\Y — y durch fiir festes y mit /y(y) ^ 0. fx{x\y) =
bedingte Dichte von X\Y = y
fviy)
Diese Dichtefunktion gibt das Verteilungsgesetz von X wieder, wenn Y = y bekannt ist, d.h. das Verteilungsgesetz der Zufalls variable X\Y = y. Wie man einfach nachpriift, ist fx{^\y) fiir festes y wieder eine stetige Dichte, d.h. es gilt oo
/
fxix\y)dx = 1.
Die bedingte Dichte von y | X = a; ist entsprechend bestimmt durch
fvivlx) =
fix,y) fxix)
Die gemeinsame Verteilungsfunktion stetiger Variablen ist gegeben durch x
ny
I /
f{u,v)dvdu.
-oo J —oo
Da X und y hier die Integrationsgrenzen bezeichnen, werden als Argumente in / die Variablen u und v benutzt.
bedingte Dichte von Y\X = X
346
8. Mehrdimensionale Zufallsvariablen
Randdichten Die Randdichte von X ist gegeben durch POO
fx{x) --= /
fix ,y)dy,
J —oo
die Randdichte von Y durch POO
/y(y)= =
/
y)dx.
fix
J—oo.
Bedingte Dichten und Verteilungsfunktion
Die bedingte Dichte von Y unter der Bedingung X = x^ kurz Y\X = x, ist fiir festen Wert x und fx (x) / 0 bestimmt durch
fx[x) Fiir fx{x) = 0 legt man / y (y|x) = 0 fest. Die bedingte Dichte von X unter der Bedingung Y = y, kurz X\Y = y^ ist fiir festen Wert y und friv) 7^ 0 bestimmt durch
Fiir /y(y) = 0 legt man fx{x\y) = 0 fest. Die gemeinsame Verteilungsfunktion zu (X, Y) erhalt man aus x
py
/ /
8.4
f{u,v)dvdu,
-00 J—oo
Unabhangigkeit von Zufallsvariablen
Die Unabhangigkeit von Zufallsvariablen wurde bereits in den Abschnitten 5.2.2 und 6.1 eingefiihrt. Im folgenden wird der Zusammenhang zwischen Unabhangigkeit
8.4 Unabhangigkeit von Zufallsvariablen
347
und den bedingten Dichten hergestellt. Dariiber hinaus wird der Begriff der Unabhangigkeit auf mehr als zwei Variablen erweitert. Betrachten wir zuerst zwei Zufallsvariablen X und Y. Wie in den vorangehenden Abschnitten dargestellt, fiihrt Vorwissen iiber eine der beiden Variablen zur bedingten Verteilung. 1st X = x bekannt, betrachtet man die Verteilung von Y\X = x, die durch
bestimmt ist. Wenn das Vorwissen X = x Information liber die Verteilung von Y enthalt, sollte die bedingte Verteilung /y(y|x) tatsachlich von dem Vorwissen X = x abhangen. Ist dies nicht der Fall, gilt also fiir alle x und y friy),
/y(y|x) =
nennt man X und Y (stochastisch) unabhdngig. Die bedingte Verteilung friyl^) ist dann mit der Randverteilung /y(y) identisch. Aus der Definition der bedingten Verteilung ergibt sich unmittelbar, dafi die Identitat fviyl^) = /y(^) genau dann gilt, wenn sich die gemeinsame Verteilung als Produkt /(^,y) =
fx{x)fY{y)
darstellen laiit. VoUig analog kann man natiirlich die Verteilung von X\Y = y zugrunde legen. Unabhangigkeit driickt sich dann dadurch aus, dai3 fx{x\y) nicht von y abhangt, d.h. fx{x\y) = fx{x) gilt. Aus der Definition der bedingten Verteilung erhalt man fiir unabhangige Zufallsvariablen wiederum die Produktbedingung f{x^y) = fx{x)fY{y).
Unabhangigkeit von zwei Zufallsvariablen
Die Zufallsvariablen X und Y heifien unabhdngig, wenn fiir alle x und y gilt f{^^y) =
fx{x)fY{y)'
Ansonsten heifien X und Y abhdngig.
Die Unabhangigkeit von Zufallsvariablen wurde bereits in den Kapiteln 6 (diskrete Zufallsvariablen) und 7 (stetige Zufallsvariablen) betrachtet. Zu betonen ist, dafi die Begriffsbildung identisch ist. Die in Kapitel 6 gewahlte Darstellung der Unabhangigkeit diskreter Zufallsvariablen, namlich wenn P{X = x^Y = y) = P{X =
Unabhangigkeit
8. Mehrdimensionale Zufallsvariablen
348
x) • P{Y = y) gilt, entspricht unmittelbar der Produktbedingung. In Kapitel 7 wurden stetige Variablen als unabhangig bezeichnet, wenn P{X <x^Y
f{x,y) = fx{x)fY{y) gilt PiX<x,Y
r
r
f{u,v)dvi^du
J — OO J —OO
ry
x
/
fx{u)du -OO
=
I
fY{v)dv
J —OO
P{X<x)'P{Y
Die umgekehrte Aussage, dafi aus P{X <x,Y
MeBwiederholungen
Bezeichnet Xi das Ergebnis des z-ten Miinzwurfes, z = 1,2, einer fairen Miinze mit Xi = l fiir Kopf in Wurf i und X^ = 0 fiir Zahl in Wurf i, so erhalt man die gemeinsame Verteilung durch X2
1 X
1 •"1/4
0
1/4
0 1/4 1/4
Fiir die Randverteilungen gilt
/x.(l) = i,
/x.(l) = i
und somit f{xi,X2) =/xi(^i)7X2(^2) fni" alle xi,X2 € {0,1}. Die Zufallsvariablen Xi und X2 sind daher unabhangig. D
Der Begriff der Unabhangigkeit von Zufallsvariablen lafit sich auf mehr als zwei Zufallsvariablen erweitern. Analog zum Fall zweier Zufallsvariablen lassen sich die Zufallsvariablen X i , . . . , ^ ^ als unabhangig verstehen, wenn die bedingte Verteilung jeder dieser Zufallsvariablen, gegeben die Auspragungen der iibrigen n — 1 Zufallsvariablen, nicht von diesen Auspragungen abhangt. Dies fiihrt zur einfachen Darstellung der gemeinsamen Dichte als Produkt der Randdichten.
8.5 Kovarianz und Korrelation
349
Die gemeinsame n-dimensionale Dichte ist im diskreten Fall bestimmt durch / ( x i , . . . , Xn) = P{Xi = x i , . . . , Xn = Xn), im stetigen Fall ist es diejenige Funktion f{xi,,,.,Xn), fiir die gilt F{xi,...,Xn)
= P{Xi xi
/ -oo
<Xi,...,Xn<Xn) rxn ... / ^—oo
f{ui,,..,Un)dUn...dui,
Unabhangigkeit von Zufallsvariablen
Die Zufallsvariablen X i , . . . , Xn heifien unabhdngig^ wenn fiir alle x i , . . . , 3:^ gilt P{Xi <xi,...,Xn<Xn)
= P{Xi < rr:^) • . . . • P{Xn < x^).
Aquivalent dazu ist die Produktbedingung / ( X i , ,..,Xn)
= fXiixi)
•... •
fXnMj
wobei f{xi^..,,Xn) die gemeinsame Dichte von X i , . . . , X n und fxii^i) Dichte der Zufallsvariable Xi bezeichnen (i = 1 , . . . , n).
8.5
di^
Kovarianz und Korrelation
Der die beiden Zufallsvariablen X und Y steuernde Wahrscheinlichkeitsmechanismus ist in der gemeinsamen Verteilung f(x^ y) enthalten. In vielen Fallen will man jedoch die wesentliche Information in wenigen Parametern zusammengefafit zur Verfiigung haben. Als Kenngrofien der zentralen Tendenz dienen wiederum die Erwartungswerte, wobei jetzt zwei Erwartungswerte, namhch E{X) und E{y)^ auftreten. Diese sind definiert als eindimensionale Erwartungswerte, die aus den Randverteilungen zu X bzw. Y bestimmt werden. Vollig analog erhalt man fiir jede Zufallsvariable aus den Randverteilungen Kennwerte wie Varianz oder Schiefe. Ein neuer Aspekt bei der Behandlung zweier Zufallsvariablen ist die Frage nach dem Zusammenhang der beiden Variablen. Ein Ma6 fiir diesen Zusammenhang ist die Kovarianz.
350
8. Mehrdimensionale Zufallsvariablen
Kovarianz Die Kovarianz der Zufallsvariablen X und Y ist bestimmt durch Cov{X,Y) = E{[X --E{X)][Y- - E{Y)]). Die Kovarianz ist nach Definition der Erwartungswert der Zufallsvariable [X — E{X)][Y — E{Y)]^ die selbst ein Produkt von zwei Zufallsvariablen ist. Die Zufallsvariablen, die das Produkt bilden, sind um null zentriert, d.h. es gilt E{X — E{X)) =0 und E{Y — E{Y)) = 0. Man kann sich - ahnlich wie fiir den empirischen Korrelationskoefiizienten - leicht klar machen, dafi das Produkt positiv ist, wenn X und Y tendenzmafiig einen gleichsinnigen linearen Zusammenhang aufweisen, hingegen ist es negativ, wenn X und Y einen gegensinnigen linearen Zusammenhang besitzen. Deutlich wird dies aus der Darstellung E E fi^u yj){xi - E{X)){yj - EiY)) Cov{X,Y)=
I
X und Y diskret
i 3 oo oo
/
f f{x,y){x-E{X)){y-E{Y))dxdy
X und r stetig.
Insbesondere fiir diskrete Variablen ist erkennbar, dafi in einem Koordinatensystem durch den Punkt {E{X),E{Y)) in der Summe alle Werte des ersten und dritten Quadranten einen positiven, alle Werte des zweiten und vierten Quadranten einen negativen Beitrag liefern. Die Uberlegung erfolgt voUig analog zu der Behandlung des empirischen Korrelationskoeffizienten. Im Unterschied zu den Uberlegungen dort sind jetzt {xi^yj) keine Beobachtungen, sondern die moghchen Auspragungen, gewichtet mit der tatsachlichen Auftretenswahrscheinlichkeit f{xi^yj), Beispiel 8.6
MeBwiederholungen
Bezeichne Xi das Ergebnis des i-ten Mlinzwurfes einer fairen Miinze, wobei 1 Kopf bei Wurf i
Xi
0 Zahl bei Wurf L Fiir zwei Mlinzwlirfe berechnet sich die gemeinsame Wahrscheinlichkeitsverteilung als Laplace-Wahrscheinlichkeiten durch X2
Xi
1 0
1 1/4 1/4
0 1/4 1/4
8.5 Kovarianz und Korrelation
351
Daraus erhalt man mit E{Xi) = 0.5 die Kovarianz Gov (Xi, X2) = i ( l - 0.5)(1 - 0.5) 4- J ( l - 0.5)(0 - 0.5) + J(0 - 0.5)(1 - 0.5) + i(0 - 0.5)(0 - 0.5) = -(0.25 - 0.25 - 0.25 + 0.25) = 0. Man erhalt somit fiir die Kovarianz zwischen Xi und X2 den Wert null. Wie im folgenden dargestellt wird, gilt dies generell fiir unabhangige Zufallsvariablen. D
Einige Eigenschaften der Kovarianz, die von weiterer Bedeutung sind, werden im folgenden zusammengefafit:
Verschiebungssatz
Gov (X, Y) = E{XY)
- E{X) • E{Y)
Symmetrie
Gov{X,Y)=^
Gov{Y,X)
Lineare Transformation
Die Kovarianz der transformierten Zufallsvariablen X = axX + hx-, Y = ayY + hY ist bestimmt durch Gov {X, Y) = axay Gov {X, Y).
Zu diesen Eigenschaften gelten folgende Bemerkungen: 1. Die durch den Verschiebungssatz bestimmte alternative Darstellung der Varianz ist rechentechnisch haufig vorteilhafter, da E{X) und E{Y) meist vorher schon be- rechentechnisch rechnet wurden, und damit nur E(XY) zu berechnen ist durch gilnstige ^ ^ Vanante
J2J2fi^i^yi)^iyi E{XY)
i
^ ^^^ Y dlskret
3
00
00
J
J xy f{x^y)dydx
X und Y stetig.
— 0 0 —(X)
2. Die Vertauschbarkeit von X und Y ergibt sich unmittelbar aus der Definition, da die Reihenfolge der Multiphkation in [X - E{X)][Y - E{Y)] beliebig ist.
Vertauschbarkeit
8. Mehrdimensionale Zufallsvariablen
352
3. Die Kovarianz der transformierten Variablen X = axX + bx^ Y = ayY + by erhalt man aus der Kovarianz von X und Y durch Multiplikation mit den Transformationskonstanten ax ay- Die Kovarianz ist damit maflstabsabhdngig.
Mafistabsabhdngigkeit der Kovarianz Die letzte Eigenschaft der Mafistabsabhangigkeit hat zur Folge, dafi, wenn statt
X der zehnfache Wert 10 • X betrachtet wird, fiir die Kovarianz Cov (lOX^Y) = 10Cov (X^Y) gilt. Diese Abhangigkeit von der Skalenwahl macht die Kovarianz als Absolutzahl s.chwierig interpretierbar. Eine geeignete Normierung liefert der KorrelationskoefRzient. Korrelationskoeffizient
Der Korrelationskoeffizient ist bestimmt durch p = p{X,Y)
Eigenschaften
=
Cov{X,Y)
Cov{X,Y)
^Var{X)^Var{Y)
(^X(^Y
Der Korrelationskoeffizient hat folgende Eigenschaften: 1. Sein Wertebereich ist bestimmt durch
-i 0 ist, gilt p{X, Y) = 1, und wenn a < 0 ist, gilt p(X, Y) = - 1 . 3. Aus dem Satz fiir lineare Transformationen von Kovarianzen ergibt sich fiir die "standardisierten" Zufallsvariablen X = X/ax und Y = Y/ay Cov (X, Y) = Cov {X/ax, Y/ay)
=
•Cov{X,Y) = p{X,Y). ax cry Die Korrelation von X und Y lafit sich daher als die Kovarianz der "standardisierten" Zufallsvariablen verstehen. Mafistabsunabhdngigkeit des Korrelationskoeffizienten
4. Eine wichtige Eigenschaft des Korrelationskoeffizienten ist die Mafistabsunabhangigkejt. Wie man einfach ableitet, gilt fiir die Korrelation der transformierten Variablen X = axX + bx, ax ^0,Y = ayY + 6y, ay ^^ 0, die Aussage p{X,Y)
=
-^^piX,Y),
8.5 Kovarianz und Korrelation
353
d.h. insbesondere \p{X,Y)\
=
\p{X,Y)\.
Wie fiir den empirischen KorrelationskoefRzienten gilt p{XjY) = —p{X,Y) wenn eine der Variablen ein anderes Vorzeichen erhalt, d.h. wenn a x > 0, ay < 0 bzw. a x < 0, ay > 0 gilt. Generell ist p ein Ma6 fiir den linearen Zusammenhang zwischen den Zufallsvariablen X und Y. Fiir das Verschwinden der Korrelation wird die Bezeichnung Unkorreliertheit verwendet: Unkorreliertheit
Zwei Zufallsvariablen X und Y heifien unkorreliert^ wenn gilt p{X,Y)=0. Wenn /?(X, Y) ^0 gilt, heifien sie korreliert Die Eigenschaft der Unkorreliertheit fordert etwas weniger als die Unabhangigkeit von X und Y. AUgemein gilt die folgenden Aussage. Unabhangigkeit und Korrelation
Sind zwei Zufallsvariablen unabhdngig^ so sind sie auch unkorreliert^ d.h. es gilt p{X,Y) = 0. Die Giiltigkeit dieser Aussage ist unmittelbar einsehbar. Fiir unabhangige Zufallsvariablen gilt E{X ' Y) = E{X) ' E{Y). Daraus folgt mit dem Verschiebungssatz Gov (X, Y) = E{X ' Y) - E{X) • E{Y) = 0 und damit p{X, Y) = 0. Die Umkehrung, dafi unkorreherte Zufallsvariablen auch unabhangig sind, gilt nicht allgemein. Sie gilt allerdings dann, wenn X und Y gemeinsam normalverteilt sind (vgl. Abschnitt 8.6). Klar zu unterscheiden sind der theoretische Parameter Korrelationskoeffizient und der empirische Korrelationskoefiizient. Wahrend der KorrelationskoeflBzient den wahren, aber meist unbekannten linearen Zusammenhang zwischen den Zufallsvariablen X und Y mifit, beschreibt der empirische KorrelationskoefRzient den beobachteten Zusammenhang von Daten. Der KorrelationskoefRzient p{X, Y) beschreibt keine Daten, sondern das zugrundeliegende stochastische Verhalten eines Systems. Dies sei an einem Beispiel nochmals veranschaulicht.
8. Mehrdimensionale Zufallsvariablen
354 Beispiel 8.7
Miinzwurf Eine faire Miinze mit Kopf (K) und Zahl (Z) werde viermal geworfen. Bezeichne X die Anzahl der Wiirfe, bei denen Kopf resultiert, und Y die Anzahl der Wiirfe, bei denen Zahl resultiert. Man iiberlegt sich einfach, dafi fiir (X, Y) nur die Paare (0,4), (1,3), (2,2), (3,1), (4,0) auftreten konnen. Da diese Werte alle auf einer Geraden negative! Steigung liegen, ergibt sich p{X,Y) = — 1 (richtige Berechnung fiihrt natiirUch zu demselben Wert). Die maximal-negative Korrelation ist dadurch begriindet, dafi sich Kopf und Zahl bei jedem Wurf ausschliefien. Wesentlich ist jedoch, dafi das Experiment nicht durchgefiihrt werden mufi, um zu bestimmen, dafi p{X,Y) = — 1 gilt. Die Korrelation folgt nur aus dem Verteilungsgesetz und der Art der betrachteten Variablen und ist somit eine Systemeigenschaft. Es werden keinerlei Daten erhoben. D
Die Varianz der Summe von Zufallsvariablen wurde bisher nur fiir unabhangige Zufallsvariablen betrachtet. Betrachtet man allgemeiner die Zufallsvariablen Xi und X2 erhalt man aus der Definition der Varianz Var{Xi
+ X2) = E{[Xi + X2 - E{Xi) = E[{Xi - E{Xi)f + = Var{Xi)
-
E{X2)]^)
+ {X2 -
E{X2)f
2{Xi-E{Xi)){X2-E{X2))] + Var{X2) + 2Cov ( X i , X2).
Bei der Bestimmung der Varianz einer Summe von Zufallsvariablen ist demnach die Kovarianz mit zu beriicksichtigen.
Varianz der Summe zweier Zufallszahlen Fiir die Varianz einer Summe von Zufallsvariablen gilt Var{Xi
Linearkombination
+ X2) = Var{Xi)
+ Var{X2) + 2Cov ( X i , X2).
Kovarianz und Korrelation sind Mafie fiir den (linearen) Zusammenhang jeweils zweier Variablen. Fiir n Zufallsvariablen X i , . . . , X n lafit sich jeweils paarweise die Kovarianz Gov (Xi^Yj) bzw. die Korrelation p{Xi^Xj) betrachten. Diese Kovarianzen werden generell bedeutungsvoll, wenn Linearkombinationen von Zufallsvariablen gebildet werden. A n s t a t t der einfachen Summe Xi + h X ^ betrachte man allgemeiner die gewichtete Summe X = aiXi
+
h anXn
8.5
355
Kovarianz und Korrelation
wobei a i , . . . , a n feste Gewichte darstellen. Beispielsweise kann X den Gewinn eines internationalen Konzerns darstellen, der sich aus der Summe der Einzelgewinne ergibt, wobei a i , . . . , a n die entsprectienden Faktoren zur Umrechnung in eine Wahrungseinheit darstellen (Dollar und Euro soUte man nicht addieren). Was erfahrt man aus der Kenntnis der Erwartungswerte und Varianzen der einzelnen Zufallsvariablen liber das Verhalten der gewichteten Summe? Aus den folgenden Transformationsregeln lafit sich auf deren Erwartungswert und Varianz schliefien. Fiir den Erwartungswert weifi man aus den Kapiteln 5 und 6, dafi h anE{Xn) gilt. Damit erhalt man fiir die Varianz unmittelE{X) = aiE{Xi) -\ bar aus der Definition von Varianz und Kovarianz Var{X) = E{[X -
E{X)]^) 1 2>
E
^aiXi-J2^iE{Xi) .i=l
= E I J2^UXi
E
z=l
- E{Xi)f
Y,ai{Xi-E{Xi)) ,i=l
+ 5 ^ a i a , ( X , - E{Xi)){Xj
-
E{Xj))
J=l
yja^Var^Xi) + Y^aiajCov i=i
(X^,Xj)
i^^j
= Y^ afVar{Xi) + 2 J]]aiaj Cov {Xi, Xj). i=i
Kj
Dabei wird J2i^j^ ^.h. die Summe iiber alle Werte i und j mit i 7^ j , wegen Cov (Xi, Xj) = Cov (Xj, Xi) ersetzt durch 2 Y^i^j^ d.h. die Summe liber alle Werte i und j fiir die i < j gilt; entsprechend wird jedes Paar Cov (X^, Xj) doppelt gezahlt. Fiir die Varianz der gewichteten Summe sind also nicht nur die Varianzen der einzelnen Variablen von Relevanz, sondern auch der Zusammenhang der Variablen, soweit er in den Kovarianzen erfafit ist. Diese Aussage hat wesentliche Konsequenzen beispielsweise bei der Risikominimierung von Wertpapiermischungen (vgl. Beispiel 8.8). Sind alle Variablen unkorreliert, d.h. gilt p(Xi, Xj) = 0 und damit Cov {Xi, Xj) = 0, erhalt man die einfache Form Var{X) =
Ya^Var{Xi), i=l
die bereits in den Kapiteln 5 und 6 benutzt wurde. In der folgenden Ubersicht ist erganzend die aus diesem Kapitel bekannte Formel fiir den Erwartungswert einer
8. Mehrdimensionale Zufallsvariablen
356
Summe von Zufallsvariablen nochmals wiedergegeben. Im Gegensatz zur Varianz von X ist diese Formel fiir korrelierte und unkorrelierte Zufallsvariablen giiltig.
Erwartungswert und Varianz von Linearkombinationen Die gewichtete Summe X = aiXi
H
h dnXn
der Zufallsvariablen X i , . . . , Xn besitzt den E{X) und die
= aiE{Xi)
Erwartungswert
+ .. • +
anE{Xn)
Varianz Var{X) = a\Var{Xi)
+ •••+
alVar{Xn)
+ 2aia2Cov ( X i , X 2 ) + 2aia3Cov
(Xi,X3) + ...
n
= Y^ a^Var{Xi)
Beispiel 8.8
+ 2^
aiUj Cov {Xi,
Xj).
Portfolio-Optimierung Ein zur Verfiigung stehender Bet rag sei aufgeteilt in zwei Anlageformen. Der Anteil ai wird in eine erste Wertanlage (beispielsweise Aktie A), der Anteil a2 wird in eine zweite Wertanlage (beispielsweise Aktie B) investiert, d.h. ai + a2 = 1. Man betrachtet nun die Rendite dieser Wertpapiermischung, d.h. den prozentualen Gewinn des Portefeuilles wahrend eines festen Zeitraums. Die Gesamtrendite ergibt sich durch X = aiXi +a2X2, wobei Xi,X2 die Renditen der beiden Anlageformen darstellen. Renditen, insbesondere bei Risikoanlagen sind Zufallsvariablen. Die festverzinsliche risikofreie Anlage laBt sich als Spezialfall mit verschwindender Varianz {Var{Xi) = 0) betrachten. Nach den entwickelten Formeln erhalt man fiir die zu erwartende Gesamtrendite E{X) = aiE{Xi)
+ a2E{X2),
also eine gemafi den Anteilen gewichtete Summe der zu erwartenden Einzelrenditen. Ein wichtiger Indikator fiir eine Wertpapiermischung ist das Portefeuillerisiko, unter dem die Varianz der Gesamtrendite verstanden wird. Man erhalt unmittelbar Var{X) = alVar{Xi) + alVar{X2) + 2aia2Cov (Xi,X2).
8.6
Die zweidimensionale Normalverteilung
357
Das Risiko der Gesamtrendite wird demnach nicht nur vom Risiko der Einzelrenditen, sondern auch von der Kovarianz bestimmt. Wegen p= Gov {Xi, X2)/\/Var{Xi)Var{X2) lai3t sich diese Beziehung mit ai = ^/Var{Xi) auch darstellen durch Var{X) = a\a\ + a^a'^ + 2a ia2 per 1(72, wobei die Kovarianz jetzt durch den KorrelationskoefBzienten ersetzt ist. Der Vorteil ist, dafi der Wertebereich von p bekannt ist, da — 1 < /o < 1 gilt. Man sieht daraus, dafi fiir negativ korreUerte Renditen [p < 0) ein Gesamtrisiko resultiert, das kleiner ist als das Gesamtrisiko fiir unkorreUerte Renditen (/? = 0). Zur Veranschaulichung sei der Spezialfall GI= G2 = (J betrachtet. Man erhalt durch Einsetzen Var{X) = {a\ + a | + 2aia2p)(j'^. Es ist unmittelbar ersichthch, dafi fiir den Extremfall positiver Korrelation {p=l) ziehung
die Be-
Var{X) = (ai + as) V ^ = a^ gilt. Fiir den Extremfall negativer Korrelation {p= —1) erhalt man die Beziehung Far(X)=:(ai-a2)V. Eine gleichmafiige Mischung ai = a2 = 0.5 fiihrt dann zum risikolosen Portefeuille mit Var{X) = 0. Prinzipiell gilt, dafi negativ korreUerte Renditen das Risiko vermindern. D
8.6
Die zweidimensionale Normalverteilung
Die eindimensionale Normalverteilung wurde als eines der wichtigsten stetigen Verteilungsmodelle bereits behandelt. Ihre Dichte ist von der Form
wobei \i = E{X) der Erwartungswert und cr^ = Var[X) die Varianz der normalverteilten Zufallsvariable X bezeichnet. Erwartungswert /i und Varianz cr^ sind die beiden charakterisierenden Parameter. Betrachtet man zwei stetige Zufallsvariablen X und y , beispielsweise Haushaltseinkommen und Haushaltsausgaben, dann sind fiir die gemeinsame Verteilung mehr
8. Mehrdimensionale Zufallsvariablen
358 Parameter von Interesse. Insbesondere sind das Ml =E{X),
der Erwartungswert von X,
f^2=E{Y),
der Erwartungswert von y ,
a\
die Varianz von X,
=Var{X),
4 =Var{Y), p =Cov (X, Y)/(Jia2^
die Varianz von Y und die Korrelation zwischen X und Y.
In der Erweiterung der Normalverteilung auf zweidimensionale Zufallsvariablen, die im folgenden gegeben ist, tret en alle diese Parameter auf. Zweidimensionale Normalverteilung
Die Zufallsvariablen X und Y heifien gemeinsam normalverteilt^ wenn die Dichte bestimmt ist durch
f{x,y)
1 27rcricr2\/l - p^
In den Abbildungen 8.3 bis 8.6 sind Dichten zweidimensionaler Normalverteilungen dargestellt. 0.2-1
ABBILDUNG 8.3: Zweidimensionale Normalverteilungsdichte fiir unkorrelierte Merkmale, p = 0, mit /^i = /X2 = 0, ai = (J2 = 1.0
Die Erwartungswerte sind in alien Abbildungen durch /i^ = /i2 = 0 festgelegt. Da alle Normalverteilungsdichten eingipflig sind mit dem Gipfel an der Stelle (/ii,/i2), sind samtliche Abbildungen um den NuUpunkt (0,0) zentriert. Die Dichten in den Abbildungen 8.3 und 8.4 zeigen mit p = 0 unkorrelierte Variablen. Die beiden Abbildungen unterscheiden sich nur in der Standardabweichung von X. In Abbildung 8.3
8.6
Die zweidimensionale Normalverteilung
359
ABBILDUNG 8.4: Zweidimensionale Normalverteilungsdichte fur unkorrelierte Merkmale, p = 0, mit /^i = /i2 = 0, ai = 1.5, (72 = 1-0
ABBILDUNG 8.5: Zweidimensionale Normalverteilungsdichte, p = 0.8, /^i =/x2 •
0, ai=a2 = 1.0
wird ai = a2 = 1, in Abbildung 8.4 wird ai = 1.5,(72 = 1.0 zugrunde gelegt. Die Abbildungen 8.5 und 8.6 zeigen mit p = 0.8 einmal den Fall starker positiver Korrelation und mit p = —0.8 den Fall stark negativer Korrelation. In diesen beiden Abbildungen wurde ai=a2 = l gewahlt. Die Varianzen af^ a^ bestimmen, wie stark die Verteilung in die x-^ bzw. y-Richtung auseinandergezogen ist. Dies ist ersichtlich aus den Abbildungen 8.3 und 8.4. In Abbildung 8.4 ist wegen ai = 1.5 > (72 = 1 die Dichte in Richtung der x-Achse starker auseinandergezogen. Da das von den Dichten umschlossene Volumen eins betragt, ist der Gipfel entsprechend niedriger. Die Korrelation p legt fest, wie der "Bergriicken" in der (x-y)-Ebene ausgerichtet ist und bestimmt (fiir feste Werte cTi^cr^)^ wie stark der Bergriicken in die Breite gezogen ist. Fiir \p\ in der Nahe von 1 ist der Bergriicken schmaler, fiir \p\ nahe null ist der Bergriicken breiter. Fiir die positive Korrelation in Abbildung 8.5 ist der Bergriicken dem gleichsinnigen Zusammenhang der beiden Variablen entsprechend an der Winkelhalbierenden des ersten Quadrant en ausgerichtet. Die Abbildung 8.6 zeigt, wie bei negativer Korrelation, dem gegensinnigen Zusammenhang entsprechend, groi5e Auspragungen der ersten Variable tendenziell mit kleinen Auspragungen der zweiten
8. Mehrdimensionale Zufallsvariablen
360
ABBILDUNG 8.6: Zweidimensionale Normalverteilungsdichte, p = —0.8, fii = /i2 = 0 , CTi = (72 = 1.0
Variable einhergehen. Prinzipiell wird |p| < 1 vorausgesetzt, was man unmittelbar daran sieht, dafi 1 — p^ in der gemeinsamen Dichte im Nenner erscheint. Fiir p = l ist die Verteilung entartet, d.h. geht die Korrelation von X und Y gegen eins, so wird der Bergriicken beliebig schmal. Man sieht aus der gemeinsamen Dichtefunktion, dafi fiir p = 0 gilt
fi^^y) =
\/27r(7i
exp
d.h. die Dichte lafit sich als Produkt der Randdichten fx{^) und /y(y) von X bzw. Y darstellen. Die Produktdarstellung f{x^y) = fx{x)fY{y) ist aquivalent zur Aussage, dafi X und Y unabhangig sind. Fiir gemeinsam normalverteilte Zufallsgrofien X und Y gilt demnach, dafi unkorrelierte Zufallsgrofien {p = 0) auch unabhangig sind.
Unabhangigkeit und Korrelation bei normalverteilten Zufallsvariablen
Fiir gemeinsam normalverteilte Zufallsvariablen X und Y gilt: X und Y sind unabhangig genau dann, wenn sie unkorreliert sind.
Fiir den Spezialfall unkorrelierter Grofien lafit sich die gemeinsame Dichte demnach als Produkt der Randdichten darstellen. Auch fiir korrelierte gemeinsam normalverteilte Zufallsgrofien gilt, dafi die Randverteilungen normalverteilt sind, d.h. man erhalt
8.7
Zusammenfassung und Bemerkungen
8.7
361
Zusammenfassung und Bemerkungen
Die Untersuchung der gemeinsamen Verteilung von Zufallsvariablen ist ein Grundstein zum Verstandnis der Analyse des Zusammenhangs von Variablen. Zentrale Konzepte wie Kovarianz, Korrelation und Unabhangigkeit ermoglichen es, diesen Zusammenhang zu quantifizieren. Kovarianz und Korrelation sind theoretische Zusammenhangsmafie, erfafit wird dadurch der durch ein Zufallsexperiment bedingte zugrundeliegende Zusammenhang, der selbst nicht direkt beobachtbar ist. Sie bilden den theoretischen Hintergrund, auf dem erklarbar ist, dafi zweidimensionale Beobachtungen, also Realisationen von Zufallsexperimenten eine gemeinsame - gegensinnige oder gleichsinnige - Tendenz aufweisen. Der Begriff der Unabhangigkeit von Zufallsvariablen wird auch in den folgenden Kapiteln eine wichtige RoUe spielen. Wenn Zufallsexperimente wiederholt unter gleichen Bedingungen und unabhangig voneinander durchgefiihrt werden, erhalt man unabhangige Zufallsvariablen X i , . . . , Xn, die - als Stichprobenvariablen bezeichnet - die Grundlage fiir Riickschlusse auf die Grundgesamtheit darstellen. Dabei erweisen sich die in diesem Kapitel behandelten Regeln zur Bildung von Erwartungswert und Varianz von Summen von Zufallsvariablen als wichtig. Ausfiihrlichere Darstellungen mehrdimensionaler Zufallsvariablen und die sich ergebenden Probleme, die Zusammenhangsstruktur von mehr als zwei Zufallsvariablen zu erfassen, finden sich in der Literatur zur multivariaten Statistik, z.B. in Fahrmeir, Hamerle und Tutz (1996).
8.8
Aufgaben
Die gemeinsame Verteilung von X und Y sei durch die folgende Kontingenztafel der Auftretenswahrscheinlichkeiten bestimmt: u. Y X
(a) Man (b) Man (c) Man (d) Man
bestimme bestimme bestimme bestimme
1 2
1 0.25 0.10
2 0.15 0.15
Aufgabe 8.1
3 0.10 0.25
den Erwartungswert und die Varianz von X bzw. Y. die bedingten Verteilungen von X\Y = y und Y\X = x. die Kovarianz und die Korrelation von X und Y. die Varianz von X -\-Y.
Die gemeinsame Wahrscheinlichkeitsfunktion von X und Y sei bestimmt durch f{^^y) sonst.
Aufgabe 8.2
362
8. Mehrdimensionale Zufallsvariablen
(a) Man bestimme die Randverteilung von X bzw. Y. (b)Man bestimme die bedingten Verteilungen von X\Y = y und Y\X = x und vergleiche diese mit den Randverteilungen. (c) Man bestimme die Kovarianz von X und Y. Aufgabe 8.3
Der Tiirsteher einer Nobeldiskothek entscheidet sequentiell. Der erste Besucher wird mit der Wahrscheinlichkeit 0.5 eingelassen, der zweite mit 0.6 und der dritte mit 0.8. Man betrachte die Zufallsvariable X: "Anzahl der eingelassenen Besucher unter den ersten beiden Besuchern" und Y: "Anzahl der eingelassenen Besucher unter den letzten beiden Besuchern". (a) Man bestimme die gemeinsame Wahrscheinlichkeitsfunktion von X und Y. (b) Man untersuche, ob X und Y unabhangig sind.
Aufgabe 8.4
Ein Anleger verfiigt zu Jahresbeginn iiber 200000 € . 150000 € legt er bei einer Bank an, die ihm eine zufallige Jahresrendite i?i garantiert, welche gleichverteilt zwischen 6 % und 8 % ist. Mit den restlichen 50000 € spekuliert er an der Borse, wobei er von einer A^(8, 4)-verteilten Jahresrendite R2 (in %) ausgeht. Der Anleger geht davon aus, dafi die Renditen Ri und R2 unabhangig verteilt sind. (a) Man bestimme den Erwartungswert und die Varianz von Ri und i?2(b) Man berechne die Wahrscheinlichkeit en, dafi der Anleger an der Borse eine Rendite von 8%, von mindestens 9% bzw. zwischen 6% und 10% erzielt. (c) Wie grofi ist die Wahrscheinlichkeit, dafi der Anleger bei der Bank eine Rendite zwischen 6.5% und 7.5 % erzielt? (d) Man stelle das Jahresendvermogen V als Funktion der Renditen Ri und R2 dar und berechne Erwartungswert und Varianz von V. (e) Angenommen, die beiden Renditen sind nicht unabhangig sondern korrelieren mit p = —0.5. Wie wiirden Sie die 200000€ aufteilen, um eine minimale Varianz der Gesamtrendite zu erzielen. Wie andert sich die zu erwartende Rendite?
Parameterschatzung
Die Ziehung von Stichproben, die ein moglichst getreues Abbild der Grundgesamtheit wiedergeben sollen, erfolgt nicht zum Selbstzweck. Vielmehr besteht das Ziel einer Stichprobenziehung darin, Informationen iiber das Verhalten eines Merkmals in der Grundgesamtheit zu gewinnen. Genau dieser Aspekt ist entscheidend: Man ist nicht eigentlich daran interessiert zu erfahren, wie sich das Merkmal in der Stichprobe verhalt, sondern diese Information wird benutzt, um daraus auf das Verhalten in der Grundgesamtheit zu schhefien. Um diesen Schlufi ziehen zu konnen, benotigt man ein Modell, das die Verteilung des interessierenden Merkmals in der Grundgesamtheit beschreibt. Damit konnen Ergebnisse, die man fiir eine Stichprobe - sofern deren Ziehung bestimmten Kriterien geniigt - ermittelt hat, auf die entsprechende Grundgesamtheit iibertragen werden. Diese Verallgemeinerung ist natiirlich nicht mit hundertprozentiger Prazision moglich, da zum einen das Modell, in dem man sich bewegt eben nur ein Modell ist und zum anderen die Stichprobe nicht absolut den zuvor festgelegten Kriterien geniigt. AUerdings ist es moglich, wie wir in den folgenden Kapiteln sehen werden, unter Vorgabe einer gewissen Prazision solche Schliisse vorzunehmen. Dabei unterscheidet man grob Schatz- und Testverfahren. Interessiert man sich beispielsweise fiir den Anteil von Frauen an deutschen HochschuUehrern, so kann man eine Stichprobe aus alien deutschen Hochschullehrern Ziehen. In dieser Stichprobe zahlt man, wieviele HochschuUehrer weiblich und wieviele mannlich sind. Der Anteil der weiblichen HochschuUehrer in dieser Stichprobe sei 0.12. Dieser Wert gibt i.a. nicht den Anteil der weiblichen HochschuUehrer in der Grundgesamtheit aller HochschuUehrer wieder. Ziehen wir namlich eine zweite Stichprobe, so kdnnten wir z.B. einen Anteilswert von 0.09 erhalten. Der beobachtete Anteilswert hangt also ab von der gezogenen Stichprobe, die wiederum eine zufallige Auswahl ist. Damit ist auch der berechnete Anteilswert die Auspragung einer Zufallsvariable, die den Anteil der weiblichen HochschuUehrer beschreibt. Was hat man dann iiberhaupt von diesem berechneten Wert? Der in der Stichprobe beobachtete Anteilswert liefert einen Schdtzer fiir den wahren Anteil in der Grundgesamtheit. Wie gut er den wahren Anteil schatzt, also wie nahe er an den wah-
Schdtzer
364
9.
Parameterschatzung
ren Wert heranreicht und wie stabil er ist, d.h. wie stark er von Stichprobe zu Stichprobe schwankt, wird unter anderem vom Stichprobenumfang, aber auch von der Qualitat des Schatzverfahrens und von der Qualitat der Stichprobe beeinflufit. Schatzverfahren und deren Giite sind Thema dieses Kapitels.
9.1
Punktschatzung
Schatzverfahren zielen darauf ab, aus einer Zufallsstichprobe auf die Grundgesamtheit zuriickzuschHefien. Dabei konzentriert man sich auf bestimmte Aspekte des in einer Grundgesamtheit untersuchten Merkmals. Ob man die InteUigenz in einer Studentenpopulation untersucht oder die von einer Ma^chine produzierte Schraubenlange, meist sind bestimmte Aspekte (Parameter) der Verteilung von primarem Interesse, die beispielsweise Auskunft iiber Lage oder Streuung des Merkmals geben. Engeres Ziel der Punktschatzung ist es, einen moghchst genauen Naherungswert fiir einen derartigen unbekannten Grundgesamtheitsparameter anzugeben. Parameter treten dabei insbesondere in zwei Formen auf, namhch als Kennwerte einer heliehigen, unbekannten Verteilung oder als spezifische Parameter eines angenommenen Verteilungsmodells. Beispiele fiir den ersten unspezifischen Typ von Parametern sind • Erwartungswert und Varianz einer Zufallsvariable • Median oder p-Quantil einer Zufallsvariable • Korrelation zwischen zwei Zufallsvariablen. Haufig lafit sich der Typ einer Verteilung bei guter Anpassung an den realen Sachverhalt annehmen. Beispielsweise sind Intelligenzquotienten so konstruiert, dafi sie einer Normalverteilung folgen, Zahlvorgange wie die Anzahl bestimmter Schadensmeldungen innerhalb eines Jahres lassen sich haufig durch die Poisson-Verteilung approximieren. Modelliert man Merkmale durch die Annahme des Verteilungstyps, reduziert sich das Schatzproblem darauf, dafi nur noch die Parameter dieser Verteilung zu bestimmen sind. Beispiele dafiir sind • der Parameter A, wenn die Anzahl der Schadensmeldungen durch die PoissonVerteilung Po{X) modelliert wird, • die Parameter /i, cr^, wenn von einer Normalverteilung N{fi, cr^) der produzierten Schraubenlangen auszugehen ist, • der Parameter A, wenn fiir die Wartezeit eine Exponentialverteilung exp(A) angenommen wird.
9.1
365
Punktschatzung
Wie man aus diesen Beispielen sieht, sind gelegentlich "unspezifische" Parameter wie Erwartungswert und die Parameter eines Verteilungstyps identisch, z.B. gilt fiir die Normalverteilung E{X) = fi. Der Parameter A der Exponentialverteilung hingegen unterscheidet sich vom Erwartungswert der zugehorigen Zufalls variable. Ausgangspunkt der Punktschatzung sind n Stichprobenziehungen oder Zufallsexperimente, die durch die Zufallsvariablen Xi^...^Xn reprasentiert werden. Xi^...^Xn werden auch als Stichprobenvariablen bezeichnet. Haufig fordert man von Stichprobenvariablen, dafi sie unabhdngige Wiederholungen von X sind. Durch diese knappe Formulierung wird ausgedriickt, dafi
• die den Zufallsvariablen Xi, gig sind,
Stichprobenvariablen unabhdngige Wiederholungen
,, Xn zugrundeliegenden Experimente unabhan-
• jedesmal dasselbe Zufallsexperiment (enthalten in "Wiederholung") durchgefiihrt wird.
Aus den Realisierungen x i , . . . , a:^ dieser Zufallsvariablen soil auf einen Parameter 6 geschlossen werden. Der Parameter 6 steht hier stellvertretend fiir einen festgelegten Kennwert: Das kann der Erwartungswert sein aber ebenso die Varianz oder der Parameter der Poisson-Verteilung. Eine Punktschatzung fiir 9 ist eine Funktion der Realisierungen x i , . . . , x^i der Form t =
g{xi,...,Xn).
Beispielsweise liefert die Funktion g{xi^..., Xn) = Yli ^i/'^ einen Schatzwert fiir den zugrundeliegenden Erwartungswert 6 = E{X). Der Zufallscharakter des Verfahrens, der sich dadurch ausdriickt, dafi jedesmal, wenn diese n Stichprobenziehungen durchgefiihrt werden, ein anderer Schatzwert resultiert, wird deutlich in der Darstellung der Schatzfunktion durch T =
g{Xi,,.,,Xn)-
T ist als Funktion von Zufallsvariablen selbst eine Zufalls variable. So ist das arithmetische Mittel X = g{Xi^..., Xn) = Yli ^i/'^ ^i^^ Zufallsvariable, deren Variabilitat von den Zufallsvariablen X i , . . . , Xn bestimmt wird. Eine derartige Schatzfunktion bzw. Stichprobenfunktion heifit auch Schdtzstatistik oder einfach nur Statistik.
Punktschatzung
366
9. Parameterschatzung
Schatzfunktion, Schatzstatistik
Eine Schdtzfunktion oder Schatzstatistik fiir den Grundgesamtheitsparameter 0 ist eine Punktion T =
g{Xi,,.,,Xn)
der Stichprobenvariablen X i , . . . , Xn^ Der aus den Realisationen xi^.,, ^Xn resultierende numerische Wert g{xi,,,,,Xn)
ist der zugehorige Schdtzwert In der deskriptiven Statistik wurden Lage- und Streuungsparameter der Stichprobe bestimmt. Hinter diesen deskriptiven Parametern stehen Schatzfunktionen, deren Argumente Zufallsvariablen sind. Die resultierenden Realisationen dieser Schatzfunktionen entsprechen dann direkt den deskriptiven Lage- bzw. Streuungsparametern. So lafit sich X = g{Xi^..., Xn) = ^ Y17=i -^i ^^ Schatzfunktion fiir den Erwartungswert /i = E{X) verstehen, x ist die zugehorige Reahsation oder das arithmetische Mittel der Stichprobe. Weitere Schatzfunktionen sind: X = g{Xi^..., Xn) = ~ Z)r=i -^i^ ^i ^ {0? 1}? ^^^ ^i^ Auftretenswahrscheinhchkeit bzw. den Anteilswert TT = P{X = 1), 52 = g{Xi, ,,,^Xn)
= ^J2{Xi-
— 52 = g{Xu •".Xn)
^ = ^EiXi-
9.2
^)^ fur die Varianz a^ = Var{X), _ X)2 fiir die Varianz a^ = Var{X).
Eigenschaften von Schatzstatistiken
Eine Schatzstatistik wie X fiir den Erwartungswert ist zwar intuitiv einleuchtend, daraus folgt jedoch nicht, daii sie ein gutes oder das "beste" Schatzverfahren darstellt. Insbesondere in komplexeren Schatzproblemen ist es wichtig, klare Kriterien fiir die Giite eines Schatzverfahrens zur Verfiigung zu haben, d.h. die entsprechenden Eigenschaften der Schatzstatistik zu kennen.
9.2
367
Eigenschaften von Schatzstatistiken
9.2.1
Erwartungstreue
Man erwartet von einer Schatzstatistik, dafi sie tendenziell den richtigen Wert liefert, d.h. weder systematisch iiber- noch unterschatzt. Diese Eigenschaft wird als Erwartungstreue bezeichnet und wird an einem einfachen Beispiel illustriert.
Beispiel 9.1
Dichotome Grundgesamtheit
Man betrachte n unabhangige Wiederholungen der Zufallsvariable
X
1
CDU-Wahler
0
sonstige Partei.
Aus den resultierenden Zufallsvariablen X i , . . . , Xn bilde man die relative Haufigkeit X = YliXi/n. Nimmt man nun an, in der Population seien 40% CDU-Wahler (Wahrscheinlichkeit TT = P{X = 1) = 0.4), dann lafit sich der Erwartungswert von X berechnen. Da unter dieser Voraussetzung E{Xi) = 0.4 gilt, folgt unmittelbar _
^ '^
E{X) = -Y^iXi) n^
1
= -n 0.4 = 0.4. n
Nimmt man hingegen an, dafi in der Population 35% CDU-Wahler sind, dann folgt mit E{Xi) = 0.35 unmittelbar E{X) = 0.35. Allgemeiner heifit das, unabhangig davon, welches TT tatsachlich zugrunde liegt, wenn man den Erwartungswert von X bildet, ergibt sich E{X) =7r. Flir die Berechnung des Erwartungswertes wird dabei vorausgesetzt, dafi ein bestimmtes, wenn auch unbekanntes n in der Grundgesamtheit vorliegt. Essentiell ist dabei, dafi dieses TT nicht bekannt ist, der Erwartungswert ist berechenbar allein aus der Annahme, dafi TT der wahre Parameter ist. Um auszudriicken, dafi der Erwartungswert unter dieser Annahme gebildet wird, nimmt man gelegentlich und genauer den Wert n als Index des Erwartungswertes hinzu, so dafi ET^{X) = TT resultiert. D
Allgemein heifit eine Schatzstatistik T •• : g{Xi^..., tungstreu oder unverzerrt, wenn gilt
Xn)
fiir den Parameter
6 erwar-
Ee{T) = e. Bestimmt man also den Erwartungswert von T unter der Voraussetzung, dafi der unbekannte Parameter 9 zugrunde liegt, ergibt sich 6 als Erwartungswert. Man kann auf diese Art ohne Kenntnis der tatsachlichen Grofie des Parameters 6 untersuchen, ob der Erwartungswert die richtige Tendenz besitzt. Eine erwartungstreue Schatzstatistik adaptiert sich automatisch an den tatsachlich in der Grundgesamtheit vorliegenden Sachverhalt.
Erwartungstreue
9. Parameterschatzung
368
Eine erwartungstreue Schatzstatistik fiir den Erwartungswert fi = E{X) Stichprobenmittel X = J2i ^i/'^^
^
ist das
^ ^ gil^
n ^-^
n
Schatzt man damit beispielsweise den zu erwartenden Intelligenzquotienten einer Studentenpopulation, erhalt man E{X) = 110, wenn der tatsachliche Wert 110 betragt, aber 105, wenn der tatsachliche Wert 105 betragt. Ein Extrembeispiel einer nicht erwartungstreuen Schatzstatistik fiir /i ware r = 110, d.h. T nimmt unabhangig von X i , . . . , X n immer den Wert 110 an. Entsprechend gilt E{T) = 110 und die Schatzstatistik ist nur dann unverzerrt, wenn tatsachlich /x = 110 gilt, fiir alle anderen Werte ist sie verzerrt. Verzerrung, Bias
Systematische Uber- oder Unterschatzung einer Schatzstatistik wird erfafit in der Verzerrung, auch Bias genannt, die bestimmt ist durch BiaseiT)
Beispiel 9.2
=
Ee{T)-e.
Erwartungstreue Schatzstatistiken In den folgenden Beispielen wird von unabhangigen Wiederholungen ausgegangen. 1. Es laCt sich zeigen, dafi die Stichprobenvarianz
^' = ^it(^^'^)' eine erwartungstreue Schatzstatistik fiir die Varianz cr^ = Var{X) ist. Es gilt £'^2(5^) = a^. Hier findet auch die Normierung durch l / ( n — 1) ihren tieferen Grund. Eben diese Normierung liefert eine erwartungstreue Schatzstatistik fiir die Varianz. Die im ersten Schritt "natiirlicher" scheinende Normierung durch 1/n liefert hingegen eine verzerrte Schatzstatistik (siehe 2.). 2. Fiir die empirische Varianz bzw. mittlere quadratische Abweichung 52 = i ^{Xi ri .
-
Xf
gilt, sofern die Varianz endlich ist, £^2(5^) = ^^cr^. 5^ ist somit nicht erwartungstreu fiir cr^. Die Verzerrung Bias^2{S'^) = E^2{S'^) - a'^
-—(J
n
zeigt, dafi 5^ die Varianz tendenziell unterschatzt. Allerdings verschwindet die Verzerrung fiir wachsenden Stichprobenumfang n.
9.2
369
Eigenschaften von Schatzstatistiken
3. Zwar ist 5^ eine erwartungstreue Schatzstatistik fiir cr^, die Wurzel daraus, also S ist jedoch i.a. nicht erwartungstreu fiir a. S unterschatzt tendenziell die Standardabweichung. 4. Fiir den Anteilswert n = P{X = 1) einer dichotomen Grundgesamtheit mit X G {1,0}, ist die relative Haufigkeit n. ^-^
eine erwartungstreue Schatzstatistik.
D
Eine abgeschwachte Forderung an die Schatzstatistik ist die asymptotische Erwartungstreue. Eine Schatzstatistik heifit asymptotisch erwartungstreu, wenn gilt lim EeiT) = 6, d.h. mit wachsendem Stichprobenumfang verschwindet die Verzerrung von T. Fiir die mittlere quadratische Abweichung gilt 2^ _
EAS')
^-1^2
n
S'^ ist daher nicht erwartungstreu. Wegen lim ^ ^ = 1 ist aber AS^ asymptotisch n—>oo ""
erwartungstreu fiir a'^, Asymptotische Erwartungstreue bezieht sich auf grofie Stichprobenumfange. Fiir kleines n kann eine asymptotische erwartungstreue Schatzstatistik erheblich verzerrte Schatzungen liefern. Fiir n = 2 liefert beispielsweise die mittlere quadratische Abweichung mit E^2{S'^) = a^/2 eine erhebhche Unterschatzung von a'^.
Erwartungstreue und Verzerrung (Bias) Eine Schatzstatistik T = g{Xi,...,
Xn) heifit erwartungstreu fiir 9, wenn gilt Ee{T) = 6,
Sie heifit asymptotisch erwartungstreu fiir 6, wenn gilt Um EeiT) = 9. n—^oo
Der Bias ist bestimmt durch Biase{T) =
Ee{T)-6.
asymptotische Erwartungstreue
9. Parameterschatzung
370
Standardfehler Beispiel 9.3
Wir werden im folgenden beim Erwartungswert auf den Index 6 verzichten, wobei weiterhin Erwartungswerte, aber auch Varianzen und Wahrscheinlichkeiten unter der Annahme der unbekannten zugrundeliegenden Verteilung bestimmt werden. Eine Schatzstatistik liefert zu den Realisationen a^i,..., x^ einen Schatzwert, der aber i.a. nicht mit dem wahren Wert 6 identisch ist. Die Genauigkeit der Schatzung ergibt sich nicht aus dem Schatzwert selbst. Fiir erwartungstreue Schatzstatistiken, die also zumindest die richtige Tendenz aufweisen, laiit sich die Genauigkeit des Schdtzverfahrens an der Varianz der Schatzstatistik festmachen. Die Wurzel aus dieser Varianz, also die Standardabweichung der Schatzstatistik wird als Standardfehler bezeichnet. Da sie i.a. nicht bekannt ist, mu6 sie selbst geschatzt werden. Arithmetisches M i t t e l
Die Schatzfunktion X = ^ ^ Xi/n besitzt wegen Var{X) = a'^/n den Standardfehler ax = ajyjn = y/Var{X)/n. Eine Schatzung des Standardfehlers von X liefert ax = yfn
\fn
D
Standardfehler Der Standardfehler einer Sch^itzstatistik ist bestimmt durch die Standardabweichung der Schatzstatistik --^Varg{Xu..
9.2.2
mittlere quadratische Abweichung mean squared error
• ^Xn)'
Erwartete mittlere quadratische Abweichung und Konsistenz
Wie die asymptotische Erwartungstreue ist die Konsistenz eine Eigenschaft, die das Verhalten bei grofien Stichprobenumfangen refiektiert. Wahrend bei der Erwartungstreue nur das Verhalten des Erwartungswerts, also die zu erwartende mittlere Tendenz der Schatzstatistik eine Rolle spielt, wird bei der Konsistenz die Varianz der Schatzung mit einbezogen. Dazu betrachtet man als ein generelles Mafi der Schatzgiite die zu erwartende mittlere quadratische Abweichung^ kurz MSE fiir mean squared error^ die gegeben ist durch
E{[T-ef).
9.2
371
Eigenschaften von Schatzstatistiken
Die mittlere quadratische Abweichung gibt nach Definition wieder, welche Abweichung zwischen Schatzfunktion T und wahrem Wert 9 fiir die Schatzfunktion T zu erwarten ist. Sie lafit sich durch Erganzen und Ausmultiplizieren einfach umformen zu
E{[T-ef) = E{[T - E{T) + E{T) - 6]'^) = E{[T - E(T)]'^) + 2E([T - E(T)][E{T) - 9]) + E{[E{T) = E{[T - E{T)]^) + [E{T) - 9]^ = Var{T) + Bias
9f)
(Tf,
Die zu erwartende quadratische Abweichung lafit sich somit darstellen als Summe aus der Varianz von T und dem quadrierten Bias, d.h. die Minimierung der zu erwartenden quadratischen Abweichung stellt einen Kompromifi dar, zwischen Dispersion der Schatzstatistik und Verzerrtheit. Aus dieser Darstellung der zu erwartenden kleinsten quadratischen Abweichung wird deuthch, dafi die Varianz der Schatzstatistik bzw. deren Wurzel als Kriterium fiir die Giite der Schatzung nur Sinn macht, wenn die Verzerrung mitberiicksichtigt wird. Der Standardfehler als Vergleichsmafi fiir die Giite ist daher auf erwartungstreue Statistiken beschrankt, d.h. wenn Bias (T) = 0 gilt.
Erwartete mittlere quadratische Abweichung ( M S E )
Die erwartete mittlere quadratische Abweichung (mean squared error) ist bestimmt durch
MSE =
E{[T-9f)
und lafit sich ausdriicken in der Form MSE = Var{T) + Bias
{Tf,
Asymptotische Erwartungstreue beinhaltet, dafi die Verzerrung fiir wachsenden Stichprobenumfang verschwindet. Geht gleichzeitig auch die Varianz gegen null, spricht man von Konsistenz^ genauer von Konsistenz im quadratischen Mittel. Wegen der Zerlegung der mittleren quadratischen Abweichung in einen Varianz- und einen Verzerrungsanteil verschwinden mit wachsendem Stichprobenumfang sowohl Verzerrung als auch Varianz, wenn die mittlere quadratische Abweichung gegen null konvergiert.
Konsistenz
9. Parameterschatzung
372
Konsistenz (im quadratischen Mittel) oder MSE-Konsistenz
Eine Schatzstatistik heifit konsistent im quadratischen Mittel^ wenn gilt MSE
asymptotische Eigenschaft
schwache Konsistenz
""-^^^ 0.
Im Gegensatz zur Erwartungstreue, die fiir endlichen Stichprobenumfang definiert wild, ist Konsistenz eine asymptotische Eigenschaft^ die das Verhalten fiir gro&e Stichprobenumfange wiedergibt. Eine konsistente Schatzstatistik kann fiir endlichen Stichprobenumfang eine erhebhche Verzerrung und groi3e Varianz besitzen. Haufig findet man eine alternative Definition der Konsistenz, die auch als schwache Konsistenz bezeichnet wird. Eine Schatzstatistik heiiSt schwach konsistent, wenn die Wahrscheinlichkeit, dafi die Schatzfunktion Werte in einem beliebig kleinen Intervall um den wahren Parameterwert annimmt, mit wachsendem Stichprobenumfang gegen eins wachst. Formal fiihrt dies zur folgenden Definition. Schwache Konsistenz
Die Schatzstatistik T = g{Xi^..., Xn) heiQt schwach konsistent, wenn zu beliebigem s > 0 gilt lim P ( | r - ^ | < e ) = l bzw.
lim
P{\T-e\>e)^0.
Die Definition besagt somit, daii egal wie klein das Intervall um den wahren Wert gewahlt wird, die Wahrscheinlichkeit fiir das Ereignis T e {0 — s,6 + s) gegen eins wachst, also die Abweichung vom wahren Wert um mindestens e gegen 0 konvergiert. Fiir grol3en Stichprobenumfang soUte der Schatzwert also in unmittelbarer Nahe des wahren (unbekannten) Parameters 6 liegen. Prinzipiell ist festzuhalten, eine Schatzstatistik, die im quadratischen Mittel konsistent ist, ist auch schwach konsistent. Beispiel 9.4
Arithmetisches Mittel
Ein Merkmal X sei normalverteilt mit X ~ N{jui,a'^). Aus unabhangigen Wiederholungen X i , . . . , Xn wird der Erwartungswert durch die Schatzstatistik X = J2i Xi/n geschatzt. Fiir X erhalt man unmittelbar E{X) = jj, (d.h. Erwartungstreue) und Var{X) = ^ ^ cr^/n = cr^/n, d.h. es gilt
9.2
373
Eigenschaften von Schatzstatistiken
X ist somit eine fiir /i erwartungstreue Schatzstatistik, deren Varianz mit zunehmendem Stichprobenumfang abnimmt. Daraus ergibt sich, dafi X konsistent (im quadratischem Mittel) ist. Darliber hinaus erhalt man P{\X-f,\<e)
X-fi a/y/n
= P
<
cr/y/n
*G^^)-*H^)Fiir feste Werte von e und a lafit sich damit unmittelbar die Wahrscheinlichkeit P{\X — fi\ < e) aus der Tabelle der Standardnormalverteilungsfunktion ablesen. In Abbildung 9.1 ist die Wahrscheinlichkeit fiir das Ereignis |X—/x| < 6 fiir zwei Stichprobenumfange dargestellt. Man sieht deuthch, wie die WahrscheinHchkeit dieses Ereignisses als Flache iiber dem Intervall mit wachsendem Stichprobenumfang zunimmt. X ist damit schwach konsistent. D
712 = 10
ni
11 — 6
fl + S
ABBILDUNG 9.1: Wahrscheinlichkeit fiir \X - fi\ < e fiir e = 1, a = 1 und den Stichprobenumfangen m = 2,n2 = 10.
Eine erwartungstreue Schatzstatistik ist offensichtlich konsistent im quadratischen Mittel, wenn die Varianz fiir wachsenden Stichprobenumfang gegen null konvergiert. Auch die schwache Konsistenz lafit sich in diesem Fall einfach an der Varianz festmachen, da sich fiir erwartungstreue Schatzstatistiken die WahrscheinHchkeit einer Abweichung u m £ durch die Tschebyscheffsche Ungleichung (Abschnitt 7.4.3) abschatzen lafit. Es gilt wegen E{T) = 6
P{\T-e\>e)<
Var{T)
9. Parameterschatzung
374
Daraus folgt unmittelbar, dafi jede erwartungstreue Schatzstatistik schwach konsistent ist, wenn Var{T) -^ 0 fiir n —> oo. Fiir unabhangige Wiederholungen erhalt man insbesondere die im quadratischen Mittel und damit auch schwach konsistenten Schatzstatistiken • X fiir den Erwartungswert /x = E{X) (siehe auch Gesetz der grofien Zahlen, Abschnitt 7.1), • X bei dichotomem Merkmal fiir den Anteilswert TT, • S'^ fiir die Varianz cr^ = Var{X). 9.2.3
MSEWirksamkeit
Wirksamste Schatzstatistiken
Die mittlere quadratische Abweichung ist ein Mafi fiir die Giite der Schatzung, das sowohl die Verzerrung als auch die Varianz der Schatzfunktion einbezieht. Darauf aufbauend lafit sich eine Schatzstatistik im Vergleich zu einer zweiten Schatzstatistik als MSE'Wirksamer bezeichnen, wenn ihre mittlere quadratische Abweichung (MSE) kleiner ist. Zu beriicksichtigen ist dabei, dafi der Vergleich zweier Statistiken Jewells fiir eine Klasse von zugelassenen Verteilungen erfolgt. Beispielsweise wird man Schatzungen fiir den Parameter A einer Poisson-Verteilung nur vergleichen unter Zulassung aller Poisson-Verteilungen (mit beliebigem A). Bei der Schatzung des Erwartungwertes lassen sich entweder alle Verteilungen mit endhcher Varianz zugrunde legen oder auch nur alle Normal verteilungen. Die Effizienz einer Statistik kann daher von der Wahl der zugelassenen Verteilungen abhangen. Mit der Bezeichnung MSE{T) fiir die mittlere quadratische Abweichung der Schatzstatistik T erhalt man die folgende Begriffsbildung. MSE ~ Wirksamkeit von Schatzstatistiken
Von zwei Schatzstatistiken Ti und T2 heifit Ti MSE-wirksamer^ MSE{Ti)
wenn
< MSE{T2)
fiir alle zugelassenen Verteilungen gilt. Eine Statistik heifit MSE-wirksamst^ wenn ihre mittlere quadratische Abweichung fiir alle zugelassenen Verteilungen den kleinsten moglichen Wert annimmt. Beschrankt man sich auf erwartungstreue Statistiken, d.h. Bias = 0, reduziert sich die M5£^-Wirksamkeit auf den Vergleich der Varianzen von Schatzstatistiken. Dieser Vergleich lafit sich allerdings auch ohne Bezug zur MS'E'-Wirksamkeit motivieren. Erwartungstreue Schatzstatistiken besitzen als Erwartungswert den tatsachlich
9.2 Eigenschaften von Schatzstatistiken
375
zugrundeliegenden Parameter, haben also prinzipiell die "richtige" Tendenz. Will man nun zwei erwartungstreue Schatzstatistiken hinsichtlich ihrer Giite miteinander vergleichen, ist es naheliegend, diejenige zu bevorzugen, die um den "richtigen" Erwartungswert am wenigsten schwankt. Mifit man die Variation durch die Varianz der Schatzfunktion erhalt man unmittelbar ein Kriterium ziim Vergleich der Giite von Schatzstatistiken.
Wirksamkeit von erwartungstreuen Schatzstatistiken
Von zwei erwartungstreuen Schatzstatistiken Ti und T2 heifit Ti wirksamer oder effizienter als T2, wenn Var{Ti) < Var{T2) fiir alle zugelassenen Verteilungen gilt. Eine erwartungstreue Schatzstatistik heifit wirksamst oder effizient^ wenn ihre Varianz fiir alle zugelassenen Verteilungen den kleinsten moglichen Wert annimmt.
Zu dieser Begriffsbildung ist zu bemerken: Ein Varianzvergleich macht natiirlich nur Sinn fiir erwartungstreue Schatzstatistiken. Die fast immer verzerrte Schatzstatistik To = 100, die immer den Wert 100 annimmt, besitzt die Varianz null. Wiirde man eine derartige Statistik zur Konkurrenz zulassen, ware ihre Varianz nicht unterbietbar, obwohl sie tendenziell fast immer verzerrte Werte liefert. Die Erwartungstreue von Schatzstatistiken hangt immer von den zugelassenen Verteilungen ab. Beispielsweise gilt fiir Poisson-Verteilungen E{X) = Var{X) = A und damit sind sowohl X als auch S^ erwartungstreu fiir E(X), 5^ ist jedoch nicht unverzerrt fiir -B(X), wenn auch Normalverteilungen zugelassen sind. Fiir die Varianz einer erwartungstreuen Schatzstatistik lafit sich eine untere Schranke angeben, die sogenannte Cramer-Rao Schranke. Wirksamste Statistiken erreichen diese Schranke, die wir hier nicht explizit angeben. Wirksamste Schatzstatistiken sind insbesondere: X fiir den Erwartungswert, wenn alle Verteilungen mit endlicher Varianz zugelassen sind, X fiir den Erwartungswert, wenn alle Normalverteilungen zugelassen sind.
376
9.
Parameterschatzung
X fiir den Anteilswert TT dichotomer Grundgesamtheiten, wenn alle BernouUiVerteilungen zugelassen sind, X fiir den Parameter A, wenn alle Poisson-Verteilungen Po{X) zugelassen sind.
9.3
Konstruktion von Schatzfunktionen
Bisher haben wir wiinschenswerte Eigenschaften von Schatzstatistiken diskutiert. Dabei wurden Schatzfunktionen betrachtet, die zum Teil schon aus den vorhergehenden Kapiteln bekannt sind. In diesem Abschnitt wird die Herkunft dieser Schatzfunktionen reflektiert. Es werden Methoden entwickelt, wie man eine geeignete Schatzfunktion fiir einen unbekannten Parameter findet. Der Schwerpunkt bei den klassischen Ansatzen liegt auf dem sehr generellen Maximum Likelihood-Prinzip, das auch in komplexen Schatzsituationen anwendbar ist. Abschnitt 9.3.3 fiihrt zusatzhch in Bayes-Schatzer ein. Konzepte der Bayes-Inferenz haben in letzter Zeit durch die Entwicklung neuer computerintensiver Methoden wachsende Bedeutung erlangt. 9.3.1
Maximum Likelihood-Schatzung
Aus Griinden der Einfachheit seien Xi^...^Xn unabhangige und identische Wie~ derholungen eines Experiments. Im bisherigen wurde oft betrachtet, mit welcher Wahrscheinlichkeit bestimmte Werte einer Zufallsvariable X auftreten, wenn eine feste Parameterkonstellation zugrunde liegt. Beispielsweise haben wir fiir BernoulliVariablen mit Parameter n abgeleitet, dafi fiir x G {0,1} f{x\7r) = P{X = X\7T) = 7r^(l - TT)^-^ gilt. Bei stetigen Variablen tritt an die Stelle der Wahrscheinlichkeit eine stetige Dichte, beispielsweise bei der Normalverteilung mit den Parametern fx und a die Dichte Geht man allgemeiner von dem Parameter 6 aus, der auch zwei- oder hoherdimensional sein kann und betrachtet den Fall unabhangiger identischer Wiederholungen, ergibt sich die (diskrete oder stetige) Dichte
f{xu,.,,xn\e)
=
f{xi\e)'''f(xn\e).
Anstatt fiir festen Parameter 6 die Dichte an beliebigen Werten a:i,... ,Xn zu betrachten, lafit sich umgekehrt fiir feste Reahsationen x i , . . . , x^ die Dichte als Funktion in 9 auffassen. Diese Funktion
L{e) =
f{xi,,,,,xn\e)
9.3
377
Konstruktion von Schatzfunktionen
heifit Likelihoodfunktion und besitzt als Argument den Parameter 9 bei festen Realisationen x i , . . . ,Xri. Das Maximum Likelihood-Prinzip zur Konstruktion einer Schatzfunktion beruht auf der Maximierung dieser Likelihood.
Likelihoodfunktion Maximum LikelihoodPrinzip
Maximum Likelihood-Prinzip Das Maximum Likelihood-Prinzip besagt: Wahle ZU Xi^ • • • 5 »^n als Parameterschatzung denjenigen Parameter 6y fiir den die Likelihood maximal ist, d.h. max e
m= m
bzw. f{xi,.,.,Xn\0)
= max /{xi,,.. e
,Xn\0).
Man wahlt somit zu den Realisationen xi^... ^Xn denjenigen Parameter 9^ fiir den die Wahrscheinlichkeit bzw. Dichte, daiJ gerade diese Werte xi^...^Xn auftreten, maximal wird. Man sucht somit zu den Realisierungen xi^... ^Xn denjenigen Parameter, der die plausibelste Erklarung fiir das Zustandekommen dieser Werte liefert. Nach Konstruktion erhalt man damit einen Schatzwert 9 zu jeder Realisierungsfolge x i , . . . , Xn^ also letztendlich eine Schatzung 9 = ^ ( x i , . . . , Xn)^ Das Einsetzen beliebiger Realisationen liefert die Schatzfunktion g{xi^..., Xn) = 9(xi^..., x^). Eine derart konstruierte Schatzfunktion heifit Maximum Likelihood-Schdtzer. Ublicherweise bestimmt man das Maximum einer Funktion durch Ableiten und NuUsetzen der Ableitung. Fiir die Likehhood fiihrt das wegen der Produkte in L{9) meist zu unfreundhchen Ausdriicken. Es empfiehlt sich daher, statt der Likelihood selbst die log^rithmierte Likelihood, die sogenannte Log-Likelihood^ zu maximieren. Da Logarithmieren eine streng monoton wachsende Transformation ist, liefert das Maximieren von L{9) und InL(^) denselben Wert 9. Fiir den bisher betrachteten Fall unabhangiger und identischer Wiederholungen ergibt sich die Log-Likehhood als Summe lnL{e) =
Y,lnf{xi\e). i=i
Maximum LikelihoodSchdtzer
Log-Likelihood
378
Beispiel 9.5
9. Parameterschatzung
Poisson-Verteilung Seien X i , . . . , ^ 4 unabhangige Wiederholungen einer Poisson-verteilten Grofie Po{X) mit zu schatzendem Wert A. Die Realisationen seien xi = 2 , X2 = 4, xs = 6, X4 = 3. Damit erhalt man die Likelihoodfunktion L(A) = f{x,\\)...
fix,\X)
-4A\15 =e-^^A
= e-^:^e-^^e-^^e-^^
1
2! 4! 6! 3!
bzw. die Log-Likelihood-Funktion InL(A) - -4A + 15 In A - ln(2! 4! 6! 3!). Ableiten und NuUsetzen ergibt
d\
^ A
und damit
Bemerkenswert ist daran, dafi A = X = (2 + 4 + 6 + 3)/4, d.h. es ergibt sich eine bekannte Schatzfunktion. Das Verfahren lafit sich natiirlich genereller fiir die Realisationen x i , . . . , Xn durchftihren. Man erhalt die Log-Likelihood-Funktion InL(A) = f ^ l n / ( x , | A ) = f ^ l n
fe"^^)
n
= ^ ( - A + Xi\ii\-
\ii{xi\)).
Ableiten und NuUsetzen liefert
9^
trV
""A
und damit _n + ^ ^ i ^ = 0 A
bzw.
A= S l ^ n
= X.
Der Maximum LikeUhood-Schatzer ist also in diesem Fall fiir jede Realisationsfolge identisch mit dem arithmetischen Mitt el. D
9.3
379
Konstruktion von Schatzfunktionen
Beispiel 9.6
Normalverteilung
Seien Xi,,,. ,Xn unabhangige Wiederholungen einer Normalverteilung N[^,a'^). Zu schatzen sind /i und cr, d.h. der Parameter 6 = {ii^cr). Die Likelihoodfunktion besitzt hier fiir generelle Realisationen a:i,..., Xn die Form 1
L{fi,a)
-e
e
2
27ra
(xrt-M)^ 2CT2
277(7
die Log-Likelihood-Funktion ist bestimmt durch {Xi -
lnL(M,a) = X : [ l n ( - ^ )
^f
-Inv^-lna-^^^i^ 2a2
2CT2
Partielles Differenzieren nach /i und a und Nullsetzen ergibt das Gleichungssystem 91nL(/i,cr) dfi
^Xi
— jl
=E^
aa
i=l
= 0,
2^3
^
:0.
Aus der ersten Gleichung ergibt sich ] ^ a:^ — n/i = 0 und damit jl = x. Aus der zweiten 2=1
Gleichung erhalt man = 0 (J
^ i=l
(7^
und daraus
pYl^^^-^^y= pY.^^^-^yAls Maximum Likelihood-Schatzer fiir ji und a im Fall der Normalverteilung erhalt man somit die bereits bekannten Schatzstatistiken X und S. D
9.3.2
Kleinste-Quadrate-Schatzung
Ein einfaches Prinzip der Parameterschatzung besteht darin, die aufsummierten quadratischen Abweichungen zwischen Beobachtungswert und geschatztem Wert zu minimieren. Dieses Prinzip findet insbesondere Anwendung in der Regressionsanalyse (siehe Abschnitt 3.6.2).
9.
380
Beispiel 9.7
Parameterschatzung
Arithmetisches M i t t e l
Zur Schatzung der zentralen Tendenz wird fi so geschatzt, dafi
Y^{Xi-fif
^ mm.
i=l
Daraus resultiert nach einfacher Ableitung als Schatzer das arithmetische Mittel X.
9.3.3
D
Bayes-Schatzung
Den bisher beschriebenen Konzepten zur Parameterschatzung liegen objektive Wahrscheinlichkeiten und zugehorige Haufigkeitsinterpretationen zugrunde. Die Bayes-Schatzung basiert auf dem subjektiven Wahrscheinlichkeitsbegriff (vgl. Abschnitt 4.2.3). Wie wir sehen werden, besteht dennoch eine enge Verbindung zwischen der Maximum-Likelihood-Schatzung und der Bayes-Schatzung.
a prion a posteriori Bayesianisches Lemen
Die Bayes-Inferenz geht von einem anderen Grundverstandnis aus: Die Unsicherheit wird durch eine Verteilung reprasentiert, d.h. formal werden Parameterwerte als Realisierungen von Zufallsvariablen angesehen. Bevor die Daten aus einer Stichprobe vorliegen, werden die Parameter durch eine a priori Verteilung beschrieben. Sobald die Daten bekannt sind, wird mit Hilfe des Satzes von Bayes (Abschnitt 4.7) die entsprechende a posteriori Verteilung berechnet. Dieses Vorgehen bezeichnet man auch als Bayesianisches Lemen. Als (Punkt-)Schatzer fiir die unbekannten Parameter werden iibliche Lageparameter, wie Erwartungswert, Median oder Modus der a posteriori Verteilung gewahlt. Wir gehen der Einfachheit wieder davon aus, dafi die Daten (xi^... ^Xn) der Stichprobe Realisierungen von unabhangigen und identisch verteilten Wiederholungen X i , . . . , X n einer Zufallsvariable X sind, und dafi ein skalarer Parameter 6 vorliegt. Die Erweitung auf mehrdimensionale Parameter und Zufallsvariablen ist konzeptionell ohne weiteres moglich. Zunachst beschreiben wir die formale Vorgehensweise allgemein und kommen dann auf die Beispiele 9.5 (Poisson-Verteilung) und 9.6 (Normalverteilung) zuriick. Dazu benotigen wir einige Varianten bzw. Erweiterungen des Satzes von Bayes aus Abschnitt 4.7. Im weiteren bezeichne © die Zufallsvariable "Parameter" und 9 den Parameterwert. Wir betrachten zunachst den Fall n = 1, so dafi nur eine Realisierung x von X vorliegt. In volliger Analogic zu den Abschnitten 8.2 und 8.3, wobei notationell Y und y durch 9 und 6 ersetzt werden, sind dann
9.3
Konstruktion von Schatzfunktionen
• f{x\6)
381
die bedingte Wahrscheinlichkeitsfunktion bzw. Dichte von X, gegeben
e = e, • f{x) die Randverteilung oder -dichte von X, • f{x) die a priori Wahrscheinlichkeitsfunktion oder a priori Dichte von O (d.h. die Randverteilung von G), • f(0\x) die a posteriori (oder bedingte) Wahrscheinhchkeitsfunktion oder Dichte von G, gegeben die Beobachtung X = x^ • / ( x , 9) die gemeinsame Wahrscheinlichkeitsfunktion oder Dichte. Dann gilt folgende Form des Satzes von Bayes:
f{x)
fix)
Wenn 0 und X diskret sind, gilt
p{x=x)^fix) = j2fi^\^j)m), 3
wobei iiber die moglichen Werte 6j von G summiert wird. Dann ist obige Beziehung, wenn auch in anderer Notation, der Satz von Bayes aus Abschnitt 4.7. Meist wird jedoch G als stetig angesehen. Dann gilt der Satz von Bayes in folgender Erweiterung:
fio\x)
f{x I e)f{e)
_ fix I e)fie)
Jfix\e)fie)de
fix)
Dabei kann X stetig oder diskret sein. Wenn nun statt einer Beobachtung x eine Stichprobe ( x i , . . . , Xn) vorliegt, bleibt der Satz von Bayes auch richtig, wenn f{x \ 6) durch die (bedingte) gemeinsame Dichte / ( x i , . . . ,x^ | ^) ersetzt wird. Wegen der unabhangigen und identisch nach f{x \ 9) verteilten Stichprobenvariablen gilt f{xi,...,Xn\9)
= f{xi\9)'-'f{xn\9)
= L{e),
mit L{9) als Likelihoodfunktion. Damit lafit sich die Bayes-Inferenz oder Bayesia-
382
9. Parameterschatzung
nisches Lernen folgendermafien zusammenfassen:
Bayes-lnferenz, Bayesianisches Lernen
Die Wahrscheinlichkeitsfunktion oder Dichte von X, gegeben 6, sei
und
L{e) = f{xi,...,xn\e) die gemeinsame Dichte bzw. Likelihoodfunktion fiir n unabhangige Wiederholungen von X. Fiir den unbekannten Parameter wird eine a priori Dichte
m spezifiziert. Dann ist die a posteriori Dichte liber den Satz von Bayes bestimmt durch
m\.
. ^
J\P \Xi,,,,,Xn)=
/(^il^)---/K|e)/W L{e)m — J f{xi I ^)... f{xn I e)m de J L{e)f[e) de
Das Bayesianische Lernen besteht somit darin, die (subjektive) a priori Information iiber 6 und die Stichprobeninformation mit Hilfe des Satzes von Bayes zur a posteriori Information in Form der a posteriori Dichte zu verarbeiten. Als Bayes-Schatzer fiir 6 bieten sich iibhche Lageparameter der a posteriori Verteilung an, insbesondere Erwartungswert und Modus. Da der Nenner J L{6)f{6)d9 nicht mehr von 6 abhangt - 6 wird "herausintegriert" -, kann der Modus durch Maximieren des Zahlers L{0)f{6) bzw. aquivalent durch Maximieren des logarithmischen Zahlers \iiL{6) + lnf{6) bestimmt werden.
9.3
383
Konstruktion von Schatzfunktionen
Bayes>Schatzer
a posteriori Erwartungswert: Op = E{e\xi,,,,,
Xn) =
/ Of {6
\xi,,.,,Xn)
d6
a posteriori Modus oder maximum a posteriori (MAP) Schatzer: Wahle denjenigen Parameterwert ^MAP? fiir den die a posteriori Dichte maximal wird, d.h.
L{e)f{e) = maxL{e)f{e) bzw.
9
\nL{e) + lnf{e) = max{lnL(e) + l n / ( ^ ) }
Zur Berechnung der vollen a posteriori Verteilung mui3 das Integral J L(9)f{9)d0 berechnet werden. Dies kann bereits fiir vergleichsweise einfache Dichten f(x\9) und a priori Dichten f{9) analytisch nicht mehr durchfiihrbar sein. Dann miissen numerische Integrationsverfahren oder moderne Simulationstechniken wie MCMC (Markov Chain Monte Carlo) eingesetzt werden. Bei der Bestimmung des MAPSchatzers wird dieses Problem umgangen, da nur der Zahler L(0)f(9) maximiert werden mufi. Damit wird auch die Beziehung zur Maximum Likelihood-Schatzung deutlich: Statt der Likelihood L{9) ist die mit der a priori Dichte f{9) gewichtete Funktion L{9)f{9) zu maximieren. Ist f{9) sehr flach, so driickt dies wenig Vorwissen dariiber aus, wo 9 liegt. Im Extremfall kann f{9) z.B. eine Gleichverteilung iiber [—c, c] mit sehr grofiem c sein. Dann sind der Maximum Likelihood-Schatzer 9 und der MAP-Schatzer 9MAP praktisch identisch und stimmen fiir den voUig "diffusen" Grenzfall c -^ oo iiberein. Dies wird auch im folgenden Beispiel deutlich. Beispiel 9.8
Poisson-Verteilung
Seien X i , . . . ,^4 wie in Beipiel 9.5 unabhangige Wiederholungen von X ~ Po{X) mit zu schatzendem Wert A und den Realisationen xi = 2, X2 = 4, xs = 6, X4 = 3. Wir erhalten somit wieder die Likelihoodfunktion -4A\15 L(A) = / ( x i | A ) . . . / ( x 4 | A ) = e-^^A
1 2! 4! 6! 3! '
Als a priori Dichte fiir A wahlen wir eine Exponentialverteilung mit dem "HyperParameter" a, also f(X) - / ^^""^ ^ ^~ I 0
fiir A > 0 fiir A<0.
384
9.
Parameterschatzung
Damit gilt a priori E{X) = 1/a. Der Hyperparameter a wird subjektiv gewahlt und reflektiert die Vorinformation iiber A: Fiir grofies a geht /(A) schnell gegen 0, d.h. wir glauben an einen relativ kleinen Wert von A. Fiir kleines a ist die Exponentialverteilung flach und geht langsam gegen 0, d.h. auch grofiere A-Werte werden als wahrscheinlich angesehen, vgl. aueh Abbildung 6.8, S. 281. Fiir den Grenzfall a-^0 wird die Dichte voUig flach, so dafi keine Vorkenntnis iiber A vorUegt. Zur Bestimmung des MAP-Schatzers AMAP ist L{X)f{X) bzw. InL(A) + ln/(A) = -4A + 151n A - aA + c beziigUch A zu maximieren, wobei die Konstante c nicht von A abhangt. Ableiten und Nullsetzen ergibt -4 +
a = 0, AMAP
und damit AMAP =
4+ a
Man erkennt die Auswirkung des Hyperparameters a: Fiir groJ3es a favorisiert die a priori Dichte kleine A-Werte. Dies spiegelt sich im Schatzwert AMAP wider: AMAP = 15/(4 + a ) wird im Vergleich zur Maximum Likehhood-Schatzung A = 15/4 in Beispiel 9.5 gegen 0 gedriickt. Fiir a -4 0, also dem Grenzfall "keine Vorinformation" iiber A, gilt AMAP —^ A. Somit steuert a die Gewichtung zwischen subjektiver Vorinformation und Stichprobeninformation. Bereits in diesem einfachen Beispiel ist die Bestimmung der a posteriori Dichte und damit auch des a posteriori Erwartungswerts 9p schwierig: Es ist das Integral
Jo zu berechnen, was mit elementaren Mitteln nicht mehr moglich ist. Fiir den allgemeinen Fall von Realisierungen xi,... ,Xn rechnet man leicht nach, dafi AMAP =
—^"7^
gilt. Fiir den Grenzfall a —> 0 (keine Vorinformation) ergibt sich wieder AMAP = ^, also der Maximum Likehhood-Schatzer. Ansonsten gilt immer AMAP < ^, und AMAP ist umso naher bei 0, je grofier a im Verhaltnis zum Stichprobenumfang n ist. D
Beispiel 9.9
Normalverteilung
Wie in Beispiel 9.6 seien X i , . . . , Xn unabhangige Wiederholungen von X ~ N{fi, cr^), wobei fi zu schatzen ist, aber nun a^ als bekannt angenommen wird. Als a priori Dichte fiir fi wahlen wir eine A^(/xo,cr^)-Verteilung, also
«'')=(4)^-{-^}-
9.4
Intervallschatzung
385
Diese Vorinformation besagt, da6 // um den Erwartungswert /XQ niit der Varianz ag streut. Je kleiner cr^, desto praziser ist das Vorwissen; je groBer CTQ, desto unsicherer ist diese Vorinformation. Die a posteriori Dichte ergibt sich aus /(/X \xi,.,.,Xn)
=
jL{fi,a)f{fi)diJ,
'
mit der in Beispiel 9.6 angegebenen Likelihood L{fj,,a). In diesem Fall kann nach einiger Rechnung die a posteriori Dichte analytisch bestimmt werden. Es ergibt sich eine Normalverteilung /i I Xi,...,Xn r^ N{jl,d'^) mit a posteriori Erwartungswert na'k
_
(7^
und a posteriori Varianz G
2
2
cr
n 4- ^^/cr^ ' Der a posteriori Erwartungswert jl ist damit ein gewichtetes Mittel aus dem Stichprobenmittel X und dem a priori Erwartungswert /XQ . Fiir CTQ ^ 0 ("exaktes Vorwissen") gilt ft—^/do, und fiir (JQ —> 00 ("kein Vorwissen") ergibt sich ft-^ x, d.h. die Maximum Likelihood-Schatzung jl = x aus der Stichprobe. Analog erhalt man cr^ —> 0 fiir CTQ —> 0 und a'^ -^ cr^/n, die Varianz des Maximum Likelihood-Schatzers /i, fiir CTQ —> 00. Zusammengefafit gilt somit IUL\ xi,...
,Xn —^ N(x,cr'^/n)
fiir CTQ -^ 00
bei nichtvorhandenem Vorwissen iiber //, und /i I Xi,...,Xn ^iV(/Xo,0) bei sicherem Vorwissen 11 = ^LQ. Der "Hyperparameter" (JQ steuert also wieder den Kompromifi zwischen Stichprobeninformation und subjektiver a priori Information. D
9.4
Intervallschatzung
Die Punktschatzung liefert uns einen Parameterschatzwert ^, der im Regelfall nicht mit dem wahren 6 identisch ist. In jeder sinnvollen Anwendung ist es daher notwendig, neben dem Schatzwert 6 selbst, die Prazision des Schatzverfahrens mitanzugeben. Fiir erwartungstreue Schatzer ist der Standardfehler, d.h. die Standardabweichung der Schatzstatistik, ein sinnvoUes Ma6 fiir die Prazision.
9. Parameterschatzung
386
Ein anderer Weg, die Genauigkeit des Schatzverfahrens direkt einzubeziehen, ist die Intervallschdtzung. Als Ergebnis des Schatzverfahrens ergibt sich hier ein InterIntervallschdtzung val!, wobei man versucht, die Wahrscheinhchkeit, mit der das Verfahren ein Inter vail liefert, das den wahren Wert 6 nicht enthalt, durch eine vorgegebene Irrtumswahrscheinlichkeit a zu kontrollieren. Ubliche Werte fiir diese Irrtumswahrscheinlichkeit sind a = 0.10, a = 0.05 oder a = 0.01. Entsprechend ergibt sich die Wahrscheinlichkeit, dafi das Verfahren ein Interval! liefert, das den wahren Wert 6 enthalt, durch Uberdeckungs- die Gegenwahrscheinlichkeit 1 — a, die auch als Uberdeckungswahrscheinlichkeit bewahrscheinlich- zeichnet wird. Fiir diese erhalt man dann die Werte 0.90, 0.95 bzw. 0.99. keit Man benotigt zur Intervallschatzung zwei Stichprobenfunktionen,
Gu = gu{Xu..., Xn)
und
Go = go{Xi,...,
Xn),
fiir die untere bzw. die obere Intervallgrenze.
(1 — a)>Konfidenzintervall
Zu vorgegebener Irrtumswahrscheinlichkeit a liefern die aus den Stichprobenvariablen X i , . . . , Xn gebildeten Schatzstatistiken Gu = 9u{Xi,..., ein (1 — a)-Konfidenzintervall
Xn) und Go = g{Xi,...,
Xn)
(Vertrauensintervall), wenn gilt
P{Gu
Xn), go = go{xi,...,
Xn).
Sind sowohl Gu als auch Go Statistiken mit echter Variabilitat, erhalt man damit zweiseitiges ein zweiseitiges Konfidenzintervall^ d.h. eine Intervallschatzung [guigo] mit i.a. nichKonfidenzinter- tentarteten Grenzen gu ^ —00,^0 7^ 00. Wir werden uns im folgenden auf den Fall vall symmetrischer Konfidenzintervalle beschranken. Bei symmetrischen Konfidenzintervallen ist nach Konstruktion die Wahrscheinlichkeit, dafi 6 iiber der oberen Grenze liegt dieselbe, wie die Wahrscheinlichkeit, dafi 6 unter der unteren Grenze liegt. Wenn man die Abweichung der Schatzung vom wahren Wert nur in eine Richtung
9.4 Intervallschatzung
387
kontrollieren will, gibt es die Moglichkeit eine der Grenzen prinzipiell durch bzw. oo festzusetzen. Daraus ergeben sich einseitige Konfidenzintervalle,
-(X)
Einseitige ( 1 — a)-Konfidenzintervalle
Setzt man prinzipiell G^ = — oc (fiir alle Werte X i , . . . , X n ) erhalt man ein einseitiges Konfidenzintervall P{e
Das Problem einseitiger Konfidenzintervalle stellt sich, wenn nur Abweichungen in eine Richtung Konsequenzen haben. Benotigt man beispielsweise fiir das Bestehen einer Klausur eine bestimmte Punktzahl und will seine Leistungsfahigkeit aus der Bearbeitung von Probeklausuren (den Stichprobenvariablen) ableiten, dann gilt das Interesse einem einseitigen Konfidenzintervall der Form [^u,oo]. Man will nur absichern, dafi eine bestimmte Punktzahl iiberschritten wird, die Abweichung nach oben ist uninteressant, wenn nur das Bestehen oder Nichtbestehen von Relevanz ist. Prinzipiell ist zur Interpretation von Konfidenzintervallen festzuhalten: Die Intervallgrenzen sind Zufallsvariablen. Die Schatzung von Konfidenzintervallen ist so konstruiert, dafi mit der Wahrscheinhchkeit 1 — a das Inter vail [Gw, Go] den wahren Wert 6 iiberdeckt. Das ist jedoch eine Eigenschaft des Schdtzverfahrens^ d.h. 1 — a ist die Wahrscheinhchkeit, mit der das Verfahren zu Konfidenzintervallen fiihrt, die den wahren Wert enthalten. Fiir das realisierte Konfidenzintervall [gui9o] niit den Realisationen gui9o lafit sich daraus nicht schhefien, dafi 0 mit der Wahrscheinhchkeit 1 — a darin enthalten ist. In einem konkreten Konfidenzintervall ist 9 enthalten oder nicht. Es lafit sich nur aussagen, dafi das Verfahren so konstruiert ist, dafi in (1 — a) • 100% der Falle, in denen Konfidenzintervalle geschatzt werden, die resultierenden Intervalle den wahren Wert enthalten. 9.4.1
Konfidenzintervalle fiir Erwartungswert und Varianz
Generell seien im folgenden X i , . . . , X^ unabhangige Wiederholungen einer N{iji, cr^)-verteilten Zufallsvariablen. Gesucht ist eine Konfidenzintervall-Schatzung fiir den unbekannten Erwartungswert /x.
Hdufigkeitsinterpretation
388
9.
Parameterschatzung
1 . Fall: a^ bekannt
Ausgangspunkt bei der Bestimmung des Konfidenzintervalls ist ein Punktschatzer fiir den unbekannten Erwartungswert /i. Ein Schatzer, der sich anbietet, ist das arithmetische Mittel X, das normalverteilt ist gemafi A/'(//, cr^/n). X lafit sich standardisieren, so dafi gilt
X-fi
iV(0,l).
Man hat damit eine Statistik, - die den unbekannten Parameter \x enthalt (a ist bekannt), - deren Verteilung man kennt. Dariiber hinaus ist diese Verteilung nicht von /i abhangig. Fiir diese Statistik lafit sich unmittelbar ein zweiseitig beschrankter Bereich angeben, in dem sie mit der Wahrscheinlichkeit 1 — a liegt. Es gilt
wobei Zi_a/2 das (1 — Q;/2)-Quantil der bekannten Standardnormalverteilung bezeichnet. Ein Konfidenzintervall erhalt man daraus durch einfaches Umformen der Ungleichungen innerhalb der Klammern. Man erhalt
1 - a = P f -2l_a/2 <
^P{X-
Z,_^/,^
^
V^ < ^l-a/2 j
< /X < X + ^ l - a / 2 ^ ) .
In der letzten Form sind die Bedingungen fiir ein (1 — a)-Konfidenzintervall erfiillt, das sich damit ergibt durch
Die Breite dieses Konfidenzintervalls ist gegeben durch a Das heifit, neben a hangt die Breite vom Stichprobenumfang n und der Irrtumswahrscheinlichkeit a ab. Genauer kann man festhalten:
9.4
389
Intervallschatzung
• Die Breite des Konfidenzintervalls nimmt mit zunehmendem Stichprobenumfang n so ab, dafi BKI -^ 0 fiirn -^ OO. Die wachsende Schatzgenauigkeit driickt sich in kleineren Konfidenzintervallen aus. • Die Breite des Konfidenzintervalls nimmt mit wachsender Sicherheitswatirscheinlichkeit 1—a (abnehmender Irrtumswahrscheinlichkeit a) zu. Fiir 1—a —» 1, also a ^ 0 ergibt sich BKI —^ oo, das 100 %-Konfidenzintervall ist unendlich grofi. Die Abhangigkeit von a und n bietet mehrere Moglichkeiten der Steuerung. Will man beispielsweise zu fester Irrtumswahrscheinlichkeit a Konfidenzintervalle bestimmter Maximalbreite haben, lafit sich der Stichprobenumfang entsprechend anpassen durch n > {2zi_(^/2^)'^/bKl' Aus der standardisierten Zufallsvariable {X — ij)/{a/y/n) lassen sich in analoger Art und Weise einseitige Konfidenzintervalle ableiten. Man erhalt
V
V^
und damit das einseitige Konfidenzintervall X — Zi-c
y/n'
oo
Die Begrenzung nach oben ergibt das einseitige Konfidenzintervall -oo, X + Zi-a—F^ 2. Fall: cr^ unbekannt
Die wesentliche Voraussetzung bei der Konstruktion der obigen Konfidenzintervalle war die Existenz einer Zufallsvariable, die den wahren Parameter enthalt, deren Verteilung bekannt ist und deren Verteilung nicht von dem unbekannten Parameter abhangt. Eine derartige Variable heifit Pivot-Variable und ist fiir den Fall, dai3 cr^ unbekannt ist, gegeben durch {X — ii)/{S/y/n)^ wobei a durch die Schatzung 5= \/Et(^i-^)^/('^-i) ersetzt wird. Diese Variable besitzt eine t-Verteilung mit n — 1 Freiheitsgraden (zur t-Verteilung vgl. Abschnitt 6.3), d.h. es gilt X-/i
y/n ~ t{n — 1).
Maximalbreite von Konfidenzintervallen
9.
390
Parameterschatzung
Fiir diese Variable lafit sich wiederum ein Bereich angeben, der mit der Wahrscheinlichkeit 1 — a angenommen wird. Es gilt P (-ti-a/2{n
- 1) < ^ ^
V^ < h-a/2(n
- 1) j = 1 - a,
wobei ti_c,/2{'n — 1) nun das (1 — a/2)-Quantil der t-Verteilung mit n — 1 Freiheitsgraden darstellt. Die Umformung in voUiger Analogic zum Fall fiir bekanntes a^ fiihrt zum zweiseitigen Konfidenzintervall X-t
i-a/2i^ - l)-7=, X + ti_^/2{n - l)-j=
Die Breite dieses Konfidenzintervalls ist bestimmt durch S S bKi = 2ti_^/2(n - l)-y= = 2ti_^/2(n - 1)—F=. ' y/n y/n
(1 — a)-Konficlenzintervalle fiir /x bei normalverteiltem Merkmal Wenn a^ bekannt ist, erhalt man
Vn
' yjn_
5
wenn cr^ unbekannt ist, ergibt sich S
yjn_
yJTl
^^s=l^,UXi-x)\ Zu bemerken ist, dai3 fiir beliebig verteiltes Merkmal aber groiJen Stichprobenumfang (n > 30) wegen der approximativen Normalverteilung L
yn
^ ^yn]
ein approximatives Konfidenzintervall darstellt, wenn a bekannt ist, und 5
,-.
S
X ~ ^\-OL / 2 ~7=? ^ + ^1-Q:/2'~7=
9.4 Intervallschatzung
391
ein approximatives Konfidenzintervall ist, wenn a unbekannt ist.
(1 — a)-Konfidenzintervall fiir fx bei beliebiger Verteilung ( n > 30)
Wenn a^ bekannt ist, stellt X - ^l-a/2-7=5 X + ^l_a/2—;=
wenn a'^ unbekannt ist, stellt X - '2^1-a/2—7=5 - ^ + ^l-a/2—7=
vn / vn ein approximatives Konfidenzintervall fiir /i dar.
Ein Konfidenzintervall fiir a^ bei normalverteilter Grundgesamtheit lafit sich konstruieren aus der Verteilung von 5^. Es gilt, dafi eine "normierte" Version von 5^, namlich ^ ^ 5 ^ , eine x^-Verteilung mit n — 1 Preiheitsgraden besitzt, d.h. n-1
S'^x\n-1),
Daraus erhalt man mit V 2 = Xa/2(^-l)' dem (a/2)-Quantil der x^(^ — 1)-Verteilung und ^l-a/2 = X ? _ a / 2 ( ^ - l ) dem (1 - a/2)-Quantil der x^{^ — 1)-Verteilung l - a = P Ua/2 < ^ ^ ^ 5 2 < gi_^/2 j = p
^a/2
^
1 ^
< -^ <
gl-a/2
\
( n - l ) 5 2 - a2 {n-l)S^J _p^\n-l)S' ^^,^{n-l)S' Ql~a/2
Qct/2
Daraus ergibt sich das zweiseitige Konfidenzintervall:
392
9. Parameterschatzung
(1 — a)-Konfidenzlntervall fur cr^ bei normalverteiltem Merkmal
Das zweiseitige Konfidenzintervall ist bestimmt durch die Grenzen '(n-l)52
(n-l)52'
Ql-a/2
9.4.2
Qa/2
Konfidenzintervalle fur den Anteilswert
In einer dichotomen Grundgesamtheit interessiert man sich fiir den Anteilswert bzw. die Auftretenswahrscheinlichkeit n = P{X = l), wobei X ein dichotomes Merkmal mit den Auspragungen 0 oder 1 ist. Fiir n unabhangige Wiederholungen ist die Summe Yli ^i binomialverteilt mit n 1=1
Der zentrale Grenzwertsatz (vgl. Abschnitt 7.1) besagt, dal3 die normierte Version X = Y^^Xi/n fiir groiSen Stichprobenumfang approximativ normalverteilt ist, d.h. dafi annahernd gilt
VVaHX) Wegen E{X) = n und Var{X) = 7r(l — 7r)/n gilt damit approximativ X-w i/7r(l - 7r)/n
N{0,1).
Approximiert man nun noch den Nenner, indem man n durch die relative Haufigkeit n = X ersetzt, ergibt sich zu vorgegebenem a l - a ^ P l
-Z^_a/2
<
y...
...
n
<
^l-a/2
' \
n
9.5 Zusammenfassung und Bemerkungen
393
(1 — a)-Konfidenzintervall fiir den Anteilswert ir
In dichotomen Grundgesamtheiten ist fiir grofien Stichprobenumfang (n > 30) ein approximatives Konfidenzintervall gegeben durch 7r(l —
TT)
^
/7r(l —
n
TT)
n
wobei TT = X die relative Haufigkeit bezeichnet.
Beispiel 9.10
Sonntagsfrage
Von den 435 zur Praferenz von Parteien befragten Mannern aufierten 144 eine Praferenz fiir die CDU/CSU. Unter den 496 befragten Frauen waren es 200, die eine Praferenz fiir die CDU/CSU zeigten (vgl. Beispiel 3.12, Seite 126). Legt man eine Sicherheitswahrscheinlichkeit von 1 — a = 0.95 zugrunde, erhalt man zi_ci/2 = 1-96. Fiir Manner ergibt sich TT ± ^l-a/2\/ -^
= 0.331
± 1.96
0.331 • 0.669 435
= 0.331 ± 0.044 und damit das approximative 0.95-Konfidenzintervall [0.287, 0.375]. Fiir Frauen erhalt man /7r(l-7r)
TT ± zi_^i2\i—
= 0.403
± 1.96
0.403 • 0.597 496
= 0.403 ± 0.043 und daraus das approximative 0.95-Konfidenzintervall [0.360, 0.446].
9.5
D
Zusammenfassung und Bemerkungen
Schatzverfahren lassen sich unterteilen in Verfahren der Punktschatzung und der Intervallschatzung. Punktschdtzer stellen eine Regel dar, den Ergebnissen einer Zufallsstichprobe einen Schatzwert zuzuordnen, der moglichst nahe an dem wahren Parameterwert Hegt. Wie gut diese Regel ist, lafit sich an den Eigenschaften der Schatzfunktion ablesen. Eine wiinschenswerte Eigenschaft ist die Erwartungstreue, da erwartungstreue Schatzstatistiken unverzerrt sind, d.h. die Parameter werden weder systematisch iiber- noch unterschatzt. AUerdings besagt Erwartungstreue allein
9. Parameterschatzung
394
noch nicht, dafi das Verfahren wirklich gut ist, da damit nichts liber die Streuung der Schatzung ausgesagt wird. Ein Kriterium, das sowohl die Variabilitat als auch die Verzerrung des Schatzers einbezieht, ist die erwartete mittlere quadratische Abweichung (MSE). Konsistenz^ d.h. die Tendenz zum richtigen Wert bei wachsendem Stichprobenumfang, lafit sich am Verschwinden dieser mittleren quadratischen Abweichung festmachen. Man fordert, dafi fiir wachsenden Stichprobenumfang MSE —» 0 gilt, Wirksamkeit als Vergleichskriterium fiir Schatzstatistiken bei endlichen Stichproben beruht auf dem Vergleich der erwarteten mittleren quadratischen Abweichung. Bei erwartungstreuen Statistiken reduziert sich dieser Vergleich auf die Betrachtung der Varianzen von Schatzstatistiken. Intervallschdtzung beriicksichtigt die Unsicherheit der Schatzung dadurch, dafi ein Intervall konstruiert wird, das mit vorgegebener Sicherheitswahrscheinlichkeit den wahren Parameter iiberdeckt. Die Breite des Intervalls hangt vom Stichprobenumfang, von der Sicherheitswahrscheinlichkeit und vom Vorwissen iiber den Verteilungstyp ab. Bei der Konstruktion von Punktschatzern wurde vorwiegend das Maximum Likelihood-Prinzip betrachtet. Alternativen dazu, wie die Moment en-Methode oder Bayes-Schdtzer^ werden in Rohatgi und Saleh (2000) ausfiihrlich dargestellt. Eine Einfiihrung in robuste Schatzverfahren, die unempfindlich sind gegeniiber einzelnen extremen Beobachtungen, sogenannten Ausreifiern, findet sich beispielsweise in Schlittgen (1996). Dort werden auch generelle Methoden zur Konstruktion von Intervallschatzern dargestellt. Weitere vertiefende Biicher sind Riiger (1996) und das Ubungsbuch von Hartung und Heine (1996).
9.6 Aufgabe 9.1
Aufgaben
Die Suchzeiten von n Projektteams, die in verschiedenen Unternehmen dasselbe Problem losen soUen, konnen als unabhangig und identisch exponentialverteilt angenommen werden. Aufgrund der vorliegenden Daten soil nun der Parameter A der Exponentialverteilung mit der Maximum Likelihood-Methode geschatzt werden. Es ergab sich eine durchschnittliche Suchzeit von ^ = 98. Man stelle die Likelihoodfunktion auf, bestimme die ML-Schatzfunktion fiir A und berechne den ML-Schatzwert fiir A.
Aufgabe 9.2
Die durch die Werbeblocke erzielten taglichen Werbeeinnahmen eines Fernsehsenders konnen als unabhangige und normalverteilte Zufallsvariablen angesehen werden, deren Erwartungswert davon abhangt, ob ein Werktag vorliegt oder nicht.
9.6 Aufgaben
395
Fur die weitere Auswertung wurden folgende Statistiken berechnet (alle Angaben in € ) : Werktage (Mo-Fr): (n = 36) Wochenende (Sa-So): (n = 25)
x = U5 500 x = 375 500
s = 32 700 5 = 52 700
Man gebe jeweils ein Schatzverfahren zur Berechnung von 0.99-Konfidenzintervallen fiir die wahren taglichen Werbeeinnahmen an Werktagen bzw. Wochenenden an, und berechne die zugehorigen Schatzungen. Eine Grundgesamtheit besitze den Mittelwert // und die Varianz a^. Die Stichprobenvariablen X i , . . . , X5 seien unabhangige Ziehungen aus dieser Grundgesamtheit. Man betrachtet als Schatzfunktionen fiir /i die Stichprobenfunktionen
Aufgabe 9.3
T i = X = - ( X i + X 2 + ...-fX5), T2 = i ( X i + X 2 + X 3 ) , T3 = ^ ( X i + X 2 + X 3 + X 4 ) 4-^X5, T4 = Xi + X2,
n=Xi. (a) Welche Schatzfunktionen sind erwartungstreu fiir //? (b) Welche Schatzfunktion ist die wirksamste, wenn alle Verteilungen mit existierender Varianz zur Konkurrenz zugelassen werden? Aus einer dichotomen Grundgesamtheit seien X i , . . . , Xn unabhangige Wiederholungen der dichotomen Zufallsvariable X mit P{X = 1) = TT, P{X = 0) = 1—TT. Bezeichne n = X^^^i Xi/n die relative Haufigkeit. (a) Man bestimme die erwartete mittlere quadratische Abweichung (MSE) fiir TT G {0,0.25, 0.5,0.75,1} und zeichne den Verlauf von MSE in Abhangigkeit von TT. (b) Als alternative Schatzfunktion betrachtet man -7r+
^
Aufgabe 9.4
^0.5
Man bestimme den Erwartungswert und die Varianz dieser Schatzfunktion und skizziere die erwartete mittlere quadratische Abweichung. Bei der Analyse der Dauer von Arbeitslosigkeit in Beispiel 3.3, Seite 111 wurde der Zusammenhang zwischen Ausbildungsniveau und Dauer der Arbeitslosigkeit untersucht. Unter den 123 Arbeitslosen ohne Ausbildung waren 86 Kurzzeit-, 19 mittelfristige und 18 Langzeitarbeitslose.
Aufgabe 9.5
396
9. Parameterschatzung
Man schatze die Wahrscheinlichkeit, dai3 ein Arbeitsloser kurzzeitig, mittelfristig oder langfristig arbeitslos ist und gebe fiir jede der Schatzungen ein 95%- und 99%Konfidenzintervall an. Wieviel grofier miiCte der Stichprobenumfang sein, um die Lange der Konfidenzintervalle zu halbieren? Aufgabe 9.6
Zeigen Sie, dafi fiir die empirische Varianz 5^ gilt: n
10 Testen von Hypothesen
Neben dem Schatzen von Parametern theoretischer Verteilungen ist es oft von zentralem Interesse zu uberpriifen, ob bestimmte Vermutungen liber einen Parameter Oder eine Verteilung in der Grundgesamtheit zutreffen oder nicht. So konnte ein Forscher bereits eine gewisse Vorstellung iiber den Anteil geschadigter Baume in einer Waldregion oder iiber die Starke eines Zusammenhangs oder iiber die Wirksamkeit eines Medikaments haben. Diese Vermutung, z.B. dai3 der Anteil geschadigter Baume iiber 50% betragt, kann in der Regel nicht anhand der Grundgesamtheit gepriift werden. Zwar wird die Vermutung hinsichtUch des Verhaltens des interessierenden Merkmals in der Grundgesamtheit aufgestellt, iiberpriift wird sie aber wieder auf Stichprobenbasis. Die Uberpriifung solcher Annahmen iiber das Verhalten des Untersuchungsmerkmals in der Grundgesamtheit fallt unter den Begriff des statistischen Testens. Die Regeln, die zur Uberpriifung eingesetzt werden, heil3en entsprechend statistische Tests. Damit statistische Tests zur Beantwortung solcher Fragestellungen eingesetzt werden konnen, miissen die entsprechenden Vermutungen nicht nur operationalisiert, sondern auch als statistisches Testproblem formuliert werden. In diesem Kapitel werden nun sowohl erste konkrete Verfahren vorgestellt als auch die Prinzipien des statistischen Testens diskutiert. Da statistische Tests jedoch von der interessierenden Pragestellung, dem Skalenniveau und anderen Kriterien abhangen, gibt es eine Vielzahl von diesen Priifregeln. Diese werden problemadaquat in den nachfolgenden Kapiteln eingefiihrt.
10.1
Der Binomial- und der GauB-Test
Statistische Tests spielen in den verschiedensten Bereichen eine grofie RoUe. Man kann sogar sagen, dafi diese nahezu stets eingesetzt werden, wenn Daten anfallen - sei es in der taglichen Praxis oder in geplanten empirischen Forschungsvorhaben. Bevor wir im folgenden auf drei konkrete Testvorschriften naher eingehen, soUen die
statistisches lesten
398
10. Tester) von Hypothesen
nachstehenden Beispiele die Idee und die Verwendung statistischer Tests verdeutlichen. Beispiel 10.1
Attrihutenpriifung
Ausschufianteil
statistischer Test Fehlentscheidungen
Qualitatsprufung (Gut-Schlecht) In Produktionsfirmen wird vor der Auslieferung einer bestimmten Warenpartie deren Qualitat auf Stichprobenbasis kontroUiert. Dazu werden statistische Methoden eingesetzt und zwar zunachst geeignete Verfahren zur Stichprobenziehung und anschliefiend statistische Tests zur Auswertung der erhobenen Daten. Haufig findet dabei lediglich eine sogenannte "Gut-Schlecht-" oder auch Attributenprufung statt. Das heifit, dafi bei jedem produzierten Stiick nur festgehalten wird, ob es den Qualitatsstandards geniigt ("gut") oder nicht ("schlecht"). Ein schlechtes Stiick wird als Ausschufi bezeichnet. Gezahlt werden schliefilich die schlechten Stiicke. Diese Anzahl kann als binomialverteilt mit Erfolgswahrscheinlichkeit TT angesehen werden, wobei diese dem Ausschufianteil TT in der Grundgesamtheit entspricht. Bei diesem wichtigen Teilgebiet der Statistik, der statistischen Qualitatskontrolle bzw. sicherung, geht es haufig darum zu garantieren, daC der Ausschufianteil in einer Lieferung unter einer bestimmten Grenze liegt. So konnte ein Vertrag zwischen Produzent und Kunde vereinfacht lauten, dafi der Kunde die Lieferung akzeptiert, sofern der Ausschufianteil mit einer bestimmten Wahrscheinlichkeit unter 10% liegt. Natiirlich ist es i.a. aus Kosten und Zeitgriinden, aber auch insbesondere im Fall einer zerstorenden Priifung nicht moglich, samtliche Teile einer Lieferung hinsichtlich ihrer Qualitat zu iiberpriifen. Man zieht, wie bereits oben beschrieben, stattdessen eine Stichprobe und zahlt die Ausschufistiicke in dieser Stichprobe. Nehmen wir der Einfachheit halber an, die Stichprobe ware vom Umfang n = 1000 Stiick und in dieser Stichprobe befanden sich 102 Ausschufistiicke. Damit ergabe sich als Schatzer fiir den wahren, aber unbekannten Ausschufianteil TT in dieser Lieferung TT = j ^ =0.102, also 10.2%. Sicherlich liefie sich jetzt leicht argumentieren, dafi dieser Wert so wenig grofier ist als 10 %, dafi die Lieferung vom Kunden akzeptiert werden mufi, aber welcher Ausschufianteil hatte sich bei einer anderen Stichprobe ergeben? Anders formuUert stellt sich die Frage, ob der Unterschied von 10.2 % zu 10 % gering genug ist, um daraus schliefien zu konnen, dafi der tatsachhche Ausschufianteil sogar kleiner ist als 10 %? Oder ist der beobachtete Unterschied rein zufallig bedingt und eine andere Zufallsstichprobe hatte vielleicht sogar zu einem geschatzten Anteilswert gefiihrt, der wesentlich iiber der Grenze D von 10 % Uegt? Zur Beantworung dieser Fragen benotigt man ein objektives Entscheidungskriterium. Dieses ist gerade in einem statistischen Test gegeben. AUerdings kann auch ein statistischer Test zu einem falschen Ergebnis, d.h. zu Fehlentscheidungen gelangen. Letztendlich basiert seine Entscheidung nur auf der gezogenen Stichprobe, auch wenn ein Test, wie wir noch sehen werden, zusatzliche Information iiber die Verteilung des Merkmals in der Grundgesamtheit nutzt. Damit ist es also in unserem obigen Beispiel moglich, dafi der statistische Test aufgrund der Stichprobe zu der Entscheidung kommt, dafi der wahre Ausschufianteil kleiner ist als 10 %, obwohl dieser tatsachlich dariiber liegt. Aber auch der umgekehrte Fall kann eintreten, d.h. der statistische Test entscheidet, dafi der wahre Ausschufianteil nicht unterhalb der 10%-Grenze liegt, obwohl in der gesamten Lieferung dieser die 10%-Grenze nicht iiberschreitet.
10.1
Der Binomial- und der GauB-Test
399
Solche Fehlentscheidungen konnen nicht ausgeschlossen werden. Man wird aber versuchen, einen statistischen Test so zu konstruieren, dafi die Wahrscheinlichkeiten fiir solche Fehlentscheidungen moglichst gering sind. Beispiel 10.2
Kontrollkarten In dem obigen Beispiel haben wir den Fall betrachtet, dafi am Ende des Produktionsprozesses vor der Auslieferung eine WarenausgangskontroUe vorgenommen wird. Natiirlich finden auch wahrend des laufenden Prozesses QualitatskontroUen statt. Ein haufig eingesetztes Mittel sind in diesem Zusammenhang Kontrollkarten. Bei der abgebildeten Regelkarte, die uns freundlicherweise von der Firma BMW zur Verfiigung gestellt wurde, handelt es sich um eine sogenannte kombinierte x/i?-Karte (siehe Abb. 10.1).
ABBILDUNG
Kontrollkarten
10.1: Beispiel fiir eine x/R-Kaite
Dazu wird auf der horizontalen Achse dieser Karte die Zeit abgetragen. Auf der vertikalen Achse tragt man den SoUwert ab, den beispielsweise die Lange eines bestimmten Werkstiicks einhalten soil. Zudem werden zwei zur Zeit achse par allele Linien eingezeichnet, die im selben Abstand unter- und oberhalb des Sollwerts liegen. Diese markieren i.a. die Kontrollgrenzen. Zu bestimmten Zeitpunkten wird nun der laufenden Produktion jeweils eine Anzahl n von Werkstiicken entnommen, deren Lange gemessen und daraus das arithmetische Mittel berechnet. Dieses tragt man dann in die x-Karte ein. Solange die Werte von x innerhalb der Kontrollgrenzen Hegen, spricht man davon, dafi der Prozefi unter statistischer Kontrolle
SoUwert Kontrollgrenzen
statistische Kontrolle
400
10. Testen von Hypothesen
ist. Man spricht dabei von einer statistischen KontroUe, well die Grenzen mit Hilfe statistischer Uberlegungen, genauer auf der Basis statistischer Tests, ermittelt werden. Man geht zunachst davon aus, dafi das interessierende Merkmal wie etwa die Lange des Werkstiicks normalverteilt ist, wobei der Erwartungswert mit dem SoUwert iibereinstimmt, solange der ProzeCverlauf unter KontroUe ist. Die Varianz wird aufgrund zahlreicher Vorlaufe als bekannt vorausgesetzt. Die Grenzen werden nun unter der Annahme ermittelt, der Sollwert wiirde eingehalten und beobachtete Abweichungen davon waren nur zufallig bedingt. Unter dieser Annahme soil die Wahrscheinlichkeit daflir, dafi x sich gerade in diesem Bereich realisiert, 0.99 betragen. Da Schwankungen in diesem Bereich also als zufallsbedingt angesehen werden, wird erst in den laufenden Prozefi zwecks Reparatur- oder Adjustierungsmafinahmen an der Maschine eingegriffen, wenn x aufierhalb dieser Schranken liegt. Man geht dann davon aus, dafi eine so grofie Abweichung vom Sollwert nur noch mit einer extrem kleinen Wahrscheinlichkeit auftreten kann, wenn der Prozefi unter KontroUe ist. Das heifit, dafi eine solche Abweichung eher ein Indiz dafiir ist, dafi der Sollwert eben nicht mehr eingehalten wird. D Das folgende liberschaubare Beispiel soil nun dazu dienen, die Grundidee statistischer Tests zu verdeutlichen. Beispiel 10.3
Madchen- und Jungengeburten Es wird oft die Vermutung geaufiert, dafi mehr Jungen als Madchen geboren werden, dafi also der Anteil der Jungengeburten an den Geburten insgesamt liber 50% liegt. Eine Gegenaussage besagt, dafi es genauso viele Jungen- wie Madchengeburten gibt. Die oben geaufierte Vermutung lafit sich empirisch uberpriifen. Man wahle etwa ein Krankenhaus zufallig aus und zahle die Madchen und Jungen, die innerhalb von 24 Stunden in diesem Krankenhaus geboren werden. Dieser Versuchsplan ist selbstverstandlich nicht geeignet, um das Problem umfassend zu losen, aber zu illustrativen Zwecken ist es ausreichend, sich ein solches Vorgehen vorzustellen. Nehmen wir weiter an, es waren zehn Kinder geboren worden. Wenn die Gegenaussage zutrifft, dafi der Anteil der Jungengeburten 50 % betragt, erwarten wir also unter den zehn Kindern fiinf Madchen und fiinf Jungen. Ist dieser Fall eingetreten, so fallt die Entscheidung auch ohne Durchfiihrung eines statistischen Tests leicht, dafi die Stichprobe darauf hindeutet, dafi der Anteil der Jungengeburten 50 % betragt. Sind nun aber sechs Jungen geboren und vier Madchen, liegt es immer noch nahe anzunehmen, dafi ein solches Ergebnis auch moglich ware, wenn der Anteil der Jungen an der Gesamtheit aller Geburten 50 % betragt. Bei einem Verhaltnis von sieben zu drei wird man schon etwas verunsichert, ob sich diese Abweichung von dem Verhaltnis fiinf zu fiinf noch mit zufalligen Schwankungen bedingt durch die Stichprobe erklaren lafit. Man kann dieses Abwagen bis zum Extremfall von zehn Jungengeburten im Verhaltnis zu keiner Madchengeburt weiter durchgehen. Die Unsicherheit wird dabei wachsen, dafi solche extremen Ergebnisse noch moglich sind, wenn tatsachUch die Anzahlen iibereinstimmen. Solche extremen Ergebnisse sind aber auch dann moglich, wenn die tatsachliche Wahrscheinlichkeit fiir Madchen- oder Jungengeburten gleich ist. Aller dings treten sie nur mit einer sehr kleinen Wahrscheinlichkeit ein. Da diese WahrscheinUchkeit so klein ist, sind wir eher geneigt anzunehmen, dafi extreme Ergebnisse dafiir sprechen, dafi in der Gesamtheit mehr Jungen als Madchen geboren werden. D
10.1
401
Der Binomial- und der GauB-Test
10.1.1
Der exakte Binomialtest
Die in Beispiel 10.3 beschriebene Situation ist vom selben Typ wie in Beispiel 10.1 (Seite 398). In beiden Fallen beobachten wir ein dichotomes Merkmal und zahlen, wie oft das interessierende Ereignis eintritt. Um das Vorgehen zu formalisieren, fiihren wir die folgende Bezeichnung ein (vgl. Beispiel 5.13): Xi =
1 falls A eintritt 0 falls A eintritt.
In Beispiel 10.1 (Seite 398) werden die schlechten Werkstiicke gezahlt. Das interessierende Ereignis A in Beispiel 10.3 entspricht gerade einer Jungengeburt. Die Wahrscheinlichkeit fiir das Ereignis {Xi = 1} sei auch hier mit TT bezeichnet. Die Aussage, dafi Jungen- und Madchengeburten gleich haufig auftreten, lafit sich also auch als Aussage iiber n und zwar als TT — 0.5 formulieren. Dementsprechend lafit sich die Vermutung, dafi mehr Jungen geboren werden, als n > 0.5 beschreiben. Zu Beginn dieses Kapitels wurde bereits erwahnt, dafi zur Durchfiihrung statistischer Tests die inhaltliche Fragestellung als statistisches Testproblem aufgefafit wird. Dabei wird die interessierende Forschungshypothese als statistische Alternativhypothese (kurz: Alternative) iiber den entsprechenden Parameter formuliert. Diese mufi sich gegen die Nullhypothese (kurz: Hypothese) durchsetzen. In Beispiel 10.3 auf der gegeniiberliegenden Seite beschreibt die Vermutung, dafi Jungengeburten haufiger auftreten als Madchengeburten, die Alternative i^i, die sich formal angeben lafit als
statistisches Testproblem Alternative Nullhypothese
i7i : 7 r > 0 . 5 , wahrend die Nullhypothese HQ die Gleichheit der Anteile widerspiegelt, also i^o :7r=:0.5. Will man nun, wie in obigen Beispielen beschrieben, auf empirischem Wege die iiber TT geaufierte Vermutung bestatigen oder widerlegen, zieht man eine Stichprobe X i , . . . , Xn, also beispielsweise n = 10 Geburten, und zahlt, wie oft das interessierende Ereignis eingetreten ist. Das heifit, dafi auch beim statistischen Testen analog zum Schatzen die Information aus der Stichprobe verdichtet werden mufi. Man nennt diese zusammenfassende Grofie im Rahmen statistischer Tests Priifgrofie oder auch Teststatistik. In der obigen Situation bietet sich also die Anzahl
X = 22^i 2=1
bzw. der Anteil
X =
- } X i n
i=l
als Priifgrofie an. Anhand dieser Priifgrofie entscheidet man iiber die Ablehnung der Nullhypothese zugunsten der Alternative, in unserem Beispiel also dariiber, ob
Priifgrofie Teststatistik
10. Testen von Hypothesen
402
der Anteil der Jungengeburten grofier ist als der der Madchengeburten. Fiir die Alternative Hi spricht, wenn X zu "grofi" wird, also X>c fiir einen geeigneten "kritischen Wert" c. Dabei tritt gerade die oben beschriebene Frage auf, wie grofi c zu wahlen ist.
Aussagen ilher die Grundgesamtheit
Es soil hier noch einmal betont werden, dal3 es bei einem statistischen Test darum geht zu entscheiden, ob das fiir die gezogene Stichprobe beobachtete Verhalten auch fiir die Grundgesamtheit, also beispielsweise fiir die Gesamtheit aller Geburten gilt. Hypothese und Alternative sind daher immer Aussagen ilher die Grundgesamtheit und nicht iiber die Stichprobe. In vielen Fallen ist es fiir die obige Situation gerechtfertigt anzunehmen, dafi die Ziehungen unabhangig voneinander erfolgen und somit die Anzahl X = Y^^=i ^i binomialverteilt ist mit Parametern n und n (vgl. Abschnitt 5.3.1). An dieser Fomulierung wird noch einmal deutlich, dafi das Ergebnis dieser Stichprobe selbst wieder eine Zufallsvariable ist, von der aber die Verteilung unter der NuUhypothese bekannt ist. Im Beispiel ist X demnach binomialverteilt mit Parametern 10 und 0.5, d.h. mit der Symbolik aus Abschnitt 5.3.1 gilt also X-5(10,0.5). Mit diesen Modellannahmen ist es moghch zu berechnen, wie wahrscheinlich das Auftreten von keiner, einer bis hin zu zehn Jungengeburten ist. Aus der Binomialverteilungstabelle mit n = 10, TT = 0.5 konnen wir diese Wahrscheinlichkeiten ablesen. Sie sind in Tabelle 10.1 zusammengefafit. X
P{X = x)
0 0.001
1 0.01
2 0.044
3 0.117
4 0.205
5 0.246
TABELLE 10.1: Wahrscheinlichkeitsfunktion einer JB( 10,0.5)-Verteilung
Da die Verteilung symmetrisch ist um ihren Erwartungswert, der sich unter der NuUhypothese ergibt als E{X) = 10 • 0.5 = 5, ist es ausreichend, die angegebenen Werte wie in Tabelle 10.1 aufzulisten. Die Wahrscheinhchkeit P{X = 4) beispielsweise ist aufgrund der Symmetric identisch mit P{X = 6). Da die erwartete Anzahl von Jungengeburten unter der NuUhypothese der Gleichwahrscheinlichkeit von Jungen- und Madchengeburten fiinf betragt, sprechen also Anzahlen grofier fiinf fiir die Alternative Hi'.n > 0.5. Die Frage, die jetzt noch zu klaren ist, lautet: Wie grofi miissen die Werte sein, dafi es extrem unwahrscheinlich ist, dafi sie noch unter HQ zustande gekommen sind? Zur Beantwortung dieser
10.1
Der Binomial- und der GauB-Test
403
Frage gibt man sich zunachst vor, was man unter 'extrem unwahrscheinlich' verstehen will. Ubliche Werte dafiir sind 0.01, 0.05 oder auch 0.1. Diese Wahrscheinlichkeit bezeichnet man als Signifikanzniveau. Als Symbol fiir das Signifikanzniveau verwendet man a. Dann konstruiert man sich einen Bereich, auch Ablehnungsbereich oder kritischer Bereich genannt, der gerade die Beobachtungen des Zufallsexperiments umfafit, die in die Richtung der Alternative weisen und deren Wahrscheinlichkeit insgesamt kleiner oder gleich dem vorgegebenen Wert von z.B. 0.01 ist. Madchen- und Jungengeburten Sei zunachst die Wahrscheinlichkeit fiir den Ablehnungsbereich, also das Signifikanzniveau a, als 0.1 vorgegeben, d.h. dieser Bereich besteht aus alien Beobachtungen einer Binomialverteilung mit Parametern n = 10 und TT = 0.5, die • in die Richtung der Alternative zeigen, also grofier als fiinf sind, und • die unter HQ als Vereinigung mit einer Wahrscheinlichkeit von hochstens 0.1 eintreten. Da es um so naheliegender ist, von der Giiltigkeit der Alternative auszugehen, je mehr Jungen geboren werden, fiillt man nun sukzessive den Ablehnungsbereich beginnend mit X = 10 solange auf, bis der Bereich insgesamt unter HQ die Wahrscheinlichkeit 0.1 besitzt. Da PHO{X = 10) = 0.001 < 0.1, wobei die Schreibweise P//o bedeutet, dafi die Wahrscheinlichkeit fiir das Eintreten von A unter der Nullhypothese HQ ermittelt wird, kann die Zehn in den Ablehnungsbereich aufgenommen werden. Man betrachte nun im nachsten Schritt x = 9. Es gilt: PHO{X = 9) = 0.01 und damit Pi/o({9,10}) = 0.001 + 0.01 = 0.011 < 0.1, d.h. auch die Neun liegt noch im Ablehnungsbereich. Fiir x = S erhalten wir PHQ {X • :8) 0.044, also PHO ({8,9,10}) = 0.001 + 0.01 + 0.044 = 0.055 < 0.1. Damit kann auch die Acht in den Ablehnungsbereich genommen werden. Als nachstes untersuchen wir x = 7. Fiir PHO{X = 7) liest man aus Tabelle 10.1 auf der vorherigen Seite den Wert 0.117 ab. Dieser Wert allein ist schon grofier als 0.1 und somit PHO ({7,8,9,10}) = 0.055 + 0.117 = 0.172 erst recht. Die Sieben kann also nicht mehr in den Ablehnungsbereich gelangen, der sich damit als {8, 9,10} ergibt. Inhaltlich lafit sich dieses Ergebnis wie folgt interpretieren: Acht, neun oder zehn Jungengeburten konnen unter der Annahme, dafi Madchen- und Jungengeburten gleichwahrscheinlich sind, nur mit einer Wahrscheinlichkeit von hochstens 10 % eintreten. Diese Wahrscheinlichkeit sehen wir als so gering an, dafi wir bei mindestens acht Jungengeburten schliefien, dafi die Alternative gilt, also die Wahrscheinlichkeit fiir eine Jungengeburt grofier ist als 0.5. Man sagt dann auch: Die Nullhypothese kann zugunsten der Alternative verworfen werden. Sieben Jungengeburten waren im Gegensatz dazu unter der Nullhypothese mit einer so grofien Wahrscheinhchkeit (0.117) moghch, dafi ein solches Ergebnis nicht mehr fiir die Giiltigkeit der Alternative spricht. D
Signifikanzniveau Ablehnungsbereich
Beispiel 10.4
404
10. Testen von Hypothesen
Fiir den Fall, dafi das Testproblem Ho : 7T = 0.5
gegen
Hi : n < 0.5
lautet, geht man voUig analog vor, nur dafi nun kleine Werte fiir die Alternative sprechen. Man erhalt dementsprechend als Ablehnungsbereich die Menge {0,1,2}. Falls man lediglich wissen mochte, ob sich Madchen- und Jungengeburten in ihrer Haufigkeit unterscheiden, erhalt man als Testproblem Ho : TT = 0.5
gegen
Hi : TT j^ 0.5
In diesem Fall sprechen Werte, die in unserem Beispiel von fiinf verschieden sind, also sowohl kleine als auch grofie Werte fiir die Alternative. Will man fiir dieses Testproblem den Ablehnungsbereich bestimmen, so teilt man die Wahrscheinlichkeit, die man diesem Bereich maximal zuweisen mochte, gleichmafiig auf die Teilmengen der kleinen und der grofien Werte auf. Kommen wir wieder auf unser Beispiel zuriick, bedeutet das, man fafit am oberen und unteren Ende des Wertebereiches { 0 , 1 , . . . , 10} soviele Beobachtungen zusammen, bis die Wahrscheinlichkeit fiir deren Vereinigung jeweils 0.05 = ^ betragt. Es ergibt sich dann, wie man leicht nachrechnet, als Ablehnungsbereich die Menge {0,1} U {9,10}.
exakter Bmomialtest
Erarbeitet man sich die Ablehnungsbereiche im Fall eines Testproblems liber den Parameter TT einer Binomial vert eilung, wie oben durchgefiihrt, anhand der exakten Wahrscheinlichkeit der entsprechenden Binomialverteilung unter der NuUhypothese, so heifit der statistische Test, der auf dem so errechneten Ablehnungsbereich basiert, exakter Binomialtest. Man kann sich leicht vorstellen, dafi die Durchfiihrung des exakten Binomialtests, d.h. die Berechnung der dafiir erforderhchen Ablehnungsbereiche mit wachsendem Stichprobenumfang n sehr aufwendig wird. Wir werden daher im folgenden eine Moglichkeit vorstellen, den Ablehnungsbereich numerisch weniger aufwendig, wenn auch nur approximativ zu bestimmen.
10.1.2
Der approximative Binomialtest
Aus Abschnitt 5.3.1 ist bekannt, dafi sich die Binomialverteilung fiir grofies n durch die Normalverteilung approximieren lafit. Damit kann man also fiir grofies n den Ablehnungsbereich des exakten Binomialtests iiber die Normalverteilung annahern.
10.1
405
Der Binomial- und der GauB-Test
Man erhalt so den approximativen Binomialtest. Genauer gilt mit X = Y17=i ^^ B{n^ IT) fiir WK und n(l — TT) gro6 genug, dafi X ^ N{nn^ n7r(l — TT))
bzw.
Z =
X — nn y^n7r(l — TT)
N{0,1),
Zur Illustration dieses approximativen Vorgehens kommen wir auf Beispiel 10.1 (Seite 398) zuriick. Dort ist es von Interesse zu erfahren, ob der Aussctiufianteil n bei der Endabnahme grofier 0.1 ist. Dies lafit sich als Testproblem wie folgt formulieren: Ho : TV = 0.1
gegen
iJi : TT > 0.1.
Wie man sieht, wird der eigentlich interessierende Sachverhalt wieder als statistische Alternative formuliert. Da insgesamt n = 1000 Stiick in der zu liefernden Charge sind, konnen die Voraussetzungen zur Anwendung der Approximation als erfiillt angesehen werden. Damit ist also X-1000-0.1 VlOOO-0.1-0.9
X-100 x/90
N{0,1).
Zur Bestimmung des Ablehnungsbereichs des Tests, der auf dieser Prufgroi3e basiert, ist es hilfreich, die graphische Darstellung der Dichte der Standardnormalverteilung zu betrachten (vgl. Abb. 10.2).
C = {z : z > zi-oc} ABBILDUNG 10.2: Ablehnungsbereich eines statistischen Tests basierend auf einer standardnormalverteilten PriifgroBe
Da im obigen Testproblem grofie Werte von Z fiir die Alternative sprechen, ist der Ablehnungsbereich des Tests gerade als die Menge gegeben, die am rechten Rand
approximativer Binomialtest
10. Tester) von Hypothesen
406
der 2:-Achse liegt und deren Wahrscheinlichkeit hochstens a betragt. Dabei ist der linke aufiere P u n k t dieses Bereichs bereits bekannt als das (1 — a)-Quantil der Standardnormalverteilung (vgl. Abschnitt 6.3.1), so dafi m a n als Ablehnungsbereich C erhalt
C = {z : z >
zi-a}'
kritischer Wert
Der aufiere P u n k t des Ablehnungsbereiches, in diesem Fall zi-a^ wird auch als kritischer Wert bezeichnet. Wir entscheiden uns wieder fiir die Alternative, falls der beobachtete Priifwert in C liegt.
Beispiel 10.5
Gut-Schlecht-Priifung
Fiir Beispiel 10.1 (Seite 398) lautet nach obigen Ausfiihrungen das Testproblem HQ'.TT
= 0.1
gegen
iJi : TT > 0.1.
Als Wahrscheinlichkeit, mit der wir uns fiir die Alternative entscheiden, obwohl eigentlich die NuUhypothese gilt, wahlen wir a = 0.05. Dies ist also unter der Nullhypothese die Wahrscheinlichkeit dafiir, dafi die Priifgrofie im Ablehnungsbereich C des Tests liegt. Da zi^a = 2:0.95 = 1.64, ist C gegeben als {z: z> 1.64}. Der Wert der Priifgrofie Z = ^Q^^ berechnet sich bei einer Anzahl fehlerhafter Stiicke von X = 102 als 102 - 100 ^ ^, z= — =0.21. 9.5 Da 0.21 < 1.64, konnen wir sagen, dafi die Anzahl von 102 fehlerhaften Stiicken in der Stichprobe nicht den Schlufi zulafit, dafi der Anteil fehlerhafter Stiicke in der gesamten Partie iiber 10 % liegt. Diese Abweichung von der unter der Annahme eines Schlechtanteils von 10 % erwarteten Anzahl von 100 schlechten Stiicken ist zu gering, als dafi sie nicht rein zufaUig bedingt sein konnte. D In Beispiel 10.5 haben wir den statistischen Test mittels der standardisierten Priifgrofie Z durchgefiihrt. Dabei fallt die Entscheidung fiir i ? i , falls z eC^ also falls z > zi-a- Alternativ kann m a n den Test auch iiber die Anzahl x selbst durchfiihren, denn X — riTTo
z =
>
^/mi^{^^^^^
Zi-c
ist aquivalent zu X > uTTo + v^n7ro(l - 7ro)2:i_a , wobei TTo gerade den Wert des Schlechtanteils unter HQ bezeichnet. In Beispiel 10,1 (Seite 398) ist TTQ = 0.1 und riTTo + v/n7ro(l - 7ro)j^i-a = 100 + 9.5 • 1.64 = 115.58.
10.1
Per Binomial- und der GauB-Test
407
Da die beobachtete Anzahl fehlerhafter Stiicke 102 und somit kleiner als 115.58 ist, gelangt man zu derselben Entscheidung wie unter Verwendung der Priifgrofie Z. Fiir den Fall, dafi das Testproblem gegeben ist als
Ho :7T = 7ro gegen
i^i : TT < TTQ ,
sprechen kleine Werte der Priifgrofie fiir die Alternative, und der Ablehnungsbereich C befindet sich somit am linken Rand der 2:-Aclise, d.h.
C = {z : z < Za} = {z : z < - ^ i - a } ,
da die Standardnormalverteilung symmetrisch ist um 0 (vgl. Abschnitt 6.3.1). Liegt das Testproblem
Ho '.TT = 7To gegen
Hi : n j ^ no
vor, setzt sich der Ablehnungsbereich C basierend auf der Priifgrofie Z wieder zusammen aus dem linken und dem rechten Rand der 2:-Achse, wobei fiir jede dieser Mengen die Wahrscheinlichkeit a/2 betragt. Damit ergibt sich der Ablehnungsbereich C als
C = {z: z> Zi_^/2} U{z: z< z^/2 = = {z: z> Zi_^/2 = {z:
Oder
\z\>zi_^/2}.
z<
-Zi_^/2}
-Zi_^/2}
408
10. Testen von Hypothesen
Wir fassen zusammen: Approximativer Binomialtest Gegeben seien folgende Testprobleme iiber den Parameter TT einer 5(n,7r)Verteilung 7ro gegen (b) Ho:7T--= 7ro gegen (c) Ho:n--= no gegen HQITT--=
(a)
Hi Hi Hi
TT 7^ TTo TT < TTo TT > T T Q .
Basierend auf der Priifgrofie X - riTTo V^n7ro(l - TTo)
TT — TTQ
i)iV(0,l)
--TTQ)
n
und dem vorgegebenen Niveau a fallt die Entscheidung fiir Hi im Testproblem (a), falls \z\ > zi.- a / 2 (b), falls Z < —Z\ —a (c), falls Z > Zi-,:):•
10.1.3
Der GauB-Test
Bei dem oben formulierten Testproblem iiber n handelt es sich um Hypothesen und Alternativen beziiglich des Erwartungswerts einer speziellen Verteilung und zwar der B(l,7r)-Verteilung. Pragestellungen dieses Typs sind aber natiirlich auch fiir Erwartungswerte anderer Verteilungen von Interesse. Beispiel 10.2 (Seite 399) beschreibt gerade ein solches Problem. Es geht darum zu beurteilen, ob der Sollwert beispielsweise fiir die Lange eines Werkstiicks bei der Fertigung eingehalten wird. Um dies zu iiberpriifen, benotigt man wieder eine geeignete Priifgroi3e. Da sich der Sollwert auffassen lafit als Erwartungwert fi der Lange X eines Werkstiicks, also /i = E{X)^ bietet sich als Priifgrofie das Stichprobenmittel X an. Dabei wollen wir voraussetzen, dafi wir eine Stichprobe unabhangig identisch und stetig verteilter Zufallsvariablen X i , . . . , Xn gezogen haben. In diesem Kapitel gehen wir zudem davon aus, dafi die Varianz Var{Xi) = Var{X) = cr'^^ i = 1 , . . . , n, bekannt ist. Diese Voraussetzung ist i.a. als kritisch zu bewerten. Im Bereich der statistischen QualitatskontroUe kann man sie jedoch als nahezu erfiillt ansehen, da die Standardabweichung a der Produktionsstiicke als feste "Maschinengenauigkeit" vom Hersteller angegeben wird,
10.1
Per Binomial- und der GauB-Test
409
wahrend fi als "Einstellung" variiert werden kann. Dementsprechend sind nur Aussagen liber E{Xi) = fi^ i = l^... ,n, zu treffen. Dazu betrachten wir analog zu den Aussagen liber TT die folgenden Testprobleme: (a) (b) (c)
Ho:iJ. = fio gegen Hi'.fij^fio iJo : M = MO gegen Hi :/J. < fio Ho:fi = i2o gegen Hi\ii> JIQ,
Im Beispiel 10.2 (Seite 399) entspricht /XQ gerade dem Sollwert der Werkstiicklange. Zur Bestimmung des Ablehnbereichs iiberlegen wir zunachst erneut, welche Beobachtungswerte fiir die jeweilige Alternative sprechen. Da unter der NuUhypothese gilt: spricht also im Testproblem (a) eine starke Abweichung des Stichprobenmittels x von /io fiir Hi^ also \x - / i o | > Ca,
(b) ein wesentlich kleinerer Wert von x als /^o fiir -ffi, also X — fio < Cb mit
C5 < 0,
und schliefilich (c) ein wesentlich grofierer Wert von x als /JLQ fiir i/i, also X- IJ.o> Cc. Das Problem, das sich auch hier stellt, liegt darin, wie Ca^ ci und Cc zu bestimmen sind. Wie oben schon angemerkt, erscheint X als Priifgrofie naheliegend und sinnvoU. Es ergibt sich als Verteilung von X unter der NuUhypothese im Fall, dafi alle Xi Normalverteizusatzlich zu den obigen Annahmen normalverteilt sind, eine N^JIQ^ ^)-Verteilung. Es ist daher giinstiger, statt X selbst erneut (vgl. approximativer Binomialtest) seine lungsannahme standardisierte Variante als Priifgrofie zu verwenden: Z =
X-/io a
^ yjn.
Diese ist unter jFfo standardnormalverteilt. Damit lafit sich der Ablehnungsbereich des statistischen Tests basierend auf Z wieder iiber die entsprechenden Quantile der Standardnormalverteilung festlegen.
410
Beispiel 10.6
10. Testen von Hypothesen
Kontrollkarten
Bei der Konstruktion von Kontrollkarten wird implizit zu jedem der KontroUzeitpunkte ein statistisches Testproblem unterstellt. Es geht jeweils darum zu priifen, ob der Erwartungswert der produzierten Stiicke noch mit dem SoUwert iibereinstimmt, oder ob in den laufenden Prozefi aufgrund einer nicht zufallsbedingten Abweichung eingegriffen werden mu6. Nehmen wir an, bei dem produzierten Werkstiick handelt es sich um Bleistifte, deren Lange 17 cm betragen soil, dann lautet das Testproblem: Ho:fi = 17 gegen
Hi'.yi^ll.
Es sei bekannt, daC die Lange X der Bleistifte (approximativ) normalverteilt ist mit E{X) = /x und Var{X) = cr^ = 2.25. Es wird nun zum Zeitpunkt t = l eine unabhangige Stichprobe aus der laufenden Produktion entnommen. Folgende Langen werden an den ftinf Bleistiften gemessen: 19.2 cm, 17.4 cm, 18.5 cm, 16.5 cm, 18.9 cm. Daraus ergibt sich x als 18.1cm. Als standardisierte Priifgrofie erhalt man
,.i:iifov^.H:izi!v5 = i.64. • (J
1.5
Legen wir die Wahrscheinlichkeit, uns irrtiimlicherweise flir die Alternative zu entscheiden, also die Wahrscheinlichkeit unter HQ fiir den Ablehnungsbereich als a = 0.01 fest, so miissen wir analog zu dem fiir den approximativen Binomialtest angegeben kritischen Wert zunachst das (1 — a/2) = (1 — 0.005) = 0.995-Quantil der Standardnormalverteilung bestimmen, das sich als 2.5758 ergibt. Damit mufi davon ausgegangen werden, dafi sich der ProzeC nicht mehr unter statistischer KontroUe befindet, falls fiir den PrtifgroBenwert z gilt: \z\ > 2.5758. Da fiir die obige Stichprobe Z den Wert 1.64 angenommen hat, kann der ProzeB weiterlaufen. Ein EingriflF ist nicht notig. Im Gegensatz zu diesem Vorgehen ist die x-Karte leichter zu handhaben, wenn die kritischen Werte, d.h. die KontroUgrenzen fiir x bestimmt werden und nicht fiir z. Diese ergeben sich als
da \z\ >
Zi_ct/2
aquivalent ist zu —=-^120
bzw.
x< iiQ- zi_«/2 • -7=
Diese Grenzen sind bereits bekannt und zwar aus der Konfidenzintervallschatzung. Auf diesen Zusammenhang wird an spaterer Stelle noch einmal eingegangen. D
10.2
Prinzipien des Testens
411
Der Test, der auf obiger Priifgrofie basiert, wird iiblicherweise als Gaufl-Test bezeichnet, da er fiir Testprobleme iiber den Erwartungswert einer Normalvert eilung konstruiert ist. Aufgrund des zentralen Grenzwertsatzes (vgl. Abschnitt 7.1.2) kann man jedoch dieselbe Priifgrofie und dieselben kritischen Werte auch dann verwenden, wenn die X^, i = 1 , . . . , n, nicht normalverteilt sind, aber der Stichprobenumfang grofi genug ist, denn dann sind X und Z zumindest approximativ normalverteilt Zusammenfassend ergeben sich folgende Entscheidungregeln des Gaufi-Tests. GauB-Test
Gegeben seien unabhangig identisch verteilte Zufallsvariablen X i , . . . , Xn mit Xi ~ A/'(//, a^), cr^ bekannt, bzw. mit beliebiger stetiger Verteilung und E{Xi) = IJL^ Var{Xi) = cr^5 ^ grofi genug (Faustregel: n > 30). Man betrachte folgende Testprobleme: (a) (b) (c)
i?o : /i = /Uo gegen iJi : /x 7^ /io Fo • A^ = /^o gegen ff 1 : /^ < /XQ Fo : /^ = /^o gegen i?i : // > /^o .
Fiir /i = /io ist Z
^:i^v^fe)Ar(0,l)
bzw.
xfe^iV(Mo,4=)
Basierend auf der Priifgrofie Z fallt die Entscheidung fiir Hi im Testproblem (a), falls \z\>zi_^/2 (b), falls z < —zi-ct (c), falls z > zi-aIm folgenden Abschnitt werden die Prinzipien statistischer Tests unter allgemeinen formalen Gesichtspunkten beschrieben, wobei aber auf die hier prasentierten Beispiele zur Illustration zuriickgegriffen wird.
10-2
Prinzipien des Testens
An den in Abschnitt 10.1 vorgestellten Beispielen sieht man, dafi die Durchfiihrung eines statistischen Tests gewissen Prinzipien geniigen mufi. Bevor wir diese im fol-
Gaufi- Test
10. Testen von Hypothesen
412
genden formalisieren, seien sie hier zunachst noch einmal zusammengefafit. Im 1. Schritt mufi das inhaltliche Problem quantifiziert werden. In Beispiel 10.1 (Seite 398) wurde die Prage nach der Annahme der Warenpartie iiber die Grofie des Ausschufianteils formuliert. Im 2. Schritt miissen die Modellannahmen formuliert werden. In Beispiel 10.2 (Seite 399) wurde angenommmen, dafi X i , . . . , X n unabhangig und identisch A^(/u, cr^)-verteilt sind, wobei cr^ als bekannt vorausgesetzt wurde. Im 3. Schritt wird das quantifizierte inhaltliche Problem als ein statistisches Testproblem iiber den Modellparameter dargestellt. Dazu werden die NuUhypothesen und die Alternative festgelegt. In Beispiel 10.6 (Seite 410) wurde dementsprechend das Testproblem iiber die erwartete Lange der Bleistifte als Ho : 1^=17
Annahmebereich Priifgrofie
gegen
Hi : fi ^ 17
angegeben, wobei 17 cm der SoUwert der Bleistiftlange war. Im 4' Schritt mufi festgelegt werden, wie grofi das Signifikanzniveau a sein soil, mit der man sich hochstens fiir die Alternative entscheidet, obwohl eigentlich die NuUhypothese zutrifft. Das heifit, es mufi die Wahrscheinlichkeit fiir den Ablehnungsbereich unter HQ festgelegt werden. Im Beispiel 10.6 wurde a = 0.01 gewahlt. Im 5. Schritt geht es um die Bestimmung des Ablehnungsbereiches C. Das Komplement von C heifit Annahmebereich des Tests. Dazu mufi zunachst eine geeignete Priifgrofie bzw. Teststatistik aus X i , . . . , X n gebildet werden. Geeignet bedeutet dabei, dafi • anhand des Wertes, den sie fiir die gezogene Stichprobe annimmt, tatsachlich beurteilt werden kann, ob eher HQ oder Hi fiir die Grundgesamtheit zutrifft, d.h. dafi die Priifgrofie sensibel fiir das Testproblem ist. In Beispiel 10.6 erfiillt X als Priifgrofie diese Anforderung.
Priifverteilung
• ihre Verteilung unter der NuUhypothese bestimmt werden kann, da aus dieser Verteilung die kritischen Werte des Ablehnungsbereiches ermittelt werden. Diese Verteilung wird auch als Priifverteilung bezeichnet. In Beispiel 10.6 wurde zur standardisierten Grofie Z = ~^"\/n iibergegangen, deren Verteilung unter HQ gerade die Standardnormalverteilung ist, so dafi die kritischen Werte leicht als die entsprechenden (1 — a/2)-Quantile aus der Tabelle abgelesen werden konnten. Schliefilich wird der Ablehnungsbereich C so konstruiert, dafi • in ihm Werte zusammengefafit werden, die tatsachlich fiir die Alternative sprechen, womit der Forderung der Sensibilitat fiir das Testproblem Rechnung getragen wird. Da die Alternative Hi in Beispiel 10.6 /^ / 17 lautete, waren dies sowohl sehr kleine als auch sehr grofie Werte der Priifgrofie Z.
10.2
Prinzipien des Testens
413
• die Wahrscheinlichkeit des Ablehnungsbereichs C unter Ho hochstens gleich a ist. In Beispiel 10.6 ergab sich daher C = {z : \z\ > zi_ct/2 = ^0.995 = 2.5758}. Hierbei wurde ausgenutzt, dafi die Verteilung der Teststatistik fiir /x = 17, also unter iJo, bekannt ist. Im 6. Schritt wird fiir die konkrete Stichprobe der Wert der Priifgrofie berechnet. In Beispiel 10.6 berechnete sich Z als 1.64. Der 7. Schritt beinhaltet schliefilich die Entscheidung dariiber, ob die Nullhypothese zugunsten der Alternative verworfen werden kann oder beibehalten werden mufi. Dazu liberpruft man, ob der berechnete Priifgrofienwert im Ablehnungsbereich liegt oder nicht. Liegt dieser im Ablehnungsbereich, so wird die NuUhypothese verworfen. Diese formale Entscheidung hat haufig eine weitreichende inhaltliche Bedeutung. So hatte die Nicht-Verwerfung der Nullhypothese in Beispiel 10.6 die Konsequenz, dafi nicht in den laufenden Prozefi eingegriffen wird, der Prozefi also als unter statistischer KontroUe angesehen wird. Bei statistischen Testproblemen sind weitere Unterscheidungen iiblich. Fiir den Fall, dafi unter der Alternative sowohl Abweichungen nach oben als auch nach unten interessieren, wie etwa in Beispiel 10.6 mit i?o : /i = 17 gegen
Hi : fi ^ 17
spricht man von einem zweiseitigen Testproblem. Ansonsten, d.h. fiir HQ : fi<17
gegen
i?o : /^ > 17 gegen
zweiseitiges Testproblem
iJi : // > 17 bzw. iJi : /x < 17,
liegt jeweils ein einseitiges Testproblem vor. Falls Ho oder Hi nur aus einem Punkt bestehen, wie z.B. iJo • /^ = 17, nennt man Ho oder Hi einfach. Fiir den Fall, dafi Ho oder Hi eine Menge von Punkten beschreiben, heifien diese auch zusammengesetzt, Abweichend von den Beispielen in Abschnitt 10.1 ist in den obigen Testproblemen nicht nur die Alternative zusammengesetzt, sondern auch die Nullhypothese, d.h. statt Ho : ^1 = fio betrachten wir nun Ho : fi < fio mit z.B. fio = 17cm. In Beispiel 10.6 (Seite 410) etwa wurde nun der kritische Wert des Tests bzw. der Ablehnungsbereich aus der Standardnormalverteilung ermittelt, da unter der Nullhypothese, d.h. fiir fi = /JLO, Z = ^ ~ ^ ° \ / ^ gerade N{0, l)-verteilt ist. Wie kann man nun vorgehen, wenn man eigentlich die Verteilung von Z unter der zusammengesetzten Nullhypothese bestimmen miifite? Da dies nicht moglich ist, bestimmt man den Ablehnungsbereich so, dafi fiir den Wert von /i aus i^o, der am dichtesten an der Alternative liegt, also fiir 11 = jio die Wahrscheinlichkeit fiir den Ablehnungsbereich a betragt. In Abbildung 10.3 auf der folgenden Seite wird deutlich, dafi durch
einseitiges Testproblem einfache Hypothese zusavfimengesetzte Hypothese
10. Testen von Hypothesen
414
dieses Vorgehen garantiert ist, dafi fiir andere Werte von //, d.h. fiir /x < /io, aus Ho die Wahrscheinlichkeit a sogar unterschritten und somit die Bedingung fiir die Konstruktion des Ablehnungsbereichs eingehalten wird.
'
\>\ \>
:\
a
^ ^ v =——•
0
Zl-a
ABBILDUNG 10.3: Ablehnungsbereiche fiir das Testproblem Ho : n < fxo und Hi : fi > fio basierend auf Z = ^~^^ y/n
verteilungsfrei nonparametrischer
Test
parametrischer Test
Eine weitere Unterscheidung statistischer Tests ergibt sich durch die getroffenen Modellannahmen, die bei der Beschreibung einer allgemeinen Vorgehensweise beim statistischen Testen im 2. Schritt formuliert wurden. Diese sind wichtig, um eine geeignete PriifgroiJe bzw. Teststatistik zu konstruieren und deren Verteilung unter der NuUhypothese bestimmen zu konnen. Fiir den Fall, dai3 die Verteilung des Merkmals in der Grundgesamtheit vom Typ her, also zum Beispiel Normalverteilung, bekannt oder der Stichprobenumfang groii genug ist, lassen sich haufig direkt PriifgroiJen fiir bestimmte Verteilungsparameter angeben, deren Verteilung noch relativ leicht zu bestimmen ist. Komplizierter wird es, wenn man keine Vorstellung von der Verteilung des Merkmals in der Grundgesamtheit hat. Man versucht dann Tests zu konstruieren, deren Priifgrofie derart ist, dafi ihre Verteilung unter der NuUhypothese auch ohne genauere Angaben iiber die Verteilung der Zufallsvariablen X i , . . . , X^ bestimmbar ist. Solche Tests heifien verteilungsfreie oder nonparametrische Tests. Entsprechend nennt man Tests, deren Priifgrofie zur Bestimmung der Priifverteilung Annahmen iiber den Verteilungstyp in der Grundgesamtheit benotigen, parametrische Tests.
10.2
Prinzipien des Testens
415
Die wichtigsten Begriffe seien noch einmal kurz zusammengefafit.
Statistisches Testproblem, statistischer Test
Ein statistisches Testproblem besteht aus einer NuUhypothese HQ und einer Alternative iJi, die sich gegenseitig ausschliefien und Aussagen liber die gesamte Verteilung oder iiber bestimmte Parameter des interessierenden Merkmals in der Grundgesamtheit beinhalten. Falls das Testproblem lautet: Ho:" = ''
gegen
Fi : V " ,
nennt man dieses zweiseitig. Falls ifo:"<"
gegen
i^i : " > "
i/o:">"
gegen
Hi
bzw.
:''<''
zu testen ist, spricht man von einseitigen Testproblemen. Bestehen HQ bzw. Hi nur aus einem einzelnen Punkt, so heifien diese einfache Hypothese bzw. Alternative. Umfassen HQ bzw. Hi mehrere Punkte, so heifien diese zusammengesetzte Hypothese bzw. Alternative. Ein statistischer Test basiert auf einer geeignet gewahlten Priifgrofie und liefert eine formale Entscheidungsregel, die aufgrund einer Stichprobe dartiber entscheidet, ob eher HQ oder Hi fiir die Grundgesamtheit zutrifft.
10.2.1
Fehlentscheidungen
In den obigen Beispielen wurden die Entscheidungen iiber HQ und Hi, die die Grundgesamtheit betreffen, bereits verbahsiert. So spricht man davon, "dafi HQ beibehalten wird", wenn der Wert der Priifgrofie nicht im kritischen Bereich Uegt. Reahsiert sich die Priifgrofie fiir die konkrete Stichprobe im Ablehnungsbereichs des Tests, so sagt man "i?o ^^rrf abgelehnf^ oder "iJo '^M verworfen'\ Dabei haben wir bereits das Problem angesprochen, dafi aufgrund eines statistischen Tests Fehlentscheidungen moghch sind. In Beispiel 10.6 (Seite 410) konnte der Test aufgrund einer gezogenen Stichprobe an Bleistiften zu der Entscheidung kommen, dafi die durchschnittliche Lange der Bleistifte von 17 cm verschieden ist, obwohl dies tatsachlich nicht der Fall ist. Eine solche Fehlentscheidung, bei der also HQ aufgrund der Stichprobe verworfen wird, obwohl Ho fiir die Grundgesamtheit zutrifft, nennt man Fehler 1, Art. Der umgekehrte Fall, dafi HQ beibehalten wird, obwohl die Alternative Hi wahr ist.
Ho beibehalten
HQ ablehnen, verwerfen
Fehler 1. Art
10. Testen von Hypothesen
416
Fehler 2. Art
kann ebenfalls eintreten. Man spricht dann von einem Fehler 2. Art. In Beispiel 10.6 hatte ein Fehler 2. Art zur Folge, dafi die Entscheidung fiele, dafi die durchschnittliche Bleistiftlange 17 cm betragt, obwohl eigentlich Bleistifte mit einer systematisch von 17 cm verschiedenen Lange produziert werden. Solche Fehlentscheidungen sind moglich, weil man mit der Durchfiihrung eines statistischen Tests den Schlufi von einer konkreten Stichprobe auf die Grundgesamtheit wagt. Dementsprechend schlagen sich systematische oder zufallige Fehler in der Stichprobe auf die Testentscheidung nieder. Fehler 1 . A r t , Fehler 2. A r t
Bei einem statistischen Testproblem iJo gegen Fl\ und einem geeigneten statistischen Test spricht man von einem • Fehler 1. Art^ wenn HQ verworfen wird, obwohl HQ wahr ist, • Fehler 2. Art^ wenn HQ beibehalten wird, obwohl Hi wahr ist. Es konnen demnach folgende Ausgange eines statistischen Tests eintreten: Entscheidungen fiir
Signifikanzniveau Wahrscheinlichkeit fiir den Fehler 2. Art
HQ
HI
HQ wahr
richtig
falsch Fehler 1. Art (a-Fehler)
Hi wahr
falsch Fehler 2. Art (/3-Fehler)
richtig
Fehlentscheidungen dieses Typs sind immer moglich. Zudem lafit sich bei einer vorliegenden Testentscheidung nicht beurteilen, ob diese nun richtig oder falsch ist. Man konstruiert statistische Tests daher so, dafi die Wahrscheinlichkeit fiir den Fehler 1. Art durch eine kleine vorgegebene obere Schranke kontrolliert wird. Diese obere Schranke wird als Signifikanzniveau bezeichnet. Aus den Beispielen des vorigen Abschnitts ist es bereits als Wahrscheinlichkeit a fiir den Ablehnungsbereich unter der NuUhypothese bekannt. Entsprechend spricht man von 1 — a auch als Sicherheitswahrscheinlichkeit Die Wahrscheinlichkeit fiir den Fehler 2. Art^ kurz als /3 bezeichnet, wird dagegen nicht kontrolliert. Man sucht jedoch unter alien Tests, die die Wahrscheinlichkeit fiir den Fehler 1. Art durch a kontrolheren, nach solchen, die die Wahrscheinhchkeit fiir den Fehler 2. Art moglichst gering halten. Eine gleichzeitige Minimierung beider Fehlerwahrscheinlichkeiten ist i.a. nicht moglich. Die falschliche
10.2
417
Prinzipien des Testens
Verwerfung der NuUhypothese ist somit durch das Signifikanzniveau a abgesichert. Man spricht dann auch von einem statistischen Test zum (Signifikanz-) Niveau a. Die Wahrscheinlichkeit fiir den Fehler 2. Art wird nicht vorgegeben und wird in Abhangigkeit von dem in der Grundgesamtheit vorliegenden Parameter betrachtet, wie wir an der Darstellung der Giitefunktion noch sehen werden. Es gilt: Je naher der wahre Parameter aus der Alternative an dem nicht wahren Wert der NuUhypothese liegt, desto grofier wird die Wahrscheinlichkeit fiir den Fehler 2. Art. Man nehme an, die wahre produzierte Bleistiftlange betragt im Mittel 17.2 cm, vgl. Beispiel 10.6 (Seite 410), der SoUwert ist aber als 17cm festgelegt. Dieser kleine Unterschied ist anhand eines statistischen Tests nur schwer zu erkennen. Der statistische Test wird dazu tendieren, die NuUhypothese nicht zu verwerfen, d.h. der Test wird vermuthch zu der falschen Entscheidung gelangen, dafi der SoUwert eingehalten wird. Die Wahrscheinlichkeit fiir den Fehler 2. Art ist also grofi. Liegt das Mittel der produzierten Bleistiftlange jedoch bei 20 cm, um einen Extremfall zu nennen, wird der statistische Test eher darauf erkennen, dafi der SoUwert nicht mehr eingehalten wird. Die Wahrscheinlichkeit fiir den Fehler 2. Art ist klein. Diese Ungleichbehandlung der beiden Fehlerarten ist der Grund dafiir, dafi die eigentlich interessierende Fragestellung als statistische Alternative formuliert wird. Entscheidet man sich fiir diese, so mochte man mit Sicherheit sagen konnen, mit welchem Fehler diese Entscheidung behaftet ist. Eine solche Aussage ist fiir den Fall, dafi HQ beibehalten wird, nur schwer moglich.
Test zum Niveau a
Ungleichbehandlung
Signifikanztest
Ein statistischer Test heifit Test zum Signifikanzniveau a, 0 < a < 1, oder Signifikanztest^ falls P{Hi annehmen \Ho wahr ) < a , d.h. P ( Fehler 1. Art) < a . Typische Werte fiir das Signifikanzniveau a sind 0.1,0.05,0.01. Anschaulich kann man das Signifikanzniveau a wie folgt interpretieren: Nehmen wir an, es wiirden 100 gleichgrofie Stichproben zu derselben Fragestellung gezogen, z.B. 100 Stichproben mit je 10 Geburten. Aufierdem gelte die NuUhypothese, d.h. in unserem Beispiel seien Jungen- und Madchengeburten gleich wahrscheinUch. Dann wiirde ein statistischer Test zum Niveau a = 5 % in hochstens 5 der 100 Stichproben die NuUhypothese verwerfen. Da Testentscheidungen somit von dem vorgegebenen Signifikanzniveau abhangen, sagt man im Fall einer Verwerfung der NuUhypothese "Das Ergebnis ist statistisch signifikant (zum Niveau a)" und im Fall einer Bei-
(nicht) statistisch signifikant
10. Testen von Hypothesen
418
behaltung der NuUhypothese "Das Ergebnis ist nicht statistisch signifikant (zum Niveau a ) " . Bei dieser Formulierung wird auch noch einmal deutlich, dafi der Test lediglich erkennt, ob ein Ergebnis im statistischen Sinn bedeutend ist. Statistische Signifikanz ist also nicht ohne weiteres gleichzusetzen damit, dafi ein Ergebnis auch unter substanzwissenschafthchem Gesichtspunkt bedeutend ist. 10.2.2
Statistische Tests und Konfidenzintervaile
Interessant ist es an dieser Stelle anzumerken, dafi die Entscheidung eines Signifikanztests z.B. bei einem zweiseitigen Testproblem analog iiber das entsprechende Konfidenzintervall gefallt werden kann. Dieser Zusammenhang lafit sich gut anhand des Gaufi-Tests veranschaulichen. Dort gilt, dafi HQ ZU verwerfen ist, falls X -
flQ
\fn
> Zi-a/2 '.
\fn
< ^l-a/2 •
bzw. dafi Ho beizubehalten ist, falls \x - fio z =
Letztere Ungleichung lafit sich aquivalent umformen zu a d.h.
\X-
flo\ < ^ i _ a / 2 - —7=1
bzw. X-
bzw.
fiO> - ^ l _ a / 2 • -7=
-/io > - x - Zi_a/2 • —^
^^d
und
X-
ldo< ^ l - a / 2 ' -"7=
- /io < - ^ + ^ i - a / 2 • —r=
cr _ a Diese Grenzen sind bekannt als Grenzen des (1 — a)-Konfidenzintervalls fiir /i, das ^10<X + Z i _ a / 2 • - 7 = u n d /io > ^ - ^ l - a / 2 ' "F= • gegeben ist als r_ cr _ G X - ^l-a/2 • -7=
-> ^ + ^ l - a / 2 * - 7 - i
L v^ V^J Damit kann man aufgrund obiger Aquivalenzumformungen also entscheiden, dafi iJo beizubehalten ist, falls /XQ in dem (1 — Q;)>Konfidenzintervall fiir ix liegt, bzw. dafi i^o zu verwerfen ist, falls /io nicht Element des entsprechenden Konfidenzintervalls ist. Allgemein konnen wir also festhalten, dafi ein (1 — a)-Konfidenzintervall gerade dem Annahmebereich des zugehorigen zweiseitigen Signifikanztests entspricht.
10.2
419
Prinzipien des Testens
10.2.3
Uberschreitungswahrscheinlichkeit
Alternativ zu der oben beschriebenen Vorgehensweise lassen sich statistische Tests auch iiber die sogenannten p-Werte bzw. Uberschreitungswahrscheinlichkeiten durchfuhren. Diese werden standardgemafi von statistischen Software-Paketen ausgegeben. A n s t a t t die Priifgrofie mit einem bestimmten kritischen Wert zu vergleichen, u m iiber die Ablehnung der NuUhypothese zu entscheiden, vergleicht m a n den p-Weit direkt mit dem vorgegebenen Signifikanzniveau a. D a der p-Wert gerade die Wahrscheinlichkeit angibt, unter HQ den beobachteten Priifgrofienwert oder einen in Richtung der Alternative extremeren Wert zu erhalten, ist die NuUhypothese dann zu verwerfen, falls der p-Wert kleiner ist als a (vgl. dazu auch Abb. 10,4).
^l-a ABBILDUNG
p- Werte
Z
10.4: Zusammenhang zwischen p-Wert und Signifikanzniveau
Wenn der p-Wert namlich sehr klein ist, bedeutet das, dafi es unter HQ sehr unwahrscheinlich ist, diesen Priifgrofienwert zu beobachten. Dies spricht dafiir, dafi HQ eher falsch ist. Die einzelnen Schritte, die bei der Durchfiihrung eines statistischen Tests zu machen sind, bleiben unverandert, wenn man diesen anhand von p-Werten durchfiihrt. Lediglich die Entscheidung iiber die Verwerfung der NuUhypothese wird mittels einer formal anderen Regel getroffen, d.h. mittels "i^o wird abgelehnt, falls der p-Wert kleiner ist als a", statt mittels "HQ wird abgelehnt, falls der Priifgrofienwert in den kritischen Bereich fallt". Gut-Schlecht-Priifung
In Beispiel 10.5 (Seite 406) betrug der Priifgrofienwert z = 0.21. Da die Alternative liber den Schlechtanteil TT formuliert war als iJi : TT > 0.1, sind in Richtung der Alternative extremere
Beispiel 10.7
10. Testen von Hypothesen
420
PriifgroBenwerte solche, die grofier sind als z. Damit ist der p-Wert gegeben als p = PHO{Z > 0.21) = 1-PHO{Z<
0.21) = 1 - $(0.21) = 1 - 0.5832 = 0.4168.
Da der p-Weit grofier ist als das vorgegebene Signifikanzniveau a von 0.05, kann die Nullhypothese nicht verworfen werden. Diese Entscheidung stimmt mit der in Beispiel 10.5 getroffenen iiberein. D Bei der Berechnung des p-Werts ist also die Uberlegung entscheidend, welche Priifgrofienwerte noch starker gegen HQ sprechen.
p-Wert Der p-Wert ist definiert als die Wahrscheinlichkeit, unter Ho den beobachteten Priifgrofienwert oder einen in Richtung der Alternative extremeren Wert zu er halt en. Ist der p-Wert kleiner oder gleich dem vorgegebenen Signifikanzniveau a, so wird Ho verworfen. Ansonsten behalt man Ho bei.
Gefahr eines Mifibrauchs
Da p"Werte Wahrscheinlichkeiten sind, nehmen sie stets Werte grofier gleich 0 und kleiner gleich 1 an. Somit haben sie den Vorteil, dafi sie die Vergleichbarkeit verschiedener Testergebnisse ermoglichen. Aufierdem werden sie, wie schon erwahnt, von statistischen Programmpaketen automatisch ausgegeben, wodurch eine schnelle Durchfiihrung statistischer Tests moglich ist und zwar in Form folgender Regel: Falls der p-Wert kleiner als oder gleich a ist, lehne HQ ab. Ist der p-Wert grofier als a, behalte HQ bei. P-Werte liefern zudem mehr Informationen als die ja-neinEntscheidung bzgl. der Ablehnung der NuUhypothese: Man kann an ihnen ablesen, zu welchem Niveau der zugehorige Test die NuUhypothese gerade noch verworfen hatte. Diese letzte Interpretation birgt jedoch die Gefahr eines Mifibrauchs insofern, als zunachst der Test durchgefiihrt, also der p-Wert berechnet werden kann und dann das Signifikanzniveau festgelegt wird, und zwar gerade so, dafi man Ho noch ablehnen kann. Dies setzt natiirlich die gesamte dahinterstehende Testtheorie aufier Kraft, was anhand der Diskussion der Giitefunktion deutlich wird. 10.2.4
Giitefunktion
Gutefunktion
Bei der obigen Diskussion statistischer Tests wurden Fehler 1. Art und 2. Art als zwei Kriterien zur Beurteilung ihrer Qualitat eingefiihrt. Diese beiden Kriterien lassen sich unter dem Begriff der Giitefunktion zusammenfiihren. Zur Erinnerung seien
10.2
Prinzipien des Testens
421
noch einmal die Wahrscheinlichkeiten fiir Fehler 1. und 2. Art formal angegeben: P(Fehler 1. Art) = P(Ho ablehnen|i7o wahr), P(Fehler 2. Art) = P{Ho beibehalten|Fi wahr) = 1 — P{HQ ablehnenli/iwahr). Die letzte Umformung ist zum Verstandnis der Giitefunktion entscheidend. Diese gibt fiir einen Signifikanztest namlich gerade in Abhangigkeit des interessierenden Parameters die Wahrscheinlichkeit an, die NuUhypothese zu verwerfen. Falls also der wahre Parameter aus der Alternative stammt, entspricht die Giitefunktion der Wahrscheinlichkeit, die richtige Entscheidung zu treffen, namlich HQ ZU verwerfen. Fiir den Fall, dafi der wahre Parameter in der NuUhypothese liegt, gibt die Giitefunktion die Wahrscheinlichkeit fiir den Fehler 1. Art an, die durch das vorgegebene Signifikanzniveau nach oben beschrankt ist. Der Verlauf einer idealen Giitefunktion ist in Abbildung 10.5 skizziert.
1
I
/^
\
Ho
/^o
Hi
ABBILDUNG 10.5: Verlauf einer idealen Giitefunktion
Eine solche Giitefunktion gehort zu einem statistischen Test, bei dem weder ein Fehler 1. Art noch ein Fehler 2. Art auftreten kann, da die Wahrscheinhchkeit, die Hypothese zu verwerfen, fiir Werte aus HQ gerade null und fiir Werte aus HQ eins betragt. Dies ist, wie wir oben iiberlegt haben, praktisch nicht moglich. Zur Konkretisierung dieses Begriffs betrachten wir erneut den Gaui3-Test fiir das Testproblem: HQ: ii< iiQ gegen
iJi : /i > yuo •
422
10. Tester) von Hypothesen
Fiir dieses Testproblem ist die Giitefunktion g in Abhangigkeit vom interessierenden Parameter als Funktion von /i zu betrachten, d.h. g{li) = P{Ho ablehnen|/i). An dieser Schreibweise wird deutlich, dafi g(fi) fiir die verschiedensten Werte des unbekannten, aber wahren Parameters // die Wahrscheinlichkeit angibt, HQ ZU verwerfen. Gilt • /x G Ho^ so ist gf(/i) < a , • /i G ^ 1 , so ist 1 — g{ii) die Wahrscheinlichkeit fiir den Fehler 2. Art. Wie lafit sich g{fi) nun genauer berechnen? Dies kann i.a. recht kompliziert werden. Fiir den Gaufi-Test lafit sich ^(/x) aber relativ einfach herleiten. Nach Definition ist ^(/x) = P{Ho ablehnen|ju). Da HQ im obigen Testproblem abgelehnt wird, falls "J^^ y/n> zi-oci lafit sich g{ii) auch schreiben als 9{^^) = p ( ^ ^ V ^ > z i _ . | / . ) . Diese Wahrscheinlichkeit ist fiir fj, — no exakt a. Fiir alle anderen Werte von /x miii3te die Priifgroi3e jedoch neu standardisiert werden, um wieder zu einer standardnormalverteilten GroiSe zu gelangen. Dazu wenden wir einen in der Mathematik iibhchen Trick an und addieren JJL — jJ,, also eigentlich eine Null. Wir erhalten
9{lA
da /i, der wahre Parameter und somit —^y/n N{0^ l)-verteilt ist. Die Giitefunktion kann man fiir ein vorgegebenes a und festen Stichprobenumfang n als Funktion von fi graphisch darstellen, wie in Abbildung 10.6 skizziert und in Beispiel 10.8 illustriert ist. Beispiel 10.8
Qualitatsprufung
Kommen wir noch einmal auf Beispiel 10.6 (Seite 410) zuriick. Von Interesse sei nun aber nicht die Konstruktion einer KontroUkarte, sondern folgendes Testproblem HQ : iJ,< 17cm gegen iJi :/i > 17cm.
10.2
423
Prinzipien des Testens
ABBILDUNG
10.6: Skizze einer Giitefunktion g{fj,) = 1 - $ {zi-c
p-^o
V^)
Hier wird also versucht, eine Abweichung der Bleistiftlange vom SoUwert nach oben zu verhindern. Sei a = 0.05 und n = 10. Die Standardabweichung sei wieder als a = 1.5 vorausgesetzt. Dann ist die Giitefunktion gegeben als ^(/i) = 1 - $ I ^0.95 -
/^
^
^
)
l_$(l.64-^^yi^.3.16
Die Werte der Funktion ^(/i) konnen aus der Tabelle der Verteilungsfunktion der Standardnormalverteilung fiir verschiedene Werte von /x abgelesen werden. Man erhalt folgende Wertetabelle:
M P(M)
16 16.5 0 0.003
17 0.05
17.5 0.279
18 0.68
18.5 0.936
19 0.995
Als Rechenbeispiel betrachte man /x = 17.5, wofiir sich ergibt: p(17.5) = 1 - $ f 1.64
—
3.16 J = 1 - $ (0.59) = 0.279.
Man sieht, dai3 die Wahrscheinlichkeit, HQ ZU verwerfen, fiir /x = 17.5 cm mit 0.279 sehr klein ist. Das heiBt: Obwohl wir sicher wissen, daj3 mit /J, = 17.5 cm die Alternative zutrifft, fallt die Entscheidung des Tests mit einer groBen Wahrscheinlichkeit von 1 — 0,279 = 0.721 fiir HQ. Dies ist gerade die Wahrscheinlichkeit fiir den Fehler 2. Art. Man erkennt deutlich, dai3 diese Wahrscheinlichkeit von den Wert en der Alternative abhangt: Je grofier die Abweichung von /io, also je grofier der zu entdeckende Effekt ist, desto kleiner wird die Wahrscheinlichkeit fiir den Fehler 2. Art. Ebenso wird ersichtlich, vgl. Abbildung 10.6, dafi die WahrscheinUchkeit fiir den Fehler 1. Art fiir alle Werte /i aus HQ kleiner oder gleich a = 0.05 ist. Fiir ^ = /XQ = 17 cm nimmt g{/d) den Wert des Signifikanzniveaus a an. Dies verdeutlicht noch einmal, dafi die Giitefunktion fiir fiG Hi gerade 1—WahrscheinUchkeit fiir den Fehler 2. Art und fiir fie Ho die Wahrscheinhchkeit fiir den Fehler 1. Art angibt, wobei letzterer durch a an der Stelle fi = fiQ nach oben beschrankt ist. D
10. Tester) von Hypothesen
424
Fiir das zweiseitige Testproblem HQ\ ii = JIQ gegen Hi: /J.^ fio (vgl. Abb. 10.7, Seite 425) und das andere einseitige Testproblem Ho : fi> fio gegen Hi'. JJLK JJLQ ermittelt man g{ii) analog.
Giitefunktion Fiir vorgegebenes Signifikanzniveau a und festen Stichprobenumfang n gibt die Giitefunktion g die Wahrscheinlichkeit fiir einen statistischen Test an, die Nullhypothese zu verwerfen. Speziell fiir den Gaufi-Test ergibt sich die Giitefunktion ^(/i) im Fall des Testproblems (a) i7o : /i = /io gegen Hi\ ji^ jio als g{li) = $ ( - ^ i - c / 2 +
— ~ ^ ^) + $ ( - W 2 - ^ ^ ^ )
(b) Ho : fi> fio gegen Hi : fi < fio als g{fi) =
^(za-
^V^)
(c) i7o : /i < /io gegen i7i : /i > /io als
g{fi) = 1 - $
(zi-c.-^V^),
wobei $ die Verteilungsfunktion der A^(0, L)-Verteilung bezeichnet.
Power
Die Giitefunktion erlaubt also Aussagen iiber die Qualitat eines statistischen Tests. Sie enthalt nicht nur Informationen dariiber, fiir welche Parameterwerte die NuUhypothese mit grofier Wahrscheinlichkeit verworfen wird, sondern auch das Signifikanzniveau. Diese Zweiteilung bei der Interpretation der Giitefunktion spiegelt sich auch in ihrer Namensgebung wider. Fiir Werte aus der Alternative spricht man von der Giitefunktion auch als Macht, Trennschdrfe oder Power eines Tests. Giitefunktionen werden daher zum Vergleich mehrerer konkurrierender Tests zu einem Testproblem herangezogen. Man wahlt, falls moghch, den Test unter alien Niveau-a-Tests aus, der die grofite Macht besitzt, oder wie bereits zu Beginn dieses Unterkapitels formuhert, die geringste Wahrscheinlichkeit fiir einen Fehler 2. Art. Bei der Herleitung der Giitefunktion des Gaufi-Tests hat man aber gesehen, dafi g{ii) als Funktion von JJL noch von dem Signifikanzniveau a und dem Stichprobenumfang
10.2
425
Prinzipien des Testens
, i
P(A^)
1-
--j^yy^— / / / ; / / ' ' / ;/ / ;/ / /// ///
\ ^ ^ ' \ ^ '* \ ^ '• \
^ •'
\ \ •
\ \\ \\\ a -
t
—
y
1
Mo ABBILDUNG
n = 10 (
—
•
-
M
10.7: Skizze einer Giitefunktion des zweiseitigen GauB-Tests mit ), n = 20 (---), n = 50 (-•)
n abhangt. Diese Abhangigkeit werden wir im folgenden am Beispiel des Gaufi-Tests genauer untersuchen. Qualitatsprufung
Beispiel 10.9
Betrachten wir zunachst die Abhangigkeit der Giite eines Tests vom Stichprobenumfang n anhand des obigen Beispiels. Wir haben gesehen, dafi eine Abweichung von 0.5 cm nach oben vom SoUwert nur mit einer Wahrscheinlichkeit von 0,279 von dem statistischen Test entdeckt worden ware. Lafit sich diese Abweichung besser entdecken, wenn n vergrofiert wird? Zur Beantwortung dieser Frage sei nun n = 50 und n — 100 gewahlt. Es ergibt sich: • n = 50:
^(17.5) = 1 - $ ( 1 . 6 4 - 1 1 : ^ . V ^ )
• n = 100:
^(17.5) = 1 - $(1.64
17.5-17 1.5
1 - $ ( - 0 . 7 1 ) = 0.761, 1 - $ ( - 1 . 6 9 ) = 0.954,
d.h. schon fiir n = 50 ware die Abweichung von 0.5 cm mit einer WahrscheinUchkeit von 0.761 und fiir n = 100 schUefiUch mit einer WahrscheinUchkeit von 0.954 ziemlich sicher entdeckt worden (vgl. auch Abb. 10.8). Man kann also durch eine Vergrofierung des Stichprobenumfangs erreichen, dafi auch kleine Effekte bzw. kleine Abweichungen durch den statistischen Test entdeckt werden. Nur sollte man sich dabei fragen, ob die Entdeckung sehr kleiner Effekte unter substanzwissenschaftUchem Gesichtpunkt iiberhaupt sinnvoU ist, d.h. es ist vielleicht fraghch, ob dermafien kleine Effekte eigentUch noch interpretierbar sind. Der zweite Aspekt der Giitefunktion, den wir untersuchen wollen, betrifft ihre Abhangigkeit vom Signifikanzniveau a. Zu Beginn der Diskussion der Prinzipien statistischer Tests wurde angemerkt, dafi es nicht moglich ist, beide Fehlerwahrscheinlichkeiten gleichzeitig zu minimieren. Das miifite also zur Folge haben, dafi eine Veranderung von a auch eine Veranderung der Wahrscheinlichkeit fiir den Fehler 2. Art nach sich zieht und zwar insofern,
10. Testen von Hypothesen
426
ABBILDUNG 10.8: Giitefunktion des einseitigen GauBtests fiir verschiedene Stichprobenumfange n = 10 ( ), n = 20 ( ), n = 50 (••••), cr = 1.5
dafi eine Vergrofierung von a eine Verkleinerung von /? und umgekehrt bewirkt. Betrachten wir daher im obigen Beispiel a = 0.01 und Q; = 0.1 fiir /i = 17.5. Fiir a = 0.01 ergibt sich zi-a = >2^o.99 als 2.3262, und fiir a = 0.1 erhalt man als kritischen Wert zo.g = 1.2816 und somit • a = 0.01: • a = 0.1:
^(17.5) = 1 - $ ( 2 . 3 2 6 3 -
17.5-17 1.5
^(17.5) = 1 - $(l.2816 -
17.5-17. ^%^-^'^x/IO)
V T 0 ) = 1 - $ ( 1 . 2 7 ) = 0.102, = 1 - $(0.23) = 0.41.
Man sieht deutlich, dafi die Wahrscheinlichkeit fiir den Fehler 2. Art kleiner wird, wenn
ABBILDUNG 10.9: Giitefunktion des einseitigen Gaufitests fiir verschiedene Signifikanzniveaus a = 0.01 ( ), a = 0.05 ( ), a = 0.1 (-•••), cr = 1.5
10.2
Prinzipien des Testens
427
man bei der Wahrscheinlichkeit fiir den Fehler 1. Art gewisse Abstriche macht (vgl. auch Abb. 10.9). D
Folgende Eigenschaften einer Giitefunktion lassen sich zusammenfassen (vgl. auch Abb. 10.8, 10.9):
Eigenschaften einer Gutefunktion eines statistischen Tests 1. Fiir Werte aus Hi heifit die Gutefunktion Trennscharfe oder Macht. 2. Fiir Werte aus HQ ist die Giitefunktion kleiner gleich a. 3. Fiir wachsendes n wird die Macht eines Tests grofier, d.h. die Giitefunktion wird steiler. 4. Fiir wachsendes a wird die Macht eines Tests grofier. 5. Fiir eine wachsende Abweichung zwischen Werten aus Hi und HQ wird die Macht eines Tests grofier.
*Multiple Testprobleme Haufig sind an empirische Studien mehrere wissenschaftHche Fragen gekniipft, die alle anhand von Signifikanztests iiberpriift werden soUen. Gut-Schlecht-Prufung
Beispiel 10.10
Nehmen wir an, iiber die Qualitat eines Werkstiicks wird anhand dreier verschiedener Merkmale entschieden. Das Werkstiick wird als schlecht eingestuft, wenn mindestens eines der drei Qualitatsmerkmale als nicht erfiillt angesehen wird. Ob die Qualitatsanforderung erfiillt ist oder nicht, wird jeweils anhand eines statistischen Tests entschieden. Das heifit, es werden drei Tests durchgefiihrt und zwar jeweils zum Niveau a = 0.05. Mit welcher Fehlerwahrscheinlichkeit ist dann die Entscheidung iiber die Qualitat des Werkstiicks insgesamt behaftet? Dazu iiberlegt man sich, dafi das Werkstiick genau dann als schlecht eingestuft wird, wenn mindestens einer der drei Tests die entsprechende Nullhypothese verwirft, dafi das jeweihge Qualitatsmerkmal in Ordnung ist. Das Komplementarereignis dazu ist, dafi keiner der Tests ablehnt. Es gilt, da jeder der Tests ein Niveau-a-Test ist: Pffi {Hi verwerfen ) = 0.05
z = l,2,3.
Sind die Tests stochastisch unabhangig voneinander, berechnet sich die Wahrscheinlichkeit dafiir, dafi keiner der Tests ablehnt im Fall, dafi die NuUhypothesen gelten, als 0.95 • 0.95 . 0.95 = 0.85735 .
10. Testen von Hypothesen
428
Damit ist die Wahrscheinlichkeit, dafi mindestens einer der Tests falschlicherweise ablehnt, gegeben als 1-0.85735 = 0.14265. Das heifit, eine falsche Entscheidung iiber die Qualitat des Werkstiicks insgesamt in Form einer Bewertung als schlecht ist mit einer Wahrscheinlichkeit von 0.143 behaftet, also mit einer viel groCeren Fehlerwahrscheinlichkeit als jede einzelne Entscheidung. D
multiples Testproblem
SoUen aufgrund eines Datensatzes mehrere Testprobleme anhand von Signifikanztests iiberpriift werden, spricht man von einem multiplen Testproblem. Die Wahrscheinlichkeit, mindestens einen Fehler 1. Art zu begehen, wachst mit der Anzahl der durchzufiihrenden Tests. Im Fall von k unabhangigen Tests gilt in Verallgemeinerung von Beispiel 10.10 auf der Seite zuvor fiir die Wahrscheinlichkeit von a*, mindestens ein falschlicherweise signifikantes Ergebnis zu erhalten: l-(l-a)^
a
Wahlt man a = 0.05, vgl. Beispiel 10.10, so erhalt man k
3 5 10 100
BonferroniKorrektur
a* 0.143 0.226 0.401 0.994(!)
Zum Schutz gegen eine solche Uberschreitung einer vorgegebenen Fehlerwahrscheinlichkeit lafit sich etwa die Bonferroni-Korrektur anwenden, bei der jeder Test zum Niveau a/k statt zum Niveau a durchgefiihrt wird. Es gibt allerdings wesenthch subtilere Verfahren zur Korrektur, die in einschlagigen Werken zu finden sind.
10.3
Zusammenfassung und Bemerkungen
Vielen empirischen Untersuchungen liegt eine bestimmte Fragestellung iiber ein Merkmal in der Grundgesamtheit zugrunde, die mit Hilfe statistischer Methoden auf Stichprobenbasis geklart werden soil. Um den Einsatz statistischer Verfahren zu ermoglichen, mu6 die Fragestellung zunachst quantifiziert werden. Fiir den Fall, dafi diese bereits eine Vermutung beispielsweise iiber einen Parameter der Verteilung des interessierenden Merkmals in der Grundgesamtheit beinhaltet, wird die zu klarende Fragestellung dann als statistisches Testproblem formuliert. Ein solches Testproblem
10.3
Zusammenfassung und Bemerkungen
429
besteht aus einer Nullhypothese und einer Alternative^ wobei letztere in der Kegel die interessierende Forschungshypothese wiedergibt. Das geeignete Instrumentarium zur Losung eines statistischen Testproblems liefert nun ein statistischer Test. Dieser stellt eine formale Entscheidungsregel dar, mit der es m5glich sein soil zu unterscheiden, ob das in der Stichprobe beobachtete Verhalten ein reines Zufallsprodukt ist oder den Schlufi auf die Grundgesamtheit zulafit. Ein solcher statistischer Test basiert auf einer Priifgrofie bzw. Teststatistik^ die so konstruiert ist, dafi sie fiir das interessierende Testproblem sensibel ist und dafi ihre Verteilung unter der Nullhypothese bekannt ist. Damit lafit sich dann ein Bereich, der sogenannte Ablehnungsoder kritische Bereich^ ermitteln, der aus Werten der Priifgrofie besteht, deren Zustandekommen unter der Nullhypothese sehr unwahrscheinhch ware und die somit fiir die Alternative sprechen. Die Nullhypothese wird demnach abgelehnt, wenn der beobachtete Priifgrofienwert in dem Ablehnungsbereich liegt. Ansonsten wird sie beibehalten. Die Wahrscheinlichkeit fiir den Ablehnungsbereich unter der Annahme, dafi die Nullhypothese doch fiir die Grundgesamtheit zutrifft, soil also klein sein. Diese Wahrscheinlichkeit wird als Signifikanzniveau bezeichnet. Statistische Tests liefern demnach nie hundertprozentige Aussagen. Die Unsicherheit, die durch die Ziehung einer Zufallsstichprobe an den Daten haftet, iibertragt sich auf die Testentscheidung, wobei zwei Fehlentscheidungen moglich sind. Die Wahrscheinlichkeit fiir den Fehler 1. Art^ der darin besteht, die Nullhypothese zu verwerfen, obwohl sie fiir die Grundgesamtheit zutrifft, wird gerade durch das Signifikanzniveau nach oben begrenzt. Die Wahrscheinlichkeit fiir den Fehler 2. Art^ die Nullhypothese beizubehalten, obwohl die Alternative zutrifft, versucht man, moglichst klein zu halten. Man wahlt unter alien Tests zum Signifikanzniveau a denjenigen mit der kleinsten Wahrscheinlichkeit fiir den Fehler 2. Art bzw. mit der grofiten Trennschdrfe aus. Ein solcher Vergleich zwischen statistischen Tests erfolgt iiber die Giitefunktion^ die gerade die Wahrscheinlichkeit angibt, die Nullhypothese zu verwerfen. Sie beinhaltet damit sowohl Information liber das Signifikanzniveau als auch iiber die Trennscharfe. In Analogic zu dem kritischen Bereich eines Tests lassen sich alle Priifgrofienwerte, die nicht zur Ablehnung der Nullhypothese fiihren, in dem Annahmebereich des Tests zusammenfassen. Dieser entspricht bei einem Test zum Signifikanzniveau a gerade dem zugehorigen (1 — a)-Konfidenzintervall. Als weiterfiihrende Literatur, insbesondere hinsichtlich der Konstruktion von Teststatistiken, sei auf Riiger (1996) und Schlittgen (1996) verwiesen. Als zusatzliches Ubungsbuch bietet sich beispielsweise Hartung und Heine (1996) an. Alternativ zu dem obigen Vorgehen lassen sich statistische Tests auch mittels sogenannter p- Werte durchfiihren. Diese geben die Wahrscheinlichkeit an, unter der Nullhypothese den beobachteten Priifgrofienwert oder einen in Richtung der Alternative extremeren Wert zu erhalten. Dementsprechend wird die Nullhypothese bei Verwendung des p-Werts dann abgelehnt, wenn dieser kleiner oder gleich dem vor-
10. Testen von Hypothesen
430
gegebenen Signifikanzniveau ist. Ein zusatzliches Problem tritt dann auf, wenn mehrere statistische Tests auf Grundlage eines Datensatzes durchgefiihrt werden sollen. M a n spricht dann von einem multiplen Testproblem, Hier ist besondere Vorsicht geboten, da ohne Beriicksichtigung der Multiplizitat der Fragestellung signifikante Ergebnisse rein zufallig auftreten konnen. Verfahren, die davor schiitzen, finden sich beispielsweise in Hochberg und Tamhane (1987) und in Hsu (1996). Grundlegend fiir die Durchfiihrung statistischer Tests ist neben der Formulierung eines der praktischen Fragestellung angemessenen statistischen Testproblems die Bereitstellung einer geeigneten Priifgrofie. Diese hangt von der Skalierung des Merkmals, den Annahmen iiber die Verteilung der Stichprobenvariablen in der Grundgesamtheit und dem Testproblem ab. Wir haben hier den exakten und den approximativen Binomialtest zur Uberpriifung von Anteilen kennengelernt. Im Zusammenhang mit der Qualitatskontrolle wurde der Gaufi-Test eingefiihrt. Zur Vertiefung der fiir die Qualitatskontrolle relevanten Methoden sei z.B. das Buch von Rinne und Mittag (1994) genannt. Weitere konkrete Tests werden speziell in Kapitel 11, aber auch in den nachfolgenden behandelt.
10.4
Aufgaben
Aufgabe 10.1
Eine Verbraucherzentrale mochte iiberpriifen, ob ein bestimmtes Milchprodukt tJbelkeit bei den Verbrauchern auslost. In einer Studie mit zehn Personen wird bei sieben Personen nach dem Genufi dieses Milchprodukts eine auftretende tJbelkeit registriert. tJberprufen Sie zum Signifikanzniveau a = 0.05 die statistische NuUhypothese, dafi der Anteil der Personen mit tJbelkeitssymptomen nach dem Genufi dieses Produkts in der Grundgesamtheit hochstens 60 % betragt. Geben Sie zunachst das zugehorige statistische Testproblem an.
Aufgabe 10.2
Bisher ist der Betreiber des offentlichen Verkehrsnetzes in einer Grofistadt davon ausgegangen, dafi 35% der Fahrgaste Zeitkarteninhaber sind. Bei einer Fahrgastbefragung geben 112 der insgesamt 350 Befragten an, dafi sie eine Zeitkarte benutzen. Testen Sie zum Niveau Q; = 0.05, ob sich der Anteil der Zeitkarteninhaber verandert hat. Formulieren Sie die Fragestellung zunachst als statistisches Testproblem.
Aufgabe 10.3
Aufgrund einer Theorie iiber die Vererbung von Intelligenz erwartet man bei einer bestimmten Gruppe von Personen einen mittleren Intelligenzquotienten (IQ) von 105. Dagegen erwartet man bei Nichtgliltigkeit der Theorie einen mittleren IQ von 100. Damit erhalt man das folgende statistische Testproblem: HQ\ yL = 100 gegen
iJi : // = 105 .
Die Standardabweichung des als normalverteilt angenommenen IQs sei a • 15. Das Signifikanzniveau sei mit a = 0.1 festgelegt.
10.4
Aufgaben
431
(a) Geben Sie zunachst allgemein fiir eine Stichprobe vom Umfang n = 25 • den Ablehnungsbereich eines geeigneten statistischen Tests, • den Annahmebereich dieses Tests und • die Wahrscheinlichkeit fiir den Fehler 2. Art an. (b) Welchen Bezug haben die Wahrscheinlichkeiten fiir den Fehler 1. Art und fiir den Fehler 2. Art zur Giitefunktion dieses Tests? (c) In der Stichprobe ergibt sich ein mittlerer IQ von 104. Zu welcher Entscheidung kommen Sie? Ein Marktforschungsinstitut fiihrt jahrliche Untersuchungen zu den Lebenshaltungskosten durch. Die Kosten fiir einen bestimmten Warenkorb beliefen sich in den letzten Jahren auf durchschnittlich 600 € . Im Beispieljahr wurde in einer Stichprobe von 40 zufallig ausgewahlten Kaufhausern jeweils der aktuelle Preis des Warenkorbs bestimmt. Als Schatzer fiir den aktuellen Preis des Warenkorbs ergab sich ein mittlerer Preis von 605 € . Die Varianz a^ = 225 sei aufgrund langjahriger Erfahrung bekannt. Gehen Sie von einer Normalverteilung des Preises fiir den Warenkorb aus. (a) Hat sich der Preis des Warenkorbs im Vergleich zu den Vorjahren signifikant zum Niveau a = 0.01 erhoht? Wie lautet das zugehorige statistische Testproblem? (b) Was sagt der Fehler 2. Art hier aus? Bestimmten Sie die Wahrscheinlichkeit fiir den Fehler 2. Art unter der Annahme, daB 610 € der tatsachliche aktuelle Preis des Warenkorbs ist. Geben Sie zunachst die allgemeine Formel fiir die Giitefunktion des obigen Tests in diesem konkreten Testproblem an. (c) Wie grofi miifite der Stichprobenumfang mindestens sein, um bei einem Niveau von Q; = 0.01 eine Erhohung des mittleren Preises um 5 € als signifikant nachweisen zu konnen. tJberlegen Sie sich dazu eine allgemeine Formel zur Bestimmung des erforderlichen Stichprobenumfangs.
Aufgabe 10.4
11 Spezielle Testprobleme
Nachdem im vorangehenden Kapitel die grundlegende Struktur von Signifikanztests dargestellt wurde, werden in diesem Kapitel exemplarisch Testverfahren zu einigen Standardproblemen behandelt. Die betrachteten Problemstellungen stehen in engem Zusammenhang mit dem Typ der erhobenen Daten. Zur Einfiihrung werden kurz unterschiedliche Problemstellungen und Datensituationen skizziert. Ein-Stichproben-Fall - Untersuchung einer Verteilung
Von Interesse ist die Verteilung eines Untersuchungsmerkmals, beispielsweise der Nettomiete in einem bestimmten Wohnviertel. Ausgehend von einer einfachen Stichprobe vom Umfang n soUen nun bestimmte Eigenschaften dieses Merkmals mit Hilfe statistischer Tests untersucht werden. Hypothesen liber die Eigenschaften des Untersuchungsmerkmals konnen die gesamte Verteilung betreffen oder aber nur bestimmte Kennwerte der Verteilung wie Erwartungswert, Median Oder Varianz zum Gegenstand haben. Eine Nullhypothese vom letzteren Typ der Kennwertuntersuchung ist beispielsweise Ho : "Die zu erwartende Nettomiete in einem bestimmten Wohnviertel betragt 8 € / q m " . Eine Hypothese vom erst en Typ, die die gesamte Verteilung spezifiziert, ist HQ : "Die Nettomiete ist normalverteilt". Unabhangige Stichproben ~ Vergleich von Verteilungen
Das Untersuchungsmerkmal wird unter zwei unterschiedlichen Bedingungen bzw. in unterschiedlichen Teilgesamtheiten separat erhoben. Man erhalt entsprechend zwei Stichproben, fiir jede Bedingung bzw. Teilgesamtheit eine, wobei die Stichproben voneinander unabhangig sind. Die Hypothesen beziehen sich nun auf den Vergleich der beiden zugrundeliegenden Verteilungen des Merkmals. Einfache Beispiele fiir NuUhypothesen zum Vergleich von Kennwerten sind
434
11. Spezielle Testprobleme
HQ : "Die zu erwartende Nettomiete in den Wohnvierteln A und B ist identisch". I Ho : "Das zu erwartende Einkommen mannlicher und weiblicher Arbeitnehmer (in vergleichbarer'Position einer Branche) ist gleich". Einem Vergleich der gesamten Verteilung entspricht die Nullhypothese HQ :
"Das Einkommen mannlicher Arbeitnehmer besitzt dieselbe Verteilung wie das Einkommen weiblicher Arbeitnehmer".
Verbundene Messungen - Vergleich von Verteilungen
verbundene Messungen
Will man untersuchen, wie sich ein Merkmal unter verschiedenen Bedingungen verhalt, ist es oft sinnvoU, das Merkmal unter diesen Bedingungen an denselben Stichprobenelementen zu messen. Interessiert man sich beispielsweise fiir den Umfang des Vokabulars einer Premdsprache vor und nach einem Erganzungskurs in dieser Sprache, ist es naheliegend, dieselben Teilnehmer vor und nach dem Kurs zu testen. Da die Merkmalvarianten derselben Untersuchungseinheiten gemessen werden, spricht man auch von verbundenen Messungen. Vergleichen lassen sich nun ^ j ^ j ^ ^ p^^^ unabhangiger Stichproben - die Verteilungen des Merkmals unter den beiden Bedingungen, beispielsweise durch die Nullhypothese HQ :
"Die zu erwartende Anzahl richtiger Wortiibersetzungen vor und nach dem Sprachkurs unterscheidet sich um 10".
Vollig analog lassen sich wochentliche Absatzzahlen einzelner Filialen vor und nach einer Werbekampangne untersuchen durch Ho :
"Der zu erwartende Zuwachs an wochentlichem Absatz betragt 100 Einheiten".
Zusammenhangsanalyse aus verbundenen Messungen
In Fragestellungen nach dem Zusammenhang zweier Variablen, beispielsweise dem Mietpreis und der Quadratmeterzahl, miissen beide Variablen an jeweils denselben Wohnungen erhoben werden. Man geht also wiederum von verbundenen Messungen aus. Interessante Hypothesen betreffen beispielsweise die Starke dieses Zusammenhangs, z.B. in den NuUhypothesen
11.1 Ein-Stichproben-Fall
Ho: HQ :
11.1
435
"Die Korrelation zwischen Mietpreis und Quadratmeterzahl tragtO.8", "Geschlecht und Parteipraferenz sind unabhangig".
be-
Ein-Stichproben-Fall
Ziel ist es, die Eigenschaften einer Zufallsvariable X zu untersuchen. Dazu wird im folgenden vorausgesetzt, dafi Xi^... ^Xn unabhangige Wiederholungen dieser Zufallsvariable sind. 11.1.1
Tests zu Lageaiternativen
t-Test fiir den Erwartungswert
Die als erste betrachtete Testsituation entspricht der aus Abschnitt 10.1: Ein hypothetischer Erwartungswert /io soil verglichen werden mit dem tatsachlichen, unbekannten Erwartungswert /i = E{X). Entsprechend sind die Hypothesen dieselben wie fiir den GauiJ-Test. Das Hypothesenpaar zum zweiseitigen Test besitzt die Form i7o : /^ = Mo
Hi: 11^ jiQ,
Beim einfachen Gaufi-Test wird vorausgesetzt, dafi die zugrundeliegende Zufallsvariable X normalverteilt ist mit bekannter Varianz cr^. Entsprechend lafit sich als Teststatistik die Zufallsvariable a anwenden. In vielen Testsituationen ist jedoch a^ nicht bekannt, so dafi Z als Testgrofie nicht in Frage kommt. Die Gaufi-Teststatistik Z enthalt im wesentlichen das Stichprobenmittel X als sensiblen Indikator fiir das unbekannte //, Z selbst stellt nur eine normierte Version von X dar, deren Verteilung unter HQ bekannt ist. Eine Testgrofie, die als wesentliches Element wiederum das Stichprobenmittel X enthalt, allerdings anders normiert ist, ist der sogenannte t-Test X — fio
^
wobei 5^ = J2i^i ~~ ^ ) ^ / ( ^ ~ 1) die Stichprobenvarianz bezeichnet und S = Vs^ die entsprechende Standardabweichung ist. Die Statistik T unterscheidet sich von Z nur im Nenner. Das nun unbekannte a in Z wird ersetzt durch die geschatzte Standardabweichung S. Von Teststatistiken wird erwartet, dafi
t-Test
436
11. Spezielle Testprobleme
• sie sensibel fiir das Testproblem sind, • die Verteilung unter HQ bekannt ist.
Die erste Bedingung ist erfiillt, da T eine "normierte" Version von X darstellt. Die zweite Bedingung ist ebenfalls erfiillt, da T fiir // = //o eine bekannte und tabellierte Verteilung, namlich eine t-Verteilung mit n — 1 Preiheitsgraden, besitzt. In voUiger Analogie zum Gaui5-Test wird HQ abgelehnt, wenn T zu grofie oder zu kleine Werte annimmt. Um das Signifikanzniveau a einzuhalten, wird HQ abgelehnt, wenn T < ^a/2(^ — 1) ^der T > ^i-a/2(^~ 1)? wobei tQ;/2(^"" 1) das (Q;/2)-Quantil der t-Verteilung mit n—1 Preiheitsgraden bezeichnet und ti_(^/2{ri—l) das entsprechende (1 — a/2)-Quantil. Der Unterschied zum Gaufi-Test liegt also darin, dafi die Quantile der Standafdnormalverteilung durch die entsprechenden Quantile der t-Verteilung mit n — 1 Preiheitsgraden ersetzt werden. Bei einseitigen Problemstellungen wird entsprechend HQ abgelehnt, wenn T zu grofie bzw. zu kleine Werte annimmt. Die Nullhypothese HQ
: /i < /xo
wird daher zugunsten von ffi : /x > /io abgelehnt, wenn T das (1 — a)-Quantil der t-Verteilung mit n — 1 Preiheitsgraden iiberschreitet, d.h. wenn T > ti_Q,(n — 1). Die Nullhypothese
wird abgelehnt, wenn T
11.1 Ein-Stichproben-Fall
437
t-Test (Ein-Stichproben-Fall)
X i , . . . , Xn unabhangig und identisch verteilt mit X ~ N{fi^ a'^) bzw. beliebig verteilt bei n > 30
Annahmen:
Hypothesen:
Teststatistik:
(a)
HQ:II
(fe)
Ho:fi>fio
(c)
iJo : M < A^o Hi\ ii> jio
T = ^ ^
= iXQ F i
: /i 7^ /XQ
i?i : /i < /^o
V^
Verteilung unter ji = fio: t{n — 1), fiir n > 30 approximativ N{0^ 1) Ablehnungsbereich:
(a)
\T\
>
ti_,/2(n-l)
(6)
r
<
t,(n-l) = -ti_^(n-l)
(c)
r
>
ti.a{n-l)
Fiir n > 30 ersetze t ( n - 1)-Quantile durch A/'(0,1)Quantile.
Kontrollkarten fur Bleistiftlangen
Beispiel 11.1
In Beispiel 10.6 (Seite 410) wurden die Kontrollgrenzen bestimmt, deren Uberschreiten eine Entartung des Produktionsprozesses signalisiert. Ausgangspunkt war dort eine zugrundeliegende Normalverteilung mit bekannter Varianz. Wir woUen hier dieselbe Problemstellung betrachten, allerdings ohne die Annahme bekannter Varianz. Das produzierte Werkstiick sind Bleistifte mit einer SoUange von 17 cm, d.h. man betrachtet das Hypothesenpaar HQ:
fi = 17
gegen
iJi : /i ^ 17.
Als Daten ergeben sich die fiinf Bleistiftlangen 19.2 cm, 17.4 cm, 18.5 cm, 16.5 cm, 18.9 cm. Aus Beispiel 10.6 (Seite 410) kennt man bereits :r = 18.1. Man berechnet damit die Stichprobenvarianz s^ = 1.265, und daraus X -
fJ.0 y/n
••
18.1-17 V5 = 2.186. 1.125
Der kritische Wert ergibt sich nun als (1 — a/2)-Quantil der t{n — 1)-Verteilung, d.h. fiir a = 0.01 erhalt man ^.995(4) = 4.604. Da fiir die Realisation von T gilt |2.186| < 4.604, wird HQ beibehalten.
11. Spezielle Testprobleme
438
In Beispiel 10.6 wurde von der bekannten Varianz cr^ = 2.25 ausgegangen. Entsprechend lafit sich der Gaufi-Test durchfiihren, der bei a = 0.01 die kritische Schranke 2.579 liefert. Die entsprechende kritische Schranke des t-Tests (bei n = 5 Beobachtungen) ist mit 4.604 wesentlich hoher. Darin driickt sich die grofiere Unsicherheit aus, die entsteht, wenn die wahre Varianz cr^ durch die Schatzung 5^ ersetzt wird. Technisch betrachtet, ist die grofiere kritische Schranke des ^-Tests darauf zuriickzufiihren, dafi die ^-Verteilung bzw. StudentVerteilung im Vergleich zur Standardnormalverteilung weniger Masse im Zentrum um 0 konzentriert und dafiir mehr Masse in den Enden enthalt. Fiir wachsenden Stichprobenumfang n —> oo verschwinden allerdings die Unterschiede zwischen ^-Verteilung und Standardnormalverteilung und die kritischen Schranken beider Tests werden identisch. Dies ist ein Ausdruck dafiir, dafi die Schatzung von a^ durch 5^ mit wachsendem Stichprobenumfang zunehmend genauer wird. Deshalb kann man ab einem Stichprobenumfang von etwa 30 die Quantile der t-Verteilung durch die Quantile der Normalverteilung ersetzen. D
Nonparametrische Tests zur Lage der Verteilung
nonparametrisch verteilung sfrei
Gaufi- und t-Test setzen zumindest fiir kleinen Stichprobenumfang eine Normalverteilung des zugrundeliegenden Merkmals X voraus. Ist die Abweichung von dieser Annahme sehr stark, beispielsweise bei einem erheblich rechtsschiefen Merkmal, empfiehlt es sich nicht, diesen Tests zu vertrauen. Eine Alternative sind sogenannte nonparametrische bzw^. verteilungsfreie Tests. Der Begriff nonparametrisch bezieht sich darauf, dafi nicht die Parameter der Verteilung, beispielsweise A bei Po(A), im Vordergrund stehen, sondern generelle Charakteristika wie Median oder Quantile. Der Begriff verteilungfrei erfafit den wesentlichen Sachverhalt, dafi die Verteilung der Teststatistik "unter i?o" nicht von der Verteilung des zugrundeliegenden Merkmals abhangt. Im folgenden werden zwei einfache Testverfahren fiir den Median betrachtet, wobei vorausgesetzt wird, dafi X eine stetige Verteilungsfunktion besitzt. Das Testproblem ist bestimmt durch das Hypothesenpaar ^ 0 • ^med
= So
Hi'.
Xmed ¥" ^0,
wobei Xmed den unbekannten Median des Merkmals X bezeichnet und 5Q ein vorgegebener, hypothetischer Wert ist. Aus den unabhangigen Wiederholungen X i , . . . , X^ lafit sich eine Priifgrofie bestimmen, deren Verteilung unter HQ einfach anzugeben ist. Man betrachtet A = Anzahl der Xi mit einem Wert kleiner als SQ. Unter der Vorausetzung, dafi HQ wahr ist, kann m a n jedes Ziehen von Xi Bernoulli-Experiment betrachten mit den beiden Ausgangen
{Xi<5o}
und
{Xi>So}.
als
11.1
439
Ein-Stichproben-Fall
Da die Wahrscheinlichkeit fiir das Eintreten von {Xi < SQ} genau n = 0.5 betragt, erhalt man unmittelbar Der zugehorige Signifikanztest, der sogenannte Vorzeichentest oder sign-Test^ lehnt die NuUhypothese ab, wenn A nach oben oder unten stark abweicht. Die Grenzen der Abweichungen bestimmen sich so, dafi die Wahrscheinlichkeit flir ein derart extremes Ereignis kleiner oder gleich einem vorgegebenen a ist. Das fiihrt zur Ablehnung der NuUhypothese, wenn A < K/2 oder n- A< b^j2,
Vorzeichentest
wobei 6Q,/2 der groiJte Wert ist, fiir den die jB(n, 0.5)-Verteilungsfunktion den Wert a/2 nicht iiberschreitet. Es gilt also P{A < b^/2) < a/2
und
P{A < b^/2 + 1) > a/2.
Das Signifikanzniveau a wird dadurch haufig nicht ganz ausgeschopft, das tatsachhche Signifikanzniveau ist 2(a/2 — P{A < fea/2)) ^^^ damit eventuell kleiner als a. Tests, die das Signifikanzniveau nicht voU ausschopfen, heifien auch konservativ. Alternativ lafit sich der Test durchfiihren mit dem p-Wert (der Uberschreitungswahrscheinlichkeit). Der p-Wert gibt die Wahrscheinlichkeit wieder, dafi die Teststatistik bei Giiltigkeit von HQ den beobachteten Priifgrofienwert oder einen in Richtung der Alternative extremeren Wert annimmt. Man berechnet also zu dem realisierten Priifgrofienwert a, sofern a < n/2, die Wahrscheinlichkeiten PiA = 0), P{A = l),...,P{A
= a)
fiir die potentielle Abweichung nach unten. Wegen der Symmetric der Verteilung erhalt man p = 2 ( P ( ^ = 0) + . . . + P(A = a)). Gilt a > n/2 ergibt sich P{A = n ) , . . . , P(A = a) als Abweichung nach oben und damit p = 2{P{A = n) + "- + P{A = n- a)). Flir a = n/2, was nur fiir gerades n auftreten kann, ist der p-Wert im zweiseitigen Fall gleich Eins. Bei einseitigen Testproblemen ergibt sich der p-Wert vollig analog, allerdings [-P{A = a) bestimmt bei Hi: Xmed > So- Fiir Hi: Xmed < wird nur p = P{A = 0)-\ \- P{A = a) ermittelt werden. Wegen der So mufi logischerweise p = P(A = n) + \-P{A = a). Symmetric der Verteilung ist das jedoch identisch mit p = P{A = 0) H Aus der Konstruktion des Testverfahrens ergibt sich unmittelbar, dafi es geniigt, fiir X ordinales Skalenniveau anzunehmen, da nur betrachtet wird, ob eine Realisation kleiner oder grofier als der hypothetische Wert 60 ist. Die Voraussetzungen des
konservativer Test
11. Spezielle Testprobleme
440
Vorzeichentests sind genau genommen etwas starker. Man lafit nur Verteilungsfunktionen zu, die dieselbe Form besitzen, allerdings jeweils um einen Lageparameter verschoben sind. Wie sich aus der folgenden Ubersicht ergibt, lafit sich der Vorzeichentest auch auf einseitige Hypothesen anwenden.
Vorzeichen-Test
Annahmen: Hypothesen:
Teststatistik:
X i , . . . , Xn unabhangige Wiederholungen, X besitzt stetige Verteilungsfunktion (a)
Ho : Xmed = So
Hi:
Xmed 7^ ^0
(b)
Ho : Xmed > ^0
Hi:
Xmed < ^0
(c)
Ho : Xmed < ^0
Hi:
Xmed > ^0
A = Anzahl der Stichprobenvariablen mit einem Wert kleiner als So
Verteilung unter 5(n,0.5), fiir n > 25 approximativ Ar(0.5n,0.25n) Ablehnungsbereich:
(a) (6) (c)
A < 6Q,/2 oder nA
n
A < 6a/2
Die kritischen Schranken 6Q,/2 ^^d b^ sind bestimmt durch B{b^/2)<
B{ba)<
C./2
< 5 ( 6 , / 2 + l)
a
wobei B die Binomialverteilungsfunktion zu B(n, 0.5) bezeichnet. Alternativ wird in (b) Ho abgelehnt, wenn A > oi_a, wobei die obere kritische Schranke oi_a bestimmt ist durch B ( o i _ c . ) < l - a < 5 ( o i _ a + l).
GelegentHch treten bei diesem Test auch Mefiwerte auf, die mit dem postuherten Median So identisch sind. Da diese Beobachtungen nichts liber die Richtung der Abweichung von der Nullhypothese aussagen, werden sie meist ignoriert, d.h. der Test wird nur mit den verbleibenden Messungen durchgefiihrt. Dadurch reduziert sich der benutzte Stichprobenumfang n um die Anzahl der Messungen, die den Wert
11.1
Ein-Stichproben-Fall
441
So besitzen. Da eine zusatzliche, dem Test zugrundeliegende Annahme die Stetigkeit der Verteilung ist, soUten derartige Mefiwerte nicht zu haufig auftreten.
Beispiel 11.2
Bleistiftlange
Betrachten wir das Problem der Bleistiftlange aus Beispiel 11.1 (Seite 437). Das analoge Hypothesenpaar ist Ho : Xmed = 17
Hi : Xmed ¥" ^^
mit den Daten 19.2 cm, 17.4 cm, 18.5 cm, 16.5 cm, 18.9 cm. Man berechnet daraus unmittelbar A = 1, da nur ein einziger Bleistift kleiner als 17 cm ist. Wenn HQ wahr ist, d.h. A ~ J5(5,0.5) gilt, erhalt man die Wahrscheinlichkeitsverteilung bzw. die Verteilungsfunktion P{A <x) = B(x|5,0.5) durch 0
P{A = x) J3(x|5,0.5)
0.0313 0.0313
1 0.1562 0.1875
0.3125 0.5000
0.3125 0.8125
0.1562 0.9687
0.0313 1.0000
Zu a = 0.1 ergibt sich 6o.05 durch 0, da B(0|5,0.5) < 0.05 < B(l|5,0.5). Folglich wird Ho nicht verworfen. Alternativ lafit sich der Test mit dem Konzept des p-Werts durchfiihren. Die Abweichungen, die noch starker oder genauso stark fiir Hi sprechen wiirden als der Beobachtungswert A = 1, sind bestimmt durch A = 0,A = 1 (nach unten) und A = 5, A = 4 (nach oben). Der entsprechende p-Wert ist p = P(A = 0) + P{A = 1) + P{A = 5) + P{A = 4) = 2{P{A = 0) + P{A = 1)) = 0.375. Bei einem Signifikanzniveau von a = 0.1 ergibt sich ein p-Wert, der grofier ist als a, damit wird Ho beibehalten. D
Der Vorzeichentest besitzt als verteilungsfreier Test die angestrebte Eigenschaft, dafi die Verteilung der Teststatistik nicht von der Verteilung des Merkmals abhangt. Die Verteilung der Teststatistik lafit sich hier sehr einfach nachvoUziehen. AUerdings wird dies dadurch erreicht, dafi von den Daten nur benutzt wird, ob sie kleiner oder grofier als der hypothetische Wert So sind. Bei anderen verteilungsfreien Tests, die die in den Daten enthaltene Information effektiver nutzen, ist die Verteilung der Teststatistik schwieriger abzuleiten. Ein Test dieser Art ist der im folgenden dargestellte Wilcoxon- Vorzeichen-Rang- Test.
WilcoxonVorzeichen-Rang- Test
442
11. Spezielle Testprobleme Die Konstruktion der Teststatistik erfolgt hier in mehreren Schritten:
1. Berechne die Differenzen Di = Xi — SQ^ i = 1 , . . . , n. 2. Bilde die zugehorigen betragsmafiigen Differenzen |Z)i|,..., |Dn|3. Ordne diesen betragsmafiigen Differenzen Range zu, d.h. der kleinste Betrag erhalt den Rang 1, der zweitkleinste Betrag den Rang 2, usw.
Bezeichnet rg\Di\ den Rang von |Di|, ergibt sich die Teststatistik als die Summe n W"" ^^rg i=i
\Di\Zi
mit
I 1 wenn Di>0 Zi = I 0 wenn A < 0.
W'^ stellt damit die Summe liber alle Range dar, die zu Beobachtungen gehoren, fiir die Xi > SQ^ d.h. A > 0 gilt. Die Variable Zi hat nur eine Auswahlfunktion. Als Indikatorvariable mit den Auspragungen 0 und 1 wahlt sie genau die Beobachtungen aus, fiir die Di> 0 gilt. Man kann sich einfach iiberlegen, dafi W~^ sensibel fiir den zugrundehegenden wahren Median ist. 1st der wahre Median tatsachhch SQ^ soUten bei symmetrischer Verteilung die Summen der Range mit Di > 0 und mit Di <0 etwa gleich sein. Man erhalt als Erwartungswert E(W~^) = n{n + l)/4, d.h. die Halfte der totalen \- rg (Dn) = 1 H \-n = n{n + l ) / 2 . Rangsumme rg {Di) H Ist der wahre Median kleiner als (JQ^ li^gt der Erwartungswert niedriger, da die Anzahl der Stichprobenvariablen, die grofier als 5Q sind, tendenzmafiig absinkt. Entsprechend ist der Erwartungswert grofier, wenn der wahre Median grofier ist. Daraus ergibt sich die im folgenden gegebene Testprozedur, wobei die kritischen Werte der Verteilung von W'^ tabelliert sind (siehe Tabelle F). Diese Verteilung hangt wiederum nicht von der Verteilung des zugrundehegenden Merkmals X ab.
11.1
443
Ein-Stichproben-Fall
Wilcoxon-Vorzeichen-Rang-Test Annahmen:
Hypothesen:
Teststatistik:
X i , . . . , Xn unabhangig und identisch verteilt wie X. X metrisch skaliert und symmetrisch verteilt. Verteilungsfunktion stetig. (a)
Ho : Xmed = ^0
Hi : Xmed 7^ ^0
(6)
Ho : Xmed >So
Hi:
(c)
iJo • Xmed ^ ^0
Hi I Xmed > ^0
W^ =
Xmed < ^0
f:r9\Di\Zi 2=1 •
mit Di = Xi-
So,
Zi = < 1 0
A>o A
Fiir n > 20 ist W+ approximativ verteilt nach N ( ^ ^ , Ablehnungsbereich:
(a)
W^+ < i/;+/2
Oder
n(n+iK2n+i)y
W^+ > ^ + _ ^ / 2
(b) W^ < w+ (c) W + > < _ , wobei w^ das tabellierte a-Quantil der Verteilung von W~^ ist.
Bei grofien Stichproben lafit sich die Verteilung von W~^ durch eine Normalverteilung annahern mit Erwartungswert /JLW = ^ ( ^ + l ) / 4 und Varianz a ^ = (n{n + l)(2n + l))/24. W'^ wird dann approximativ ersetzt durch die standardnormalverteilte Grofie {W~^ — i2w)/o'w^ und die Quantile w'^ und w^_^ werden durch die Quantile der Standardnormalverteilung aus Tabelle A zi+a bzw. zi-^ ersetzt. Bei der Durchfiihrung dieses Tests erhalt man gelegentlich sogenannte Bindungen. Man spricht von Bindungen oder Ties, wenn identische Werte oder die Null auftreten. Der erste Bindungstyp liegt vor, wenn \Di\ = \Dj\ fiir zwei oder mehr Differenzen gilt. Man bildet dann die Durchschnittsrange, d.h. den Durchschnitt iiber die Range, die diesen Auspragungen zukommen wiirden, wenn man die Bindung ignorieren und fortlaufend Range vergeben wiirde. Ein einfaches Beispiel ist gegeben durch r9\Di\
2.5 3.8 4.1 4.1 4.1 4 2 1 4 4
Bindungen Ties
444
11. Spezielle Testprobleme
Hier wiirden den letzten drei Messungen die Range 3, 4 und 5 zugeordnet. Stattdessen erhalt jeder dieser Werte den Durchschnittsrang (3 + 4 + 5 ) / 3 = 4. Wenn Di = Xi — 6o — 0 gilt, wird diese Beobachtung weggelassen, der fiir die Tabelle relevante Stichprobenumfang reduziert sich dann u m diesen Wert. Bei mehreren Bindungen dieses Typs reduziert sich der Stichprobenumfang entsprechend starker. Beispiel 11.3
Mietspiegel Es soil iiberpriift werden, ob die durchschnittliche Quadratmetermiete fiir Wohnungen unter 50 m^, die nach 1983 gebaut warden, groBer ist als der aus einer anderen Stadt bekannte Durchschnittswert von 8 € / q m . Das Hypothesenpaar hat also die Form i^ = S
HQ:
F i : /i > 8.
Eine Teilstichprobe von n = ll Wohnungen ergab Xi
X2
Xs
X4
Xs
XQ
X7
Xg
Xg
Xio
Xn
13.22
6.81
10.22
14.03
8.04
10.16
9.43
13.07
13.63
5.05
11.63
Unter der Annahme der Normalverteilung des Merkmals Nettomiete/qm wird ein t-Test durchgefiihrt. Mit x = 10.48, s^ = 8.82 ergibt sich t=
X-8
s
r-
v ^ = 2.770.
Fiir a = 0.05 ergibt sich die kritische Schranke ^.95(10) = 1.8125, und HQ wird abgelehnt. Die Bestimmung des p-Wertes, also P{T > 2.77) unter der Hypothese, HQ ist wahr, ergibt 0.020, d.h. ein der art extremes Ergebnis ist nur mit relativ kleiner Wahrscheinlichkeit moglich, wenn fi = S gilt. Fiir das Hypothesenpaar ^ 0 : Xmed = 8
Hi
: Xmed > 8
lassen sich der Vorzeichen-Test oder der Wilcoxon Vorzeichen-Rang-Test anwenden. Unter Ho gilt beim Vorzeichentest A ~ 5(11,0.5) und man erhalt mit der Reahsation a = 2 den p-Wert p = P(A = 11) + P{A = 10) + P{A = 9) = P{A = 0) + P{A = 1) + P{A = 2) = S(2,0.5) = 0.0327. Der p-Wert ist zwar groBer als fiir den t-Test aber immer noch deutlich unter a = 0.05; somit wird HQ abgelehnt zum Signifikanzniveau a = 0.05. Als informationsintensiverer Test laBt sich noch der Wilcoxon-Vorzeichen-Rang-Test durchfiihren. Dazu bildet man als erstes die Differenzen Di = Xi — 5o, also Di=Xi — 15.5. Man erhalt
11.1
445
Ein-Stichproben-Fall
i Di
|A| \w\Di\
10 11 2 3 4 5 6 7 8 9 1 5.22 -1,19 2.22 6.03 0.04 2.16 1.43 5.07 5.63 -2.95 3.63 5.22 1.19 2.22 6.03 0.04 2.16 1.43 5.07 5.63 2.95 3.63 6 7 9 2 5 11 1 4 3 8 10
Daraus ergibt sich W^+= 14-3 + 4 + 5 + 7 + 8 + 9 + 1 0 + 11 = 58. Bei einem kritischen Wert von wf_^{n) =WQ g^{ll) = 51 erweist sich auch dieser Test als signifikant zum Niveau a = 0.05. D
11.1.2
Anpassungstests
Im vorhergehenden Abschnitt gait das Interesse nur der Lage der Verteilung. Einige der dort betrachteten Verfahren beruhen auf der expliziten Annahme, dafi das zugrundeliegende Merkmal normal vert eilt ist. 1st diese Voraussetzung jedoch zweifelhaft, ist zusatzlich zu untersuchen, ob dieser Zweifel nicht gerechtfertigt ist. Man mochte somit iiberprufen, ob das interessierende Merkmal einem bestimmten Verteilungstyp^ namlich der Normal verteilung folgt. In anderen Problemstellungen kann die zu untersuchende Verteilung voUstandig gegeben sein. Weifi man beispielsweise, dafi die Preise von Zwei-Zimmerwohnungen in Deutschland iV(/io, CTQ)verteilt sind mit bekanntem (/XO^CTQ)' stellt sich die Frage, ob dieselbe Verteilung auch in Miinchen vorliegt. Generell liberpruft man in derartigen Problemstellungen, ob die tatsachliche Verteilung einer vorgegebenen Verteilung entspricht, d.h. ob die Daten dieser Verteilung hinreichend angepafit sind. Man spricht daher auch von Anpassungs- oder Goodness-of-fit-Tests. Im folgenden werden Testverfahren betrachtet, die fiir nominal- oder hoherskalierte Merkmale geeignet sind.
Goodness-of-fitTests
X^-Test fiir kategoriale Merkmale
Beispiel 11.4
Wiirfeln
Bestehen erhebliche Zweifel daran, dafi ein Wiirfel fair ist, ist es naheliegend, diese Eigenschaft experimentell zu untersuchen. Die Ergebnisse eines Wtirfeldurchgangs von beispielsweise 1000 Wlirfen flihrt zur folgenden Kontingenztabelle Augenzahl Anzahl der aufgetretenen Augenzahlen
1 162
2 160
3
4
5
6
166
164
170
178
Bei einem fairen Wiirfel ware die zu erwartende Anzahl in jeder Zelle 166.66. Zu entscheiden ist, ob die beobachtete Abweichung der Anzahlen als signifikant zu betrachten ist, so dafi man nicht weiterhin von der Fairness dieses konkreten Wiirfels ausgehen kann. D
446
11. Spezielle Testpro bleme
Im Beispiel des fairen Wiirfels wird ein nominales Merkmal, die Augenzahl, betrachtet. Zu diesem Merkmal gibt es eine Hypothese iiber die Wahrscheinlichkeiten des Auftetens bestimmter Auspragungen, d.h. eine Hypothese (iber die Verteilung des Merkmals, die ja durch diese Wahrscheinlichkeiten bestimmt ist. Fiir das Wiirfelbeispiel ist es die diskrete Gleichverteilung iiber die Kategorien 1 , . . . , 6. In anderen Anwendungen, beispielsweise bei der Sonntagsfrage mit fiinf Parteien, konnte die Hypothese durch die bei der letzten Wahl erreichten Anteile bestimmt sein. Man interessiert sich dann dafiir, ob tatsachhch eine Veranderung der Parteipraferenzen stattgefunden hat. Formal betrachtet man n unabhangige Wiederholungen X i , . . . , X^ des kategorialen Merkmals X E { 1 , . . . , A:}. Die relevante Information wird in einer Kontingenztabelle zusammengefafit Auspragungen von X Haufigkeiten
1 hi
2 /i2
... ...
k hk
Die hypothetisch angenommene Verteilung wird als Nullhypothese fomuliert Ho : P{X = i) = m,
z = 1 , . . . , fc,
wobei TTi,... ,7r/i; fest vorgegebene Werte darstellen. Fiir das Wiirfelbeispiel erhalt man Ho: P{X = i) = l/6, i=:l,...,6. Fiir die Sonntagsfrage mit X = Parteipraferenz stellen die Wahrscheinlichkeiten TTI die bekannten Ergebnisse der letzten Wahl dar. Die Alternativhypothese ist das logische Pendant Hi : P{X = i) ^ 1/6
fiir mindestens ein i.
Es sollte offensichtlich sein, dafi - auch wenn die Nullhypothese wahr ist - die relativen Haufigkeiten hi/n i.a. ungleich den postulierten Auftretenswahrscheinlichkeiten sind. Die Haufigkeiten stellen natiirhch das Ergebnis eines Zufallsexperimentes dar, wobei man sich einfach iiberlegt, dafi die Haufigkeiten in Zelle i eine binomialverteilte Zufallsvariable darstellen. Indem man aus den n unabhangigen Wiederholungen nur die Information verwendet, ob die Beobachtung in Zelle i fallt oder nicht, ergibt sich unter der Annahme P{X = i) = 7ri, also der Nullhypothese, die Verteilung hi r^ B{n,ni). Daraus folgt, dafi E{hi) = nni gilt, d.h. unter der Nullhypothese sind nni Beobachtungen in Zelle i zu erwarten. AUerdings ist mit einiger Variation um diesen
11.1
Ein-Stichproben-Fall
447
Erwartungswert zu rechnen. Die Starke dieser Variation lafit sich durch die Varianz Var{hi) = n7ri{l — iTi) erfassen. WoUte man jede Zelle einzeln auf Giiltigkeit von P{X = i) = TTI testen, liefie sich der Binomialtest anwenden. Eine simultane Teststatistik zu HQ : P{X = i) = TTi, i = 1 , . . . , fc, die die Abweichung von der NuUhypothese bewertet, lafit sich nun so konstruieren, dafi man fiir jede Zelle die tatsachlich beobachtete Haufigkeit hi mit der unter der NuUhypothese zu erwartenden vergleicht. Dazu betrachtet man die quadrierten Differenzen zwischen diesen Werten, die man aufierdem noch geeignet normiert, um die Verteilung der zu konstruierenden Teststatistik bestimmen zu konnen. Die Summe dieser normierten Abweichungen liefert dann die x^-Statistik
2 = Y^ (^i - 'T^^iY . ,
riTTi
Fiir grofies n {n-^ CXD) ist x^ unter HQ approximativ x^-verteilt mit k — 1 Freiheitsgraden, d.h.
X'^x'{k-l).
Der Verlust eines Freiheitsgrades ist darauf zuriickzufiihren, dafi die Anzahlen / i i , . . . , /ifc nicht unabhangig sind. Wegen der Randbedingung hi + • - • + hk = n ist jede Zellhaufigkeit durch die resthchen k — 1 Haufigkeiten deterministisch bestimmt. Bei einem a-Signifikanz-Test ist darauf zu achten, dafi HQ falschlicherweise nur mit der Wahrscheinlichkeit a abgelehnt wird. Gegen die NuUhypothese spricht es, wenn die Abweichung x^, die nur quadrierte Terme enthalt, sehr grofi wird. Entsprechend wird durch einen a-Signifikanz-Test ^ o verworfen, wenn
X^>Xl-a(^-l).
wobei Xi-a(^ — 1) das (1 — a)-Quantil der x^-Verteilung mit k — 1 Freiheitsgraden bezeichnet.
x^-'^'^^^^-^iiA:
448
11. Spezielle Testprobleme
X^-Anpassungstest bei kategorialem Merkmal
Annahme:
Xi^,,. ,Xn unabhangig und identisch verteilt wie X€{1,...,A:}
Hypothesen:
HQ: P{X = i) = nu i = l,...,fc Hi : P(X =^i):^TTi fiir mindestens ein i
Teststatistik:
^2 -Y^ (hiUTTif A 2-j riTTi 2=1
Verteilung unter HQi: approximativ x^{k — 1), Approximation anwendbar, wenn njCi > 1 fiir alle i, niTi > 5 fiir mindestens 80 % der Zellen Ablehnungsbereich:
X'>xl-aik-l)
Zu bemerken ist, dai3 der x^-Test fiir das Merkmal X nur nominates Skalenniveau voraussetzt. Er ist natiirlich auch anwendbar, wenn hoheres Skalenniveau vorliegt, beispielsweise, wenn X selbst bestimmte Anzahlen spezifiziert wie X = "Anzahl der Personen in einem Haushalt". Wesentlich ist nur, dafi X endlich viele Auspragungen besitzt. Da die Teststatistik nur approximativ x^-verteilt ist, ist darauf zu achten, dafi die zu erwartenden Zellbesetzungen nicht zu niedrig sind. Fiir grofie Zellzahl k ist das Verfahren prinzipiell anwendbar, aber der Stichprobenumfang mufi dann auch entsprechend grofi sein. Will man z.B. beim Roulette die Ausgewogenheit des Kessels untersuchen, d.h. die NuUhypothese HQ : P{X = i) = 1/37 fiir die moglichen Ergebnisse 0 , 1 , . . . , 36, waren n = 185 Beobachtungen notwendig, um n • 1/37 > 5 fiir alle Zellen zu sichern. Beispiel 11.5
Absolventenstudie
In der Mlinchener Absolventenstudie (Beispiel 1.10, Seite 16) wurde unter anderem erhoben, welche Art der Diplomarbeit angefertigt wurde. Sieht man von der sehr seltenen Form empirischer Primarerhebung ab, erhalt man die Kategorien 1: "empirische Sekundaranalyse", 2:"empirisch-qualitativ" und 3:"theoretische Arbeit". Die interessierende Hypothese besagt, dafi alle diese Formen der Diplomarbeit gleichwahrscheinlich sind, d.h. man erhalt das Hypothesenpaar HQ : TTi = 7^2 = TTs = 1/3
Hi : TTi ^ 1/3 fiir mindestens zwei z,
11.1 EinStichproben-Fall
449
wobei TTi = P{X = i) die Wahrscheinlichkeit flir das Auftreten des z-ten Typs bezeichnet. Aus den Daten hi /i2 hs n 4 12 18 34 berechnet man die bei Giiltigkeit der Nullhypothese zu erwartenden Zellhaufigkeiten riTTi = 34 • 1/3 = 11.33 und erhalt n njTi m^2 ^'TTa 11.33 11.33 11.33 34 Fiir festgehaltenen Stichprobenumfang n = 34 sind in jeder Kategorie 11.33 Diplomarbeiten zu erwarten. Man vergleicht den x^-Wert ^
2 ^ (4-11.33)^ 11.33
(12-11.33)^ 11.33
(18-11-33)^ ^ . ^.g 11.33
mit dem 0.95-Quantil der x^-Verteilung mit 2 Freiheitsgraden Xo.95(2) = 5.99. Da 8.71 > 5.99, ist bei einem Niveau von a — 0.05 von einer signifikanten Abweichung von der Nullhypothese auszugehen. Es lassen sich also unterschiedliche Wahlwahrscheinlichkeiten nachweisen. D
X^-Test fiir gruppierte Daten Der x^-Test des vorhergehenden Abschnitts setzt ein kategoriales Merkmal X E { 1 , . . . , fc} voraus. Dasselbe Testprinzip lafit sich anwenden, wenn X sehr viele Auspragungen besitzt, beispielsweise unendlich viele wie bei einer Poisson-Verteilung oder wenn X sogar stetig ist wie bei einem normalverteilten Merkmal. Es ist dann nur notwendig, einen Gruppierungsschritt vorzuschalten. Naheliegend ist es, wie in der univariaten Deskription Klassen benachbarter Intervalle zu bilden durch [co,Ci),[ci,C2),...,[Cfc_i,Cfc).
Der Informationsgehalt der Daten wird nun reduziert auf diese Intervalle indem man nur noch abzahlt, wieviele Beobachtungen in die i-te Klasse (das i-te Intervall) fallen. Dies ergibt die Beobachtungszahl fiir die i-te Zelle. Die Daten sind also von der gleichen Art wie im vorausgehenden Abschnitt. Man erhalt Zellbesetzungen /ii,...,/ifc.
Die Nullhypothese ist im wesenthchen dieselbe wie im Fall ungruppierter Daten. Man sollte sich jedoch verdeutlichen, dafi dahinter eine generellere Hypothese steht. Betrachten wir als Beispiel die Nullhypothese, dafi die Lebensdauer eines Cerates exponentialverteilt ist mit einem Erwartungswert von 10 Stunden, d.h. X ~ Ex{Q.l). Das zugrundeliegende Hypothesenpaar lautet HQ : X ist exponentialverteilt mit Hi : X ist nicht £;x(0.1)-verteilt.
Ex{0.1)
450
11. Spezielle Testprobleme
Das speziellere Hypothesenpaar, das eigentlich iiberpruft wird, ergibt sich aus der Intervallbildung. Betrachtet man die 16 Intervalle
[0.0,0.01), [0.01,0.02),... [0.14,0.15), [0.15, oo).
ergeben sich die hypothetischen Werte TT^ = / Xe~^^dx mit A = 0.1 und den InterCi-l
vallgrenzen Q . Untersucht wird nun im engeren Sinne das Hypothesenpaar
Ho : P{X e [ci_i, Ci)) = 7Ti, i = 1 , . . . , /c Hi : P{X G [ci-i^Ci)) ^ TTi fiir mindestens ein i.
Durch die x^-Statistik wird unmittelbar die Giiltigkeit des letzteren Hypothesenpaares untersucht. Nur Daten zu diesem spezielleren Hypothesenpaar, namUch die in Intervallen gruppierten Daten, werden in der Teststatistik benutzt. Die x^-Teststatistik ist dieselbe wie fiir ein kategoriales Merkmal. Allerdings sind zwei Falle zu unterscheiden: Entweder ist die Verteilung vollstandig spezifiziert inklusive samthcher Parameter, oder nur der Verteilungstyp ist spezifiziert und die Parameter werden erst aus den Daten geschatzt. Der erste Fall liegt im Beispiel oben vor mit HQ: X ist £;x(0.1)-verteilt.
Ein Beispiel vom zweiten Typ ware HQ : X ist exponentialverteilt Hi : X ist nicht exponentialverteilt.
Im letzten Fall ist zur Berechnung von TT^ die Schatzung von A notwendig, beispielsweise durch X = n/ ^- Xi. Die einzige Auswirkung dieser Parameterschatzung besteht darin, dafi die Freiheitsgrade der x^-Verteilung sich um einen weiteren Freiheitsgrad reduziert, da ein Parameter geschatzt wurde.
11.1 Ein-Stichproben-Fall
451
X^-Test fiir gruppierte Daten
Annahmen:
X i , . . . , Xn unabhangig und identisch verteilt wie X
Hypothesen:
Ho : P{X = z) = TTi, 2 = 1 , . . . , fc, Hi : P{X = i) j^m fiir mindestens zwei z, wobei TTi aus einer vorgegebenen Verteilung bestimmt ist. ^2 ^ y^ (fe— riTTi)^
Teststatistik:
rtTTi
Verteilung unter HQ: Wenn Verteilung voU spezifiziert: approximativ x^{k—iy verteilt. Wenn zur Bestimmung von TT^ Parameter geschatzt werden: approximativ x^(fc — l~Anzahl geschatzter Parameter)-verteilt Ablehnungsbereich:
x^ > Xi_Q:(Pr^iheitsgrade)
Mietspiegel
Beispiel 11.6
Bel Mietpreisen findet man gelegentlich Histogramme, die eine rechtsschiefe Verteilung vermuten lassen, die aber durchaus auch einer Normalverteilung entsprechen konnten. Man will nun untersuchen, ob die Normalverteilungsannahme zutrifft, d.h. die Hypothesen sind bestimmt durch HQ : X ist normalverteilt HI : X ist nicht normalverteilt. Zur Umsetzung in ein x^-Testverfahren wurde die Teilstichprobe grofier Wohnungen in lOOer Schritten kategorisiert, d.h. in Intervalle [100,200), [200,300), usw. Zum weiteren bestimmt man x = 787.72 und s = 262.98. Die Annahme einer Normalverteilung hat zur Folge, dafi die Wahrscheinlichkeit fiir ein Intervall [ci_i,Q) bestimmt ist durch 7Ti = P{Ci^l <X
$
Ci-1
_$
Jl_ ^ X - / i
Cj - / /
Ci-1 - /i
Da /x und a nicht bekannt sind, ersetzt man ji durch x und a durch 5. Man erhalt so die zu erwartenden Auftretenswahrscheinhchkeiten approximativ durch TT^ « $
X\
^ fCi-i — X^ _$
11. Spezielle Testprobleme
452
Daraus ergibt sich die Tabelle
<200 [200,300) [300,400) [400,500) [500,600) [600,700) [700,800) [800,900) [900,1000)
hi
riTTi
2 6 25 40 63 85 88 86 65
7.159 10.762 21.062 37.589 56.698 74.136 84.034 82.573 70.337
[1000,1100) [1100,1200) [1200,1300) [1300,1400) [140,1500) [1500,1600) [1600,1700) >1700
hi
riTTi
41 23 15 7 8 6 2 1
51.938 33.246 18.448 8.847 3.700 1.337 0.420 0.147
Die Bestimmung der Teststatistik ergibt x^ = 48.209. Die Anzahl der Freiheitsgrade erhalt man wegen der beiden geschatzten Parameter x und s durch fc — 1 — 2 = 17—1 — 2 = 14. Mit Xo.95(14) = 23.685 ergibt sich bei einem Signifikanzniveau von a = 0.05 eine signifikante Abweichung von der Normalverteilung.
Das Ergebnis ist allerdings wenig zuverlassig, da fiir die vorgenommene Gruppierung die Faustregeln nicht erfiillt sind. Insbesondere fiir Mietpreise unter € 100 und iiber € 1500 sind die Zellen relativ schwach besetzt. Diese Mietpreise werden daher in zwei Zellen zusammengefafit mit dem Ergebnis
[0,300) [1500, oo)
hi
niTi
8 9
17.927 1.903
Man erhalt mit dieser neuen Gruppierung x^ = 47.1682. Aus der neuen Zellzahl erhalt man als das entsprechende Quantil Xo.95(ll) = 19.675. HQ wird also auch mit dieser Testprozedur verworfen. D
11.1
453
Ein-Stichproben-Fall
Ein-Stichproben- Tests: Hypothesen uber den Erwartungswert (a) Fo : /i = /xo Hi: 12^/^O (b) iJo : /i > A^o HiijiiK i^O (c) i7o : /^ < M Hi:fi>/^O Gauss-Test Normalverteilung^^
^y
Ar(0, l)-verteilt
approx. Gauss-Test
beliebige Verteilung n>30
approx. iV"(0, l)-verteilt
t-Test
a unbekanntN \^
Normalverteilung
^
t{n — l)-verteilt
r T=^^sj^ J ^approx. i-Test
beliebiege Verteilung n>30
approx. A^(0, l)-verteilt
Ein-Stichproben-Tests: Anteilswerte
Exakter Test:
(a)
i f o : TT = TTo
HI:TT^
(6)
HO\'K>'KQ
Hi'.TT
(c)
Ho'.TT
JH"I : TT > TTQ
<no
X = Anzahl der IVeffer
TTQ
< TTO
Binomialtest i5(n,7roj-verteilt
Approximativer Approximativer Test:
7 —
ZJ —
X-mro
i——
-^
Vn:ro(i-.o)
"Rinnminltr-it
XJlilUllllclltL/Ot
app.iV(0,l)-verteilt
11. Spezielle Testprobleme
454
Ein-Stichproben -Tests: hlypothesen uber den Median (filr symmetrische wert)
stetige Verteilung
stetige symmetrische Verteilung
Verteilung identisch mit Hypothesen iiher den Erwartungs(a)
Ho : Xmed = ^0
Hi : Xmed ¥" ^0
(b) (c)
^ 0 • Xmed >So
Hi:
Ho : Xmed ^ ^0
^ 1 • ^med > ^0
Xmed < ^0
. TTT . ^ c A:=Wevte<5o
Vorzeichen-Test B(n,0,5)-verteilt
W^ = Ilti^9\Di\Zi
WilcoxonVorzeichen-Test Verteilung tabelliert
Ein-Stichproben-Test: x^-Anpassungstest Ho : P{X = Hi:P{X =-i) y^TTi
x'-
_ ^
,k fiir ein i
{hi- riTTi)'^
Bei voU spezifizierter Verteilung: approximativ x^(fc i^erteilt. Bei I geschatzten Parametern: approximativ x^{k — 1-I) -verteilt.
11.2
Vergleiche aus unabhangigen Stichproben
Prinzipiell warden im folgenden zwei Merkmale X und Y unterschieden, deren Verteilungen wir vergleichen woUen. Um Verteilungen miteinander vergleichen zu konnen, miissen die Mermkale X und Y sinnvoU vergleichbare Grofien darstellen. Meist stellen X und Y dasselbe Merkmal dar, allerdings gemessen unter verschiedenen Bedingungen bzw. in unterschiedlichen Populationen. 1st beispielsweise die
11.2
Vergleiche a us unabhangigen Stichproben
455
Nettomiete eines Wohnungstyps von Interesse, lafit sich diese vergleichen fiir das Wohnviertel A (Variable X) und das Wohnviertel B (Variable Y). Von den Daten wird vorausgesetzt, dafi sie sich als unabhangige Realisationen ergeben, wobei X i , . . . , Xn unabhangig und identisch verteilt sind wie X, yii' • ", Ym unabhangig und identisch verteilt sind wie Y. Dariiber hinaus wird vorausgesetzt, dafi die Gesamtstichprobe unabhangig ist, d.h. X i , . . . , Xn^ l i , . . . , Ym sind unabhangig. Man spricht dann auch von unabhangigen Stiehproben. Die Voraussetzungen sind in der Kegel erfiillt, wenn unter den beiden - X und Y entsprechenden - Bedingungen bzw. Populationen separate einfache Stichproben gezogen werden. Im Beispiel der Nettomieten setzt man also voraus, dafi n Wohnungen in Viertel A rein zufallig gezogen werden und davon unabhangig m Wohnungen im Viertel B, Die Stichprobenumfange der separaten (unabhangigen) Stichproben konnen unterschiedlich sein. 11.2.1
Tests zu Lagealternativen
Parametrische Verfahren Der haufig wichtigste Vergleich bezieht sich auf die Erwartungswerte der beiden Merkmale X und Y, In der zweiseitigen Variante betrachtet man im einfachsten Fall das Hypothesenpaar HQ:
iix = fJ'Y
iix + I^Y,
Hi:
wobei //x = E{X) und /xy = E{Y) die unbekannten Erwartungswerte in den beiden Populationen darstellen. Zur Beurteilung der NuUhypothese ist es naheliegend, die _
n
_
"^
Mittelwerte X = ^ Xi/n und Y =Y1< ^ i / ^ heranzuziehen. Wegen E{X) = /ix
und
E{Y) = fxy
sind X und Y sensible Indikatoren fiir die zugrundeliegenden Erwartungswerte /JLX und fly- Entsprechend soUte die Differenz
D=
X-Y
sensibel fiir die unbekannten Differenz /xx — I^Y sein. Man erhalt E{X -?)
= E{X) - E{Y) = fix-
/xy.
unabhangige Stichproben
456
11. Spezielle Testprobleme
Die Zufallsvariable D lafit sich nur schwierig unmittelbar als Testgrofie verwenden, da die Verteilung natiirlich noch von der Varianz der Merkmale X bzw. Y abhangt. Man betrachtet daher wie im Ein-Stichproben-Fall wiederum eine normierte Version der Testgrofie D. Die Varianz von D = X — Y ergibt sich wegen der Unabhangigkeit von X und Y durch 2
Var(X -Y)
2
= Var{X) + Var{Y) = ^ + ^ , n m
wobei cr| = Var{X), af- = VariY). Es gilt nun, wiederum zwei Falle zu unterscheiden, namlich ob a^ und ay bekannt oder unbekannt sind. Im ersten Fall lassen sich cr^ und cry zur Normierung von X — Y verwenden, im zweiten Fall miissen cr^ und ay geschatzt werden. Fiir bekannte Varianzen lafit sich X — Y normieren durch X-Y
Z = \
n
' m
wobei nachvollziehbar ist, dafi E{Z) = 0 und Var{Z) — 1 gilt, wenn HQ wahr ist. 1st allerdings die Alternativhypothese wahr, gilt E{Z) > 0, wenn fix > I^Y^ und E{Z) < 0, wenn fix < f^Y- Entsprechend wird HQ verworfen zugunsten von Hi : fix ^ f^Y-, wenn Z sehr grofie bzw. sehr kleine Werte annimmt. In der folgenden Ubersicht werden die Testvarianten in einer etwas allgemeineren Form betrachtet. Anstatt der einfachen NuUhypothese der Gleichheit der Erwartungswerte betrachtet man allgemeiner Hypothesenpaare der Form ^ 0 : /^x - My = ^0
Hi\
fix - I^Y ¥" ^o-
Hier wird spezifiziert, ob die Differenz fix — I^Y einer fest vorgegebenen hypothetischen Differenz 5o entspricht. Beispielsweise lafit sich so untersuchen, ob die zu erwartende Mietpreisdifferenz/qm zwischen dem Villenviertel A und dem einfacheren Wohnviertel B tatsachlich 4 € / q m betragt. Fiir 5Q = Q ergibt sich natiirhch die einfache Hypothese fix = I^Y- Bei einseitigen Hypothesen spezifiziert man zusatzlich eine Richtung der Abweichung.
11.2
457
Vergleiche aus unabhangigen Stichproben
Vergleich der Erwartungswerte, bekannte Varianzen X i , . . . , Xn unabhangige Wiederholungen von X ^1? • • •) ym unabhangige Wiederholungen von Y Xi,..,,Xn,Yi,,,,,Ym unabhangig cr^, ay bekannt
Annahme:
Hypothesen:
Teststatistik:
(a) (6) (c)
HQ: HQ:
Ho:
fj^x - I^Y = SO IJ^X - I^Y> SO fJ^x - I^Y <So
: //x - /^y 7^ ^o HI: fix - I^Y < So Hi: jix - f^Y > So
HI
^_X-Y^So V n
m
Verteilung unter fJ^x - I^Y = SQ:
Ablehnungsbereich:
Fur X - N{fix^ ^ x ) ' y ^ ^il^Y^ al): Z^ N{0,1) Fiir n, m > 30 gilt die Standardnormalverteilung von Z approximativ. (a) (6) (c)
\Z\ > zi_^/2 Z < ~^l_a Z>Zi_a
Sind die Varianzen unbekannt, werden a^ und ay durch die entsprechenden Schatzungen q2
^x
z=l
i=l
ersetzt. Entsprechend ergibt sich - da nur approximativ normiert wird - im folgenden Testverfahren keine Normalverteilung, sondern eine t-Verteilung.
458
11. Spezielle Testprobleme
Vergleich der Erwartungswerte, unbekannte Varianzen
Annahmen und Hypothesen wie im Fall bekannter Varianzen Teststatistik: n Verteilung unter l^x - I^Y — <^o-
m
Wenn X ~ N{fix, cr^), Y '^ N(fiY^ cr^): T ~ t{k) mit den Preiheitsgraden 2
/ ^9 \ 2>
fc = (5i/n + 5^/m)V(;^(f) + ^, Ablehnungsbereiche:
(a)
| r | > ti_c,/2{k)
(c)
T>ti.a{k)
(t)
Man beachte, dafi die Freiheitsgrade der t-Verteilung als reelle Zahl k gegeben sind. Zur Bestimmung der eigentlichen Freiheitsgrade rundet man k zu einer ganzen Zahl ab. Fiir grofie Stichprobenumfange (n, m > 30) ersetzt man die t-Verteilungsquantile wiederum durch die Quantile der Standardnormalverteilung. In der folgenden Ubersicht ist eine weitere Variante des Erwartungswertvergleichs wiedergegeben, die darauf basiert, dafi die Varianzen von X und Y zwar unbekannt sind, aber als gleich angenommen werden konnen.
11.2
459
Vergleiche aus unabhangigen Stichproben
Vergleich der Erwartungswerte im Zwei-Stichproben-Fall Voraussetzung
Teststatistik
^2
Verteilung
X-Y-60 iV(0,l) n
(Tx, crybekannt
+
X - y -So ax = CTyunbekannt
^M+
mJ
(n-i; S'2. + (m- l)S^ n+m—2
X -Y
-5o
^2
(Tx, cry unbekannt
/
X , Y beliebig verteilt
X - -Y
n, m > 30
m
t ( n + m — 2)
t(fc) fiir n, m > 30 appr. 7V(0,1)
2^0
02
02
n
?7i
appr. 7V(0,1)
Wilcoxon-Rangsummen-Test Im Ein-Stichproben-Fall wurde der Wilcoxon-Test als nonparametrische Alternative zu Gaufi- und t-Test dargestellt. Auch im Zwei-Stichprobenfall gibt es eine auf Rangen aufbauende Alternative zum im vorhergehenden Abschnitt eingefiihrten Verfahren. Prinzipielle Voraussetzung ist, dafi die Verteilungsfunktionen von X und Y dieselbe Form besitzen, allerdings moglicherweise um einen Betrag verschoben sind. Unter dieser Voraussetzung gilt, dafi die Gleichheit der Mediane, d.h. Xmed = Vmed^ aquivalent ist zur Gleichheit der Verteilungsfunktionen. Gilt Xmed > Vmed^ so ist die Verteilungsfunktion von X gegeniiber der Verteilungsfunktion von Y nach rechts verschoben, bei Giiltigkeit von Xmed < Vmed entsprechend nach links. Der Test geht von dem Grundgedanken aus, dafi bei Giiltigkeit der NuUhypothese HQ : x^ed = Vmed die Werte der X- und F-Stichprobe gut "durchmischt" sein sollten, d.h. keine der beiden Stichproben zeigt im Verhaltnis zur anderen Stichprobe eine Tendenz zu besonders grofien bzw. kleinen Werten. Entsprechend wird die Teststatistik aus den Rangen samtlicher Beobachtungen X i , . . . , Xn^ l i , . . . , y ^ , der sogenannten gepoolten Stichprobe^ gebildet. Man erhalt somit rg ( X i ) , . . . ^rg (Ym)- Die Teststatistik selbst besteht dann aus der Summe derjenigen Range, die zu Werten der X-Stichprobe gehoren. Wenn Bindungen zwischen X- und y - W e r t e n auftreten, d.h. Xi = Yj^ werden Durchschnittsrange gebildet. Bei
gepoolte Stichprobe
460
11. Spezielle Testprobleme
Bindungen innerhalb der X- oder y-Werte sind entsprechende Range zufallig zu vergeben. Die Verteilung dieser Statistik ist wiederum tabelliert. Die folgende Ubersicht gibt das Bestimmungsschema fiir die Teststatistik wieder.
Wilcoxon-Rangsummen-Test
Annahmen:
Hypothesen:
Teststatistik:
X i , . . . , Xn unabhangige Wiederholungen von X , Y i , . . . , Yjn unabhangige Wiederholungen von y , X i , . . . , Xn, Y\,...,Ym unabhangig, X und Y besitzen stetige Verteilungsfunktionen F bzw. G ( a ) ti^
Hi
: Xjxied — Vmed
( b ) HQ : Xjned >
Vmed
- ^ 1 • ^med
^
ymed
( c ) Ho : Xjned <
Vmed
1^1 • ^med
^
Vmed
Bilde aus samthchen gen Xi,...,X^, yi,...,!;, rg ( X i ) , . . . , rg (X^), r^ ( y i ) , . . . , r^ (ym)tistik ist bestimmt durch n
Beobachtundie Range Die Teststa-
n-\-m
Tw = J2rg{X,)= ^ i^, i=l
1
i-te Beobachtung der geordneten gepoolten Stichprobe ist X-Variable
0
sonst.
mit Vj
Ablehnungsbereich:
(a) (b)
Tw > ^i-a/2{^^ ^) Tw <'Wa{n,m)
oder
Tw <
'^CK/2(^?
^)
(c) Tw>wi-a{n,m), wobei Wa das ce-Quantil der tabellierten Verteilung bezeichnet. Fiir grofie Stichproben {m oder n > 25) Approximation durch N {n{n + m+ l ) / 2 , nm{n + m+ 1)/12).
11.2
461
Vergleiche a us unabhangigen Stichproben
Beispiel 11.7
Mietspiegel Es soil zu einem Signifikanzniveau von a = 0.01 untersucht werden, ob sich der Mietpreis/qm fiir Ein- und Zwei-Zimmerwohnungen signifikant unterscheidet. Als arithmethisches Mittel ergeben sich x = 8.340 fiir Ein-Zimmerwohnungen und y = 6.906 fiir ZweiZimmerwohnungen. Ohne Beriicksichtigung der Varianz lafit sich daraus natiirlich keine Aussage iiber einen moglichen Unterschied machen. Mit der Bezeichnung /ix und /iy fiir den erwarteten Quadratmeterpreis fiir Ein- bzw. Zwei-Zimmerwohnungen lafit sich das Testproblem formulieren mit den Hypothesen Ho : fix = fJ^Y
Hi:
fix y^ I^Y-
Fiir den t-Test basierend auf 137 Ein- und 374 Zwei-Zimmerwohnungen erhalt man t = 5.363 bei 509 Freiheitsgraden. Legt man a = 0.01 zugrunde, ergibt sich mit der Annahrerung durch die Normalverteilung die kritische Schranke 2;i_o.oo5 = 2:0.995 = 2.58 und der Unterschied erweist sich als signifikant. Der p-Weit fiir dieses Testproblem ist verschwindend klein, so dafi die Nullhypothese abgelehnt wird. D
Beispiel 11.8
Mietspiegel Wir betrachten dieselbe Fragestellung wie in Beispiel 11.7, allerdings fiir 5- und 6-Zimmerwohnungen, d.h. HQ:
fix = My
Hi:
fix y^ f^Y,
wobei fix und fiy den Erwartungswert fiir 5- bzw. 6-Zimmerwohnungen bezeichnen. Als Mietpreise/qm ergaben sich die folgenden Realisationen
X 5-Z-Whng Y 6-Z-Whng
4.448 5.767 6.770 4.280 6.217 5.645 5.353 5.706 2.188 9.991 1.718 9.382 2.654 4.269 6.698 8.002 2.193 5.808 4.648
Mit den Stichprobenumfangen n = 10, m = 9 berechnet man x = 5.637, y = 5.041, 5^ = 3.981, Sy = 7.068. Unter der Annahme ax = cry erhalt man t = 0.556 und 17 Freiheitsgrade. Mit ^0.95(17) = 1.74 erweist sich der Unterschied zu a = 0.10 als nicht signifikant. Geht man von ax ^ cry aus, ergibt sich t = 0.547. Fiir die Freiheitsgrade erhalt man nun k = 14.787 und mit to.95(14) = 1.761 ist der Unterschied zu a = 0.10 ebenfalls nicht signifikant. Als alternativer Test wird der Wilcoxon-Rangsummen-Test herangezogen. Dazu wird die Stichprobe gepoolt, wobei man festhalten mufi, ob der betreffende Mefiwert der X- oder der y-Stichprobe entstammt. Fiir die geordnete gepoolte Stichprobe ergibt sich
11. Spezielle Testprobleme
462
Mefiwert Stichprobenzugehorigkeit Rang
1.718 Y 1 4.648 Y 8 6.217 X 14
2.188 X 2 5.353 X 9 6.698 Y 15
2.193 Y 3 5.645 X 10 6.770 X 16
2.654 Y 4 5.706 X 11 8.002 Y 17
4.269 Y 5 5.767 X 12 9.382 Y 18
4.280 X 6 5.808 Y 13 9.991 X 19
4.448 X 7
Die Summe der Range aus der X-Stichprobe ergibt sich als Tw = 2 + 6 + 7 + 94-10 + 11 + 12 + 14 + 16 + 19 = 106. Legt man ein Signifikanzniveau von a = 0.10 zugrunde, erhalt man die kritischen Schranken tt;o.o5(10,9) = 80 und WQ^QS = 120. Da T^} G (80,120), wird die Nullhypothese der Gleichheit der Lage der Verteilungen beibehalten. Der p-Wert betragt 0.661 und signalisiert damit keine extreme Abweichung in Richtung einer Lageverschiebung. D
11.2.2
x^-Homogenitatstest
Allgemeiner als in den vorangehenden Abschnitten wird hier die Hypothese untersucht, ob k Verteilungen identisch sind. Sei Xi das Merkmal in der z-ten Population bzw. unter der i-ten Versuchsbedingung. Wir gehen davon aus, dafi das Merkmal entweder nur m Kategorien annehmen kann oder in m Klassen gruppiert ist, beispielsweise in die Intervalle [ c o , c i ) , . . . , [cm-i^Cm)' Das Merkmal wird in jeder der k Populationen separat erhoben, d.h. es liegen unabhangige Stichproben vor. Die Ergebnisse werden in einer Kontingenztabelle zusammengefafit. Man erhalt somit Merkmalsauspragungen 1 fl
1 o
m
1
hn
. ..
2
^21
.
k hki h.
him
ni
• • h2m
n2
.••
f^km
rik
h.r
Die Randsummen n i , . . . , n^^ iiber die Zeilen entsprechen hier den Stichprobenumfangen in den einzelnen Populationen. Die Randsummen iiber die Spalten werden wieder durch die "Punkt-Notation" / i . i , . . . , h.m bezeichnet.
11.2
463
Vergleiche aus unabhangigen Stichproben
Beispiel 11.9
Kreditwurdigkeit In Beispiel 1.4 (Seite 5) zur Kreditwurdigkeit wurden 300 problematische und 700 unproblematische Kreditnehmer ausgewahlt. Fiir diese wurde jeweils festgestellt, ob sie bisher ein laufendes Konto bei der Bank unterhielten und wenn ja, wie der Kontostand zu bewerten ist. Es ergab sich folgende Kontingenztabelle
Kreditwurdigkeit
unproblematische Kredite Problemkredite
nein
Konto gut mittel
139
348
213
700
135
46
119
274
394
332
300 1000
Zu untersuchen ist, ob die Verteilung auf die Kategorien des Merkmals "Konto" fiir unproblematische Kreditnehmer und fiir Problemkunden voneinander abweicht. SoUte dies der Fall sein, lafit sich die Variable "Konto" eventuell als Pradiktor verwenden. D
In Abschnitt 11.1.2 wurde mit dem x^-Koeffizienten ein auf Kontingenztafeln aufbauender Test fiir den Zusammenhang zweier Merkmale entwickelt. Obwohl in den hier betrachteten Kontingenztabellen die Zeilen keinem zufallig erhobenen Merkmal entsprechen, sondern den Populationen, aus denen gezogen wird, lafit sich der x^KoefRzient als Abweichungsmafi anwenden. Das ist einfach einzusehen, wenn m a n die NuUhypothese
Ho:
P{Xi=j)
P{Xk =j)
fur j = l , . . . , m
betrachtet. Die NuUhypothese postuliert die Homogenitat der Verteilungen, d.h. die Verteilung des Merkmals ist in jeder Population dieselbe. W a r e diese NuUhypothese wahr, liefien sich alle Populationen l , . . . , f c zusammenfassen und die relativen Haufigkeiten h.n
j = l,...,m, n ergaben eine verniinftige Schatzung fiir jede Population, da nach Voraussetzungen die Verteilungen identisch sind. Da die Anzahlen hij binomialverteilt sind mit B{ni,P{Xi = j ) ) , erhalt m a n unmittelbar als Schatzung fiir die zu erwartende Anzahl hij = niP{Xi = j ) , P{Xi^j)^
und wenn die aus der NuUhypothese abgeleitete Bedingung gilt, ergibt sich hij —
Uih.j
n
11. Spezielle Testprobleme
464
Als Mafi der Abweichung zwischen tatsachlichen Beobachtungen hij und den aus der Giiltigkeit von Ho abgeleiteten Erwartungswerten hij bestimmt man *= m
( h i j - ^ \ riih.j
Diese Grofie, die als Teststatistik verwendet wird, ist identisch mit dem in Abschnitt 3.2 abgeleiteten x^-KoefRzienten, wobei dort die Zeilenrandsummen durch hi. statt Ui bezeichnet wurden. Der kritische Bereich des folgenden Tests ergibt sich aus der Uberlegung, dafi grofie Werte von x^i ^Iso eine grofie Diskrepanz zwischen tatsachlichen und unter HQ ZU erwartenden Beobachtungen, gegen die Nullhypothese sprechen.
X^-Homogenitatstest/fc Stichproben
Annahmen:
Unabhangige Stichprobenziehung in den k Populationen
Hypothesen:
Ho: P{X,=j)^--= P{Xk=j), Hi: P{Xi,=j)j^P{Xi,=j) fiir mindestens ein Tupel (ii,i2, j )
k m
Teststatistik:
x'-EE
j =
l,...,m
[hjj-^j
Verteilung unter HQ: approximativ x^(('^ ~ l)(m — 1)) Ablehnungsbereich: x^ > Xi-a((fc ~ l)(m — 1))
Beispiel 11.10
Kreditwurdigkeit
Fiir die Kontingenztafel aus Beispiel 11.9 ergaben sich die Werte der zu erwartenden Haufigkeit durch
Kreditwurdigkeit
unproblematische Kredite Problemkredite
nem 191.80 82.20 274
Konto gut
mittel
275.80
232.40
700
118.20 394
99.60
300 1000
332
11.3
Vergleiche aus verbundenen Stichproben
465
Daraus errechnet sich ein x^-Wert von 116.851. Der Vergleich mit dem Quantil der x^(2)Verteilung ergibt 116.851 > Xo.gsC^) = ^-99. Die Hypothese einer identischen Verteilung in den Subpopulationen wird somit abgelehnt. Der Kontostand erweist sich als moglicher Pradiktor. D
11.3
Vergleiche aus verbundenen Stichproben
Bisher wurde beim Vergleich von Verteilungen das interessierende Merkmal in separaten unabhangigen Stichproben erhoben. Im folgenden wird von verbundenen Messungen ausgegangen, d.h. die Merkmalsvarianten werden an denselben Untersuchungseinheiten erhoben. Ein Beispiel soil nochmals den Unterschied verdeutlichen. Waldschaden
Beispiel 11.11
In Waldschadensuntersuchungen soil die Veranderung des Schadigungsgrades von Baumen bestimmt werden. Als Indikator wird ein metrisches Merkmal, z.B die Anzahl toter Aste, zugrunde gelegt und der Vergleich soil zwischen den Jahren 1994 und 1996 erfolgen. Die erste Moglichkeit der Datenerhebung besteht darin, in dem spezifizierten Waldstiick der Untersuchung in den Jahren 1994 und 1996 jeweils separate Stichproben zu ziehen, d.h. die im Jahre 1994 ausgewahlten n Baume sind i.a. andere als die im Jahre 1996 ausgewahlten Baume. Bei entsprechend grofiem Waldstiick kann man von unabhangigen Stichproben ausgehen. Eine alternative Erhebungsform besteht darin, das Merkmal in beiden Jahren an denselben Baumen zu messen. Man erhalt somit an jedem Baum zwei Messungen, eine im Jahre 1994 und eine im Jahr 1996. Dies sind verbundene Messungen an der Erhebungseinheit Baum. D
Bei verbundenen Messungen Uegen die Stichprobenvariablen in der Form (Xi,yi),...,(x„,yn) vor, wobei Xi und Yi das interessierende Merkmal unter variierenden Bedingungen bezeichnen. Fiir das Beispiel Waldschaden stellt Xi die Messung im J a h r 1994, Yi die Messung im Jahr 1996 dar. Weiterhin wird angenommen, dafi die Tupel (X^, Yi) unabhangig sind, d.h. die Erhebungseinheit en, an denen X und Y gemessen werden, sind zufallig und unabhangig gewahlt. Prinzipielles Ziel ist es, die Verteilung von X mit der Verteilung von Y zu vergleichen, beispielsweise, indem man mogliche Unterschiede hinsichtlich der Erwartungswerte fix = E{X) und jiy = Eiy) untersucht.
466
11. Spezielle Testprobleme
Ausgehend von den unabhangigen Messungen (Xi, Y i ) , . . . , (Xn^l^n) ist der Grundgedanke bei metrischen Merkmalen die sich ergebenden Differenzen Di = Xi-Yi,
z = l,...,n
zu betrachten. Die Differenzen A lassen sich als unabhangige Wiederholungen der zugrundeliegenden Merkmalsdifferenzen X — Y verstehen. Eine NuUhypothese iiber die Differenz der Erwartungswerte
J^o: E{X)-E{Y)
= 6o
lafit sich im vorhegenden Fall als NuUhypothese
Ho: E{X-Y)
= 6o
formulieren, Damit ist eine NuUhypothese liber Verteilungseigenschaften eines Merkmals, namlich X — Y, formuliert, und das Test problem ist aquivalent zu den im Ein-Stichproben-Fall betrachteten Testproblemen. Wie im Ein-Stichproben-Fall werden auch unabhangige univariate Stichprobenvariablen, namlich die Differenzen Di = Xi — Yi, vorausgesetzt. Konsequenterweise lassen sich damit die Testprozeduren des Ein-Stichproben-Falles (Abschnitt 11.1) anwenden.
11.4
Zusammenhangsanalyse
Die Problemstellungen dieses Abschnitts zielen auf den Zusammenhang zweier Merkmale X und Y ab. Ausgangspunkt sind wiederum unabhangige Wiederholungen {Xi, Yi), i = 1 , . . . , n, der Zufallsgrofie (X, Y). Beispiel 11.12
Sonntagsfrage
In Abschnitt 3.2 wurde bereits eine Erhebung zur Parteipraferenz am nachsten Sonntag behandelt. In der folgenden Tabelle sind die Daten nochmals wiedergegeben,
Manner Prauen insgesamt
CDU/CSU 144 200 344
SPD 153 145 298
PDP 17 30 47
Griine 26 50 76
Rest 95 71 166
435 496 931
Das Untersuchungsziel ist festzustellen, ob die voneinander abweichenden Haufigkeiten fiir Manner und Prauen rein zufallsmafiige Schwankungen darstellen oder ob zwischen Geschlecht und Parteipraferenz ein Zusammenhang besteht. D
11.4
467
Zusammenhangsanalyse
11.4.1
x^-Unabhangigkeitstest
Fiir kategoriale oder kategorisierte Merkmale X und Y mit X G { 1 , . . . , fc} und Y G { 1 , . . . ,m} lafit sich eine Zusammenfassung in Kontingenztafeln betrachten. In der Kontingenztafel Y 1 . m /ill • . . him hi. ^21 . . • h2m h2.
X hki
h.
'
hkn
f^km
K
bezeichnen die Zellhaufigkeiten hij die Anzahlen der Beobachtungen mit den Auspragungen {X = i,Y = j). Die Hypothese HQ : "X und Y sind unabhangig" nimmt fiir kategoriale Merkmale eine sehr einfache Form an. Die Nullhypothese, formuliert durch
Ho: P{X = i,Y = j) = P{X = i)-P{Y^j)
fur alle i, j ,
besagt, dafi sich die gemeinsame Auftretenswahrscheinlichkeit als Produkt der Randwahrscheinlichkeiten darstellen lafit. Mit den Abkiirzungen TTIJ = P{X = i^Y = j ) , TTi. = P{X = i) und TT.j = P{Y = j) erhalt man Ho : TTij = TTi.n.j fiir alle i, j . Man iiberlegt sich nun wieder, wieviele Beobachtungen in Zelle (z, j) zu erwarten sind, wenn HQ wahr ist. Man geht dariiber hinaus von fest vorgegebenen Randern hi..,h.j der Kontingenztafel aus. Die Randwahrscheinlichkeiten lassen sich einfach durch relative Haufigkeiten schatzen. Man erhalt hi. T^i- =
1
^ 5
n 7r.4
=
n
3 = 1,
,771.
Wenn H^ wahr ist, sollte daher T^ij = TTi.TT.^
ein verniinftiger Schatzer fiir die gemeinsame Auftretenswahrscheinlichkeit sein. TTIJ ist nur aus den als fest angenommenen Randsummen bestimmt. Ware dieses TTIJ
11. Spezielle Testprobleme
468
die tatsachliche Auftretenswahrscheinlichkeit, dann ware hij binomialverteilt mit hij ~ jB(n, TTij) und dem Erwartungswert hij = nnij. Man erhalt 11^. n.j
rt'i.iv.j
hij = riTTij = n -
n n n Die unter iJo zu erwartenden Zellbesetzungen hij ergeben sich also in sehr einfacher Form aus Produkten der entsprechenden Randsummen. Sie lassen sich in einer "Unabhangigkeitstafel" zusammenfassen: Y
X
h\.h.\
m h\.h.m
n
n
h2.h.\
h2.h.m
n
n
hk.h.i
hk.h.m
n
n
hi.
hkn
h.l
Man betrachtet nun wieder die Diskrepanz zwischen den tatsachlichen Beobachtungen hij und den zu erwartenden Beobachtungszahlen hij^ die aus der Giiltigkeit der NuUhypothese berechnet wurden. Dies fiihrt zum folgenden x^-Unabhangigkeitstest, der aquivalent ist zum x^-Homogenitatstest. Man vergleiche dazu auch die Ableitung von x^ als Zusammenhangsmafi im Abschnitt 3.2.2. X^-Unabhangigkeitstest Annahmen:
Unabhangige Stichprobenvariablen {Xi, Y^), z = 1,.. . , n , gruppiert in eine {k x m)-Kontingenztafel
Hypothese:
Ho: P(X = i,Y = j) ^ PiX = i). P(Y = j) fiir alle z, j i ? i : P{X = i,Y = j)y^P{X = i)-P{Y = j) fiir mindestens ein Paar (i, j )
Teststatistik: i=ij=i
^^0
Verteilung unter HQ : approximativ 'x^{{k — l)(m — 1)) Ablehnungsbereich: X ' > x f - . ( ( A ; - I ) ( m - 1 ) )
11.4
Zusammenhangsanalyse
469
Sonntagsfrage
Beispiel 11.13
Der zur Kontingenztabelle aus Beispiel 11.12 gehorende x^-Wert wurde bereits in Kapitel 3 (Beispiel 3.12, Seite 126) berechnet. Wahrend der x^-Wert dort nur als deskriptives Mafi verwendet wurde, wird hier der Zufallscharakter der x^-Gro6e mitberiicksichtigt. Legt man die NuUhypothese Ho: P{X = i,Y=j)=PiX
= i)P{Y = j),
i = 1,2, j = 1 , . . . , 5 ,
zugrunde, erhalt man fiir die x^-Statistik eine x^-Verteilung mit (fc — l)(m — 1 ) = 4 Freiheitsgraden. Fiir a = 0.05 erhalt man das Quantil Xo.95(4) = 9.488. Der aus den Daten resultierende x^-Wert von 20.065 fiihrt wegen 20.065 > Xo.95(4) zur Ablehnung der NuUhypothese. Zu einem Signifikanzniveau von a = 0.05 lafit sich somit auf einen Zusammenhang zwischen Geschlecht und Praferenzverhalten bzgl. der Parteien schliefien. D
11.4.2
Korrelation bei metrischen Merkmalen
Fiir gemeinsam normalverteilte Merkmale (X^Y) gilt nach Abschnitt 8.6, dafi X und Y genau dann unabhangig sind, wenn sie auch unkorreliert sind. Die Hypothese der Unabhangigkeit reduziert sich damit auf
Ho : pxY = 0,
wobei PXY den Korrelationskoeffizienten bezeichnet. Testverfahren dazu bauen naturgemafi auf dem empirischen KorrelationkoefSzienten
f:iXi-X){Yi-Y) rxY =
i=l
ij2{Xi-x)^j:iYi-Yr i=l
i=l
auf. Liegt die Zufallsgrofie rxY weit von dem postulierten Wert pxY = 0 entfernt spricht das gegen die Hypothese der Unabhangigkeit bzw. Unkorreliertheit. In den folgenden Testverfahren wird auch die generellere Hypothese HQ : pxY = Po fur einen hypothetischen Wert po beriicksichtigt.
11. Spezielle Testprobleme
470
Korrelations-Tests
Annahmen:
Hypothesen:
Teststatistik:
Unabhangige gemeinsam normalverteilte Stichprobenvariablen (X^, Y^), i = 1 , . . . , n (a)
Ho : p x y = Po Hi: pxY 7^ /^o
(6)
Ho : p x y > Po ^ 1 : pxv < po
(c)
iJo : PXY <po
Hi: pxY > po
Fiir Po = 0, d.h. "Unabhangigkeit" rp
rxY
/
7^
V1 - 4 y Fiir generelles po Z=lflni±^-lnl±^\v/;rr3
Verteilung unter pxY = 0: T ~ t{n — 2) Verteilung unter pxY = Po- Z fiii n> 25 approximativ iV(0, l)-verteilt Ablehnungsbereich:
(a)
|r|
>ti_a/2(n-2)
bzw.
|Z|
(6)
r
<-ti_a(n-2)
bzw.
Z
(c)
T
> ti-a{n — 2)
bzw.
Z
> ;Ji_c/2 <-zi-a > zi-a
Beispiel 11.14 Sachverstandigenrat In Beispiel 3.15 (Seite 128) wurde die Prognose des Sachverstandigenrates hinsichtlich des Wirtschaftswachstums den tatsachlichen Werten gegeniibergestellt. Eine sehr kritische Hypothese besagt, dafi Prognose und tatsachliches Wirtschaftswachstum unkorreliert sind, d.h. man betraclitet Ho: p = 0
Hi:
p^O.
Man erhalt mit dem empirischen Korrelationskoeffizienten r = 0.640 die Testgrofie t =
0.64 \/20 - 2 = 3.538. VI - 0.642
11.5 Zusammenfassung und Bemerkungen
471
Der Vergleich mit dem 0.95-Quantil ^0.95(18) = 1.734 zeigt, dafi die Hypothese zu a = 0.10 abgelehnt wird. Der p-Wert von 0.00235 signalisiert eine sehr deutliche Ablehnung. Es ergibt sich ein statistisch signifikanter Zusammenhang zwischen Prognose und tatsachlicher Entwicklung. D
Tests zur Zusammenhangsanalyse
Unabhangigkeitstests: ''pxY = 0" 2 _ Y^ V^ i^ij ~~ ^ijY Kategoriale bzw. gruppierte Merkmale
Normalverteilung
T"^ r ^ i = l j=l
h ""^'3
a p p r o x . x^-verteilt
rp _
i
'^xy
_ /
__ Q
l-r2 xy
t(n — 2)-verteilt
Test zur Starke der Korrelation: "pxy = Po" 1 A 1 + rxY 2 V 1-^xy
11.5
, 1 + Po 1-po,
Zusammenfassung und Bemerkungen
Bei der Uberpriifung von Kennwerten einer Verteilung haben wir uns im wesentlichen auf den Erwartungswert (Gaufi- und t-Test) und den Median (Vorzeichen- und Wilcoxon-Vorzeichen-Test) beschrankt. Wir haben keine Hypothesen betrachtet, die Kennwerte wie die Varianz, die Schiefe oder die Wolbung spezifizieren. Mit dem x^Test wurde ein Anpassungstest dargestellt, der zwar relativ generell einsetzbar ist, aber bei stetigem Merkmal durch die notwendige Gruppierung immer einen gewissen Informationsverlust akzeptiert. Ein Test, der explizit fiir stetige Merkmale geeignet ist, ist z.B. der nicht-behandelte Kolmogoroff-Smirnoff-Test Ahnlich ist die Situation im Zwei-Stichproben-Fall. Die betrachteten Hypothesen betrafen im wesenthchen Lageparameter. Testsituationen, in denen beispielsweise die Gleichheit bzw. UnterschiedHchkeit der Varianz zweier Merkmale untersucht wird,
11. Spezielle Testprobleme
472
wurden nicht betrachtet. Auch fiir den Vergleich der Gesamtverteilung zweier Merkmale wurde mit dem x^-Homogenitatstest die gruppierte Variante dargestellt. Die fiir stetige Merkmale geeignete Version des Kolmogoroff-Smirnoff-Tests findet sich in der vertiefenden Literatur. Eine Verallgemeinerung des Vergleichs von Erwartungswerten bei unabhangigen Stichproben auf den Fall von mehr als zwei Stichproben wird in Kapitel 13 unter der Bezeichnung Varianzanalyse dargestellt. Eine Vielzahl von Tests fiir verschiedene Hypothesen liber Kennwerte findet sich z.B. bei Sachs (2002). Eine ausfiihrliche Darstellung nonparametrischer Verfahren geben Biining und Trenkler (1994).
11.6
Aufgaben
Aufgabe 11.1
Von einem Intelligenztest X ist bekannt, dafi er normalverteilte Werte liefert und Var{X) = 225 gilt. Zu testen ist aus einer Stichprobe vom Umfang n = 10 die NuUhypothese E{X) < 110. (a) Welchen Verwerfungsbereich erhalt man bei einem geeigneten Testverfahren? (b) Wie lautet die Testentscheidung, wenn x = 112 resultiert? (c) Wie grofi ist der Fehler zweiter Art, wenn der tatsachliche Erwartungswert 120 betragt? (d) Welchen Verwerfungsbereich erhalt man, wenn die Varianz nicht bekannt ist, dafiir aber 5^ = 230 berechnet wurde. Wird HQ abgelehnt?
Aufgabe 11.2
Auf zwei Maschinen A und B wird Tee abgepackt. Auf Stichprobenbasis soil nachgewiesen werden, dafi die Maschine A mit einem grofieren durchschnittlichen Fiillgewicht arbeitet als die Maschine B {a = 0.01). (a) Man weiC dafi die Fiillgewichte der beiden Maschinen annahernd normalverteilt sind mit a\ = 49 g^ und cr^ = 25g^. Eine Zufallsstichprobe vom Umfang n^ = 12 aus der Produktion der Maschine A Uefert ein durchschnitthches Fiillgewicht von x = 140 g. Eine Zufallsstichprobe aus der Produktion der Maschine B vom Umfang n2 = 10 ergibt ein durchschnitthches Ftillgewicht von x = 132g. Man fiihre einen geeigneten Test durch. (b) Die Varianzen seien nun unbekannt, aber man kann davon ausgehen, dafi sie gleich sind. Man erhalt als Schatzungen der Standardabweichungen 5^ = 5 und SB = 4.5. Man fiihre mit den Resultaten aus (a) einen geeigneten Test durch.
Aufgabe 11.3
Bei 5 Personen wurde der Hautwiderstand jeweils zweimal gemessen, einmal bei Tag {X) und einmal bei Nacht (Y). Man erhielt fiir das metrische Merkmal Hautwiderstand folgende Daten 24 28 21 27 23 Xi Yi 20 25 15 22 18
11.6
473
Aufgaben
(a) Die Vermutung in Forscherkreisen geht dahin, dafi der Hautwiderstand nachts absinkt. Lafit sich diese Vermutung durch die vorliegende Untersuchung erharten? Man teste einseitig mit einem verteilungsfreien Verfahren (a = 0.05). (b) Man iiberpriife die NuUhypothese aus (a), wenn bekannt ist, dafi der Hautwiderstand normalverteilt ist. Bei einer Umfrage zur Kompetenzeinschatzung der Politiker A und B werden folgende Zufallsvariablen betrachtet X =
1
A ist kompetent
0
A ist nicht kompetent,
Y =
1
B ist kompetent
0
B ist nicht kompetent.
Aufgabe 11.4
Es wird eine Stichprobe von n = 100 befragt. 60 Personen halten A fiir kompetent, 40 Personen halten B fiir kompetent, 35 Personen halten beide fiir kompetent. (a) Man gebe die gemeinsame (absolute) Haufigkeitsverteilung der Zufallsvariablen X und Y in einer Kontingenztafel an. (b) Man teste die Hypothese der Unabhangigkeit von X und Y {a = 0.05). Bei n = 10 Probanden wurden InteUigenz (Variable X) und Gedachtnisleistung (Variable Y) ermittelt. Man erhielt die Wertepaare: X Y
124 79 118 102 86 89 109 100 94 101 112 76 98 91
128 73
114 90
95 84
Man teste die Hypothese der Unabhangigkeit von X und Y unter Verwendung des BravaisPearsonschen Korrelationskoeffizienten (a = 0.05). Hinweise: X) ^? = H I 548, ^ yf = 85 727, X) ^iVi = 95 929.
Aufgabe 11.5
12 Regressionsanalyse
In Abschnitt 3.6 wird behandelt, wie sich der Einflufi eines erklarenden Merkmals X auf ein Zielmerkmal Y darstellen und explorativ untersuchen lafit. Beide Merkmale werden dabei als metrisch skaliert vorausgesetzt, und es wird angenommen, dafi der Zusammenhang zwischen Y und X durch eine approximative Beziehung der Form
Y = fiX) + e beschrieben werden kann. Dabei ist / eine deterministische Regressionsfunktion und e ein Fehler, der durch X allein nicht erklarbar ist. Am bekanntesten ist die lineare Einfachregression, bei der eine lineare Regressionsfunktion
f{X) = a + ^X als "Ausgleichsgerade" verwendet wird. Als Beispiele betrachten wir auch in diesem Kapitel das CAP-Modell mit Y = "Aktienrendite minus Zins" und X = "Marktrendite" und die Mietspiegel-Regression mit Y = "Nettomiete" (oder "Nettomiete/qm") und X = "Wohnflache". Die Abbildungen 3.17 und 3.20 aus Abschnitt 3.6 zeigen die Streudiagramme und zugehorigen Ausgleichsgeraden. Dieser Regressionsansatz wird nun in mehrfacher Hinsicht erweitert. Zunachst wird angenommen, dafi der Fehler e eine Zufallsvariable mit bestimmten Eigenschaften ist. Bei gegebenem Wert x von X ist dann auch Y = f{x) + e eine Zufallsvariable. Das Merkmal X kann deterministisch sein, d.h. die Werte von X konnen systematisch oder "kontroUiert" variiert werden, oder X ist ebenfalls eine Zufallsvariable, d.h. die a:-Werte sind beobachtete Realisierungen von X. Da im Gegensatz zur empirischen Beziehung fiir die Daten nun Zufallsvariablen in den linearen Ansatz eingehen, gelangt man zu einem stochastischen Modell der linearen Einfachregression (Abschnitt 12.1). In Anwendungen liegt sehr oft der Fall vor, dafi die Zielvariable Y von mehreren Einflufigrofien X i , . . . , Xp abhangt. So hangt die Nettomiete von Wohnungen im
12. Regressionsanalyse
476
Beispiel 1.2 neben der Wohnflache von weiteren Merkmalen ab, die Alter, Ausstattung und Lage der Wohnung beschreiben. Dabei konnen die Einflufigrofien sowohl metrisch als auch kategorial sein. Abschnitt 12.2 behandelt das zugehorige Modell der linearen Mehrfachregression. Diese "klassische" lineare Regression basiert auf zwei Grundannahmen: Die Zielvariable Y mu6 metrisch skaliert sein; zusatzlich ist es zumindest giinstig, wenn Y approximativ normalverteilt ist. Zweitens wird die Regressionsfunktion als linear angenommen. Abschnitt *12.4 skizziert einige Erweiterungen der Regressionsanalyse auf nichtlineare Regressionsansatze.
12.1
Lineare Einfachregression
Es liege die Datensituation von Abschnitt 3.6 vor: Fiir n Objekte werden zu den beiden metrischen Merkmalen Y und X die Werte {yi^Xi)^i = l , . . . , n , gemessen oder beobachtet. Dabei ist zu beachten, dafi es in Anwendungen oft notig ist, ein urspriinglich erhobenes Merkmal, etwa Z, geeignet in X = f{Z), z.B. durch X = Z^ oder InZ zu transformieren, so dafi dann nicht Z, sondern die abgeleitete Variable X in den linearen Regressionsansatz eingeht. Dies gilt in analoger Weise fiir das Merkmal Y. 12.1.1
Das Modell der linearen Einfachregression
In der linearen empirischen Beziehung yi = a + pXi + Ei,
Fehlervariable
zufdllige Komponente
fassen wir nun die Fehler e^ als Realisierungen von Zufallsvariablen auf. Im folgenden unterscheiden wir in der Notation nicht zwischen Fehlern und zugehorigen Zufallsvariablen, sondern bezeichnen beide mit e^. Die Fehler- oder Storvariablen ei sind nicht beobachtbar, soUen aber den nicht kontroUierten oder nicht systematisch mefibaren Einjflufi von Mefifehlern oder anderen Variablen, die im Vergleich zu X deutlich weniger Erkarungswert fiir Y besitzen, umfassen. Da sie als unsystematische oder zufdllige Komponente eingehen, ist es verniinftig, dafi man zumindest E{ei) = 0,
deterministisch Realisierungen von Zufallsvariablen
i = 1,..., n
i=l,
,n
fordert. Die Werte Xi konnen deterministisch^ d.h. fest vorgegeben sein, wie etwa in einem geplanten Versuch, oder sie konnen sich als Realisierungen von Zufallsvariablen Xi ergeben. Die zweite Situation liegt in der Regel dann vor, wenn in einer Zufallsstichprobe an n Objekten simultan die Realisierungen (yi, x^), i = 1 , . . . , n, der
12.1
477
Lineare Einfachregression
Variablen (Y, X) beobachtet werden. Bei festen oder beobachteten Werten Xi stellt a + l3xi die systematische Komponente zur Erklarung von Y dar. Die Werte yi sind damit ebenfalls als Realisierungen von Zufallsvariablen Yi aufzufassen. Somit geht die empirische Beziehung iiber in das stochastische Grundmodell Yi = a + l3xi + Si,
E{€i) = 0,
systematische Komponente
i = l,...,n,
der linearen Einfachregression. Dieses Grundmodell wird durch zusatzliche Annahmen weiter spezifiziert. Dem "klassischen" linearen Regressionsmodell liegt die Vorstellung zugrunde, dafi die systematische Komponente a + l3xi additiv und rein zufallig durch Fehlervariablen e^ iiberlagert wird. Diese Modellannahme wird formal dadurch ausgedriickt, dafi die Zufallsvariablen 6^, i = l , . . . , n , unabhangig und identisch verteilt sind. Insbesondere besitzen damit alle e^ gleichgrofie Varianz Var{ei) = a'^. In der folgenden Modelldefinition wird dies zusammengefafit.
Standardmodell der linearen Einfachregression
Es gilt Yi = a + /3xi + ei,
z = 1,..., n.
Dabei sind F i , . . . , 1^ beobachtbare metrische Zufallsvariablen, x i , . . . , Xn gegebene deterministische Werte oder Realisierungen einer metrischen Zufallsvariable X, € 1 , . . . , €n unbeobachtbare Zufallsvariablen, die unabhangig und identisch verteilt sind mit E{ei) = 0 und Var{ei) = cr^ • Die RegressionskoefSzienten a, l3 und die Varianz a^ sind unbekannte Parameter, die aus den Daten (?/i, a;^), i = 1 , . . . , n, zu schatzen sind. Die folgenden Bemerkungen erlautern dieses Modell noch naher. 1. Die Annahme fest vorgegebener x-Werte trifft vor allem fiir "geplante Experimente" zu. Beispielsweise konnte xi die vorgegebene Dosis eines blutdrucksenkenden Praparats und Yi der gemessene Blutdruck sein oder xi die investierten Werbungskosten und Yi der Umsatz fiir ein bestimmtes Produkt. In vielen Problemstellungen liegt aber folgende Situation vor: Die Daten (^i,Xi),i = 1 , . . . ,n, entstammen einer zufaUigen Stichprobe vom Umfang n, bei der fiir jedes Objekt die Werte der Merkmale Y und X festgestellt werden. Man faiJt dann (yi^Xi) als Reahsierungen von unabhangigen und identisch wie (Y,X) verteilten Stichprobenvariablen (Yi.Xi)
Bemerkungen Deterministische und stochastische Regressoren
12. Regressionsanalyse
478
Eigenschaften der Zielvariablen
auf. Diese Situation trifft in ausreichender Naherung auch dann zu, wenn aus einer grofien Grundgesamtheit zufallig ohne Zuriicklegen gezogen wird, wie etwa im Beispiel eines Mietspiegels, wo zu einer gezogenen Wohnung i deren Nettomiete yi und Wohnflache Xi festgestellt wird. In dieser Situation sprechen wir auch kurz von einem Regressionsmodell mit stochastischem Regressor. In der obigen Modellfunktion sind dann streng genommen alle Annahmen unter der Bedingung X^ = x^, i = 1 , . . . , n, zu verstehen, also etwa E{ei\Xi = xi) = 0, Var{ei\Xi = Xi) = G^. Wir unterdriicken diese Bedingung zwar weiterhin notationell, aber Eigenschaften und Aussagen, die aus der Modelldefinition folgen, sind gegebenenfalls "bedingt" zu interpretieren. Dies gilt insbesondere auch fiir die folgende Bemerkung. 2. Aus den Eigenschaften der Fehlervariablen folgen entsprechende Eigenschaften fiir die Zielvariablen. Es gilt E{Yi) = E{a + (3xi + e^) = a + (3xi Var{Yi) = Var{a + f3xi + e^) = a^ , und die Verteilungen der Yi sind bis auf die Verschiebung a + ^Xi der Erwartungswerte gleich. Abbildung 12.1 veranschaulicht diese Eigenschaften.
a + l3x
ABBILDUNG
Homoskedastizitdt
12.1: Dichten der Zielvariablen
Ebenso iibertragt sich, bei gegebenen x^, die Unabhangigkeit der €{ auf die Yi. 3. Die Eigenschaft gleicher Varianz cr^ der Fehlervariablen e^ wird auch als Homoskedastizitdt bezeichnet. Sie wird oft dadurch verletzt, dafi die Varianzen der e^ und damit der Yi mit grdfier werdenden x-Werten ebenfalls zunehmen. Ob die Annahme der Homoskedastizitat kritisch ist, sieht man oft schon aus dem Streudiagramm fiir die {yi,Xi)-WeTte. In Abbildung 3.20 wachst offensichthch die (empirische) Varianz
12.1
479
Lineare Einfachregression
der Nettomieten mit der Wohnflache an. Damit sind die Fehlervarianzen nicht homoskedastisch. Lafit man zu, dafi die Varianzen ungleich sind, so spricht man auch von Heteroskedastizitdt, In diesem Fall sind die Methoden der linearen Regression nur in geeignet modifizierter Form anwendbar. Fiir Zeitreihendaten, bei denen z = 1 , . . . , n aufeinanderfolgende Zeitpunkte sind, kann die Annahme unabhangiger Fehler und damit, bei gegebenen Xi^ unabhangiger Yi verletzt sein, da eine zeitliche Korrelation in Betracht zu Ziehen ist. Diese Situation liegt beim CAP-Modell vor. Empirische und theoretische Ergebnisse deuten allerdings daraufhin, dafi Renditen keine oder nur eine geringe zeitliche Korrelation besitzen.
Heteroskedastizitdt
Korrelation
Sowohl fiir heteroskedastische als auch abhangige Fehlervariablen existieren Modifikationen des Standardmodells. Dabei wird das Grundmodell beibehalten, wahrend die weiteren Annahmen entsprechend abgeandert werden. Dies hat auch entsprechende Modifikationen der einzusetzenden Verfahren zur Folge.
Die eben diskutierten, aber auch alle anderen Annahmen, insbesondere die Linearitat a + (3x der systematischen Komponente des klassischen linearen Regressionsmodells, sind in Anwendungen kritisch zu reflektieren und, soweit moglich, mit statistischen Methoden der Modelldiagnose zu liberpriifen. Dies kann mit Hilfe von formalen Tests, aber auch mit explorativen graphischen Analysen geschehen (vgl. die Abschnitte 12.1.3 und*12.4). Exakte Aussagen zu Verteilungen von Schatzern und Teststatistiken, die auch fiir Stichproben kleineren Umfangs n giiltig bleiben, erhalt man, wenn man zusatzlich annimmt, dafi die Fehler bzw. die Zielvariablen normal vert eilt sind.
Normalverteilungsannahme
ei ^ A/'(0,cr^)
bzw.
Yir^ Nia + pXi.a'^),
i = l,...,n.
Die im folgenden dargestellten Inferenztechniken arbeiten iiblicherweise dann gut, wenn diese Normalverteilungsannahme wenigstens approximativ gilt. Deshalb ist es auch sinnvoU, diese Annahme zum Beispiel mit Normal-Quantil-Plots zu iiberpriifen.
Modelldiagnose
12. Regressionsanalyse
480
12.1.2
Schatzen, Testen und Prognose
Die wichtigsten Grundaufgaben der statistischen Inferenz sind: Punkt- bzw. Intervallschatzen der unbekannten Parameter a,/3 und cr^, Testen von Hypothesen iiber die RegressionskoefRzienten a und /?, und die Prognose der Zielvariablen Y fiir einen neuen Wert x des Regressors X.
Schatzen
KQ-Methode
Fiir das Standardmodell der linearen Regression wird wie in Abschnitt 3.6.2 die gewohnliche KQ- (Kleinste-Quadrate-) Methode eingesetzt. Ersetzt man im KQAnsatz die Realisierungen yi durch die Zufallsvariablen Yf, dann lautet das KQPrinzip: Bestimme die Schatzer a und $ fiir a und f3 so, dafi
E(^^
a
(ixif
mm,
i=i
also die Summe der quadratischen Abweichungen durch a,/3 minimiert wird. Die Losung fiir a und ^ ergibt sich wie in Abschnitt 3.6.2, nur sind statt der yi die Zufallsvariablen K- einzusetzen:
a = Y-$x,
/3 =
^ {xi - x) {Yi -Y)
Y^^iYi-
i=i
i=i
J2{xi-x)'^
Schdtzfunktion
Residuen
rixY
^ — nx^
mit Y = (Yi-] \-Yn)/n. Damit hangen bei gegebenen x^-Werten a und $ von den Zufallsvariablen Y i , . . . , 1 ^ ab und sind somit Schdtzfunktionen. Notationell unterscheiden wir dabei nicht zwischen den Realisierungen von a und /5, die man erhalt, wenn man fiir die Yi die Realisierungen yi einsetzt. Wie in Abschnitt 3.6 bezeichnet man die Abweichungen ei = Yi — Yi\i = l^...^n^ zwischen den Zielvariablen und ihren Schatzern % = a + 0Xi als Residuen. Als Schatzer fiir cr^ verwendet man die gemittelte Residuenquadratsumme a^ = ;r^Z)r=i^?- ^^ folgenden fassen wir die Schatzer und wichtige Eigenschaften zusammen.
12.1
Lineare Einfachregression
481
Kleinste-Quadrate-Schatzer
$=^^^
, & = Y-$x, J2{xi-x)'^ i=l
i=l
1=1
mit den Residuen ei = Yi — Yi und den gefitteten Werten Yi = a + ^Xi Es gilt: E{a) = a, E0)=/3, E{a^) = a\ Var{a) = al = a^
^""^
'^ Jli^i ~ ^)^
=- -a2
E^ " ( E ^f - "^^) '
Far(/?) = 4 = Somit sind d, /3 und a^ erwartungstreue Schatzer. Gilt fiir n —^ oo n
z=l
SO sind sie auch konsistent. Alle obigen Eigenschaften gelten fiir das Standardmodell der linearen Regression. Fiir einen stochastischen Regressor X sind die Resultate bedingt zu interpretieren. Bemerkungen: 1. Die Formel fiir den KQ-Schatzer $ lafit sich leicht zu A ^ =
SY
rxY-^
umformen, wobei rxY^ Sy^ Sx die Schatzer fiir den KorrelationskoefRzienten pxY und die Standardabweichungen cry, ax sind. Diese Beziehung ist fiir das Modell mit einem stochastischen Regressor sinnvoll intepretierbar, fiir deterministische xWerte bleibt sie rein rechnerisch ebenfalls giiltig. Dies gilt in analoger Weise fiir die Aquivalenz i?^ = r'j^y ^^^ Bestimmtheitsmafi und empirischem KorrelationskoefRzienten (vgl. Abschnitt 3.6).
Bemerkungen Beziehung zur Korrelation
12. Regressionsanalyse
482
Linearitdt der KQ-Schdtzer
2. Einfache Umformungen zeigen noch deutlicher, wie a und $ von Yi^... ^Yn abhangen. Ausmultiplizieren im Zahler liefert zunachst
i=l n
i=l n
o ^
2=1
Z=l
Der zweite Term ist null, da Y^{xi — x) = Q ist. Somit erhalt man
/^ = Ehr^
Yi = Y.^C^^ z=l
mit den Gewichten
z=l
Einsetzen in a = y — /3a: ergibt nach kurzer Umformung aiYi, 2=1
ai =
—
n
-X.
A / Y,{xi-xy 2=1
Konsistenz
Somit sind a und $ lineare Punktionen der Zielvariablen Y i , . . . , 1^ und man kann nach den Rechenregeln fiir Linearkombinationen von unabhangigen Zufallsvariablen (Abschnitt 6.1) Erwartungswert und Varianz von a und /3 berechnen und daraus die obigen Eigenschaften ableiten. 3. Die Konsistenzbedingung ^(a^^ —^)^ —> oo bedeutet, dafi die Werte x i , . . . , x ^ , . . . fiir alle n hinreichend stark um ihr arithmetisches Mittel variieren. Nur so kommt immer wieder zusatzliche Information zur Schatzung von d und /3 hinzu. Fiir einen stochastischen Regressor X, bei dem x i , . . . , x ^ , . . . Realisierungen der unabhangigen und identisch wie X verteilten Stichprobenvariablen X i , . . . , X ^ , . . . sind, gilt diese Bedingung, da mit Wahrscheinlichkeit 1 gilt:
^J2{Xi-Xf^Var{X)
= a\.
2=1
gewichtete KQ-bctidtzung
4. Fiir Modifikationen des Standardmodells ergeben sich Anderungen. Wenn zum Beispiel die Varianzen heteroskedastisch sind, ist es giinstiger, sofort zu einer gewichteten KQ-Schdtzung liberzugehen. Man bestimmt dann a und ^ so, dafi die mit
12.1
483
Lineare Einfachregression
den Varianzen af = Var{ei) gewichtete Summe der quadratischen Abweichungen
2=1
*
beziiglich a und /? minimiert wird. Dazu miissen allerdings die af bekannt sein oder geschatzt werden.
Fiir Intervallschatzungen und Tests benotigt man auch Verteilungsaussagen iiber die Schatzer. Unter der Normalverteilungsannahme eir^N{0,a'^)
bzw.
erhalt man wegen a = J^^i^ii sind mit
Yi r^ N{a + fSxi^a'^),
i = l,...,n,
^ = J2^i^i sofort, dafi auch a und /3 normalverteilt
a~iV(a,a|),
^^NiP^aj),
wobei a?, cr? die oben angegebenen Varianzen von a und /3 sind. Ersetzt man dort die unbekannte Varianz cr^ der Fehler durch den Schatzer a^, so sind die standardisierten Schatzer Student-verteilt mit n — 2 Preiheitsgraden. Die Anzahl der Freiheitsgrade verringert sich von n auf n — 2, da die 2 Parameter a, (3 geschatzt werden.
Verteilung der standardisierten Schatzfunktionen
Unter der Normalverteilungsannahme gilt , ^. & — ex —^ t{n - 2),
(3 — 0 , ^. ^ - ^ r^ t{n - 2) "0
'a
mit 2=1
a/y = a-
^
^R
=
lnY^(xi - xY 2=1
Verteilungsaussagen
12. Regressionsanalyse
484
Mit iiblichen Argumenten erhalt man daraus symmetrische Konfidenzintervalle:
Konfidenzintervalle fiir a und /3 a ± (j^^ l - a / 2 ( ^ - - 2 ) ,
p±a^h - a / 2 ( ^
-2)
Fiir n > 30 : t-Quantile der t(n - 2)-Verteilung durch Quantile der iV(0,l)Verteilung ersetzen.
approximativ normalverteilt t-verteilt
In vielen Fallen ist die Normalverteilungsannahme nur approximativ erftillt oder sogar deutlich verletzt. Die obigen Verteilungsaussagen bleiben aber asymptotisch fiir n —> oo richtig, falls die Konsistenzbedingung ^ ( x ^ — x)^ -^ oo erfiillt ist. Das bedeutet, dafi fiir groCen Stichprobenumfang n die Verteilungen der (standardisierten) Schatzfunktionen approximativ normal- bzw. t-verteilt sind und somit die obigen Konfindenzintervalle approximativ das Konfidenzniveau 1 — a besitzen. Falls die Fehler bzw. Zielvariablen selbst bereits approximativ normalverteilt sind, geniigt dazu bereits ein' relativ kleiner (n ~ 20) Stichprobenumfang. Fiir deutlich nicht normalverteilte Fehler bzw. Zielvariablen muiJ jedoch der Stichprobenumfang ebenfalls deutlich erhoht werden, u m zuverlassige Schliisse zu Ziehen.
Beispiel 12.1
CAP-Modell und Beta>Koeffizient In Kapitel 3, Beispiel 3.31 (Seite 163), wurden bereits die KQ-Schatzungen fiir das CAPM beziiglich der MRU-Aktie bestimmt. Man erhielt die Regressionsbeziehung yi = 0.0004+ 1.0216xi + ei,
1,...,31,
fiir den Zeitraum Juni 1991 bis Dezember 1993 mit dem Regressor X = "Marktrendite minus Zins" und der Zielvariable Y = "Rendite der MRU-Aktie minus Zins". Im Gegensatz zum Mietspiegel-Beispiel zeigt das Streudiagramm dieser beiden Variablen in Abbildung 3.20 keine Auffalligkeiten: Offensichtlich wird die Streuung der Zielvariable hier nicht von der Regressorvariable beeinflufit, so dafi von Homoskedastizitat ausgegangen werden kann. Da es sich um Zeitreihendaten handelt, verdient die Annahme unkorrelierter Fehler besonderes Augenmerk. Dazu betrachtet man eine eventuelle Korrelation zwischen den y- Werten mit sich selbst, jedoch um einen Monat verschoben. Der Korrelationskoeffizient von BravaisPearson zwischen {Yi, Fi+i), i = 1 , . . . , 30, betragt hier 0.1817 und der Korrelationstest aus Kapitel 11 kann keine signifikante Korrelation mit den zeitverzogerten Variablen aufzeigen (;>Wert 0.3365). Wir nehmen deshalb im folgenden an, dafi auch die Fehlervariablen nicht korrehert sind. Fiir ihre Varianz cr^ = Var{ei) erhalt man die Schatzung a'
0.000179/29 = 6.17-10-
wobei 0.000179 die Residuenquadratsumme J^iVi ~ ViY ist. Die Standardabweichung wird damit durch a = 0.00248 geschatzt. Mit XlILi ^1 = 0.0016 und x = -0.0068 ergeben sich die
12.1
Lineare Einfachregression
485
geschatzten Standardabweichungen der KQ-Schatzungen fiir die Koeffizienten: 6-^ =
,
0.00248
= 0.0014
/31-(Q.0016-31-0.0Q682) 0.0016
0.00248 (7A = , = 0.1922. ^ VO.0016 - 3 1 . 0.00682 In Kapitel 2 haben wir gesehen, dafi die monatlichen Durchschnittsrenditen der MRU-Aktie nur approximativ normalverteilt sind (vgl. Abbildung 2.30). Aber in dem hier betrachteten Teildatensatz sind keine AusreiBer vorhanden, so dafi wir in guter Naherung von normalverteilten Zielvariablen ausgehen konnen. Unter dieser Verteilungsannahme erhalt man zur Uberdeckungswahrscheinlichkeit 0.95 die Konfidenzintervalle a ± 0.0014 • 2.045 = [-0.0025; 0.0033], p ± 0.1922 . 2.045 = [0.6286; 1.4146]. Dabei liegt der Wert null im Konfidenzintervall fiir den y-Achsenabschnitt a, nicht aber in dem fiir den Steigungskoeffizienten /3. Da bekanntermafien 95 %-Konfidenzintervalle dem Annahmebereich eines zweiseitigen Tests zum Niveau 0.05 entsprechen, bedeutet dies, dafi die NuUhypothese a = 0 verworfen werden kann, wahrend der Steigungsparameter /3 signifikant von null verschieden ist. Die NuUhypothese /?= 1, d.h. der Beta-Faktor zeigt, dafi sich die MRU-Aktie wie der Gesamtmarkt verhalt, kann dagegen nicht verworfen werden. Natiirlich lassen sich auch in der Regressionsanalyse solche Tests anhand geeigneter Teststatistiken durchfiihren, wie im folgenden ausgefiihrt wird. D
Testen Folgende Hypothesen iiber a und /3 sind hauptsachlich von Interesse: (a) iJo : a = ao ,
Hi'.ay^ao
bzw. HQ: /3 = /3o,
Hi: /3^ j3o,
(b) Ho:a>ao,
Hi : a < ao
bzw. HQ: (3>I3Q,
HI'. [3 < /?o,
{c) Ho:a
Hi:a>
bzw. HQ : /S < f3o ,
ao
Hi'. (3> ^Q.
Von besonderer Bedeutung ist das Hypothesenpaar Ho:f3 = 0,
Hi'.p^O.
Dabei bedeutet iJo * /? = 0, dafi tatsachlich Y^ = a + e^, i = 1 , . . . , n, gilt, und somit X keinen Erklarungswert fiir Y besitzt. Ablehnung von HQ zugunsten von Hi bedeutet, dafi es sinnvoU ist, X in Form der systematischen Komponente a + l3x zur Erklarung von Y einzusetzen. Als Teststatistiken verwendet man die standardisierten Schatzer.
12. Regressionsanalyse
486
Aufgrund ihrer Verteilungseigenschaften erhalt man Entscheidungsvorschriften, die vollig analog zu denen des t-Tests im Ein-Stichproben-Fall sind. Teststatistiken und Ablehnbereiche bzw.
Tf3o =
/?-/5o ^/3
Ablehnbereiche zu den Hypothesen (a), (b), (c) (a)
ir^ol
>
ti_a/2{n-2)
bzw.
\T^,\
>
h_^/2{n-2)
(b)
Tao
<
-ti-a(n-2)
bzw.
Tfs^
<
-ti_<,(n-2)
(c)
^ao
>
ti_a(n-2)
bzw.
t/?o
>
ti_c.(n-2)
Fiir n > 30: Quantile der t{n — 2)-Verteilung durch Quantile der A^(0,1)Verteilung ersetzen. Bei Giiltigkeit der Normalverteilungsannahme besitzen die Tests exakt das Niveau a, ansonsten approximativ fiir groiieren Stichprobenumfang. Wie immer konnen die Testentscheidungen auch iiber die Beziehung zu Konfidenzintervallen oder mittels der p-Werte getroffen werden. Letzteres wird vor allem in statistischen Programmpaketen beniitzt. Dort werden liblicherweise die T-Werte und p-Werte zu den Hypothesen a) mit ao = 0 bzw. (3o = 0 ausgegeben. Daraus laiJt sich dann erkennen, ob der Einbezug von a bzw. f3 in den Regressionsansatz sinnvoll ist. Zusatzlich zu den Schatzwerten a, /3 und T- bzw. p-Werten wird oft mit Hilfe einer sogenannten Varianzanalysetabelle, die auf der Streungszerlegung von Abschnitt 3.6.3 beruht, ein sogenannter F-Wert berechnet. Varianzanalysetabelle mittlerer quadratischer Fehler
Priifgrofie 77.
MQE
^ -
MQR
Streuung
Preiheitsgrade
Erklarte Streuung
SQE
1
MQE=^
Reststreuung
SQR
n-2
MQR=^
Gesamtstreuung
SQT
n~l
12.1
487
Lineare Einfachregression
Es lafit sich zeigen, dafi F = Tj^ gilt. Somit kann auch der F-Wert zur Priifung von HQ: l3 = 0 verwendet werden. Falls die Normal vert eilungsannahme zutrijfft, gilt unter dieser NuUhypothese F ~ F ( l , n — 2). Zudem gilt die Beziehung
F =
i?2 l-i?2
(n-2),
Beispiel 12.2
CAP-Modell und Beta-Koeffizient Im Rahman des CAP-Modells sind vor allem die Hypothesen Ho'.a = 0,
Hi'.a^O
und
HQ : p = 1,
Hi : p ^ 1
von Interesse. Die zugehorigen Realisierungen der TestgroCen lauten fiir unser Beispiel beziiglich der MRU-Aktie:
T
a - —
0.0004 0.0014
0.286,
t/3o
p-1 aa
0.0216 ~ 0.1922
0.112.
Wegen ^0.975 (29) = 2.045 liegen sowohl T^Q als auch T^^ nicht im Ablehnbereich zum Signifikanzniveau 5 %. Somit ist hier der Intercept-Term a nicht signifikant von null verschieden, weswegen er auch haufig im CAP-Modell von vornherein weggelassen wird. Der SteigungskoefEzient /?, der im Rahmen des CAP-Modells auch als Beta-Faktor bezeichnet wird, ist nicht signifikant von eins verschieden, d.h. die MRU-Aktie birgt weder ein grofieres noch ein kleineres Risiko als der Gesamtmarkt. Ferner erhalt man hier die folgende Varianztabelle:
5 g £ ; = 0.00018
1
MQE = 0.00018
SQR = 0.00018
29
MQR = 6 • 10-^
SQT = 0.00036
30
F = 29
Der p-Wert zu F = 29 bei 1 und 29 Freiheitsgraden ist gleich 7-10~^, so daB /? signifikant von null verschieden ist und die X-Variable (Marktrendite minus Zinssatz) also einen Einflufi auf die F-Variable austibt. Der Erklarungswert der unabhangigen Variable lafit sich mit Hilfe des Bestimmtheitsmafies noch genauer messen: Hier gilt i?^ = | S ^ = 0.5, d.h., dafi das hier beschriebene CAP-Modell 50 % der Variation der abhangigen Variable "MRU-Rendite minus Zins" erklart. D
13. Varianzanalyse
520 Zielgrofie
Faktor
Stufe 1 Stufe 2
2/11
2/12
•••
yini
J/21
2/22
•••
y2n2
: Stufe /
yii
yi2
'"
Vlni
Dabei bezeichnen n i , . . . , n / die Stichprobenumfange in jeder Faktorstufe und / die Anzahl der Faktorstufen. In Beispiel 13.2 ist / = 3, ni = 6, n2 = 10, n^ = 8 und n = J2i=i ^i = 24. AUgemein liegen also auf Faktorstufe i die Merkmalsauspragungen yiU'",yini, i = l , . . . , / , vor. Um nun zu einem varianzanalytischen Modell zu gelangen, mu6 die Zielvariable in Abhangigkeit der auf Stufen erfafiten Einfiufigrofie beschrieben werden. Man unterscheidet dazu zwei Ansatze: Modellformulierung (I)
Im ersten Modellansatz nimmt man an, dafi durch die jeweilige Faktorstufe eine gewisse durchschnittliche Auspragung der Zielgrofie, wie etwa ein mittlerer Einstellungsscore der Jugendlichen gegeniiber der Nutzung von Atomenergie, bedingt wird. AUerdings gibt es natiirlich individuelle Schwankungen um diesen mittleren Wert, denen im Modell Rechnung getragen werden mufi. Daher lafit sich die Zielgrofie Yij als Summe des Erwartungswerts jii von Faktorstufe i und eines Storterms eij fiir die i-te Faktorstufe und die j - t e Untersuchungseinheit darstellen, also Xij — /i-i + €.ij ,
Normalverteilung
1,...,/,
j = l,...,ni
Da wir zudem vorausgesetzt haben, dafi die Zielvariable in den Gruppen normalverteilt ist und sich, wenn iiberhaupt, nur durch ihre Erwartungwerte unterscheidet, konnen wir zudem annehmen, dafi die Storgrofie normalverteilt ist mit
Inhaltlich bedeutet diese Annahme, dafi sich die Storterme im Mittel wieder ausgleichen und dafi die VariabiUtat in alien Gruppen gleich ist. Da wir die Untersuchungseinheiten zufallig auswahlen, konnen wir zusatzlich davon ausgehen, dafi die Yij und damit die eij unabhangig sind, d.h. F n , Yi2^..., Yim bzw. €ii,...,€/n/ sind voneinander unabhangig. Uns interessiert nun die Frage, ob sich die Faktorstufen unterschiedlich auf die Zielgrofie auswirken. Diese Frage formulieren wir auch hier als statistische Alternative in dem entsprechenden statistischen Testproblem, das gegeben ist als i?(0
: / i i = /X2
M/
gegen
Hi : fii ^ fij
fiir mindestens ein Paar (i, j )
12.1
489
Lineare Einfachregression
Beispiel 12.3
C A P - M o d e l l und Beta-Koeffizient
Im Teildatensatz von Juni '91 bis Dezember '93 ist die unabhangige Variable stets negativ, so daC man sich fragen konnte, was mit der F-Variable geschehen wiirde, wenn sich der Gesamtmarkt positiver entwickeln wiirde. Wir woUen deshalb die Rendite der MRUAktie (minus deni risikolosen Zinssatz) fiir die drei moglichen X-Werte XQI = 0.0, a:o2 = 0.01 und xos = 0.05 prognostizieren. Punktschatzer fiir YQ erhalt man dann unmittelbar durch Einsetzen in die Regressionsgerade: yoi = 0.0004 + 1.0216 • 0.0 = 0.0004, yo2 = 0.0004 + 1.0216 . 0.01 = 0.0106, yo3 = 0.0004 + 1.0216 • 0.05 = 0.0515.
8 -
/ / / / / / / / /
• •
9
1. 9
* *
m tr
^ S9
/ / / / / /
/ /
/
/ / /
t
M
1 2
i. 9 o o 9 o 9
^
' DAFOX-Rendite minus Zins
ABBILDUNG
12.2: Konfidenzintervall fiir die Regressionsgerade zum CAP-
Modell Die zugehorigen Konfidenzintervalle (vgl. Abb. 12.2) zum Vertrauensgrad 0.95 lauten ^0 ± 2.045 . 0.00248,/1 -f ^ -f ^^^-^'^^^^^ ^, ^° ^/ 31 0.0016 - 31.0.00682 ' also [-0.0054,0.0062] fiir Foi, [0.0022,0.0190] fiir 702 und [0.0286,0.0744] fiir 703- Wahrend man fiir XQI = 0 . 0 noch nicht mit einer positiven Rendite (minus Zins) rechnen darf, sind fiir xo2 = 0.01 und a:o3 = 0.05 die prognostizierten Renditen somit signifikant im positiven Bereich. D
12. Regressionsanalyse
490 12.1.3
Residualanaiyse
Mit dem Schatzen und Testen in einem linearen Regressionsmodell sollte man auch Modelldiagnose eine Modelldiagnose verbinden. Darunter versteht man statistische Mittel, mit denen iiberpriift werden kann, ob die Annahmen des Standardmodells - zumindest approximativ - erfiillt sind oder deutliche Abweichungen vorliegen. Neben formalen Tests, die hier nicht dargestellt werden, sind vor allem graphische Modelldiagnosen, die auf den Residuen basieren, niitzlich. Oft sieht man bereits am Streudiagramm selbst, ob Annahmen verletzt sind. Das Streudiagramm Nettomieten-Wohnflache weist z.B. bereits darauf hin, dafi die Varianzen mit der Wohnflache anwachsen, also heteroskedastisch sind. Aus dem Streudiagramm Nettomieten pro qm-Wohnflache ersieht man, dafi die Beziehung eher nichthnear ist. Noch deuthcher werden derartige Verletzungen der Modellannahmen durch sogenannte Residualplots^ also graphische Darstellung mit Hilfe der Residuen, Residualplots vgl. Abschnitt 3.6.3. Letztendlich beruhen alle derartigen Residualanalysen darauf, dafi sich die Modellannahmen fiir die Fehlervariablen e^ in deren Schatzungen, den Residuen e^, widerspiegeln soUten.
stabilisiert
studentisierte Residuen
Das Streudiagramm der (ei,Xi)-Werte sollte kein systematisches Muster aufweisen. Andernfalls ist, wie im Beispiel der Nettomieten pro qm, das Standardmodell nicht ohne weiteres anwendbar. Oft hilft hier eine Transformation der Variablen, etwa in der Form Y -^ y ^ , m 7^ 0, oder y -^ In y . Damit konnen oft heteroskedastische Varianzen homogenisiert oder stabilisiert werden. Aus dem gleichen Streudiagramm lassen sich auch Ausreifier, also deuthch vom Rest der Daten entfernte (y^, Xi)-Werte erkennen. Solche Ausreifier wird man genauer auf moglicheUrsachen hin ansehen und eventuell aus dem Datensatz entfernen. Abweichungen von der Normalverteilung lassen sich anhand eines NormalQuantil-Plots fiir die Residuen iiberpriifen. Dabei werden statt der e^ oft sogenannte studentisierte Residuen 1 ri = ۥ
n
{xi — x^)^ ^ X? — nx^
verwendet. Man kann zeigen, dafi sie den Eigenschaften der Fehler e^ noch naherkommen als die Residuen e^. Beispiel 12.4
CAP-Modell und Beta-Koeffizient
Das Streudiagramm der Residuen und der gefitteten Werte in Abbildung 12.3 zeigt - wiinschenswerterweise - keinerlei Auffalligkeiten. Die Punktwolke deutet vielmehr darauf hin, dafi die gefitteten Werte und die Residuen unkorreliert sind. Dies rechtfertigt nachtraglich die Annahme der Homoskedastizitat.
12.1 Lineare Einfachregression
491
-0.010
-0.008
-0.006
-0.004
-0.002
gefittete Werte
ABBILDUNG
12.3: Residualplot
Quantile der Standardnormalverteilung
ABBILDUNG
12.4: Normal-Quantil-Plot
Die Normalverteilungsannahme wird zudem durch den Normal-Quantil-Plot der Residuen in Abbildung 12.4 gestiitzt. Offensichtlich treten keine bemerkenswerten Ausreifier auf, und die Verteilung der Residuen lafit sich durch eine Normalverteilung sehr gut beschreiben. D
Mietspiegel
Beispiel 12.5
Am Streudiagramm Nettomieten/Wohnflachen der Abbildung 3.17 aus Abschnitt 3.6 erkennt man bereits, dafi die Fehlervarianzen heteroskedastisch sind. Berechnet man trotzdem nach der gewohnlichen KQ-Methode die Ausgleichsgerade, so erhalt man die Beziehung f = 98.76-h 6.75 X.
492
12.
Regressionsanalyse
Das Streudiagramm der Residuen und der gefitteten Werte in Abbildung 12.5 spiegelt diese Inhomogenitat der Varianzen nochmals wider.
§ A
— I — 400
— I — 600
-r
-r
800
1000
1200
gefittete Werte
ABBILDUNG
12.5: Residualplot
(0 CO
1- 2 - 1 0
1
2
Quantile der Standardnormalverteilung
ABBILDUNG
12.6: Normal-Quantil-Plot
Der Normal-Quantil-Plot in Abbildung 12.6 induziert deutliche Abweichungen von der Normalverteilung. Somit konnen die ungewichtete Regressionsanalyse und die resultierende Ausgleichsgerade nur deskriptiv aufgefafit werden. Fiir eine inferentielle Regressionanalyse mlifite eine gewichtete KQ-Schatzung oder eine geeignete Datentransformation durchgefiihrt werden. •
12.2
12.2
493
Multiple lineare Regression
Multiple lineare Regression
In diesem Abschnitt wird die lineare Einfachregression dahingehend erweitert, dafi neben der Zielvariable Y mehrere erklarende Variablen oder Regressoren Xi^... jXp betrachtet werden. Zu diesen Variablen werden jeweils n Werte Vi^ ^ili
• • • ? ^ip 1
1,
gemessen oder beobachtet. Beispiel 12.6
Mietspiegel
Die Zielvariable "Nettomiete" soil nun durch weitere Merkmale der Wohnung erklart werden. Wir betrachten in diesem Abschnitt eine Teilstichprobe des Mlinchner Mietspiegels mit Wohnungen der Baualtersklasse 1978 — 1989. Als erklarende Variablen werden die Wohnflache in qm, Badausstattung (gehoben/einfach), Kiichenausstattung (gehoben/einfach) und die Wohnlage (normale, gute, beste) herangezogen. Da Wohnungen dieser Baualtersklasse nicht reprasentativ fiir ganz Miinchen sind, dient dieses Beispiel nur zur Illustration der Methoden der multiplen Regressionsanalyse und darf nicht als Vorschlag fiir einen "Mietspiegel" missverstanden werden. D Wie in diesem Beispiel wird fiir den gesamten Abschnitt vorausgesetzt, dafi die Zielvariable metrisch ist. Die Regressoren konnen dagegen metrisch (wie die Wohnflache), binar (wie Bad- bzw. Kiichenausstattung) oder mehrkategorial (wie die Wohnlage) sein. Bei metrischen Regressoren wird es in praktischen Anwendungen oft notig sein, eine urspriingliche erhobene Variable, etwa z, geeignet in x = f{z)^ z.B. X = z^, x = liiz^ usw., zu transformieren, so dafi dann nicht z^ sondern die transformierte Variable x linear in den Regressionsansatz eingeht. Kategoriale Regressoren mit k geordneten oder ungeordneten Kategorien l,...,fc werden durch einen Vektor von m = k — 1 "Dummy-Variablen" x^^\ . . . , x^'^^ kodiert. Benutzt man 0-1 Dummy-Variablen, so spricht man auch kurz von Dummy-Kodierung. Dabei ist x^'^\ i = 1 , . . . ,m, durch
DummyKodierung
(i) _ j 1, fells Kategorie i beobachtet wird 1 0, sonst definiert. Falls die fc-te Kategorie, die Referenzkategorie^ beobachtet wird, so haben alle m Dummy-Variablen den Wert 0. Ein gebrauchliches alternatives Kodierungsschema ist die Effekt-Kodierung^ die in der Varianzanalyse bevorzugt wird. Wir werden fiir das Beispiel des Mietspiegels die Dummy-Kodierung wahlen. Die binare Variable "Badausstattung" ist dann durch XB
gehobene Badausstattung einfache Badausstattung
Referenzkategorie EffektKodierung
12. Regressionsanalyse
494
kodiert. Die dreikategoriale, geordnete Variable "Wohnlage" ist durch die zwei Dummy-Variablen ( i ) _
XV'
=
1,
gute Lage
(2) XT
0,
sonst,
1, 0,
beste Lage sonst,
definiert. Die Referenzkategorie "normale Lage" ist dann durch x^^ = 0 , x^^ = 0 gegeben. Wie bereits im Fall der univariaten linearen Regression kann auch eine Transformation der Zielvariable zweckmafiig oder notwendig sein. Besonders Potenztransforstabilisierende mationen Y -^ V^^ m 7^ 0, oder die logarithmische Transformation Y -^\nY sind Transformatio- geeignete Moglichkeiten. So kann eine multiplikative Beziehung durch Logarithmienen ren in eine additive Beziehung iibergefuhrt werden. Zugleich lassen sich oft gleichzeitig die Varianzen homogenisieren oder stabilisieren. Transformationen dieser Art heifien deshalb auch varianzstabilisierend. Fiir die weitere DarstelUung gehen wir davon aus, dafi der Einfiufi von Xi^... ^Xp auf Y - gegebenenfalls nach Transformation - durch eine approximative lineare Funktion Y = f3o + PiXi + '" + (3pXp + e
additiv-lineare systematische Komponente
beschrieben werden kann. Dabei ist /3o + ^iXi H \- (3pXp die additiv-lineare systematische Komponente und e eine Fehlervariable. Die Regressionskoeffizienten sind folgendermafien zu interpretieren: Erhoht man fiir einen metrischen Regressor Xi den Wert xi um eine Einheit, so zieht das bei festgehaltenen Werten der iibrigen Regressoren. die Erhohung der systematischen Komponente um den Wert /?i nach sich. Da man annimmt, dafi die Fehlervariable den Durchschnittswert 0 besitzt, wird sich dann auch der Wert von Y im Durchschnitt um den Wert /3i erhohen. Ist zum Beispiel Xp eine binare Variable oder eine 0-1-Dummy-Variable, so erhoht sich bei Vorliegen des Werts Xp = l die systematische Komponente um den Wert /3p im Vergleich zur Referenzkategorie Xp = 0, 12.2.1
Das multiple lineare Regressionsmodell
Setzt man in die lineare Funktion fiir y, X i , . . . , Xp die beobachteten Daten ein, so ergibt sich die empirische lineare Beziehung yi= Po + PiXii H
deskriptiv
h jSpXip + ei,
i = 1,..., n.
Damit wird der Ansatz der univariaten linearen Regression auf p Regressoren verallgemeinert. Verbleibt man auf der rein empirischen Ebene der Daten, so kann man die multiple lineare Regression auch rein deskriptiv wie die lineare Einfachregression
12.2 Multiple lineare Regression
495
in Abschnitt 3.6 betrachten und die Regressionskoeffizienten nach dem in Abschnitt 12.2.2 dargestellten Kleinste-Quadrate-Prinzip berechnen. Fiir eine stochastische Modellierung fassen wir die Fehler e^ und die Werte yi wie in Abschnitt 12.1.1 als Realisierungen von Zufallsvariablen €i und Yi auf. Auch die Werte Xii^..,^Xip konnen deterministisch^ d.h. fest vorgegeben, oder Realisierungen von stochastische Regressoren^ d.h. von Zufallsvariablen X i , . . . , X p , sein. Das Grundmodell der hnearen Einfachregression wird so zu ° l,...,n, h PpXip + ei, E{ei) = 0, Yi = ^0 + fSiXii H
deterministisch stochastische Regressoren
erweitert. Nimmt man fiir die Fehlervariablen die gleichen Annahmen wie im univariaten Fall hinzu, so ergibt sich:
Standardmodell der multiplen linearen Regression
Es gilt ^i = /?0 + A^il H
1- l^p^ip + ^i 5 i = 1, . . . , n .
Dabei sind F i , . , . , y^ x i j , . . . , Xnj e i , . . . , en
beobachtbare metrische Zufallsvariablen, deterministische Werte der Variablen Xj oder Realisierungen von Zufallsvariablen Xj^ unbeobachtbare Zufallsvariablen, die unabhangig und identisch verteilt sind mit E{ei) = 0 und Var{ei) — a^.
Die Regressionskoeffizienten /?o,... ,/?p und die Fehlervarianz a^ sind aus den Daten y^, x ^ i , . . . , Xip^ i = 1 , . . . , n, zu schatzen.
Die Bemerkungen im Anschlufi an das Standardmodell der linearen Einfachregression bleiben in entsprechend modifizierter Weise giiltig. So iibertragen sich zum Beispiel die Eigenschaften der Fehlervariablen wieder auf die Zielvariablen: Bei gegebenen Regressorwerten sind die Y i , . . . ,1^^ unabhangig mit Erwartungswert und Varianz Eiji) = /?o + ^\Xii + • • • + ^pXip , Aus der Normalverteilungsannahme
Variji) = (7^
fiir die Fehlervariablen
€i-Ar(0,a2),
2 = l,...,n,
i = 1,..., n. Normalverteilungs' annahme
12. Regressionsanalyse
496
folgt die Normalverteilung fiir die Zielvariablen, also Yi ^ N{fXi, cr^),
i2i = /3o + /3iXii H
+ fSpXip ,
i = 1,..., n.
Die im folgenden dargestellten Schatz- und Testverfahren arbeiten wiederum dann besonders gut, wenn die Fehlervariablen und damit die Zielvariablen zumindest approximativ normalverteilt sind. 12.2.2
Schatzen, Testen und Prognose
Obwohl die Aufgabenstellung und die prinzipielle Vorgehensweise gegeniiber dem univariaten Fall im wesentlichen unverandert bleiben, lassen sich einige Ergebnisse im multiplen Fall nicht mehr in elementarer Form schreiben. Dies gilt insbesondere fiir die Schatzung der Regressionskoeffizienten: Die Schatzer ^Sj, j = 0 , . . . ,p, fiir die Parameter /3j konnen im allgemeinen nicht mehr durch einfache, im Prinzip mit der Hand auswertbare Formeln gegeben werden. Fiir eine voUstandige und kompakte Darstellung ist hierfiir und an einigen weiteren Stellen eine Notation mittels Vektoren und Matrizen zweckmafiig. Wir zeigen zunachst die prinzipielle Vorgehensweise in einfacher Form auf und geben eine Zusammenfassung in Matrizenschreibweise am Ende des Abschnitts. Schatzen
Fiir das Standardmodell wird wieder die gewohnliche KQ-Methode eingesetzt. Nach dem KQ-Prinzip sind die Schatzer /3o, A , . . . , /3p so zu bestimmen, dafi die Summe der quadratischen Abweichungen zwischen Zielvariable und systematischer Komponente minimal wird: KQ-Methode Bestimme ^o? A , . . . , /3p so, dafi die Summe der quadratischen Abweichungen beziiglich /?o,/3i,... ,/?p minimiert wird: n
/?o-- PiXii
VorauS' setzungen
n >p+ 1
Pp^ip) ^ —>
min
Damit dieses Minimierungsproblem eine eindeutige Losung /3o,/3i, • •. ,4^ besitzt, miissen folgende Voraussetzungen erfiillt sein: 1. Der Umfang n der Daten mufi mindestens so grofi sein wie die Zahl der unbekannten Parameter, d.h.
12.2 Multiple lineare Regression
497
n>p+1, Um den Schatzfehler klein zu halten, ist es sogar notwendig, dafi n deutlich grofier als p + 1 ist. 2. Keine Variable Xj, j = 0 , . . . ,p, mit XQ = 1, darf sich als Linearkombination der restlichen Variablen Xk^k^j^ darstellen lassen, d.h. es darf fiir kein jf = 0 , . . . ,p Xj = ^
akXk + b
gelten. Insbesondere darf also nicht eine erklarende Variable Xj aus einer anderen, etwa Xk^ durcti Lineartransformation hervorgehen. Sonst wiirde Xj = aXk + b gelten, und Xj und X^ wiirden in der linearen systematischen Komponente dasselbe erklaren. Fiir Xk = XQ bedeutet dies, dafi keine der Variablen Xj, jf = 1 , . . . ,p, eine Konstante, d.h. Xj = c, sein darf. Im folgenden gehen wir davon aus, dafi diese Voraussetzungen erfiillt sind. Die KQ-Schatzer /So^/^i,.. • ,/3g erhalt man dann prinzipiell wie im univariaten Fall, indem man die 1. Ableitung nach /3o,/3i,... ,/?p gleich null setzt. Dies ergibt ein p + 1-dimensionales lineares Gleichungssystem, das fiir gegebene Daten Vii ^ii5 • • • 5 ^ip^ i = 1 , . . . , n, im allgemeinen nicht mit der Hand, sondern numerisch durch geeignete Algorithmen mit Hilfe eines Computer gelost wird. Als Ergebnis, das auch rein deskriptiv aufgefafit werden kann, erhalt man die KQ-Schatzwerte fiir /3o, / ? ! , . . . , /3p. Als Schatzer a^ fiir a^ verwendet man wieder die geeignet gemittelte Summe der quadratischen Residuen.
KQ-Schatzer im multiplen linearen Modell
/So, A , . . . , /3p: numerische Bestimmung nach dem KQ-Prinzip
n — p—1 ^-^ i=l
n — p— 1 ^-^ 2=1
mit den Residuen ei = Yi — Yi und den gefitteten Werten
Die Schatzer sind erwartungstreu, besitzen minimale Varianz im Vergleich zu anderen linearen Schatzern und sind unter ahnlichen Bedingungen wie im univariaten Fall auch konsistent.
keine Multikollinearitdt
12. Regressionsanalyse
498
Varianz
Die Varianz
a] = Var0j), geschdtzte Standardabweichung
j =
der Schatzer lafit sich zusammen mit den KQ-Schatzern numerisch berechnen bzw. schatzen. Wir bezeichnen die geschdtzte Standardabweichung mit ^j = yVar0j),
Streuungszerlegung
0,.,,,p,
j =
0,...,p.
Wie fiir die lineare Einfachregression gilt die Streuungszerlegung
Y^iY. - Yf = Y^iY, - Y,f 2=1
i=l
+ YO- - Y? i=l
Gesamtstreuung SQT = Reststreuung SQR + erklarte Streuung SQE. Bestimmtheitsmafl
Das
Bestimmtheitsmafi 2 UYi - Y)' R' = E{Yi-Yy
SQE _ SQT
_ SQR SQT
als Quotient der durch die Regression erklarten Streuung und der Gesamtstreuung dient wieder als einfache Mafizahl zur Beurteilung der Giite eines Regressionsansatzes. Also ist 0 < it!^ < 1 ,
und es gilt die gleiche Interpretation wie fiir die Einfachregression (Abschnitt 3.6): Je naher R^ bei 1 liegt, desto besser wird die Zielvariable durch die Regression erklart. Im Extremfall J?^ = 1 gilt Yi = Yi fiir alle z = 1 , . . . , n. Je naher R^ bei 0 liegt, desto weniger erklaren die Regressoren. Im Extremfall i?^ = 0 liefern X i , . . . ,Xp keinerlei Anteil zur Erklarung der Variabihtat; diese wird nur durch die Fehler Ci hervorgerufen. Unter der Normalverteilungsannahme sind die standardisierten Schatzer exakt t-verteilt mit n — p ~ 1 Freiheitsgraden:
Verteilung der standardisierten Schatzer
f^J-f^J
12.2 Multiple lineare Regression
499
Daraus ergeben sich Konfidenzintervalle wie folgt: Konfidenzintervalle fur fij
4 ' ± <^j^l-a/2(^ - P - 1) ,
J = 0, . . . ,p .
Falls die Normalverteilungsannahme verletzt ist, besitzen diese Konfidenzintervalle fiir grofie Stichproben approximativ die Uberdeckungswahrscheinlichkeit 1 — a, Testen
Fiir die einzelnen KoefRzienten werden folgende Hypothesen betrachtet: Hypothesen ijber einzelne Parameter ^Oj,
Hi •^j^(3oj,
{h)Ho :/?,• > f3oj,
Hi •Pj
(c) Ho: 0j < /3oi,
Hi: 13 J > 00j .
(a)ifo
••^J
=
Von besonderer Bedeutung ist dabei Fall a) fiir /3oj = 0, d.h.
Wenn HQ zutrifft, hat der Regressor Xj keinen signifikanten Erklarungswert fiir Y und kann aus dem Regressionansatz entfernt werden. Trifft Hi zu, mufi Xj im Ansatz enthalten sein. Die Hypothesen werden folgendermafien getestet: Teststatistiken und Ablehnbereiche J-j —
T
-,
j = 0,...,p
Testvorschrift: HQ ablehnen, falls (a)
\Tj\
>
ti-a/2in-p-l),
(b)
Tj
<
-ti-a{n-p-
(c)
Tj
>
ti-a{n-p-
1), 1).
approximativ
12. Regresslonsanalyse
500
Overall-F-Test
Unter der Normalverteilungsannahme besitzen diese Tests exakt das Signifikanzniveau a, ansonsten approximativ fiir grofie Stichproben. Mit dem Overall-F-Test soil iiberpriift werden, ob die Regressoren iiberhaupt zur Erklarung der Zielvariablen beitragen. Die zugehorige F-Statistik steht in enger Beziehung zum Bestimmtheitsmafi.
Overall-F-Test (Goodness of fit-Test) Hypothesen:
i?o : A == / ? 2 - - - = /?p = 0 ,
fiir mindestens ein j .
Hi: / 3 , - ^ 0
Teststatistik: B? 1 - i?2
n-p-1 SQEn p ~ SQR
—p — 1 P
Unter HQ gilt:
F ~ F{p, n --p-1) Testvorschrift: Ho ablehnen, falls F>
Fi-aiP,n -p-1)
Die NuUhypothese besagt also, dai3 keiner der Regressoren Xi^... ^Xp einen Beitrag zur Erklarung liefert. Der Name Goodnes of fit-Test ist insofern etwas irrefiihrend: Es wird nicht die Giiltigkeit des linearen Ansatzes iiberpriift, sondern nur, ob wenigsten einer der Regressoren in einem linearen Ansatz einen signifikanten Erklarungsbeitrag liefert. Die Teststatistik F und die benotigten Quadratsummen SQE und SQR werden oft in Form einer Varianzanalysetabelle zusammengestellt:
Varianzanalysetabelle
Streuung
Freiheitsgrade
Erklarte Streuung
SQE
P
Reststreuung
SQR
n — p— 1
Gesamtstreuung
SQT
n-1
mittlerer quadratischer Fehler
Priifgrofie
MQE=^
ri MQE ^ — MQR
MQR = ^ ^ ,
12.2
Multiple lineare Regression
501^
Die Testentscheidung zur Signifikanz einzelner Regressoren und der Overall-F-Test konnen mit Hilfe von statistischen Programmpaketen mittels der standardmafiig ausgegebenen p-Werte durchgefiihrt werden.
Mietspiegel
Beisplel 12.7
Wir woUen im folgenden eine Moglichkeit illustrieren, wie mit einem multiplen linearen Regressionsmodell die Zielvariable Nettomiete {NM) durch die Regressoren W ="Wohnflache" (in qm), Lg = "gute Wohnlage" {ja = 1, nein = 0), Lb = "beste Wohnlage" {ja = 1, nein = 0), B = "kein gekacheltes Bad" {ja = 1, nein = 0) und K "gehobene Ausstattung der Kiiche" {ja = 1, nein = 0) erklart werden kann. Die Stichprobe umfafit Daten zu 167 Wohnungen der Baualtersklasse 1978 - 1989, vgl. Beispiel 12.6 (Seite 493). Als Zielvariable fiir einen linearen Regressionsansatz verwenden wir nicht die Nettomiete NM selbst, sondern die logarithmierte Nettomiete y = In NM: liiNM = l3o-\-f3iW + (32Lg-^P3Lb + ^4B-{-/3BK + €. Folgende Griinde sind daflir mafigeblich: Durch die logarithmische Transformation werden heteroskedastische, mit der Wohnflache anwachsende Fehlervarianzen stabilisiert. Zugleich kann eine bessere Approximation an die Normalverteilung erzielt werden. Das Modell lafit sich auch gut interpretieren: Nach Exponentiation erhalt man die approximative multiplikative Beziehung NM ^ exp(/3o) exp{^iW) exp{(i2Lg) exp{/33Lb) exp{p^B) exp{(3sK) fiir die durchschnittliche, ortsiibliche Miete. Fiir eine Wohnung in normaler Wohnlage {Lg = 0, Lb = 0) und mit einfacher Bad- und Klichenausstattung (B = 0, K = 0) ergibt sich die "Basismiete" NMB « exp(/3o) exp{0iW) = a^ exp(/?iW^). Fiir Wohnungen in guter Lage {Lg = 1, Lb = 0) mit gehobener Bad- und Klichenausstattung ( 5 = 1, K = 1) ergibt sich ein multiplikativer Zuschlag: NM = exp(/3o) exp(^iW^) exp(/32) exp(/34) exp(/?5), d.h. NM = NMBOL2a^ar, mit den Faktoren ^2 = exp(/32),
^4 = exp(/34),
as = exp(/35) •
Die KQ-Schatzung fiir die Daten aus der Stichprobe Hefert folgende Schatzwerte Pj, geschatzte Standardabweichungen (JJ, t-Werte Tj und zugehorige p-Werte:
12. Regressionsanalyse
502
1
w Lg Lb B K
Pj 5.5640 0.0115 0.0841 0.1472 -0.0264 0.0879
Gj
0.0561 0.0008 0.0340 0.0870 0.0710 0.0453
t-Wert 99.23 14.76 2.47 1.69 -0.37 1.94
p-Wert 0.00 0.00 0.01 0.09 0.71 0.05
Der t- und p-Wert zum Regressor B zeigt, dass in der betrachteten Teilgesamtheit der Einfluss der Badausstattung auf die Nettomiete nicht signifikant ist. Bei einem vorgegebenem Signifikanzniveau von a = 10 % besitzen alle anderen Regressor en einen signifikanten Einfluss, wahrend fiir a = 5 % auch die beste Wohnlage und die gehobene Kiichenausstattung nicht mehr signifikant sind. Aus inhaltlichen Griinden belassen wir diese Regressoren trotzdem im Ansatz. Das Bestimmungsmafi R^ = 0.62 zeigt einen guten Erklarungswert an. Als F-Wert zum Overall-F-Test erhalt man F = 51.84, hei p = 5 und n — p — l = 161 Freiheitsgraden. Der zugehorige p-Wert von 2.2-10"-^^ zeigt ebenfalls, daB die Regression einen guten Erklarungswert besitzt. Setzt man die geschatzten Regressionskoeffizienten in den Regressionsansatz ein, so erhalt man fiir die durchschnittliche Basismiete NMB « exp(5.564) • exp(0.0115VF) = 260.9 • exp(0.0115W), also zum Beispiel NMB ^ 584 fiir Wohnungen mit einer Wohnflache von 70 qm. Als multiplikative Zuschlage bzw. Abschlage ergeben sich a2 = exp(0.0841) = 1.088 fiir gute Wohnlage, as = exp(0.1472) = 1.159 fiir beste Wohnlage, 0:4 = exp(—0.0264) = 0.974 fiir kein gekacheltes Bad, as = exp(0.0879) = 1.919 fiir gehobene Kiichenausstattung. D
Prognose
Fiir neue Werte XQI, . . . , x o p von Xi,,.. onsansatz zur Prognose von
^Xp kann der geschatzte lineare Regressi-
Yo = (3o + /3ixoi H Prognosewert
h /3pXop + eo
eingesetzt warden. Als Schdtz- oder Prognosewert ^0 = /3o + A ^ o i H
fiir YQ verwendet m a n h ^pX^p .
12.2 Multiple lineare Regression
503
Fiir den Schatzfehler YQ-YQ gilt E{Yo-Yo) = 0. Die Varianz Var{Yo-YQ) des Fehlers lafit sich mit den Ergebnissen der KQ-Methode numerisch schatzen. Wir bezeichnen sie mit aY, =
^Jvm^{Yo-Yo).
Eine explizite Formel findet sich im nachsten Abschnitt. Unter der Normalverteilungsannahme ist der standardisierte Schatzfehler tverteilt: Yo-Yo t{n-p-l). ^Yo Somit erhalt man (1 — a)-Prognoseintervall fiir I Q gegeben XQ yO±^yo^l-a/2(^-p-l) Graphische Verfahren zur Modelldiagnose basieren wiederum auf den Residuen. Ubliche Residualdiagramme sind etwa: Haufigkeitsverteilungen der Residuen, Normal-Quantil-Plots und Streudiagramme der Residuen gegen die gefitteten Werte oder gegen einzelne Regressoren. Mietspiegel
Beispiel 12.8
Das Streudiagramm der Residuen gegen die gefitteten Werte in Abbildung 12.7 zeigt, von wenigen Ausreifiern abgesehen, keine besonderen Auffalligkeiten. Der Normal-Quantil-Plot fiir die Residuen zeigt gewisse Abweichungen von der Normalverteilung am unteren Rand (Abbildung 12.8). Ansonsten lassen sich keine eklatanten Verletzungen von Modellannahmen erkennen. In Abschnitt *12.4 wird noch zusatzlich untersucht, inwieweit die Annahme des linearen Einflusses der Wohnflache auf die logarithmierte Nettomiete berechtigt ist. D
^12.2.3
Multiple lineare Regression in Matrixnotation
Wir fassen die Zielvariablen Yi und die Werte x ^ i , . . . ,Xip, i = 1,. (n X l)-Vektor Y und in einer {n x {p+ 1))-Matrix X zusammen:
( 1 ^11 Y =
Y2
Xip X2p
x= V 1 ^n\
X>
up
\
, n, m emem
12. Regressionsanalyse
504
—I—
6.5
6.0
7.0
gefittete Werte
ABBILDUNG 12.7: Streudiagramm: Residuen gegen gefittete Werte
r - 2 - 1
0
1
2
Quantile der Standardnormalverteilung
ABBILDUNG
12.8: Normal-Quantil-Plot
Die Matrix X enthalt zusatzlich in der ersten Spalte die Werte der kiinstlichen Variable Xo = 1, die restlichen Spalten enthalten die Werte zu den Variablen Xi^... ,Xp. Bis auf die erste Spalte der X-Matrix entspricht dies auch der Art, wie Datenmatrizen am Rechner gespeichert werden. Zusatzlich definieren wir den {p x l)-Vektor /3
12.2
505
Multiple lineare Regression
der RegressionskoefRzienten und den (n x l)-Vektor e der Fehlervariablen:
Pi
I
/3 =
€2
€ =
V en /
\ ^ p /
Das Grundmodell der multiplen linearen Regression lafit sich dann in Matrixnotation kompakt durch Y - X/3 + e, E{e) = 0 formulieren. Das KQ-Prinzip wird zu (Y-X/3y(Y-X/3)-^imn, wobei A die Transponierte einer Matrix oder eines Vektors A bezeichnet. NuUsetzen der ersten Ableitung nach fi liefert das (p + l)-dimensionale System der "Normalgleichungen" X ' ( Y - X ^ ) = 0 4:^ X ' X ^ = X ' Y . Unter den im vorigen Abschnitt getroffenen Annahmen ist die (p+l)x{p+l) X X invertierbar, so dafi sich
Matrix
^ = (X'X)-^X'Y als KQ-Schatzer ergibt. Bezeichnen wir die Diagonalelemente von (X X)~^ mit Vj^ j = 0 , . . . ,p, so lafit sich zeigen, dafi
Var0j) = a \ gilt. Ersetzt man cr^ durch die Schatzung a^, so erhalt man die im vorigen Abschnitt eingefiihrte geschatzte Standardabweichung aj als aj = a ^ . Zur Berechnung von /3, Vj und damit von aj benotigt man also die Inverse (X X)~^ von X X. Diese Inversion ist im allgemeinen nur mit numerischen Algorithmen in efSzienter Weise mitt els eines Computers durchfiihrbar. Auch zur Berechnung der Varianz des Prognosefehlers YQ — YQ benotigt man (X X)~-^. Es lafit sich namhch Var{Yo - %) = a\l
+ Xo(X'X)-ixo)
506
12. Regressionsanalyse
zeigen. Dabei enthalt XQ = (1, x o i , . . . , xop) die Werte der Regressoren. Setzt man fiir a'^ die Schatzung a^ ein, erhalt man die fiir das (1 — a)-Prognoseintervall benotigte geschatzte Standardabweichung als ayo = a ( l + x;(X'X)-ixo)i/2 Auch hierzu mu6 die Inverse (X X)~^ von X X bekannt bzw. durch einen Computer berechnet sein.
12.3
Binare Regression
In den bisher behandelten Regressionsmodellen wurde die Zielvariable Y immer als metrisch skaliert vorausgesetzt. Ein in der Praxis ebenso haufig auftretender Fall ist der einer kategorialen Zielvariable. Bei der Analyse von Haushalten ist beispielsweise von Interesse, welche Variablen einen Einflui5 darauf ausiiben, ob im Haushalt ein Auto vorhanden ist bzw. ein Rechner, ein ISDN-Anschlui3 oder ein anderer Konsumartikel. In Marketingstudien interessiert man sich fiir Produktpraferenzen, in soziologischen Studien fiir Parteipraferenzen. Im Kreditscoring ist die binare abhangige Variable die Kreditwiirdigkeit (ja/nein) des potentiellen Kunden. Im folgenden wird nur der einfachste Fall einer binaren Zielvariable betrachtet. Zu gegebenen Regressoren Xii,..., Xip wird die binare Zielvariable Yi € {0,1} betrachtet, wobei 1 beispielsweise fiir das Vorhandensein eines Automobils im Haushalt, 0 fiir das Nichtvorhandensein steht. Die Zielvariable Yi ist eine Bernoulli variable, wobei m = P{Yi = 1),
l-7ri = P{Yi = 0).
(12.1)
Die Auftretenswahrscheinlichkeit TT^ hangt natiirUch von den beobachteten Regressorwerten a^a,..., xip ab. Das lineare Regressionsmodell Yi = f3o + (5iXii + • • • + l3pXip + Si
(12.2)
mit einer Storgrofie Si mit E{ei) = Q wiirde fordern, dafi gilt E{Yi) = 7ri = Po + f3ixii + • • • + PpXip .
Logistische Regression
(12.3)
Problematisch ist hier insbesondere, dafi TT^ als Wahrscheinlichkeit immer die Restriktion TT^ G [0,1] erfiillen mufi, so dafi der Giiltigkeitsbereich, d.h. die Werte, die die Regressoren annehmen diirfen, erheblich eingeschrankt ist. Ein einfaches Modell, das derartigen Restriktionen nicht unterliegt, ist das logistische Regressionmodell, ^as fordert TT- = exp(/3o + XjiPi + '" + XjpPp) 1 + exp(/?o + Xiipi H h Xip/3p) '
12.3
507
Bin a re Regression
Mit der logistischen Funktion h{z) = exp{z)/[l + exp{z)) erhalt man die einfache Form TTi = h{f3o + Xiif3i + '" + Xipf3p). (12.5) Der Erwartungswert von Yi^ d.h. die Wahrscheinlichkeit TT^, hangt nun nicht direkt linear von den Regressoren ab, sondern erst nach Transformation durch die Responsefunktion h. Die Form der logistischen Funktion ist aus der Anwendung in Abb. 12.9 ersichtlich. Eine einfache Umformung zeigt, dafi das Modell auch darstellbar ist in der Form TTi (12.6) log = /3o + Xii/3i H h XipPp, l - T T i
wobei TTi/{I — TTi) die Chancen ("odds") und log(7ri/(l — TT^)) die logarithmischen Chancen ("Logits") darstellen. Zu Chancen und relativen Chancen in der Datendeskription siehe Abschnitt 3.2.1 (S. 119). Aus der letzten Form lassen sich die Parameter einfach interpretieren, jSj ist diejenige Veranderung in Logits, die bei Zunahme von Xj um eine Einheit (von Xij nach x^j.+ 1) bei festgehaltenen restlichen Kovariablen auftritt. Wie im linearen Regressionsmodell lafit sich untersuchen, ob die Kovariablen einen Einfiufi auf die Zielvariable ausiiben. Als globale Hypothese untersucht man HQ: PI = "' = l3p = 0 bzw., bezogen auf den Regressor Xj^ die NuUhypothese Ho: Pj=0,
00
c
o CD O
D
••ca
X 0
>
"o^
o d 1000
2000
3000
4000
Nettoeinkommen
ABBILDUNG 12.9: Pkw-Besitz in Abhangigkeit vom Einkommen.
12. Regressionsanalyse
508
Beispiel 12.9
Pkw im Haushalt
Eine Teilstichprobe des soziookonomischen Panels vom Umfang n = 6071 gibt Auskunft iiber das Haushaltseinkommen {x) und ob ein Pkw vorhanden ist {y = l) oder nicht {y = 0). Als Schatzwert im Modell exp(/?o + x^/3) ^2 TTi = 1 + exp(/3o + Xif3) ergeben sich /3o = —1.851, /? = —0.0021. Abbildung 12.9 zeigt die geschatzte Wahrscheinlichkeit TT^ ftir den Pkw-Besitz in Abhangigkeit vom Nettoeinkommen (in € ) . Zusatzlich sind die relativen Haufigkeiten fiir den Pkw-Besitz, bezogen auf Einkommensintervalle der Lange 25 € , angegeben. Man sieht bereits aus diesen relativen Haufigkeiten die Tendenz zu einer mit dem Einkommen wachsenden Wahrscheinlichkeit, daB ein Pkw im Haushalt vorhanden ist. Die durchgezogene Linie entspricht den Schatzungen des logistischen Regressionsmodells. D Das logistische Modell ist nur eines der moglichen Modelle fiir binare Zielvariable. Fiir eine ausfiihrliche Darstellung, insbesondere auch des Falles mehrkategorialer Zielvariable, siehe Tutz (2000). Die Modelle lassen sich in eine allgemeinere Modellklasse einbetten, die sog. generalisierten linearen Modelle^ die zwar einen linearen Term enthalten, aber noch eine Transformation zwischen linearem Term und zu erwartender Zielgrofie zulassen. In dieser Modellklasse lassen sich u.a. auch poissonverteilte Zielgrofien fiir Zahldaten betrachten. Fiir eine ausfiihrliche Darstellung siehe Fahrmeir und Tutz (2001).
'''12.4
Nichtlineare und nichtparametrische Regression
Nichtlineare parametrische Regression
linear in den Parametem
Charakteristisch fiir lineare Regressionsmodelle ist die Additivitat und Linearitat der systematischen Komponente /3o + /5i^i + • • • + l3pXp. Dabei konnen zwar die Regressoren auch durch geeignete nichtlineare Transformationen aus urspriinglich erhobenen Variablen gebildet worden sein, entscheidend ist jedoch, dafi der Ansatz linear in den Parametem ^Q^. . .^(3^ ist. Bereits in Abschnitt *3.6.4 wurde auf einfache Regressionsansatze hingewiesen, die auch in den P a r a m e t e m nichthnear sind. Ein Beispiel ist etwa die nichtlineare Beziehung Yi=^6Q + 6i exp{-62Xi)
+ e^,
i = 1,..., n .
Sie entspricht der Regel vom abnehmenden Grenznutzen: Hier konnten Xi die Kosten fiir Produktion und Werbung eines Produkts und Yi der jeweils erzielte Ertrag sein. Mit steigenden x^-Werten nahert sich fiir ^2 > 0 die Kurve exponentiell flacher werdend der Sattigungsgrenze ^o-
^12.4
Nichtlineare und nichtparametrische Regression
509
Allgemein spricht man von nichtlinearer parametrischer Regression, wenn ein Modell folgender Form vorliegt: Yi = g{xii,...,
Xip] <9o,..., Oq) + ei,
E{ei) = 0 ,
i = 1,..., n.
Dabei soil Y weiterhin eine metrische Zielvariable sein, und g{'^ •) ist eine in den Parametern 6Q^ ... ^9q nichtlineare Regressionsfunktion. Dabei ist die funktionale Form von g bekannt; unbekannt sind nur die Parameter. Erfiillen die Fehler e^ die gleichen Annahmen wie im Standardmodell der linearen Regression, so konnen sie ebenfalls nach dem gewohnlichen KQ-Prinzip geschatzt werden: Die Schatzer 9o^... ,6q sind Losungen des Minimierungsproblems n
y ' ( l i - g{xii,...,
Xip] 6>o,..., Oq)f -^ min .
f—•
do,...,6q
2=1
Zur numerischen Berechnung sind meist iterative Minimierungsalgorithmen notwendig. Zusatzlich konnen mit 6Q^, .. ^6q auch Schatzungen (JQ, . . . , o-^ der Varianzen Varipo)^..., Var{9q) bestimmt werden. Fiir grofie Stichproben sind die Schatzer approximativ erwartungstreu und normalverteilt, d.h.
Damit konnen dann (approximative) Konfidenzintervalle und Tests in Analogie zur multiplen linearen Regression konstruiert werden. Nichtparametrische Regression In vielen Anwendungen ist man nicht von vornherein in der Lage, eine parametrische Spezifikation der Regressionskurve g anzugeben. Dann empfehlen sich nichtparametrische Regressionsmethoden, die ohne die oft strengen Strukturannahmen parametrischer Modelle auskommen. Sie konnen, ahnlich wie nichtparametrische Dichteschatzer, auch zur explorativen Analyse benutzt werden, um die Adaquatheit einer parametrischen linearen oder nichtlinearen Regressionsfunktion zu iiberpriifen oder iiberhaupt erst einen geeigneten Funktionstyp zu finden. Wir betrachten zunachst den Fall bivariater Daten (yi,Xi),i = 1 , . . . ,n, wobei sowohl die Zielvariable Y als auch der Regressor X stetige Variablen sind. In Erweiterung des Grundmodells der linearen Einfachregression soil nun Yi = g{xi) + ei,
E{€i) = 0,
i = l,...,n,
gelten. Dabei wird von der Regressionsfunktion g{x) nur verlangt, dafi sie hinreichend glatt, d.h. zum Beispiel stetig und differenzierbar ist. Fiir die Fehlervariablen
510
12. Regressionsanalyse
Ei werden die gleichen Annahmen wie im linearen Standardmodell oder geeignete Modifikationen unterstellt. Das Ziel der nichtparametrischen Regression besteht in der Schatzung der Funktion g. Dazu existieren verschiedene Ansatze. A m bekanntesten sind Kernschatzer, Spline-Regression und lokale Regressionsschatzer. Alle zugehorigen Schatzverfahren sind numerisch aufwendig und werden hier nicht im Detail beschrieben. Sie sind jedoch in einer Reihe von statistischen Programmpaketen implementiert. Kernschdtzer
Kernschdtzer gehen von der Vorstellung der Regressionsfunktion als bedingtem Erwartungswert von Y gegeben X = x aus, d.h.
g{x) = E{Y\x) = J yf{y\x) dy = ^^^f^^^'^'' , wobei f{y\x) = / ( x , y)/f{x) die bedingte Dichte von Y gegeben X = x ist (vgl. Kapitel 6). Schatzt m a n f{x^y) und f{x) mittels der Daten durch Kerndichteschatzer, so erhalt man einen Kernschatzer g{x) fiir g{x). SplineRegression
RegressionsSplines GldttungsSplines lokale Regression
Beispiel 12.10
Bei der sogenannten Spline-Regression wird der Bereich der x-Werte durch ein feines Gitter unterteilt. In jedem der so entstehenden aneinandergrenzenden Intervalle wird g{x) durch ein Polynom niedrigen Grades, oft ein kubisches Polynom, approximiert. Diese stiickweisen Polynome werden an den Gitterpunkten oder "Knoten" stetig und differenzierbar aneinandergesetzt. Genauer unterscheidet man noch zwischen Regressions-Splines bei denen Gitterpunkte vorgegeben werden, und Gldttungs-Splines^ bei denen die Knoten gleich den gegebenen, geordneten a;-Werten ^(1) ^ ^(2) ^ • • • ^ ^(n) gewahlt werden. Bei Verfahren der lokalen Regression wird zu jedem (festen) x-Wert ein "Fenster" ahnlich wie bei der Kerndichteschatzung u m x gelegt und an die Daten (j/i, Xi) mit x^-Werten aus diesem Fenster eine parametrische Regressionsfunktion einfacher Struktur, insbesondere zum Beispiel eine lokale lineare Regression a(x) + $(x)x^ angepafit. Durchlauft x den Wertebereich von X , so erhalt m a n eine Schatzung g(x) fiir g{x). Mietspiegel
Bislang wurde fiir die Mietspiegel-Regression mit Y = "Nettomiete" und X = "Wohnflache" eine lineare Regressionsfunktion in Form einer Ausgleichsgeraden geschatzt (vgl. Abbildung 3,17). Fiir die gleichen Daten ist in Abbildung 12.10 eine nichtparametrische Schatzung mittels einer Spline-Regression durchgefiihrt. Man erkennt, dafi in einem weiten Bereich von Wohnflachen die Approximation durch eine lineare Regressionsfunktion durchaus adaquat ist. Erst fiir grofiere Wohnflachen wird eine leichte Kriimmung erkennbar. Dabei ist allerdings zu beachten, daC die Schatzung in diesem Bereich von vergleichsweise wenigen Daten abhangt. D
^12.4
Nichtlineare und nichtparametrische Regression
S *
511
o 2-1
I 50
I 100
I 150
Wohnflache ABBILDUNG 12.10: Nichtparametrische Regression von Nettomiete gegen Wohnflache
Fiir eine multiple nichtparametrische Regression mit Regressoren X i , . . . ^Xp und Beobachtungen yi, a^^,..., xip^ i = 1 , . . . , n, ist die zu Yi = g{xi) + e^ analoge Form
multiple nichtparametrische Regression
wobei nun ^ ( x i , . . . ,Xp) eine "glatte" Regressionsoberflache ist. Fiir eine geringe Anzahl von Regressoren (p = 2,3) sind multivariate Versionen der eben skizzierten nichtparametrischen Schatzer gelegentlich noch einsetzbar. Fiir groiSere Werte von p treten ernsthafte Dimensionsprobleme auf. Es ist dann sinnvoU, speziell strukturierte Regressionsfunktionen zu unterstellen. Einen in vielen Fallen brauchbaren KompromiiS stellen additive Modelle dar. Im additive Modelle Vergleich zum linearen Modell Y = (3^ + f3ixi H (- f3pXp + e werden die linearen Funktionen (3jXj ganz oder zum Teil durch glatte, nichtparametrisch modellierte und geschatzte Funktionen gj(xj) ersetzt: y = 5^1(^1) + • • • + 9p{xp) + e
oder zum Beispiel Y = 9i{xi)
+ /32X2 H
h ^pXp + 6.
Der letzte Ansatz heifit auch semiparametrisch und ist vor allem dann sinnvoll, wenn die Regressoren X 2 , . . . , Xp geeignet kodierte binare oder mehrkategoriale Variablen sind.
semiparametrisch
12. Regressionsanalyse
512
Beispiel 12.11
Mietspiegel
In Beispiel 12.7 (Seite 501) wurde ein multipler linearer Regressionsansatz ftir die logarithmierte Nettomiete In NM gewahlt, so dafi der Einflufi der Wohnflache W als linear angenommen wurde. Ersetzt man die lineare Funktion l3o-\- piW durch eine glatte Funktion gi{W), so erhalt man einen semiparametrischen Ansatz fiir y = In NM.
B
ABBILDUNG
lo
Wohnflache 12.11: Nichtparametrische Schatzung des Einflusses der Wohn-
flache
Abbildung 12.11 zeigt die mit einer Spline-Regression nichtparametrisch geschatzte Funktion gi{W). Man erkennt, dai3 ein linearer Ansatz PQ + ^iW fiir den Einflufi von W zumindest fiir Wohnflachen bis zu 100 qm eine gute Approximation ist. D
12.5
12.5
Zusammenfassung und Bemerkungen
513
Zusammenfassung und Bemerkungen
Die einfache und besonders die multiple Regressionsanalyse zahlen zu den bekanntesten und am meisten eingesetzten Verfahren der statistischen Praxis. In diesem Kapitel wurden vor allem die zugehorigen Schdtzprobleme und Testprobleme sowie die Prognose behandelt. Die Adaquatheit der dabei eingesetzten Methoden beruht ganz wesentlich darauf, inwieweit die Annahmen fiir das lineare Regressionsmodell auch tatsachlich zutreffen. Eine Grundannahme ist, dafi die Zielvariable Y metrisch ist. Zudem arbeiten die Inferenztechniken dann gut, wenn Y zumindest approximativ normalverteilt ist. Dies lafit sich unter Umstanden durch eine geeignete Datentransformation erreichen. Die anderen entscheidenden Annahmen sind: Y lafit sich durch eine systematische Komponente und einem additiven Fehler erklaren. Fiir die systematische Komponente wird angenommen, dafi sie sich als Linearkombination der Regressoren X i , . . . ,Xp schreiben lafit. Von den Fehlervariablen wird im Standardmodell gefordert, dafi sie unabhdngig und homoskedastisch sind. Zudem ist es giinstig, wenn sie approximativ normalverteilt sind. Methoden der Modelldiagnose dienen dazu, Verletzungen dieser Annahmen zu iiberpriifen. Wir sind hier nur kurz auf graphisch-explorative Moglichkeiten der Residualanalyse eingegangen. Ein fiir die Praxis eminent wichtiges Problem der Modellwahl ist die Variablenselektion^ d.h. die Auswahl wichtiger und aussagekraftiger Variablen aus einem oft umfangreichen Katalog von potentiellen Einflufigrofien. Statistische Programmpakete bieten dazu auch automatische datengesteuerte Methoden an. Fiir ausfiihrliche Darstellungen zu diesen Fragestellungen, aber auch fiir das lineare Regressionsmodell im allgemeinen, sei auf Kramer und Sonnberger (1986), Toutenburg (1992) und Fahrmeir, Hamerle und Tutz (1996, Kap. 4) verwiesen, sowie auf Lehrbiicher der Okonometrie, z.B. Schneeweifi (1990) und Judge, Griffiths, Hill, Liitkepohl und Lee (1985). Falls die Annahme der Linearitat der systematischen Komponente nicht gegeben sind, wird man auf die nichtlineare und nichtparavfietrische Regression^ welche in Abschnitt *12.4 kurz erwahnt sind, zuriickgreifen. Als weiterfiihrende Literatur hierzu seien Seber und Wild (1989), nichthneare Regression, Hardle (1992), Hardle (1991), Hastie und Tibshirani (1990) und Green und Silverman (1994) sowie die zusammenfassende Darstellung in Fahrmeir, Hamerle und Tutz (1996, Kap. 4), genannt. In manchen Anwendungen ist die Grundannahme einer metrischen Zielvariable Y eklatant verletzt. Ein Paradebeispiel hierfiir ist der Fall einer bindren oder kategorialen Zielvariable Y. So lafit sich beispielsweise die Fragestellung des KreditScoring, Beispiel 1.4 (Seite 5), als Regressionsproblem mit der binaren Zielvariablen Y = "Kreditwiirdigkeit", wobei y = 1 fiir nicht kreditwiirdig, y = 0 fiir kreditwiirdig steht, und den in Beispiel 1.4 genannten Merkmalen als Einflufigrofien auffassen. Statt der herkommlichen Regressionsanalysen bietet sich dafiir die sogenannte kate-
12. Regressionsanalyse
514
goriale Regression gression.
an. Bekannte Vertreter sind die sogenannte Probit- und Logitre-
Eine weitere Problemstellung, die mit der herkommlichen linearen Regression meist nur unzureichend behandelt werden kann, ist die Analyse von Lehens-^ Verweiloder anderen Zeitdauern in Abhangigkeit von EinfluiSfaktoren. Beispiele hierfiir sind die Lebens- oder Uberlebenszeiten in medizinischen Studien, die Dauer der Arbeitslosigkeit, der Zeitraum zwischen der Markteinfiihrung eines P r o d u k t s und dem Kauf durch die Konsumenten, die Perioden, in denen ein technisches Gerat storungsfrei arbeitet, die Verweildauer in einem bestimmten Berufsstatus, etc. Darstellungen der kategorialen Regression und der umfassenderen Klasse generalisierter linearer Modelle sowie von Regressionsmodellen fiir Lebens- und Verweildauern finden sich bei Fahrmeir, Hamerle und Tutz (1996, K a p . 5,6) und der dort angegebenen Literatur.
12.6
Aufgaben
Aufgabe 12.1
In Beispiel 3.27 (Seite 155) wurde ein lineares Regressionsmodell besprochen, das den Einflufi der taglichen Fernsehzeit auf das Schlafverhalten von Kindern untersucht. (a) Testen Sie unter Normalverteilungsannahme, ob die vor dem Fernseher verbrachte Zeit einen signifikanten EinfluB auf die Dauer des Tiefschlafs ausiibt (a = 0.05). Warum ist die Normalverteilungsannahme hier problematisch? (b)Ein weiteres Kind sah tagsiiber 1.5 h fern. Wie lange wird gemaB der angepaBten Regression sein Tiefschlaf erwartungsgemafi dauern? Geben Sie zu Ihrer Prognose auch ein 95 %-Konfidenzintervall an.
Aufgabe 12.2
Fiir 64 nach 1984 gebaute Wohnungen aus der Miinchner Stichprobe wurde analog zu Beispiel 12.7 (Seite 501) die logarithmierte Nettomiete in Abhangigkeit von der Wohnflache (W), der Lage {Lg und Le), sowie der Bad ( 5 ) - und Kiichenausstattung {K) durch eine multiple lineare Regression modeUiert. Die KQ-Schatzung ergibt die folgenden Werte fiir die Regressoren und die geschatzten Standardabweichungen:
1
w Lg Le B K
k
5.8418 0.0126 0.1807 -0.3380 0.2629 0.1079
^i
0.2045 0.0022 0.0959 0.1794 0.1240 0.0900
12.6 Aufgaben
515
(a) Welche Nettomiete wiirden Sie gemafi diesem Modell fiir eine 80 qm groBe Wohnung in einer normalen Wohnlage mit einer gehobenen Bad- und Kiichenausstattung prognostizieren? (b) Bestimmen Sie die zu den Schatzungen gehorigen t- und p-Werte und interpretieren Sie Ihr Ergebnis. (c) Das Bestimmheitsmafi betragt hier i?^ = 0.4229. Tragen die Regressoren iiberhaupt zur Erklarung der Nettomiete bei? Fiihren Sie einen Overall-F-Test zum Niveau a = 0.01 durch. An einer Mefistation in Miinchen wurden an 14 Tagen neben anderen Luftschadstoffen auch die Schwefeldioxidkonzentrationen gemessen und Tagesmittelwerte gebildet. Untersuchen Sie den Einflui3 der Tagesdurchschnittstemperatur in Grad Celsius (= Xi) auf die aus Symmetriegriinden logarithmierten S02-Konzentrationen (=Y). Liegt ein Wochenendeffekt vor? Die Variable X2 gibt an, ob an einem Samstag oder Sonntag gemessen wurde {X2 = 1) oder nicht (X2 = 0). Esgilt: y -3.147 -2.830 -3.016 -3.079 - 3 . 5 4 1 -2.976 -2.781 -3.352 -2.765 - 1 . 8 9 7 -2.120 - 2 . 4 5 3 - 1 . 9 7 3 - 2 . 2 3 5 16.47 16.02 16.81 22.87 21.68 21.23 20.55 18.32 15.96 15.36 12.47 12.46 11.77 11.72 0 0 0 1 1 0 0 0 0 0 1 1 0 0 X2 XI
/
(X'X)-i =
1.5488742 -0.0882330 \ -0.0162669
XV =
V
-0.0882330 -0.0162669 \ 0.0053732 -0.0050992 -0.0050992 0.3548391 /
-38.16486 \ -656.46618 -11.19324 /
(a) Schatzen Sie die Regressionskoeffizienten im zugehorigen multiplen linearen Modell und kommentieren Sie Ihr Ergebnis. (b) Als Bestimmheitsmafi erhalt man i?^ = 0.5781. Tragen die Regressoren Iiberhaupt zur Erklarung der S02-Konzentration bei? Fiihren Sie einen Overall-F-Test zum Niveau a = 0.01 durch. (c) Die geschatzten Standardabweichungen betragen ai = 0.0267 und &2 = 0.2169. Testen Sie die Hypothesen /3i = 0 fiir 2 = 1,2 zum Niveau a = 0.05. Entfernen Sie die Kovariable, die offenbar keinen Einflufi hat, aus dem Modell und fiihren Sie eine lineare Einfachregression durch.
Aufgabe 12.3
13 Varianzanalyse
Einige der statistischen Testverfahren, die wir bislang kennengelernt haben, behandeln den Vergleich von Gruppen. Als ein Beispiel sei hier der t-Test genannt, mit dem unter der Annahme normalverteilter Merkmale zwei unabhangige Stichproben miteinander verglichen werden. Dabei iiberpruft man, ob sich die beiden Zufallsvariablen hinsichtlich ihrer Erwartungswerte unterscheiden. Eine Verallgemeinerung dieser Situation auf den Vergleich mehrerer Gruppen fiir ein kategoriales Merkmal liefert der Homogenitatstest, der iiberpruft, ob dieses Merkmal in alien Gruppen dieselbe Verteilung besitzt. Betrachten wir nun das folgende fiktive Beispiel: Bildung gleich Manipulation? In einer Studie im Bereich der Erziehungswissenschaften mit dem provozierenden Titel "Bildung gleich Manipulation" soil u.a. untersucht werden, wie stark Jugendliche durch einseitiges Informationsmaterial in ihren Einstellungen beeinflufit werden. Konkret wurde ein Fragebogen entwickelt, mit dem die Einstellung von Jugendlichen zur Nutzung von Atomkraft zur Energiegewinnung gemessen werden kann. Um nun in Erfahrung zu bringen, inwieweit eine Beeinflussung durch einseitiges Informationsmaterial moglich ist, wurde eine zufallig ausgewahlte Gruppe von Jugendlichen zufallig in drei Untergruppen aufgeteilt. Die Jugendlichen in den drei Untergruppen wurden anschliefiend mit unterschiedlicher Zielrichtung iiber Atomkraft informiert: Der "Pro-Gruppe" wurde ein Film gezeigt, in dem die Nutzung von Atomkraft klar befiirwortet wird und in dem die Vorteile der Nutzung dieser Energie ausfiihrlich dargestellt werden. Die "Kontra-Gruppe"sah einen Film, der im Gegensatz dazu die Risiken der Atomkraft in den Vordergrund stellt. Die dritte Gruppe diente als "KontroUgruppe". Der entsprechende Film informierte sachlich sowohl iiber Vor- als auch iiber Nachteile der Nutzung von Atomkraft. Nachdem die Jugendlichen den jeweiligen Film gesehen haben, wurde ihre Einstellung zur Atomkraft iiber den Fragebogen erfafit. Die verschiedenen Items des Fragebogens wurden dann in einem sogenannten Score zusammengefafit. Aufgrund dieses so gebildeten einzelnen Werts wurde die Einstellung jedes einzelnen JugendUchen schUefilich beurteilt. Die Frage ist nun, ob sich die mittleren Scores in den drei Gruppen unterscheiden und ob man daraus
Beispiel 13.1
518
13. Varianzanalyse
schlieBen kann, dafi der Inhalt des Informationsmaterials Einflufi auf die Einstellung von Jugendlichen hat. D
Faktor Faktorstufen
Zur Beantwortung der in dem Beispiel beschriebenen Pragestellung ist der Vergleich von drei Gruppen erforderlich, da der potentielle Einflu6/aA;tor "Informationsmaterial" auf drei Faktorstufen untersucht wurde. Die interessierende Zielgrofie ist die Einstellung der Jugendlichen. Diese kann je nach Konstruktion als metrische Variable angesehen werden. In vielen Fallen werden solche Scores auch derart konstruiert, dafi fiir diese die Normalverteilungsannahme gerechtfertigt ist. Gehen wir nun davon aus, dafi die gemessene Zielgrofie metrisch ist, so bedeutet diese Pragestellung eine Verallgemeinerung der eingangs beschriebenen Situationen in zwei Richtungen. Zum einen mufi der zur Uberpriifung des damit verbundenen Testproblems eingesetzte Test den Zweistichproben-t-Test auf mehr als zwei unabhangige Stichproben verallgemeinern. Zum anderen mufi die Situation des Mehrgruppenvergleiches einer kategorialen Variable auf den Fall einer metrischen erweitert werden.
Die statistische Methode, die diese Verallgemeinerung leistet, ist die sogenannte Varianzanalyse, Anhand dieser Methode ist es moglich, Unterschiede in den ErwarVarianzanalyse tungswerten einer normalverteilten Zufallsvariable in mehreren Gruppen zu beurteilen. Dabei wird ein statistischer Test bereitgestellt, mit dem eine Entscheidung dariiber gefallt werden kann, ob die beobachteten Unterschiede in den Mittelwerten der einzelnen Gruppen ausreichend grofi sind, um davon auf Unterschiede in den zugehorigen Grundgesamtheiten schliefien zu konnen. Der Name dieses statistischen Verfahrens riihrt daher, dafi letztendlich anhand der Priifgrofie getestet wird, ob die Variabilitat zwischen den Gruppen grofier ist als innerhalb der Gruppen. Ware diese Bedingung erfiillt, so lage ein Indiz dafiir vor, dafi Unterschiede zwischen den Gruppen bestehen. Neben dem oben beschriebenen beispielhaften varianzanalytischen Problem gibt es viele andere Fragestellungen, die sich anhand einer geeigneten Varianzanalyse losen lassen.
varianzanalytisches Modell
In der Medizin ist es etwa von Interesse zu erfahren, ob es Unterschiede zwischen verschiedenen Dosierungen eines neuen Medikaments und einem Placebo hinsichthch der Gesundung der Patienten gibt. In der Landwirtschaft, aus der heraus viele statistische Methoden und insbesondere die Varianzanalyse entwickelt wurden, konnte die Frage nach dem Einflufi der Menge eines Diingemittels und der Beschaffenheit des Bodens auf den Ernteertrag interessieren. Der Einflufi der Schichtzugehorigkeit auf das Einkommen kann ebenfalls iiber ein varianzanalytisches Modell erfafit werden. Dabei erfordern die verschiedenen praktischen Probleme natiirlich auch verschiedene Varianzanalysemodelle mit dazugehorigen Prlifgrofien, die sich gerade nach Pragestellung und Versuchsanordnung unterscheiden.
13.1 Einfaktorielle Varianzanalyse
13.1
519
Einfaktorielle Varianzanalyse
Die einfaktorielle Varianzanalyse oder auch Einfachklassifikation ist fiir die in Beispiel 13.1 beschriebene Situation adaquat, in der lediglich ein Faktor und zwar die Methode zur Vermittlung von Wissen auf mehreren Stufen, hier ein Film mit positive! Information zu Kernenergie, ein Film mit negative! und einer mit neutraler Information, betrachtet wird. Von Interesse ist nun der Einflufi dieses Faktors auf die eigentliche metrische Zielgrofie, die in unserem Beispiel gerade durch die Einstellung der Jugendlichen zur Nutzung von Kernenergie gegeben ist. A n h a n d der Varianzanalyse wird untersucht, ob die verschiedenen Stufen hier zunachst eines Faktors statistisch signifikant unterschiedliche Wirkungen auf das interessierende Merkmal tiaben. Aufierdem konnen die Effekte der Faktorstufen quantifiziert werden.
einfaktorielle Varianzanalyse
Bildung gleich Manipulation?
Beispiel 13.2
Konkretisieren wir im folgenden obiges Beispiel. Dazu gehen wir nun davon aus, dafi 24 zufallig ausgewahlte Jugendliche zuerst zufallig in drei Gruppen aufgeteilt wurden. Zehn Jugendliche bildeten die "Pro-Gruppe", acht die "Kontra-Gruppe" und sechs die "KontroUgruppe". Der Score, der anhand eines Fragebogens ermittelt wurde und die Einstellung der Jugendlichen zur Nutzung von Kernenergie wiedergeben soil, nimmt umso hohere Werte an, je positiver der Jugendliche die Nutzung von Atomkraft einschatzt. Per Konstruktion kann dieser Score als normalverteilte GroBe angesehen werden. Die Befragung ergab folgende Scores fiir die Einstellung der Jugendlichen zur Nutzung von Atomkraft.
KontroUgruppe Pro-Gruppe Kontra-Gruppe
8 7 4
Scores 12 7 10 11 12 9 15 13 11 16 5 6 3 8 10
12 8 3 9
13
16
Wie lafit sich nun der EflFekt des filmischen Informationsmaterials auf die Einstellung der Jugendlichen schatzen, und wie kann man beurteilen, ob das jeweilige Informationsmaterial Einflufi auf die Einstellung der Jugendlichen hat? D Dazu benotigen wir zunachst eine allgemeine Notation. Bezeichnen wir die Zielgrofie mit y , so liegen uns also Beobachtungen yij vor, wobei der erste Index angibt, zu welcher Faktorstufe die Beobachtung gehort, und der zweite Index die Nummer der Untersuchungeinheit in dieser Faktorstufe. Die Umfange der einzelnen Gruppen, die sich durch die Faktorstufen ergeben, miissen, wie in Beispiel 13.2, nicht gleich grol3 sein. Die in Beispiel 13.2 angegebene Tabelle lafit sich damit in allgemeiner Notation schreiben als
13. Varianzanalyse
520 Zielgrofie
Faktor
Stufe 1 Stufe 2
2/11
2/12
•••
yini
J/21
2/22
•••
y2n2
: Stufe /
yii
yi2
'"
Vlni
Dabei bezeichnen n i , . . . , n / die Stichprobenumfange in jeder Faktorstufe und / die Anzahl der Faktorstufen. In Beispiel 13.2 ist / = 3, ni = 6, n2 = 10, n^ = 8 und n = J2i=i ^i = 24. AUgemein liegen also auf Faktorstufe i die Merkmalsauspragungen yiU'",yini, i = l , . . . , / , vor. Um nun zu einem varianzanalytischen Modell zu gelangen, mu6 die Zielvariable in Abhangigkeit der auf Stufen erfafiten Einfiufigrofie beschrieben werden. Man unterscheidet dazu zwei Ansatze: Modellformulierung (I)
Im ersten Modellansatz nimmt man an, dafi durch die jeweilige Faktorstufe eine gewisse durchschnittliche Auspragung der Zielgrofie, wie etwa ein mittlerer Einstellungsscore der Jugendlichen gegeniiber der Nutzung von Atomenergie, bedingt wird. AUerdings gibt es natiirlich individuelle Schwankungen um diesen mittleren Wert, denen im Modell Rechnung getragen werden mufi. Daher lafit sich die Zielgrofie Yij als Summe des Erwartungswerts jii von Faktorstufe i und eines Storterms eij fiir die i-te Faktorstufe und die j - t e Untersuchungseinheit darstellen, also Xij — /i-i + €.ij ,
Normalverteilung
1,...,/,
j = l,...,ni
Da wir zudem vorausgesetzt haben, dafi die Zielvariable in den Gruppen normalverteilt ist und sich, wenn iiberhaupt, nur durch ihre Erwartungwerte unterscheidet, konnen wir zudem annehmen, dafi die Storgrofie normalverteilt ist mit
Inhaltlich bedeutet diese Annahme, dafi sich die Storterme im Mittel wieder ausgleichen und dafi die VariabiUtat in alien Gruppen gleich ist. Da wir die Untersuchungseinheiten zufallig auswahlen, konnen wir zusatzlich davon ausgehen, dafi die Yij und damit die eij unabhangig sind, d.h. F n , Yi2^..., Yim bzw. €ii,...,€/n/ sind voneinander unabhangig. Uns interessiert nun die Frage, ob sich die Faktorstufen unterschiedlich auf die Zielgrofie auswirken. Diese Frage formulieren wir auch hier als statistische Alternative in dem entsprechenden statistischen Testproblem, das gegeben ist als i?(0
: / i i = /X2
M/
gegen
Hi : fii ^ fij
fiir mindestens ein Paar (i, j )
13.1
Einfaktorielle Varianzanalyse
521
Die NuUhypothese besagt gerade, dafi zwischen den Gruppen keine Mittelwertsunterschiede vorliegen, wahrend die Alternative formuliert, dafi sich mindestens zwei Gruppen unterscheiden. Modellformulierung ( I I )
Der andere Ansatz zur Modellierung ist voUig aquivalent zu Modell (I). Es wird mit diesem Modell allerdings der Idee Rechnung getragen, dafi, formuliert fiir unser Beispiel, die verschiedenen Filme einen unterschiedlichen Effekt auf die Einstellung haben. Damit versucht Modell (II) die Effekte der Faktorstufen auf den allgemeinen mittleren Wert der Zielgrofie zu beschreiben. Man spricht daher auch bei der Darstellung ^ij =^ /^ + Qfi + €ij ,
Z = 1, . . . , i ,
J ^ 1, . . . , 71^ ,
von dem Modell in Effektdarstellung. Den Parameter fx bezeichnet man als grand mean oder globalen Erwartungswert, d.h. /i = nX^i=i^^/^^' ^^^ ^^ ^^^ Effekt der i-ten Faktorstufe mit ai = fii — fi. Betrachtet man das Modell (I)
Modell in Effektdarstellung grand mean Effekt
und fiigt die Differenz /i — /i hinzu, d.h. Yij = fx + ddi- fi) + eij , so erhalt man direkt das Modell (II) mit ai = /uLi — fi. Zudem sieht man leicht, dafi sich die Effekte im Mittel ausgleichen, d.h. ^ n ^ a i = 0. 2=1
Aufierdem setzen wir wieder voraus, dafi die Storterme e n , . . . , ejm unabhangig und normalverteilt sind mit eij ^ iV(0, cr^). Das in Modell (I) angegebene statistische Testproblem lafit sich nun analog iiber die Effekte formulieren. Haben namlich die Faktorstufen keinen Einflufi, so sind die Effekte alle null. Damit erhalten wir folgendes statistisches Testproblem: HQ : ai = ' " = aj = 0 gegen
Hi : mindestens zwei a^ ^ 0,
d.h. unter HQ gibt es keine unterschiedhchen Effekte auf die Zielgrofie bedingt durch den Faktor. Unter Hi gibt es einen solchen Effekt, wobei bei der Forderung nach mindestens zwei von null verschiedenen ai die Annahme eingeht, dafi sich die Effekte ausgleichen sollen.
522
13. Varianzanalyse
Die oben gegebene Formulierung der Modelle geht von einem varianzanalytischen experimentellen Design aus, bei dem die Beobachtungseinheiten verschiedenen Stufen des Einflufifaktors ausgesetzt werden. Der eher typische Fall bei praktischen Untersuchungen ist jedoch der einer Beobachtungsstudie und nicht eines Experiments, bei der sowohl das interessierende Merkmal als auch der Einflufifaktor gleichzeitig an den statistischen Einheiten beobachtet werden, vgl. Beispiel 13.5 (Seite 529). Die varianzanalytische Modellierung und die Methoden der Varianzanalyse bleiben auch in solchen Situationen anwendbar. Arbeiten wir im folgenden mit Modell (II), so stellt sich nun die Prage, die wir in Beispiel 13.2 schon inhaltlich formuliert haben, namlich, wie fi und die Effekte a^ zu schatzen sind, und wie HQ ZU test en ist. Wenden wir uns zunachst dem Schatzproblem zu. Da der globale Erwartungswert das allgemeine Mittel der Zielgrofie, also zum Beispiel den mittleren Einstellungsscore der Jugendlichen, wiedergibt, liegt es nahe, diesen auch als Mittelwert aus alien Beobachtungen zu schatzen, d.h.
Die Effekte ai beschreiben gerade die durch die Faktorstufe bewirkte Abweichung vom globalen Erwartungswert. Der Erwartungswert der Zielgrofie in jeder Faktorstufe lafit sich nun schatzen durch -J
rii
i = — 2 ^ Yij = Yi., n, . . und wir erhalten somit als Schatzung fiir ai &i = Yi. - Y.., woraus sich die Residuen des Modells berechnen lassen als Abweichung der tatsachlich beobachteten Zielgrofie von dem aufgrund des Modells vorhergesagten Wert, also ^ij = Vij - (A + OLi) = Vij- {y.. + Vi. - y..) = Vij - yi.. Damit sind wir nun in der Lage, die erste Frage in unserem Beispiel zu beantworten. Beispiel 13.3
Bildung gleich Manipulation?
Es wird im folgenden davon ausgegangen, dafi sich die Einstellung der Jugendlichen zur Nutzung von Atomkraft modellieren lafit als J^ij =^ /i' + O^i "T ^ij ,
mitni = 6,
2 = 1,z,o,
712 = 10,
na = 8,
J =
i,...,72^,
n = 24.
13.1
Einfaktorielle Varianzanalyse
523
Dabei beschreibt /x die allgemeine mittlere Einstellung der Jugendlichen zur Nutzung von Atomkraft in der Grundgesamtheit, a^ den durch den jeweiligen Film bedingten Effekt und €ij unter anderem die individuellen Schwankungen. In dem Storterm e^j werden aber auch andere Abweichungen vom Modell, zum Beispiel bedingt durch fehlerhafte Messungen, subsummiert. Fiir die Schatzung von /i und ai benotigen wir die Mittelwerte aus alien Beobachtungen und in den jeweiligen Faktorstufen. Letztere berechnen sich als i m- = 10,
y2- = 12,
^3=6.
Aus diesen kann y.. ermittelt werden als 1 ^ 1 y.. = - y rnyi. = —(6 • 10 + 10 • 12 + 8 • 6) = 9.5 . i—l
Daraus erhalt man als Schatzungen fiir die Effekte di = 10 - 9.5 = 0.5 ,
d2 = 12 - 9.5 = 2.5,
as = 6 - 9.5 = - 3 . 5 .
Aus diesen lafit sich ablesen, dafi ein deutlicher positiver EflFekt von 2.5 auf die Einstellung der Jugendlichen gegenliber der Nutzung von Atomkraft durch den Film hervorgerufen wird, in dem die Nutzung von Atomkraft eindeutig bejaht wird, wahrend in der Kontra-Gruppe ein deutlich negativer Effekt von —3.5 vorliegt. D Die Teststatistik zur Uberpriifung, ob die in der Stichprobe beobachteten Effekte einen Schlufi dariiber zulassen, dafi auch in der Grundgesamtheit ein solcher Effekt des Faktors vorliegt, kann als Verallgemeinerung der Priifgrofie des t-Tests angesehen werden. Diese lautet unter der Annahme, dafi die Varianz in beiden Stichproben gleich ist, X-Y T =
^/sHf^)^
wobei X , Y die Mittelwerte in den beiden unabhangigen Stichproben, n und m die Stichprobenumfange und 5^ = ((n — l)S'^ + (m — l ) 5 y ) / ( n + m — 2) die Stichprobenvarianz bezeichnen (vgl. Abschnitt 11.2, Seite 459 Kasten). Die Grofie 5^ mifit gerade die Variabilitat innerhalb der Gruppen, also wie stark die einzelnen Beobachtungen innerhalb der Gruppen vom jeweiligen Gruppenmittel abweichen. Die Differenz X — Y liefert eine Grofie zur Messung der Unterschiede und damit der Variabilitat zwischen den Gruppen. Damit setzt die Priifgrofie des t-Tests die Variabilitat zwischen den Gruppen in Beziehung zur Variabilitat innerhalb der Gruppen, wobei diese geeignet gemessen werden. Diese Idee lafit sich nun auf den Mehrgruppenvergleich der Varianzanalyse iibertragen. Es sind lediglich geeignete Grofien zur Messung der jeweiligen Variabihtaten zu iiberlegen. Zur Messung der Variabihtat zwischen den Gruppen macht
524
13. Varianzanalyse
es keinen Sinn, alle Gruppenmittel voneinander abzuziehen. AUerdings lafit sich diese Variabilitat gut iiber einen Vergleich der Mittelwerte innerhalb der Faktorstufen mit dem Gesamtmittel erfassen. Sei diese Grofie bezeichnet mit SQE^ die damit berechnet wird als 1=1 j=i
Da die Terme (Yi. —Y..)'^ nicht mehr von j abhangen und jeder dieser Terme genau ni-mal vorkommt, lafit sich SQE auch schreiben als I
SQE =
^ni(Yi.-Y.)\ i=i
Diese Streuung mufi analog zur liblichen Stichprobenvarianz noch durch ihre Freiheitsgrade dividiert werden, die hier / — 1 betragen. Die Streuung innerhalb der Gruppen lafit sich wieder erfassen liber die quadrierten Abweichungen der Beobachtungen in den Gruppen vom jeweiligen Gruppenmittelwert, so dafi man insgesamt die analog zur Regressionsanalyse als SQR bezeichnete Streuung berechnet als
i=i
j=i
Kennt man die Stichprobenvarianzen Sf in den Gruppen bereits, also
SO lafit sich die Berechnung von SQR vereinfachen: /
rii
SQR^'^J^iYij-Yi.)' z=l
j=l
= J](n, - l)Sf . 2=1
Streuungszerlegung
Zur Konstruktion der Priifgrofie mufi auch SQR durch die entsprechenden Freiheitsgrade n — I dividiert werden. Die hier vorgenommene Aufteilung der gesamten Variabilitat in SQR und SQE ist bereits als Streuungszerlegung aus der Regressi-
13.1
525
Einfaktorielle Varianzanalyse
onsanalyse bekannt. Damit erhalten wir insgesamt als Priifgrofie rii
/
^
SQE/{I - 1) SQR/{n-I)
ZEin-Y.f/ii-i) _Si^i ^ ^ Ei:{Yij-Y,)'/{n-I) Li
1=1 7= 1
/
Diese besitzt, wie schon die entsprechende Priifgrofie in der Regressionsanalyse (siehe Kapitel 12), unter der NuUhypothese, dafi keine Effekte bedingt durch den Einflufifaktor vorliegen, eine F-Verteilung mit J — 1 und n — I Preiheitsgraden. Dabei wird die NuUhypothese verworfen, falls die Variabilitat zwischen den Gruppen wesentlich grofier ist als innerhalb der Gruppen, also falls der berechnete Priifgrofienwert das (1 — a)-Quantil der F{I — l , n — /)-Verteilung iiberschreitet. Fiir zwei Gruppen, d.h. / = 2, reduziert sich die F-Statistik auf das Quadrat der t-Statistik. Ebenfalls analog zur Regressionsanalyse ordnet man die zur Berechnung der Priifgrofie notwendigen Ausdriicke in einer Varianzanalysetabelle bzw. kurz ANOVA-Tabelle an:
^^ Streuung
Preiheits, grade
Gruppen (Variabilitat zwischen den Gruppen)
SQE
/ - I
^
Residuen (Variabilitat innerhalb der Gruppen)
SQR
n-I
m . = MQR
Streuungs, ursache
i ^. i quadratischer ^^ , , Fehler
Varianzanalysetabelle
T^ -r ..r> PrurgroCe
= MQE F
=
^
Die Priifgrofie wird nun verwendet, um die zweite in dem Beispiel formulierte Frage zu beantworten und zwar, ob das filmische Informationsmaterial die Einstellung der Jugendhchen beeinflufit. Bildung gleich Manipulation?
Die Frage danach, ob das filmische Informationsmaterial die Einstellung der Jugendlichen beeinflufit, lafit sich als statistisches Testproblem wie folgt formuHeren: iJo ^ Oil = Q;2 = as = 0 gegen Hi : mindestens zwei a^ 7^ 0 .
Beispiel 13.4
526
13. Varianzanalyse
Der entsprechende Test soil zum Niveau a = 0.05 durchgefiihrt werden. Zur Berechnung der Prufgrofie
p^MQE MQR I
mit MQE =
Y,ni'{Yi--Y.f/{I-l) I
und MQR =
Y^{ni-l)S'f/{n-I) n=l
kann man neben diesen Vereinfachungen noch ausnutzen, dafi die Summanden des MQE gerade die quadrierten geschatzten Effekte sind.
Mit s{ = 4.4, 52 = 10.4, 53 = 7.4 und a i = 0.5, a2 = 2.5, 0:3 = —3.5 erhalt man
SQE = ^
UiAf = 6 . 0.5^ + 10 • 2.5^ + 8 • (-3.5)^ = 1.5 + 62.5 + 98 = 162
i=l
3
und
SQR = ^ ( n ^ - 1)5? = 5 • 4.4 + 9 • 10.4 + 7 • 7.4 = 22 + 93.6 + 51.8 = 167.4. i=l
Somit ergeben sich
MQE = ^ = 8 1 ,
MQR=
^^=7.97
und
F ^ ^
= 10.16.
Dieser Priifgrofienwert wird verglichen mit dem 95 %-Quantil einer F-Verteilung mit 2 und 21 Freiheitsgraden, das aus der Tabelle E abgelesen werden kann als 3.4668. Da 10.16 > 3.4668, wird die Nullhypothese verworfen. Es kann zum Niveau a = 0.05 auf einen signifikanten Effekt des filmischen Informationsmaterials auf die Einstellung zur Nutzung der Atomkraft geschlossen werden. D
13.1 Einfaktorielle Varianzanalyse
527
Wir konnen damit zusammenfassen:
Einfaktorielle Varianzanalyse
Modell (I):
Yij=iii + eij, Sij ^ A/'(0,o-^), unabhangig,
Modell (II):
Yij = fi + ai + eij, ^ niai = 0, 2=1
Eij ~ A/'(0, a^), unabhangig,
Die Schatzer fiir // und a^ im Modell (II) sind gegeben als: H
n
I
rii rii
i=l
j=l rii
^
ai = Yi,-Y..
mit
Yi^^ —
Y^Yij,
rii ^
-^
Die Priifgrofie fiir das Testproblem iJo ^ Q^i = • •' = o^/ = 0 gegen
i?i : mindestens zwei
oti^^
ist gegeben als
F =
MQE
En.-(n-y:.)V(/-i) i=lj=l
/
wobei iJo zu verwerfen ist, falls F>Fi_<,(7-l,n-7) Abschliefiend sei noch einmal darauf hingewiesen, dafi dem varianzanalytischen Modell eine Reihe von Modellannahmen zugrunde liegt, die in jedem Einzelfall gepriift oder zumindest kritisch hinterfragt werden mtissen. So geht etwa die Varianzhomogenitdt^ d.h. die Annahme, dafi die Varianzen in den jeweiligen Grundgesamtheiten
Varianzhomogenitdt
528
13. Varianzanalyse
gleich sind, in die Modellierung und die Entwicklung der Priifgrofie ein. Diese Annahme kann zwar ebenfalls anhand eines statistischen Tests liberpruft werden, soUte aber durch substanzwissenschaftliche IJberlegungen untermauert werden. Unabhdngigkeit
Auch die Annahme der Unabhdngigkeit aller Beobachtungen kann verletzt sein, zum Beispiel bei Mefiwiederholungen, d.h. bei wiederholten Messungen derselben Variable an denselben Beobachtungseinheiten. Sie soUte daher in der gegebenen Fragestellung ebenfalls untersucht werden.
Normalverteilungsannahme
Bei einer Verletzung der Normalverteilungsannahme gibt es fiir den Mehrstichprobenfall entsprechende verteilungsfreie Tests wie beispielsweise den KruskalWallis-Test als Verallgemeinerung des Wilcoxon-Rangsummen-Tests.
Als weitergehende Fragestellung ist es natiirlich haufig von Interesse, nicht nur zu erfahren, dafi Unterschiede zwischen den Effekten in den einzelnen Stufen vorliegen, sondern diese genauer zu lokalisieren, d.h. also in Erfahrung zu bringen, welche zwei Gruppen sich jeweils unterscheiden. Dies zieht eine moglicherweise grofie Anzahl Paarvergleichen von Paarvergleichen nach sich, deren Behandlung anhand statistischer Tests zu der bereits in Kapitel 10 angesprochenen multiplen Testproblematik fiihrt. Das oben angegebene varianzanalytische Modell lafit sich erweitern, um den verschiedenen Problemstellungen gerecht zu werden. So konnen zum Beispiel statt der festen Effekte a^ auch diese als zufallig modelliert werden. Es ist zudem moglich, mehr als einen Einflufifaktor in das Modell miteinzubeziehen. Der letzte Punkt ist Thema des nachsten Abschnitts.
13.2
Zweifaktorielle Varianzanalyse mit festen Effekten
Betrachtet man den EinfluiS zweier Faktoren auf eine ZielgroiSe, so stellt sich die Frage, ob diese sich gemeinsam anders auswirken als jede der Variablen einzeln betrachtet. Besonders zur Beantwortung dieser Frage dient die zweifaktorielle Varianzanalyse. Das entsprechende varianzanalytische Modell beriicksichtigt namlich zweifaktorielle Varianzanalyse nicht nur die einzelnen Effekte der jeweiligen Faktoren, sondern auch die Moghchkeit der gegenseitigen Beeinflussung. Eine solche gegenseitige Beeinflussung macht sich dadurch bemerkbar, dai3 sich einer der beiden Faktoren je nach vorhegender Auspragung des anderen Faktors auch verschieden auswirkt. Liegt ein solches Verhalten Wechselwirkung vor, so spricht man von einer Wechselwirkung der Faktoren. Damit interessiert also zunachst die Uberpriifung auf Vorliegen moglicher Wechselwirkungen. Kann davon ausgegangen werden, dafi keine Wechselwirkungen vorhanden sind, besteht die nachste Aufgabe darin zu priifen, ob die beiden Faktoren isohert betrachtet eine Auswirkung auf die Zielgrofie haben. Diese Auswirkungen werden iiber die HauptefHaupteffekt fekte erfafit. Eine Interpretation der Haupteffekte allein macht in der Regel nur Sinn,
13.2
Zweifaktorielle Varianzanalyse mit fasten Effekten
529
wenn keine signifikanten Wechselwirkungen vorliegen. Die Uberpriifung auf Wechselwirkung und auf die Haupteffekte erfolgt wieder mittels F-verteilter Priifgrofien, da sich auch hier eine Wechselwirkung oder entsprechend die Haupteffekte in Mit~ telwertsunterschieden zeigen. Im folgenden gehen wir von einem vollstandigen Versuchsplan aus, d.h. alle Faktorkombinationen werden betrachtet. Die beobachteten Zielgrofienwerte konnen in einer Kontingenztafel zusammengefafit werden. Damit besteht das vorliegende Problem darin, den gleichzeitigen Einflufi eines Faktors A und eines zweiten Faktors B auf eine interessierende Zielgrofie zu erfassen, wobei davon ausgegangen wird, dafi sich A und B gleichzeitig anders auswirken als jeder der Faktoren einzeln betrachtet. So konnte uns etwa der Einflufi des Dtingemittels und der Bodenbeschaffenheit auf den Ernteertrag interessieren oder der Einflufi der Unterrichtsmethode und des Leistungsstands der Schiiler auf den Erfolg in einer Klausur. Diese Problematik wird im folgenden an einem kleinen fiktiven Beispiel veranschaulicht. Beispiel 13.5
Zufriedenheit im Studium
Wir wollen untersuchen, welche Faktoren verantwortlich dafiir sind, dafi Studierende mit ihrem Studium zufrieden sind. Als zwei mogliche Einflufifaktoren betrachten wir ihre Motivation im Studium (Faktor A) auf zwei Stufen: motiviert (^1) und unmotiviert (A2), sowie ihre familiare Situation (Faktor B): mit einem Partner zusammenlebend (Bl) und allein lebend {B2). Es ist anzunehmen, dafi sich die beiden Faktoren gemeinsam anders auswirken als jeder einzelne fiir sich. Die Zufriedenheit der Studierenden wurde iiber einen Score erfafit, der Werte zwischen 0 und 100 annehmen kann, wobei hohe Werte fiir eine grofie Zufriedenheit stehen. Der Score wurde so konstruiert, dafi er als approximativ normalverteilte Zufallsvariable angesehen werden kann. Pro Kombination der beiden Faktoren wurden fiinf Studierende zufaUig ausgewahlt und die folgenden Scores erfafit:
M o t i
motiviert
V
a t i o n
unmotiviert
familiare Situation Partner allein lebend 85 50 89 52 91 65 95 71 80 72 34 30 30 28 28 33 23 16 40 23
13. Varianzanalyse
530
Man sieht bereits an diesen Zahlen, dafi die motivierten Studierenden deutlich zufriedener sind, wobei sich das Zusammenleben mit einem Partner positiv verstarkend auswirkt. D AUgemein lassen sich die Beobachtungen eines solchen zweifaktoriellen Versuchsplans wie in Tabelle 13.1 angegeben erfassen. Faktor B mit Stufen 1 Faktor A
1
1
1 •••
J
J
2/111 2/112
yiiK
mit i
Viji yij2 ViiK
Stufen I TABELLE 13.1: Beobachtungen eines zweifaktoriellen Versuchsplans mit / Stufen von Faktor A, J Stufen von Faktor JB und K Beobachtungen pro Faktorkombination
Dabei liegt Faktor A also auf / Stufen vor und Faktor B auf J Stufen. Zudem gehen wir hier einfachheitshalber davon aus, dafi pro Faktorkombination dieselbe Anzahl K von Beobachtungen vorhanden ist. Es wird auch vorausgesetzt, dafi die Zielgrofie fiir die einzelnen Faktorkombinationen normalverteilt ist und die Varianzen alle gleich sind. Analog zur einfaktoriellen Varianzanalyse konnen wir zwei Ansatze zur Modellierung der Zielgrofie angeben, wobei wiederum das Modell in Effektdarstellung (Modell (II)) das informativere und daher auch das iibhche Modell ist: Modellformulierung (I)
In diesem Modell beschreiben wir die Zielgrofie in Abhangigkeit eines durch die jewelhge Faktorkombination bedingten durchschnittlichen Werts /i^j, der die beobachtete Grofie natiirlich auch hier nicht deterministisch beschreibt, sondern noch liberlagert wird von dem individuellen Storterm eijk. Damit schreibt sich das Modell (I) als iV(0,a2), . .,J ,
/C = 1, .
,K,
13.2
Zweifaktorielle Varianzanalyse mit festen Effekten
531
wobei die €ijk als unabhangig vorausgesetzt werden. Der Parameter fiij ist gerade der Erwartungswert von Yijk in der Faktorkombination (i, j ) . Dieses Modell hat den erheblichen Nachteil, dafi keine differenzierte Analyse hinsichtlich Wechselwirkungen und Haupteffekte moglich ist. Daher greift man im allgemeinen auf das Modell in Effektdarstellung zuriick. Modellformulierung ( I I )
In diesem Modell wird die eingangs beschriebene Uberlagerung des Vorliegens von Haupteffekten und Wechselwirkungen umgesetzt. Im Unterschied zu Modell (I) wird der Erwartungswert //^j, anschaulich formuliert, aufgespalten in einen allgemeinen Mittelwert fi und die durch die Faktoren und ihrer gegenseitigen Beeinflussung bewirkten Abweichung davon. Somit lautet Modell (II): Yijk = lJ^ + ai + Pj + {af3)ij + eijk ,
eijk -^ N{0, a^),
Aufierdem werden die eijk wieder als unabhangig vorausgesetzt. Analog zum einfaktoriellen Varianzmodell ergibt sich I
J
I
J
i=l
j=l
i=l
j=l
Die einzelnen Parameter des obigen Modells lassen sich nun wie folgt interpretieren: /i bezeichnet wieder den grand mean mit 1
^ -^
ai beschreibt den Effekt von Faktor A auf der i-ten Faktorstufe mit ai = fXi. -
/2,
wobei fii. = J J2j=i l^ij der Erwartungswert von Faktor A auf der i-ten Faktorstufe, also ohne Betrachtung von Faktor B ist, pj beschreibt entsprechend den Effekt von Faktor B auf der j-ten Faktorstufe mit Pj = H - /^, wobei fx.j = J Yli=i l^ij analog der Erwartungswert von Faktor B auf der j-ten Faktorstufe ist,
13. Varianzanalyse
532
{ot/3)ij beschreibt die Wechselwirkung von A und B auf der Faktorstufenkombination ihj) mit (af3)ij = fiij -{iii + ai + pi). An der Definition der Parameter des Modells erkennt man gut die Idee der Modellierung. So erklaren die Haupteffekte den Unterschied zwischen den Mittelwerten in der jeweiligen Faktorstufe des entsprechenden Faktors zum Gesamtmittel, wahrend der Wechselwirkungsterm den Unterschied zwischen dem Mittelwert in der jeweihgen Faktorstufenkombination zu dem Teil des Gesamtmittelwerts zu erklaren sucht, der nicht durch die Addition der Haupteffekte beschrieben werden kann. Konnte der durch die beiden Faktoren hervorgerufene Gesamteffekt namlich gerade als Summe der beiden Haupteffekte dargestellt werden, so bedeutete diese Tatsache, dafi die gleichzeitige Einwirkung der beiden Faktoren keine Verstarkung oder Schwachung der Einzeleffekte nachsichzieht und somit keine Wechselwirkungen vorhanden sind. Die Bedeutung von Wechselwirkungen sei im folgenden anhand zweier Faktoren auf zwei Stufen illustriert. Nehmen wir zunachst den Fall an, dai3 keine Wechselwirkungen vorliegen. In diesem Fall wir ken sich Faktor A bzw. Faktor B gleichmafiig auf den Stufen des jeweiligen anderen Faktor aus, was an den Erwartungswerten in den entsprechenden Faktorkombinationen abzulesen ist. Dies ist in Tabelle 13.2(a) veranschaulicht. (a) f^ij
Faktor A
Faktor B 1 2
(b) fj^ij
Faktor A
1 2
Faktor B 1 2 5 3 3 5
(c) fiij
Faktor A
1 2
Faktor B 1 2 5 3 3 2
TABELLE 13.2: Erwartungswerte auf der (i, j)-ten Stufe der Kombination zweier Faktoren A und B mit je zwei Stufen bei Vorliegen von (a) keiner Wechselwirkung, (b) reinen Wechselwirkungen, (c) Haupteffekten und Wechselwirkungen
Tabelle 13.2(b) zeigt den Fall einer reinen Wechselwirkung. Man sieht, daiJ die Faktoren sich in ihrer Auswirkung iiberkreuzen. In Tabelle 13.2(c) ist der Fall von vorliegenden Haupteffekten und einer Wechselwirkung dargestellt. In dieser Situation ist es im Prinzip unmoghch zu entscheiden, inwieweit die auftretenden Effekte den Faktoren alleine oder ihrer Kombination zuzuschreiben sind. Abbildung 13.1 veranschaulicht die Bedeutung von Wechselwirkungen noch einmal graphisch. Man sieht deutlich, dal3 bei fehlenden Wechselwirkungen ein paralleler Verlauf der beiden Strecken vorliegt, die die Effekte von Faktor A auf den jeweiligen Stufen symbohsieren, vgl. Abbildung 13.1(a). Abbildung 13.1(b) zeigt die Uberkreuzung bei reinen Wechselwirkungen, die auch schon in der Tabelle deutlich
13.2
Zweifaktorielle Varianzanalyse mit festen Effekten
533
(c)
(b)
/N 6
Faktor A
Faktor A
5H
5
81 4
V)
w
i 3 N
13^
2
N 2-1
1
1-1
0 1
0
2 Faktor B
1
2 Faktor B
ABBILDUNG 13.1: Graphische Veranschaulichung (a) des Fehlens von Wechselwirkungen, (b) des Vorliegens reiner Wechselwirkungen und (c) des Vorliegens von Haupteffekten und Wechselwirkungen
wurde. In Abbildung 13.1(c) ist kein klarer Hinweis auf die Bedeutung der Haupteffekte und der Wechselwirkungen erkennbar. Es sind im folgenden zunachst Schatzer fiir die obigen Modellparameter zu best immen. Diese bilden sich analog zur einfaktoriellen Varianzanalyse aus den Mittelwerten der Beobachtungen in entsprechenden Gruppen. Dabei wird der globale Erwartungswert fi wieder geschatzt liber das arithmetische Mittel aller Beobachtungen, deren Anzahl sich gerade dls I - J - K ergibt, so dafi /^
1 UK
K
EEE^.^ = ^-' i=i j=i
k=i
wobei die drei Punkte bei Y... verdeutlichen, dafi iiber die Faktorstufen von Faktor A, liber diejenigen von Faktor B und iiber die Beobachtungen in den entsprechenden Kombinationen summiert wird. Zur Schatzung der Haupteffekte ai und /3j verwendet man wieder die Abweichung des Mittelwerts in der entsprechenden Faktorstufe vom Gesamtmittel. Damit erhalten wir J
K
ai = Yi.. - Y... mit Yi.. = 7 ^ E E ^'^^ ^^^ j = i k=i
f3j = Yj.-Y..
mit Yj. =
1
^
^
—J2T.^iJ^' 2 = 1 A;=l
534
13. Varianzanalyse
Der Wechselwirkungsparameter {(yf3)ij lafit sich schatzen als {af3)ij = Yij. - {fi + ai + ^j) = Yij-{?..,
+
%.-Y...+Y.J.-Y..)
= Yij. - %. - Yj. + Y...,
wobei
1 ^ Yij. = — 2^ Yijk . k=l
Diese Residuen berechnen sich auch hier als Abweichungen des beobachteten Werts yijk vom prognostizierten Wert yijk = ft + ai + ^j + {aP)ij^ d.h. ^ijk = Vijk - (A + ^2 + $j + ioi^)ij) • Beispiel 13.6
Zufriedenheit im Studium Zur Modellierung der Zufriedenheit im Studium Y verwenden wir das oben beschriebene zweifaktorielle varianzanalytische Modell mit Yijk = /i + Qti + /3j + {oip)ij + €ijk ,
wobei z = 1,2, j = 1,2, fc = 1 , . . . , 5. Damit haben wir insgesamt / • J - i f = 2 - 2 - 5 = 20 Beobachtungen. Zur Schatzung von fi miissen nun alle Beobachtungen aufaddiert und durch die Gesamtzahl dividiert werden, d.h. .
2
2
5
i=l j = l
k=l
Der Mittelwert fiir die erste Faktorstufe von Faktor A ergibt sich als gemittelte Summe liber die zehn Beobachtungen, die in diese Faktorstufe fallen, also 1i
2
^
5
^
^
2/1 l ^ = l . = l
Entsprechend berechnet man .
2
5
.
2
5
.
2
5
y^' = io^Yl2/2^^ = 28.5, y-i. = YoEEy^^^ = ^^'^' y-^- = loEEy^^^ = ^^• j=l
k=l
i=l
fc=l
i=l
fc=l
Fiir den Mittelwert der Kombination aus der 1. Faktorstufe von A und der 1. Faktorstufe von B mtissen die entsprechenden fiinf Beoabchtungen gemittelt werden, d.h.
yii- = - ^ E ^ i i ^ ^ ^ ^ • k=i
13.2
535
Zweifaktorielle Varianzanalyse mit festen Effekten
Analog erhalt man 1 ^ • r ^ y m = 62,
yi2-
1 ^ ^21. = •z^y2ik
= 31,
1 ^ ^22. = •^X^2/22/c = 26.
fc=i
k=i
A;=l
Anhand dieser Grofien konnen nun die Schatzer fur die Haupteffekte und die Wechselwirkungen bestimmt werden: 0^1 = y i - . 0^2 = y2'
-y- = 7 5 - 5 1 . 7 5 = 23.25, -y-
= 28.5-51.75 = -23.25,
-y- = 59.5-51.75 = 7.75, P2 = y-2' -y- = 4 4 - 5 1 . 7 5 = - 7 . 7 5 , 0i=yi'
{af3)ii=yn-
-yi . - y.i. + y... = 88 - 75 - 59.5 + 51.75 = 5.25,
{af3)i2 = yi2-
-yi . - y-2. + y... = 62 - 75 - 44 + 51.75 = - 5 . 2 5 ,
(a/3)2i = y2i- - m . - y.i. -f y... = 31 - 28.5 - 59.5 + 51.75 = - 5 . 2 5 , (a/3)22 = ^22- - 2/2 . - y.2. + y- =26-
28.5 - 44 + 51.75 = 5.25.
Betrachten wir die graphische Darstellung der Mittelwerte pro Faktorkombination, d.h. von
yij-
Faktor A
Faktor B 1 2 62
31
26
erkennen wir, dafi sowohl Wechselwirkungen als auch Haupteffekte vorliegen (vgl. Abb. 13.2). Wie groB der Anteil der Wechselwirkungen oder der Haupteffekte an den beobachteten Unterschieden zwischen den yij. ist, lafit sich jedoch nicht festmachen. ^ 9
motjviert unmotiviert
Familienstand
ABBILDUNG
tion
13.2: Graphische Darstellung der Mittelwerte pro Faktorkombina-
536
13. Varianzanalyse
An Abbildung 13.2 wird auch deutlich, dafi die Studierenden, die unmotiviert sind, in ihrer Zufriedenheit mit dem Studium kaum eine positive Verstarkung durch das Zusammenleben mit einem Partner erfahren. Bei den motivierten Studierenden ist die Zufriedenheit derjenigen, die mit einem Partner zusammenleben, deutlich hoher als bei den allein lebenden Studierenden. Auch wenn Abbildung 13.2 bereits darauf hinweist, dafi Wechselwirkungen vorliegen, so ist es natiirlich auch hier von Interesse, einen statistischen Test zur Verfiigung zu haben, der die objektive Uberprtifung der damit verbundenen Hypothesen ermoghcht. D
Zweifaktorielle Varianzanalyse: Modelle und Schatzer Yijk = jJiij + eijk,
Modell (I):
^ijk ~ N{0, cr^), unabhangig, z = l , . . . , / , j = l , . . . , J , fc = l , . . . , K . Modell (II):
Yijk = fi + ai + f3j + {af3)ij + €ijk,
j=i
j=i
j=i
j=i
^ijk ~ N{0,(7'^), unabhangig, i = l,...,I,j
= l,...,J,k
=
l,...,K.
Die Schatzer fiir ^, a,, f3j und {a/3)ij im Modell (II) sind gegeben als I
J
K
/^=T^EEE^^.-^=^-' UK i = i j=i k=i .
ai = Yi..-Y...
mit
Yi" =
J
K
jr7^Yl^'J^^ j=i I
k=i K
^j = Y.j.-Y... mit y,.. = ^ 5 ] J ^ y , ^ . , , 2=1
^
k=l
1
{a(3)ij = Yij.-n.-Yj.+Y..
mit
^
F,^-. = _ ^
k=i
y,-, .
Im Gegensatz zur einfaktoriellen Varianzanalyse sind in der zweifaktoriellen Varianzanalyse drei Typen von Nullhypothesen zu priifen. Zunachst interessiert, ob Wechselwirkungen vorliegen. Dies fiihrt zu folgendem Testproblem: H^""^ :{a^)ij=0 H^^^
fiir alle
ij,
i = l,...,/,
j = l,...,J,
: fiir mindestens zwei Paare (i, jf) gilt: {aP)ij ^ 0 .
gegen
13.2
537
Zweifaktorielle Varianzanalyse mit fasten Effekten
Dabei besagt die NuUhypothese, dafi alle Wechselwirkungen null sind, wahrend die Alternative beinhaltet, dafi Wechselwirkungen vorliegen. Zudem ist es wie in der einfaktoriellen Varianzanalyse von Interesse zu iiberpriifen, ob Faktor A bzw. Faktor B Einflufi nehmen auf die Zielgrofie, also ob Haupteffekte vorliegen. Dabei wird das Testproblem jeweils so formuliert, dafi die Nullhypothese besagt, dafi keine Haupteffekte vorliegen, wahrend die Alternative widerspiegelt, dafi auf mindestens zwei Faktorstufen ein Haupteffekt vorliegt. Dieser mufi auf mindestens zwei Stufen auftreten, da sich diese Effekte im Mittel ausgleichen soUen.
Hypothesen Vorliegen von Wechselwirkungen: TTAXB
i = 1, . . . , / ,
j = l,... , J
^0
: {a/3)ij = 0 fur alle
jjAxB
: fiir mindestens zwei Paare (i,j) gilt:
gegen
{af3)ij ^ 0 .
Vorliegen von Haupteffekten bedingt durch Faktor A: HQ : ai = 0 fiir alle
i -: 1 , . . . , /
Hi^: fiir mindestens zwei ai gilt:
gegen ai^O,
Vorliegen von Haupteffekten bedingt durch Faktor B: H^:f3j=0
fiir alle
j = 1,..., J
Hi : fiir mindestens zwei f3j gilt:
gegen (3j^0,
Zur Herleitung von geeigneten Priifgrofien nutzt man zum einen erneut die Idee der Streuungszerlegung^ wie wir sie bereits aus der Regressionsanalyse kennen, und den Ansatz aus der einfaktoriellen Varianzanalyse, bei der die entsprechenden Streuungen zueinander in Beziehung gesetzt wurden. Die Streuungszerlegung besagt hier, dafi sich die Gesamtstreuung (SQT) in eine Summe aus der Streuung bedingt durch Faktor A (SQA), der Streuung bedingt durch Faktor B (SQB), der Streuung bedingt durch die Wechselwirkung von A und B {SQ{A x B)) und der Reststreuung (SQR) zerlegen lafit, d.h. SQT = SQA + SQB + SQ{A x B) + SQR,
Streuungszerlegung
538
13. Varianzanalyse
wobei
i=i j=i
k=i I
I
J
J
j=l I
3=1 J
I
J
^^
SQ{A xB) = K^Yl H^y^r " ^- " ^-r + ^••)' = ^ ' E T^^^^^l ^^^ i=l j=l
i=l
j=l
i=l j=l
i=l 3=1 k=l
Dabei wurde zur Vereinfachung der Berechnung beispielsweise ausgenutzt, dafi die Summanden in SQA gerade den quadrierten geschatzen Haupteffekten von Faktor A entsprechen. Bei SQR gehen die in den Faktorkombinationen bereits geschatzten Varianzen S]^- ein. Diese Vereinfachungen siiid schon in der einfaktoriellen Varianzanalyse verwendet worden. Wie bereits oben erlautert, werden die Teststatistiken zur Priifung der drei Testprobleme so gebildet, dafi die Streuung bedingt durch die Wechselwirkung, bedingt durch Faktor A bzw. Faktor B in Relation gesetzt zur Reststreuung, wobei die Streuungen noch jeweils durch ihre Freiheitsgrade dividiert werden miissen. Die resultierenden Priifgrofien besitzen unter der jeweiligen NuUhypothese wieder eine FVerteilung mit den zugehorigen Freiheitsgraden. Im Detail lautet die Priifgrofie zu dem ersten Testproblem beziiglich der Wechselwirkungen
^""^
SQ{AxB)/{I-l){J-l) SQR/IJ{K - 1)
wobei die NuUhypothese zum Niveau a verworfen wird, falls der Priifgrofienwert grofier ist als das (1 - a)-Quantil der F-Verteilung mit (/ - 1 ) ( J - 1) und IJ{K -1) Freiheitsgraden, d.h. falls F>Fi_,((7-l)(J-l),/J(K-l)). Die NuUhypothese beziighch der Haupteffekte von Faktor A wird verworfen, falls FA =
SQA/{I-1) SQR/IJ{K - 1)
13.2
Zweifaktorielle Varianzanalyse mit fasten Efkkten
539
das (1 — a)-Quantil der JP-Verteilung mit ( / — 1) und IJ{K iiberschreitet, d.h. falls
— 1) Preiheitsgraden
Entsprechend wird die NuUhypothese beziiglich der Haupteffekte von Faktor B verworfen, falls
SQBI{J-\) SQR/IJ{K - 1)
^
das (1 — a)-Quantil der F-Verteilung mit ( J — 1) und IJ{K iiberschreitet, d.h. falls
— 1) Preiheitsgraden
FB>Fi-a{J-\JJ{K-l)). Zusammengefafit werden die Priifgrofien auch hier in der Varianzanalysetabelle:
Streuungsursache
Streuung
Freiheitsgrade
mittlerer quadratischer Fehler
PriifgroBe
Faktor A
SQA
I- 1
MQA = 4 ^
^^ ~ MQR
Faktor B
SQB
J -1
SQB =
^
^^
=^ ^ ^ ^
FA.B =
Wechselwirkung AxB
SQiAxB)
Residuen
SQR
Gesamt
SQT
(/-1)(J-1) IJ{K - 1)
MQ{AxB)
MQR
^^^^^
MQR = T : ^ ^
n-\
Mit Hilfe der hergeleiteten statistischen Tests konnen wir fiir unser Beispiel nun iiberpriifen, ob signifikante Wechselwirkungen und Haupteffekte vorliegen. Zufriedenheit im Studium
Beispiel 13.7
Da wir in Beispiel 13.6 (Seite 534) die Haupteffekte und die Wechselwirkungen bereits geschatzt haben, konnen wir diese Werte zur Berechnung der Streuungen ausnutzen. Wir erhalten SQA = 5 . 2 • ^
a^ = 10 . [23.25^ + (-23.25)2] ^ io811.25 ,
i=l 2
SQB = 5 . 2 . ^ / 3 2 = 10 . [7.752 _^ (_7.75)2] ^ 1201.25 2
SQ^A X B) = 5 . ^
und
2
5 3 M ) i 7 - = 5 . [5.252 ^ (_5 252) _|. (_5.25)2 + 5.25^] = 551.25.
540
13. Varianzanalyse
Fill die Reststreuung ergibt sich 2
SQR = ^Y1
2
5
J2^y^Jf^ - y^rf = 1^2 + 434 + 164 + ITS = 908.
i = l j = l /c=l
Mit diesen Werten erhalt man die folgende Varianzanalysetabelle:
Streuungsursache FaktorA FaktorB Wechselwirkung ^ X B Residuen Gesamt
Streuung
Freiheitsgrade
10811.25 1201.25 551.25 908 13471.75
1 1 1 16 19
mittlerer quadratischer Fehler 10811.25 1201.25 551.25 56.75
Priifgrofie 190.51 21.17 9.71
Dabei berechnet sich beispielweise der Wert 190.51 als 10811.25 56.75
190.51.
Wir priifen nun zunachst zum Niveau a = 0.05, ob signifikante Wechselwirkungen vorliegen. Dazu vergleichen wir den Priifgrofienwert FAXB = 9.71 mit dem 95%-Quantil der F Verteilung mit 1 und 16 Freiheitsgraden. Dieser Quantilswert betragt 4.494, wie man Tabelle E entnehmen kann. Da 9.71 grofier ist als 4.494, mufi von signifikanten Wechselwirkungen ausgegangen werden. Darauf deutete bereits Abbildung 13.2 in Beispiel 13.6 (Seite 534) hin. Beide Haupteffekte sind ebenfalls signifikant, da die entsprechenden Priifgrofienwerte von 190.51 = FA bzw. von 21.17 = FB jeweils grofier sind als Fo.95(l, 16) = 4.494. AUerdings ist der Effekt bedingt durch Faktor A wesentlich deutUcher, was ebenfalls in Abbildung 13.2 (Seite 535) bereits abzulesen war: Die Motivation spielt eine grofiere RoUe hinsichtlich der Zufriedenheit im Studium als die familiare Situation. D
13.2 Zweifaktorielle Varianzanalyse mit festen Effekten
541
Zweifaktorielle Varianzanalyse: PriifgroBen und Tests
Die Priifgrofie auf Vorliegen von Wechselwirkungen ist gegeben als
MQ{AxB) FAXB
K
/
J
1=1 j=i
MOR
'
I
^
J
K
_
i=lj=lk=l
wobei HQ^
,
Z E E (Yijk - Yi^.f
IJ{K - 1) '
ZU verwerfen ist, falls
F>Fi.^{{I-l){J-l),IJ{K-l)). Die Priifgrofie auf Vorliegen von Haupteffekten bedingt durch Faktor A ist gegeben als
KjJ:{Yi..-Y..,f/{I-l) 2=1
^
MQR
I
EZ
J
K
i=ij=ik=i
/
ziyijk-Yij.)^/iJ{K^i) '
wobei H.^ zu verwerfen ist, falls
Die Priifgrofie auf Vorliegen von Haupteffekten bedingt durch Faktor B ist gegeben als KI E {Y.^. - Y...f/{J ^
MQR
I
J
- 1)
K
EEEiYijk-Yij.)^/lJ{K-l)
wobei HQ ZU verwerfen ist, falls
Die zweifaktorielle Varianzanalyse liefert somit Information dariiber, ob sich die Effekte zweier Faktoren lediglich kumulieren oder ob sie sich gegenseitig noch insofern beeinflussen, als sie gemeinsam einen verstarkenden bzw. abschwachenden Effekt haben.
542
13.3
13. Varianzanalyse
Zusammenfassung und Bemerkungen
Zur Beurteilung des Einflusses eines oder mehrerer Faktoren auf ein metrisches Merkmal, wobei die Faktoren jeweils auf verschiedenen Stufen vorliegen, bietet die Varianzanalyse ein geeignetes Instrumentarium. Diese stellt zum einen verschiedene varianzanalytische Modelle zur Verfiigung, mit denen in Abhangigkeit von der Versuchsanordnung und Pragestellung der Zusammenhang zwischen den Einflufifaktoren und dem interessierenden Merkmal modelliert werden kann. So geht es etwa bei der Einfachklassifikation um die Erfassung der statistischen Beziehung zwischen einem Einflufifaktor auf mehreren Stufen und einer metrischen Zielgrofie. Analog zu einem Regressionsmodell wird also bei einem Modell der Varianzanalyse der Zusammenhang zwischen einer Zielvariable und einer oder mehrerer Einflufigrofien beschrieben. Die Varianzanalyse kann als Spezialfall der Regression betrachtet werden. Die Einflufigrofien fliefien dabei kategorial in das Modell ein. Genauer modelliert man den Effekt als vorhanden oder nicht, d.h. der Einflufi dieser Variablen geht iiber eine 0 — 1-Kodierung in das Modell ein. Sind als mogliche Einflufigrofien nicht nur kategoriale Variablen, sondern auch metrische Variablen von Bedeutung, so spricht man von Kovarianzanalyse^ sofern hauptsachlich der Einflufi der kategorialen Variablen interessiert. Fiir eine Vertiefung dieses Aspekts sei etwa auf Scheffe (1959) oder Schach und Schafer (1978) verwiesen. Neben der Bereitstellung von Modellen beinhaltet die Varianzanalyse zum anderen Verfahren zur Schatzung des Effekts, den der Faktor auf das interessierende Merkmal hat, und statistische Tests zur Beurteilung, ob der Faktor einen Einflufi auf das Merkmal ausiibt. Dabei wird dieser mogliche Zusammenhang iiber einen Vergleich der mittleren Faktoreffekte auf den einzelnen Stufen erfafit. Sind die Unterschiede grofi genug, so kann auf einen statistisch signifikanten Einflufi des Faktors geschlossen werden. Wie bei der Regressionsanalyse beruht die hier zu verwendende Priifgrofie auf der Streuungszerlegung. Mit Hilfe dieser Priifgrofie ist es jedoch nur moghch zu priifen, ob generell Unterschiede zwischen den Faktorstufen besteht. Damit kann man fiir den Fall, dafi Unterschiede bestehen, diese noch nicht lokalisieren. Will man nun genauer in Erfahrung bringen, welche Faktorstufen sich unterscheiden, so ist man mit einer Reihe von Testproblemen konfrontiert, deren Losung ein adaquates multiples Test verfahren erfordert. Zu den Standardmethoden in diesem Bereich gehoren die sogenannten simultanen Konfidenzintervalle nach Scheffe und Tukey. Hier sei erneut auf Scheffe (1959), aber auch beispielsweise auf Hsu (1996) verwiesen. Mit Hilfe des sogenannten F-Tests ist es also moglich auf Vorhegen von Faktoreffekten zu testen. Wie wir in der zweifaktoriellen Varianzanalyse gesehen haben, werden Priifgrofien dieses Typs auch zur Priifung auf Interaktionen eingesetzt. Solche Wechselwirkungen tragen der Moglichkeit Rechnung, dafi sich mehrere Faktoren in ihrer Wirkung auf das interessierende Merkmal gegenseitig beeinflussen.
13.4
543
Aufgaben
Eine zentrale Voraussetzung bei alien Tests dieses Typs ist die Normalverteilung der metrischen Zielvariable zur Herleitung der Verteilung der Priifgrofie unter der Nullhypothese nicht vorhandener Haupteffekte oder fehlender Wechselwirkungen. Ist diese Annahme nicht gerechtfertigt, so kann erneut auf nonparametrische Tests zuriickgegriffen werden, wie sie z.B. in dem Buch von Blining und Trenkler (1994) zu finden sind. Neben den in diesem Kapitel behandelten Fall zweier Einflufifaktoren sind in praktischen Untersuchungen ebenfalls Situationen denkbar, in denen mehrere Zielvariablen gleichzeitig betrachtet werden. Zur Diskussion derartiger multivariater Pragestellungen sei auf das weiterfiihrende Buch von Fahrmeir, Hamerle und Tutz (1996) hingewiesen, in dem aber auch unfangreiches zusatzliches Material zu univariaten Varianz- und Kovarianzanalysen zu finden ist.
13.4
Aufgaben
In einem Beratungszentrum einer bayerischen Kleinstadt soil eine weitere Stelle fiir telefonische Seelsorge eingerichtet werden. Aus Erfahrung weiC man, dafi hauptsachlich Anrufe von Personen eingehen, die einen bayerischen Dialekt sprechen. Es wird vorgeschlagen, die Stelle mit einem Berater zu besetzen, der ebenfalls bayerisch spricht, da vermutet wird, dafi der Dialekt eine wesentliche RoUe beim Beratungsgesprach spielt und zwar insofern, als die Anrufer mehr Vertrauen zu einem Dialekt sprechenden Berater aufbauen, was sich in langeren Beratungsgesprachen aufiert. Nehmen wir nun an, zur Klarung dieser Frage wurde eine Studie mit drei Beratern durchgefiihrt: Berater Nr. 1 sprach reines hochdeutsch, Berater Nr. 2 hochdeutsch mit mundartlicher Farbung und der letzte bayerisch. Die ankommenden Anrufe von bayerisch sprechenden Personen wurden zufallig auf die drei Berater aufgeteilt. Fiir jedes gefiihrte Beratungsgesprach wurde dessen Dauer in Minuten notiert. Es ergaben sich folgende Daten: Berater 1 Hochdeutsch Dauer der Gesprache in Minuten
8 6 15 4 7 6 10
Berater 2 Hochdeutsch mit mundartlicher Farbung 10 12 16 14 18
Berater 3 Bayerisch 15 11 18 14 20 12
(a) Schatzen Sie den Effekt, den der Dialekt des jeweiligen Beraters auf die Dauer des Beratungsgesprachs hat. Interpretieren Sie die Unterschiede.
Aufgabe 13.1
13. Varianzanalyse
544
(b) Stellen Sie eine ANOVA-Tabelle auf. (c) Die Gesprachsdauer kann als approximativ normalverteilte Zufallsvariable angesehen werden. Priifen Sie zum Niveau a = 0.05, ob der Dialekt des jeweiligen Beraters Einflufi auf die Dauer des Beratungsgesprachs hat. Interpretieren Sie Ihr Ergebnis. (d) Inwiefern geht in (c) die Annahme der Normalverteilung ein? (e) Sie haben in (c) festgestellt, dafi die Dauer des Gesprachs statistisch signifikant mit dem Dialekt des Beraters zusammenhangt. Wie konnten Sie die Unterschiede zwischen den Beratern beziiglich der Dauer des Gesprachs genauer lokahsieren? Wie liefie sich die Frage als statistisches Testproblem formulieren, und welche Tests konnte man zur Uberpriifung einsetzen? Welche Schwierigkeit tritt dabei auf? Was schlagen Sie vor, um dieser Schwierigkeit adaquat zu begegnen? (f) Welcher Zusammenhang besteht zwischen einer t-Verteilung mit n — 1 Freiheitsgraden und einer F-Verteilung mit 1 und n — 1 Freiheitsgraden? Aufgabe 13.2
Bei einem haufig benutzten Werkstoff, der auf drei verschiedene Weisen hergestellt werden kann, vermutet man einen unterschiedlichen Gehalt an einer krebserregenden Substanz. Von dem Werkstoff wurden fiir jede der drei Herstellungsmethoden vier Proben je 100 g entnommen und folgende fiktive Durchschnittswerte fiir den Gehalt an dieser speziellen krebserregenden Substanz in mg pro Methode gemessen:
durchschnitthcher Gehalt
Herstellungsmethoden 1 2 3 59.75 60.75 63
(a) VervoUstandigen Sie die folgende ANOVA-Tabelle Streuungs, ursache Gruppen Residuen Gesamt
^ij. btreuung
Freiheits, .grade
i ^. i quadratischer ^^^^^^
-n -r -j? FrurgroDe
15.5 37.67
(b) Schatzen Sie den Effekt der Herstellungsmethode auf den Gehalt an der krebserregenden Substanz. (c) Gehen Sie davon aus, daB der Gehalt an der krebserregenden Substanz approximativ normalverteilt ist. Priifen Sie zum Signifikanzniveau a = 0.05, ob sich die drei Herstellungsmethoden hinsichtlich des Gehalts an der krebserregenden Substanz unterscheiden. Aufgabe 13.3
Eine Firma betreibt ihre Produkte in verschiedenen Landern. Von Interesse fiir die Firmenleitung insbesondere hinsichtlich gewisser Marketing-Strategien ist es nun zu erfahren, ob sich u.a. bestimmte Produkte vergleichbaren Typs in manchen Landern besser umsetzen lassen als in anderen. Dazu wurden fiir einen zufallig herausgegriffenen Monat die Umsatze sowohl produkt- als auch landerbezogen notiert. Die folgende Tabelle zeigt Ihnen die Umsatze in 1000 € fiir drei Lander und zwei Produkte:
13.4
Aufgaben
545
Land
A B C
42 36 33
ProduktI 45 42 41 36 36 35 32 32 33
42 38 35 39 32 36
Produkt II 39 37 41 40 36 36 34 36 33
39 36 34
(a) Berechnen Sie die mittleren Umsatze und die zugehorigen Standardabweichungen fiir jede Land-Produkt-Kombination. Stellen Sie die Mittelwerte graphisch dar, und beschreiben Sie die beobachteten Zusammenhange der Tendenz nach. Bestimmen Sie zudem die Mittelwerte fiir jedes Land und fiir jedes Produkt, also unabhangig von der jeweils anderen Variable, und insgesamt. (b) Schatzen Sie unter Verwendung der Ergebnisse aus (a) die Haupteffekte und die Wechselwirkungsterme. Inwieweit stiitzen diese Werte die von Ihnen geauBerte Vermutung hinsichtlich der beobachteten Zusammenhange? (c) Stellen Sie eine Varianzanalysetabelle auf, und priifen Sie unter Annahme von approximativ normalverteilten Umsatzen die Hypothesen auf Vorliegen von Wechselwirkungen und Haupteffekten jeweils zum Signifikanzniveau a = 0.05. Interpretieren Sie Ihr Ergebnis.
14 Zeitreihen
Wenn ein Merkmal Y zu aufeinanderfolgenden Zeitpunkten oder Zeitperioden t = 1 , . . . , n erfafit wird, so bilden die Beobachtungen yt eine Zeitreihe. Abbildung 14.1 zeigt die taglichen Kurse der BMW-Aktie von Januar 1981 bis Dezember 1993, vgl. Beispiel 1.5. o o
—1
85
ABBILDUNG
1
1
87
r—
89
91
93
14.1: Tageskurse der BMW-Aktie
Hier werden also die Werte yt des Merkmals Y "Kurs der BMW-Aktie" an aufeinanderfolgenden Borsentagen t = 1 , . . . ,n beobachtet. Obwohl die Notation den Eindruck vermittelt, sind die Zeitpunkte genaugenommen nicht aquidistant, da zwischen den B5rsentagen Wochenenden und Feiertage liegen. Aus optischen Griinden werden die einzelnen Werte der Zeitreihe {yt^ t = 1 , . . . , n} in der Regel verbunden, etwa durch eine Treppenfunktion oder einen Polygonzug. Um die Entwicklung des Aktienmarktes zu beschreiben, werden Kurse ausgewahlter Aktien zu einem Aktienindex zusammengefafit. Abbildung 14.2 zeigt die taglichen Werte des DAFOX von Januar 1981 bis Dezember 1993. Die Art und Weise, wie die ausgewahlten Aktienkurse zu einem Aktienindex verarbeitet werden, ist in der Regel unterschiedlich und reicht von einfacher Mittelung hin bis zur Verwendung komplexer Gewichtungsschemata, wie etwa beim DAX. Der DAFOX ist eine Erweiterung des Deutschen Aktienindex DAX ftir Forschungszwecke. Er wird in analoger Weise wie der DAX berechnet (Goppl, Liidecke und Sauer 1993).
Zeitreihe
14. Zeitreihen
548
81
83
85
87
89
91
93
ABBILDUNG 14.2: Tageskurse des DAFOX
1991
1992
1993
1994
1995
1996
ABBILDUNG 14.3: Monatlicher Preisindex fiir "Pflanzen, Giiter fiir die Gartenpflege"
Dies gilt in ganz ahnlicher Weise fiir andere Merkmale, zum Beispiel Preise oder Umsatze. So kann man etwa monatliche Durchschnittspreise fiir eine bestimmte Ware betrachten oder aber einen Preisindex fiir die Lebenshaltung, der rhit Hilfe eines Warenkorbs einzelner Preise gebildet wird. Abbildung 14.3 zeigt fiir die Jahre 1991-1995 die monatlichen Werte des Preisindex fiir die Warengruppe "Pflanzen, Giiter fiir die Gartenpflege". Die Werte selbst sind in der folgenden Tabelle angegeben.
1991 1992 1993 1994 1995
Jan,
Febr.
Marz
April
Mai
Juni
Juli
Aug.
Sept.
Okt.
Nov.
Dez.
104.7 107.4
103.5 106.8
102.8 106.3
101.6 104.0
98.2 105.3
101.3 100.9
99.2 100.3
95.3 99.3
94.2 100.7
100.5 105.1
107.6 109.5 110.8
107.8 110.2
107.8 109.4
106.4 108.0
106.5 107.9
104.8 106.6
104.2 105.1
104.1 104.2
104.8 105.6
97.1 101.8 106.0 106.9
107.8 108.5
102.1 106.0 108.7
111.3
110.3
109.1
108.0
107.2
106.2
105.6
106.2
108.3
109.8
109.6 110.9
Dies ist ein Teilindex zum Preisindex fiir die Lebenshaltung aller privaten Haushalte, der vom Statistischen Bundesamt ermittelt wird. Wie zu erwarten, lai3t die Zeitreihe eine Saisonabhangigkeit erkennen. Fiir die adaquate Durchfiihrung und Interpretation von statistischen Analysen kann die Art und Weise, in der sogenannte Indizes gebildet werden, offensichtlich
549
14. Zeitreihen
von Bedeutung sein. Abschnitt 14.1 gibt eine kurze Einfiihrung zur Konstruktion von Indexzahlen. Das IFO-Institut veroffentlicht zu Pragen des Konjunkturtests monatliche "Salden" ftir ausgewahlte Branchen. Diese Salden werden durch geeignete Aggregation oder "Mittelung" aus den Mikrodaten des Konjunkturtests, also aus den individuellen Antworten des beteiligten Unternehmens, gebildet. Fiir das Merkmal "Geschaftslage" liegen die Antworten in den drei Kategorien "gut", "befriedigend", "schlecht" vor, vergleiche Beispiel 1.5. Durch "Mittelung" iiber die Unternehmen einer Branche entsteht daraus eine Zeitreihe fiir die metrisch skalierten, quasi-stetigen Salden. Abbildung 14.4 zeigt deren Verlauf fiir die Branche "Vorprodukte Steine und Erden" aus dem Baugewerbe fiir die Jahre 1980 bis 1994.
o d
80
82
84
86
88
90
92
94
ABBILDUNG 14.4: Salden fiir die Branche "Vorprodukte Steine und Erden"
80
82
84
86
88
90
92
94
ABBILDUNG 14.5: Salden fiir die Branche "Genufimittel"
Damit wird die zeitliche Entwicklung des Geschaftsklimas beschrieben. Auffallig ist der ausgepragte Riickgang um 1982. Die entsprechenden Salden fiir die Branche "Genufimittel" sind in Abbildung 14.5 enthalten. Wahrend das "Tief" um 1982 nicht mehr sichtbar ist, zeigt sich ein deutUches "Hoch" um 1990. Mogliche Saisoneinfliisse sind mit dem Auge zumindest bei dieser Auflosung nicht zu bemerken. Infolge der zeitUchen Anordnung der Beobachtungen {yt^t = l^.,. ^n} treten bei der Beschreibung und Analyse von Zeitreihen einige besondere Gesichtspunkte auf. Wir woUen diese anhand der Beispiele skizzieren. In alien Fallen wird man sich dafiir
14. Zeitreihen
550
Trend
Saison
Prognose Korrelation
interessieren, ob der jeweiligen Zeitreihe ein Trend in Form einer glatten Funktion der Zeit zugrunde liegt. Eine solche Trendfunktion konnte zum Beispiel wirtschaftliche, technische und konjunkturelle Entwicklungen widerspiegeln oder auch strukturelle Anderungen als Folge politischer Ereignisse, wie Olkrise, Regierungswechsel usw. anzeigen. Fiir Monatsdaten, wie bei monatlichen Werten des Lebenshaltungsindex, den Salden des IFO-Konjunkturtests oder Arbeitslosenzahlen entsteht zusatzlich die Frage nach jahreszeitlichen Einfliissen bzw. nach einem Saisoneffekt, Fiir Entscheidungen liber die Zusammensetzung eines Aktienportefeuilles, liber zu tatigende Investitionen oder arbeitsmarktpolitische Mafinahmen ist die Prognose des zuklinftigen Verlaufs einer Zeitreihe von Bedeutung. Eine weitere, gegenliber Querschnittsanalysen zusatzhche Fragestellung betrifft die Korrelation: Wie hangen zeithch unterschiedhche Beobachtungen voneinander ab? Das Gebiet der Zeitreihenanalyse umfaiSt ein breites Spektrum von Methoden und Modellen zur Beantwortung solcher Fragen. Wir beschranken uns hier auf eine Einflihrung in einige deskriptive und explorative Verfahren, insbesondere zur Ermittlung von Trend und Saison. Dabei gehen wir davon aus, dafi das Merkmal F , zu dem die Zeitreihenwerte {yt^ t = 1 , . . . , n} vorliegen, metrisch und (quasi-) stetig ist.
14.1
Mittelung Aggregation Index Indexzahlen ungewichtetes Mittel Salden
Indizes
Wie bei Aktienkursen ist man in vielen okonomischen Anwendungen nicht nur an Zeitreihen einzelner Objekte interessiert, sondern mochte die zeitliche Entwicklung einer Gesamtheit von Objekten durch eine geeignete Mafizahl, wie etwa einen Aktienindex, beschreiben. In der Kegel wird eine solche Mafizahl durch geeignete Mittelung oder Aggregation von Einzelwerten gebildet. Wir sprechen dann allgemein von einem Index. In der amtlichen Statistik sind Preis- und Mengenindizes von besonderer Bedeutung. Diese werden in spezieller Weise definiert und oft als Indexzahlen im engeren Sinn bezeichnet. Die rechnerisch einfachste Aggregation von Einzelwerten zu einem Index ist die Bildung des ungewichteten Mittels. Nach diesem einfachen Prinzip wird der Dow Jones Industrial Average Index als reiner Kursdurchschnitt von 30 ausgewahlten, an der New York Stock Exchange gehandelten Aktien berechnet. In ahnlicher Weise werden die Salden fiir ausgewahlte Branchen des IFO-Konjunkturtests ermittelt: Aus den Antworten "gut" und "schlecht" der einzelnen Unternehmen werden die relativen Haufigkeiten fiir "gut" und "schlecht" berechnet. Ihre Differenz ergibt die monatlichen Salden. Ein klarer Nachteil dieser einfachen Mittelung ist, dafi Objekte mit unterschiedlicher Bedeutung wie etwa Aktien grofier und kleiner Unternehmen mit gleichem Gewicht in einen derartigen Index eingehen. Die folgenden Indizes vermeiden diesen Nachteil.
551
14.1 Indizes
Preis- und Mengenindizes
Ein Preisindex soil die Preisentwicklung, genauer die Preisveranderung einer grofien Menge von einzelnen Glitern, die in einem sogenannten Warenkorb zusammengefafit sind, wiedergeben. Die Preisveranderung eines einzelnen Gutes i wird durch den Wert Pt(i) i = 1,...,/, yt{i) Po{i) '
Preisveranderung
gemessen. Dabei ist pt{i) der Preis in der Berichtsperiode t, po{i) der Preis in der Berichtsperiode Basisperiode 0 und / der Umfang des Warenkorbs. Ein ungewichteter Index der Basisperiode Preisveranderung Warenkorb yt
ir^o(^)
wtirde die vom jeweiligen Gut verbrauchten Mengen und damit seinen Ausgabenanteil im Warenkorb ignorieren. Im folgenden seien qo{i),i = I,... ^I^ die Mengen in der Basisperiode. Der Preisindex von Laspeyres orientiert sich bei der Gewichtung am Warenkorb der Basisperiode:
Preisindex von Laspeyres
Pt = 2 ^ r-7JT ^o(^)
f^po(i)
mit
go{i) =
J2Po{j)qo(j) j=i
Das Gewicht go{i) ist somit der Anteil an Ausgaben fiir das Gut i im Verhaltnis zu den Gesamtausgaben in der Basisperiode. Beim Preisindex von Paasche werden hingegen die aktuellen Mengen einbezogen:
Preisindex von Paasche
pr=i:?^.9t{i) S'^o(^)
mit ,,(i)= ^°(^)^*(^) T,poiJ)qt{j)
14. Zeitreihen
552
Kiirzen von po{i) ergibt folgende gebrauchliche Form:
Aggregatformel fiir Preisindizes
YlPt{i)Qo{i)
J2Pt{i)Qt{i) pP _ ^=1
Pt =
IlPo{i)qt{i) Paasche
Laspeyres Interpretation
Daraus liest man folgende Interpretation ab: Der Preisindex von Laspeyres gibt jene Preisveranderungen an, die sich bei konstant gehaltenen Verbrauchsmengen aus der Basisperiode ergeben hatten. Der Preisindex von Paasche bezieht sich hingegen auf die laufend aktuahsierten Mengen der Berichtsperiode. Wegen des konstanten Gewichtsschemas gibt der Preisindex von Laspeyres die reine Preisveranderung wieder und Uegt den vom Statistischen Bundesamt veroffentlichten Preisindizes zugrunde. Durch Vertauschen der RoUen von Preisen und Mengen in der Aggregatformel erhalt man Mengenindizes.
Mengenindizes
E Po(0 qtii)
J2pt{i)qt{i)
Qr='^
Qi E Po{i) qoii) i=l
Laspeyres
tlPt{i)qo{i) Paasche
Dabei sind die Mengen qo{i) bzw. qt{i) nicht als Verbrauchsmengen eines Warenkorbs, sondern als produzierte Mengen einer Branche oder eines gesamten Gewerbes aufzufassen. Der Mengenindex von Laspeyres bzw. Paasche gibt somit das Verhaltnis an, indem sich das Volumen oder der Wert der Produktion, bewertet mit den Preisen der Basisperiode bzw. der Berichtsperiode, verandert hat. Umbasierung Verkettung Verkniipfung
Preis- und Mengenindizes sind von Zeit zu Zeit zu aktuahsieren. Griinde dafiir sind etwa die Einfiihrung eines neuen Warenkorbs, Veranderungen in ihrer Definition, etwas eines "Normalhaushalts", oder die Anderung der Basisperiode. Dazu sind spezielle Rechentechniken (Umbasierung^ Verkettung, Verkniipfung) notwendig, die aber hier nicht beschrieben werden.
14.2
553
Komponentenmodelle
Der Deutsche Aktienindex DAX Auch einige Aktienindizes basieren auf der Konzeption von Preisindizes. Dies gilt auch fiir den 1988 eingefiihrten DAX. Er soil sowohl ein reprasentatives Bild des Aktienmarktes der Bundesrepublik Deutschland geben, als auch als Basisobjekt fiir neue Terminmarktinstrumente dienen. Der DAX entsteht durch eine am LaspeyresIndex orientierte Gewichtung von 30 deutschen Aktientiteln, die an der Frankfurter Wertpapierborse notiert werden. Dazu gehoren die Titel bekannter Automobilhersteller, Versicherungen, Banken, Kaufhauser und Unternehmen der Chemie-, Elektro-, Maschinenbau- und Stahlindustrie. Die Indexformel fiir den DAX modifiziert den Laspeyres-Index durch Einfiihrung von Verkettungs- und Korrekturfaktoren, die dem Problem der Veralterung Rechnung tragen sollen.
Indexformel des D A X 30
Y^ Ptii) qrii) ct{i) DAXt =
2=1
30
k(T)•1000
J2po{^qo{i)
Dabei ist t der Berechnungszeitpunkt, etwa wahrend des Tages oder zum Kassenschlufi, po{i) bzw. pt{i) der Aktienkurs der Gesellschaft i zum Basiszeitpunkt (30.12.87) bzw. zum Zeitpunkt t, qo{i) das Grundkapital zum Basiszeitpunkt und qrii) das Grundkapital zum letzten Verkettungstermin T. Die Korrekturfaktoren ct{i) dienen zur Bereinigung um marktfremde Einfliisse, die durch Dividenden oder Kapitalmafinahmen der Gesellschaft i entstehen. Diese Korrekturfaktoren werden am jahrhchen Verkettungstermin T auf 1 zuriickgesetzt und in den Verkettungsfaktor k{T) liberfiihrt. Die Multiplikation mit dem Basiswert 1000 dient nur zur Adjustierung auf ein iibliches Niveau.
Korrekturfaktor Verkettungsfaktor Adjustierung
14.2
Komponentenmodelle
Ein wichtiges Ziel der Zeitreihenanalyse, insbesondere in okonomischen Anwendungen, ist die Zerlegung der beobachteten Zeitreihe {y^, t = 1 , . . . , n} in systematische Komponenten und eine irregulare Restkomponente. Zu den systematischen Komponenten zahlen Trend, Konjunktur und Saison, aber auch weitere erklarbare Effekte. Nicht erklarte oder erfafite Einfliisse oder Stromungen werden ahnlich wie in
14. Zeitreihen
554
Zeitreihenzerlegung
einem Regressionsmodell in einer Restkomponente zusammengefafit. Da die systematischen Komponenten wie Trend oder Saison nicht direkt beobachtbar sind, sind fiir die Zeitreihenzerlegung geeignete Modellannahmen zu treffen. Additive Komponentenmodelle
Die haufigste Modellannahme ist, dafi sich die Komponenten additiv liberlagern. Das klassische additive Komponentenmodell fiir monatliche Daten nimmt an, dafi yt = mt + kt + Sf + et,
t = 1,..., n
Saison
gilt. Die Trendkomponente rrit soil langfristige systematische Veranderungen im Niveau der Zeitreihe, etwa ein lineares oder exponentielles Anwachsen, beinhalten. Die Konjunkturkomponente kt soil den Verlauf von Konjunkturzyklen wiedergeben. Die Saisonkomponente st umfafit jahreszeitlich bedingte Schwankungen und wiederholt sich jahrlich in einem ungefahr gleichbleibenden wellenformigen Muster. Die irregulare Restkomponente et fafit alle anderen, nicht durch Trend, Konjunktur und Saison erklarten Einfliisse zusammen. Dabei wird angenommen, dafi die Werte et vergleichsweise klein sind und mehr oder weniger regellos um null schwanken.
glatte Komponente
Die Trennung von Trend- und Konjunkturkomponente ist oft problematisch. Deshalb fafit man Trend und Konjunktur oft zu einer glatten Komponente gt^ die man meist wieder als "Trend" bezeichnet, zusammen.
Trend Konjunktur
Additives Trend-Saison-Modell
yt = gt + st + et,
Trendmodell
t=l,...,n.
Fiir Zeitreihen ohne erkennbare Saison, etwa Tagesdaten von Aktienkursen oder jahrliche Preisindizes, geniigt oft ein reines Trendmodell yt = 9t + ^t,
t = l,...,n.
Das additive Modell lafit sich prinzipiell auch erweitern, um den Effekt zusatzlicher, beobachtbarer Regressoren xt zu erklaren: Dies fiihrt zu yt = 9t + St + xtP + et,
t=l,...,n.
Kalendereffekte Auf diese Weise konnen zum Beispiel Kalendereffekte oder politische Mafinahmen beriicksichtigt werden.
14.3
555
Globale Regressionsansatze
Multiplikative Modelle Rein additive Modelle sind nicht immer zur Analyse geeignet. Oft nimmt mit wachsendem Trend auch der Ausschlag der Saison und die Streuung der Werte um den Trend mit zu. Dieser Datenlage wird ein additives Modell nicht gerecht. Passender ist dann ein multiplikatives Modell der Form yt = 9t' st-et,
multiplikatives Modell
t = 1,., ,n.
Dies lafit sich durch Logarithmieren auf ein additives Modell yt = log yt = log gt + log St + log e^ fiir die logarithmierten Werte und Komponenten zuriickfiihren. Dies gilt jedoch nicht mehr fiir gemischt additiv-multiplikative Modelle^ etwa von der Form yt = gt{l + gtst) + et, bei denen gt den "Trend" in der Veranderung des Saisonmusters modellieren soil. Wir werden uns im weiteren auf additive Modelle beschranken. Trotz der formalen Ahnlichkeiten mit Regressionsmodellen besteht ein fiir die statistische Analyse wesenthcher Unterschied: Trend und Saison sind unbeobachtbare Funktionen bzw. Folgen {gt^ t = 1 , . . . , n} und {st, t = 1 , . . . , n}, die mit Hilfe der beobachteten Zeitreihe {yt^t = l , . . . , n } zu schatzen sind. Die Schatzung der Komponenten, also die Zerlegung der Zeitreihe, wird erst moglich, wenn man zusatzliche Annahmen trifft. Wir unterscheiden dabei zwischen globalen und lokalen Komponentenansatzen. Bei globalen Komponentenansatzen wird eine iiber den gesamten Zeitbereich giiltige parametrische Funktionsform, etwa ein linearer oder polynomialer Trend, fiir die Komponenten unterstellt. Damit wird die Zeitreihenzerlegung im wesentlichen mit Methoden der Regressionsanalyse moghch, (Abschnitt 14.3). Lokale Komponentenansatze sind flexibler und unterstellen keinen global giiltigen parametrischen Funktionstyp. Man spricht deshalb auch von nichtparametrischer Modellierung. Einige dieser Methoden werden in Abschnitt 14.4 skizziert.
14.3
Globale Regressionsansatze
Wir behandeln zunachst den einfacheren Fall eines reinen Trendmodells yt = gt + ^tDie Zerlegung der Zeitreihe reduziert sich dann auf die Bestimmung einer Schatzung gt fiir den Trend. Dies geschieht mit einem globalen Regressionsansatz.
gemischt additivmultiplikative Modelle
14. Zeitreihen
556 14.3.1
Trendfunktionen
Trendbestimmung
Globale Trendmodelle soUen fiir den gesamten betrachteten Zeitbereich giiltig sein. Sie eignen sich vor allem zur Schatzung einfacher, etwa monotoner Trendfunktionen, deren grober Verlauf schon aus den Daten ersichtlich ist. Die Modellierung erfolgt in Form eines Regressionsansatzes. Folgende Liste enthalt einige iibliche Trendfunktionen. Globale Trendmodelle
linearer Trend quadratischer Trend polynomialer Trend exponentielles Wachstum
9t = f3o + Pit
gt==f3oexp{Pit) 9t
logistische Sdttigungskurve
A+exp(-/?2t)
Die Schatzung der unbekannten Parameter Po^Pi,... erfolgt nach der KleinsteQuadrate-Methode, d.h. /Jo? A , sind so zu bestimmen, dafi die Summe der quadratischen Abweichungen
J2(y^-9t)' t=i
minimal wird. Am einfachsten ist dies fiir das Trendmodell yt = f3o + f3it + €t,
das die Form einer linearen Einfachregression mit dem Regressor t = xt besitzt. Aus den Formeln fiir die KQ-Schatzungen von Abschnitt 3.6 bzw. 12.1 erhalt man sofort
Y^ytt-nty /3i =
t=i
,
f3o =
y-/3l
t=i
(Dabei konnen t = J2 t/n und Yl, ^^ noch vereinfacht werden; z.B. gilt t = ( n + l)/2.) Polynomiale Trendmodelle sind in der Form eines multiplen linearen Regressionsansatzes mit den Regressoren t = xti,... ^t^ = xtq (Kapitel 12.2). Die Schatzer /3o, A , . . . , /3g erhalt man damit wieder mit Hilfe der dort behandelten KQSchatzung. Obwohl polynomiale Trendmodelle geniigend hoher Ordnung oft eine gute Anpassung ermoglichen, haben sie einen gravierenden Nachteil: Polynome hoherer
14.3
557
Globale Regressionsansatze
Ordnung sind aufierhalb des Datenbereichs sehr instabil, gehen schnell nach ±00 und sind deshalb fiir Prognosezwecke ungeeignet. AUgemeiner konnen Trendmodelle der Form t=l,...,n, yt = (3o + (3ixi{t) + • • • + f3qXq{t) + et, mit gegebenen Punktionen x i ( t ) , . . . ,Xg(t), mit Hilfe der Methoden der multiplen linearen Regression geschatzt werden. Echt nichtlineare parametrische Punktionsformen, etwa fiir Sattigungskurven, fiihren dagegen auf Methoden der nichtlinearen Regression. BMW-Aktie und DAX
Beispiel 14,1
Die Abbildung 14.6 zeigt fiir den Kurs der BMW-Aktie jeweils den mit der KQ-Methode geschatzten linearen (—) bzw. kubischen (—•) Trend. Obwohl der kubische Trend als Polynom 3. Grades eine etwas bessere Anpassung liefert als der lineare Trend, geben beide den Verlauf fiir den langen Zeitraum nur sehr grob wieder. Piir den DAPOX erhalt man ein ganz analoges Bild. Die charakteristischen Auf- und Abwartsbewegungen konnten nur mit Polynomen hoheren Grades oder mit stiickweisen Polynomen besser erfaCt werden. Abbildung 14.7 zeigt eine hneare Trendanpassung fiir einen Teil des DAPOX. Deutlich flexiblere Trendanpassungen sind mit den lokalen Ansatzen von Abschnitt 14.4 moglich. D
14.3.2
Bestimmung der Saisonkomponente
Zwei gangige Moglichkeiten zur Modellierung der Saisonkomponente sind Ansatze mit Saison-Dummyvariablen und mit trigonometrischen Punktionen. Wir behandeln dabei den Pall von Monatsdaten. Bei der Modellierung mit Dummyvariablen wird jedem Monat j = 1 , . . . , 12 eine Dummyvariable Dummyvariable sj{t)
1, 0,
wenn t zum Monat j gehort sonst
zugeordnet. Die Saisonkomponente wird als Linearkombination angesetzt:
Saisonmodell mit Dummyvariablen St = PlSlit)
+ '"
+/3i2Si2it)
14. Zeitreiben
558
8 CO 0)
S
<
8
^O C (0 3
^
8 CM
ABBILDUNG 14.6: Linearer (—) und kubischer (••••) Trend
o CM CO
o o
CO
o 00
8 If)
O
ABBILDUNG 14.7: Lineare Trendanpassung fiir den DAFOX
starre Saisonfigur
Dabei ist jSj^j = 1 , . . . , 12, gerade der Effekt oder Wert von st fiir den Monat j . Da somit das Saisonmuster fiir aufeinanderfolgende Jahre als identisch angenommen wird, spricht man auch von einer starren Saisonfigur. Fiir eine Zeitreihe, die keinen Trend aufweist, werden die Monatseffekte /3i, . . . , /3i2 wieder nach dem KQ-Prinzip ^{yt geschatzt.
- St? = Y}y^ ~ ^1^1 W
Pi2Si2{t)? -^ min
14.4
Lokale Ansatze
559
Bei den meisten Zeitreihen sind allerdings Trend und Saison gleichzeitig zu beriicksichtigen. Bei additiven Trend-Saison-Modellen sind zwei Methoden liblich. Eine Moglichkeit besteht darin, zunachst nur den Trend, ohne Beriicksichtigung der Saison, nach einer der oben beschriebenen Methoden zu schatzen. Anschlieiiend fiihrt man eine Trendhereinigung durch, indem man zu yi = y^ — g^ libergeht. In einem zweiten Schritt wird zu yt die Saisonfigur geschatzt. Die zweite Moglichkeit ist ein simultaner Ansatz. Wird fiir gt ein polynomialer Trend unterstellt, so fiihrt dies zum multiplen Regessionsmodell yt = (xit+.,.
+ aqt"^ + ... + f3isi{t) + ,., + f^usuit)
+ e^,
t = 1,., ,n.
Dabei wird keine Konstante ao eingeflihrt, da das Niveau der Zeitreihe bereits durch Einbezug aller zwolf Monatseffekte festgelegt wird. Alternativ konnte man ao einbeziehen und statt dessen eine Monatskomponente, etwa /3i25i2(^), aus dem Modell entfernen. Bei der Modellierung einer starren Saisonfigur mit trigonometrischen Funktionen wird folgender Ansatz gewahlt: Saisonmodell mit trigonometrischem Polynom 6
sin (271 k=l
k=l
k 12 ' )
Durch die Uberlagerung von periodischen Schwingungen mit den Prequenzen 1/12,... ,6/12 konnen nicht-sinusformige Saisonfiguren modelliert werden. Wegen sin(27r^t) = 0 entfallt dabei der letzte Term der zweiten Summe. Die Schatzung der Parameter /?o, • • •, /^e, 71, • • •, 75 erfolgt wieder nach der KQ-Methode.
14.4
Lokale Ansatze
Globale Ansatze sind fiir langere Zeitreihen oft zu starr, da zeithch sich verandernde Strukturen nicht ohne weiteres beriicksichtigt werden konnen. Flexibler sind lokale Ansatze, zu denen auch traditionelle Methoden wie zum Beispiel gleitende Durchschnitte gehoren. Verfahren dieser Art wurden in letzter Zeit verstarkt weiterentwickelt. Wir skizzieren die Prinzipien von lokalen Regressionsansatzen in gleitenden Fenstern und von Spline-Glattern. Wie im vorangehenden Abschnitt behandeln wir zunachst die Schatzung des Trends. Gemeinsame Grundidee ist dabei, den Trend durch Glattung der Zeitreihe zu ermitteln.
Trend-SaisonModelle Trendhereinigung
14. Zeitreihen
560
14.4.1
Trendbestimmung
Gleitende Durchschnitte
lokales arithmetisches Mittel
Die einfachste Moglichkeit, eine Zeitreihe zu glatten, besteht darin, den Trend gt zum Zeitpunkt t durch ein lokales arithmetisches Mittel von Zeitreihenwerten u m yt zu schatzen. Fiir aquidistante Zeitpunkte zieht m a n dazu die nachsten q vor bzw. nach yt gelegenen Zeitreihenwerte her an.
Einfacher gleitender Durchschnitt 1 9t = 2~ri 2q +
(^^-9 + ' - + yt + -' + yt+q) /
t = g + 1,..., n
2q + l: Ordnung des Durchschnitts
gewichtete gleitende Durchschnitte
Der Durchschnitt wird also aus einem "Fenster" mit der Weite q von Zeitreihenwerten vor und nach t gebildet, wobei dais Fenster mit t liber die Zeitachse gleitet. Die Wahl von q beeinflufit dabei die Glattheit der geschatzten Funktionen {gt}: Je grofier q ist, desto glatter wird gt^ j ^ kleiner, desto rauher. I m Extremfall g = 0 ist 9t = ytj es erfolgt also keinerlei Glattung. Fiir Zeitpunkte t < q und t> n — q am linken und rechten R a n d ist gt nicht definiert. Zur Losung diese Problems gibt es Randmodifikationen. Diese gehoren zur allgemeinen Klasse gewichteter gleitender Durchschnitte^ bei denen 9t = mit ^as von t.
Belspiel 14.2
^cisys,
= l gilt. Die Summation erstreckt sich dabei iiber eine lokale Umgebung
BMW-Aktie und DAFOX Die Abbildungen 14.8 (oben) und 14.9 (oben) zeigen gleitende Durchschnitte der Ordnungen 201 fiir die BMW-Aktie und den DAFOX. Gleitende Durchschnitte hoher Ordnung werden oft in Charts von Wirtschaftsjournalen veroffentUcht, da sie die langfristigen Bewegungen nachzeichnen. Sie werden auch benutzt, um Ankaufs- und Verkaufssignale zu ermitteln. Gleitende Durchschnitte niedriger Ordnung wie in den Abbildungen 14.8 (unten) und 14.9 (unten) sind dem aktuellen Verlauf wesentlich deutlicher angepafit. Sie werden vor allem zur Kurzfristprognose eingesetzt. Man erkennt aus den Abbildungen, dafi die Wahl der Bandweite q ganz wesentlich die Glattheit des Trends bestimmt. D
14.4
561
Lokale Ansatze
0)
o
<
s
CQ
8 CO
8 82
83
84
86
85
87
88
90
89
91
92
93
o
IE
o o o in CO
Jan
Feb
Mrz
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
1986
ABBILDUNG 14.8: Gleitende Durchschnitte der Ordnungen 201 (oben) und 39 (unten) fiir die BMW-Aktie
Lokale Regression
Einfache gleitende Durchschnitte Isissen sich auch als lokale Regressionsschdtzer begriinden. Dazu approximiert man die Trendfunktion lokal in einem Fenster der Weite q um t durch eine Gerade und setzt Vs = 9s + ^s = Oit + f3ts + es ,
s = t-q,...,t
+ q,
an. Der Index t soil dabei verdeutlichen, dafi sich Niveau at und Steigung /3t lokal mit t verandern. Fiir den KQ-Schatzwert gt der Regressionsfunktion at + ^t^ an der Stelle t = s erhalt man gt = at + $tt = y- ^ts + $tt' Dabei ist s das arithmetische Mittel der 5-Werte, y das Mittel der y-Werte aus dem Fenster. Da s = t gilt, folgt .
-
1
/
lokale Regressionsschdtzer
562
14.
Zeitreihen
8 X
2 < Q
o o o o
C\J
82
84
83
85
87
86
88
89
90
91
92
93
o
s <
Q
o
s o
s Jan
Feb
Mrz
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
1986
ABBILDUNG 14.9: Gleitende Durchschnitte der Ordnungen 201 (oben) und 39 (unten) fiir den DAFOX
Das bedeutet: Das ungewichtete gleitende Mittel ist KQ-Schatzer fiir gt in einem lokalen linearen Regressionsmodell. In ganz analoger Weise lafit sich zeigen, dafi die lokale Approximation des Trends durch ein Polynom und dessen lokale KQ-Schatzung auf gleitende Durchschnitte allgemeinerer Form fiihrt. Moderne nonparametrische Verfahren der lokalen Regression bauen darauf auf. Dabei wird im wesentlichen statt einer ungewichteten lokalen KQ-Schatzung eine Gewichtung vorgenommen. Fiir den Fall eines lokalen linearen Trendmodells werden die Schatzungen at und f3t durch Minimierung von t-\-q
Y^ ^s (Vs -at-
pt sf
s=t—q
bestimmt und der Trend zum Zeitpunkt t (entspricht 5 = 0) durch gt = OLt
14.4
563
Lokale Ansatze
lokal approximiert. Die Gewichte wt-q^..., ?i;t,..., wt-\-q werden dabei mit Hilfe einer "Kernfunktion" so festgelegt, dafi weiter von t entfernten Zeitpunkten kleinere Gewichte zugeordnet werden. Diese gewichtete lokale KQ-Approximation kann in gleicher Weise auf andere Trendfunktionen, etwa Polynome, verallgemeinert werden. Beispiel 14.3
BMW-Aktie und DAFOX
Die Abbildungen 14.10 und 14.11 zeigen die mit dem Programm STL geschatzten Trendfunktionen gt und die Restkomponente et = yt — Qt8 in
8
s ^..«.>y^A^^^Mt,^^,^^^
1982
1984
1988
1990
1992
1994
Zeit
ABBILDUNG
14.10: Kurs, Trend und Restkomponente fiir die BMW-Aktie
STL ist im Programmpaket S-Plus implementiert und fiihrt lokale KQ-Approximationen durch. Der Grad der Glattung kann vorgegeben werden und ist so eingestellt, dafi eine den Abbildungen 14.8 bzw. 14.9 entsprechende Glattung erzielt wird. D
"^Spline-Glattung
Die Grundidee zur Schatzung einer glatten Trendfunktion durch sogenannte SplineFunktionen findet sich ebenfaljs bereits bei einem traditionellen Ansatz der Zeitreihenanalyse. Dabei fafit man die Trendwerte {gt^t = l^,...^n} insgesamt als unbekannte, zu schatzende "Parameter" auf und beriicksichtigt dabei, dafi der Trend "glatt" sein soil. Eine naive KQ-Schatzung durch Minimierung des KQ-Kriteriums Yliyt — dtf" fiihrt auf die triviale Losung y^ = ^^, t = 1 , . . . , n, da damit die Quadratsumme gleich null wird. Es wird jedoch keinerlei Glattung erreicht, sondern nur
SplineFunktionen
14. Zeitreihen
564
1982
1984
1990
1992
1994
Zeit
ABBILDUNG
Differenzen 1. und 2. Ordnung
14.11: Kurs, Trend und Restkomponente fiir den DAFOX
interpoliert und somit die Zeitreihe selbst reproduziert. Um eine glatte Schatzung zu erreichen, formalisiert man die Vorstellung, dafi aufeinanderfolgende Werte von gt nicht zu stark voneinander abweichen soUten bzw. dafi die Zeitreihe keine starke Kriimmung aufweisen soUte. Dies lafit sich durch Differenzen 1. Ordnung ^9t = gt-9t-i bzw. 2. Ordnung A^gt = {gt - gt-i) - {ot-i -9t~2) =9t- "^Qt-i + 9t-2 ausdriicken. Die Forderung, dafi gt - gt-i klein ist, bedeutet, dafi der Trend keine grofien lokalen Anderungen im Niveau besitzen soil. Global heifit dies, dafi die Summe der quadratischen Abweichungen
j:(9t-9t-i)' t=2
nicht zu grofi werden darf. Die Forderung einer kleinen Kriimmung bedeutet, dafi keine grofien lokalen Anderungen aufeinanderfolgender Steigungen auftreten diirfen, d.h. dafi {9t - 9t-i) - {9t-i - 9t-2) = 9t- 2^t-i + gt-2 klein sein soil. Global wird die Kriimmung durch n
^{gt
- 2gt-i + gt-2?
t=3
gemessen. Damit lafit sich die Vorstellung, dafi der Trend {gt} dem Verlauf von {yt} nahe kommt, aber dennoch glatt bleibt, durch das folgende Kriterium ausdriicken:
14.4 Lokale Ansatze
565
Penalisierte KQ-Schatzung Bestimme {gt} so, dafi n
9t-l? -* min t=i
t=2
bzw.
n
+ ^Yl{9t-2gt.-1 + t=l
9t--2)
-^
min {St}
t=3
minimiert wird.
Die Kriterien stellen einen Kompromifi dar zwischen Datentreue des Trends, gemessen durch ^{yt — Qt)'^^ und Glattheit des Trends, gemessen durch die zusatzlichen '^Straf-" - oder '^Penalisierungsfunktionen^\ Der Kompromifi wird durch den Gldttungsparameter A gesteuert, der eine ahnliche RoUe spielt wie die Bandweite q bei gleitenden Durchschnitten: Fiir kleine Werte von A wird der geschatzte Trend {gt} sehr rauh, fiir A = 0 kommt man zuriick zur Interpolation. Fiir grofie Werte von A geht der Strafterm mit grofiem Gewicht in das Kriterium ein, so dafi {gt} sehr glatt wird. Fiir A —> oo strebt gt gegen das arithmetische Mittel y = Y^ yt/n bzw. die KQ-Regressionsgerade der Zeitreihenwerte. Die Minimierung der penaHsierten KQ-Kriterien wird prinzipiell wie iibUch durchgefiihrt: Man bildet die ersten Ableitungen nach {gt}^ setzt diese gleich 0 und lost nach {gt} auf. Dies fuhrt auf ein lineares Gleichungssystem der Dimension n, das sich am Computer effizient und schnell losen lafit. Wir verzichten hier auf eine explizite Darstellung. Die Schatzung {gt} wird auch als diskreter Glattungsspline bezeichnet, da eine enge Beziehung zur nonparametrischen Schatzung von Regressionsfunktionen durch Sphne-Funktionen besteht (vgl. Abschnitt *12.4). Bei SpUne-Funktionen geht man von der Vorstellung aus, dafi die Zeit stetig lauft und somit eine unbekannte Funktion g{t) der Zeit zu schatzen ist. Deshalb werden die Straffunktionen entsprechend modifiziert. So verwendet man etwa statt der Summe der quadrierten zweiten Differenzen das Integral /
[g"{t)]'dt
der quadrierten zweiten Ableitung als Straffunktion fiir die Kriimmung.
Straffunktion Gldttungsparameter
14. Zeitreihen
566 14.4.2
Bestimmung der Saisonkomponente
Gleitende Durchschnitte und lokale Regression
Die Idee der gleitenden lokalen Schatzung lafit sich auch auf Trend-Saison-Modelle y^ = g^ + St + et libertragen. Dazu wahlt man zu festem t ein Fenster mit Bandweite q indem gt lokal durch ein Polynom und st lokal durch einen DummyVariablen-Ansatz oder ein trigonometrisches Polynom approximiert wird. Die Parameter ao, a i , . . . , /?i, /325 • • • werden durch lokale KQ-Schatzungen aus t+q ^
Ws {Vs - Qs-
Ssf
mm
s=t—q
simultan Berliner Verfahren
ermittelt. Auf diesem simultanen Ansatz beruht die urspriingliche Version des Berliner Verfahrens^ das in modifizierter Version vom Statistischen Bundesamt eingesetzt wird.
sukzessive
Alternativ werden Trend und Saison sukzessive ermittelt. Dazu wird zunachst nur der Trend wie in 14.4.1 bestimmt. Mit der Schatzung {gt} wird die Zeitreihe yt zu yt = yt — gt trendbereinigt. In einem zweiten Schritt werden Verfahren der gleitenden Durchschnitte oder der lokalen Regression auf yt angewendet, um die Saison zu schatzen. An dieser Grundkonzeption der sukzessiven Schatzung sind einige bekannte Verfahren orientiert. Sie beinhalten aber deutliche Unterschiede in den algorithmischen Details, auf die wir nicht eingehen. In der Praxis werden zudem globale und lokale Ansatze gemischt und das Prinzip der sukzessiven Schatzung in iterierter Form angewendet. Zu diesen komplexen Verfahren gehoren zum Beispiel das Census XI1-Verfahren (im Programmpaket SAS implementiert), das STL-Verfahren (in S-Plus implementiert) und das Berliner Verfahren in der derzeitigen Version des Statistischen Bundesamtes. Obwohl die verschiedenen Verfahren fiir praktische Zwecke oft zu ahnlichen Ergebnissen fiihren, ist es in jedem Fall wichtig zu wissen mit welcher Methode die Ermittlung von Trend und Saison durchgefiihrt wurde.
Beispiel 14.4
IFO-Salden
Abbildung 14.12 zeigt monatliche Salden der Geschaftslage fiir die Branche "Vorprodukte Steine und Erden" sowie den mit STL geschatzten Trend, die Saison und die Restkomponente. Beim Trend ist das deutliche Tal um 1982, dem Ende der sozialliberalen Koalition unter Helmut Schmidt, auffallig. Mit dem tJbergang zur Koalition unter Helmut Kohl steigt der Wert, von einer flachen Phase vor der Bundestagwahl 1986 abgesehen, kontinuierlich bis zur Wiedervereinigung an. Warum macht sich das bei dieser Branche so deutlich, bei der Branche "GenuBmittel" jedoch kaum bemerkbar? Eine mogliche Erklarung sind die damals
14.4
567
Lokale Ansatze
s
il..l.illL.,l
I',„„„'lllllll"l"llllll' l||||||ll"'|'l' -.'nJ.'I'lll'L I '""i|i''i V,-'I"''„,J.'I'-,.,..""' i| IT 'I'm."'"•„,-.'lll'„.'T, HI" '" T'lii'ii
ABBILDUNG 14.12: Salden, Trend, Saison und Restkomponente fiir die Blanche "Vorprodukte Steine und Erden"
extrem hohen SoUzinsen (bis zu 14% ), die sogar viele Bautrager in die Pleite trieben. AnschlieCend sind Anzeichen fiir einen leichten Abfall erkennbar. Obwohl die Antworten auf die Prage nach der Geschaftslage saisonbereinigt erfolgen soUten, zeigt sich eine deutlich ausgepragte Saisonfigur. Das jahreszeitliche Muster paCt zu dieser Branche, die Vorprodukte fiir die Baubranche fertigt: Die Geschaftslage wird zum Priihjahrsbeginn am besten eingeschatzt. Danach folgt ein standiger Abfall bis hin zum Jahreswechsel, dem wiederum der Anstieg zum Gipfel folgt. Abbildung 14.13 zeigt monatUche Salden, Trend, Saison und Restkomponente zur Geschaftslage der Branche "Genufimittel". Hier sticht vor allem der ausgepragte Gipfel
vp.lJylll^.,vl^^.|||,^'l'l.|l^^^
......1
.iliLL
ABBILDUNG 14.13: Salden, Trend und Restkomponente fiir die Branche "GenuBmittel"
14. Zeitreihen
568
nach der Wiedervereinigung ins Auge. Wir verzichten auf eine spekulative Interpretation dieses Effekts. Auch den Versuch, die ausgepragte Saison zu interpretieren, iiberlassen wir dem Leser. D
Beispiel 14.5
Prelsindex fur Pflanzen Abbildung 14.14 zeigt die Ergebnisse der Trend- und Saisonbestimmung fiir den Preisindex der Warengruppe "Pflanzen, Giiter flir die Gartenpflege". Neben einem monoton und fast linear ansteigenden Trend zeigt sich die erwartete Saisonabhangigkeit. D
I S 8
' -I.II. ..IIIII III,, •I•.II..I. ' N I .
,.., .II ..I ,I, I,,I I I
ABBILDUNG 14.14: Monatlicher Preisindex, Saison, Trend und Restkomponente flir den Sektor "Pflanzen, Giiter fiir die Gartenpflege"
''Spline-Glattung Das Prinzip der penalisierten KQ-Schatzung lafit sich auch auf Trend-Saison-Modelle yt = 9t+st+^t erweitern. Da die Saison nur die Abweichungen vom Trend beschreiben soil, mu6 bei Monatsdaten fiir alle t 11 ^ St-u « 0 gelten. Bringt man diese Forderung in den penalisierten KQ-Ansatz mit ein, so erhalt man: Bestimme {gt}^ {st} so, dafi n
J2'^yt -9tt=i
n
stf + Ai Y^{gt - 2gt-i + gt-2? t=2
n f 11 + ^ 2 ^ \ Y 1 t=12 Ku=0
^"^
st-u \
14.5 Zusammenfassung und Bemerkungen
569
minimiert wird. Die algorithmische Minimierung lafit sich wieder auf das Losen eines hochdimensionalen Gleichungssystems zuriickfuhren.
14.5
Zusammenfassung und Bemerkungen
Dieses Kapitel gibt eine Einfiihrung in deskriptive und explorative Methoden der Zeitreihenanalyse, mit denen sich die wichtigsten Komponenten Trend und Saison bestimmen lassen. Weitere Gebiete wie Prognoseverfahren, stochastische Modelle der Zeitreihenanalyse sowie die statistische Analyse im Prequenzbereich werden z.B. von Schlittgen und Streitberg (2001) behandelt. Eine umfassende Darstellung findet sich z.B. in Hamilton (1994). Insbesondere fiir multivariate Modelle der Zeitreihenanalyse verweisen wir auf Liitkepohl (1993).
14.6
Aufgaben
Betrachten Sie den folgenden Ausschnitt aus der Zeitreihe der Zinsen (Beispiel 2.5) 7.51 6.95
7.42 6.77
6.76 6.86
5.89 6.95
5.95 6.66
5.35 6.26
5.51 6.18
6.13 6.07
6.45 6.52
6.51 6.52
Aufgabe 14.1
6.92 6.71
und bestimmen Sie den gleitenden 3er- und ller-Durchschnitt. Anstelle gleitender Durchschnitte konnen zur Glattung einer Zeitreihe auch gleitende Mediane verwendet werden, die analog definiert sind. Berechnen Sie die entsprechenden gleitenden Mediane. Zeichnen Sie die Zeitreihe zusammen mit Ihren Resultaten.
Abbildung 14.15 zeigt zu der Zeitreihe der Zinsen (Beispiel 2.5) gleitende Durchschnitte und Mediane. Vergleichen Sie die geglatteten Zeitreihen und kommentieren Sie Unterschiede und Ahnlichkeiten.
Aufgabe 14.2
Einer Zeitreihe {yt,t = l^...,n}
Aufgabe 14.3
wird oft ein hnearer Trend
yt=a-\-P't-\-e, unterstellt.
t = l,...,n
14. Zeitreiben
570 (b)
(a)
T
1
1
1
1
1
1—
0
50
100
150
200
250
300
350
0
50
100
(c)
150
200
250
300
350
200
250
300
350
(d)
lOH
0
50
100
150
200
250
300
350
0
50
100
150
14.15: Lokale Glattung der monatlichen Zinssaatze: gleitende 5erDurchschnitte (a), gleitende 5er-Mediane (b), gleitende 21er-Durchschnitte (c) und gleitende 21er-Mediane (d) ABBILDUNG
(a) Vereinfachen Sie die gewohnlichen KQ-Schatzer. (b) Von 1982 bis 1987 wird im folgenden die Anzahl der gemeldeten AIDS-Infektionen in den USA vierteljahrlich angegeben: 185 2142
200 2525
293 2951
374 3160
554 3819
713 4321
763 4863
857 5192
1147 6155
1369 6816
1563 7491
1726 7726
Bestimmen Sie die Regressionskoeffizienten. (c) Die Annahme eines linearen Trends ist hier unter Umstanden fragwiirdig. Exponentielles Wachstum y^ = a - exp(/? - t) - et kann durch Logarithmieren wieder in ein klassisches Regressionsmodell transformiert werden. Berechnen Sie fiir dieses transformierte Modell die Regressionskoeffizienten.
Aufgabe 14.4
Abbildung 14.16 zeigt die monatlichen Geburten in der BRD von 1950 bis 1980. Kommentieren Sie den Verlauf der Zeitreihe, sowie Trend und Saison, die mittels STL geschatzt wurden.
14.6
Aufgaben
571
1 ^
I
1
i I —
1 1
^
^
^
^
^
^
WMWMIMV#^^^^
^
•|*"|''H(1M|||||l'*|
ABBILDUNG 14.16: Monatliche Geburten und Zerlegung in Saison, Trend und Restkomponente
Tabellen A
Standardnormalverteilung
Tabelliert sind die Werte der Verteilungsfunktion $(z) = P{Z < z) ftir 2; > 0. Ablesebeispiel: $(1.75) = 0.9599 Funktionswerte fiir negative Argumente: ^{—z) = 1 — $(2:) Die z-Quantile ergeben sich genau umgekehrt. Beispielsweise ist z(0.9599) = 1.75 und z(0.9750) = 1.96.
te^ 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9
0.00 0.5000 0.5398 0.5793 0.6179 0.6554 0.6915 0.7257 0.7580 0.7881 0.8159 0.8413 0.8643 0.8849 0.9032 0.9192 0.9332 0.9452 0.9554 0.9641 0.9713 0.9772 0.9821 0.9861 0.9893 0.9918 0.9938 0.9953 0.9965 0.9974 0.9981 0.9987 0.9990 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 1.0000
0.01 0.5040 0.5438 0.5832 0.6217 0.6591 0.6950 0.7291 0.7611 0.7910 0.8186 0.8438 0.8665 0.8869 0.9049 0.9207 0.9345 0.9463 0.9564 0.9649 0.9719 0.9778 0.9826 0.9864 0.9896 0.9920 0.9940 0.9955 0.9966 0.9975 0.9982 0.9987 0.9991 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 1.0000
0.02 0.5080 0.5478 0.5871 0.6255 0.6628 0.6985 0.7324 0.7642 0.7939 0.8212 0.8461 0.8686 0.8888 0.9066 0.9222 0.9357 0.9474 0.9573 0.9656 0.9726 0.9783 0.9830 0.9868 0.9898 0.9922 0.9941 0.9956 0.9967 0.9976 0.9982 0.9987 0.9991 0.9994 0.9995 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000
0.03 0.5120 0.5517 0.5910 0.6293 0.6664 0.7019 0.7357 0.7673 0.7967 0.8238 0.8485 0.8708 0.8907 0.9082 0.9236 0.9370 0.9484 0.9582 0.9664 0.9732 0.9788 0.9834 0.9871 0.9901 0.9925 0.9943 0.9957 0.9968 0.9977 0.9983 0.9988 0.9991 0.9994 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000
0.04 0.5160 0.5557 0.5948 0.6331 0.6700 0.7054 0.7389 0.7704 0.7995 0.8264 0.8508 0.8729 0.8925 0.9099 0.9251 0.9382 0.9495 0.9591 0.9671 0.9738 0.9793 0.9838 0.9875 0.9904 0.9927 0.9945 0.9959 0.9969 0.9977 0.9984 0.9988 0.9992 0.9994 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000
0.05 0.5199 0.5596 0.5987 0.6368 0.6736 0.7088 0.7422 0.7734 0.8023 0.8289 0.8531 0.8749 0.8944 0.9115 0.9265 0.9394 0.9505 0.9599 0.9678 0.9744 0.9798 0.9842 0.9878 0.9906 0.9929 0.9946 0.9960 0.9970 0.9978 0.9984 0.9989 0.9992 0.9994 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000
0.06 0.5239 0.5636 0.6026 0.6406 0.6772 0.7123 0.7454 0.7764 0.8051 0.8315 0.8554 0.8770 0.8962 0.9131 0.9279 0.9406 0.9515 0.9608 0.9686 0.9750 0.9803 0.9846 0.9881 0.9909 0.9931 0.9948 0.9961 0.9971 0.9979 0.9985 0.9989 0.9992 0.9994 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000
0.07 0.5279 0.5675 0.6064 0.6443 0.6808 0.7157 0.7486 0.7794 0.8078 0.8340 0.8577 0.8790 0.8980 0.9147 0.9292 0.9418 0.9525 0.9616 0.9693 0.9756 0.9808 0.9850 0.9884 0.9911 0.9932 0.9949 0.9962 0.9972 0.9979 0.9985 0.9989 0.9992 0.9995 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000
0.08 0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 0.8365 0.8599 0.8810 0.8997 0.9162 0.9306 0.9429 0.9535 0.9625 0.9699 0.9761 0.9812 0.9854 0.9887 0.9913 0.9934 0.9951 0.9963 0.9973 0.9980 0.9986 0.9990 0.9993 0.9995 0.9996 0.9997 0.9998 0.9999 0.9999 0.9999 1.0000
0.09 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8389 0.8621 0.8830 0.9015 0.9177 0.9319 0.9441 0.9545 0.9633 0.9706 0.9767 0.9817 0.9857 0.9890 0.9916 0.9936 0.9952 0.9964 0.9974 0.9981 0.9986 0.9990 0.9993 0.9995 0.9997 0.9998 0.9998 0.9999 0.9999 0.9999 LOOOO
Tabellen
574
B
Binomialverteilung
Tabelliert sind die Werte der Verteilungsfunktion X
F{x) = P{X < x) = Y^P{X = k). /c=0
Ablesebeispiel: X - B ( 8 ; 0.1)
F ( 2 ) = 0.9619
Funktionswerte fiir TT > 0.5: X - 5 ( n ; 7r)=^Y
= n-X
r. B{n, 1 - TT)
Approximation der Binomialverteilung durch die Normalverteilung mit Stetigkeitskorrektur: Falls nTT und n ( l — TT) grofi genug sind (Faustregel: n7r > 5 und n ( l — TT) > 5), gilt
P{X
<x)
=
B{x\n,TT)^^
a; + 0.5 — nTT \ / n 7 r ( l - TT)
Approximation der Binomialverteilung durch die Poisson-Verteilung: Falls n grofi und TT nahe bei null ist (Faustregel: n > 30 und TT < 0.05), gilt B(n,
n =l 0.9500 1 1.0000
TT = 0.05
a;<0
2 3 4 5
TT = 0.05
x<0
1 2 3 4 5 6
TT = 0 . 0 5
x<0 1 2 3 4
TT)
n=2
n=3 n = 4 0.9025 0.8574 0.8145 0.9975 0.9928 0.9860 1.0000 0.9999 0.9995 1.0000 1.0000 1.0000
~ Po(A = n7r).
n =5 n =6 0.7738 0.7351 0.9774 0.9672 0.9988 0.9978 1.0000 0.9999 1.0000 1.0000 1.0000 1.0000
n=7 0.6983 0.9556 0.9962 0.9998 1.0000 1.0000
n =8 0.6634 0.9428 0.9942 0.9996 1.0000 1.0000
n=9 0.6302 0.9288 0.9916 0.9994 1.0000 1.0000
71=10 0.5987 0.9139 0.9885 0.9990 0.9999 1.0000
n = 20 0.3585 0.7358 0.9245 0.9841 0.9974 0.9997 1.0000
:30 0.2146 0.5535 0.8122 0.9392 0.9844 0.9967
n = ll n=12 0.5688 0.5404 0.8981 0.8816 0.9848 0.9804 0.9984 0.9978 0.9999 0.9998 1.0000 1.0000 1.0000 1.0000
n = 13 0.5133 0.8646 0.9755 0.9969 0.9997 1.0000 1.0000
n = 14 0.4877 0.8470 0.9699 0.9958 0.9996 1.0000 1.0000
n=15
n=16
n=17 n=18
0.4633 0.8290 0.9638 0.9945 0.9994 0.9999 1.0000
0.4401 0.8108 0.9571 0.9930 0.9991 0.9999 1.0000
0.4181 0.7922 0.9497 0.9912 0.9988 0.9999 1.0000
0.3972 0.7735 0.9419 0.9891 0.9985 0.9998 1.0000
n = 19 0.3774 0.7547 0.9335 0.9868 0.9980 0.9998 1.0000
n = 21 0.3406 0.7170 0.9151 0.9811 0.9968 0.9996
n = 23 0.3074 0.6794 0.8948 0.9742 0.9951 0.9992
n = 24 0.2920 0.6608 0.8841 0.9702 0.9940 0.9990
n = 25 0.2774 0.6424 0.8729 0.9659 0.9928 0.9988
n = 26 0.2635 0.6241 0.8614 0.9613 0.9915 0.9985
n- :27 0.2503 0.6061 0.8495 0.9563 0.9900 0.9981
n - :28 0.2378 0.5883 0.8373 0.9509 0.9883 0.9977
:29 0.2259 0.5708 0.8249 0.9452 0.9864 0.9973
n = 22 0.3235 0.6982 0.9052 0.9778 0.9960 0.9994
B
575
Binomialverteilung
7r = 0.05 n = 21 n = 22 n = 23 1.0000 0.9999 0.9999 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
7r = 0.1
x<0
1 2 3 4 5 6
7r = 0.1
x<0 1 2 3 4 5 6 7 8 9
7r=:0.1 x<0 1 2 3 4 5 6 7 10 11
7r = 0.15 x<0 1 2 3 4 5 6 7
n = 24 n = 25 0.9999 0.9998 1.0000 1.0000 1.0000 1.0000
n = 26 0.9998 1.0000 1.0000
n = 27 n = 28 0.9997 0.9996 1.0000 1.0000 1.0000 1.0000
n = 29 0.9995 0.9999 1.0000
n = 30 0.9994 0.9999 1.0000
n =2 0.8100 0.9900 1.0000
n =3 0.7290 0.9720 0.9990 1.0000
n=4 0.6561 0.9477 0.9963 0.9999 1.0000
n=5 0.5905 0.9185 0.9914 0.9995 1.0000 1.0000
n =6 0.5314 0.8857 0.9842 0.9987 0.9999 1.0000 1.0000
n =7 0.4783 0.8503 0.9743 0.9973 0.9998 1.0000 1.0000
n =S 0.4305 0.8131 0.9619 0.9950 0.9996 1.0000 1.0000
n =9 0.3874 0.7748 0.9470 0.9917 0.9991 0.9999 1.0000
n=10
n = ll 0.3138 0.6974 0.9104 0.9815 0.9972 0.9997 1.0000 1.0000 1.0000 1.0000
n=12
n=13
n=17
n=18
0.2542 0.6213 0.8661 0.9658 0.9935 0.9991 0.9999 1.0000 1.0000 1.0000
n = 15 0.2059 0.5490 0.8159 0.9444 0.9873 0.9978 0.9997 1.0000 1.0000 1.0000
n=16
0.2824 0.6590 0.8891 0.9744 0.9957 0.9995 0.9999 1.0000 1.0000 1.0000
n=U 0.2288 0.5846 0.8416 0.9559 0.9908 0.9985 0.9998 1.0000 1.0000 1.0000
0.1853 0.5147 0.7892 0.9316 0.9830 0.9967 0.9995 0.9999 1.0000 1.0000
0.1668 0.4818 0.7618 0.9174 0.9779 0.9953 0.9992 0.9999 1.0000 1.0000
0.1501 0.4503 0.7338 0.9018 0.9718 0.9936 0.9988 0.9998 1.0000 1.0000
n = 19 0.1351 0.4203 0.7054 0.8850 0.9648 0.9914 0.9983 0.9997 1.0000 1.0000
n = 20 0.1216 0.3917 0.6769 0.8670 0.9568 0.9887 0.9976 0.9996 0.9999 1.0000
n = 21 0.1094 0.3647 0.6484 0.8480 0.9478 0.9856 0.9967 0.9994 0.9999 1.0000 1.0000 1.0000
n = 22 0.0985 0.3392 0.6200 0.8281 0.9379 0.9818 0.9956 0.9991 0.9999 1.0000 1.0000 1.0000
n = 23 0.0886 0.3151 0.5920 0.8073 0.9269 0.9774 0.9942 0.9988 0.9998 1.0000 1.0000 1.0000
n = 24 0.0798 0.2925 0.5643 0.7857 0.9149 0.9723 0.9925 0.9983 0.9997 0.9999 1.0000 1.0000
n- :25 0.0718 0.2712 0.5371 0.7636 0.9020 0.9666 0.9905 0.9977 0.9995 0.9999 1.0000 1.0000
n = 26 0.0646 0.2513 0.5105 0.7409 0.8882 0.9601 0.9881 0.9970 0.9994 0.9999 1.0000 1.0000
n = 27 0.0581 0.2326 0.4846 0.7179 0.8734 0.9529 0.9853 0.9961 0.9991 0.9998 1.0000 1.0000
n = 28 0.0523 0.2152 0.4594 0.6946 0.8579 0.9450 0.9821 0.9950 0.9988 0.9998 1.0000 1.0000
n = 29 0.0471 0.1989 0.4350 0.6710 0.8416 0.9363 0.9784 0.9938 0.9984 0.9997 0.9999 1.0000
n- :30 0.0424 0.1837 0.4114 0.6474 0.8245 0.9268 0.9742 0.9922 0.9980 0.9995 0.9999 1.0000
0.6141 0.9393 0.9966 1.0000
0.5220 0.8905 0.9880 0.9995 1.0000
71 = 5 0.4437 0.8352 0.9734 0.9978 0.9999 1.0000
n=6 0.3771 0.7765 0.9527 0.9941 0.9996 1.0000 1.0000
n=7 n=l 0.3206 0.2725 0.7166 0.6572 0.9262 0.8948 0.9879 0.9786 0.9988 0.9971 0.9999 0.9998 1.0000 1.0000 1.0000 1.0000
n =9 0.2316 0.5995 0.8591 0.9661 0.9944 0.9994 1.0000 1.0000
71=10 0.1969 0.5443 0.8202 0.9500 0.9901 0.9986 0.9999 1.0000
n=l 0.9000 1.0000
n= 1 0.8500 1.0000
n=2 0.7225 0.9775 1.0000
0.3487 0.7361 0.9298 0.9872 0.9984 0.9999 1.0000
Tabellen
576 7r = 0.15 n = n n=12 0.1673 0.1422 x<0 1 0.4922 0.4435 2 0.7788 0.7358 3 0.9306 0.9078 4 0.9841 0.9761 5 0.9973 0.9954 6 0.9997 0.9993 7 1.0000 0.9999 8 1.0000 1.0000 9 1.0000 1.0000 10 1.0000 1.0000
n = 13 0.1209 0.3983 0.6920 0.8820 0.9658 0.9925 0.9987 0.9998 1.0000 1.0000 1.0000
n = 14 0.1028 0.3567 0.6479 0.8535 0.9533 0.9885 0.9978 0.9997 1.0000 1.0000 1.0000
n = 15 71=16 0.0874 0.0743 0.3186 0.2839 0.6042 0.5614 0.8227 0.7899 0.9383 0.9209 0.9832 0.9765 0.9964 0.9944 0.9994 0.9989 0.9999 0.9998 1.0000 1.0000 1.0000 1.0000
7r = 0.15 n = 21 n = 22 0.0329 0.0280 x<0 1 0.1550 0.1367 2 0.3705 0.3382 3 0.6113 0.5752 4 0.8025 0.7738 5 0.9173 0.9001 6 0.9713 0.9632 7 0.9917 0.9886 8 0.9980 0.9970 9 0.9996 0.9993 10 0.9999 0.9999 11 1.0000 1.0000 12 1.0000 1.0000 13 1.0000 1.0000
n = 23 0.0238 0.1204 0.3080 0.5396 0.7440 0.8811 0.9537 0.9848 0.9958 0.9990 0.9998 1.0000 1.0000 1.0000
n = 24 0.0202 0.1059 0.2798 0.5049 0.7134 0.8606 0.9428 0.9801 0.9941 0.9985 0.9997 0.9999 1.0000 1.0000
n = 25 n = 26 n = 27 0.0172 0.0146 0.0124 0.0931 0.0817 0.0716 0.2537 0.2296 0.2074 0.4711 0.4385 0.4072 0.6821 0.6505 0.6187 0.8385 0.8150 0.7903 0.9305 0.9167 0.9014 0.9745 0.9679 0.9602 0.9920 0.9894 0.9862 0.9979 0.9970 0.9958 0.9995 0.9993 0.9989 0.9999 0.9998 0.9998 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
n = 28 0.0106 0.0627 0.1871 0.3772 0.5869 0.7646 0.8848 0.9514 0.9823 0.9944 0.9985 0.9996 0.9999 1.0000
n = 29 0.0090 0.0549 0.1684 0.3487 0.5555 0.7379 0.8667 0.9414 0.9777 0.9926 0.9978 0.9995 0.9999 1.0000
n = 30 0.0076 0.0480 0.1514 0.3217 0.5245 0.7106 0.8474 0.9302 0.9722 0.9903 0.9971 0.9992 0.9998 1.0000
n=17 0.0631 0.2525 0.5198 0.7556 0.9013 0.9681 0.9917 0.9983 0.9997 1.0000 1.0000
n=18
n = 19 n = 20 0.0536 0.0456 0.0388 0.2241 0.1985 0.1756 0.4797 0.4413 0.4049 0.7202 0.6841 0.6477 0.8794 0.8556 0.8298 0.9581 0.9463 0.9327 0.9882 0.9837 0.9781 0.9973 0.9959 0.9941 0.9995 0.9992 0.9987 0.9999 0.9999 0.9998 1.0000 1.0000 1.0000
n= 1
n= 2
n= 3
n= 4
n=5
n = {
0.8000 1.0000
0.6400 0.9600 1.0000
0.5120 0.8960 0.9920 1.0000
0.4096 0.8192 0.9728 0.9984 1.0000
0.3277 0.7373 0.9421 0.9933 0.9997 1.0000
0.2621 0.6554 0.9011 0.9830 0.9984 0.9999 1.0000
n= 7 0.2097 0.5767 0.8520 0.9667 0.9953 0.9996 1.0000 1.0000
n =l 0.1678 0.5033 0.7969 0.9437 0.9896 0.9988 0.9999 1.0000 1.0000
n= 9 0.1342 0.4362 0.7382 0.9144 0.9804 0.9969 0.9997 1.0000 1.0000
n = 10 0.1074 0.3758 0.6778 0.8791 0.9672 0.9936 0.9991 0.9999 1.0000
7r = 0.2 n = ll x<0 0.0859 1 0.3221 2 0.6174 3 0.8389 4 0.9496 5 0.9883 6 0.9980 7 0.9998 8 1.0000 9 1.0000 10 1.0000 11 1.0000 12
n: 12 0.0687 0.2749 0.5583 0.7946 0.9274 0.9806 0.9961 0.9994 0.9999 1.0000 1.0000 1.0000 1.0000
n = 13 0.0550 0.2336 0.5017 0.7473 0.9009 0.9700 0.9930 0.9988 0.9998 1.0000 1.0000 1.0000 1.0000
n = 14 0.0440 0.1979 0.4481 0.6982 0.8702 0.9561 0.9884 0.9976 0.9996 1.0000 1.0000 1.0000 1.0000
n = 15 0.0352 0.1671 0.3980 0.6482 0.8358 0.9389 0.9819 0.9958 0.9992 0.9999 1.0000 1.0000 1.0000
n = 16 0.0281 0.1407 0.3518 0.5981 0.7982 0.9183 0.9733 0.9930 0.9985 0.9998 1.0000 1.0000 1.0000
n = 17 0.0225 0.1182 0.3096 0.5489 0.7582 0.8943 0.9623 0.9891 0.9974 0.9995 0.9999 1.0000 1.0000
n = 18 0.0180 0.0991 0.2713 0.5010 0.7164 0.8671 0.9487 0.9837 0.9957 0.9991 0.9998 1.0000 1.0000
n = 19 0.0144 0.0829 0.2369 0.4551 0.6733 0.8369 0.9324 0.9767 0.9933 0.9984 0.9997 1.0000 1.0000
n = 20 0.0115 0.0692 0.2061 0.4114 0.6296 0.8042 0.9133 0.9679 0.9900 0.9974 0.9994 0.9999 1.0000
7r = 0.2
x<0 1 2 3 4 5 6 7
B
577
Binomialverteilung
7r = 0.2 x
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
7r = 0.25 :r<0 1 2 3 4 5 6 7 8
7r = 0.25 x<0 1 2 3 4 5 6 7 10 11 12 13
n = 21 0.0092 0.0576 0.1787 0.3704 0.5860 0.7693 0.8915 0.9569 0.9856 0.9959 0.9990 0.9998 1.0000 1.0000 1.0000 1.0000 1.0000
n = 22 0.0074 0.0480 0.1545 0.3320 0.5429 0.7326 0.8670 0.9439 0.9799 0.9939 0.9984 0.9997 0.9999 1.0000 1.0000 1.0000 1.0000
n = 23 0.0059 0.0398 0.1332 0.2965 0.5007 0.6947 0.8402 0.9285 0.9727 0.9911 0.9975 0.9994 0.9999 1.0000 1.0000 1.0000 1.0000
n = 24 0.0047 0.0331 0.1145 0.2639 0.4599 0.6559 0.8111 0.9108 0.9638 0.9874 0.9962 0.9990 0.9998 1.0000 1.0000 1.0000 1.0000
n = 25 0.0038 0.0274 0.0982 0.2340 0.4207 0.6167 0.7800 0.8909 0.9532 0.9827 0.9944 0.9985 0.9996 0.9999 1.0000 1.0000 1.0000
n = 26 0.0030 0.0227 0.0841 0.2068 0.3833 0.5775 0.7474 0.8687 0.9408 0.9768 0.9921 0.9977 0.9994 0.9999 1.0000 1.0000 1.0000
n = 27 0.0024 0.0187 0.0718 0.1823 0.3480 0.5387 0.7134 0.8444 0.9263 0.9696 0.9890 0.9965 0.9990 0.9998 1.0000 1.0000 1.0000
n = 28 0.0019 0.0155 0.0612 0.1602 0.3149 0.5005 0.6784 0.8182 0.9100 0.9609 0.9851 0.9950 0.9985 0.9996 0.9999 1.0000 1.0000
n = 29 0.0015 0.0128 0.0520 0.1404 0.2839 0.4634 0.6429 0.7903 0.8916 0.9507 0.9803 0.9931 0.9978 0.9994 0.9999 1.0000 1.0000
n = 30 0.0012 0.0105 0.0442 0.1227 0.2552 0.4275 0.6070 0.7608 0.8713 0.9389 0.9744 0.9905 0.9969 0.9991 0.9998 0.9999 1.0000
0.0751 0.3003 0.6007 0.8343 0.9511 0.9900 0.9987 0.9999 1.0000
n = 10 0.0563 0.2440 0.5256 0.7759 0.9219 0.9803 0.9965 0.9996 1.0000
0.7500 1.0000
n: 0.5625 0.9375 1.0000
n= 3 0.4219 0.8438 0.9844 1.0000
n0.3164 0.7383 0.9492 0.9961 1.0000
n= 5 0.2373 0.6328 0.8965 0.9844 0.9990 1.0000
n =( 0.1780 0.5339 0.8306 0.9624 0.9954 0.9998 1.0000
n=7 :8 0.1335 0.1001 0.4449 0.3671 0.7564 0.6785 0.9294 0.8862 0.9871 0.9727 0.9987 0.9958 0.9999 0.9996 1.0000 1.0000 1.0000
n = ll 0.0422 0.1971 0.4552 0.7133 0.8854 0.9657 0.9924 0.9988 0.9999 1.0000 1.0000 1.0000
n = 12 0.0317 0.1584 0.3907 0.6488 0.8424 0.9456 0.9857 0.9972 0.9996 1.0000 1.0000 1.0000 1.0000
n = 13 0.0238 0.1267 0.3326 0.5843 0.7940 0.9198 0.9757 0.9944 0.9990 0.9999 1.0000 1.0000 1.0000 1.0000
n = 14 0.0178 0.1010 0.2811 0.5213 0.7415 0.8883 0.9617 0.9897 0.9978 0.9997 1.0000 1.0000 1.0000 1.0000
n = 15 0.0134 0.0802 0.2361 0.4613 0.6865 0.8516 0.9434 0.9827 0.9958 0.9992 0.9999 1.0000 1.0000 1.0000
n = 16 0.0100 0.0635 0.1971 0.4050 0.6302 0.8103 0.9204 0.9729 0.9925 0.9984 0.9997 1.0000 1.0000 1.0000
n = 17 0.0075 0.0501 0.1637 0.3530 0.5739 0.7653 0.8929 0.9598 0.9876 0.9969 0.9994 0.9999 1.0000 1.0000
n = lS n = 19 0.0056 0.0042 0.0395 0.0310 0.1353 0.1113 0.3057 0.2631 0.5187 0.4654 0.7175 0.6678 0.8610 0.8251 0.9431 0.9225 0.9807 0.9713 0.9946 0.9911 0.9988 0.9977 0.9998 0.9995 1.0000 0.9999 1.0000 1.0000
n = 20 0.0032 0.0243 0.0913 0.2252 0.4148 0.6172 0.7858 0.8982 0.9591 0.9861 0.9961 0.9991 0.9998 1.0000
n = 22 n = 23 0.0018 0.0013 0.0149 0.0116 0.0606 0.0492 0.1624 0.1370 0.3235 0.2832 0.5168 0.4685 0.6994 0.6537 0.8385 0.8037 0.9254 0.9037
n = 24 0.0010 0.0090 0.0398 0.1150 0.2466 0.4222 0.6074 0.7662 0.8787
n = 25 0.0008 0.0070 0.0321 0.0962 0.2137 0.3783 0.5611 0.7265 0.8506
n - :26 0.0006 0.0055 0.0258 0.0802 0.1844 0.3371 0.5154 0.6852 0.8195
•• :27 0.0004 0.0042 0.0207 0.0666 0.1583 0.2989 0.4708 0.6427 0.7859
n = 28 0.0003 0.0033 0.0166 0.0551 0.1354 0.2638 0.4279 0.5997 0.7501
n = 30 0.0002 0.0020 0.0106 0.0374 0.0979 0.2026 0.3481 0.5143 0.6736
7r = 0.25 n = 21 x<0 0.0024 1 0.0190 2 0.0745 3 0.1917 4 0.3674 5 0.5666 6 0.7436 7 0.8701 0.9439
n
n = 29 0.0002 0.0025 0.0133 0.0455 0.1153 0.2317 0.3868 0.5568 0.7125
Tabellen
578 7r = 0.25 n = 21 0.9794 10 0.9936 11 0.9983 12 0.9996 13 0.9999 14 1.0000 15 1.0000 16 1.0000 17 1.0000 18 1.0000
n = 22 0.9705 0.9900 0.9971 0.9993 0.9999 1.0000 1.0000 1.0000 1.0000 1.0000
n = 23 0.9592 0.9851 0.9954 0.9988 0.9997 0.9999 1.0000 1.0000 1.0000 1.0000
n = 24 0.9453 0.9787 0.9928 0.9979 0.9995 0.9999 1.0000 1.0000 1.0000 1.0000
n = 25 0.9287 0.9703 0.9893 0.9966 0.9991 0.9998 1.0000 1.0000 1.0000 1.0000
n = 26 0.9091 0.9599 0.9845 0.9948 0.9985 0.9996 0.9999 1.0000 1.0000 1.0000
n = 27 0.8867 0.9472 0.9784 0.9922 0.9976 0.9993 0.9998 1.0000 1.0000 1.0000
n = 28 0.8615 0.9321 0.9706 0.9888 0.9962 0.9989 0.9997 0.9999 1.0000 1.0000
n = S
7r = 0.3 n = l 0.7000 x<0 1 1.0000 2 3 4 5 6 7 8 9
n= 2 0.4900 0.9100 1.0000
n= 3 0.3430 0.7840 0.9730 1.0000
n= 4 0.2401 0.6517 0.9163 0.9919 1.0000
n= 5 0.1681 0.5282 0.8369 0.9692 0.9976 1.0000
n= 6 0.1176 0.4202 0.7443 0.9295 0.9891 0.9993 1.0000
n= 7 0.0824 0.3294 0.6471 0.8740 0.9712 0.9962 0.9998 1.0000
7r = 0.3 n = ll a;<0 0.0198 1 0.1130 2 0.3127 3 0.5696 4 0.7897 5 0.9218 6 0.9784 7 0.9957 8 0.9994 9 1.0000 10 1.0000 11 1.0000
n = 12 0.0138 0.0850 0.2528 0.4925 0.7237 0.8822 0.9614 0.9905 0.9983 0.9998 1.0000 1.0000 1.0000
n=13
n=U 0.0068 0.0475 0.1608 0.3552 0.5842 0.7805 0.9067 0.9685 0.9917 0.9983 0.9998 1.0000 1.0000 1.0000 1.0000
n=15
0.0097 0.0637 0.2025 0.4206 0.6543 0.8346 0.9376 0.9818 0.9960 0.9993 0.9999 1.0000 1.0000 1.0000
0.0047 0.0353 0.1268 0.2969 0.5155 0.7216 0.8689 0.9500 0.9848 0.9963 0.9993 0.9999 1.0000 1.0000 1.0000
n = 16 0.0033 0.0261 0.0994 0.2459 0.4499 0.6598 0.8247 0.9256 0.9743 0.9929 0.9984 0.9997 1.0000 1.0000 1.0000
n = 23 0.0003 0.0030 0.0157 0.0538 0.1356 0.2688 0.4399 0.6181 0.7709 0.8799 0.9454 0.9786 0.9928
n = 24 0.0002 0.0022 0.0119 0.0424 0.1111 0.2288 0.3886 0.5647 0.7250 0.8472 0.9258 0.9686 0.9885
n = 25 0.0001 0.0016 0.0090 0.0332 0.0905 0.1935 0.3407 0.5118 0.6769 0.8106 0.9022 0.9558 0.9825
n = 26 0.0001 0.0011 0.0067 0.0260 0.0733 0.1626 0.2965 0.4605 0.6274 0.7705 0.8747 0.9397 0.9745
12 13 14
7r = 0.3 n = 21 x<0 0.0006 1 0.0056 2 0.0271 3 0.0856 4 0.1984 5 0.3627 6 0.5505 7 0.7230 0.8523 0.9324 10 0.9736 11 0.9913 12 0.9976
n = 22 0.0004 0.0041 0.0207 0.0681 0.1645 0.3134 0.4942 0.6713 0.8135 0.9084 0.9613 0.9860 0.9957
:29
:30
0.8337 0.8034 0.9145 0.8943 0.9610 0.9493 0.9842 0.9784 0.9944 0.9918 0.9982 0.9973 0.9995 0.9992 0.9999 0.9998 1.0000 0.9999 1.0000 1.0000
0.0576 0.2553 0.5518 0.8059 0.9420 0.9887 0.9987 0.9999 1.0000
n = 9 0.0404 0.1960 0.4628 0.7297 0.9012 0.9747 0.9957 0.9996 1.0000 1.0000
n = 10 0.0282 0.1493 0.3828 0.6496 0.8497 0.9527 0.9894 0.9984 0.9999 1.0000
n = 17 0.0023 0.0193 0.0774 0.2019 0.3887 0.5968 0.7752 0.8954 0.9597 0.9873 0.9968 0.9993 0.9999 1.0000 1.0000
n = 18 0.0016 0.0142 0.0600 0.1646 0.3327 0.5344 0.7217 0.8593 0.9404 0.9790 0.9939 0.9986 0.9997 1.0000 1.0000
n = 19 0.0011 0.0104 0.0462 0.1332 0.2822 0.4739 0.6655 0.8180 0.9161 0.9674 0.9895 0.9972 0.9994 0.9999 1.0000
n = 20 0.0008 0.0076 0.0355 0.1071 0.2375 0.4164 0.6080 0.7723 0.8867 0.9520 0.9829 0.9949 0.9987 0.9997 1.0000
n = 27 0.0001 0.0008 0.0051 0.0202 0.0591 0.1358 0.2563 0.4113 0.5773 0.7276 0.8434 0.9202 0.9641
n = 28 0.0000 0.0006 0.0038 0.0157 0.0474 0.1128 0.2202 0.3648 0.5275 0.6825 0.8087 0.8972 0.9509
n = 29 0.0000 0.0004 0.0028 0.0121 0.0379 0.0932 0.1880 0.3214 0.4787 0.6360 0.7708 0.8706 0.9348
n = 30 0.0000 0.0003 0.0021 0.0093 0.0302 0.0766 0.1595 0.2814 0.4315 0.5888 0.7304 0.8407 0.9155
B
Binomialverteilung
7r = 0.3
13 14 15 16 17 18 19
n = 21 0.9994 0.9999 1.0000 1.0000 1.0000 1.0000 1.0000
7r = 0.35 n = l 0.6500 x<0 1 1.0000
2 3 4 5 6 7 8 9
7r = 0.35 n = ll x < 0 0.0088 1 0.0606 2 0.2001 3 0.4256 4 0.6683 5 0.8513 6 0.9499 7 0.9878 8 0.9980 9 0.9998 10 1.0000 11 1.0000
12 13 14 15
7r = 0.35 n = 21 rr<0 0.0001 1 0.0014 2 0.0086 3 0.0331 4 0.0924 5 0.2009 6 0.3567 7 0.5365 8 0.7059 9 0.8377 10 0.9228 11 0.9687 12 0.9892 13 0.9969 14 0.9993
n = 22 0.9989 0.9998 1.0000 1.0000 1.0000 1.0000 1.0000
579
n - :23 0.9979 0.9995 0.9999 1.0000 1.0000 1.0000 1.0000
:24 0.9964 0.9990 0.9998 1.0000 1.0000 1.0000 1.0000
:25 0.9940 0.9982 0.9995 0.9999 1.0000 1.0000 1.0000
:26 0.9906 0.9970 0.9991 0.9998 1.0000 1.0000 1.0000
n = 27 0.9857 0.9950 0.9985 0.9996 0.9999 1.0000 1.0000
n = 28 0.9792 0.9923 0.9975 0.9993 0.9998 1.0000 1.0000
n = 29 0.9707 0.9883 0.9959 0.9987 0.9997 0.9999 1.0000
n = 30 0.9599 0.9831 0.9936 0.9979 0.9994 0.9998 1.0000
n=5 0.1160 0.4284 0.7648 0.9460 0.9947 1.0000
n=6 0.0754 0.3191 0.6471 0.8826 0.9777 0.9982 1.0000
n =7 0.0490 0.2338 0.5323 0.8002 0.9444 0.9910 0.9994 1.0000
n=8 0.0319 0.1691 0.4278 0.7064 0.8939 0.9747 0.9964 0.9998 1.0000
n=9 0.0207 0.1211 0.3373 0.6089 0.8283 0.9464 0.9888 0.9986 0.9999 1.0000
0.0135 0.0860 0.2616 0.5138 0.7515 0.9051 0.9740 0.9952 0.9995 1.0000
n=10
n=2 0.4225 0.8775 1.0000
n=3 0.2746 0.7183 0.9571 1.0000
n=4 0.1785 0.5630 0.8735 0.9850 1.0000
n = 12 0.0057 0.0424 0.1513 0.3467 0.5833 0.7873 0.9154 0.9745 0.9944 0.9992 0.9999 1.0000 1.0000
n = 13 0.0037 0.0296 0.1132 0.2783 0.5005 0.7159 0.8705 0.9538 0.9874 0.9975 0.9997 1.0000 1.0000 1.0000
n=U n=15 0.0024 0.0016 0.0205 0.0142 0.0839 0.0617 0.2205 0.1727 0.4227 0.3519 0.6405 0.5643 0.8164 0.7548 0.9247 0.8868 0.9757 0.9578 0.9940 0.9876 0.9989 0.9972 0.9999 0.9995 1.0000 0.9999 1.0000 1.0000 1.0000 1.0000 1.0000
n = 16 71=17 0.0010 0.0007 0.0098 0.0067 0.0451 0.0327 0.1339 0.1028 0.2892 0.2348 0.4900 0.4197 0.6881 0.6188 0.8406 0.7872 0.9329 0.9006 0.9771 0.9617 0.9938 0.9880 0.9987 0.9970 0.9998 0.9994 1.0000 0.9999 1.0000 1.0000 1.0000 1.0000
n=18
n=19
0.0004 0.0046 0.0236 0.0783 0.1886 0.3550 0.5491 0.7283 0.8609 0.9403 0.9788 0.9938 0.9986 0.9997 1.0000 1.0000
0.0003 0.0031 0.0170 0.0591 0.1500 0.2968 0.4812 0.6656 0.8145 0.9125 0.9653 0.9886 0.9969 0.9993 0.9999 1.0000
n = 20 0.0002 0.0021 0.0121 0.0444 0.1182 0.2454 0.4166 0.6010 0.7624 0.8782 0.9468 0.9804 0.9940 0.9985 0.9997 1.0000
n = 22 0.0001 0.0010 0.0061 0.0245 0.0716 0.1629 0.3022 0.4736 0.6466 0.7916 0.8930 0.9526 0.9820 0.9942 0.9984
n = 23 0.0000 0.0007 0.0043 0.0181 0.0551 0.1309 0.2534 0.4136 0.5860 0.7408 0.8575 0.9318 0.9717 0.9900 0.9970
n = 24 0.0000 0.0005 0.0030 0.0133 0.0422 0.1044 0.2106 0.3575 0.5257 0.6866 0.8167 0.9058 0.9577 0.9836 0.9945
n = 26 0.0000 0.0002 0.0015 0.0070 0.0242 0.0649 0.1416 0.2596 0.4106 0.5731 0.7219 0.8384 0.9168 0.9623 0.9850
n = 27 0.0000 0.0001 0.0010 0.0051 0.0182 0.0507 0.1148 0.2183 0.3577 0.5162 0.6698 0.7976 0.8894 0.9464 0.9771
n = 28 0.0000 0.0001 0.0007 0.0037 0.0136 0.0393 0.0923 0.1821 0.3089 0.4607 0.6160 0.7529 0.8572 0.9264 0.9663
n = 29 0.0000 0.0001 0.0005 0.0026 0.0101 0.0303 0.0738 0.1507 0.2645 0.4076 0.5617 0.7050 0.8207 0.9022 0.9524
n = 30 0.0000 0.0000 0.0003 0.0019 0.0075 0.0233 0.0586 0.1238 0.2247 0.3575 0.5078 0.6548 0.7802 0.8737 0.93481
n = 25 0.0000 0.0003 0.0021 0.0097 0.0320 0.0826 0.1734 0.3061 0.4668 0.6303 0.7712 0.8746 0.9396 0.9745 0.9907
Tabellen
580 n = 27 0.9914 0.9972 0.9992 0.9998 1.0000 1.0000 1.0000
n = 28 n = 29 0.9864 0.9794 0.9952 0.9921 0.9985 0.9973 0.9996 0.9992 0.9999 0.9998 1.0000 1.0000 1.0000 1.0000
n = 30 0.9699 0.9876 0.9955 0.9986 0.9996 0.9999 1.0000
n0.0467 0.2333 0.5443 0.8208 0.9590 0.9959 1.0000
n0.0280 0.1586 0.4199 0.7102 0.9037 0.9812 0.9984 1.0000
n - :8 0.0168 0.1064 0.3154 0.5941 0.8263 0.9502 0.9915 0.9993 1.0000
0.0101 0.0705 0.2318 0.4826 0.7334 0.9006 0.9750 0.9962 0.9997 1.0000
n - 10 0.0060 0.0464 0.1673 0.3823 0.6331 0.8338 0.9452 0.9877 0.9983 0.9999 1.0000
n = 15 0.0005 0.0052 0.0271 0.0905 0.2173 0.4032 0.6098 0.7869 0.9050 0.9662 0.9907 0.9981 0.9997 1.0000 1.0000 1.0000
n = 16 0.0003 0.0033 0.0183 0.0651 0.1666 0.3288 0.5272 0.7161 0.8577 0.9417 0.9809 0.9951 0.9991 0.9999 1.0000 1.0000 1.0000
n = 17 0.0002 0.0021 0.0123 0.0464 0.1260 0.2639 0.4478 0.6405 0.8011 0.9081 0.9652 0.9894 0.9975 0.9995 0.9999 1.0000 1.0000
n = 18 0.0001 0.0013 0.0082 0.0328 0.0942 0.2088 0.3743 0.5634 0.7368 0.8653 0.9424 0.9797 0.9942 0.9987 0.9998 1.0000 1.0000
n = 19 0.0001 0.0008 0.0055 0.0230 0.0696 0.1629 0.3081 0.4878 0.6675 0.8139 0.9115 0.9648 0.9884 0.9969 0.9994 0.9999 1.0000
n = 20 0.0000 0.0005 0.0036 0.0160 0.0510 0.1256 0.2500 0.4159 0.5956 0.7553 0.8725 0.9435 0.9790 0.9935 0.9984 0.9997 1.0000
n = 24 n = 25 0.0000 0.0000 0.0001 0.0001 0.0007 0.0004 0.0035 0.0024 0.0134 0.0095 0.0400 0.0294 0.0960 0.0736 0.1919 0.1536 0.3279 0.2735 0.4891 0.4246 0.6502 0.5858 0.7870 0.7323 0.8857 0.8462 0.9465 0.9222
n = 26 0.0000 0.0000 0.0003 0.0016 0.0066 0.0214 0.0559 0.1216 0.2255 0.3642 0.5213 0.6737 0.8007 0.8918
n = 27 n = 28 0.0000 0.0000 0.0000 0.0000 0.0002 0.0001 0.0011 0.0007 0.0046 0.0032 0.0155 0.0111 0.0421 0.0315 0.0953 0.0740 0.1839 0.1485 0.3087 0.2588 0.4585 0.3986 0.6127 0.5510 0.7499 0.6950 0.8553 0.8132
n = 29 0.0000 0.0000 0.0001 0.0005 0.0022 0.0080 0.0233 0.0570 0.1187 0.2147 0.3427 0.4900 0.6374 0.7659
n = 30 0.0000 0.0000 0.0000 0.0003 0.0015 0.0057 0.0172 0.0435 0.0940 0.1763 0.2915 0.4311 0.5785 0.7145
7r = 0.35 n = 21 n = 22 n = 23 n = 24 15 0.9999 0.9997 0.9992 0.9984 16 1.0000 0.9999 0.9998 0.9996 17 1.0000 1.0000 1.0000 0.9999 18 1.0000 1.0000 1.0000 1.0000 19 1.0000 1.0000 1.0000 1.0000 20 1.0000 1.0000 1.0000 1.0000 21 1.0000 1.0000 1.0000 1.0000
n = 25
n = 26
0.9971 0.9992 0.9998 1.0000 1.0000 1.0000 1.0000
0.9948 0.9985 0.9996 0.9999 1.0000 1.0000 1.0000
7r = 0.4 n=l x<0 0.6000 1 1.0000 2 3 4 5 6 7 8 9 10
n= 2 0.3600 0.8400 1.0000
n= 3 0.2160 0.6480 0.9360 1.0000
n= 4 0.1296 0.4752 0.8208 0.9744 1.0000
n= 5 0.0778 0.3370 0.6826 0.9130 0.9898 1.0000
7r=:0.4 x<0
n = ll 0.0036 0.0302 0.1189 0.2963 0.5328 0.7535 0.9006 0.9707 0.9941 0.9993 1.0000 1.0000
n = 12 0.0022 0.0196 0.0834 0.2253 0.4382 0.6652 0.8418 0.9427 0.9847 0.9972 0.9997 1.0000 1.0000
n = 13 0.0013 0.0126 0.0579 0.1686 0.3530 0.5744 0.7712 0.9023 0.9679 0.9922 0.9987 0.9999 1.0000 1.0000
n = 14 0.0008 0.0081 0.0398 0.1243 0.2793 0.4859 0.6925 0.8499 0.9417 0.9825 0.9961 0.9994 0.9999 1.0000 1.0000
7r = 0.4 n = 21 x<0 0.0000 1 0.0003 2 0.0024 3 0.0110 4 0.0370 5 0.0957 6 0.2002 7 0.3495 8 0.5237 9 0.6914 10 0.8256 11 0.9151 12 0.9648 L 13 1 0.9877
n = 22 0.0000 0.0002 0.0016 0.0076 0.0266 0.0722 0.1584 0.2898 0.4540 0.6244 0.7720 0.8793 0.9449 0.9785
n = 23 0.0000 0.0001 0.0010 0.0052 0.0190 0.0540 0.1240 0.2373 0.3884 0.5562 0.7129 0.8364 0.9187 0.9651
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
n:
B
581
Binomialverteilung
7r = 0.4 14 15 16 17 18 19 20 21 22
n = 21 0.9964 0.9992 0.9998 1.0000 1.0000 1.0000 1.0000 1.0000
n = 22 0.9930 0.9981 0.9996 0.9999 1.0000 1.0000 1.0000 1.0000 1.0000
n = 23 0.9872 0.9960 0.9990 0.9998 1.0000 1.0000 1.0000 1.0000 1.0000
n = 24 0.9783 0.9925 0.9978 0.9995 0.9999 1.0000 1.0000 1.0000 1.0000
n = 25 0.9656 0.9868 0.9957 0.9988 0.9997 0.9999 1.0000 1.0000 1.0000
:26
:27
0.9482 0.9783 0.9921 0.9975 0.9993 0.9999 1.0000 1.0000 1.0000
0.9257 0.9663 0.9866 0.9954 0.9986 0.9997 0.9999 1.0000 1.0000
: 28 0.8975 0.9501 0.9785 0.9919 0.9973 0.9992 0.9998 1.0000 1.0000
n = 29 0.8638 0.9290 0.9671 0.9865 0.9951 0.9985 0.9996 0.9999 1.0000
n = 30 0.8246 0.9029 0.9519 0.9788 0.9917 0.9971 0.9991 0.9998 1.0000
TT = 0.45
n= l
n=2
n=3
x<0
0.3025 0.7975 1.0000
0.1664 0.5748 0.9089 1.0000
n0.0915 0.3910 0.7585 0.9590 1.0000
n0.0503 0.2562 0.5931 0.8688 0.9815 1.0000
n •• •6
0.5500 1.0000
0.0277 0.0152 0.0084 0.1636 0.1024 0.0632 0.4415 0.3164 0.2201 0.7447 0.6083 0.4770 0.9308 0.8471 0.7396 0.9917 0.9643 0.9115 1.0000 0.9963 0.9819 1.0000 0.9983 1.0000
0.0046 0.0385 0.1495 0.3614 0.6214 0.8342 0.9502 0.9909 0.9992 1.0000
0.0025 0.0233 0.0996 0.2660 0.5044 0.7384 0.8980 0.9726 0.9955 0.9997 1.0000
n = ll 0.0014 0.0139 0.0652 0.1911 0.3971 0.6331 0.8262 0.9390 0.9852 0.9978 0.9998 1.0000
n=12 0.0008 0.0083 0.0421 0.1345 0.3044 0.5269 0.7393 0.8883 0.9644 0.9921 0.9989 0.9999 1.0000
n = 13 0.0004 0.0049 0.0269 0.0929 0.2279 0.4268 0.6437 0.8212 0.9302 0.9797 0.9959 0.9995 1.0000 1.0000
n = 14 0.0002 0.0029 0.0170 0.0632 0.1672 0.3373 0.5461 0.7414 0.8811 0.9574 0.9886 0.9978 0.9997 1.0000 1.0000
n=15 0.0001 0.0017 0.0107 0.0424 0.1204 0.2608 0.4522 0.6535 0.8182 0.9231 0.9745 0.9937 0.9989 0.9999 1.0000 1.0000
n = 16 0.0001 0.0010 0.0066 0.0281 0.0853 0.1976 0.3660 0.5629 0.7441 0.8759 0.9514 0.9851 0.9965 0.9994 0.9999 1.0000 1.0000
n = 17 0.0000 0.0006 0.0041 0.0184 0.0596 0.1471 0.2902 0.4743 0.6626 0.8166 0.9174 0.9699 0.9914 0.9981 0.9997 1.0000 1.0000 1.0000
n=19 0.0000 0.0002 0.0015 0.0077 0.0280 0.0777 0.1727 0.3169 0.4940 0.6710 0.8159 0.9129 0.9658 0.9891 0.9972 0.9995 0.9999 1.0000
n = 20 0.0000 0.0001 0.0009 0.0049 0.0189 0.0553 0.1299 0.2520 0.4143 0.5914 0.7507 0.8692 0.9420 0.9786 0.9936 0.9985 0.9997 1.0000
n = 21 0.0000 0.0001 0.0006 0.0031 0.0126 0.0389 0.0964 0.1971 0.3413 0.5117
n = 22 0.0000 0.0000 0.0003 0.0020 0.0083 0.0271 0.0705 0.1518 0.2764 0.4350
:23 0.0000 0.0000 0.0002 0.0012 0.0055 0.0186 0.0510 0.1152 0.2203 0.3636
n = 24 0.0000 0.0000 0.0001 0.0008 0.0036 0.0127 0.0364 0.0863 0.1730 0.2991
n = 25 0.0000 0.0000 0.0001 0.0005 0.0023 0.0086 0.0258 0.0639 0.1340 0.2424
n = 26 0.0000 0.0000 0.0000 0.0003 0.0015 0.0058 0.0180 0.0467 0.1024 0.1936
n = 27 n •• : 28 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0001 0.0009 0.0006 0.0038 .0.0025 0.0125 0.0086 0.0338 0.0242 0.0774 0.0578 0.1526 0.1187
n = 29 0.0000 0.0000 0.0000 0.0001 0.0004 0.0017 0.0059 0.0172 0.0427 0.0913
n = 30 0.0000 0.0000 0.0000 0.0000 0.0002 0.0011 0.0040 0.0121 0.0312 0.0694
1 2 3 4 5 6 7 8 9 10
TT = 0.45
a:<0 1 2 3 4 5 6 7 10 11 12 13 14 15 16 17
7r = 0.45 rr<0 1 2 3 4 5 6 7
n
••
:8
n = 18 0.0000 0.0003 0.0025 0.0120 0.0411 0.1077 0.2258 0.3915 0.5778 0.7473 0.8720 0.9463 0.9817 0.9951 0.9990 0.9999 1.0000 1.0000
:9
10
Tabellen
582 TT = 0.45
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
7r = 0.5
x<0 1 2 3 4 5 6 7 8 9 10
:0.5 x<0 1 2 3 4 5 6 7 10 11 12 13 14 15 16 17 18
7r = 0.5
x<0 1 2 3
n = 21 0.6790 0.8159 0.9092 0.9621 0.9868 0.9963 0.9992 0.9999 1.0000 1.0000 1.0000 1.0000
n= 1 0.5000 1.0000
n = 22 n = 23 n = 24 0.6037 0.5278 0.4539 0.7543 0.6865 0.6151 0.8672 0.8164 0.7580 0.9383 0.9063 0.8659 0.9757 0.9589 0.9352 0.9920 0.9847 0.9731 0.9979 0.9952 0.9905 0.9995 0.9988 0.9972 0.9999 0.9998 0.9993 1.0000 1.0000 0.9999 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
n = 2 0.2500 0.7500 1.0000
n0.1250 0.5000 0.8750 1.0000
n -0.0625 0.3125 0.6875 0.9375 1.0000
n = 25
n = 26
0.3843 0.5426 0.6937 0.8173 0.9040 0.9560 0.9826 0.9942 0.9984 0.9996 0.9999 1.0000 1.0000 1.0000 1.0000
0.3204 0.4713 0.6257 0.7617 0.8650 0.9326 0.9707 0.9890 0.9965 0.9991 0.9998 1.0000 1.0000 1.0000 1.0000
n0.0313 0.1875 0.5000 0.8125 0.9688 1.0000
0.0156 0.1094 0.3438 0.6562 0.8906 0.9844 1.0000
n = 27 0.2633 0.4034 0.5562 0.7005 0.8185 0.9022 0.9536 0.9807 0.9931 0.9979 0.9995 0.9999 1.0000 1.0000 1.0000
n = 28
n = 29
n = 30
0.2135 0.3404 0.4875 0.6356 0.7654 0.8645 0.9304 0.9685 0.9875 0.9957 0.9988 0.9997 0.9999 1.0000 1.0000
0.1708 0.2833 0.4213 0.5689 0.7070 0.8199 0.9008 0.9514 0.9790 0.9920 0.9974 0.9993 0.9998 1.0000 1.0000
0.1350 0.2327 0.3592 0.5025 0.6448 0.7691 0.8644 0.9286 0.9666 0.9862 0.9950 0.9984 0.9996 0.9999 1.0000
n0.0078 0.0625 0.2266 0.5000 0.7734 0.9375 0.9922 1.0000
n: 0.0039 0.0352 0.1445 0.3633 0.6367 0.8555 0.9648 0.9961 1.0000
n = ll n = 12 n = 13 n = 14 n = 15 n = 16 n = 17
18
:9 0.0020 0.0195 0.0898 0.2539 0.5000 0.7461 0.9102 0.9805 0.9980 1.0000
n •
10 0.0010 0.0107 0.0547 0.1719 0.3770 0.6230 0.8281 0.9453 0.9893 0.9990 1.0000
19 n - :20
0.0005 0.0059 0.0327 0.1133 0.2744 0.5000 0.7256 0.8867 0.9673 0.9941 0.9995 1.0000
0.0002 0.0032 0.0193 0.0730 0.1938 0.3872 0.6128 0.8062 0.9270 0.9807 0.9968 0.9998 1.0000
0.0001 0.0017 0.0112 0.0461 0.1334 0.2905 0.5000 0.7095 0.8666 0.9539 0.9888 0.9983 0.9999 1.0000
0.0001 0.0009 0.0065 0.0287 0.0898 0.2120 0.3953 0.6047 0.7880 0.9102 0.9713 0.9935 0.9991 0.9999 1.0000
0.0000 0.0005 0.0037 0.0176 0.0592 0.1509 0.3036 0.5000 0.6964 0.8491 0.9408 0.9824 0.9963 0.9995 1.0000 1.0000
0.0000 0.0003 0.0021 0.0106 0.0384 0.1051 0.2272 0.4018 0.5982 0.7728 0.8949 0.9616 0.9894 0.9979 0.9997 1.0000 1.0000
0.0000 0.0001 0.0012 0.0064 0.0245 0.0717 0.1662 0.3145 0.5000 0.6855 0.8338 0.9283 0.9755 0.9936 0.9988 0.9999 1.0000 1.0000
0.0000 0.0001 0.0007 0.0038 0.0154 0.0481 0.1189 0.2403 0.4073 0.5927 0.7597 0.8811 0.9519 0.9846 0.9962 0.9993 0.9999 1.0000 1.0000
0.0000 0.0000 0.0004 0.0022 0.0096 0.0318 0.0835 0.1796 0.3238 0.5000 0.6762 0.8204 0.9165 0.9682 0.9904 0.9978 0.9996 1.0000 1.0000
0.0000 0.0000 0.0002 0.0013 0,0059 0.0207 0.0577 0.1316 0.2517 0.4119 0,5881 0.7483 0.8684 0.9423 0.9793 0.9941 0.9987 0.9998 1.0000
n = 21 0.0000 0.0000 0.0001 0.0007
n = 22 0.0000 0.0000 0.0001 0.0004
n = 23 0.0000 0.0000 0,0000 0.0002
n - : 24 0.0000 0.0000 0.0000 0.0001
n = 25 0.0000 0,0000 0,0000 0,0001
n - 26 0,0000 0.0000 0,0000 0,0000
n - :27 0.0000 0.0000 0.0000 0.0000
n = 28 0.0000 0.0000 0.0000 0.0000
n = 29 0.0000 0.0000 0.0000 0.0000
n = 30 0.0000 0.0000 0,0000 0.0000
583
C x^-Verteilung
7r = 0.5
4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
C
n = 21 0.0036 0.0133 0.0392 0.0946 0.1917 0.3318 0.5000 0.6682 0.8083 0.9054 0.9608 0.9867 0.9964 0.9993 0.9999 1.0000 1.0000 1.0000
n = 22
n = 23
0.0022 0.0085 0.0262 0.0669 0.1431 0.2617 0.4159 0.5841 0.7383 0.8569 0.9331 0.9738 0.9915 0.9978 0.9996 0.9999 1.0000 1.0000 1.0000
0.0013 0.0053 0.0173 0.0466 0.1050 0.2024 0.3388 0.5000 0.6612 0.7976 0.8950 0.9534 0.9827 0.9947 0.9987 0.9998 1.0000 1.0000 1.0000 1.0000
n = 24 0.0008 0.0033 0.0113 0.0320 0.0758 0.1537 0.2706 0.4194 0.5806 0.7294 0.8463 0.9242 0.9680 0.9887 0.9967 0.9992 0.9999 1.0000 1.0000 1.0000 1.0000
n = 25 0.0005 0.0020 0.0073 0.0216 0.0539 0.1148 0.2122 0.3450 0.5000 0.6550 0.7878 0.8852 0.9461 0.9784 0.9927 0.9980 0.9995 0.9999 1.0000 1.0000 1.0000 1.0000
n = 26 0.0003 0.0012 0.0047 0.0145 0.0378 0.0843 0.1635 0.2786 0.4225 0.5775 0.7214 0.8365 0.9157 0.9622 0.9855 0.9953 0.9988 0.9997 1.0000 1.0000 1.0000 1.0000
n = 27 0.0002 0.0008 0.0030 0.0096 0.0261 0.0610 0.1239 0.2210 0.3506 0.5000 0.6494 0.7790 0.8761 0.9390 0.9739 0.9904 0.9970 0.9992 0.9998 1.0000 1.0000 1.0000
n = 28 0.0001 0.0005 0.0019 0.0063 0.0178 0.0436 0.0925 0.1725 0.2858 0.4253 0.5747 0.7142 0.8275 0.9075 0.9564 0.9822 0.9937 0.9981 0.9995 0.9999 1.0000 1.0000
n = 29 0.0001 0.0003 0.0012 0.0041 0.0121 0.0307 0.0680 0.1325 0.2291 0.3555 0.5000 0.6445 0.7709 0.8675 0.9320 0.9693 0.9879 0.9959 0.9988 0.9997 0.9999 1.0000
n = 30 0.0000 0.0002 0.0007 0.0026 0.0081 0.0214 0.0494 0.1002 0.1808 0.2923 0.4278 0.5722 0.7077 0.8192 0.8998 0.9506 0.9786 0.9919 0.9974 0.9993 0.9998 1.0000
x^-Verteilung
Tabelliert sind die Quantile fiir n Freiheitsgrade. Fiir das Quantil Xi-a(^) gil^ ^ ( X i - a ( ^ ) ) " 1 — a . Links vom Quantil Xi-a(^) li^g^ die Wahrscheinlichkeitsmasse 1 — a. Ablesebeispiel: Xo.95(10) = 18.307 Approximation fiir n > 30: Xa(^) ^ ^(^a + \/2n — 1)^ {za ist das a-Quantil der Standardnormalverteilung) n
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21
1^1
0.01 0.0002 0.0201 0.1148 0.2971 0.5543 0.8721 1.2390 1.6465 2.0879 2.5582 3.0535 3.5706 4.1069 4.6604 5.2293 5.8122 6.4078 7.0149 7.6327 8.2604 8.8972 9.5425
0.025 0.0010 0.0506 0.2158 0.4844 0.8312 1.2373 1.6899 2.1797 2.7004 3.2470 3.8157 4.4038 5.0088 5.6287 6.2621 6.9077 7.5642 8.2307 8.9065 9.5908 10.283 10.982
0.05 0.0039 0.1026 0.3518 0.7107 1.1455 1.6354 2.1674 2.7326 3.3251 3.9403 4.5748 5.2260 5.8919 6.5706 7.2609 7.9616 8.6718 9.3905 10.117 10.851 11.591 12.338
0.1
0.5
0.9
0.0158 0.2107 0.5844 1.0636 1.6103 2.2041 2.8331 3.4895 4.1682 4.8652 5.5778 6.3038 7.0415 7.7895 8.5468 9.3122 10.085 10.865 11.651 12.443 13.240 14.041
0.4549 1.3863 2.3660 3.3567 4.3515 5.3481 6.3458 7.3441 8.3428 9.3418 10.341 11.340 12.340 13.339 14.339 15.338 16.338 17.338 18.338 19.337 20.337 21.337
2.7055 4.6052 6.2514 7.7794 9.2364 10.645 12.017 13.362 14.684 15.987 17.275 18.549 19.812 21.064 22.307 23.542 24.769 25.989 27.204 28.412 29.615 30.813
0.95 3.8415 5.9915 7.8147 9.4877 11.070 12.592 14.067 15.507 16.919 18.307 19.675 21.026 22.362 23.685 24.996 26.296 27.587 28.869 30.144 31.410 32.671 33.924
0.975 5.0239 7.3778 9.3484 11.143 12.833 14.449 16.013 17.535 19.023 20.483 21.920 23.337 24.736 26.119 27.488 28.845 30.191 31.526 32.852 34.170 35.479 36.781
0.99 6.6349 9.2103 11.345 13.277 15.086 16.812 18.475 20.090 21.666 23.209 24.725 26.217 27.688 29.141 30.578 32.000 33.409 34.805 36.191 37.566 38.932 40.2891
584
D
Tabellen
0.01
0.025
0.05
0.1
0.5
0.9
0.95
0.975
0.99
10.196 10.856 11.524 12.198 12.879 13.565 14.256 14.953
11.689 12.401 13.120 13.844 14.573 15.308 16.047 16.791
13.091 13.848 14.611 15.379 16.151 16.928 17.708 18.493
14.848 15.659 16.473 17.292 18.114 18.939 19.768 20.599
22.337 23.337 24.337 25.336 26.336 27.336 28.336 29.336
32.007 33.196 34.382 35.563 36.741 37.916 39.087 40.256
35.172 36.415 37.652 38.885 40.113 41.337 42.557 43.773
38.076 39.364 40.646 41.923 43.195 44.461 45.722 46.979
41.638 42.980 44.314 45.642 46.963 48.278 49.588 50.892
Students t-Verteilung
Tabelliert sind die Quantile fiir n Preiheitsgrade. Fiir das Quantil ti_a(n) gilt F(ti_a(n)) = 1 — a. Links vom Quantil ti^ai'^) H^gt die Wahrscheinlichkeitsmasse 1 — a. Ablesebeispiel: to.99(20) = 2.528 Die Quantile fiir 0 < 1 — a < 0.5 erhalt man aus ta{n) = —ti_a(n) Approximation fiir n > 30: ta{n) « Za {za ist das (a)-Quantil der Standardnormalverteilung)
In
0.6
0.8
0.9
\T2
0.3249 0.2887 0.2767 0.2707 0.2672 0.2648 0.2632 0.2619 0.2610 0.2602 0.2596 0.2590 0.2586 0.2582 0.2579 0.2576 0.2573 0.2571 0.2569 0.2567 0.2566 0.2564 0.2563 0.2562 0.2561 0.2560 0.2559 0.2558 0.2557 0.2556 0.2533
1.3764 1.0607 0.9785 0.9410 0.9195 0.9057 0.8960 0.8889 0.8834 0.8791 0.8755 0.8726 0.8702 0.8681 0.8662 0.8647 0.8633 0.8620 0.8610 0.8600 0.8591 0.8583 0.8575 0.8569 0.8562 0.8557 0.8551 0.8546 0.8542 0.8538 0.8416
3.0777 1.8856 1.6377 1.5332 1.4759 1.4398 1.4149 1.3968 1.3830 1.3722 1.3634 1.3562 1.3502 1.3450 1.3406 1.3368 1.3334 1.3304 1.3277 1.3253 1.3232 1.3212 1.3195 1.3178 1.3163 1.3150 1.3137 1.3125 1.3114 1.3104 1.2816
3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 oo
0.95 6.3138 2.9200 2.3534 2.1318 2.0150 1.9432 1.8946 1.8595 1.8331 1.8125 1.7959 1.7823 1.7709 1.7613 1.7531 1.7459 1.7396 1.7341 1.7291 1.7247 1.7207 1.7171 1.7139 1.7109 1.7081 1.7056 1.7033 1.7011 1.6991 1.6973 1.6449
0.975 12.706 4.3027 3.1824 2.7764 2.5706 2.4469 2.3646 2.3060 2.2622 2.2281 2.2010 2.1788 2.1604 2.1448 2.1314 2.1199 2.1098 2.1009 2.0930 2.0860 2.0796 2.0739 2.0687 2.0639 2.0595 2.0555 2.0518 2.0484 2.0452 2.0423 1.9600
0.99 31.821 6.9646 4.5407 3.7469 3.3649 3.1427 2.9980 2.8965 2.8214 2.7638 2.7181 2.6810 2.6503 2.6245 2.6025 2.5835 2.5669 2.5524 2.5395 2.5280 2.5176 2.5083 2.4999 2.4922 2.4851 2.4786 2.4727 2.4671 2.4620 2.4573 2.3263
0.995 63.657 9.9248 5.8409 4.6041 4.0321 3.7074 3.4995 3.3554 3.2498 3.1693 3.1058 3.0545 3.0123 2.9768 2.9467 2.9208 2.8982 2.8784 2.8609 2.8453 2.8314 2.8188 2.8073 2.7969 2.7874 2.7787 2.7707 2.7633 2.7564 2.7500 2.5758
0.999 318.31 22.327 10.215 7.1732 5.8934 5.2076 4.7853 4.5008 4.2968 4.1437 4.0247 3.9296 3.8520 3.7874 3.7328 3.6862 3.6458 3.6105 3.5794 3.5518 3.5272 3.5050 3.4850 3.4668 3.4502 3.4350 3.4210 3.4082 3.3962 3.3852 3.0903
0.9995 636.62 31.599 12.924 8.6103 6.8688 5.9588 5.4079 5.0413 4.7809 4.5869 4.4370 4.3178 4.2208 4.1405 4.0728 4.0150 3.9651 3.9216 3.8834 3.8495 3.8193 3.7921 3.7676 3.7454 3.7251 3.7066 3.6896 3.6739 3.6594 3.6460 3.2906
E
585
F-Verteilung
E
F-Verteilung
Tabelliert sind die rechtsseitigen Quantile fiir (ni,n2) Preiheitsgrade. Fiir das Quantil / i _ a ( ^ i , ^ 2 ) gilt F ( / i _ a ( n i , n 2 ) ) = 1 - a. Links vom Quantil / i - .(^1,^2) liegt die Wahrscheinlichkeitsmasse 1 — a. Ablesebeispiel: /o.99(15,8) = 5.5151 Linksseitige Quantile: /a(ni,n2) = f^_^(m,n2) 712
ni
1
a
0.9 0.95 0.975 0.99
2
0.9 0.95 0.975 0.99
3
0.9 0.95 0.975 0.99
4
0.9 0.95 0.975 0.99
5
0.9 0.95 0.975 0.99
6
0.9 0.95 0.975 0.99
7
0.9 0.95 0.975 0.99
8
0.9 0.95 0.975 0.99
9
0.9 0.95 0.975 0.99
10
0.9 0.95 0.975 0.99
11
0.9 0.95 0.975 0.99
12
0.9 0.95 0.975
1
2
3
4
39.863 161.45 647.79 4052.2 49.500 199.50 799.50 4999.5 53.593 215.71 864.16 5403.4 55.833 224.58 899.58 5624.6 57.240 230.16 921.85 5763.6 58.204 233.99 937.11 5859.0 58.906 236.77 948.22 5928.4 59.439 238.88 956.66 5981.1 59.858 240.54 963.28 6022.5 60.195 241.88 968.63 6055.8 60.473 242.98 973.03 6083.3 60.705 243.91 976.71
8.5263 18.513 38.506 98.502 9.0000 19.000 39.000 99.000 9.1618 19.164 39.165 99.166 9.2434 19.247 39.248 99.249 9.2926 19.296 39.298 99.299 9.3255 19.330 39.331 99.333 9.3491 19.353 39.355 99.356 9.3668 19.371 39.373 99.374 9.3805 19.385 39.387 99.388 9.3916 19.396 39.398 99.399 9.4006 19.405 39.407 99.408 9.4081 19.413 39.415
5.5383 10.128 17.443 34.116 5.4624 9.5521 16.044 30.817 5.3908 9.2766 15.439 29.457 5.3426 9.1172 15.101 28.710 5.3092 9.0135 14.885 28.237 5.2847 8.9406 14.735 27.911 5.2662 8.8867 14.624 27.672 5.2517 8.8452 14.540 27.489 5.2400 8.8123 14.473 27.345 5.2304 8.7855 14.419 27.229 5.2224 8.7633 14.374 27.133 5.2156 8.7446 14.337
4.5448 7.7086 12.218 21.198 4.3246 6.9443 10.649 18.000 4.1909 6.5914 9.9792 16.694 4.1072 6.3882 9.6045 15.977 4.0506 6.2561 9.3645 15.522 4.0097 6.1631 9.1973 15.207 3.9790 6.0942 9.0741 14.976 3.9549 6.0410 8.9796 14.799 3.9357 5.9988 8.9047 14.659 3.9199 5.9644 8.8439 14.546 3.9067 5.9358 8.7935 14.452 3.8955 5.9117 8.7512
5 4.0604 6.6079 10.007 16.258 3.7797 5.7861 8.4336 13.274 3.6195 5.4095 7.7636 12.060 3.5202 5.1922 7.3879 11.392 3.4530 5.0503 7.1464 10.967 3.4045 4.9503 6.9777 10.672 3.3679 4.8759 6.8531 10.456 3.3393 4.8183 6.7572 10:289 3.3163 4.7725 6.6811 10.158 3.2974 4.7351 6.6192 10.051 3.2816 4.7040 6.5678 9.9626 3.2682 4.6777 6.5245
6
7
8
9
3.7759 5.9874 8.8131 13.745 3.4633 5.1433 7.2599 10.925 3.2888 4.7571 6.5988 9.7795 3.1808 4.5337 6.2272 9.1483 3.1075 4.3874 5.9876 8.7459 3.0546 4.2839 5.8198 8.4661 3.0145 4.2067 5.6955 8.2600 2.9830 4.1468 5.5996 8.1017 2.9577 4.0990 5.5234 7.9761 2.9369 4.0600 5.4613 7.8741 2.9195 4.0274 5.4098 7.7896 2.9047 3.9999 5.3662
3.5894 5.5914 8.0727 12.246 3.2574 4.7374 6.5415 9.5466 3.0741 4.3468 5.8898 8.4513 2.9605 4.1203 5.5226 7.8466 2.8833 3.9715 5.2852 7.4604 2.8274 3.8660 5.1186 7.1914 2.7849 3.7870 4.9949 6.9928 2.7516 3.7257 4.8993 6.8400 2.7247 3.6767 4.8232 6.7188 2.7025 3.6365 4.7611 6.6201 2.6839 3.6030 4.7095 6.5382 2.6681 3.5747 4.6658
3.4579 5.3177 7.5709 11.259 3.1131 4.4590 6.0595 8.6491 2.9238 4.0662 5.4160 7.5910 2.8064 3.8379 5.0526 7.0061 2.7264 3.6875 4.8173 6.6318 2.6683 3.5806 4.6517 6.3707 2.6241 3.5005 4.5286 6.1776 2.5893 3.4381 4.4333 6.0289 2.5612 3.3881 4.3572 5.9106 2.5380 3.3472 4.2951 5.8143 2.5186 3.3130 4.2434 5.7343 2.5020 3.2839 4.1997
3.3603 5.1174 7.2093 10.561 3.0065 4.2565 5.7147 8.0215 2.8129 3.8625 5.0781 6.9919 2.6927 3.6331 4.7181 6.4221 2.6106 3.4817 4.4844 6.0569 2.5509 3.3738 4.3197 5.8018 2.5053 3.2927 4.1970 5.6129 2.4694 3.2296 4.1020 5.4671 2.4403 3.1789 4.0260 5.3511 2.4163 3.1373 3.9639 5.2565 2.3961 3.1025 3.9121 5.1779 2.3789 3.0729 3.8682
Tabellen
586 n2
m 13
14
15
20
25
30
40
50
60
80
100
150
a 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99
1
2
3
4
6106.3 60.903 244.69 979.84 6125.9 61.073 245.36 982.53 6142.7 61.220 245.95 984.87 6157.3 61.740 248.01 993.10 6208.7 62.055 249.26 998.08 6239.8 62.265 250.10 1001.4 6260.6 62.529 251.14 1005.6 6286.8 62.688 251.77 1008.1 6302.5 62.794 252.20 1009.8 6313.0 62.927 252.72 1011.9 6326.2 63.007 253.04 1013.2 6334.1 63.114 253.46 1014.9 6344.7
99.416 9.4145 19.419 39.421 99.422 9.4200 19.424 39.427 99.428 9.4247 19.429 39.431 99.433 9.4413 19.446 39.448 99.449 9.4513 19.456 39.458 99.459 9.4579 19.462 39.465 99.466 9.4662 19.471 39.473 99.474 9.4712 19.476 39.478 99.479 9.4746 19.479 39.481 99.482 9.4787 19.483 39.485 99.487 9.4812 19.486 39.488 99.489 9.4846 19.489 39.491 99.492
27.052 5.2098 8.7287 14.304 26.983 5.2047 8.7149 14.277 26.924 5.2003 8.7029 14.253 26.872 5.1845 8.6602 14.167 26.690 5.1747 8.6341 14.115 26.579 5.1681 8.6166 14.081 26.505 5.1597 8.5944 14.037 26.411 5.1546 8.5810 14.010 26.354 5.1512 8.5720 13.992 26.316 5.1469 8.5607 13.970 26.269 5.1443 8.5539 13.956 26.240 5.1408 8.5448 13.938 26.202
14.374 3.8859 5.8911 8.7150 14.307 3.8776 5.8733 8.6838 14.249 3.8704 5.8578 8.6565 14.198 3.8443 5.8025 8.5599 14.020 3.8283 5.7687 8.5010 13.911 3.8174 5.7459 8.4613 13.838 3.8036 5.7170 8.4111 13.745 3.7952 5.6995 8.3808 13.690 3.7896 5.6877 8.3604 13.652 3.7825 5.6730 8.3349 13.605 3.7782 5.6641 8.3195 13.577 3.7724 5.6521 8.2988 13.539
10
12
14
16
3.2850 4.9646 6.9367 10.044
3.1765 4.7472 6.5538 9.3302
3.1022 4.6001 6.2979 8.8616
3.0481 4.4940 6.1151 8.5310
5 9.8883 3.2567 4.6552 6.4876 9.8248 3.2468 4.6358 6.4556 9.7700 3.2380 4.6188 6.4277 9.7222 3.2067 4.5581 6.3286 9.5526 3.1873 4.5209 6.2679 9.4491 3.1741 4.4957 6.2269 9.3793 3.1573 4.4638 6.1750 9.2912 3.1471 4.4444 6.1436 9.2378 3.1402 4.4314 6.1225 9.2020 3.1316 4.4150 6.0960 9.1570 3.1263 4.4051 6.0800 9.1299 3.1193 4.3918 6.0586 9.0936
6
7
8
9
7.7183 2.8920 3.9764 5.3290 7.6575 2.8809 3.9559 5.2968 7.6049 2.8712 3.9381 5.2687 7.5590 2.8363 3.8742 5.1684 7.3958 2.8147 3.8348 5.1069 7.2960 2.8000 3.8082 5.0652 7.2285 2.7812 3.7743 5.0125 7.1432 2.7697 3.7537 4.9804 7.0915 2.7620 3.7398 4.9589 7.0567 2.7522 3.7223 4.9318 7.0130 2.7463 3.7117 4.9154 6.9867 2.7383 3.6976 4.8934 6.9513
6.4691 2.6545 3.5503 4.6285 6.4100 2.6426 3.5292 4.5961 6.3590 2.6322 3.5107 4.5678 6.3143 2.5947 3.4445 4.4667 6.1554 2.5714 3.4036 4.4045 6.0580 2.5555 3.3758 4.3624 5.9920 2.5351 3.3404 4.3089 5.9084 2.5226 3.3189 4.2763 5.8577 2.5142 3.3043 4.2544 5.8236 2.5036 3.2860 4.2268 5.7806 2.4971 3.2749 4.2101 5.7547 2.4884 3.2600 4.1877 5.7199
5.6667 2.4876 3.2590 4.1622 5.6089 2.4752 3.2374 4.1297 5.5589 2.4642 3.2184 4.1012 5.5151 2.4246 3.1503 3.9995 5.3591 2.3999 3.1081 3.9367 5.2631 2.3830 3.0794 3.8940 5.1981 2.3614 3.0428 3.8398 5.1156 2.3481 3.0204 3.8067 5.0654 2.3391 3.0053 3.7844 5.0316 2.3277 2.9862 3.7563 4.9890 2.3208 2.9747 3.7393 4.9633 2.3115 2.9591 3.7165 4.9287
5.1114 2.3640 3.0475 3.8306 5.0545 2.3510 3.0255 3.7980 5.0052 2.3396 3.0061 3.7694 4.9621 2.2983 2.9365 3.6669 4.8080 2.2725 2.8932 3.6035 4.7130 2.2547 2.8637 3.5604 4.6486 2.2320 2.8259 3.5055 4.5666 2.2180 2.8028 3.4719 4.5167 2.2085 2.7872 3.4493 4.4831 2.1965 2.7675 3.4207 4.4407 2.1892 2.7556 3.4034 4.4150 2.1793 2.7394 3.3801 4.3805
n2
m 1
a 0.9 0.95 0.975 0.99
18 3.0070 4.4139 5.9781 8.2854
20
22
24
26
2.9747 4.3512 5.8715 8.0960
2.9486 4.3009 5.7863 7.9454
2.9271 4.2597 5.7166 7.8229
2.9091 4.2252 5.6586 7.7213
587
E .F'Verteilung ^2
ni
2
3
4
5
6
7
8
9
10
11
12
13
14
15
20
a
10
12
14
16
0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95
2.9245 4.1028 5.4564 7.5594 2.7277 3.7083 4.8256 6.5523 2.6053 3.4780 4.4683 5.9943 2.5216 3.3258 4.2361 5.6363 2.4606 3.2172 4.0721 5.3858 2.4140 3.1355 3.9498 5.2001 2.3771 3.0717 3.8549 5.0567 2.3473 3.0204 3.7790 4.9424 2.3226 2.9782 3.7168 4.8491 2.3018 2.9430 3.6649 4.7715 2.2841 2.9130 3.6209 4.7059 2.2687 2.8872 3.5832 4.6496 2.2553 2.8647 3.5504 4.6008 2.2435 2.8450 3.5217 4.5581 2.2007 2.7740
2.8068 3.8853 5.0959 6.9266 2.6055 3.4903 4.4742 5.9525 2.4801 3.2592 4.1212 5.4120 2.3940 3.1059 3.8911 5.0643 2.3310 2.9961 3.7283 4.8206 2.2828 2.9134 3.6065 4.6395 2.2446 2.8486 3.5118 4.4994 2.2135 2.7964 3.4358 4.3875 2.1878 2.7534 3.3736 4.2961 2.1660 2.7173 3.3215 4.2198 2.1474 2.6866 3.2773 4.1553 2.1313 2.6602 3.2393 4.0999 2.1173 2.6371 3.2062 4.0518 2.1049 2.6169 3.1772 4.0096 2.0597 2.5436
2.7265 3.7389 4.8567 6.5149 2.5222 3.3439 4.2417 5.5639 2.3947 3.1122 3.8919 5.0354 2.3069 2.9582 3.6634 4.6950 2.2426 2.8477 3.5014 4.4558 2.1931 2.7642 3.3799 4.2779 2.1539 2.6987 3.2853 4.1399 2.1220 2.6458 3.2093 4.0297 2.0954 2.6022 3.1469 3.9394 2.0729 2.5655 3.0946 3.8640 2.0537 2.5342 3.0502 3.8001 2.0370 2.5073 3.0119 3.7452 2.0224 2.4837 2.9786 3.6975 2.0095 2.4630 2.9493 3.6557 1.9625 2.3879
2.6682 3.6337 4.6867 6.2262 2.4618 3.2389 4.0768 5.2922 2.3327 3.0069 3.7294 4.7726 2.2438 2.8524 3.5021 4.4374 2.1783 2.7413 3.3406 4.2016 2.1280 2.6572 3.2194 4.0259 2.0880 2.5911 3.1248 3.8896 2.0553 2.5377 3.0488 3.7804 2.0281 2.4935 2.9862 3.6909 2.0051 2.4564 2.9337 3.6162 1.9854 2.4247 2.8890 3.5527 1.9682 2.3973 2.8506 3.4981 1.9532 2.3733 2.8170 3.4506 1.9399 2.3522 2.7875 3.4089 1.8913 2.2756
18 2.6239 3.5546 4.5597 6.0129 2.4160 3.1599 3.9539 5.0919 2.2858 2.9277 3.6083 4.5790 2.1958 2.7729 3.3820 4.2479 2.1296 2.6613 3.2209 4.0146 2.0785 2.5767 3.0999 3.8406 2.0379 2.5102 3.0053 3.7054 2.0047 2.4563 2.9291 3.5971 1.9770 2.4117 2.8664 3.5082 1.9535 2.3742 2.8137 3.4338 1.9333 2.3421 2.7689 3.3706 1.9158 2.3143 2.7302 3.3162 1.9004 2.2900 2.6964 3.2689 1.8868 2.2686 2.6667 3.2273 1.8368 2.1906
20
22
24
26
2.5893 3.4928 4.4613 5.8489 2.3801 3.0984 3.8587 4.9382 2.2489 2.8661 3.5147 4.4307 2.1582 2.7109 3.2891 4.1027 2.0913 2.5990 3.1283 3.8714 2.0397 2.5140 3.0074 3.6987 1.9985 2.4471 2.9128 3.5644 1.9649 2.3928 2.8365 3.4567 1.9367 2.3479 2.7737 3.3682 1.9129 2.3100 2.7209 3.2941 1.8924 2.2776 2.6758 3.2311 1.8745 2.2495 2.6369 3.1769 1.8588 2.2250 2.6030 3.1296 1.8449 2.2033 2.5731 3.0880 1.7938 2.1242
2.5613 3.4434 4.3828 5.7190 2.3512 3.0491 3.7829 4.8166 2.2193 2.8167 3.4401 4.3134 2.1279 2.6613 3.2151 3.9880 2.0605 2.5491 3.0546 3.7583 2.0084 2.4638 2.9338 3.5867 1.9668 2.3965 2.8392 3.4530 1.9327 2.3419 2.7628 3.3458 1.9043 2.2967 2.6998 3.2576 1.8801 2.2585 2.6469 3.1837 1.8593 2.2258 2.6017 3.1209 1.8411 2.1975 2.5626 3.0667 1.8252 2.1727 2.5285 3.0195 1.8111 2.1508 2.4984 2.9779 1.7590 2.0707
2.5383 3.4028 4.3187 5.6136 2.3274 3.0088 3.7211 4.7181 2.1949 2.7763 3.3794 4.2184 2.1030 2.6207 3.1548 3.8951 2.0351 2.5082 2.9946 3.6667 1.9826 2.4226 2.8738 3.4959 1.9407 2.3551 2.7791 3.3629 1.9063 2.3002 2.7027 3.2560 1.8775 2.2547 2.6396 3.1681 1.8530 2.2163 2.5865 3.0944 1.8319 2.1834 2.5411 3.0316 1.8136 2.1548 2.5019 2.9775 1.7974 2.1298 2.4677 2.9303 1.7831 2.1077 2.4374 2.8887 1.7302 2.0267
2.5191 3.3690 4.2655 5.5263 2.3075 2.9752 3.6697 4.6366 2.1745 2.7426 3.3289 4.1400 2.0822 2.5868 3.1048 3.8183 2.0139 2.4741 2.9447 3.5911 1.9610 2.3883 2.8240 3.4210 1.9188 2.3205 2.7293 3.2884 1.8841 2.2655 2.6528 3.1818 1.8550 2.2197 2.5896 3.0941 1.8303 2.1811 2.5363 3.0205 1.8090 2.1479 2.4908 2.9578 1.7904 2.1192 2.4515 2.9038 1.7741 2.0939 2.4171 2.8566 1.7596 2.0716 2.3867 2.8150 1.7059 1.9898 1
Tabellen
588 n2
m 25
30
40
50
60
80
100
150
a
10
12
14
16
0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99
3.4185 4.4054 2.1739 2.7298 3.3546 4.3111 2.1554 2.6996 3.3110 4.2469 2.1317 2.6609 3.2554 4.1653 2.1171 2.6371 3.2214 4.1155 2.1072 2.6211 3.1984 4.0819 2.0946 2.6008 3.1694 4.0394 2.0869 2.5884 3.1517 4.0137 2.0766 2.5718 3.1280 3.9792
3.0728 3.8584 2.0312 2.4977 3.0077 3.7647 2.0115 2.4663 2.9633 3.7008 1.9861 2.4259 2.9063 3.6192 1.9704 2.4010 2.8714 3.5692 1.9597 2.3842 2.8478 3.5355 1.9461 2.3628 2.8178 3.4928 1.9379 2.3498 2.7996 3.4668 1.9266 2.3322 2.7750 3.4319
2.8437 3.5052 1.9326 2.3407 2.7777 3.4116 1.9119 2.3082 2.7324 3.3476 1.8852 2.2663 2.6742 3.2656 1.8686 2.2405 2.6384 3.2153 1.8572 2.2229 2.6142 3.1813 1.8428 2.2006 2.5833 3.1381 1.8340 2.1870 2.5646 3.1118 1.8220 2.1686 2.5392 3.0764
2.6808 3.2587 1.8603 2.2272 2.6138 3.1650 1.8388 2.1938 2.5678 3.1007 1.8108 2.1507 2.5085 3.0182 1.7934 2.1240 2.4719 2.9675 1.7816 2.1058 2.4471 2.9330 1.7664 2.0826 2.4154 2.8893 1.7570 2.0685 2.3961 2.8627 1.7444 2.0492 2.3700 2.8267
OL
30
40
50
60
0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99
2.8807 4.1709 5.5675 7.5625 2.4887 3.3158 4.1821 5.3903 2.2761 2.9223 3.5894 4.5097 2.1422 2.6896 3.2499 4.0179 2.0492 2.5336 3.0265 3.6990
2.8354 4.0847 5.4239 7.3141 2.4404 3.2317 4.0510 5.1785 2.2261 2.8387 3.4633 4.3126 2.0909 2.6060 3.1261 3.8283 1.9968 2.4495 2.9037 3.5138
2.8087 4.0343 5.3403 7.1706 2.4120 3.1826 3.9749 5.0566 2.1967 2.7900 3.3902 4.1993 2.0608 2.5572 3.0544 3.7195 1.9660 2.4004 2.8327 3.4077
2.7911 4.0012 5.2856 7.0771 2.3933 3.1504 3.9253 4.9774 2.1774 2.7581 3.3425 4.1259 2.0410 2.5252 3.0077 3.6490 1.9457 2.3683 2.7863 3.3389
18 2.5590 3.0771 1.8049 2.1413 2.4912 2.9831 1.7827 2.1071 2.4445 2.9185 1.7537 2.0629 2.3842 2.8354 1.7356 2.0354 2.3468 2.7841 1.7232 2.0166 2.3214 2.7493 1.7073 1.9927 2.2890 2.7050 1.6976 1.9780 2.2692 2.6779 1.6843 1.9581 2.2423 2.6413
20
22
24
2.4645 2.9377 1.7611 2.0739 2.3959 2.8434 1.7382 2.0391 2.3486 2.7785 1.7083 1.9938 2.2873 2.6947 1.6896 1.9656 2.2493 2.6430 1.6768 1.9464 2.2234 2.6077 1.6603 1.9217 2.1902 2.5628 1.6501 1.9066 2.1699 2.5353 1.6363 1.8860 2.1424 2.4981
2.3890 2.8274 1.7255 2.0196 2.3198 2.7328 1.7021 1.9842 2.2718 2.6675 1.6714 1.9380 2.2097 2.5831 1.6521 1.9092 2.1710 2.5308 1.6389 1.8894 2.1446 2.4951 1.6218 1.8641 2.1108 2.4496 1.6113 1.8486 2.0901 2.4217 1.5969 1.8273 2.0618 2.3839
2.3273 2.7380 1.6960 1.9750 2.2574 2.6430 1.6721 1.9390 2.2090 2.5773 1.6407 1.8920 2.1460 2.4923 1.6209 1.8625 2.1067 2.4395 1.6073 1.8424 2.0799 2.4035 1.5897 1.8164 2.0454 2.3573 1.5788 1.8005 2.0243 2.3291 1.5640 1.7787 1.9954 2.2906
26 2.2759 2.6640 1.6712 1.9375 2.2054 2.5686 1.6468 1.9010 2.1565 2.5026 1.6147 1.8533 2.0928 2.4170 1.5945 1.8233 2.0530 2.3637 1.5805 1.8027 2.0257 2.3273 1.5625 1.7762 1.9907 2.2806 1.5513 1.7599 1.9691 2.2519 1.5360 1.7375 1.9397 2.2129 1
722
m 1
2
3
4
5
70 2.7786 3.9778 5.2470 7.0114 2.3800 3.1277 3.8903 4.9219 2.1637 2.7355 3.3090 4.0744 2.0269 2.5027 2.9748 3.5996 1.9313 2.3456 2.7537 3.2907
80
90
100
110
2.7693 3.9604 5.2184 6.9627 2.3701 3.1108 3.8643 4.8807 2.1535 2.7188 3.2841 4.0363 2.0165 2.4859 2.9504 3.5631 1.9206 2.3287 2.7295 3.2550
2.7621 3.9469 5.1962 6.9251 2.3625 3.0977 3.8443 4.8491 2.1457 2.7058 3.2649 4.0070 2.0084 2.4729 2.9315 3.5350 1.9123 2.3157 2.7109 3.2276
2.7564 3.9361 5.1786 6.8953 2.3564 3.0873 3.8284 4.8239 2.1394 2.6955 3.2496 3.9837 2.0019 2.4626 2.9166 3.5127 1.9057 2.3053 2.6961 3.2059
2.7517 3.9274 5.1642 6.8710 2.3515 3.0788 3.8154 4.8035 2.1343 2.6871 3.2372 3.9648 1.9967 2.4542 2.9044 3.4946 1.9004 2.2969 2.6840 3.1882
E .F-Verteilung
589 712
m 6
a 0.9 0.95 0.975 0.99
7
0.9 0.95 0.975 0.99
8
0.9 0.95 0.975 0.99
9
0.9 0.95 0.975 0.99
10
0.9 0.95 0.975 0.99
11
0.9 0.95 0.975 0.99
12
0.9 0.95 0.975 0.99
13
0.9 0.95 0.975 0.99
14
0.9 0.95 0.975 0.99
15
0.9 0.95 0.975 0.99
20
0.9 0.95 0.975 0.99
25
0.9 0.95 0.975 0.99
30
0.9 0.95 0.975 0.99
40
0.9 0.95 0.975 0.99
50
0.9 0.95
30
40
50
60
1.9803 2.4205 2.8667 3.4735 1.9269 2.3343 2.7460 3.3045 1.8841 2.2662 2.6513 3.1726 1.8490 2.2107 2.5746 3.0665 1.8195 2.1646 2.5112 2.9791 1.7944 2.1256 2.4577 2.9057 1.7727 2.0921 2.4120 2.8431 1.7538 2.0630 2.3724 2.7890 1.7371 2.0374 2.3378 2.7418 1.7223 2.0148 2.3072 2.7002 1.6673 1.9317 2.1952 2.5487 1.6316 1.8782 2.1237 2.4526 1.6065 1.8409 2.0739 2.3860 1.5732 1.7918 2.0089 2.2992 1.5522 1.7609
1.9269 2.3359 2.7444 3.2910 1.8725 2.2490 2.6238 3.1238 1.8289 2.1802 2.5289 2.9930 1.7929 2.1240 2.4519 2.8876 1.7627 2.0772 2.3882 2.8005 1.7369 2.0376 2.3343 2.7274 1.7146 2.0035 2.2882 2.6648 1.6950 1.9738 2.2481 2.6107 1.6778 1.9476 2.2130 2.5634 1.6624 1.9245 2.1819 2.5216 1.6052 1.8389 2.0677 2.3689 1.5677 1.7835 1.9943 2.2714 1.5411 1.7444 1.9429 2.2034 1.5056 1.6928 1.8752 2.1142 1.4830 1.6600
1.8954 2.2864 2.6736 3.1864 1.8405 2.1992 2.5530 3.0202 1.7963 2.1299 2.4579 2.8900 1.7598 2.0734 2.3808 2.7850 1.7291 2.0261 2.3168 2.6981 1.7029 1.9861 2.2627 2.6250 1.6802 1.9515 2.2162 2.5625 1.6602 1.9214 2.1758 2.5083 1.6426 1.8949 2.1404 2.4609 1.6269 1.8714 2.1090 2.4190 1.5681 1.7841 1.9933 2.2652 1.5294 1.7273 1.9186 2.1667 1.5018 1.6872 1.8659 2.0976 1.4648 1.6337 1.7963 2.0066 1.4409 1.5995
1.8747 2.2541 2.6274 3.1187 1.8194 2.1665 2.5068 2.9530 1.7748 2.0970 2.4117 2.8233 1.7380 2.0401 2.3344 2.7185 1.7070 1.9926 2.2702 2.6318 1.6805 1.9522 2.2159 2.5587 1.6574 1.9174 2.1692 2.4961 1.6372 1.8870 2.1286 2.4419 1.6193 1.8602 2.0929 2.3943 1.6034 1.8364 2.0613 2.3523 1.5435 1.7480 1.9445 2.1978 1.5039 1.6902 1.8687 2.0984 1.4755 1.6491 1.8152 2.0285 1.4373 1.5943 1.7440 1.9360 1.4126 1.5590
70 1.8600 2.2312 2.5949 3.0712 1.8044 2.1435 2.4743 2.9060 1.7596 2.0737 2.3791 2.7765 1.7225 2.0166 2.3017 2.6719 1.6913 1.9689 2.2374 2.5852 1.6645 1.9283 2.1829 2.5122 1.6413 1.8932 2.1361 2.4496 1.6209 1.8627 2.0953 2.3953 1.6028 1.8357 2.0595 2.3477 1.5866 1.8117 2.0277 2.3055 1.5259 1.7223 1.9100 2.1504 1.4857 1.6638 1.8334 2.0503 1.4567 1.6220 1.7792 1.9797 1.4176 1.5661 1.7069 1.8861 1.3922 1.5300
80
90
100
110
1.8491 2.2142 2.5708 3.0361 1.7933 2.1263 2.4502 2.8713 1.7483 2.0564 2.3549 2.7420 1.7110 1.9991 2.2775 2.6374 1.6796 1.9512 2.2130 2.5508 1.6526 1.9105 2.1584 2.4777 1.6292 1.8753 2.1115 2.4151 1.6086 1.8445 2.0706 2.3608 1.5904 1.8174 2.0346 2.3131 1.5741 1.7932 2.0026 2.2709 1.5128 1.7032 1.8843 2.1153 1.4720 1.6440 1.8071 2.0146 1.4426 1.6017 1.7523 1.9435 1.4027 1.5449 1.6790 1.8489 1.3767 1.5081
1.8406 2.2011 2.5522 3.0091 1.7846 2.1131 2.4316 2.8445 1.7395 2.0430 2.3363 2.7154 1.7021 1.9856 2.2588 2.6109 1.6705 1.9376 2.1942 2.5243 1.6434 1.8967 2.1395 2.4513 1.6199 1.8613 2.0925 2.3886 1.5992 1.8305 2.0515 2.3342 1.5808 1.8032 2.0154 2.2865 1.5644 1.7789 1.9833 2.2442 1.5025 1.6883 1.8644 2.0882 1.4613 1.6286 1.7867 1.9871 1.4315 1.5859 1.7315 1.9155 1.3911 1.5284 1.6574 1.8201 1.3646 1.4910
1.8339 2.1906 2.5374 2.9877 1.7778 2.1025 2.4168 2.8233 1.7324 2.0323 2.3215 2.6943 1.6949 1.9748 2.2439 2.5898 1.6632 1.9267 2.1793 2.5033 1.6360 1.8857 2.1245 2.4302 1.6124 1.8503 2.0773 2.3676 1.5916 1.8193 2.0363 2.3132 1.5731 1.7919 2.0001 2.2654 1.5566 1.7675 1.9679 2.2230 1.4943 1.6764 1.8486 2.0666 1.4528 1.6163 1.7705 1.9652 1.4227 1.5733 1.7148 1.8933 1.3817 1.5151 1.6401 1.7972 1.3548 1.4772
1.8284 2.1821 2.5254 2.9703 1.7721 2.0939 2.4048 2.8061 1.7267 2.0236 2.3094 2.6771 1.6891 1.9661 2.2318 2.5727 1.6573 1.9178 2.1671 2.4862 1.6300 1.8767 2.1123 2.4132 1.6063 1.8412 2.0650 2.3505 1.5854 1.8101 2.0239 2.2960 1.5669 1.7827 1.9876 2.2482 1.5503 1.7582 1.9554 2.2058 1.4877 1.6667 1.8356 2.0491 1.4458 1.6063 1.7572 1.9473 1.4154 1.5630 1.7013 1.8751 1.3740 1.5043 1.6259 1.7784 1.3468 1.4660 1
Tabellen
590 n2
m 60
80
100
150
F
a
30
40
50
60
0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99 0.9 0.95 0.975 0.99
1.9681 2.2450 1.5376 1.7396 1.9400 2.2079 1.5187 1.7121 1.9039 2.1601 1.5069 1.6950 1.8816 2.1307 1.4907 1.6717 1.8510 2.0905
1.8324 2.0581 1.4672 1.6373 1.8028 2.0194 1.4465 1.6077 1.7644 1.9694 1.4336 1.5892 1.7405 1.9383 1.4157 1.5637 1.7076 1.8956
1.7520 1.9490 1.4242 1.5757 1.7211 1.9090 1.4023 1.5445 1.6810 1.8571 1.3885 1.5249 1.6558 1.8248 1.3691 1.4977 1.6210 1.7799
1.6985 1.8772 1.3952 1.5343 1.6668 1.8363 1.3722 1.5019 1.6252 1.7828 1.3576 1.4814 1.5990 1.7493 1.3372 1.4527 1.5625 1.7027
70 1.6604 1.8263 1.3742 1.5046 1.6279 1.7846 1.3503 1.4711 1.5851 1.7298 1.3352 1.4498 1.5581 1.6954 1.3137 1.4200 1.5202 1.6472
80
90
100
110
1.6318 1.7883 1.3583 1.4821 1.5987 1.7459 1.3337 1.4477 1.5549 1.6901 1.3180 1.4259 1.5271 1.6548 1.2957 1.3949 1.4880 1.6053
1.6095 1.7588 1.3457 1.4645 1.5758 1.7158 1.3206 1.4294 1.5312 1.6591 1.3044 1.4070 1.5028 1.6231 1.2814 1.3751 1.4627 1.5724
1.5917 1.7353 1.3356 1.4504 1.5575 1.6918 1.3100 1.4146 1.5122 1.6342 1.2934 1.3917 1.4833 1.5977 1.2698 1.3591 1.4422 1.5459
1.5771 1.7160 1.3273 1.4388 1.5425 1.6721 1.3012 1.4024 1.4965 1.6139 1.2843 1.3791 1.4671 1.5767 1.2601 1.3457 1.4252 1.5240
Wilcoxon-Vorzeichen-Rang-Test
Tabelliert sind die kritischen Werte w'^{n). Ablesebeispiel: n\« 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
WQQ^{12)
= 59
0.01
0.025
0.05
0.10
0.90
0.95
0.975
0.99
0 0 0 1 2 4 6 8 10 13 16 20 24 28 33 38 44
0 0 1 3 4 6 9 11 14 18 22 26 30 35 41 47 53
0 1 3 4 6 9 11 14 18 22 26 31 36 42 48 54 61
1 3 4 6 9 11 15 18 22 27 32 37 43 49 56 63 70
8 11 16 21 26 33 39 47 55 63 72 82 92 103 114 126 139
9 13 17 23 29 35 43 51 59 68 78 88 99 110 122 135 148
10 14 19 24 31 38 45 54 62 72 82 93 105 117 129 142 156
10 14 20 26 33 40 57 57 66 77 88 99 111 124 137 151 165
G
591
Wilcoxon- Ra ngsummen- Test
G
Wilcoxon-Rangsummen-Test
Tabelliert sind die kritischen Werte Wa fiir a = 0.05 (1. Zeile) und a = 0.10 (2. Zeile). Ablesebeispiel: Fiir n = 3 und m = 7 ist WQ^IQ = 11. Es ist wi-a{n,m) = n{n + m -\-1) — Wa(n, m) \n\m
2
3
4
5
6
7
8
9 10 11 12 13 14 15 16 17 18 19 20
2
3 3
4 5
4 5
5 6
5 6
8 9
9 10
9 11
10 12
11 12
4
6 7 10 11
3 4 7 8
4 5
3
3 4 7 8
14 16
20 21
21 23
15 17 22 24
16 18 24 26
17 20
16 17
12 14 18 20
13 15
5
11 12 17 18
6
22 23
24 25
25 27
29 30
31 33
33 35
29 31 37 40
30 33
7
27 29 35 37
8
38 39
40 42
42 44
9
50 51
52 55
10
47 48 57 59
60 62
63 66
45 47 55 58 67 69
11
68 70
12
81 83
72 74 84 87
75 78 88 91
13
94 96
109 14 110
15 124 126 16 140 142 17 157 160 18 176 19
178 195 198
20 215 218
5 7 11 13
5 7 12 14
6 8 12 15
6 8 13 16
7 8
7 9
7 9
7 10
8 10
8 11
14 17
14 17
15 18
16 19
17 18 21 22
19 22
20 23
21 24
22 26
23 27
28 32
28 31
29 33
31 34
32 36
34 38
25 28 35 39
26 29 36 41
38 43
39 41 44 46
32 35
25 28 34 37
18 21 27 29
16 20 27 31
36 39
38 41
39 43
41 45
45 49
47 51
48 53
50 56
40 42
42 45
44 47
46 50
48 52
50 55
53 57
43 47 55 60
57 62
59 65
62 67
64 70
52 54 58 60 66 68 72 75
47 50
50 53
52 56
55 59
57 61
60 64
63 67
65 70
68 73
70 76
73 79
58 61
61 64
64 68
67 71
88 94
100 108
76 80
79 82 84 87 93 97 99 103 109 113 115 119
85 91
73 77 86 90
73 77 87 92
76 81
70 73
70 74 83 88
76 78 81 82 85 88 91 94 97 98 101 104
104 107 111 114 110 114 118 122 121 124 128 132 128 132 136 140
118 126 136 145
79 83 90 94 82 86 92 96 100 105 96 100 105 109 98 102 107 111 116 120 101 105 110 115 120 125 113 117 122 127 132 137 116 121 126 131 137 142 128 133 139 144 149 154 131 137 143 148 154 160 145 151 156 162 167 173 148 154 160 166 173 179 163 169 174 180 187 193 166 172 179 185 192 199 181 188 194 200 207 213 185 192 199 206 213 220 201 208 214 221 228 235 205 212 219 227 234 242 222 229 236 243 250 258 226 233 241 249 257 265
80 90 95 84 94 98 101 105 98 103 107 111 109 113 117 121 114 118 123 128 125 129 134 139 130 135 140 145
100 107 117 124
126 130 134 132 137 142 143 148 153 150 155 160
142 147 152 157 162 147 153 158 164 169 160 165 171 176 182 166 172 178 184 189
205 212 227 234 242 249 249 257
218 224 231 226 233 239 240 247 254 249 256 263 256 263 271 278 264 272 280 288
84 91
183 188 193 198 191 197 203 208 204 209 215 221 213 219 225 231 226 232 238 244 236 243 249 256
237 243 250 256 263 246 253 260 267 274 260 267 274 281 288 270 278 285 292 300 285 292 300 307 314 295 303 311 319 326 265 273 280 288 295 303 311 318 326 334 341 273 281 287 297 305 313 321 330 338 346 354 211 219 233 241
29 33
139 143 147 151 156 146 151 156 160 165 157 162 167 172 176 166 171 176 181 186
167 172 177 175 180 186 187 193 198 195 201 207 179 185 191 197 202 208 214 220 185 191 198 204 211 217 223 230 199 206 220 227
8 11
269 281 295 307 321 334 349 362
Literatur
Benninghaus, H. (2002). Deskriptive Statistik. Eine Einfiihrung fiir (9., iiberarb. Aufl.). Westdeutscher Verlag, Wiesbaden. 168
Sozialwissenschaftler
Biining, H. und G. Trenkler (1994). Nichtparametrische statistische Methoden (2. Aufl.). de Gruyter, Berlin. 168, 472, 543 Chambers, J. M., W. S. Cleveland, B. Kleiner und P. A. Tukey (1983). Graphical Methods for Data Analysis. Wadsworth International Group, Belmont, CA. 104 Cleveland, W. S. (1993). Visualizing Data. Hobart Press, Summit, New Yersey. 104 Cox, D. R. (1958). Planning of Experiments. Wiley, New York. 29 Devroye, L. (1986). Non-uniform Random Variate Generation. Springer-Verlag, New York. 332 Fahrmeir, L., A. Hamerle und G. Tutz (1996). Multivariate statistische Aufl). de Gruyter, Berlin. 168, 361, 513, 514, 543
Verfahren (2.
Fahrmeir, L., R. Kiinstler, I. Pigeot, G. Tutz, A. Caputo und S. Lang (2002). Arbeitsbuch Statistik (3. Aufl.). Springer-Verlag, Berlin. Fahrmeir, L. und G. Tutz (2001). Multivariate Statistical Modelling Based on Generalized Linear Models (2. Aufl.). Springer Verlag, New York. 508 Ferschl, F. (1985). Deskriptive Statistik (3. Aufl.). Physica-Verlag, Wurzburg. 104 Fisz, M. (1989). Wahrscheinlichkeitsrechnung und mathematische Statistik (11. Aufl.). Deutscher Verlag der Wissenschaften, Berlin. 332 Goppl, H., T. Liidecke und A. Sauer (1993). Deutsche Finanzdatenbank. Handbuch Teil 1. Technischer Bericht, Institut fiir Entscheidungstheorie und Unternehmensforschung, Universitat Karlsruhe (TH). 547 Green, P. J. und B. W. Silverman (1994). Nonparametric Regression and Generalized Linear Models. Chapman and Hall, London. 513 Hamilton, J. D. (1994). Time Series Analysis. Princeton-University Press, New Jersey. 569 Hardle, W. (1991). Smoothing Techniques: With Implementation New York. 513
in S. Springer-Verlag,
594
Llteratur
Hardle, W. (1992). Applied Nonparametric Regression. Cambridge University Press, Cambridge. 513 Hartung, J., B. Elpelt und K.-H. Klosener (2002). Statistik (13. Aufl.). Oldenbourg-Verlag, Miinchen. 307 Hartung, J. und B. Heine (1996). Statistik-Ubungen. Oldenbourg-Verlag, Miinchen. 394, 429
Induktive Statistik
(3. Aufl.).
Hastie, T. J. und R. J. Tibshirani (1990). Generalized Additive Models. Chapman and Hall, London. 513 Heiler, S. und P. Michels (1994). Deskriptive und Explorative Datenanalyse. OldenbourgVerlag, Miinchen. 62, 103, 104 Hochberg, Y. und A. C. Tamhane (1987). Multiple Comparison Procedures. Wiley, New York. 430 Hsu, J. (1996). Multiple Comparisons. Theory and Methods. Chapman & Hall, London. 430, 542 Johnson, N. L., S. Kotz und N. Balakrishnan (1994). Continuous Univariate Distributions (2. Aufl), Band 1. John Wiley & Sons, New York. 307 Johnson, N. L., S. Kotz und N. Balakrishnan (1995). Continuous Univariate Distributions (2. Aufl.), Band 2. John Wiley & Sons, New York. 307 Johnson, N. L., S. Kotz und A. W. Kemp (1993). Univariate Discrete Distributions (2. Aufl.). John Wiley & Sons, New York. 266 Judge, C , W. Griffiths, R. Hill, H. Liitkepohl und T. Lee (1985). The Theory and Practice of Econometrics. John Wiley & Sons, New York. 513 Kramer, W. und H. Sonnberger (1986). The Linear Regression Model under Test. PhysicaVerlag, Heidelberg. 513 Kreienbrock, L. (1989). Munchen, Wien. 29
Einfiihrung in die Stichprobenverfahren.
Oldenbourg-Verlag,
Little, J. A. und D. B. Rubin (1987). Statistical Analysis with Missing Values. Wiley, New York. 29 Liitkepohl, H. (1993). Introduction to Multiple Time Series Analysis (2. Aufl.). SpringerVerlag, Berlin. 569 Masler, R. und F. Schmid (2003). Springer-Verlag, Heidelberg.
Beschreibende Statistik
und
Wirtschaftsstatistik.
Masler, R. und F. Schmid (2004). Wahrscheinlichkeitsrechnung und schlieflende Statistik. Springer-Verlag, Heidelberg. Polasek (1994). EDA Explorative Datenanalyse. Einfiihrung in die deskriptive Statistik (2. Aufl.). Springer-Verlag, Berlin. 104
Literatur
Rinne, H. und H.-J. Mittag (1994). Statistische (3., iiberarb. Aufl.). Hanser Verlag, Miinchen. 430
595
Methoden der
Qualitdtssicherung
Ripley, B. D. (1987). Stochastic Simulation. John Wiley, New York. 332 Rohatgi, V. K. und E. Saleh (2000). An Introduction to Probability and Statistics (2. Aufl.). John Wiley & Sons, New York. 394 Riiger, B. (1996). Induktive Statistik. Einfiihrung fiir Wirtschafts- und Sozialwissenschaftler. (3. Aufl.). Oldenbourg-Verlag, Miinchen. 220, 394, 429 Sachs, L. (2002). Angewandte Statistik. Anwendung statistischer Methoden (10., iiberarb. und aktualisierte Aufl.). Springer-Verlag, Berlin, Heidelberg. 472 Schach, S. und T. Schafer (1978). Regressions- und Varianzanalyse. Springer-Verlag, Berlin. 542 Scheffe, H. (1959). The Analysis of Variance. John Wiley &: Sons, New York. 542 Schlittgen, R. (1996). Statistische Inferenz. Oldenbourg-Verlag, Miinchen. 394, 429 Schlittgen, R. (2000). Einfiihrung in die Statistik. Analyse und Modellierung von Daten (9., durchges. Aufl.). Oldenbourg-Verlag, Miinchen. 104 Schlittgen, R. und B. H. J. Streitberg (2001). Zeitreihenanalyse (9., unwes. verand. Aufl.). Oldenbourg-Verlag, Miinchen. 569 Schneeweifi, H. (1990). Okonometrie. Physica-Verlag, Heidelberg. 513 Seber, G. A. F. und C. J. Wild (1989). Nonlinear Regression. John Wiley & Sons, New York. 513 Toutenburg, H. (1992). Lineare Modelle. Physica-Verlag, Heidelberg. 513 Tukey, J. W. (1977). Exploratory Data Analysis. Addison-Wesley, Reading, Massachusetts. 104 Tutz, G. (2000). Die Analyse kategorialer Daten. Oldenbourg Verlag, Miinchen. 508
Verzeichnis der Beispiele
1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 1.10 1.11
Miinchner Absolventenstudie Mietspiegel Politische Umfragen Kreditwurdigkeitspriifung und Insolvenzprognose Aktienkurse Waldschaden Klinische und epidemiologische Studien Konjunkturtest des IFO-Instituts Sozio-okonomisches Panel Miinchner Absolventenstudie Miinchner Absolventenstudie
1 2 4 5 7 7 8 9 10 16 20
2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 2.10 2.11 2.12 2.13 2.14 2.15 2.16 2.17 2.18 2.19 2.20 2.21 2.22 2.23 2.24
Absolventenstudie Nettomieten Absolventenstudie Nettomieten Umlaufrenditen Absolventenstudie Nettomieten Aktienrenditen Altersverteilungen Absolventenstudie Nettomieten BMW-Renditen Nettomieten Nettomieten Absolventenstudie Bergbau und Verarbeitendes Gewerbe Nettomieten Nettomieten Renditen Umlaufrenditen Nettomieten Renditen der Miinchener Riickversicherungs-Aktie Nettomieten Tagliche und monatliche Renditen
32 34 36 39 39 43 43 44 46 50 51 51 54 54 59 62 65 67 67 68 73 73 74 76
598
Verzeichnis der Beispiele
2.25 2.26 2.27 2.28 2.29 2.30
Marktkonzentration in drei Stadten Marktkonzentration in drei Stadten Halbleiter-Industrie Halbleiter-Industrie Nettomieten Renditen
3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 3.10 3.11 3.12 3.13 3.14 3.15 3.16 3.17 3.18 3.19 3.20 3.21 3.22 3.23 3.24 3.25 3.26 3.27 3.28 3.29 3.30 3.31 3.32
Sonntagsfrage Habilitationsdichte Arbeitslosigkeit Habilitationsdichte Sonntagsfrage Arbeitslosigkeit Habilitationsdichte Arbeitslosigkeit Waldschaden Dauer der Arbeitslosigkeit Arbeitslosigkeit Sonntagsfrage Habilitationsdichte Arbeitslosigkeit Prognose des Sachverstandigenrates Mieten Mietspiegel Mietspiegel Rendite am Aktienmarkt Mietspiegel Arbeitslosigkeit Mietspiegel . Renditen Wortschatz von Kindern Zigarettenkonsum Therapieerfolg und Dosierung Fernsehen und Schlafverhalten Mietspiegel Fernsehen und Schlafverhalten Mietspiegel CAP-Modell Wirkung von Werbemafinahmen auf den Produktertrag
4.1 4.2 4.3 4.4 4.5 4.6 4.7
Mengen Mengenoperationen Ergebnisraum Einmaliges Werfen eines Wiirfels Motivation der Axiome von Kolmogoroff Additionssatz Dreimaliger Miinzwurf
77 78 81 86 96 97 110 110 Ill 114 116 117 117 118 118 120 121 126 126 127 128 129 132 133 133 140 141 144 145 149 151 151 155 157 162 162 163 . 166 176 177 179 181 183 186 189
Verzeichnis der Beispiele
599
4.8 4.9 4.10 4.11 4.12 4.13 4.14 4.15 4.16 4.17 4.18 4.19 4.20 4.21 4.22 4.23 4.24 4.25 4.26 4.27 4.28 4.29
Ziehen mit Zuriicklegen 190 Ziehen ohne Zuriicklegen 191 Anzahl der Wappen beim dreimahgen Miinzwurf 192 WahrscheinUchkeit fiir das Eintreten von Wappen beim einmaligen Miinzwurf . 192 Subjektiver Wahrscheinhchkeitsbegriff 194 Ziehen einer Stichprobe vom Umfang n = 2 mit Zuriicklegen 196 Ziehung einer Stichprobe vom Umfang n = 2 ohne Zuriicklegen 197 Permutationen 199 Ziehung der Lottozahlen 201 Wiirfeln 203 Wiirfeln 204 Zufallige Auswahl einer Person 205 ZweimaUges Wiirfeln 207 Urnenmodell 208 ZehnmaUger Miinzwurf 209 Siegchancen im Halbfinale 211 Medizinische Diagnostik 212 Medizinische Diagnostik 213 Geldanlage 214 Suche nach dem Morder 215 Wurfeln 216 Das Idealexperiment 217
5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 5.10 5.11 5.12 5.13 5.14 5.15 5.16 5.17
Werfen einer Mlinze Zweimal Wiirfeln Mietspiegelerhebung Aktienkurse Wiirfeln Treffer und Nieten MehrmaUges Wurfeln Gut/Schlecht-Prlifung in der Qualitatssicherung Zufallsstichproben aus einer endlichen Grundgesamtheit Werfen von Mlinzen und Wiirfeln Treffer und Nieten Geometrische Verteilung Binare Zufallsvariablen Wiirfeln Geometrische Verteilung Treffer und Nieten Schadensfalle bei einer Versicherung
224 224 225 226 231 232 240 241 241 243 244 245 251 251 252 257 264
6.1 6.2 6.3 6.4 6.5 6.6
Stetige Gleichverteilung Abweichungen vom Sollwert Stetige Gleichverteilung Abweichungen vom Sollwert Exponentialverteilung Stetige Gleichverteilung, Exponentialverteilung
275 278 284 285 285 288
600
Verzeichnis der Beispiele
6.7 6.8 6.9 6.10 6.11 6.12
Stetige Gleichverteilung Abweichungen vom SoUwert Exponentialverteilung . Eine rechtssteile Verteilung Stuhle und Tische Stuhle und Tische
290 290 290 292 299 300
7.1 7.2 7.3
Treffer und Nieten Wiirfeln Rechtssteile Verteilung
319 329 331
8.1 8.2 8.3 8.4 8.5 8.6 8.7 8.8
Mietspiegel Roulette Mefiwiederholungen Roulette Mefiwiederholungen Mefiwiederholungen Miinzwurf Portfolio-Optimierung
335 336 337 342 348 350 354 356
9.1 9.2 9.3 9.4 9.5 9.6 9.7 9.8 9.9 9.10
Dichotome Grundgesamtheit Erwartungstreue Schatzstatistiken Arithmetisches Mittel Arithmetisches Mittel Poisson-Verteilung Normalverteilung Arithmetisches Mittel Poisson-Verteilung Normalverteilung Sonntagsfrage
10.1 10.2 10.3 10.4 10.5 10.6 10.7 10.8 10.9 10.10
Qualitatspriifung (Gut-Schlecht) Kontrollkarten Madchen- und Jungengeburten Madchen- und Jungengeburten Gut-Schlecht-Priifung Kontrollkarten Gut-Schlecht-Priifung Qualitatspriifung Qualitatspriifung Gut-Schlecht-Priifung
398 399 400 403 406 410 419 422 425 427
11.1 11.2 11.3 11.4 11.5
Kontrollkarten fiir Bleistiftlangen Bleistiftlange Mietspiegel Wurfeln Absolventenstudie
437 441 444 445 448
367 368 370 .372 378 379 .380 383 384 393
Verzeichnis der Beispiele
601
11.6 11.7 11.8 11.9 11.10 11.11 11.12 11.13 11.14
Mietspiegel Mietspiegel Mietspiegel Kreditwiirdigkeit Kreditwiirdigkeit Waldschaden Sonntagsfrage Sonntagsfrage Sachverstandigenrat
451 461 461 463 464 465 466 . 469 470
12.1 12.2 12.3 12.4 12.5 12.6 12.7 12.8 12.9 12.10 12.11
CAP-Modell und CAP-Modell und CAP-Modell und CAP-Modell und Mietspiegel Mietspiegel Mietspiegel Mietspiegel Pkw im Haushalt Mietspiegel Mietspiegel
13.1 13.2 13.3 13.4 13.5 13.6 13.7
Bildung gleich Manipulation? Bildung gleich Manipulation? Bildung gleich Manipulation? Bildung gleich Manipulation? Zufriedenheit im Studium Zufriedenheit im Studium Zufriedenheit im Studium
517 519 522 525 529 534 539
14.1 14.2 14.3 14.4 14.5
BMW-Aktie und DAX BMW-Aktie und DAFOX BMW-Aktie und DAFOX IFO-Salden Preisindex fiir Pflanzen
557 560 563 566 568
Beta-Koeffizient Beta-Koeffizient Beta-Koeffizient Beta-Koeffizient
>
484 487 489 490 491 493 501 503 508 510 512
Sachregister
a-posteriori, 213 a-priori, 213 Ablehnungsbereich, 403 absolute Haufigkeit, 32 absolute Haufigkeitsverteilung, 32 absolute kumulierte Haufigkeitsverteilung, 49 Abzahlregel, 188 Additionseigenschaft, 256, 263 Additionssatz, 186 Aktienindex, 553 Alternativhypothese, 401 Annahmebereich, 412 Anpassungstests, 445 Approximation von Dichtekurven, 98 approximativer Binomialtest, 405 arithmetisches Mitt el, 53, 59 asymptotische Erwartungstreue, 369 Ausgleichsgerade, 153 Auspragung, 11 Axiome von Kolmogoroff, 181 Balkendiagramm, 35 Bandbreite, 101 Bayes Satz von, 213 bedingte Chance, 119 bedingte Dichte, 345 bedingte Haufigkeitsverteilung, 116 bedingte Wahrscheinlichkeitsfunktion, 341 Berliner Verfahren, 566 Bernoulli -Experiment, 232, 239 -Kette, 239
-Variable, 228, 239 -Versuche, 311 -Verteilung, 229, 322 -Vorgang, 228 Theorem von, 314 Bestimmtheitsmafi, 159, 498 Bias, 368 bimodal, 47 binare Zufallsvariablen, 228, 245, 251 Bindungen, 56, 142, 443 Binomialkoeffizient, 200 Binomialtest approximativ, 405 exakt, 404 Binomialverteilung, 234, 253, 262, 265, 319, 322 Bisquare-Kern, 100 Bonferroni-Korrektur, 428 Box-Plot, 67 Bravais-Pearson-Korrelationskoeffizient, 134 X^-Anpassungstest, 448 X^-Statistik, 447 X^-Unabhangigkeitstest, 467 X^-Verteilung, 302, 307 Chance, 119 bedingte, 119 relative, 119 Chi-Quadrat-Anpassungstest, 448 Chi-Quadrat-Homogenitatstest, 462 Chi-Quadrat-KoefRzient, 123 Chi-Quadrat-Statistik, 447 Chi-Quadrat-Test fiir gruppierte Daten, 451 Chi-Quadrat-Unabhangigkeitstest, 467
604 Chi-Quadrat-Verteilung, 302, 307 Computersimulationen, 321 Datenvalidierung, 12 deskriptive Statistik, 11 Dezile, 65 Dichte, 88, 306 bedingte, 345 Rand-, 344 Dichtefunktion, 271 Dichtekurven, 87 disjunkt, 181 diskrete Gleichverteilung, 234 diskrete Zufallsvariablen, 223, 306 Dummy-Kodierung, 493 Durchschnitt gleitender, 560, 566 Durchschnittsrange, 142 Effekt-Kodierung, 493 eindimensionale Zufallsvariablen, 223 einfache Hypothese, 413 einfache Zufallsstichprobe, 25 Einfachklassifikation, 519 einfaktorielle Varianzanalyse, 519 Einflufigrofien, 12 einseitiges Konfidenzintervall, 387 einseitiges Test problem, 413 Element arereignis, 180 Empirie, 20 empirische Kovarianz, 136 empirische Unabhangigkeit, 122 empirische Varianz, 69 empirische Verteilungsfunktion, 49 empirischer Korrelationskoeffizient, 134 Epanechnikov-Kern, 100 Ereignis bedingendes, 203 disjunkte, 181 Durchschnitt von, 181 Element ar-, 180 Komplementar-, 180 sicheres, 181 Unabhangigkeit von, 206 unmogliches, 181 Vereinigung von, 181
Sachregister
Zufalls-, 180 Ergebnis, 179 Ergebnisraum, 179 Erhebung primarstatistische, 24 sekundarstatistische, 24 tertiarstatistische, 24 VoU-, 25 erklarte Streuung, 159 Erwartungstreue, 367 asymptotische, 369 Erwartungswert, 242, 282, 306 exakter Binomialtest, 404 Experiment, 23 explorative Datenanalyse, 12 Exponentialverteilung, 279, 285, 288, 290, 307, 322 exponentielles Wachstum, 556 F-Verteilung, 305, 307 Fiinf-Punkte-Zusammenfassung, 66 Faktor, 518 Faktoren, 12 Fakultat, 197 Fehlentscheidung, 398 Fehler a-, 416 /?-, 416 1. Art, 415 2. Art, 416 Fisher-Verteilung, 305, 307 Giite, 158 Giitefunktion, 420 Gaufi-Kern, 100 GauB-Test, 411 Gaufi-Verteilung, 90 gegensinniger Zusammenhang, 136 gemeinsame Haufigkeiten, 115 gemeinsame Verteilung, 112 gemeinsame Verteilungsfunktion, 343 gemeinsame Wahrscheinlichkeitsfunktion, 338 geometrische Verteilung, 234, 245, 252, 265, 279 geometrisches Mitt el, 61
605
Sachregister
Gesamtstreuung, 159 geschichtete Zufallsstichprobe, 26 Gesetz der grofien Zahlen, 312, 314 getrimmtes Mittel, 64 Gini-Koeffizient, 77, 83 Glattungsparameter, 565 glatte Komponente, 554 gleichsinniger Zusammenhang, 136 gleitender Durchschnitt, 560, 566 Glivenko-Cantelli Satz von, 315 globale Trendmodelle, 556 Goodness of fit-Test, 500 Grenzwertsatz von de Moivre, 318 Grundgesamtheit, 14 gruppierte Daten, 34, 58, 80 gruppierte Lagemafie, 59 Gruppierung, 41 Haufigkeit absolute, 32 relative, 32 Haufigkeiten gemeinsame, 115 Haufigkeitsdaten, 17, 32 Haufigkeitsverteilung absolute, 32 absolute kumulierte, 49 bedingte, 116 relative, 32 relative kumulierte, 49 harmonisches Mittel, 63 Haupteffekt, 528 Hauptsatz der Statistik, 315 Heteroskedastizitat, 479 Herfindahl-Index, 86 Histogramm, 41 Homoskedastizitat, 478 Homogenisierung, 23 hypergeometrische Verteilung, 258, 265 Hypothese Alternativ-, 401 einfache, 413 Null-, 401 zusammengesetzte, 413
Index Aktien-, 547, 553 Mengenvon Laspeyres, 552 von Paasche, 552 Preis-, 548 von Laspeyres, 551 von Paasche, 551 induktive Statistik, 13 Interquartilsabstand, 66 Intervallschatzung, 385 Intervallskala, 18 Kardinalskala, 18 Kausalitat, 147, 148 Kern-Dichteschatzer, 101 Klassen, 41 Klassenbildung, 34 Klassenbreite, 41, 43 Klassenzahl, 43 Kleinste-Quadrate-Methode, 154 Kleinste-Quadrate-Schatzer, 154 Kleinste-Quadrate-Schatzung penalisierte, 565 Klumpenstichprobe, 26 Kombinatorik, 196 Komplementarereignis, 180 Komponente glatte, 554 Konjunktur-, 554 modelle, 553 Saison-, 554, 557, 566 Trend-, 554 Konfidenzintervall, 386, 418 einseitiges, 387 fiir den Anteilswert, 392 fiir Erwartungswert und Varianz, 387 zweiseitiges, 386 Konfidenzwahrscheinlichkeit, 386 Konjunkturkomponente, 554 konservativer Test, 439 Konsistenz im quadratischen Mittel, 372 schwache, 372 Kontingenzkoeffizient, 122, 124 korrigierter, 124
606
Kontingenztabelle, 109 Kontingenztafel, 112 der absoluten Haufigkeiten, 113 der Wahrscheinlichkeiten, 339 der relativen Haufigkeiten, 114 Konzentrationsmafie, 76 Konzentrationsrate, 85 Korrelations-Tests, 470 Korrelationskoeffizient Bravais-Pearson-, 134 empirischer, 134 nach Spearman, 141 theoretischer, 352 korrigierter KontingenzkoefBzient, 124 Kovarianz empirische, 136 von Zufallsvariablen, 350 KQ- (Kleinste-Quadrate-) Methode, 480, 496 KQ- (Kleinste-Quadrate-) Schatzer, 481, 497 KQ-Schatzung penalisierte, 565 Kreisdiagramm, 35 Kreuzproduktverhaltnis, 120 kritischer Wert, 406 Langsschnittstudie, 28 LagemaBe, 53 Lageparameter, 242, 282 Lageregel, 292 Lageregeln, 60 Laplace-Experiment, 188 Laplace-Wahrscheinlichkeit, 188 latente Grofien, 12 Lebensdauerverteilung, 280 Likelihoodfunktion, 377 lineare Einfachregression, 476, 477 linearer Trend, 556 linearer Zusammenhang, 137 linksschief, 46 linkssteil, 44, 48, 60 Log-Likelihood, 377 logarithmische Normalverteilung, 301 logistische Regression, 506 logistische Sattigungskurve, 556
Sachregister
lokale Regression, 510, 566 Lorenz-Miinzner-Koeffizient, 83 Lorenzkurve, 77 Macht, 424 Maximum Likelihood-Prinzip, 377 Maximum Likelihood-Schatzung, 376 mean squared error, 370 Median, 55, 59, 65, 89, 248, 286 mehrdimensionale Daten, 109 mehrdimensionale Zufallsvariablen, 335 mehrkategoriale Zufallsvariablen, 229 mehrstufige Auswahlverfahren, 27 Menge, 175 Mengenindex von Laspeyres, 552 von Paasche, 552 Mengenoperation, 175 Merkmal -sauspragungen, 15 diskretes, 16 gruppiertes, 17 intervallskaliertes, 18 kardinalskaliertes, 18 kategoriales, 19 metrisches, 18 nominalskaliertes, 17 ordinalskaliertes, 18 qualitatives, 19 quantitatives, 19 quasi-stetiges, 17 stetiges, 16 -strager, 15 -stypen, 20 verhaltnisskaliertes, 18 Merkmal , 1 1 Mittel arithmetisches, 53, 59 geometrisches, 61 getrimmtes, 64 harmonisches, 63 mittlere quadratische Abweichung, 370 Modalitat, 88, 286 Modus, 56, 59, 247, 286 Momentenkoeffizient, 331 Momentenkoeffizient der Schiefe, 75
607
Sach register
monotoner Zusammenhang, 143 Monte-Carlo-Methoden, 321 MSE-Wirksamkeit, 374 multimodal, 47, 88 multiple lineare Regression, 493, 495, 503 multiples Testproblem, 428 Nichtlineare parametrische Regression, 508 Nichtparametrische Regression, 509 Nominalskala, 17 nonparametrischer Test, 414, 438 Normal-Quantil-Plots, 95 Normalverteilung, 90, 293, 307 zweidimensionale, 357 Normalverteilungsapproximation, 262, 303, 316, 319 Normierungseigenschaft, 273 NuUhypothese, 401 Odds Ratio, 120 Ordinalskala, 18 Overall-F-Test, 500 p-Quantilskoeffizient, 330 p-Wert, 419 Panel, 28 Parallelisieren, 23 parametrischer Test, 414 penalisierteKleinste-Quadrate-Schatzung, 565 penalisierte KQ-Schatzung, 565 Permutation, 198 Phi-Koeffizient, 140 Poisson-Verteilung, 260, 265, 281 polynomialer Trend, 556 Population, 14 Power, 424 PriifgroBe, 401 Prlifverteilung, 412 Preisindex von L asp eyres, 551 von Paasche, 551 Primardaten, 31 Produktregel, 247 Prognose, 488, 502, 550
Punktschatzung, 365 quadratischer Trend, 556 Quantile, 64, 89, 93, 248, 286 QuantilskoefBzient der Schiefe, 74 QuartilskoefBzient, 330 Querschnittstudie, 28 Quotenauswahl, 27 Randdichte, 344 Randhaufigkeiten, 112 Randomisierung, 23 Randverteilung, 113, 339 rechtsschief, 44, 48 rechtssteil, 46, 48, 60 Referenzkategorie, 493 Regression, 153 lineare Einfach-, 153, 476, 477 logistische, 506 lokale, 510, 561, 566 multiple lineare, 493, 495, 503 nichtlineare, 165 nichtlineare parametrische, 508 nichtparametrische, 509 relative Chancen, 119 relative Haufigkeit, 32 relative Haufigkeitsverteilung, 32 relative kumulierte Haufigkeitsverteilung, 49 Residualanalyse, 490 Residualplot, 161 Residualstreuung, 159 Residuen, 158, 480 Resistenz, 55 Robustheit, 55 Rohdaten, 17, 31 Saulendiagramm, 35, 117, 229 Saison, 550 -komponente, 554, 557, 566 -modell, 557 Salden, 550 Satz von Bayes, 213 Satz von der totalen Wahrscheinlichkeit, 210 Scatterplot-Matrix, 133
608 Schatzer Kleinste-Quadrate-, 154 Schatzfunktion, 365 Schatzstatistik, 366 Schatzwert, 365 Scheinkorrelation, 148 Schiefe, 48, 60, 74, 88, 238, 291, 330 schwache Konsistenz, 372 Schwankungsintervalle, 72 Sicherheitswahrscheinlichkeit, 416 sign-Test, 439 Signifikanz, 417 Signifikanzniveau, 403 Signifikanztest, 417 Skala Intervall-, 18 Kardinal-, 18 Nominal-, 17 Ordinal-, 18 Verhaltnis-, 18 Skalenniveau, 17 Spannweite, 66 Spearmans Korrelationskoeffizient, 141 Spline-Glattung, 563 Splines, 510 StorgroCen, 12 Stabdiagramm, 35, 229, 339 Stamm-Blatt-Diagramm, 37, 39 Standardabweichung, 69, 248, 289 Standardisierung, 291, 296 Standardnormalverteilung, 92, 294, 323 statistische Einheiten, 14 statistisches Modell, 23 statistisches Testproblem, 401 stetige Gleichverteilung, 275, 284, 288, 290, 307, 321 stetige Zufallsvariablen, 269, 306 Stetigkeitskorrektur, 319 Stichprobe, 15, 25 Stichprobenfunktion, 365 Stichprobenvariablen, 365 Stichprobenvarianz, 70 Stochastische Unabhangigkeit, 206 Straffunktion, 565 Streudiagramm, 128 paarweises, 133
Sachregister
Streuungsparameter, 248 Streuungszerlegung, 72, 159, 498, 524, 537 Strichliste, 33 Student-Verteilung, 304, 307 Studiendesigns, 28 Symmetrie, 60, 88, 238, 291 Symmetrieeigenschaft, 257 symmetrisch, 46, 48, 60 systematische Ziehung, 26 t-Test, 437 t-Verteilung, 304, 307 Teilgesamtheiten, 15 Teilpopulationen, 15 Test, 398 Anpassungs-, 445 auf Unabhangigkeit, 470 Binomial, approximativ, 405 Binomial, exakt, 404 Chi-Quadrat-, 448 Chi-Quadrat-Homogenitats-, 462 Chi-Quadrat-Unabhangigkeits-, 467 Gaufi-, 411 konservativer, 439 Korrelations-, 470 nonparametrischer, 414, 438 parametrischer, 414 sign-, 439 Signifikanz-, 417 t-, 437 verteilungsfreier, 438 Vorzeichen-, 439 Wilcoxon-Rangsummen-, 459 Wilcoxon-Vorzeichen-Rang-, 441 zu Lagealternativen, 455 zur Zusammenhangsanalyse, 471 Testproblem einseitiges, 413 multiples, 428 statistisches, 401 zweiseitiges, 413 Teststatistik, 365, 401 Theorem von Bernoulli, 314 theoretischer Korrelationskoeffizient, 352 Ties, 142, 443 Transformationsregel, 246
609
Sachregister
Trend, 550 -bereinigung, 559 -funktion, 556 -komponente, 554 linearer, 556 -modell, 554 polynomialer, 556 quadratischer, 556 -Saison-Modell, 554, 559 Trennscharfe, 424 Tschebyscheff Ungleichung von, 329 Uberdeckungswahrscheinlichkeit, 386 unabhangige Wiederholungen, 365 unabhangige Zufallsvariablen, 247, 251 Unabhangigkeit, 238, 247, 275 empirische, 122 von Zufallsvariablen, 346 unimodal, 47, 88 Unkorreliertheit, 353 Urliste, 31, 112 Urnenmodell, 195 Variable, 11 Varianz, 248, 288, 306 empirische, 69 Varianz analyse, 518 einfache, 519 einfaktorielle, 519 -modell, 518 -tabelle, 525 zweifaktorielle, 528 Varianzanalysetabelle, 486 Varianzhomogenitat, 527 Variationskoeffizient, 73 Venn-Diagramm, 177 verbundene Messungen, 434, 465 verdeckte Korrelation, 148 Verhaltnisskala, 18 Verkettungsfaktor, 553 Verschiebungsregel, 250, 289 Verschiebungssatz, 71 Versuchsplan, 22 Verteilung zweidimensionale Normal-, 357
Bernoulli-, 229, 322 Binomial-, 234, 253, 262, 265, 319, 322 X^-, 302, 307 Chi-Quadrat-, 302, 307 Exponential-, 279, 285, 288, 290, 307, 322 F-, 305, 307 Fisher-, 305, 307 Gaufi-, 90 gemeinsame, 112 geometrische, 234, 245, 252, 265, 279 Gleichdiskrete, 234 stetige, 275, 284, 288, 290, 307, 321 hypergeometrische, 258, 265 Lebensdauer-, 280 Normal-, 90, 293, 307 logarithmische, 301 Standard-, 294 Poisson-, 260, 265, 281, 321 Priif-, 412 Standardnormal-, 92 Student-, 304, 307 t-, 304, 307
Wahrscheinhchkeits-, 227, 326 verteilungsfreier Test, 438 Verteilungsfunktion, 230, 273, 306, 314, 326 empirische, 49 gemeinsame, 343 Vertrauensintervail, 386 Verzerrung, 368 VoUerhebung, 25 Vorzeichentest, 439 Wolbung, 75, 330 Wolbungsmafi von Fisher, 76 Wachstumsfaktor, 61 Wachstumsrate, 61 Wahrscheinlichkeit, 175 a-posteriori, 213 a-priori, 213 bedingte, 202 Laplace-, 188 objektive, 175
610
Rechenregeln fiir, 184 Satz von der totalen, 210 subjektive, 175 Wahrscheinlichkeitsfunktion, 229, 306 bedingte, 341 gemeinsame, 338 Wahrscheinlichkeitshistogramm, 229, 271 Wahrscheinlichkeitsmafi, 182 Wahrscheinlichkeitsverteilung, 227 Wechselwirkung, 528 Wilcoxon-Rangsummen-Test, 459 Wilcoxon-Vorzeichen-Rang-Test, 441 Zaun, 66 Zeitreihe, 28 Zeitreihenzerlegung, 554 Zentrale Schwankungsintervalle, 297 Zentraler Grenzwertsatz, 315, 317 Ziehen mit Zuriicklegen, 241 Ziehen ohne Zuriicklegen, 241, 259 ZielgroBen, 12 Zufallsereignis, 180 Zufallsexperiment, 174 Zufallsstichprobe, 195 Zufallsstichproben, 241 Zufallsvariablen, 324 binare, 228, 245, 251 diskrete, 223, 306 eindimensionale, 223 mehrdimensionale, 335 mehrkategoriale, 229 stetige, 269, 306 unabhangige, 247, 251 Unabhangigkeit von, 346 zweidimensionale diskrete, 338 zweidimensionale stetige, 344 Zufallsvorgang, 174 Zufallszahlen, 321 zusammengesetzte Hypothese, 413 Zusammenhang gegensinniger, 136 gleichsinniger, 136 linearer, 137 monotoner, 143 zweidimensionale Daten, 109
Sachregister
zweidimensionale diskrete Zufallsvariablen, 338 zweidimensionale Histogramme, 130 zweidimensionale Normalverteilung, 357 zweidimensionale stetige Zufallsvariablen, 344 zweidimensionale! Kerndichteschat zer, 131 zweifaktorielle Varianzanalyse, 528 zweiseitiges Konfidenzintervall, 386 zweiseitiges Test problem, 413