Post on 08-Aug-2019
transcript
FORMELSAMMLUNG ZUR SCHLIESSENDEN STATISTIK I N H A L T :
1. Relationen zwischen zufälligen Ereignissen ................................................................................................................ - 3 - 1.1 Enthaltenseinbeziehung .......................................................................................................................... - 3 - 1.2 Summe von Ereignissen ........................................................................................................................... - 3 - 1.3 Produkt von Ereignissen ......................................................................................................................... - 3 - 1.4 Sicheres Ereignis ..................................................................................................................................... - 3 - 1.5 Unmögliches Ereignis ............................................................................................................................. - 3 - 1.6 Komplementärereignis ............................................................................................................................. - 3 - 1.7 Sich ausschließende Ereignisse .............................................................................................................. - 3 - 1.8 Differenz zweier Ereignisse ...................................................................................................................... - 3 - 1.9 Gesetze über Ereignisse ........................................................................................................................... - 3 -
2. Kombinatorik ............................................................................................................................................................... - 4 -
2.1 Fakultät .................................................................................................................................................... - 4 - 2.2 Permutationen ......................................................................................................................................... - 4 - 2.3 Kombinationen ........................................................................................................................................ - 4 - 2.4 Variationen ............................................................................................................................................... - 4 - 2.5 Binomialkoeffizienten ............................................................................................................................. - 5 -
3. Wahrscheinlichkeitsrechnung ...................................................................................................................................... - 5 - 3.1 Wahrscheinlichkeitsbegriffe................................................................................................................... - 5 - 3.2 Eigenschaften der Wahrscheinlichkeit .................................................................................................. - 6 - 3.3 Additionssatz ........................................................................................................................................... - 6 - 3.4 Bedingte Wahrscheinlichkeit ................................................................................................................. - 7 - 3.5 Multiplikationssatz (Allgemeiner Fall) ................................................................................................... - 7 - 3.6 Stochastische Unabhängigkeit .............................................................................................................. - 7 - 3.7 Satz über die totalen Wahrscheinlichkeiten und die Formel von Bayes ............................................ - 8 -
4. Zufallsvariable und Verteilungsfunktion ....................................................................................................................... - 8 -
4.1 Eindimensionale Zufallsvariable ............................................................................................................ - 8 - 4.1.1 Diskreter Fall ................................................................................................................................ - 8 - 4.1.2 Stetiger Fall .................................................................................................................................. - 9 -
4.2 Zweidimensionale Zufallsvariable (x,y) ............................................................................................... - 10 -
5. Kenngrößen von Wahrscheinlichkeitsverteilungen .................................................................................................... - 10 - 5.1 Erwartungswert (Mittelwert der Grundgesamtheit) ............................................................................ - 10 - 5.2 Das Rechnen mit Erwartungswerten ................................................................................................... - 12 - 5.3 Varianz ................................................................................................................................................... - 13 - 5.4 Sätze über die Varianzen ...................................................................................................................... - 13 - 5.5 Mittelwert und Varianz .......................................................................................................................... - 13 - 5.6 Standardisierung: X habe den Mittelwert μx und die Varianz σx2 .................................................. - 14 - 5.7 Kovarianz ............................................................................................................................................... - 14 - 5.8 Sätze über die Kovarianz ...................................................................................................................... - 14 - 5.9 Korrelation ............................................................................................................................................. - 14 - 5.10 Momente von eindimensionalen Verteilungen ................................................................................... - 15 -
Lehrstuhl für Empirische Wirtschaftsforschung und ÖkonometrieDr. Roland Füss ● Statistik II: Schließende Statistik ● SS 2007
Lehrstuhl für Empirische Wirtschaftsforschung und ÖkonometrieDr. Roland Füss ● Statistik II: Schließende Statistik ● SS 2007
5.11 Momenterzeugende Funktion ............................................................................................................... - 15 - 5.12 Momente von zweidimensionalen Verteilungen ................................................................................. - 16 - 5.13 Schiefe ................................................................................................................................................... - 16 - 5.14 Wölbung (Exzeß) ................................................................................................................................... - 16 -
6. Spezielle diskrete Wahrscheinlichkeitsmodelle ......................................................................................................... - 16 -
6.1 Bernoulli - Verteilung ............................................................................................................................ - 16 - 6.2 Geometrische Verteilung ...................................................................................................................... - 17 - 6.3 Binomialverteilung ................................................................................................................................ - 17 - 6.4 Poisson - Verteilung .............................................................................................................................. - 18 - 6.5 Hypergeometrische Verteilung ............................................................................................................ - 19 -
7. Spezielle stetige Wahrscheinlichkeitsmodelle ........................................................................................................... - 20 -
7.1 Normalverteilung ................................................................................................................................... - 20 - 7.1.1 Normalverteilung N(x∗μ,σ2) ...................................................................................................... - 20 - 7.1.2 Standardnormalverteilung N(x∗0,1) .......................................................................................... - 20 - 7.1.3 Mehrdimensionale Normalverteilung N(x∗μ,3) .......................................................................... - 23 -
7.2 Exponentialverteilung ........................................................................................................................... - 23 - 7.3 Lineare Verteilungen ............................................................................................................................. - 24 - 7.4 Testverteilungen .................................................................................................................................... - 25 -
8. Grenzwertsätze ......................................................................................................................................................... - 25 -
8.1 Stochastische Konvergenz................................................................................................................... - 25 - 8.2 Tschebyscheff'sche Ungleichung ........................................................................................................ - 26 - 8.3 Gesetz der großen Zahlen .................................................................................................................... - 26 - 8.4 Zentrale Grenzwertsätze ....................................................................................................................... - 27 -
9. Grundlagen der Schätztheorie .................................................................................................................................. - 28 -
9.1 Punktschätzungen ................................................................................................................................ - 28 - 9.2 Kriterien für Punktschätzungen ........................................................................................................... - 29 - 9.3 Intervallschätzungen ............................................................................................................................. - 30 - 9.4 Schätzfehler, Intervalllänge und Stichprobenverlauf ......................................................................... - 31 -
10. Testtheorie .............................................................................................................................................................. - 33 -
10.1 Fehlerarten und Entscheidungsregeln ................................................................................................ - 33 - 10.2 Unterschied bei Anteilssätzen und Mittelwerten ................................................................................ - 33 -
10.2.1 Ein - Stichproben - Problem ....................................................................................................... - 33 - 10.2.2 Zwei - Stichproben - Problem ..................................................................................................... - 34 -
10.3 Prüfung anderer Parameter .................................................................................................................. - 35 - 10.3.1 Unterschied der Varianzen ......................................................................................................... - 35 - 10.3.2 Abweichung des Korrelationskoeffizienten von 0 ....................................................................... - 36 -
10.4 χ2 -Test ................................................................................................................................................... - 36 - 10.4.1 Anpassungstest ......................................................................................................................... - 36 - 10.4.2 Unabhängigkeitstest zwischen zwei Variablen X , Y ................................................................. - 37 -
11. Nichtparametrische Testverfahren .......................................................................................................................... - 33 - Kritische Werte t(α) der t - Verteilung für verschiedene α ................................................................................... - 38 - Ausgewählte Werte der χ2 - Verteilung .................................................................................................................... - 39 - Kritische Werte F(α) der F - Verteilung ..................................................................................................................... - 40 - Wahrscheinlichkeiten der Standardnormalverteilung N(x∗0,1) .............................................................................. - 22 - Kritische Werte für Binomialverteilung, Mann-Whitney- und Wilcoxon-Test ............................................................ -42 -
1. Relationen zwischen zufälligen Ereignissen
Ereignis: A, B, C 1.1 Enthaltenseinbeziehung: A ⊂ B (A zieht B nach sich) 1.2 Summe von Ereignissen: A ∪ B (Es tritt A oder B ein; oder A und B treten gleichzeitig
ein.) 1.3 Produkt von Ereignissen: A ∩ B (Die Ereignisse treten gleichzeitig auf.) 1.4 Sicheres Ereignis: E
1.5 Unmögliches Ereignis: ∅ 1.6 Komplementärereignis: A A heißt das zu A komplementäre Ereignis 1.7 Sich ausschließende Ereignisse: A ∩ B = ∅ (A und B heißen unvereinbar (disjunkt,
wenn ihr gleichzeitiges Auftreten unmöglich ist.)
1.8 Differenz zweier Ereignisse: B \ A = B ∩ A (Alle Elemente in B, welche nicht in A sind.) 1.9 Gesetze über Ereignisse:
GESETZE
DURCHSCHNITT
VEREINIGUNG
Idempotenz
A ∩ A = A
A ∪ A = A Kommutativgesetz
A ∩ B = B ∩ A
A ∪ B = B ∪ A Assoziativgesetz
A ∩ (B ∩ C) = (A ∩ B) ∩ C
A ∪ (B ∪ C) = (A ∪ B) ∪ C Absorptionsgesetz
A ∩ (A ∪ B) = A
A ∪ (A ∩ B) = A Distributivgesetz
A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
(A ∪ B) ∩ (A ∪ C) = A ∪ (B ∩ C) Komplementgesetz
E = ∅; ∅ = E ; A ∩ A = ∅
A ∪ A = E; ( A )= A Gesetz für neutrale Elemente
A ∩ ∅ = ∅
A ∩ E = A
A ∪ E = E
A ∪ ∅ = A
- 4 -
2. Kombinatorik 2.1 Fakultät
(1) n 1) 3...(n 2 1 = ! n ⋅−⋅⋅ (Def.: O! = 1)
Näherungsformel von Stirling: (2) n 2 e n ! n nn π−⋅≈
2.2 Permutationen
Bei n verschiedenen Elementen: (3) nP = n ! Zirkularpermutation: (3a) ! )(n = Pn 1| − Bei k von n verschiedenen Elementen, mit n1 +n2 + ... + nk = n:
(4) nW
1 2 kP =
n !n ! n ! ... n !
2.3 Kombinationen (ohne Berücksichtigung der Anordnung)
Ohne Wiederholungen:
(5) nkC =
n
k =
n !k ! (n k) !
⎛⎝⎜
⎞⎠⎟ −
Mit Wiederholungen:
(6) wnkC =
n k 1
k=
(n + k - 1 ) !k ! ( n - 1 ) !
+ −⎛
⎝⎜
⎞
⎠⎟
2.4 Variationen (mit Berücksichtigung der Anordnung)
Ohne Wiederholungen:
(7) nkV =
n !(n k) !−
Mit Wiederholungen: (8) w
nk kV = n
- 5 -
2.5 Binomialkoeffizienten
Funktion der Binomialkoeffizienten
(9) ) 1 = ) n ( F ; n k 0 ( kn
= ) n ( F 0k ≤≤⎟⎟⎠
⎞⎜⎜⎝
⎛
Es gelten die Beziehungen:
(10a) ⎟⎟⎠
⎞⎜⎜⎝
⎛⎟⎟⎠
⎞⎜⎜⎝
⎛−⎟⎟
⎠
⎞⎜⎜⎝
⎛ +kn
+ k
n =
kn
11
(10b) ⎟⎟⎠
⎞⎜⎜⎝
⎛⎟⎟⎠
⎞⎜⎜⎝
⎛+⎟⎟
⎠
⎞⎜⎜⎝
⎛++
kn
+ k
n =
kn
111
(10c) ! k) (n ! k
! n =k
n =
kn
−⎟⎟⎠
⎞⎜⎜⎝
⎛−⎟⎟
⎠
⎞⎜⎜⎝
⎛1
(10d) 1 = n
⎟⎟⎠
⎞⎜⎜⎝
⎛0
(10e) 1 = ⎟⎟⎠
⎞⎜⎜⎝
⎛00
3. Wahrscheinlichkeitsrechnung 3.1 Wahrscheinlichkeitsbegriffe
3.1.1 Statistischer Wahrscheinlichkeitsbegriff:
(11) nn = ) A ( P A
n ∞→lim
3.1.2 Klassischer Wahrscheinlichkeitsbegriff:
(12) nn =
Fälle möglichen der AnzahlFälle günstigen der Anzahl = ) A ( P A
3.1.3 Axiomatischer Wahrscheinlichkeitsbegriff:
Indirekte Definition durch Angabe von Eigenschaften und Relationen (3 Grundaxiome): A1: Jedem zufälligen Ereignis A wird eine nicht-negative reelle Zahl W (die Wahrscheinlichkeit)
zugeordnet, die zwischen 0 und 1 liegt: (13) 1 ) A ( P 0 ≤≤
- 6 -
A2: Das sichere Ereignis E hat die Wahrscheinlichkeit eins:
(14) 1 = ) E ( P
A3: Bei sich ausschließenden Ereignissen addieren sich die Wahrscheinlichkeiten:
(15) ) B ( P + ) A P( = ) B A ( P ∪
3.1.4 Subjektiver Wahrscheinlichkeitsbegriff: Wahrscheinlichkeit ist das Maß für den Grad der Überzeugtheit von der Richtigkeit einer Aussage.
3.1.5 Geometrische Wahrscheinlichkeiten
Ist dem Ereignisraum E (mit überabzählbar unendlich vielen Elementarereignissen) ein endliches geometrisches Maß (Längen-, Flächen-, Volumenmaß) zugeordnet, so ist die Wahrscheinlichkeit des zufälligen Ereignisses A in E:
(16) E von VolumenA von Volumen bzw.
E von FlächeA von Fläche bzw.
E von LängeA von Länge = ) A ( P
3.2 Eigenschaften der Wahrscheinlichkeit
Die Wahrscheinlichkeit des unmöglichen Ereignisses ist gleich 0: (17) 0 = ) ( P ∅
Die Wahrscheinlichkeit des sicheren Ereignisses ist gleich 1: (18) W ( E ) = 1
Ist P(A) die Wahrscheinlichkeit des Ereignisses A und A das zu A komplementäre Ereignis, so gilt die Beziehung:
(19) W(A) + P( A ) = 1 = P(E) bzw. P( A ) = 1 - P(A)
Gilt für die zufälligen Ereignisse A und B die Beziehung A ⊂ B (A zieht B nach sich), so ist (20) P(A) ≤ P(B)
Sind A und B zwei beliebige Zufallsereignisse, dann ist
(21) P(A\B) = P(A) - P(A ∩ B)
3.3 Additionssatz
3.3.1 Für beliebige Ereignisse A und B:
(22) P(A ∪ B) = P(A) + P(B) - P(A ∩ B)
ausgedehnt auf die beliebigen Ereignisse A, B, C;
(23) P(A ∪ B ∪ C) = P(A) + P(B) + P(C) - P(A ∩ B) - P(A ∩ C) - P(B ∩ C) + P(A ∩ B ∩ C)
- 7 -
3.3.2 für sich ausschließende Ereignisse:
(24) P(A ∪ B) = P(A) + P(B)
bzw. bei n sich ausschließenden Ereignissen:
(25) P(A1 ∪ A2 ∪...∪ An) = P(A1) + P(A2) +...+ P(An) 3.4 Bedingte Wahrscheinlichkeit
Die Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass das Ereignis B eingetreten ist, wird bezeichnet mit:
(26) 0 > ) B ( P wenn) B ( P
) B A ( P = ) B A ( P ∩|
(27) 0 > ) A ( P wenn) A ( P
) B A ( P = ) A B ( P ∩|
Additionssatz für die Ereignisse A, B, C a) für beliebige Ereignisse A, B, C:
(28) P(A ∪ C ⎜B) = P(A ⎜B) + P(C ⎜B) - P(A ∩ C ⎜B)
b) für sich ausschließende Ereignisse A, C:
(29) ) B ( P
) B C ( P + ) B ( P
) B A ( P = ) B C ( P + ) B A ( P = ) B C A ( P ∩∩∪ |||
3.5 Multiplikationssatz (Allgemeiner Fall)
Haben zwei Ereignisse A und B bei einem Zufallsexperiment die Wahrscheinlichkeit P(A) bzw. P(B), so beträgt die Wahrscheinlichkeit des gleichzeitigen Eintreffens von A und B
(30) P(A ∩ B) = P(A) ∗ P(B ⎜A) = P(B) ∗ P(A ⎜B)
3.6 Stochastische Unabhängigkeit
Man nennt ein Ereignis A bzw. B stochastisch unabhängig von dem Ereignis B bzw. A, wenn die Gleichung (31) P(A⏐B) = P(A) bzw. P(B⏐A) = P(B)
besteht, das heißt das Eintreten des Ereignisses A bzw. B hängt vom Eintreten des Ereignisses B bzw. A nicht ab.
Multiplikationssatz (für unabhängige Ereignisse)
(32) P(A ∩ B) = P(A) ∗ P(B)
für n unabhängige Ereignisse gilt:
(33) P(A1 ∩ A2 ∩...∩ An) = P(A1) ∗ P(A2) ∗ ... ∗ P(An)
- 8 -
3.7 Satz über die totalen Wahrscheinlichkeiten und die Formel von Bayes
Schließen die n zufälligen Ereignisse A1, A2,..., An einander paarweise aus und ist das Ereignis A = A1 ∪ A2 ∪...∪ An das sichere Ereignis, so gilt für ein beliebiges zufälliges Ereignis B, das genau mit einem der Ereignisse Ai eintritt:
(34) ) A B ( P) A( P=)A P(B)AP(+. . . +)A(B P)A( P = B) P ii
n
1 = inn11 |||( ⋅⋅⋅ ∑
Unter den gleichen Voraussetzungen wie in (34) heißt die Formel von Bayes:
(35) ) n . . . j, . . . 1, = i ( ) A B ( P ) A ( P
) A B ( P ) A ( P = ) B | A ( P
ii
n
1 = i
jjj
|
|
⋅
⋅
∑
4. Zufallsvariable und Verteilungsfunktion
4.1 Eindimensionale Zufallsvariable
4.1.1 Diskreter Fall
Wahrscheinlichkeitsfunktion Eine diskrete Zufallsvariable X nehme abzählbar viele Werte x1, x2, ..., xn mit den zugehöri-gen Wahrscheinlichkeiten f(xi) an. f(xi) heißt Wahrscheinlichkeitsfunktion (probability function). (36) p = ) x ( f = ) x = X ( P iii
Eigenschaften der Wahrscheinlichkeitsfunktion
(37a) 0 f ( x ) 1i≤ ≤ (37b) i = 1
n
if ( x ) = 1∑
Verteilungsfunktion (cumulative distribution function) (38) F ( x ) = W ( X x ) = f ( x )
ix xi≤
≤∑
Intervallwahrscheinlichkeiten (39) ) a ( F ) b ( F = ) x ( f = ) b X < a ( P i
b x < a i
−≤ ∑≤
aber: ) a ( f + ) a ( F ) b ( F = ) x ( f = ) b X a ( P i
b x a i
−≤≤ ∑≤≤
Eigenschaften der Verteilungsfunktion
(40) F(x) wächst monoton (Treppenfunktion) von
lim limx x +
F ( x ) = 0 bis F ( x ) = 1→ −∞ → ∞
- 9 -
4.1.2 Stetiger Fall
Grundannahme im stetigen Fall: Stetige Zufallsvariable; daneben wird stetige Differenzier-barkeit der Verteilungsfunktion bzw. Stetigkeit der Dichtefunktion gefordert.
Dichtefunktion (density function)
(41) f ( x ) = d F ( x )
d x
Eigenschaften der Dichtefunktion (42a) f ( x ) 0≥
(42b) −∞
∞
∫+
f ( x ) d x = 1
Verteilungsfunktion (cumulative distribution function):
(43) u d )u ( f = ) x X ( P = ) x ( Fx
∫∞−
≤
lntervallwahrscheinlichkeiten
(44) ) a ( F ) b ( F = x d ) x ( f = ) b X < a ( Pb
a
−≤ ∫
Für stetige Verteilungen gilt stets: (45) b)<Xa P(=b)<X<a P(=b)Xa P=b)X<(a P ≤≤≤≤ (
Eigenschaften der Verteilungsfunktion
(46) F(x) steigt monton und stetig von
lim limx x
F ( x ) = 0 bis F ( x ) = 1→ −∞ → +∞
- 10 -
4.2 Zweidimensionale Zufallsvariable (x,y)
Begriff
Nr.:
Diskreter Fall
Stetiger Fall
Wahrschein-
lichkeitsfunktion bzw.
Dichtefunktion
(47a)
(47b)
(47c)
f ( x , y )i j
0 f ( x , y ) 1i j≤ ≤
i ji j f ( x , y ) = 1∑∑
f ( x , y )
0 f ( x , y )≤
∞
∞
∞
∞
∫ ∫ f ( x , y ) d x d y = 1
Verteilungs-funktion
(48)
F (x , y) = f( x , y )i jx x y y
i j≤ ≤
∑ ∑
F ist eine Treppenfunktion und steigt von F(-∝,-∝) = 0 bis F(+∝,+∝) = 1.
v du d v) u f =y) ,F(xy
x
,(∫∫∞∞
F ist stetig differenzierbar und steigt monoton von F(-∝,-∝) = 0 bis F(+∝,+∝) = 1
Randverteilun-gen
(49a)
(49b)
f ( x ) = f ( x , y ) = pij
i j i ∑ •
f ( y ) = f ( x , y ) = pji
i j j∑ •
f ( x ) = f ( x , y ) d y − ∞
∞
∫
f ( y ) = f ( x , y ) d x −∞
∞
∫
Bedingte Ver-teilungen
(50a)
(50b)
f ( x y ) = f ( x , y )
f ( y )i j
i j
j|
f ( y x ) = f ( x , y )
f ( x )j ii j
i|
f ( x y ) = f ( x , y )
f ( y )|
f ( y x ) = f ( x , y )
f ( x )|
Bedingte
Erwartungs-werte
(51a)
(51b)
E ( X y ) = x f ( x | y ) = |ji = 1
k
i i j x y| ∑ μ
E ( Y x ) = y f ( y |x ) = |ij = 1
m
j j i y x| ∑ μ Unabhängigkeit
von X und Y
(52)
) y ( f )x( f=)y ,x( f jiji ⋅
)y ( f ) x ( f = )y ,x ( f ⋅
5. Kenngrößen von Wahrscheinlichkeitsverteilungen 5.1 Erwartungswert (Mittelwert der Grundgesamtheit)
(53a) Diskreter Fall: E ( X ) = x f ( x ) = x p = i = 1
N
i ii = 1
N
i i x∑ ∑ μ
(53b) Stetiger Fall: E ( X ) = x f ( x ) d x =
x− ∞
∞
∫ μ
- 11 -
Wahrscheinlichkeitsfunktion f(zn) für die Summe der Augenzahlen
ni = 1
n
iz = x∑ , bei n = 1, 2, 3, 4, 5 Würfen mit einem regulären Würfel
zn
f(z1)
* 6
f(z2)
* 62
f(z3)
* 63
f(z4)
* 64
f(z5)
* 65
f(z1)
f(z2)
f(z3)
f(z4)
f(z5)
1 1 0,1667 2 1 1 0,1667 0,0278
3 1 2 1 0,1667 0,0555 0,0046
4 1 3 3 1 0,1667 0,0833 0,0139 0,0008
5 1 4 6 4 1 0,1667 0,1111 0,0278 0,0031 0,0001
6 1 5 10 10 5 0,1667 0,1388 0,0463 0,0077 0,0006
7 6 15 20 15 0,1667 0,0694 0,0154 0,0019
8 5 21 35 35 0,1388 0,0972 0,0270 0,0045
9 4 25 56 70 0,1111 0,1157 0,0432 0,0090
10 3 27 80 126 0,0833 0,1250 0,0617 0,0162
11 2 27 104 205 0,0555 0,1250 0,0802 0,0264
12 1 25 125 305 0,0278 0,1157 0,0965 0,0392
13 21 140 420 0,0972 0,1080 0,0540
14 15 146 540 0,0694 0,1127 0,0694
15 10 140 651 0,0463 0,1080 0,0837
16 6 125 735 0,0278 0,0965 0,0945
17 3 104 780 0,0139 0,0802 0,1003
18 1 80 780 0,0046 0,0617 0,1003
19 56 735 0,0432 0,0945
20 35 651 0,0270 0,0837
21 20 540 0,0154 0,0694
22 10 420 0,0077 0,0540
23 4 305 0,0031 0,0392
24 1 205 0,0008 0,0264
25 126 0,0162
26 70 0,0090
27 35 0,0045
28 15 0,0019
29 5 0,0006
30 1 0,0001
ϕ 6 36 = 62
216 = 63
1296 = 64
7776 = 65
1,0000 1,0000 1,0000 1,0000 1,0000
- 12 -
5.2 Das Rechnen mit Erwartungswerten
Der Erwartungswert ist ein linearer Operator
(54) E(a) = a
(55) E(b ∗ X) = b∗ E(X)
(56) E(a + b ∗ X) = a + b ∗ E(X)
(57) E(X+Y) = E(X) + E(Y)
(58) E(X1+X2+ ... +Xn) = E(X1) + E(X2) + ... + E(Xn)
(59) E(X ∗ Y) = E(X) ∗ E(Y) bei Unabhängigkeit !
Eine Funktion einer Zufallsvariablen ist im allgemeinen wieder eine Zufallsvariable. Erwartungswerte von mittelbaren Zufallsvariablen können berechnet werden, ohne dass die zugehörige Wahrscheinlichkeitsfunktion bekannt ist. Dazu dienen die Sätze:
(60) ) x ( f ) x ( = ) Y ( E ) X ( = Y ii
N
1 = i
⋅→Φ ∑φ
(61) ) y ,x ( f ) y ,x ( = ) Z( E ) Y ,X ( = Z jijiji
⋅→Ψ ∑∑ ψ
- 13 -
5.3 Varianz (62) ] ) X ( E X [ E = ) X ( Var 2−
(63a) Diskreter Fall: σμ 2xii
2N
1 = i
= ) x ( f ) x ( = ) X ( Var ⋅−∑
(63b) Stetiger Fall: σμ 2x
2
= x d ) x ( f ) x ( = ) X ( Var ⋅∫∞
∞−
(64) bweichung Standarda= ) X ( Var = xσ 5.4 Sätze über die Varianzen Verschiebungssatz
(65)
⎪⎪⎩
⎪⎪⎨
⎧
−⋅
−⋅
−
∫
∑∞
∞−
μ
μ
22
2i
2i
N
1 = i22
x d ) x ( f x =
) x ( f x = ] ) X ( E [ ) X ( E = ) X Var(
(66) Var(a) = 0 (67) Var(X+a) = Var(X)
(68) Var(b ∗ X) = b2 ∗ Var(X)
(69) Var(a+b ∗ X) = b2 ∗ Var(X)
(70) σa+bX = │b│ ∗ σx
(71) Bei Unabhängigkeit von X , Y gilt:
Var(X+Y) = Var(X) + Var(Y)
(72) Bei Unabhängigkeit der Xi gilt: Var(X1+X2+ ... +Xn) = Var(X1) + Var(X2) + ... + Var(Xn) 5.5 Mittelwert und Varianz
einer Summe unabhängiger identisch verteilter Zufallsvariablen
(73) E(X1+X2+ ... +Xn) = n ∗ μ
(74) Var(X1+X2+ ... +Xn) = n ∗ σx2
- 14 -
5.6 Standardisierung: X habe den Mittelwert μx und die Varianz σx2
(75) σ
μ
x
x X = Z
−
(76) E(Z) = μz = 0
(77) Var(Z) = σz2 = 1 5.7 Kovarianz (Kenngröße und Unabhängigkeitsmaß für zweidimensionale Verteilungen)
(78) [ ][ ] σ y x = ) Y ( E Y [ ] ) X ( E X E = ) Y ,X ( Cov −⋅− (79) Diskreter Fall: ) y ,x ( f ) y ( ) x ( = ) Y ,X ( Cov jiyjxi
ji
⋅−⋅−∑∑ μμ
μμ yxjijiji
- ) y ,x ( f y x = ⋅⋅⋅∑∑
(80) Stetiger Fall: y d x d )y ,x ( f ) y ( ) x ( = ) Y ,X ( Cov yx
⋅−⋅−∫∫∞
∞−
∞
∞−
μμ
5.8 Sätze über die Kovarianz
(81) μμ yx ) Y X ( E = ) Y ( E ) X ( E ) Y X ( E = ) Y ,X ( Cov ⋅−⋅⋅−⋅
Daraus folgt (Erwartungswert eines Produktes von Zufallsvariablen):
(82) E(X ∗ Y) = E(X) ∗ E(Y) + Cov(X,Y)
Bei Unabhängigkeit ist Cov(X,Y) = 0
(83) Cov(X,X) = V(X)
(84) Cov(a+b ∗ X, c+d ∗ Y) = b ∗ d Cov(X,Y)
Varianz einer Summe nicht unabhängiger Zufallsvariablen
(85) Var(X+Y) = Var(X) + Var(Y) + 2 ∗ Cov(X,Y)
(85a) V X = V ( X ) + Cov ( X , X )i = 1
n
ii = 1
n
ii ji j
i j∑ ∑ ∑ ∑⎛⎝⎜
⎞⎠⎟
≠
5.9 Korrelation (Bravais - Pearson'scher Korrelationskoeffizient)
Unabhängigkeitsmaß bei zweidimensionalen Verteilungen
(86) σσ
σρyx
y x
=
) Y ( Var ) X ( Var ) Y ,X ( Cov = ) Y ,X (
⋅⋅
- 15 -
Eigenschaften der Korrelation: (87) ρ ρ ( X , Y ) = ( Y , X ) (88) 1 = ) X ,X ( −−ρ (89) ρ ( X , X ) = + 1 (90) − ≤ ≤ 1 + 1ρ
(91) ρρρ
( a + b X , c + d Y ) = ( X , Y ) falls ( sign b ) = ( sign d ) ( X , Y ) falls ( sign b ) ( sign d )− ≠
⎧⎨⎩
Bei Unabhängigkeit ist ρ(X,Y) = 0 (Umkehrung gilt nicht)
5.10 Momente von eindimensionalen Verteilungen
5.10.1 Allgemeine Momente (A ist ein beliebiger Wert):
(92) rrm ( A ) = E ( X A ) ( r = 1 , 2 , . . . )−
5.10.2 Momente um den Nullpunkt (Anfangsmomente) (A = O):
(93) x d ) x ( f x bzw. ) x ( f x = ) X ( E = ) 0 ( m r
i
ri
i
rr ⋅⋅ ∫∑
∞
∞−
z.B.: m1(0) = E(X) = μ
5.10.2 Momente um den Mittelwert (Zentralmomente) (A = μ)
(94) x d ) x ( f ) x ( bzw.
) x ( f ) x ( = ) X ( E = ) ( m
r
iii
rrr
⋅−
⋅−−
∫
∑∞
∞−
μ
μμμ
z.B.: m1(μ) = 0 (Schwerpunkteigenschaft)
m2(μ) = σ2
5.11 Momenterzeugende Funktion
(95) ( ) e E = ) t ( m X t (96) Diskreter Fall: ) x ( f e = ) t ( m i
x t
i
i ⋅∑
(97) Stetiger Fall: x d ) x ( f e = ) t ( m x t
⋅∫∞
∞
- 16 -
5.12 Momente von zweidimensionalen Verteilungen
5.12.1 Momente um den Nullpunkt (Anfangsmomente): (98) ( ) Y X E = ) 0 ( m sr
sr z.B.: m10(0) = μx
m01(0) = μy
5.12.2 Momente um den Mittelwert (Zentralmomente): (99) ( ) ( )[ ] Y X E = ) ( m y
sx
r sr μμμ −⋅−
(100) 2 0 x2m ( ) = μ σ
(101) 0 2 y2m ( ) = μ σ
(102) 1 1 y xm ( ) = μ σ 5.13 Schiefe
(103) γμ
σμ
μ =
E ( X ) =
m ( )
m ( )
3
33
2
32
−
5.14 Wölbung (Exzeß)
(104) εμ
σμ
μ =
E ( X ) 3 =
m ( )m ( )
34
44
22
−− −
6. Spezielle diskrete Wahrscheinlichkeitsmodelle
6.1 Bernoulli - Verteilung
Eine Zufallsvariable (Bernoulli - Variable; 0,1 -Variable) nimmt die Werte 0 und 1 mit den Wahrscheinlichkeiten p und q an:
x
f(x)
0
q
1
p
sonst
0
(105) Wahrscheinlichkeitsfunktion: f(x) = pxq1-x
(106a) Mittelwert: μ = P
(106b) Varianz: σ2 = pq (106c) Momenterzeugende Funktion: mx(t) = 1 + p(et - 1)
- 17 -
6.2 Geometrische Verteilung Frage der Wahrscheinlichkeit des Eintritts des 1. Erfolges
Bed.: gleichbleibende Erfolgswahrscheinlichkeiten, stochastische Unabhängigkeit
Wahrscheinlichkeitsfunktion: (107a) . . . ,3 ,2 ,1 = x für q p = ) p | x ( g 1 x −⋅
Verteilungsfunktion:
(107b) q p = ) x ( F 1 kx
1 = kg
−⋅∑
Erwartungswert:
(108a) E ( X ) = = 1p
μ
Varianz:
(1O8b) p
p 1 = pq = = ) X ( Var 22
2 −σ
Momenterzeugende Funktion:
(108c) ) p 1 (e 1
e p = ) t ( m t
t
x −−⋅
6.3 Binomialverteilung
Urnenmodell: In einer Urne befinden sich M weiße und N - M schwarze Kugeln. Wie groß ist die Wahrscheinlichkeit bei einer (unabhängigen) Stichprobe mit Zurücklegen vom Umfang n genau x (0 # x # n) weiße Kugeln zu ziehen?
Bezeichnungen: p = Wahrscheinlichkeit für das Auftreten eines betrachteten (0,1) - Merkmals (z. B. weiße Kugeln)
in der Grundgesamtheit.
p = MN
= const. = Anteilssatz der weißen Kugeln.
q = 1 p = N M
N =−
− Anteilssatz der schwarzen Kugeln.
n = Anzahl der Elemente in einer unabhängigen Stichprobe (mit Zurücklegen bei endlicher Urne). x = Anzahl der Ereignisträger (z.B. weiße Kugeln) in einer Stichprobe
Wahrscheinlichkeitsfunktion:
(109) ) n ,. . . ,2 ,1 ,0 = x ( q p x
n = ) p ,n | x ( b = ) x ( f x nx −⋅⋅⎟⎟
⎠
⎞⎜⎜⎝
⎛
- 18 -
(109a) 1 = ) q + p ( = q p x
n = ) p ,n | x ( b nx nx
n
0 = x
n
0 = x
−⋅⋅⎟⎟⎠
⎞⎜⎜⎝
⎛∑∑
Verteilungsfunktion:
(11O) q p k
n = ) x ( F k nk
x
0 = kb
−⋅⋅⎟⎟⎠
⎞⎜⎜⎝
⎛∑
Erwartungswert: (111) p n = ⋅μ Varianz: (112a) q p n = 2 ⋅⋅σ Momenterzeugende Funktion:
(112b) mx(t) = [1 + p(et - 1)]n
Rekursionsformel:
(113) ) p ,n | x ( b qp
1 + xx n = ) p ,n | 1 + x ( b ⋅⋅
−
Relativierte Binomialvariable:
(114) ( ) X + . . . + X + X n1 =
nX = F n21⋅
(115a) p=μ
(115b) n
q p = 2 ⋅
σ
6.4 Poisson - Verteilung
Dieser Verteilung liegt im wesentlichen dasselbe Problem zugrunde wie der Binomialverteilung. Es unterscheidet sich nur darin, daß die Zahl n der aus der Urne gezogenen Kugeln sehr groß und die Wahrscheinlichkeit für das Ziehen einer bestimmten (z.B. weißen) Kugel sehr klein ist. (λ = np = const.)
Wahrscheinlichkeitsfunktion:
(116) ) . . . ,2 ,1 ,0 = x ( e ! x
= ) | x ( p x
λλλ −⋅
(116a) 1 = e e = e ! x
= ) | x ( p x
0 = x0 = x
λλλλλ −−∞∞
⋅⋅∑∑
Verteilungsfunktion:
(117) ! k
e = e ! k
= ) x ( Fk
x k
kx
0 = kp
λλ λλ ∑∑≤
−− ⋅⋅
- 19 -
Mittelwert und Varianz: (118) μ σ λ = = 2 Momenterzeugende Funktion: (119) ( )[ ] 1 e = ) t ( m t
x −μexp Rekursionsformel:
(120) ) | x ( p 1 + x
= ) | 1 + x ( p λλλ ⋅
Reproduktivität: Die Summe von Poisson-Variablen ist wieder poissonverteilt. 6.5 Hypergeometrische Verteilung
Urnenmodell: Endliche Urne wie bei der Binomialverteilung, Unabhängige Stichprobe ohne Zurücklegen.
Bezeichnungen: N = Anzahl der Elemente in der Grundgesamtheit. M = Anzahl der Elemente mit einem bestimmten alternativen Merkmal = Ereignisträger (z.B. weiße
Kugeln).
p = MN
= Wahrscheinlichkeit des Auftretens des betrachteten (0,1) - Merkmals (z. B. weiße
Kugeln) - p verändert sich von Zug zu Zug -.
q = 1 p = N M
N =−
− Gegenwahrscheinlichkeit
n = Anzahl der Elemente der Stichprobe (ohne Zurücklegen). x = Anzahl der Ereignisträger (z.B. weiße Kugeln) in der Stichprobe.
Wahrscheinlichkeitsfunktion:
(121)
⎟⎟⎠
⎞⎜⎜⎝
⎛
⎟⎟⎠
⎞⎜⎜⎝
⎛
−
−⋅⎟⎟
⎠
⎞⎜⎜⎝
⎛
n
Nx n
M N
x
M
= ) N ; M; n | x ( h
Verteilungsfunktion:
(122)
⎟⎟⎠
⎞⎜⎜⎝
⎛
⎟⎟⎠
⎞⎜⎜⎝
⎛
−
−⋅⎟⎟
⎠
⎞⎜⎜⎝
⎛
∑≤
n
Nk n
M N
k
M
= ) x ( Fx k
h
Mittelwert:
(123) p n = NM n = ⋅⋅μ
- 20 -
Varianz
(124) q p n 1 Nn N =
N M N
NM n
1 Nn N = 2 ⋅⋅⋅
−−−
⋅⋅⋅−−
σ
Rekursionsformel:
(125) ) NM;; n | x ( h 1)+x nM(N1)+(x
) x(M ) x (n=) N; M; n | 1+x ( h ⋅+−−⋅
−⋅−
7. Spezielle stetige Wahrscheinlichkeitsmodelle
7.1 Normalverteilung
7.1.1 Normalverteilung N(x│μ,σ2) Dichtefunktion:
(126) ) < x < ( 2
) x (
2 1=) x ( f=) , | x ( N
2
22 ∞∞−⎥
⎦
⎤⎢⎣
⎡ −−⋅
σμ
πσσμ exp
Verteilungsfunktion:
(127) ud 2
) u ( 2
1 = ) x ( F2
2x
⎥⎦
⎤⎢⎣
⎡ −⋅ ∫
∞− σμ
πσexp
Mittelwert und Varianz: (128a) E ( X ) = μ (128b) σ 2 = ) X ( Var Momenterzeugende Funktion:
(129) ⎟⎟⎠
⎞⎜⎜⎝
⎛ ⋅⋅
2t + t = ) t ( m
2
x
2
exp σμ
7.1.2 Standardnormalverteilung N(z│0,1)
Standardisierung:
(130) Z = X − μ
σ
Dichtefunktion:
(131) ) <z < ( 2z
21 = )z ( = ) 1 ,0 |z ( N
2
∞∞−⎟⎠
⎞⎜⎝
⎛−⋅ exp
πϕ
Verteilungsfunktion:
(132) u d 2u
21 = )z (
2z
⎟⎟⎠
⎞⎜⎜⎝
⎛−⋅ ∫
∞−
expπ
φ
Momenterzeugende Funktion:
(133) ⎟⎠⎞
⎜⎝⎛ ⋅ t
21 = ) t ( m 2
x exp
- 21 -
Wichtige Beziehung:
(134) F ( x ) = X
φμ
σ−⎛
⎝⎜⎞⎠⎟
Symmetrische Fläche unter der Dichtefunktion:
(135) u d 2u
21 = )z (
2z
z ⎟⎟⎠
⎞⎜⎜⎝
⎛−⋅ ∫
−
expπ
ψ
Es gelten folgende Beziehungen: (136a) φ φ ( z ) = 1 ( z )− −
(136b) φψ
( z ) = ( z )2
+ 12
(136c) ψ φ ( z ) = 2 ( z ) 12
−⎛⎝⎜
⎞⎠⎟
(137) ⎟⎠⎞
⎜⎝⎛ −
−⎟⎠⎞
⎜⎝⎛ −
−≤≤ a b = ) a ( F ) b ( F = ) b X a ( Wσ
μφσ
μφ
Kenngrößen: (138a) μ = 0 (138b) 2 = 1σ (138c) σ = 1 (138d) γ = 0 (138e) ε = 0
- 22 -
Wahrscheinlichkeiten der Standardnormalverteilung N(z∗0,1)
Werte der Verteilungsfunktion Symetrische Intervallwahrscheinlichkeit
Es gilt: Φ(-z) = 1 - Φ(z) Es gilt: ψ(z) = 2Φ(z) - 1
z
Φ(z)
ψ(z)
0,0
0,5000
0,0000
0,1
0,5398
0,0796 0,2
0,5793
0,1585
0,3
0,6179
0,2358 0,4
0,6554
0,3108
0,5
0,6915
0,3829 0,6
0,7257
0,4515
0,7
0,7580
0,5161 0,8
0,7881
0,5763
0,9
0,8159
0,6319 1,0
0,8413
0,6827
1,1
0,8643
0,7287 1,2
0,8849
0,7699
1,3
0,9032
0,8064 1,4
0,9192
0,8385
1,5
0,9332
0,8664 1,6
0,9452
0,8904
1,7
0,9554
0,9109 1,8
0,9641
0,9281
1,9
0,9713
0,9426 2,0
0,9772
0,9545
2,1
0,9821
0,9643 2,2
0,9861
0,9722
2,3
0,9893
0,9786 2,4
0,9918
0,9836
2,5
0,9938
0,9876 2,6
0,9953
0,9907
2,7
0,9965
0,9931 2,8
0,9974
0,9949
2,9
0,9981
0,9963 3,0
0,9986
0,9973
- 23 -
Häufig gebrauchte Werte: Φ (z) = 0,975 → z = 1,96 Φ (z) = 0,95 → z = 1,65
ψ (z) = 0,90 → z = 1,65 ψ (z) = 0,95 → z = 1,96 ψ (z) = 0,975 → z = 2,24 ψ (z) = 0,99 → z = 2,58
7.1.3 Mehrdimensionale Normalverteilung N(x│μ, ∑)
(μ = Erwartungswert, ∑ = Varianz-Kovarianz-Matrix, T = Transposition)
Dichtefunktion: (139a)
( )
⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
∑
⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
∈
⎥⎦⎤
⎢⎣⎡ −⋅∑⋅−⋅−⋅
∑⋅
=Σ
−
σσσ
σσσ
σσσ
μ
μ
μ
μ
μμπ
μ
2n2 n1 n
n 2221 2
n 12 121
n
2
1
n
1 T n
...
.. ..
. . ..
. ...
...
. . .
= und
.
.
. = mit
R x für
) x ( ) x ( 21
2
1 = ) x ( f
xN
expdet
),|(
Momenterzeugende Funktion:
(139b) ( ) ( ) ⎥⎦⎤
⎢⎣⎡ ⋅∑⋅⋅ x x
21 + x = ) t ( m TT
x μexp
7.2 Exponentialverteilung
(140a) Dichtefunktion: f ( x ) = a e ( a > 0 ; x 0 ) a x− ≥ (140b) Verteilungsfunktion: F ( x ) = 1 e a x− −
(141a) Erwartungswert: μ = 1a
(141b) Varianz: 22 =
1a
σ
(141c) Momenterzeugende Funktion: xm ( t ) = 1
1 ta
−
keine Reproduktivität
- 24 -
7.3 Lineare Verteilungen
Verteilung
Dichtefunktion
Mittelwert/
Varianz
Gleich- verteilung (Rechtecks- verteilung)
(142a)
f ( x ) = 1
b a( a x b )
−≤ ≤
2
12) a b ( =
2b + a =
2 −σ
μ
linksschiefe Dreiecks- verteilung
(142b)
) b x a () a b (
) a x ( 2 = ) x ( f2
≤≤−
−⋅
18) a b (
=
3) b 2 + a ( =
22 −
σ
μ
rechts- schiefe
Dreiecks- verteilung
(142c)
) b x a () a b (
) x b ( 2 = ) x ( f2
≤≤−
−⋅
μ
σ
= ( 2 a + b )
3
= ( b a )
182
2−
Unimodale symmetrische
Dreiecks- verteilung
(142d)
⎪⎪⎩
⎪⎪⎨
⎧
⎟⎠⎞
⎜⎝⎛ ≤≤
−
−⋅
⎟⎠⎞
⎜⎝⎛ ≤≤
−
−⋅
bx2
b + a für
)ab () b x ( 4 -
2 b + a
x a für ) a b (
) a x ( 4
= ) x ( f
2
2
24) a b (
=
2b + a =
22 −
σ
μ
Symmetrische V - Verteilung
(142e)
f ( x ) =
-4x 2a 2b( b a )
für a x a+ b
2
4x - 2a 2b
( b a ) für
a + b2
2
2
+ +−
≤ ≤⎛⎝⎜
⎞⎠⎟
−−
⎛⎝⎜
⎞⎠⎟
⎧
⎨⎪⎪
⎩⎪⎪
8) a b (
=
2) b + a ( =
22 −
σ
μ
- 25 -
7.4 Testverteilungen Verteilungsfunktionen werden zur Prüfung statistischer Hypothesen herangezogen. Die Verteilungen sind tabelliert. Es handelt sich um unabhängige Zufallsvariablen.
7.4.1 χ2 - Verteilung
X1, X2, . . . , Xν seien standardnormalverteilt. Dann heißt
(143a) X = 2i
v
1 = i
2 ∑χ
χ2 - verteilt mit ν Freiheitsgraden [χ2 (ν)]
7.4.2 t - Verteilung (Student)
Ist X standardnormalverteilt und Y χ2(ν) - verteilt, so heißt
(144) Y
v1
X = t⋅
t - verteilt mit ν Freiheitsgraden [t(ν)].
7.4.3 F - Verteilung (Snedecor)
Ist X χ2(ν1) - verteilt und Y χ2(ν2) - verteilt, so heißt
(145) Y
v1
X v1
= F
2
1
⋅
⋅
F - verteilt mit (ν1,ν2) Freiheitsgraden [F(ν1,ν2)].
8. Grenzwertsätze
8.1 Stochastische Konvergenz 8.2
Eine Zufallsvariable Xn strebt mit n → ∞ stochastisch gegen θ (wahrer Wert), wenn für jedes ε > 0 gilt: (146) ( ) 1 = < | X | P n
nεθ−
∞→lim
8.3 Tschebyscheff'sche Ungleichung
X sei eine Zufallsvariable, c eine gegebene Konstante, ε > 0.
(147) ( ) )c X ( E 1 | c X | P 22
−⋅≤≥−ε
ε
Spezialisierung c = μ: Abweichungen einer Zufallsvariablen von ihrem Mittelwert.
(148) ( )εσεμ
2
2
| X | P ≤≥−
- 26 -
Man drückt ε durch Vielfaches von σ aus: ε = tσ
(149) ( )t1 t | X | P2
≤⋅≥− σμ
Umgeschrieben auf die Gegenwahrscheinlichkeit:
(150) ( )t1 1 t < | X | P2
−≥⋅− σμ
8.3 Gesetz der großen Zahlen
Homograder Fall (qualitative Merkmale) Theorem von Bernoulli
(151) ε
ε2 n
q p p nm P
⋅⋅
≤⎟⎟⎠
⎞⎜⎜⎝
⎛≥−
(152) ε
ε2 n
q p 1 < p nm P
⋅⋅
−≥⎟⎟⎠
⎞⎜⎜⎝
⎛−
für n → ∞ : Gesetz der großen Zahl
(153) 1 = < p nm P
n⎟⎟⎠
⎞⎜⎜⎝
⎛−
∞→
εlim
Heterograder Fall (quantitative Merkmale)
X1, X2, . . . , Xn seien identisch verteilte unabhängige Zufallsvariable (Stichprobe). Für den Mittelwert der Stichprobe gilt:
(154) ni = 1
n
iX = 1n
X∑
(155) ( )ε
σεμ2
2
n n X P
⋅≤≥−
(156) ( )ε
σεμ2
2
n n 1 < X P
⋅−≥−
für n → ∞ : Gesetz der großen Zahl (157) ( ) 1 = < X P n
nεμ−
∞→lim
Hauptsatz der mathematischen Statistik (Gliwenko): Die empirische Verteilungsfunktion einer Stichprobe konvergiert mit wachsendem Stichprobenumfang stochastisch gegen die Verteilungsfunktion der Grundgesamtheit.
- 27 -
8.4 Zentrale Grenzwertsätze
Grenzwertsatz von de Moivre, Laplace: Approximation der Binomialverteilung durch die Normalverteilung
(158) ) 1 ,0 |z ( N q p n
p n X = Z ≅⋅⋅
⋅−
Zentraler Grenzwertsatz: Unter sehr allgemeinen, praktisch immer erfüllten Bedingungen sind Summen und Durchschnitte (Stichprobenmittelwerte) von unabhängigen Zufallsvariablen für große n angenähert normalverteilt.
Grenzwertsatz von Lindeberg - Levy: X1, X2, . . . , Xn seien identisch verteilte unabhängige Zufallsvariable mit Mittelwert μ und Varianz σ2:
(159) ) 1 ,0 |z ( N n
n X + . . . + X + X = Z n21 ≅⋅
⋅−σ
μ
(160) ) 1 ,0 |z ( N n X = Z n ≅⋅
−σ
μ
Grenzwertsatz von Ljapunoff: X1, X2, . . . , Xn seien beliebig verteilte unabhängige Zufallsvariable mit Mittelwerten μi und Varianz σi2:
(161) ) 1 ,0 |z ( N
x = Z2i
i
iin
1 = i
≅−
∑∑
σ
μ
Folgerungen aus dem zentralen Grenzwertsatz:
1. Für große n und nicht zu kleine Werte von p (oder) q ( Als Faustregel gilt: npq > 4 −
brauchbare Näherung, npq > 9 ∼ gute Näherung;) kann die Binomialverteilung durch eine Normalverteilung approximiert werden (Grenzwertsatz von de Moivre, Laplace).
2. Für große n und kleine Auswahlsätze n/N läßt sich die hypergeometrische Verteilung durch eine
Normalverteilung approximieren.
3. Für λ > 4 (brauchbare Näherung) oder λ > 9 (gute Näherung) läßt sich die Poisson - Verteilung durch eine Normalverteilung approximieren.
(162) ) 1 ,0 |z ( N X = Z ≅
−
λλ
4. Für Summen und Durchschnitte von Variablen (Stichprobenmittelwerte) gilt, daß diese bei genügend großem n (n > 30) annähernd normalverteilt sind, gleichqültig, aus welcher Ausgangsverteilung sie stammen.
- 28 -
9. Grundlagen der Schätztheorie 9.1 Punktschätzungen
N = Umfang der Grundgesamtheit; n = Umfang der Stichprobe
Homograder Fall: (Qualitative Merkmale)
Grundgesamtheit: Urne mit zweierlei Kugeln, weiß und schwarz (O,1 - Variable).
(163) P = MN
= Anteilsatz in der Grundgesamtheit
(164) p = mn
= Anteilsatz in der Stichprobe
(165) = ) P 1 ( P = Q P = 2 −⋅σ Varianz der Grundgesamtheit
(166) = 1 n
q p n = s2
−⋅⋅ Varianz der Stichprobe
Heterograder Fall: (Quantitative, diskrete Merkmale)
Grundgesamtheit: Urne mit Kugeln auf denen zahlenmäßige Merkmalsausprägungen vemerkt sind.
Mittelwert und Varianz der Grundgesamtheit
(167) N
N xbzw
N
x =
ii
k
1 = ii
N
1 = i = ⋅∑∑
μμ .
(168) N
N ) x ( = bzw.
N
) x ( =
i2
i
k
1 = i2
2i
N
1 = i2
⋅−− ∑∑ μσ
μσ
Mittelwert und Varianz der Stichprobe
(169) n
n xx bzw.
n
x = x
ii
k
1 = ii
n
1 = i = ⋅∑∑
(170) 1n
n ) x x ( = s bzw.
1 n
) x x ( = s
i2
i
k
1 = i2
2i
n
1 = i2
−
⋅−
−
− ∑∑
- 29 -
Varianz der Stichprobenmittelwerte
Homograder Fall:
(171) 1Nn N
nQ P
= = ) P ( Var 2P −
−⋅
⋅σ (Fall ohne Zurücklegen)
(172) n
Q P = = ) P ( Var 2
P⋅
σ (Fall mit Zurücklegen)
Heterograder Fall:
(173) ( )1Nn N
n = = X Var
22X −
−⋅σσ (Fall ohne Zurücklegen)
(174) ( )n
= = X Var2
2X
σσ (Fall mit Zurücklegen)
Schätzwerte der Varianz der Stichprobenmittelwerte (Wenn nicht alle möglichen Stichprobenmittelwerte vorliegen)
Homograder Fall:
(175) N
n N 1nq p
= = ) p ( var 2p
−⋅
−⋅
σ̂ (Fall ohne Zurücklegen)
(176) 1nq p
= = ) p ( var 2p −
⋅σ̂ (Fall mit Zurücklegen)
Heterograder Fall:
(177) ( )N
n N ns = = x var
22x
−⋅σ̂ (Fall ohne Zurücklegen)
(178) ( )ns = = x var
22xσ̂ (Fall mit Zurücklegen)
9.2 Kriterien für Punktschätzungen (Kriterien guter Schätzfunktionen)
9.2.1. Konsistenz Bei zunehmendem Stichprobenumfang n strebt der Schätzwert n
$θ stochastisch gegen den wahren Wert θ. (179a) ( ) 1 = < P n
nεθθ −
∞→
ˆlim
(179b) z.B.: ( ) 1 = < X P n n
εμ−∞→
lim
- 30 -
9.2.2 Erwartungstreue Der Durchschnitt aller Stichprobenmittelwerte ergibt den wahren Wert: (180a) ( )E = $θ θ
(180b) z.B.: ( )E X = μ (180c) z.B.: ( )E S = 2 2σ (im Fall mit Zurücklegen)
(180d) z.B.: ( ) σ 22 1N
N = S E ⋅−
(im Fall ohne Zurücklegen)
9.2.3 Effizienz Von zwei erwartungstreuen Schätzfunktionen heißt diejenige effizienter, die die kleinere Varianz
besitzt. 1$θ heißt effizienter als 2
$θ , wenn gilt: (181) ( ) ( ) Var < Var 1 2
ˆˆ θθ 9.2.4 Asymptotische Normalverteilung
Strebt die Verteilung der Schätzwerte n$θ für großen Stichprobenumfang n gegen die
Normalverteilung so erhält man asymptotisch normalverteilte Schätzwerte. Bei großem n verteilen sich z.B. die Stichprobenmittelwerte asymptotisch normal.
9.2.5 Suffizienz
Gegebene Stichprobe schöpft alle relevanten Informationen aus. 9.3 Intervallschätzungen
Fall:
Inklusionsschluß (direkter Schluß)
Für den Anteilssatz in der Stichprobe:
Homograder
Fall
a) ohne Zurücklegen
(182) 1 Nn N
nQ Pz + P p
1 Nn N
nQPzP
−−
⋅⋅
⋅≤≤−−
⋅⋅
⋅−
b) mit Zurücklegen
(183) n
Q P z + P p n
Q P z P ⋅⋅≤≤
⋅⋅−
Für den Stichprobenmittelwert:
Heterograder
Fall
a) ohne Zurücklegen
(184) 1 Nn N
n z + x
1 Nn N
n z
−−
⋅⋅≤≤−−
⋅⋅−σμσμ
b) mit Zurücklegen
(185) n
z + x n
z σμσμ ⋅≤≤⋅−
- 31 -
Fall:
Repräsentationsschluß (indirekter Schluß)
Für den Anteilssatz in der Grundgesamtheit:
Homograder
Fall
a) ohne Zurücklegen
(186) N
n N 1 nq p z +p P
Nn N
1nq p z p −
⋅−⋅
⋅≤≤−
⋅−⋅
⋅−
b) mit Zurücklegen
(187) 1 nq p z + p P
1 nq p z p
−⋅
⋅≤≤−⋅
⋅−
Für den Mittelwert der Grundgesamtheit:
Heterograder
Fall
a) ohne Zurücklegen
(188) N
n N n
s z +x N
n N n
s z x −⋅⋅≤≤
−⋅⋅− μ
b) mit Zurücklegen
(189) n
s z + x n
s z x ⋅≤≤⋅− μ
Bemerkungen: 1. Die zugehörige Konfidenzwahrscheinlichkeit ist jeweils:
% 100 ) 1 ( = u d 2u
21 = )z (
2z
z
⋅−⎟⎟⎠
⎞⎜⎜⎝
⎛−⋅ ∫
−
απ
ψ exp
2. Der Korrekturfaktor für die Varianz N nN 1
N n
N = 1
nN
−−
≈−
− tritt nur im Fall ohne
Zurücklegen auf. Wird er im Fall ohne Zurücklegen vernachlässigt, so ergeben sich größere Vertrauensintervalle (d.h. schlechtere Abschätzungen). Für n/N ≤ 0,05 kann der Korrekturfaktor auch im Fall ohne Zurücklegen durch 1 ersetzt werden.
9.4 Schätzfehler, Intervallänge und Stichprobenverlauf
Der Schätzfehler ist definiert:
Heterograder Fall:
Homograder Fall:
(190) σ x z = e ⋅
(191) σ p z = e ⋅
wobei für x p bzw. σ σ die Formeln (171) bis (174) gelten.
- 32 -
Relativer Fehler = relative Genauigkeit
Homograder Fall ohne Zurücklegen:
(192) 1 Nn N
P nQ z =
Pe = er −
−⋅
⋅⋅
Heterograder Fall ohne Zurücklegen:
(193)
⎟⎟⎠
⎞⎜⎜⎝
⎛
−−
⋅⋅
tkoeffizienVariations = = V
1 Nn N
nV z = e = e
2
r
μσ
μ
Auflösung nach n ergibt die Formeln für den notwendigen Stichprobenumfang. Bei Vernachlässigung des Korrekturfaktors vereinfachen sich die Formeln.
Formeln für den notwendigen Stichprobenumfang
Fall:
ohne Korrekturfaktor
mit Korrekturfaktor*
Homograd:
Absoluter Fehler e vorgegeben
(194) e
Q P z n2
2 ⋅⋅≥
(195)
⎟⎟⎠
⎞⎜⎜⎝
⎛⋅⋅
⋅≥
Q P z
e N + 1
N n
2
2
Relativer Fehler er vorgegeben
(196) P eQ z n
2r
2
⋅⋅
≥
(197)
⎟⎟⎠
⎞⎜⎜⎝
⎛⋅
⋅⋅≥
Q z
P e N + 1
N n
2
2r
Heterograd:
Absoluter Fehler e vorgegeben
(198) e z n2
22 σ⋅≥
(199)
⎟⎟⎠
⎞⎜⎜⎝
⎛⋅⋅
≥
ze N + 1
N n
22
2
σ
Relativer Fehler er vorgegeben
(200) e
V z n2r
22 ⋅≥
(201)
⎟⎟⎠
⎞⎜⎜⎝
⎛⋅⋅
≥
V ze N + 1
N n
22
2r
* Bei mit Korrekturfaktor wird der Einfachheit halber N - 1 ≈ N gesetzt.
Da PQ, σ2 bzw. Q/P, V2 unbekannt sind, müssen sie möglichst ungünstig (d.h. durch Maximalwerte) abgeschätzt werden.
- 33 -
10. Testtheorie 10.1 Fehlerarten und Entscheidungsregeln
Fehler 1. Art H0 wird verworfen, obwohl die Hypothese richtig ist. (Wahrscheinlichkeit des Fehlers = α bzw. Signifikanzniveau des Tests)
Fehler 2. Art H0 wird angenommen, obwohl die Hypothese falsch ist. (Wahrscheinlichkeit des Fehlers = β ; 1 - β = Güte des Tests)
Die Entscheidungsregel besagt: Ist die Teststatistik T , die aus der gegebenen Stichprobe errechnet wurde, kleiner als der kritische Wert bei gegebenem Signifikanzniveau α , dann behält man die Nullhypothese H0 bei, also bei
(202) | T | t ( ) bzw. F ( ) bzw. ( ) bzw. z2≤ α α χ α
Ist dagegen (203) | T | > t ( ) bzw. F ( ) bzw. ( ) bzw. z2α α χ α wird die Nullhypothese verworfen.
10.2 Unterschied bei Anteilssätzen und Mittelwerten
10.2.1 Ein - Stichproben - Problem
Homograder Fall (Anteilsätze): Stichprobenumfang n, Anteilsatz p (204)
( ) n
P 1 P P p
= T
P < P 3.P P 2.P > P 1.
: H ; P = P : H
00
0
0
0
0
100
⋅−⋅
−
≠
- 34 -
Heterograder Fall (Mittelwerte): Stichprobenumfang n, Anteilsatz x (205)
n s x
= T
< 3. 2. > 1.
: H ; = : H
0
0
0
0
100
⋅−
≠
μ
μμμμμμ
μμ
Die Testgröße T ist bei kleinem Stichprobenumfang t - verteilt, mit ν = n - 1 Freiheitsgraden und bei großem Stichprobenumfang (n > 30) standardnoralverteilt.
10.2.2 Zwei - Stichproben - Problem (σ - Differenz - Verfahren)
Homograder Fall:
Stichprobe 1: n1, p1; Stichprobe 2: n2, p2: (206)
( ) n1 +
n1 p 1 p
p p = T
P < P 3.P P 2.P > P 1.
: H ; P = P : H
21
21
21
21
21
1210
⎟⎟⎠
⎞⎜⎜⎝
⎛⋅−⋅
−
≠
mit
(207) ( ) ( )2 n + n
p 1 p n p1 pn = ) p 1 ( p21
222111
−−⋅⋅+−⋅⋅
−⋅
- 35 -
Heterograder Fall:
Stichprobe 1: 1 1 12n , x , s Stichprobe 2: 2 2 2
2n , x , s (208)
n1 +
n1 s
x x = T
< 3. 2. > 1.
: H ; = : H
21
2
21
21
21
21
1210
⎟⎟⎠
⎞⎜⎜⎝
⎛⋅
−
≠
μμμμμμ
μμ
mit
(209) 2 n + n
s ) 1 n ( + s ) 1 n ( = s
21
22
2112
−⋅−⋅− 2
Die Testgröße T ist bei kleinem Stichprobenumfang t - verteilt, mit ν = n1 + n2 - 2 Freiheitsgraden und bei großem Stichprobenumfang (n > 30) standardnormalverteilt.
10.3 Prüfung anderer Parameter
10.3.1 Unterschied der Varianzen
a) Ein - Stichprobenproblem
Stichprobe: n , s: (210)
σ
σσσσσσ
σσ
20
2
0
0
0
100
s ) 1 - n ( = T
< 3. 2. > 1.
: H ; = : H
⋅
≠
Die Testgröße T ist χ2 - verteilt mit ν = n - 1 Freiheitsgraden.
- 36 -
b) Zwei - Stichprobenproblem Stichprobe 1: 1 1
2n , s Stichprobe 2: 2 22n , s
(211)
( )
0 1 2 1 1 2
12
22 1 2
H : = ; H : >
T = ss
bei s > s
σ σ σ σ
Die Testgröße T ist F - verteilt mit ν1 = n1 - 1 und ν2 = n2 - 1 Freiheitsgraden.
10.3.2 Abweichung des Korrelationskoeffizienten von 0
Korrelationskoeffizient einer Stichprobe mit Umfang n : (212)
2-n r - 1 = s
s ss =r
mit sr = T
22
yx
yx
⋅
≠
0 : H ; 0 = : H 10 ρρ
Die Testgröße T ist t - verteilt mit ν = n - 2 Freiheitsgraden.
11. Nichtparametrische Testverfahren 11.4 χ2 -Test
11.4.1 Anpassungstest Test auf Übereinstimmung zwischen gegebener empirischer Häufigkeitsverteilung und theoretischer Verteilung i = 1 , .... k = Merkmale bzw. Klassen ni = empirisch beobachtete Werte (absolute Häufigkeiten) ei = n f(xi) = theoretisch erwartete Werte im diskreten Fall ei = n ΔFi(x) = theoretisch erwartete Werte im stetigen Fall
wobei: n =e n i
k
1 = ii
k
1 = i
= ∑∑
(213)
( )
0 0 1 0
i = 1
k 2i i
i i = 1
ki2
i
H : F ( x ) = F ( x ) ; H : F ( x ) F ( x )
T = n e
e =
ne
n
≠
−−∑ ∑
Die Testgröße T ist χ2 - verteilt mit ν = k - 1 Freiheitsgraden.
- 37 -
11.4.2 Unabhängigkeitstest zwischen zwei Variablen X , Y
Test auf Übereinstimmung zwischen empirisch beobachteten Häufigkeiten nij (i = 1, ..., k; j = 1, ..., l) und den theoretisch erwarteten Häufigkeiten eij, die eintreffen würden, wenn X und Y unabhängig wären. Unabhängigkeitsannahme: fij = fi..f.j nij = empirisch beobachtete Häufigkeiten eij = n.fi..f.j = 1/n.(ni..n.j) = theoretisch erwartete Häufigkeiten
(214)
( )
0
1
i = 1
k
j = 1
l2
i j i j
i j
H : Die zwei Variablen sind unabhängigH : Die zwei Variablen sind abhängig
T = n e
e∑ ∑−
Die Testgröße T ist χ2 - verteilt mit ν = (k - 1)(l - 1) Freiheitsgraden.
Spezialfall: Es treten nur zwei Klassifikationen für die beiden Variablen auf: i = 1, 2; j = 1, 2 Dadurch reduziert sich die Kontigenztafel auf eine Vierfeldertafel:
j = 1
j = 2
fi.
i = 1
a
b
a + b
i = 2
c
d
c + d
f.j
a + c
b + d
a + b + c + d
= n
(215) ) d + c ( ) d + b ( ) c + a ( ) b + a (
n ) c b d a ( = T2
⋅⋅⋅⋅⋅−⋅
Die Testgröße T ist χ2 - verteilt mit ν = 1 Freiheitsgraden.
11.4.3 Kolmogorov-Smirnov –Test (216) )()( 0sup ii
x
xFxF= T −
- 38 -
11.4.4 Mann-Whitney-U-Test
(217) 111
21 2)1 R(nnnn = T −
++⋅
Die Testgröße T ist U-verteilt. Sie geht bei n1 > 10 und n2 > 10 in eine Normalverteilung mit denselben Parameter über.
11.4.5 Kruskall-Wallis-Test
(218) )1(3)1(
121
2
+⋅−⎟⎟⎠
⎞⎜⎜⎝
⎛⋅
+⋅ ∑=
nnR
nn = T
k
i i
i
Die Testgröße T ist h-verteilt. Sie geht bei ni > 5 in eine χ2-Verteilung mit. 1−= kνFreiheitsgraden über.
11.4.6 McNemar-Test
+ - + a b - c d
(219) Bei bTn =≤ :20 Die Testgröße T ist binomialverteilt mit 5,00 =p und bcn +=
(220) Bei cb
cbTn+
−=>
2)(:20
Die Testgröße T ist χ2-verteilt mit 1=ν Freiheitsgrad.
11.4.7 Cochrans Q-Test
(221) Bei ∑
∑∑
∑⋅
⋅
⋅⋅
⋅
−⋅
−−=
−
⎟⎠⎞
⎜⎝⎛ −−
= 2
22
2
))(1()(
)1(
i
j
ii
j
YYlYYll
YlYlYyll
T
Die Testgröße T ist χ2-verteilt mit )1( −= lν Freiheitsgraden.
11.4.8 Wilcoxon-Test
(222) ∑ += )(iRT
11.4.8 Friedman-Test
(223) ∑=
+−+⋅⋅
=l
jj lnR
llnT
1
2 )1(3)1(
12
Die Testgröße T ist χ2-verteilt mit )1( −= lν Freiheitsgraden (für 10≥n und 4≥l ).
- 39 -
Kritische Werte t(α) der t-Verteilung für verschiedene α
Signifikanzniveau α (Zweiseitige Frage-
stellung)
Zahl der Freiheitsgrade u 0,10 0,05 0,01 1 6,314 12,706 63,657 2 2,920 4,303 9,925 3 2,353 3,182 5,841 4 2,132 2,776 4,604 5 2,015 2,571 4,032 6 1,943 2,447 3,707 7 1,895 2,365 3,499 8 1,860 2,306 3,355 9 1,833 2,262 3,250 10 1,812 2,228 3,169 11 1,796 2,201 3,106 12 1,782 2,179 3,055 13 1,771 2,160 3,012 14 1,761 2,145 2,977 15 1,753 2,131 2,947 16 1,746 2,120 2,921 17 1,740 2,110 2,898 18 1,734 2,101 2,878 19 1,729 2,093 2,861 20 1,725 2,086 2,845 21 1,721 2,080 2,831 22 1,717 2,074 2,819 23 1,714 2,069 2,807 24 1,711 2,064 2,797 25 1,708 2,060 2,787 26 1,706 2,056 2,779 27 1,703 2,052 2,771 28 1,701 2,048 2,763 29 1,699 2,045 2,756 30 1,697 2,042 2,750 35 1,690 2,030 2,724 40 1,684 2,021 2,704 50 1,676 2,008 2,678 60 1,671 2,000 2,660 80 1,664 1,990 2,638 100 1,660 1,984 2,626 500 1,648 1,965 2,586
1000 1,646 1,962 2,581 ∞ 1,645 1,960 2,576
Zahl der Freiheitsgrade u 0,050 0,025 0,005
Signifikanzniveau α (einseitige Frage-
stellung)
- 40 -
Zahl der Freiheits-grade ν
Ausgewählte Werte der χ2-Verteilung
(für ν = 1, ... Freiheitsgrade und gegebene α-Werte)
Signifikanzniveau α 0 χ2(α)
α
0,99 0,95 0,90 0,10 0,05 0,01 1 0,00 0,00 0,02 2,70 3,84 6,63 2 0,02 0,10 0,21 4,60 5,99 9,21 3 0,11 0,35 0,58 6,25 7,81 11,34 4 0,30 0,71 1,06 7,78 9,49 13,28 5 0,55 1,14 1,61 9,24 11,07 15,09 6 0,87 1,64 2,20 10,64 12,59 16,81 7 1,24 2,17 2,83 12,02 14,07 18,48 8 1,65 2,73 3,49 13,36 15,51 20,09 9 2,09 3,32 4,17 14,68 16,92 21,67
10 2,56 3,94 4,86 15,99 18,31 23,21 11 3,05 4,57 5,58 17,28 19,68 24,72 12 3,57 5,23 6,30 18,55 21,03 26,22 13 4,11 5,89 7,04 19,81 22,36 27,69 14 4,66 6,57 7,79 21,06 23,68 29,14 15 5,23 7,26 8,55 22,31 25,00 30,58 16 5,81 7,96 9,31 23,54 26,30 32,00 17 6,41 8,67 10,08 24,77 27,59 33,41 18 7,01 9,39 10,86 25,99 28,87 34,80 19 7,63 10,12 11,65 27,20 30,14 36,19 20 8,26 10,85 12,44 28,41 31,41 37,57 21 8,90 11,59 13,24 29,62 32,67 38,93 22 9,54 12,34 14,04 30,81 33,92 40,29 23 10,20 13,09 14,85 32,01 35,17 41,64 24 10,86 13,85 15,66 33,20 36,42 42,98 25 11,52 14,61 16,47 34,38 37,65 44,31 26 12,20 15,38 17,29 35,56 38,88 45,64 27 12,88 16,15 18,11 36,74 40,11 46,96 28 13,56 16,93 18,94 37,92 41,34 48,28 29 14,26 17,71 19,77 39,09 42,56 49,59 30 14,95 18,49 20,60 40,26 43,77 50,89 40 22,16 26,51 29,05 51,80 55,76 63,69 50 29,71 34,76 37,69 63,17 67,50 76,15 60 37,48 43,19 46,46 74,40 79,08 88,38 70 45,44 51,74 55,33 85,53 90,53 100,42 80 53,54 60,39 64,28 96,58 101,88 112,33 90 61,75 69,13 73,29 107,56 113,14 124,12
100 70,06 77,93 82,36 118,50 124,34 135,81
- 41 -
Kritische Werte F(α) der F-Verteilung
(ν1 = Freiheitsgrade der größeren Varianz)
(α = 0,01)
0 F(α)
α
ν1
ν2
3 4 5 6 7 8 9 10 12 15 20 30 40 60 ∞
3 29,5 28,7 28,2 27,9 27,7 27,5 27,4 27,2 27,0 26,9 26,7 26,5 26,4 26,3 26,1
4 16,7 16,0 15,5 15,2 15,0 14,8 14,7 14,6 14,4 14,2 14,0 13,8 13,8 13,6 13,5
5 12,0 11,4 11,0 10,7 10,5 10,3 10,2 10,0 9,9 9,7 9,6 9,4 9,3 9,2 9,0
6 9,8 9,2 8,8 8,5 8,3 8,1 8,0 7,9 7,7 7,6 7,4 7,2 7,1 7,1 6,9
7 8,4 7,9 7,5 7,2 7,0 6,8 6,7 6,6 6,5 6,3 6,2 6,0 5,9 5,8 5,6
8 7,6 7,0 6,6 6,4 6,2 6,0 5,9 5,8 5,7 5,5 5,4 5,2 5,1 5,0 4,9
9 7,0 6,4 6,1 5,8 5,6 5,5 5,4 5,3 5,1 5,0 4,8 4,6 4,6 4,5 4,3
10 6,6 6,0 5,6 5,4 5,2 5,1 4,9 4,8 4,7 4,6 4,4 4,2 4,2 4,1 3,9
11 6,2 5,7 5,3 5,1 4,9 4,7 4,6 4,5 4,4 4,2 4,1 3,9 3,9 3,8 3,6
12 6,0 5,4 5,1 4,8 4,6 4,5 4,4 4,3 4,2 4,0 3,9 3,7 3,6 3,5 3,4
13 5,7 5,2 4,9 4,6 4,4 4,3 4,2 4,1 4,0 3,8 3,7 3,5 3,4 3,3 3,2
14 5,6 5,0 4,7 4,5 4,3 4,1 4,0 3,9 3,8 3,7 3,5 3,4 3,3 3,2 3,0
15 5,4 4,9 4,6 4,3 4,1 4,0 3,9 3,8 3,7 3,5 3,4 3,2 3,1 3,0 2,9
16 5,3 4,8 4,4 4,2 4,0 3,9 3,8 3,7 3,6 3,4 3,3 3,1 3,0 2,9 2,8
17 5,2 4,7 4,3 4,1 3,9 3,8 3,7 3,6 3,5 3,3 3,2 3,0 2,9 2,8 2,6
18 5,1 4,6 4,2 4,0 3,8 3,7 3,6 3,5 3,4 3,2 3,1 2,9 2,8 2,7 2,6
19 5,0 4,5 4,2 3,9 3,8 3,6 3,5 3,4 3,3 3,2 3,0 2,8 2,8 2,7 2,5
20 4,9 4,4 4,1 3,9 3,7 3,6 3,5 3,4 3,2 3,1 2,9 2,8 2,7 2,6 2,4
25 4,7 4,2 3,8 3,6 3,5 3,3 3,2 3,1 3,0 2,8 2,7 2,5 2,4 2,4 2,2
30 4,5 4,0 3,7 3,5 3,3 3,2 3,2 3,0 2,8 2,7 2,6 2,4 2,3 2,2 2,0
40 4,3 3,8 3,5 3,3 3,1 3,0 3,0 2,8 2,7 2,5 2,4 2,2 2,1 2,0 1,8
60 4,1 3,6 3,3 3,1 3,0 2,8 2,8 2,6 2,5 2,4 2,2 2,0 1,9 1,8 1,6
120 4,0 3,5 3,2 3,0 2,8 2,7 2,6 2,5 2,3 2,2 2,0 1,9 1,8 1,7 1,4
∞ 3,8 3,3 3,0 2,8 2,6 2,5 2,4 2,3 2,2 2,0 1,9 1,7 1,5 1,5 1
- 42 -
Werte der Verteilungsfunktion binomialverteilter Variablen für p = 0,5 und p = 0,1 sowie verschiedene n.
n p = 0,5 p = 0,1 x 5 10 15 18 20 15 20
0 0,031 0,001 0,000 0,000 0,000 0,206 0,122 1 0,187 0,011 0,000 0,000 0,000 0,549 0,392 2 0,500 0,055 0,004 0,001 0,000 0,816 0,677 3 0,813 0,172 0,018 0,004 0,001 0,944 0,867 4 0,969 0,377 0,059 0,015 0,006 0,987 0,957 5 1,00 0,623 0,151 0,048 0,021 0,998 0,989 6 0,828 0,304 0,119 0,058 1,000 0,998 7 0,945 0,500 0,240 0,132 1,000 1,000 8 0,989 0,696 0,407 0,252 1,000 1,000 9 0,999 0,849 0,593 0,412 1,000 1,000
10 1,000 0,941 0,760 0,588 1,000 1,000 11 0,982 0,881 0,748 1,000 1,000 12 0,996 0,952 0,868 1,000 1,000 13 1,000 0,985 0,942 1,000 1,000 14 1,000 0,996 0,979 1,000 1,000 15 1,000 0,999 0,994 1,000 1,000 16 1,000 0,999 1,000 1,000 17 1,000 1,000 1,000 1,000 18 1,000 1,000 1,000 1,000 19 1,000 1,000 1,000 20 1,000 1,000 1,000
- 43 -
Kritische Werte bei einem zweiseitigen Mann-Whitney-Test (auch U-Test) für (α = 0,05) (die obere Reihe in einer Zeile gibt den kritischen Wert an der Untergrenze tu, die untere Reihe an der Obergrenze to an).
m
n 2 3 4 5 6 7 8 9 10 11 12
2 - - - - - - 1 15
1 17
1 19
1 21
2 22
3 - - - 1 14
2 16
2 19
3 21
3 24
4 26
4 29
5 31
4 - - 1 15
2 18
3 21
4 24
5 27
5 31
6 34
7 37
8 40
5 - 1 14
2 18
3 22
4 26
6 29
7 33
8 37
9 41
10 45
12 48
6 - 2 16
3 21
4 26
6 30
7 35
9 39
11 43
12 48
14 52
15 57
7 - 2 19
4 24
6 29
7 35
9 40
11 45
13 50
15 55
17 60
19 65
8 1 15
3 21
5 27
7 33
9 39
11 45
14 50
16 56
18 62
20 68
23 73
9 1 17
3 24
5 31
8 37
11 43
13 50
16 56
18 63
21 69
24 75
27 81
10 1 19
4 26
6 34
9 41
12 48
15 55
18 62
21 69
24 76
27 83
30 90
11 1 21
4 29
7 37
10 45
14 52
17 60
20 68
24 75
27 83
31 90
34 98
12 2 22
5 31
8 40
12 48
15 57
19 65
23 73
27 81
30 90
34 96
38 106
- 44 -
Kritische Werte bei einem zweiseitigen Wilcoxon-Test (die obere Reihe in einer Zeile gibt den kritischen Wert an der Untergrenze tu, die untere Reihe an der Obergrenze to an).
n Signifikanzniveau α
n Signifikanzniveau α
0,01 0,05 0,1 0,01 0,05 0,1
5 - - 1 14 15 16
104 26 94
31 89
6 - - 20
3 18 16 20
116 30
106 36
100
7 - 3 25
4 24 17 24
129 35
118 42
111
8 1 35
4 32
6 30 18 28
143 41
130 48
123
9 2 43
6 39
9 36 19 33
157 47
143 54
136
10 4 51
9 46
11 44 20 38
172 53
157 61
149
11 6 60
11 55
14 54 21 43
188 59
172 68
163
12 8 70
14 64
18 60 22 49
204 66
167 76
177
13 10 81
18 73
22 69 23 55
221 74
202 84
192
14 13 92
22 83
26 79 24 62
238 82
218 92
208
25 69 256
90 235
101 224
- 45 -
Annahmekennzahlen c0 zum Kolmogorov-Smirnov-Test für n > 35
Signifikanzniveau α 0,1 0,05 0,01 0,001
Annahmekennzahl c0 224,11n
358,11n
628,11n
949,11n
Annahmekennzahlen c0 zum Kolmogorov-Smirnov-Test für n ≤ 35. Für kleine Stichproben sind die Werte in Abhängigkeit von n und α wie folgt tabelliert:
n α=0,1 α=0,05 n α=0,1 α=0,05 n α=0,1 α=0,05 n α=0,1 α=0,053 0,636 0,708 13 0,325 0,361 23 0,247 0,275 33 0,208 0,231 4 0,565 0,624 14 0,314 0,349 24 0,242 0,269 34 0,205 0,227 5 0,509 0,563 15 0,304 0,338 25 0,238 0,264 35 0,202 0,224 6 0,468 0,519 16 0,295 0,327 26 0,233 0,259 36 0,199 0,221 7 0,436 0,483 17 0,286 0,318 27 0,229 0,254 37 0,196 0,218 8 0,410 0,454 18 0,278 0,309 28 0,225 0,250 38 0,194 0,215 9 0,387 0,430 19 0,271 0,301 29 0,221 0,246 39 0,191 0,213 10 0,369 0,409 20 0,265 0,294 30 0,218 0,242 40 0,189 0,210 11 0,352 0,391 21 0,259 0,287 31 0,214 0,238 50 0,170 0,188 12 0,388 0,375 22 0,253 0,281 32 0,221 0,234 100 0,121 0,134