+ All Categories
Home > Documents > [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

[Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

Date post: 06-Dec-2016
Category:
Upload: rainer
View: 216 times
Download: 0 times
Share this document with a friend
54

Click here to load reader

Transcript
Page 1: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11Wahrscheinlichkeitsrechnung und Statistik

11.1 Einführung

I Beispiel

Stellen Sie sich einmal vor, dass eine meist tödlich verlaufende Virusinfektion etwadrei Promille der Bevölkerung befällt. Und nehmen wir weiterhin an, es gäbe einen Testzur Früherkennung dieser Krankheit. (Im Zeitalter von Aids, Ebola und Alzheimer sindsolche Gedankengänge nicht allzu abwegig, zumal abzusehen ist, dass u. a. durch die Gen-forschung mit immer mehr Tests zu rechnen ist.) Allerdings sind solche Tests zwar oft sehrgut, aber kaum perfekt: Der oben angesprochene Test entdeckt etwa zuverlässig 99,9 %der Befallenen. Andererseits produziert er aber auch falsche positive Ergebnisse, d. h. et-wa 2 % der Gesunden werden durch den Test fälschlicherweise als positiv befunden. Wennman Ihnen denn Ihr positives Testergebnis mitteilen würde, wären Sie dann entsetzt? Nun,es bestünde auch dann noch kein Anlass, sich auf Krankheit und Tod vorzubereiten, dennnur etwa 13 % aller positiv Getesteten sind auch wirklich von der Krankheit befallen – Werhätte das gedacht?

I Paradoxa der Wahrscheinlichkeitsrechnung

Dieses – zugegebenermaßen etwas spektakuläre – Beispiel ist nur eines von vielen Pa-radoxa in der Wahrscheinlichkeitsrechnung, die ganz offensichtlich dem „gesunden Men-schenverstand“ widersprechen. Selbst gestandene Mathematikerinnen und Mathematikerhaben mit dem Verständnis so ihre Schwierigkeiten, auch wenn diesen vermeintlichenWidersprüchen sehr schnell mit ein wenig Logik und ein paar Grundlagen der Wahr-scheinlichkeitsrechnung und Statistik beizukommen ist. Das Schöne an den Beispielenist dabei ihre Anschaulichkeit und der nur scheinbare Widerspruch, dass die Wahrschein-lichkeitsrechnung eben exakt von etwas Vagem, Zufälligen handelt.

473Y. Stry, R. Schwenkert, Mathematik kompakt, DOI 10.1007/978-3-642-24327-1_11,c� Springer-Verlag Berlin Heidelberg 2013

Page 2: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

474 11 Wahrscheinlichkeitsrechnungund Statistik

I Anwendungen

Die Wahrscheinlichkeitsrechnung bietet dabei jedem etwas: Dem Zocker hilft sie beimAbschätzen seiner Gewinnchancen, die Computerfachfrau benutzt z. B. Zufallszahlen beider Simulation von Ereignissen und der Meinungsforscher wertet seine Umfrageergebnis-se wissenschaftlich aus.

I Deskriptive Statistik

Wir werden uns hier zunächst kurz mit der deskriptiven Statistik beschäftigen: StellenSie sich vor, Sie wollen einen gewissen Wert bestimmen und führen dazu – wie in Experi-mentalphysik und Technik üblich – eine Messreihe durch. Wie Sie die dann vorliegendenMessdaten auswerten oder wie Sie auch größere Datenmengen auf aussagekräftige Maß-zahlen und Plots reduzieren, soll Thema dieses Einstiegs in die deskriptive Statistik sein.

I Wahrscheinlichkeitsrechnung

Wahrscheinlichkeiten – und wie man mit ihnen rechnet – stellen das klassische Themader Wahrscheinlichkeitsrechnung dar. Schließlich ist die moderne Wahrscheinlichkeits-rechnung auch aus der Berechnung von Gewinnchancen beim Glücksspiel entstanden.Die Rechenvorschriften für Wahrscheinlichkeiten, die so genannten Kolmogoroff’schenAxiome und die Folgerungen daraus, sind dabei sehr einfach und naheliegend.

I Zufallsvariable und Verteilungsfunktion

Nun wird es aber schnell zu umständlich, für alle möglichen Ereignisse die Wahr-scheinlichkeiten anzugeben – dazu gibt es meist einfach zu viele mögliche Versuchsaus-gänge. Mathematisch gesehen beschreibt man deshalb Zufallsgrößen gerne durch so ge-nannte Wahrscheinlichkeitsdichten, die kumuliert/integriert die jeweilige Verteilungsfunk-tion ergeben. Verteilungsfunktionen beantworten dann Fragen wie: Mit welcher Wahr-scheinlichkeit liegt der Versuchsausgang zwischen zwei Größen a und b?

I Binomialverteilung

Auch hier muss man das Rad nicht jedesmal neu erfinden, sondern es gibt Verteilungen,die in der Praxis sehr häufig auftreten. Die wichtigste diskrete Verteilung ist die Bernoulli-oder Binomialverteilung.

Sie beschreibt die mehrfache Ausführung eines so genannten Bernoulli-Experimentsmit Einzelerfolgswahrscheinlichkeit p (und entsprechend Misserfolgswahrscheinlichkeit1 � p). Man kann sich darunter das mehrfache Werfen einer Münze, mehrfaches Würfelnoder auch den mehrmaligen Kursanstieg bzw. -rückgang einer Aktie vorstellen.

I Poisson-Verteilung

Die Poisson-Verteilung wiederum lässt sich als Approximation der Binomialverteilungauffassen. Hier geht es um sehr viele Einzelexperimente mit sehr kleinen Erfolgswahr-

Page 3: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.2 Deskriptive Statistik 475

scheinlichkeiten. Bei der Beschreibung des radioaktiven Zerfalls oder auch typischerweisebei vielen Arten von Prozessen mit auftretenden Warteschlangen (Callcenter, Supermarkt-kassen, Internetserver!) findet die Poisson-Verteilung ihre Anwendung. Die wichtigste undam weitesten verbreitete stetige Verteilung überhaupt ist schließlich die Normalverteilung,deren Dichte als „Gauß’sche Glockenkurve“ den meisten bekannt ist.

Im vorliegenden Kapitel „Wahrscheinlichkeitsrechnung und Statistik“ wollen wir zu-nächst Grundbegriffe der deskriptiven Statistik und der Wahrscheinlichkeitsrechnung zu-sammenstellen. Schließlich werden Verteilungsfunktionen allgemein, aber auch speziel-le Verteilungen (Binomialverteilung, Poisson-Verteilung und Normalverteilung) bespro-chen. Viel Glück!

11.2 Deskriptive Statistik

Die deskriptive oder auch beschreibende Statistik befasst sich mit grundlegenden Metho-den zur Beschreibung und Analyse von zumeist großen Datenmengen. Neben der gra-phischen Darstellung durch so genannte Histogramme werden wichtige Kennzahlen wieMittelwert, empirische Varianz und Standardabweichung, etc. definiert und interpretiert.Diese quantitativen Merkmale sind nötig, da kein Mensch Mengen, die aus Tausenden vonDaten bestehen, in ihrer Bedeutung richtig erfassen kann. Potentielle Interdependenzen(z. B. Ursache – Wirkung) zwischen unterschiedlichen Datenmengen eines gemeinsamenKontextes können mittels Regression transparent gemacht werden.

11.2.1 Mittelwert und Varianz

Beispiele für Datenmengen In vielen Anwendungsbereichen treten große Datenmengenauf: z. B. statistische Bevölkerungsdaten bei Landesämtern, Bonitätsdaten von Unterneh-men und Privatpersonen bei Hermes oder Schufa, Messdaten bei technischen Prozessen,usw. Solche Datenmengen lassen sich wegen ihres Umfangs nur mit Hilfe von Kennzif-fern und Graphiken charakterisieren. Zur Definition und Erläuterung der eben erwähntenInstrumente ist jedoch ein Beispiel mit einer kleineren Datenmenge sinnvoller.

Beispiel 11.1Bei einer Aktie wurden 25 Wochenschlusskurse beobachtet und festgehalten. Es erga-ben sich in Euro:

47;7I 50;8I 50;4I 52;2I 48;2I 49;3I 50;9I 50;3I 49;1I 52;4I 49;6I 50;8I 50;0I48;9I 51;4I 48;7I 48;8I 49;9I 50;2I 49;0I 51;8I 49;6I 48;6I 51;3I 50;1:

Anleger interessieren sich nun natürlich dafür, welchen durchschnittlichen Kurs dieAktie im Beobachtungszeitraum hatte, wie stark die Abweichungen vom Mittel (D Vo-latilität) waren und wie sich diese verteilen.

Page 4: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

476 11 Wahrscheinlichkeitsrechnungund Statistik

Abb. 11.1 Kleine bzw. großeAbweichungen vom Mittelwert

kleine Abweichung

große Abweichung

xi| | xj| |

xx-Werte

Das Mittel aus den Werten einer vorgegebenen Datenmenge, das die repräsentativemittlere Lage der Daten angibt, lässt sich leicht definieren:

MittelwertDer Mittelwert (arithmetisches Mittel) der Datenwerte x1; : : : ; xn ist definiert durch

x WD 1

n

nX

iD1

xi :

Der Mittelwert x alleine sagt nun nichts darüber aus, ob die Beobachtungswerte engbeieinander oder aber weit auseinander liegen (siehe Abb. 11.1).

Für die Größe der einzelnen Abweichungen vom Mittelwert x könnte man jxi � xj alsMaß wählen. Wegen der Unhandlichkeit des Betrages hat sich als Maß jedoch .xi � x/2

durchgesetzt. Natürlich interessiert man sich auch hier für das arithmetische Mittel dieserAbweichungen, das als empirische Varianz bezeichnet wird:

Empirische Varianz, empirische StandardabweichungDie empirische Varianz (mittlere quadratische Abweichung) der Datenwertex1; : : : ; xn vom Mittelwert x ist definiert durch

S2 WD 1

n

nX

iD1

.xi � x/2:

S WD pS2 heißt empirische Standardabweichung.

Alternative Definition der Varianz Wir haben hier in der deskriptiven Statistik die Va-rianz S2 als arithmetisches Mittel der Abweichungsquadrate .xi � x/2 berechnet, d. h.

Page 5: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.2 Deskriptive Statistik 477

mit dem Faktor 1n

. Man beachte aber, dass in der induktiven Statistik, die auf Stichpro-ben und nicht auf vollständigen Datenmengen basiert, aus mathematischen Gründen derFaktor 1

n�1verwendet wird.

Beispiel 11.2Für die Aktienkursdaten aus Beispiel 11.1 ergibt sich der Mittelwert zu

x D 1

25.47;7 C 50;8 C 50;4 C 52;2 C 48;2

C : : : C 51;8 C 49;6 C 48;6 C 51;3 C 50;1/ D 1250

25D 50:

Die empirische Varianz beträgt

S2 D 1

25

25X

iD1

.xi � 50/2

D 1

25Œ.47;7 � 50/2 C .50;8 � 50/2 C .50;4 � 50/2 C : : :

C : : : C .51;3 � 50/2 C .50;1 � 50/2� D 1;4936:

Verschiebungsformel Die empirische Varianz S2 lässt sich häufig einfacher mit derso genannten Verschiebungsformel (siehe Aufgabe 1 unter „Deskriptive Statistik“, Ab-schn. 11.8) berechnen:

S2 D x2 � x2:

Dabei bezeichnet x2 WD 1n

PniD1 x2

i den Mittelwert der „quadrierten“ Daten.

Beispiel 11.3Mit der Verschiebungsformel ergibt sich die Varianz aus Beispiel 11.1 und 11.2 analogzu

S2 D 1

25.47;72 C : : : C 50;12/ � 502 D 2501;4936 � 502 D 1;4936:

Übung 11.1Die Marketingabteilung eines Unternehmens beobachtet in 40 aufeinanderfolgendenMonaten für ein Produkt folgende Absatzmengen:

499I 484I 493I 487I 500I 493I 504I 507I 485I 501I 495I 497I 490I 510I494I 502I 494I 491I 502I 494I 509I 488I 500I 498I 505I 508I 492I504I 493I 503I 514I 503I 488I 486I 493I 496I 499I 487I 498I 497

Berechnen Sie Mittelwert x, empirische Varianz S2 und empirische Standardabwei-chung S .

Page 6: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

478 11 Wahrscheinlichkeitsrechnungund Statistik

Lösung 11.1Der Mittelwert ergibt sich zu: x D 1

40

P40iD1 xi D 1

40.499 C 484 C 493 C : : :C 487 C

498 C 497/ D 497;075. Für die empirische Varianz erhält man S2 D 140

P40iD1.xi �

x/2 D 140

..499 � 497;075/2 C : : : C .497 � 497;075/2/ D 53;8194, und daraus dieempirische Standardabweichung S D p

53;8194 D 7;3362.

11.2.2 Klasseneinteilung und Histogramme

Klasseneinteilung, relative Häufigkeit Die Charakterisierung von Datenmengen unter-stützt man in der Praxis auch durch die graphische Darstellung in Histogrammen. Dazuwird der Wertebereich der Daten x1; : : : ; xn durch die Wahl von k C1 Punkten �0 < �1 <

: : : < �k in Intervalle .�i�1; �i �, die man Klassen nennt, eingeteilt. Dabei ist

�0 < minjD1;:::;n

xj und �k > maxjD1;:::;n

xj

zu wählen. Wir bezeichnen mit ni die Anzahl der Daten, die in der Klasse .�i�1; �i � liegen,und nennen den Quotienten

hi D ni

n

relative Häufigkeit. Diese Kennzahl gibt Auskunft über die Anordnungsdichte der Datenfür jede Klasse. Ihre Werte gehen in eine Funktion ein, die empirische Dichte genanntwird:

Empirische Dichte, HistogrammSind 0 � hi � 1, 1 � i � k, relative Häufigkeiten bzgl. einer Klasseneinteilung�0 < �1 < : : : < �k , dann heißt die Funktion

Of .x/ WD(

hi

�i��i�1; falls x 2 .�i�1; �i �, i D 1; : : : ; k,

0; sonst

empirische Dichte. Ihre graphische Darstellung wird Histogramm genannt.

Im Zusammenhang mit Histogrammen werden einige Begriffe benutzt, die wir hierdefinieren wollen:

� Reduktionslage Der kleinste Wert �0 heißt Reduktionslage.� Variationsbreite Die gesamte Länge �k � �0 nennt man Variationsbreite.� Klassenbreite Als Klassenbreite bezeichnet man die Werte �i � �i�1. Sie wird häufig

konstant gewählt.� Klassenzahl Der Wert k heißt Klassenzahl. Diese wird häufig ungerade und ungefähr

gleichp

n gewählt (n Anzahl Datenwerte), es sollte jedoch 5 � k � 25 gelten.

Page 7: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.2 Deskriptive Statistik 479

Abb. 11.2 Histogramm derempirischen Dichte

48 49 50 51 52

0.05

0.1

0.15

0.2

0.25

0.3

x-Klassen

Beispiel 11.4Für die Aktienkurse aus Beispiel 11.1 wollen wir ein Histogramm mit Reduktionslage47;5, konstanter Klassenbreite 1 und Variationsbreite 5 zeichnen. Der Wertebereichder Daten erstreckt sich von 47;7 bis 52;4. Die erste Klasse ergibt sich zu .�0; �1� D.47;5I 48;5�. Damit gilt n1 D 2, denn nur die beiden Kurse 47;7 und 48;2 liegen indiesem Intervall. Es ist n D 25 und die relative Häufigkeit für diese Klasse ergibtsich zu h1 D 2

25D 0;08. Analog erhält man alle weiteren Klassen mit ihren relativen

Häufigkeiten. Diese sind in nachfolgender Tabelle zusammengefasst:

Klasse Anzahl Kurse rel. Häufigkeit

47;5 < x � 48;5 2 0,08

48;5 < x � 49;5 7 0,28

49;5 < x � 50;5 8 0,32

50;5 < x � 51;5 5 0,20

51;5 < x � 52;5 3 0,12

Das sich daraus ergebende Histogramm zeigt Abb. 11.2.Die Säulenhöhen des Histogramms entsprechen hier wegen der konstanten Klas-

senbreite 1 der relativen Häufigkeit (was i. Allg. nicht der Fall ist!). Wählt man beigleicher Reduktionslage beispielsweise die konstante Klassenbreite 2, so erhält man:

Klasse Anzahl Kurse rel. Häufigkeit hi =2

47;5 < x � 49;5 9 0,36 0,18

49;5 < x � 51;5 13 0,52 0,26

51;5 < x � 53;5 3 0,12 0,06

und daraus ein Histogramm, bei dem die Säulen nur halb so hoch (hi =2!) sind wie dierelativen Häufigkeiten (s. Abb. 11.3).

Page 8: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

480 11 Wahrscheinlichkeitsrechnungund Statistik

Abb. 11.3 Histogramm mitSäulenbreite 2

48.5 50.5 52.5

0.05

0.1

0.15

0.2

0.25

x-Klassen

Säulenfläche D relative Häufigkeit Das letzte Beispiel zeigt, dass die Säulenfläche undnicht die Säulenhöhe die relative Häufigkeit symbolisiert! Summiert man nun über diegesamte Fläche – also über alle relativen Häufigkeiten –, so muss sich der Wert 1 ergeben,d. h. es gilt stets

Z

R

Of .x/ dx D1Z

�1Of .x/ dx D 1:

Um Fragen beantworten zu können, wie z. B. „Wie oft lag der Aktienkurs über 50Euro?“ oder „In wie vielen Monaten wurde das Absatzmengenziel von mindestens 500nicht erreicht?“, benötigen wir so genannte kumulierte Häufigkeiten, die die empirischeVerteilungsfunktion zur Verfügung stellt:

Empirische VerteilungsfunktionFür die empirische Verteilungsfunktion OF .x/ WD R x

�1 Of .t/ dt gilt (i D 1; : : : ; k):

OF .x/ D

8

ˆ<

ˆ:

0; falls x � �0,Pi�1

jD1 hj C x��i�1

�i��i�1hi ; falls �i�1 < x � �i ,

1; falls x > �k .

OF .x/ ist ein Maß für die Anzahl der Daten, deren Messwert kleiner gleich x ist.

Die Formel ist leicht einzusehen: Man kumuliert die Häufigkeiten und interpoliert dannstückweise linear (siehe Übung 11.2a). Die Abb. 11.4 zeigt die empirische Verteilungs-funktion des Beispiels 11.4 zur Klassenbreite 2.

Neben den bereits definierten Kennzahlen gibt es noch weitere wichtige Lageparame-ter, um verschiedene Verteilungen einfach miteinander vergleichen zu können:

Page 9: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.2 Deskriptive Statistik 481

Abb. 11.4 Empirische Vertei-lungsfunktion OF .x/

47 48 49 50 51 52 53

0.2

0.4

0.6

0.8

1

x

Rel.Häufigkeit

F(x)^

xp -Quantile, MedianDas xp-Quantil ist der Wert xp, bis zu dem 100 �p % der Daten liegen, d. h. es mussgelten:

xpZ

�1Of .x/ dx D p bzw. OF .xp/ D p mit 0 � p � 1:

Das Quantil x0;5 heißt Median, da es die Datenmenge „halbiert“: 50 % aller Datenliegen links bis zum Median, die anderen rechts davon. Die Quantile x0;25 und x0;75

bezeichnet man als Quartile.

Übung 11.2Für das Aktienkursbeispiel sei die bereits besprochene zweite Klasseneinteilung x0 D47;5 < 49;5 < 51;5 < 53;5 D x3 angenommen (siehe Beispiel 11.4).

a) Bestimmen Sie die zugehörige Verteilungsfunktion OF .x/.b) Wo liegt unter Zugrundelegung von OF .x/ der Median?

Lösung 11.2a) Entnimmt man die relativen Häufigkeiten der zweiten Tabelle von Beispiel 11.4, so

ergibt sich OF .x/ zu:

OF .x/ D

8

ˆˆˆˆˆ<

ˆˆˆˆˆ:

0; falls x � 47;5,.x � 47;5/=2 � 0;36; falls 47;5 < x � 49;5,

0;36 C .x � 49;5/=2 � 0;52; falls 49;5 < x � 51;5,0;88 C .x � 51;5/=2 � 0;12; falls 51;5 < x � 53;5,

1; falls x > 53;5.

b) Die Bestimmungsgleichung für den Median x0;5 ist : 0;5 D OF .x0;5/ D 0;36 C.x � 49;5/=2 � 0;52. Auflösen dieser Gleichung liefert x0;5 50;04 (vgl. auchAbb. 11.4). Tatsächlich liegen 13 Aktienkurse unter diesem Wert, 12 darüber.

Page 10: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

482 11 Wahrscheinlichkeitsrechnungund Statistik

11.2.3 Regression und Korrelation

In der Praxis interessiert häufig nicht – wie bisher – eine (eindimensionale) Datenmenge,sondern eine Liste von Datenwerten, die zweidimensional sind:

.x1; y1/; .x2; y2/; : : : ; .xn; yn/:

Untersuchung funktionaler Zusammenhänge Untersucht werden sollen funktionaleZusammenhänge (Ursache-Wirkung-Beziehungen) zwischen den Variablen, d. h. wir be-trachten x als unabhängige Variable und y als abhängige Variable. Die Notwendigkeitsolcher Untersuchungen tritt bei vielen Fragestellungen auf: Wie stark hängt die Dauerder Arbeitslosigkeit vom Alter ab? Inwiefern beeinflusst eine Preissenkung die Absatz-menge eines Produktes? In welchem Umfang wirkt sich der Stand eines Aktienindex aufden Kurs einer Aktie aus?

Lineare Regressionsaufgabe, Methode der kleinsten Quadrate Interessant ist in die-sem Zusammenhang, ob die yi durch eine Funktion der xi genügend genau dargestelltwerden können, etwa yi D f .xi /. Wir wollen uns dabei auf den einfachsten Fall, nämlichden einer linearen Funktion f , beschränken: Können die yi durch bxi C a mit geeignetzu bestimmenden a, b genügend genau dargestellt werden? Gilt also yi a C bxi ? Diesführt auf die so genannte Lineare Regressionsaufgabe der Bestimmung von a und b imAnsatz

yi D bxi C a C Ei ;

wobei Ei WD yi � .bxi C a/ eine Fehlergröße ist. Die Koeffizienten a und b der Geradenwerden so berechnet, dass die Summe der quadrierten Fehler minimiert wird. Man nenntdieses Vorgehen deshalb die Methode der kleinsten Quadrate: Da natürlich i. Allg. die y-Werte nicht streng von den x-Werten abhängen, bildet die Datenmenge, wie Abb. 11.5zeigt, eine „Punktwolke“. Bezüglich dieser „Punktwolke“ sucht man nun eine Gerade, diedie Abweichungen Ei zwischen den beobachteten Werten yi und den zu xi gehörendenGeradenwerten bxi Ca „optimal ausgleicht“. Naheliegend wäre daher, zu verlangen, dassdie Summe der absoluten Abweichungen möglichst klein wird. Da man es dabei aber miteiner nicht differenzierbaren Funktion zu tun hätte, geht man zu den Abweichungsquadra-ten über.

Fehlerquadratsumme Gefunden werden muss also das Minimum der Funktion

S2E D

nX

iD1

E2i D

nX

iD1

.yi � bxi � a/2:

Page 11: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.2 Deskriptive Statistik 483

Abb. 11.5 Methode der kleins-ten Quadrate

. ...

. ....... ..

. . . ..... .

.... . . ..

x

y

ba

xi

yi}

i i i

Eine notwendige Bedingung hierfür ist das Verschwinden der partiellen Ableitungennach b und a:

@S2E

@aD �2

nX

iD1

.yi � bxi � a/ŠD 0;

@S2E

@bD �2

nX

iD1

xi .yi � bxi � a/ŠD 0:

Normalgleichungen Division durch �2 und Zusammenfassung geeigneter Summen füh-ren auf die so genannten Normalgleichungen, aus denen sich a und b eindeutig bestimmenlassen:

n � a C

nX

iD1

xi

!

� b DnX

iD1

yi ;

nX

iD1

xi

!

� a C

nX

iD1

x2i

!

� b DnX

iD1

xi yi :

Eine Untersuchung der partiellen Ableitungen 2. Ordnung zeigt im Übrigen, dass die Lö-sung der Normalgleichungen tatsächlich ein Minimum von S2

E liefert.

Beispiel 11.5Für nachfolgende Messpunkte xi mit zugehörigen Messwerten yi bestimmen wir dieRegressionsgerade durch Lösen der Normalgleichungen:

i 1 2 3 4

xi 1,5 2,1 3,3 3,9

yi 4,1 5,0 8,1 8,7

Page 12: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

484 11 Wahrscheinlichkeitsrechnungund Statistik

Zunächst ermittelt manPn

iD1 xi D 1;5 C 2;1 C 3;3 C 3;9 D 10;8 undPn

iD1 yi D4;1 C 5;0 C 8;1 C 8;7 D 25;9. Mittels Taschenrechner berechnet sich ebenfalls leicht:Pn

iD1 x2i D 1;52 C : : : C 3;92 D 32;76 und

PniD1 xiyi D 1;5 � 4;1 C : : : C 3;9 � 8;7 D

77;31. Die Normalgleichungen lauten damit: 4a C 10;8b D 25;9, 10;8a C 32;76b D77;31. Aus diesen folgt unmittelbar die Lösung b D 2;05 und a D 0;94. Die Regressi-onsgerade ergibt sich zu y.x/ D 2;05x C 0;94.

Nach kurzer Rechnung (siehe Aufgabe 4 unter „Deskriptive Statistik“, Abschn. 11.8)kann man die Lösung der Normalgleichungen auch durch statistische Kennzahlen aus-drücken:

RegressionsgeradeDie Gerade y.x/ D bx C a zu den Werten .x1; y1/, .x2; y2/; : : : ; .xn; yn/ mit denKoeffizienten

b D Sxy

S2x

und a D y � bx (falls Sx > 0);

heißt Regressionsgerade zu y bzgl. x. Dabei stehen x; y für die Mittelwerte der x-bzw. y-Werte, S2

x für die Varianz der x-Werte und

Sxy WD 1

n

nX

iD1

xiyi � x � y

für die empirische Kovarianz der x- und y-Werte.

Die neu eingeführte Kovarianz kann wegen

1

n

nX

iD1

.xi � x/.yi � y/ D 1

n

nX

iD1

.xiyi � xiy � xyi C xy/

D 1

n

nX

iD1

xiyi � xy � xy C xy D Sxy

auch aufgefasst werden als der Mittelwert des Produktes der Abweichungen der einzelnenDaten von ihrem jeweiligen Mittel. Üblicherweise wird dieses Maß noch normiert:

Page 13: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.2 Deskriptive Statistik 485

rxy rxy rxy rxy

Abb. 11.6 Punktwolken unterschiedlicher Korrelation

Kovarianz, KorrelationskoeffizentDie (empirische) Kovarianz Sxy ergibt sich auch zu

Sxy D 1

n

nX

iD1

.xi � x/.yi � y/:

Die entsprechende normierte Größe

rxy WD Sxy

SxSy

mit � 1 � rxy � 1

nennt man (empirischen) Korrelationskoeffizienten. Sx; Sy sind dabei die Standard-abweichungen der x- bzw. y-Werte.

Positive, negative Korrelation Da eine große Kovarianz auch durch eine große Streuungder x- und y-Datenmengen verursacht sein kann, benutzt man als Maß dafür, wie gut derlineare Zusammenhang ist, den Korrelationskoeffizienten rxy . Ist dieser nahe bei 0, dannsind die x- und y-Werte fast unkorreliert, für Werte nahe bei C1 bzw. �1 sind sie sehr gutpositv bzw. negativ korreliert. Die Bedeutung von rxy veranschaulicht auch Abb. 11.6.

Beispiel 11.6Für die Datenmenge aus Beispiel 11.5 soll die Korrelation ermittelt werden. MittelsTaschenrechner berechnet man die Standardabweichungen Sx D 0;948683, Sy D1;962619 und die Kovarianz Sxy D 1;845. Der Korrelationskoeffizient ergibt sichsomit zu

rxy D Sxy

SxSy

D 1;845

0;948683 � 1;962619D 0;990922:

Da der Korrelationskoeffizient nahe bei 1 liegt, ist die Anpassung durch die Regressionsehr gut.

Page 14: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

486 11 Wahrscheinlichkeitsrechnungund Statistik

11.3 Wahrscheinlichkeitsrechnung

Dieser Abschnitt stellt zunächst Grundbegriffe der Wahrscheinlichkeitsrechnung vor: Ele-mentarereignis, Ereignis, Ergebnismenge, Ereignisraum, etc. Möglichkeiten der Zuord-nung von Wahrscheinlichkeiten zu Ereignissen (Annahme der Gleichwahrscheinlichkeitvon Elementarereignissen bzw. relative Häufigkeiten) werden diskutiert. Anschließendwird der Wahrscheinlichkeitsbegriff mit Hilfe des Axiomensystems von Kolmogoroff for-malisiert. Dieses liefert etliche nützliche Rechenregeln für Wahrscheinlichkeiten. Dieabschließend eingeführte bedingte Wahrscheinlichkeit gestattet u. a. die Definition unab-hängiger Ereignisse.

11.3.1 Ereignisse undWahrscheinlichkeiten

Zufallsexperiment, Gesetzmäßigkeit der Gesamtheit In der Wahrscheinlichkeitsrech-nung untersucht man zufällige (stochastische) Erscheinungen. Diese zeichnen sich da-durch aus, dass sie unter bestimmten Bedingungen eintreten können, es aber nicht müssen.Es besteht also keine zwingende Ursache-Wirkung-Beziehung. So schwanken bei derWiederholung eines Experimentes – darunter wollen wir Beobachtungen, Messungen,Proben, Tests, etc. verstehen – unter ansonsten gleichen Voraussetzungen die Ergebnissein der Regel mehr oder weniger stark. Man spricht dann von einem Zufallsexperiment.Wiederholt man dieses genügend oft, so ergeben sich trotz der Schwankungen der jewei-ligen Einzelergebnisse gewisse Gesetzmäßigkeiten für die Gesamtheit aller Experimente.Die Grundlagen, um diese Gesetzmäßigkeiten aufzuspüren, werden jetzt bereitgestellt.

Elementarereignisse, Ergebnismenge, Ereignis, EreignisraumBei einem Zufallsexperiment sind stets mehrere so genannte Elementarereignissemöglich, die sich gegenseitig ausschließen. Die Menge aller Elementarereignisse

˝ D f!1; !2; !3; : : :g

heißt Ergebnismenge. Durch Zusammenfassung beliebiger Elementarereignisse er-hält man Teilmengen von ˝, die man als Ereignisse bezeichnet. Die Menge allerEreignisse, die sich aus ˝ bilden lässt, heißt Ereignisraum E (D Potenzmengevon ˝).

Unmögliches bzw. sicheres Ereignis Zu beachten ist, dass insbesondere die leere Menge; bzw. ˝ selbst Ereignisse sind, die man als das unmögliche Ereignis bzw. als das sichereEreignis bezeichnet.

Page 15: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.3 Wahrscheinlichkeitsrechnung 487

Ausgehend von Ereignissen A; B � ˝ kann man mit Hilfe der üblichen Mengenope-ratoren folgende neue Ereignisse definieren:

a) Unvereinbare Ereignisse Das Ereignis A \ B (in der Literatur häufig auch als A � B

notiert) tritt genau dann ein, wenn A und B eintreten. Man sagt, dass sich die beidenEreignisse A, B gegenseitig ausschließen bzw. unvereinbar sind, falls A \ B D ; gilt.

b) Das Ereignis A [ B (bzw. A C B) trifft genau dann zu, wenn mindestens eines derbeiden Ereignisse A oder B eintritt.

c) Komplementäres Ereignis Mit A bezeichnet man das zu A komplementäre Ereignis,welches sich aus der Differenz ˝ n A ergibt. A tritt genau dann ein, wenn A nichteintritt.

Beispiel 11.7a) Beim Werfen einer Münze gibt es zwei mögliche Elementarereignisse, nämlich

„Kopf“ (!1 D K) oder „Zahl“ (!2 D Z). Damit gilt ˝ D fK; Zg und E Df;; fKg; fZg; ˝g:

b) Betrachtet man zu bestimmten Zeitpunkten eine Verkehrsampel, so hat man es mitvier möglichen Elementarereignissen zu tun: entweder leuchtet Grün (G), Orange/Gelb (O), Rot (R) oder – zur Einleitung der Grünphase – gleichzeitig Rot undOrange (RO). Damit hat man die Ergebnismenge ˝ D fG; O; R; ROg. Der Er-eignisraum besteht hier aus 24 Ereignissen. Das Elementarereignis RO 2 ˝ istaber nicht zu verwechseln mit dem Ereignis fR; Og 2 E: dieses steht dafür, dassdie Ampel entweder Rot oder Orange zeigt, aber nicht beide Farben gleichzeitig.Steht die Ampel nicht auf Grün, so kann man dafür fGg schreiben. Da man üb-licherweise jedes Elementarereignis !i mit der Menge f!ig identifiziert, schreibtman oft anstelle von fGg lediglich G.

Quantitatives Wahrscheinlichkeitsmaß Ob bei der Durchführung eines Versuches einganz bestimmtes Elementarereignis !i eintreten wird, weiß man nicht. Also benötigt manein quantitatives Maß für die Wahrscheinlichkeit des Eintretens: Je stärker man vom Ein-treten des Ereignisses überzeugt ist, desto größer sollte die Zahl sein. Hierzu muss manaber nicht alle reellen Zahlen benutzen, sondern kann sich auf das Intervall Œ0; 1� beschrän-ken.

Klassische Wahrscheinlichkeitsdefinition, Abzählregel Bei der historisch bedingtenklassischen Definiton der Wahrscheinlichkeit setzt man die Gleichwahrscheinlichkeit(Laplace-Annahme) aller Elementarereignisse voraus: Ist die Ergebnismenge ˝ Df!1; !2; : : : ; !ng endlich, so ordnet man jedem Elementarereignis als Wahrscheinlichkeitdie Zahl 1

nzu. Außerdem definiert man die Wahrscheinlichkeit P.A/ eines Ereignisses A

aus dem Ereignisraum durch die so genannte Abzählregel

P.A/ D jAjn

D Anzahl der Elemente von A

Anzahl der Elemente von ˝:

Page 16: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

488 11 Wahrscheinlichkeitsrechnungund Statistik

Laplace’sche Wahrscheinlichkeit Diese Definition entspricht unserer Vorstellung, dassein Ereignis A umso wahrscheinlicher ist, je größer die Anzahl der dieses Ereignis auslö-senden Elementarereignisse ist. P.A/ nennt man auch Laplace’sche Wahrscheinlichkeit.

Beispiel 11.8Beim Wurf mit einer ausgewogenen Münze (D Laplace-Annahme) haben wir zweigleichwahrscheinliche Elementarereignisse, d. h. P.Zahl/ D P.Kopf/ D 1=2.

Übung 11.3Eine Münze und ein Würfel werden gemeinsam geworfen. Wie groß ist die La-place’sche Wahrscheinlichkeit dafür, dass die Münze „Zahl“ und der Würfel einegerade Augenzahl anzeigt (D Ereignis A)?

Lösung 11.3Zunächst muss die Ergebnismenge geeignet konstruiert werden, d. h. es müssen gleich-wahrscheinliche Elementarereignisse definiert werden. Mit Z für „Zahl“ und K für„Kopf“ erhalten wir:

˝ D f.Z; 1/; .Z; 2/; .Z; 3/; .Z; 4/; .Z; 5/; .Z; 6/;

.K; 1/; .K; 2/; .K; 3/; .K; 4/; .K; 5/; .K; 6/g:Jedes Elementarereignis hat damit die Wahrscheinlichkeit 1=12. Das Ereignis A Df.Z; 2/; .Z; 4/; .Z; 6/g besteht aus drei Elementarereignissen und somit gilt P.A/ D3=12 D 1=4.

Das Prinzip der Gleichwahrscheinlichkeit hat seine Grenzen. Es gibt Fälle, in de-nen es nicht angewandt werden kann: So sind bei unserer Ampel (siehe Beispiel 11.7b)die vier Elementarereignisse G; O; R; RO offensichtlich nicht gleichwahrscheinlich. Eslässt sich auch keine andere „gleichwahrscheinliche“ Ergebnismenge konstruieren, die dasAmpelverhalten adäquat beschreibt. Um Wahrscheinlichkeiten zuzuordnen, bleibt nur dieMöglichkeit, die Ampel für ein gewisses Zeitintervall Œ0; T � zu beobachten und die Dauer(D Häufigkeit) der verschiedenen Phasen zu messen. Hat man beispielsweise für die Grün-phase insgesamt tG Zeiteinheiten ermittelt, so liegt es nahe, den Wert h.G/ WD tG=T alsEintrittswahrscheinlichkeit für das Ereignis G zu nehmen.

Relative Häufigkeit, statistische Wahrscheinlichkeit Allgemein wird man einen Ver-such mit einer Menge ˝ von Elementarereignissen n-mal wiederholen. Ist nun A ein zumVersuch gehörendes Ereignis und tritt dieses m-mal ein, so ist

hn D m

n2 Œ0; 1�

die relative Häufigkeit von A. Startet man eine neue Versuchsreihe mit n Versuchen, sokann sich hn natürlich ändern. Die Praxis zeigt jedoch, dass sich hn bei hinreichend groß

Page 17: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.3 Wahrscheinlichkeitsrechnung 489

gewähltem n nur unwesentlich ändert. Man nimmt daher oft an, dass die Folge .hn/n2N

einen Grenzwert hat und bezeichnet

P.A/ D limn!1 hn

als statistische Wahrscheinlichkeit. Mit dieser Vorgehensweise erhält man keinen exaktenWert für P.A/, aber eine gute Näherung, die für praktische Berechnungen ausreichendist.

11.3.2 Das Axiomensystemvon Kolmogoroff

Obige Erläuterungen zeigen, dass Ereignissen durch unterschiedliches Vorgehen Wahr-scheinlichkeiten in Form reeller Zahlen zugeordnet werden können. Dabei sind jedochsinnvollerweise gewisse Regeln einzuhalten, die man als Axiomensystem von Kolmogoroffbezeichnet:

Wahrscheinlichkeitsfunktion, Kolmogoroff’sche AxiomeEine reellwertige Funktion P W E 7! R, die jedem Ereignis A aus dem Ereig-nisraum E eine Zahl P.A/ (D Wahrscheinlichkeit von A) zuordnet, heißt Wahr-scheinlichkeitsfunktion, Wahrscheinlichkeitsmaß bzw. Verteilungsgesetz, wenn diefolgenden Kolmogoroff’schen Axiome erfüllt sind:

a) Für jedes Ereignis A gilt: P.A/ � 0.b) Die Wahrscheinlichkeit des sicheren Ereignisses ˝ ist 1, d. h. P.˝/ D 1.c) Für paarweise unvereinbare Ereignisse A1, A2, A3; : : : gilt:

P.A1 [ A2 [ A3 [ : : : / D P.A1/ C P.A2/ C P.A3/ C : : :

Aus den Axiomen ergeben sich folgende Rechenregeln für Wahrscheinlichkeiten:

Rechenregeln für WahrscheinlichkeitenAus den Kolmogoroff’schen Axiomen folgt:

a) Für das zu A komplementäre Ereignis A gilt:

P.A/ D 1 � P.A/:

b) Für das unmögliche Ereignis ; gilt: P.;/ D 0.

Page 18: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

490 11 Wahrscheinlichkeitsrechnungund Statistik

c) Für das Ereignis A n B (Differenzmenge) gilt:

P.A n B/ D P.A/ � P.A \ B/:

d) Für die Wahrscheinlichkeit der Summe zweier Ereignisse A; B gilt der sog. Ad-ditionssatz:

P.A [ B/ D P.A/ C P.B/ � P.A \ B/:

e) Für jedes Ereignis A gilt: 0 � P.A/ � 1.f) Das Wahrscheinlichkeitsmaß ist monoton:

A � B H) P.A/ � P.B/:

Dass sich diese Regeln unmittelbar aus den Axiomen ergeben, sieht man leicht ein:

a) A und A sind unvereinbar, zudem gilt A [ A D ˝. Also ergibt sich die Behauptungunmittelbar aus:

1 D P.˝/ D P.A [ A/ D P.A/ C P.A/:

b) Unter Beachtung von ; D ˝ und Regel a) gilt:

P.;/ D P.˝/ D 1 � P.˝/ D 1 � 1 D 0:

Die Regeln c)–f) lassen sich ebenfalls leicht verifizieren (siehe Aufgabe 1, „Wahrschein-lichkeitsrechnung“, Abschn. 11.8).

Die mit der Abzählregel bzw. mit Hilfe von relativen Häufigkeiten gebildeten Wahr-scheinlichkeiten erfüllen übrigens das oben angeführte Axiomensystem.

Übung 11.4Gegeben sei die Ampel aus Beispiel 11.7 mit der Ergebnismenge ˝ D fG; O; R; ROg.Durch Messung wurden die Wahrscheinlichkeiten P.G/ D 1=3, P.R/ D 1=2 undP.O/ D 1=9 festgestellt.

a) Bestimmen Sie P.RO/ so, dass P eine Wahrscheinlichkeitsfunktion auf ˝ dar-stellt.

b) Wie groß ist die Wahrscheinlichkeit dafür, dass „Grün“ und „Orange“ gleichzeitigleuchten?

Page 19: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.3 Wahrscheinlichkeitsrechnung 491

Lösung 11.4a) Wenn P eine Wahrscheinlichkeitsfunktion ist, dann müssen die Axiome und Re-

chenregeln gelten. Man erhält deshalb:

P.RO/ D 1 � P.RO/ D 1 � P.G [ R [ O/

D 1 � .P.G/ C P.R/ C P.O// D 1 � 17=18 D 1=18:

b) Das zu untersuchende Ereignis lässt sich als G \ O � ˝ schreiben. Es istP.G \ O/ D P.;/ D 0.

Wahrscheinlichkeitsraum .˝;A; P/ Bisher hatten wir zur Beschreibung von Versu-chen als Ereignisraum E die Potenzmenge P.˝/ benutzt. Übung 11.4 hat gezeigt, dassman einen Ereignisraum ˝ mit einem Wahrscheinlichkeitsmaß P „ausstatten“ kann. ImAllg. darf man dann aber nur solche Teilmengen von ˝ als Ereignisse zulassen, die „ver-nünftig messbar“ sind. Ist nun A eine Teilmenge von P.˝/, die gewisse Messbarkeitsei-genschaften erfüllt, dann nennt man das Tripel .˝;A; P / einen Wahrscheinlichkeitsraum.Wir werden im Rahmen dieses Kapitels nur Ergebnismengen ˝ betrachten, für die manstets A D P.˝/ wählen kann.

11.3.3 BedingteWahrscheinlichkeiten

Eine wichtige Rolle in der Wahrscheinlichkeitsrechnung spielt die Fragestellung „Wiegroß ist die Wahrscheinlichkeit des Ereignisses A unter der Bedingung, dass das Ereig-nis B eingetreten ist?“. Ein Beispiel soll dies illustrieren: Eine Losbude verkauft 10.000Lose mit gleich vielen grünen und gelben Losen, wobei 9000 Lose Nieten sind. Die Ge-winnwahrscheinlichkeit beträgt nach der Abzählregel daher 1000=10:000 D 0;1. Wirnehmen nun an, dass 70 % der Gewinne in grünen Losen stecken. Kauft man also ein grü-nes Los (Bedingung!), dann steigt die Gewinnwahrscheinlichkeit auf 700=5000 D 0;14.Wir formalisieren und verallgemeineren das Beispiel:

Es stehe das Ereignis A für das Ziehen eines Gewinns, B für das Ziehen eines grünenLoses. Das Ereignis A\B steht dann für das Ziehen eines Glücksloses, das die Farbe grünhat. Es seien insgesamt n Lose vorhanden, wobei sich in den g grünen Losen r Gewinnebefinden sollen. Dann können wir die Wahrscheinlichkeit für „A unter der Bedingung B“(D Gewinnwahrscheinlichkeit unter der Voraussetzung, dass ein grünes Los gezogen wur-de!), im Zeichen P.AjB/, folgendermaßen berechnen:

P.AjB/ D r

gD

rngn

D P.A \ B/

P.B/:

In unserem Beispiel war n D 10:000, g D 5000 und r D 700, somit P.A \ B/ D700=10:000 D 0;07 und P.B/ D 5000=10:000 D 0;5. Damit folgt P.AjB/ D0;07=0;5 D 0;14. Man definiert deshalb:

Page 20: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

492 11 Wahrscheinlichkeitsrechnungund Statistik

Bedingte WahrscheinlichkeitDie Wahrscheinlichkeit für das Eintreten des Ereignisses A unter der Bedingung,dass das Ereignis B eingetreten ist, kurz P.AjB/, heißt bedingte Wahrscheinlich-keit und ist gegeben durch

P.AjB/ WD P.A \ B/

P.B/; wenn P.B/ > 0:

Multiplikationssatz für Wahrscheinlichkeiten Umformung der Gleichung P.AjB/ DP.A\B/

P.B/bzw. der analogen Gleichung P.B jA/ D P.A\B/

P.A/liefert eine Formel, mit der

man die Wahrscheinlichkeit für das gleichzeitige Eintreten zweier Ereignisse A und B

berechnen kann:

P.A \ B/ D P.B/ � P.AjB/ D P.A/ � P.B jA/:

Direkt aus dem Multiplikationssatz folgt:

Satz von BayesDer Satz von Bayes lautet:

P.AjB/ D P.A/ � P.B jA/

P.B/

Beispiel 11.9An einer Hochschule wurde der Zusammenhang zwischen Lernverhalten von Prüflin-gen und erfolgreichem Bestehen einer Prüfung untersucht: Die Durchfallquote liegtbei 30 %. 5=8 der Studenten bereiteten sich auf Prüfungen vor. 80 % der Studenten,die die Prüfung bestanden haben, waren vorbereitet. Wir wollen wissen, wie hoch dieDurchfallquote bei den vorbereiteteten Prüflingen war.

Ist A das Ereignis, dass der Studierende auf die Prüfung vorbereitet war, so giltP.A/ D 5=8. Für das Ereignis B , dass der Student die Prüfung bestanden hat, er-gibt sich P.B/ D 0;7. Die bedingte Wahrscheinlichkeit, dass der Student vorbereitetwar, wenn er die Prüfung bestanden hat, ist P.AjB/ D 0;8. Zu berechnen ist nundie bedingte Wahrscheinlichkeit P.B jA/, die sich aus dem Multiplikationssatz zuP.B jA/ D P.B/

P.A/P.AjB/ D 0;7 � 8

5� 0;8 D 0;896 ergibt. Die Durchfallquote unter

den vorbereiteten Studierenden beträgt damit lediglich 10,4 %.

Der Multiplikationssatz liefert die Wahrscheinlichkeit dafür, dass zwei Ereignisse A; B

gleichzeitig eintreten. Nun ist es natürlich möglich, dass die Wahrscheinlichkeit für das

Page 21: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.3 Wahrscheinlichkeitsrechnung 493

Eintreten von Ereignis A nicht davon beeinflusst ist, ob das Ereignis B eingetreten istoder nicht. Man definiert daher:

Unabhängige EreignisseZwei Ereignisse A und B heißen unabhängig, wenn

P.AjB/ D P.A/

gilt. Speziell folgt für zwei unabhängige Ereignisse A und B aus dem Multiplikati-onssatz:

P.A \ B/ D P.A/ � P.B/:

Beispiel 11.10Bernoulli’sches Zufallsexperiment Ein Gerät bestehe aus n D 100 Bauteilen. DasGerät sei so aufgebaut, dass ein defektes Bauteil das ganze Gerät funktionsuntüchtigmacht. Unter der Annahme, dass ein Bauteil mit der Wahrscheinlichkeit p D 0;98

funktioniert, wollen wir die Wahrscheinlichkeit für die Funktionstüchtigkeit des ge-samten Gerätes berechnen.

Hierzu definieren wir die Ereignisse Ai : „i-tes Bauteil funktioniert“, i D 1; : : : ; n,und A: „Gerät funktioniert“. Es gilt dann P.A1/ D : : : D P.An/ D p. Unter derAnnahme, dass die Ereignisse Ai paarweise unabhängig sind, gilt nach mehrmaligerAnwendung der Multiplikationsformel

P.A/ D P.A1 \ A2 \ : : : \ An/

D P.A1/ � P.A2/ � : : : � P.An/ D pn D .0;98/100 0;1326:

Wahrscheinlichkeiten für Bernoulli-Experiment Wir wollen nun die Wahrschein-lichkeit Pk.nI p/ dafür berechnen, dass genau k der Ereignisse A1; : : : ; An eintreten(d. h. genau k der n Bauteile funktionieren). In diesem Fall treten .n � k/ der komple-mentären Ereignisse A1; : : : ; An (defekte Bauteile) auf. Für diese gilt P.A1/ D : : : DP.An/ D 1 � p. Wegen der Unabhängigkeit der Ereignisse ergibt sich

P.A1 \ : : : \ Ak�1 \ Ak \ AkC1 \ AkC2 \ : : : \ An/ D pk.1 � p/n�k ;

P.A1 \ : : : \ Ak�1 \ Ak \ AkC1 \ AkC2 \ : : : \ An/ D pk.1 � p/n�k ;

usw. Alle diese Ereignisse sind unvereinbar. Ihre Wahrscheinlichkeiten addieren sichdaher. Aus der Kombinatorik (Abschn. 1.4.1) ist bekannt, dass es genau

�nk

solcheSummanden (Kombinationen) gibt. Somit gilt

Pk.nI p/ D

n

k

!

pk.1 � p/n�k :

Page 22: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

494 11 Wahrscheinlichkeitsrechnungund Statistik

Die Wahrscheinlichkeit dafür, dass sich unter den 100 Bauteilen genau 3 defekte be-finden, ist also gegeben durch P97.100I p/ D �

10097

p97.1 � p/3 0;1823. Auchdie Wahrscheinlichkeit für die Funktionstüchtigkeit des Gerätes ergibt sich aus dieserFormel: P.A/ D P100.100I p/ D �

100100

p100.1 � p/0 D p100 0;1326.

11.4 Zufallsvariable und Verteilungsfunktion

Zur bequemen Beschreibung von Versuchen ist eine Charakterisierung aller Ereignissedurch Zahlen bzw. Zahlenmengen üblich. Dies führt auf den Begriff der Zufallsvariablen.Als zugehöriges Wahrscheinlichkeitsmaß benutzt man theoretische Verteilungsfunktionen,die aus Wahrscheinlichkeits- bzw. Dichtefunktionen entstehen. Die Verteilungen könnendurch wichtige Kenngrößen – wie etwa Erwartungswert, Varianz und Standardabwei-chung – beschrieben werden. Spezielle praxisrelevante Verteilungsfunktionen wie Bino-mialverteilung, Poissonverteilung und Normalverteilung werden hier vorgestellt.

11.4.1 Grundbegriffe

Abschnitt 11.3.2 hat gezeigt, dass ein adäquater Wahrscheinlichkeitsraum .˝;A; P / einmathematisches Modell für ein Zufallsexperiment ist. Den Elementarereignissen ordnetman nun aus praktischen Gründen reelle Zahlen zu:

Zufallsvariable, ZufallsgrößeEine Zufallsvariable bzw. Zufallsgröße ist eine reelle Funktion X W ˝ 7! R, diejedem Elementarereignis ! 2 ˝ genau eine reelle Zahl X.!/ zuordnet. Ist der Wer-tebereich von X endlich oder abzählbar unendlich, so heißt X diskret, andernfallsstetig.

Beispiel 11.11a) Beim Werfen einer Münze kann man dem Ergebnis „Kopf“ (!1) den Wert 0 und

dem Egebnis „Zahl“ (!2) den Wert 1 zuordnen. Man erhält dann die diskrete Zu-fallsvariable X.!i / D i � 1 für i D 1; 2 mit den möglichen Werten 0; 1.

b) Wir zählen die Anzahl X der Autos, die in einem bestimmten Zeitintervall eineKreuzung überqueren. X ist dabei eine diskrete Zufallsvariable mit den abzählbarunendlich vielen Werten 0; 1; 2; : : :

c) Wiederholte Messungen der Wassertemperatur eines Flusses an einer bestimmtenStelle führen auf eine stetige Zufallsvariable, deren Werte sich in einem bestimmtenreellen Intervall bewegen.

Page 23: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.4 Zufallsvariable und Verteilungsfunktion 495

Um mit Zufallsvariablen arbeiten zu können, benötigt man deren so genannte Wahr-scheinlichkeitsverteilung: D. h. man muss die Wahrscheinlichkeit P dafür, dass die Zu-fallsvariable X einen bestimmten Wert annimmt (diskrete Variable) bzw. in einem be-stimmten Intervall liegt (stetige Variable), ermitteln können. Hierzu definiert man:

Verteilungsfunktion einer ZufallsvariablenDie Verteilungsfunktion F.x/ einer Zufallsvariablen X gibt die Wahrscheinlichkeitdafür an, dass X einen Wert annimmt, der kleiner oder gleich einer vorgegebenenZahl x ist, d. h. es gilt

F.x/ WD P.X � x/:

Diskrete Verteilungen

Wahrscheinlichkeitsfunktion Nimmt die Zufallsvariable X nur diskrete Werte x1; x2; : : :

mit den Wahrscheinlichkeiten P.X D xi / D pi , i D 1; 2; : : : an, dann nennt man diediskrete Funktion

f .x/ D�

pi für x D xi

0 für x ¤ xii D 1; 2; : : :

Wahrscheinlichkeitsfunktion der Zufallsvariablen X . Für diese gilt offensichtlich f .x/ � 0

undP

i f .xi / D 1. Die zugehörige Verteilungsfunktion ergibt sich zu

F.x/ D P.X � x/ DX

xi�x

f .xi /;

wobei die Summation jeweils über alle xi zu erstrecken ist, die die Ungleichung xi � x

erfüllen.

Beispiel 11.12Beim Werfen eines Würfels haben wir 6 Elementarereignisse !i (Augenzahl i). Diezugehörige Zufallsvariable X kann somit die Werte xi D i , i D 1; : : : ; 6 annehmen.Damit gilt P.X D i/ D 1

6, also pi D 1

6für alle i D 1; : : : 6. Die graphische Dar-

stellung für die Wahrscheinlichkeitsfunktion f .x/ und die Verteilungsfunktion F.x/

entnehme man der Abb. 11.7.

Stetige Verteilungen

Dichtefunktion In diesem Fall kann die Zufallsvariable X in einem Intervall I belie-big viele Werte annehmen. Die Summation bzgl. der Wahrscheinlichkeitsfunktion, die im

Page 24: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

496 11 Wahrscheinlichkeitsrechnungund Statistik

x1 2 3 4 5 6

x1 2 3 4 5 6

f(x)=P(X=x) F(x)=P(X<x)

1/61/6

2/6

3/6

4/6

5/6

1

Abb. 11.7 Diskrete Wahrscheinlichkeits- und Verteilungsfunktion

diskreten Fall die Definition der Verteilungsfunktion ermöglicht, muss jetzt durch eineIntegration über die so genannte Dichtefunktion f .x/ ersetzt werden:

F.x/ D P.X � x/ DxZ

�1f .t/ dt:

Beispiel 11.13Gleich- bzw. Rechteckverteilung Eine stetige Verteilung sei durch die folgendeDichte festgelegt:

f .x/ D�

1b�a

für a � x � b;

0 sonst.

Dies ist eine so genannte Gleichverteilung über dem Intervall Œa; b� (synonym: Recht-eckverteilung). Für x 2 Œa; b� gilt:

F.x/ DxZ

�1f .t/ dt D

xZ

a

dt

b � aD t

b � a

ˇ

ˇ

ˇ

ˇ

x

tDa

D x � a

b � a:

Daraus ergibt sich die Verteilungsfunktion zu:

F.x/ D8

<

:

0 für x < a;x�ab�a

für a � x � b;

1 für x > b:

Die Abb. 11.8 zeigt sowohl Dichte- als auch Verteilungsfunktion. Man erkennt, dass essich hier um die stetige Version der diskreten Gleichverteilung aus Abb. 11.7 handelt.

Diskrete wie stetige Verteilungsfunktionen haben wichtige Eigenschaften, die sich un-mittelbar aus obiger Definition (F.x/ D P.X � x/) ergeben:

Page 25: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.4 Zufallsvariable und Verteilungsfunktion 497

x x

f(x) F(x)

0 0a ab b

1

1b-a

Abb. 11.8 Stetige Dichte- und Verteilungsfunktion

Eigenschaften einer VerteilungsfunktionFür jede Verteilungsfunktion F.x/ gelten die folgenden Aussagen:

� F.x/ ist monoton wachsend,

� 0 � F.x/ � 1,

� limx!�1 F.x/ D 0 (unmögliches Ereignis),

� limx!1 F.x/ D 1 (sicheres Ereignis),

� P.a < X � b/ D F.b/ � F.a/.

Speziell für stetiges F.x/ mit Dichte f .x/ gilt:

F.b/ � F.a/ DbZ

a

f .x/ dx:

Als Dichtefunktionen geeignet sind nur Funktionen, welche die Forderungen f .x/ � 0

undR1�1 f .x/ dx D 1 erfüllen: Da F monoton steigend ist, muss nämlich F 0.x/ D

f .x/ � 0 gelten. Die Fläche unter f stellt die Gesamtwahrscheinlichkeit dar, so dass dasIntegral den Wert 1 ergeben muss.

Achtung! Man beachte ferner, dass ein Ereignis mit der Wahrscheinlichkeit Null nichtunmöglich ist, sondern nur sehr wenig wahrscheinlich; andererseits ist ein Ereignis mitder Wahrscheinlichkeit Eins nicht sicher, aber sehr wahrscheinlich. So gilt beispielsweisefür das nicht sicher eintretende Ereignis X ¤ x0:

P.X ¤ x0/ DZ

Rnfx0gf .x/ dx D 1:

Page 26: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

498 11 Wahrscheinlichkeitsrechnungund Statistik

11.4.2 Erwartungswert und Varianz

Die Verteilungsfunktion F.x/ bzw. die Wahrscheinlichkeits- oder Dichtefunktion f .x/

beschreiben eine Zufallsvariable vollständig. In den Anwendungen der Wahrscheinlich-keitsrechnung haben sich zur Charakterisierung der Zufallsgröße X einige Parameter (sogenannte Momente) bewährt, die aus der Funktion f .x/ berechnet werden können. Diebeiden wichtigsten Parameter, den Erwartungswert (gewöhnliches Moment 1. Ordnung)und die Varianz (zentrales Moment 2. Ordnung), wollen wir nun definieren. Dies geschiehtin Anlehnung an die empirischen Größen „Mittelwert“ und „Varianz“ der deskriptivenStatistik:

Erwartungswert und Varianz einer diskreten und stetigen ZufallsvariablenSei X eine Zufallsvariable mit Wahrscheinlichkeits- bzw. Dichtefunktion f .x/.Dann sind Erwartungswert �X (auch EŒX� genannt) und Varianz �2

X (auch VarŒX�

genannt) von X

a) für diskretes X gegeben durch:

� �X D EŒX� WDX

i

xif .xi /,

� �2X D VarŒX� WD

X

i

.xi � �X /2f .xi /;

b) für stetiges X gegeben durch:

� �X D EŒX� WD1Z

�1xf .x/ dx,

� �2X D VarŒX� WD

1Z

�1.x � �X/2f .x/ dx.

Falls eine Summe bzw. ein Integral divergiert, dann ist die betroffene Größe nichtdefiniert. Als Standardabweichung von X bezeichnet man den Ausdruck �X WDp

VarŒX�.

Beispiel 11.14a) Beim Werfen eines Würfels (siehe Beispiel 11.12) ergibt sich der Erwartungswert

von X (wegen der Gleichwahrscheinlichkeit gilt f .xi / D 1=6 für alle i D 1; : : : ; 6)zu:

�X D EŒX� D 1

6.1 C 2 C 3 C 4 C 5 C 6/ D 3;5:

Page 27: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.4 Zufallsvariable und Verteilungsfunktion 499

Die Varianz errechnet sich folgendermaßen:

�2X D VarŒX� D 1

6Œ.1 � 3;5/2 C .2 � 3;5/2 C .3 � 3;5/2

C .4 � 3;5/2 C .5 � 3;5/2 C .6 � 3;5/2�

D 1

6Œ2;52 C 1;52 C 0;52 C 0;52 C 1;52 C 2;52�

D 17;5=6 D 2;916:

Für die Standardabweichung gilt �X Dp

2;916 1;7078.b) Der Erwartungswert unserer gleichverteilten (stetigen) Zufallsvariablen X (siehe

Beispiel 11.13) ergibt sich zu:

EŒX� D 1

b � a

bZ

a

x dx D 1

b � a� x2

2

ˇ

ˇ

ˇ

ˇ

b

xDa

D b2 � a2

2.b � a/D a C b

2:

Ihre Varianz

VarŒX� D 1

b � a

bZ

a

x � a C b

2

�2

dx

lässt sich auch mittels der Verschiebungsformel, die noch vorgestellt wird, ausrech-nen (siehe Beispiel 11.15).

Folgende Eigenschaften von Mittelwert und Varianz sind für praktische Berechnungenwichtig:

TransformationsformelnSei X eine Zufallsvariable und a; b 2 R, dann gelten die Transformationsformeln:

� EŒaX C b� D aEŒX� C b,� VarŒaX C b� D a2 � VarŒX�.

Für die Varianz gilt auch die Verschiebungsformel:

VarŒX� D EŒX2� � .EŒX�/2:

Die Transformationsformeln werden in Aufgabe 2 (unter „Zufallsvariable und Vertei-lungsfunktion“, Abschn. 11.8) bewiesen. Die Verschiebungsformel zeigt man analog zur

Page 28: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

500 11 Wahrscheinlichkeitsrechnungund Statistik

entsprechenden Regel für die empirische Varianz (siehe Aufgabe 1 unter „DeskriptiveStatistik“, Abschn. 11.8).

Beispiel 11.15Die Varianz der gleichverteilten Zufallsvariablen X aus Beispiel 11.14b lässt sich nunmittels Verschiebungsformel berechnen:

VarŒX� D 1

b � a

bZ

a

x2 dx ��

a C b

2

�2

D 1

b � a� x3

3

ˇ

ˇ

ˇ

ˇ

b

xDa

� 1

4.a C b/2

D 1

3� b3 � a3

b � a� 1

4.a C b/2

D 1

3.b2 C ab C a2/ � 1

4.b2 C 2ab C a2/ D .b � a/2

12:

Übung 11.5Berechnen Sie die Varianz beim Werfen eines Würfels (Beispiel 11.14a) mittels Ver-schiebungsformel.

Lösung 11.5Aus der Verschiebungsformel folgt sofort:

VarŒX� D 1

6Œ12 C 22 C 32 C 42 C 52 C 62� � 3;52 D 2;916:

Hinweis! Man beachte, dass es in vielen Fällen einfacher ist, die Varianz nicht mit dersie definierenden Formel, sondern durch die Verschiebungsregel zu berechnen.

11.4.3 Spezielle Verteilungen

Dieser Abschnitt stellt drei ausgewählte spezielle Verteilungen, die in der Praxis häufigauftreten, vor. Weitere wichtige Verteilungen – wie etwa Hypergeometrische Verteilung,Exponentialverteilung, Gamma-Verteilung, etc. – findet man in der Spezialliteratur.

In Beispiel 11.10 haben wir die Wahrscheinlichkeit Pk.nI p/ dafür berechnet, dass ge-nau k der unabhängigen Ereignisse A1; : : : ; An eintreten: Pk.nI p/ D �

nk

pk.1 � p/n�k .Falls eine Zufallsgröße X nach dieser Formel verteilt ist, so spricht man von Binomial-verteilung (oder binomischer Verteilung):

Page 29: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.4 Zufallsvariable und Verteilungsfunktion 501

1 3 5 7 9

0.05

0.1

0.15

0.2

0.25

0 2 4 6 8

0.05

0.1

0.15

0.2

0.25

0.3

Abb. 11.9 Wahrscheinlichkeitsfunktion (n D 10, p D 0;5 bzw. p D 0;2)

BinomialverteilungEine diskrete Zufallsvariable X heißt binomialverteilt mit den Parametern n und p,kurz X � B.n; p/, wenn ihre Wahrscheinlichkeitsfunktion gemäß

P.X D k/ D Pk.nI p/ WD

n

k

!

pk.1 � p/n�k

für k D 0; 1; : : : ; n gegeben ist.

Die Abb. 11.9 zeigt die Wahrscheinlichkeitsfunktion für die Parameter n D 10 undp D 0;5 bzw. p D 0;2.

Folgende Eigenschaft der Binomialverteilung sei ohne Herleitung aufgeführt:

Kenngrößen der BinomialverteilungFür eine binomialverteilte Zufallsvariable X gilt:

EŒX� D np und VarŒX� D np.1 � p/:

Eine weitere wichtige Verteilung leitet sich als Grenzfall aus der Binomialverteilungab. Die Zahl n der Wiederholungen wird sehr groß (n ! 1), während die Wahrschein-lichkeit p für den einzelnen Ereigniseintritt sehr klein wird (p ! 0). Gleichzeitig fordertman aber ein konstantes Produkt n � p D �:

Page 30: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

502 11 Wahrscheinlichkeitsrechnungund Statistik

0 1 2 3 4 5 6 7 8 9 100

0.05

0.1

0.15

0.2

0.25

0.3

0.35

0 1 2 3 4 5 6 7 8 9 10111213141516171819200

0.02

0.04

0.06

0.08

0.1

0.12

Abb. 11.10 Poisson-Wahrscheinlichkeiten für � D 1 bzw. � D 10

Poisson-VerteilungEine diskrete Zufallsvariable X , die die Werte k D 0; 1; 2; : : : annehmen kann,heißt poisson-verteilt mit Parameter � > 0, kurz X � ˘.�/, wenn ihre Wahr-scheinlichkeitsfunktion gemäß

P.X D k/ D �k

kŠe�� für k D 0; 1; 2; : : :

gegeben ist.

Die Abb. 11.10 zeigt für die Parameterwerte � D 1 bzw. � D 10 die Wahrscheinlich-keitsfunktion der Poissonverteilung.

In der Praxis hat man es bei Zufallsexperimenten häufig mit Ereignissen zu tun, die nursehr selten, d. h. mit geringer Wahrscheinlichkeit auftreten. Solche Ereignisse genügenmeist der Poisson-Verteilung. Früher war deren Anwendungsbereich auf recht ausgefal-lene Ereignisse beschränkt, wie z. B. auf Kinderselbstmorde oder auf durch Huftritt ver-ursachte Todesfälle in der preußischen Armee. Heutzutage spielt diese Verteilung jedocheine wichtige Rolle z. B. im Fernsprechverkehr, in der statistischen Qualitätskontrolle,beim Zerfall von radioaktiven Substanzen, in der Biologie, der Meteorologie und vor al-lem in der Warteschlangentheorie.

Ohne Beweis seien die wichtigsten Kenngrößen der Poisson-Verteilung notiert:

Kenngrößen der Poisson-VerteilungFür eine poisson-verteile Zufallsvariable X gilt:

EŒX� D � und VarŒX� D �:

Page 31: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.4 Zufallsvariable und Verteilungsfunktion 503

-20 -10 10 20 30 40

0.01

0.02

0.03

0.04

0.05

-20 -10 10 20 30 40

0.2

0.4

0.6

0.8

1

Abb. 11.11 Glockenkurve und Normalverteilung

Man benutzt die Poisson-Verteilung in der Praxis häufig zur Annäherung der Binomi-alverteilung, da diese für große n (n � 100) sehr unhandlich wird.

Beispiel 11.16Im Bernoulli-Experiment (siehe Beispiel 11.10) hatten wir die Wahrscheinlichkeit fürdas Auftreten von genau 3 defekten Bauteilen zu 0;1823 berechnet. Die Defekt-Wahrscheinlichkeit für ein Bauteil lag bei 0;02. Setzen wir jetzt p D 0;02, so ergibtsich der Erwartungswert von X (X sei die Defektanzahl) bei 100 Bauteilen zu np D100 � 0;02 D 2. Die – wesentlich einfacher zu berechnende – Approximation mit derPoisson-Verteilung (mit � D n � p D 2) lautet daher

P.X D 3/ 23

3Še�2 0;1804:

Die wohl bekannteste Verteilung ist die (stetige) Normalverteilung:

NormalverteilungEine stetige Zufallsvariable X heißt normalverteilt mit Parametern � 2 R, � 2 RC,kurz X � N.�; �2/, falls sie die Dichtefunktion

'.t; �; �/ WD 1

�p

2�e�

.t��/2

2�2

besitzt. Der Graph von ' heißt Gauß’sche Glockenkurve. Die Funktion˚.x; �; �/ WD R x

�1 '.t; �; �/ dt wird als Gauß’sches Fehlerintegral bezeichnet.

Die Abb. 11.11 zeigt Dichte- und Verteilungsfunktion der Normalverteilung für dieParameter � D 10 und �2 D 64.

Page 32: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

504 11 Wahrscheinlichkeitsrechnungund Statistik

-4 -2 2 4

0.1

0.2

0.3

0.4

-4 -2 2 4

0.2

0.4

0.6

0.8

1

Abb. 11.12 Dichte und Standardnormalverteilung ˚.x/

Die zentrale Rolle der Normalverteilung beruht darauf, dass viele in der Praxis auftre-tende Zufallsvariablen normalverteilt sind und andere (diskrete wie stetige) Verteilungenin der Praxis für große n oft durch Normalverteilungen angenähert werden können. Au-ßerdem bildet die Normalverteilung die Grundlage vieler Schätz- und Testverfahren. DieBedeutung der Parameter � und � sei wieder ohne Beweis aufgeführt:

Kenngrößen der NormalverteilungFür eine normal-verteile Zufallsvariable X gilt:

EŒX� D � und VarŒX� D �2:

Da die Werte der Normalverteilung nur mittels numerischer Integrationsverfahren er-mittelt werden können, benutzt man in der Praxis die so genannte Standardnormalvertei-lung, deren Werte in fast allen Formelsammlungen tabelliert sind:

StandardnormalverteilungFür � D 0 und � D 1 erhält man die Standardnormalverteilung:

˚.x/ WD ˚.x; 0; 1/ D 1p2�

xZ

�1e�

t2

2 dt:

Dichte- und Verteilungsfunktion dieser normierten Normalverteilung zeigt dieAbb. 11.12.

Page 33: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.4 Zufallsvariable und Verteilungsfunktion 505

Symmetriegleichung Aufgrund der Achsensymmetrie der Dichtefunktion ergibt sich diewichtige Gleichung

˚.�x/ D 1 � ˚.x/:

Achtung! Da sich wegen dieser Symmetriegleichung alle Werte von ˚.�x/ für negatives�x stets auf die Auswertung von ˚.x/ mit positivem Argument x zurückführen lassen,ist das Gauß’sche Fehlerintegral nur für positve Argumente tabelliert!

Normierende Transformation Hat man eine N.�; �/-verteilte Zufallsvariable X , sokann man diese durch die Transformation

Y D X � �

immer zu einer N.0; 1/-verteilten Zufallsvariablen Y normieren. Offensichtlich gilt dann

P.a < X � b/ D P

a � �

�< Y � b � �

:

Nun lässt sich die gesuchte Wahrscheinlichkeit mit Werten der Standardnormalverteilungberechnen:

P.a < X � b/ D ˚

b � �

� ˚�a � �

:

Beispiel 11.17Eine Zufallsgröße X sei normalverteilt mit den Parametern � D 4 und � D 2. Gesuchtist die Wahrscheinlichkeit dafür, dass X zwischen 2;5 und 8 liegt:

P.2;5 � X � 8/ D ˚

8 � 4

2

� ˚

2;5 � 4

2

D ˚.2/ � ˚.�0;75/ D ˚.2/ � .1 � ˚.0;75//

D 0;9773 � 1 C 0;7734 D 0;7507:

Bei der Berechnung haben wir die Symmetriegleichung ausgenutzt und die Werte˚.2/ D 0;9773, ˚.0;75/ D 0;7734 einer Tabelle für die Standardnormalverteilungentnommen.

Page 34: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

506 11 Wahrscheinlichkeitsrechnungund Statistik

11.5 Kurzer Verständnistest

(1) Für die empirische Varianz S2 einer Datenmenge xi , i D 1; : : : ; n, gilt:

� S2 D PniD1.xi � x/2 � S2 D 1

n

PniD1.xi � x/2

� S2 D x2 � x2 � S2 D x2 � x

(2) Für ein Histogramm H gelten folgende Aussagen:

� H stellt die empirische Verteilungsfunktion graphisch dar.

� H stellt die empirische Dichte graphisch dar.

� Die Säulenhöhen in H entsprechen stets den relativen Häufigkeiten.

� Datenwerte sind gemäß der darg. Fkt. pro Klasse gleichmäßig verteilt.

(3) Für eine Regressionsgerade y.x/ D bx C a gelten folgende Eigenschaften:

� y.x/ geht durch den Punkt .x; y/.

� Bei negativer Korrelation ist y.x/ monoton steigend.

� y.x/ minimiert die Summe der Abweichungen.

� a; b ergeben sich als eindeutige Lösung der Normalgleichungen.

(4) Welche der folgenden Aussagen sind korrekt?

� Komplementäre Ereignisse sind stets disjunkt.

� Disjunkte Ereignisse sind stets komplementär.

� Disjunkte Ereignisse können unabhängig sein.

� Unabhängige Ereignisse sind immer disjunkt.

(5) Sind A; B beliebige Ereignisse, dann gilt:

� P.A/ D 1 � P.A/ � P.AjB/ D P.A\B/P.B/

� P.A n B/ D P.A/ � P.B/ � P.A [ B/ D P.A/ C P.B/

(6) Für eine stetige Zufallsvariable X mit Verteilungsfunktion F.x/ gilt:

� P.X D x0/ D 0 � limx!1

F.x/ D 1

� F 0.x/ � 0, x 2 R � P.a < X < b/ D F.b/ � F.a/

(7) Ist SX Standardabweichung der Zufallsvariablen X , dann gilt für die Standardabweichung SY

der Zufallsvariablen Y D aX C b:

� SY D SX � SY D aSX C b

� SY D jajSx C b � SY D jajSX

(8) Für Standardnormalverteilung ˚.x/ und Zufallsvariable X � N.0; 1/ gilt:

� ˚.x/ D �˚.x/ � P.a < X < b/ D ˚.b/ � ˚.a/

� ˚.�x/ D 1 � ˚.x/ � P.a � X � b/ D ˚.b/ � ˚.a/

Lösung: (x ' richtig, o ' falsch)

1.) oxxo, 2.) oxox, 3.) xoox, 4.) xoxo, 5.) xxoo, 6.) xxxx, 7.) ooox, 8.) oxxx

Page 35: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.6 Anwendungen 507

11.6 Anwendungen

11.6.1 Eine sonderbare Ziffern-Verteilung und die Steuerrevision

Nehmen wir einmal an, Sie hätten die Möglichkeit, folgende Wette einzugehen: Wenndie erste Zahl, die in der ARD-Tagesschau ab 20 Uhr genannt wird, mit einer Ziffer zwi-schen 1 und 3 beginnt, verlieren Sie 50 Euro. Liegt die erste Ziffer dagegen im Bereich 4bis 9, dann gewinnen Sie 50 Euro. Würden Sie diese Wette für die nächsten 365 Tageannehmen?

Selbstverständlich werden Sie – nach diesem Kapitel mittlerweile wahrscheinlichkeits-theoretisch gut geschult – vor einer Entscheidung daran gehen, den erwarteten Gewinn zuberechnen: Unter der Annahme, dass alle Ziffern von 1 bis 9 als Anfangsziffer der (vomNachrichtensprecher zufällig genannten) Zahl gleichwahrscheinlich sind, beträgt das Ver-lustrisiko 3=9 D 1=3. Dem steht eine Gewinnchance von 6=9 D 2=3 gegenüber. Damitberechnet sich der erwartete Gewinn zu

� D �50 � 1

3C 50 � 2

3D 16;67 Euro:

Da dies nach einem guten Geschäft aussieht, würden Sie sich wahrscheinlich auf die Wet-te einlassen. Schon nach ein paar Monaten werden Sie aber feststellen, dass Ihnen dieseWette erhebliche finanzielle Einbußen beschert. Warum eigentlich? Weil der Erwartungs-wert nicht bei C16;67 Euro liegt, sondern in Wirklichkeit �10;21 Euro beträgt. Im Mittelverlieren Sie also mehr als 10 Euro pro Tag. Wie lässt sich das erklären?

Die erste Ziffer bestimmter Zahlenmengen, besonders von „dimensions-behafteten“,wie z. B. Flächen von Gewässern, Stromverbrauchsdaten von Privathaushalten, Aktienkur-sen oder Naturkonstanten ist nämlich nicht gleichverteilt. Hier gilt ein Gesetz, das Endedes 19: Jahrhunderts auf kuriose Weise entdeckt wurde: In der damaligen Zeit konnte mankomplizierte Rechnungen nur mit Hilfe von Logarithmentafeln effektiv durchführen. 1881

machte der Astronom Simon Newcomb die Beobachtung, dass in diesen Tafeln die vorde-ren Seiten wesentlich stärker abgenutzt waren, als die hinteren. Es hatte den Anschein,dass jene Zahlen, die mit niedrigeren Ziffern anfangen, häufiger nachgeschlagen wurdenals jene, die mit höheren Ziffern beginnen. Newcomb vermutete, dass sich die Häufigkeitder bei einer Zahl auftauchenden führenden Ziffer durch das Gesetz

Ziffernhäufigkeit D log10

1 C 1

jeweilige Ziffer

beschreiben lässt. Eine ausreichende Erklärung hatte er dafür allerdings nicht und seineEntdeckung geriet wieder in Vergessenheit. Erst 1938 machte der Physiker Frank Benfordunabhängig von Newcomb dieselbe Beobachtung und verifizierte sie anhand zahlreicherStatistiken aus ganz unterschiedlichen Lebensbereichen: physikalische Tabellen (spezifi-sche Wärme, Atom- und Molekulargewichte), Hausnummern zufällig ausgewählter Per-sonen, Einwohnerzahlen von US-Counties, Baseballergebnisse etc. Die Verteilung wurde

Page 36: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

508 11 Wahrscheinlichkeitsrechnungund Statistik

Abb. 11.13 Ziffernhäufigkeitgemäß Benford’schem Gesetz

1 2 3 4 5 6 7 8 9

0.05

0.1

0.15

0.2

0.25

0.3

nach ihm benannt, sie ist heute unter dem Namen Benford’sches Gesetz bekannt. DasHistogramm in Abb. 11.13 zeigt die Häufigkeitsverteilung h.1. Ziffer der Zahl D i/ Dlog10.1 C 1=i/ für die erste Ziffer einer Zahl. Die niedrigeren Ziffern sind also wesent-lich wahrscheinlicher als die hohen. So liegt die Wahrscheinlichkeit dafür, dass die ersteZiffer 1, 2 oder 3 ist, bei 0;30103 C 0;176091 C 0;124939 D 0;60206. Damit ist auch derungünstige Ausgang unserer Wette klar: Deren Erwartungswert ergibt sich jetzt natürlichzu

� D .�50/ � 0;60206 C 50 � .1 � 0;60206/ D �10;206:

Mittlerweile gibt es weit über 100 Publikationen mit Erklärungsversuchen zum Ben-ford’schen Gesetz. Eine der bedeutendsten Veröffentlichungen ist wohl die des Mathema-tikers Roger Pinkham, der 1961 zeigen konnte, dass das Benford’sche Gesetz die einzigeVerteilung ist, die invariant gegenüber positiven Skalierungen ist. Es ist also egal, ob manbeispielsweise Volumina in Litern oder in Barrel misst, Gewichte in Gramm oder in Unzenangibt bzw. monetäre Größen in DM oder in Euro notiert.

Natürlich genügen nicht alle Statistiken dem Benford’schen Gesetz, es gibt ja be-kannterweise auch binomial-verteilte, normalverteilte Zufallsvariablen, usw. Geeignetsind aber Zahlen, die Größenordnungen repräsentieren, nicht der Identifikation dienen(wie z. B. Pass- oder Telefonnummern) und keine inhärenten Grenzen aufweisen. So istdas Alter von zufällig ausgewählten Menschen beispielsweise ungeeignet, da hier dieMöglichkeiten für die erste Ziffer allzu sehr eingeengt sind. Dagegen ist bei den Da-teigrößen auf ihrer Festplatte eine Übereinstimmung mit dem Benford’schen Gesetz rechtwahrscheinlich : : :

Die Gültigkeit des Benford’schen Gesetzes können Sie selbst an einem einfachen Bei-spiel nachprüfen: Die Folge .fn/n2N der bekannten Fibonacci-Zahlen, deren Bildungsge-setz f0 D f1 D 1, fnC1 D fn C fn�1 für n � 1 lautet (vergleiche auch Verständnistestim Kapitel „Folgen“, Aufgabe 11), lässt sich als natürlicher Wachstumsprozess inter-pretieren (z. B. Größe von Kaninchenpopulationen). Den relativen Häufigkeiten gemäßBenford’schem Gesetz sind in nachfolgender Tabelle die Häufigkeiten der Anfangsziffernfür die ersten 100 bzw. 1000 Fibonacci-Zahlen gegenübergestellt:

Page 37: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.6 Anwendungen 509

Ziffer Benford 100 Fib.-Zahlen 1000 Fib.Zahlen

1 0,3010300 0,30 0,301

2 0,1760910 0,18 0,177

3 0,1249390 0,13 0,125

4 0,0969100 0,09 0,096

5 0,0791812 0,08 0,080

6 0,0669468 0,06 0,067

7 0,0579919 0,05 0,056

8 0,0511525 0,07 0,053

9 0,0457575 0,04 0,045

Um die Jahrtausendwende hat man nun das Benford’sche Gesetz erstmals benutzt, umSteuerbetrug und Bilanzfälschungen aufzudecken: Echte Zahlen aus diesen Bereichengehorchen nämlich der Benford-Verteilung, gefälschte Daten weichen davon ab. Bei ge-fälschten Daten kommen bestimmte Ziffern (z. B. Lieblingszahlen des Fälschers) vielhäufiger vor als bei korrekten Angaben. So hat der Mathematiker Mark Nigrini (Professorfür Buchhaltungswesen in Texas) umfangreiche Tests durchgeführt (z. B. fast 170:000

Steuererklärungen ausgewertet), die das Gesetz bestätigt haben. Nigrini entwickeltedeshalb nach dem Benford’schen Gesetz ein Programm namens „Digital Analyser“,das bereits viele Bilanzfälscher und Steuerhinterzieher aufspüren konnte. Auch großeWirtschaftsprüfer-Gesellschaften setzen das Programm schon ein.

Anfang 2004 sind auch erste Untersuchungen mit deutschen Steuererklärungen durch-geführt worden. Die Ergebnisse zeigen für den Bereich der Steuerrevision weiteren Un-tersuchungsbedarf. Es kann noch nicht gesichert festgestellt werden, ob es sich um zu-fällige Abweichungen oder tatsächliche Fälschungen handelt. Werden mit Hilfe des Ben-ford’schen Gesetzes Abweichungen festgestellt, so gilt das derzeit also nicht als Beweiseiner Manipulation, berechtigt aber die Steuerprüfer zu weiteren, für den Betroffenen u.U.äußerst unangenehmen, Maßnahmen. So hat der Bundesfinanzhof mittlerweile die An-wendung statistischer Verfahren zur Ermittlung von Besteuerungsgrundlagen zugelassen.Im Jahr 2004 sollen 10 % aller Betriebsprüfer auf einer neuen Prüfungssoftware geschultwerden, in der auch Methoden, die auf dem Benford’schen Gesetz beruhen, eingearbeitetsind.

11.6.2 HIV-Tests

Stellen Sie sich vor, Ihre Ärztin hat Ihnen gerade Ihr positives Resultat bei einem Aids-test mitgeteilt. Haben Sie dann Aids? Paradoxerweise ist es (falls Sie nicht gerade einerRisikogruppe angehören) sogar wahrscheinlicher, dass Sie nicht an Aids erkrankt sind –trotz positivem Test! Dies werden wir im Folgenden mit Hilfe des Satzes von Bayes exaktnachrechnen.

Page 38: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

510 11 Wahrscheinlichkeitsrechnungund Statistik

Bekanntlich sind HIV-Tests Verfahren, die eine stattgefundene Infektion mit einemmenschlichen Immunschwächevirus (HIV) nachweisen können. Ein derartiger Nachweisist beim Menschen überhaupt erst etwa 12 Wochen (so genannte „diagnostische Lücke“)nach Kontakt mit ausreichend großen Virusmengen möglich. In Deutschland werden alsSuchtests meist ELISA (D enzyme-linked immuno-sorbent assays)-Tests verwandt, dieAntikörper gegen bestimmte Varianten des Virus nachweisen. Sie weisen diese Antikör-per sehr „empfindlich“ nach, was besagt, dass möglichst viele Infektionen auch erkanntwerden („hohe Sensitivität“ des Testverfahrens). Ihr Nachteil ist aber, dass sie manchmalreagieren, obwohl keine Infektion besteht: Es liegen also in einigen Fällen falsche positiveTestergebnisse vor („geringe Spezifität“ des Tests).

Grob gesagt kann man deshalb bei negativem Testergebnis ziemlich sicher sein, dassman nicht mit HIV infiziert ist, während bei positivem Ergebnis immer mit einem zwei-ten Bestätigungstest das Ergebnis des ersten überprüft werden muss. Als Bestätigungstestwird in Deutschland meist ein Immunoblot genanntes Verfahren eingesetzt. Erst wenn mitdem Bestätigungstest Antikörper nachgewiesen werden, gilt die Diagnose „HIV positiv“als sicher und sollte dem Patienten mitgeteilt werden.

Ende 2003 betrug der Anteil HIV-Positiver bei der erwachsenen Bevölkerung in West-europa etwa 0,3 %. Mathematisch gesprochen kann man dem Ereignis „HIV positiv“also eine Wahrscheinlichkeit von P.HIVC/ D 0;003 zuordnen. Gehen wir davon aus,dass ein Testverfahren in 99,9 % aller Fälle eine bestehende HIV-Infektion auch nach-weist, dass also die bedingte Wahrscheinlichkeit „positives Testergebnis bei vorliegenderHIV-Infektion“ P.TestCjHIVC/ D 0;999 ist. Die Rate der wahren positiven Tester-gebnisse („Sensitivität“ des Testverfahrens) beträgt damit 99,9 %. Nun gibt es auch einekleine Anzahl von Fällen, in denen falsche positive Testergebnisse ausgegeben werden,in denen also eine Person, die HIV negativ ist, fälschlicherweise ein positives Tester-gebnis erhält. Nehmen wir an, dies geschieht in 2 % aller Fälle. Dann ist die bedingteWahrscheinlichkeit eines positiven Testergebnisses, falls keine HIV-Infektion vorliegt,gleich P.TestCjHIV�/ D 0;02. Wegen P.TestCjHIVC/ D 0;999 gilt entsprechendP.Test�jHIVC/ D 1 � P.TestCjHIVC/ D 0;001 und wegen P.TestCjHIV�/ D 0;02

ist P.Test�jHIV�/ D 1 � 0;02 D 0;98. Mit Hilfe des Satzes von Bayes ergeben sich dieWahrscheinlichkeiten, die in der nachfolgenden Tabelle aufgelistet sind.

Der Tabelle entnimmt man, dass für die Wahrscheinlichkeit, trotz positivem Testergeb-nis nicht an HIV erkrankt zu sein, gilt:

P.HIV�jTestC/ D P.TestC \ HIV�/

P.TestC/D 0;019940

0;022937D 0;8693378:

Dies bedeutet, dass man selbst bei positivem Testergebnis in 87 % aller Fälle gesundund nur in 13 % wirklich HIV-positiv ist! (Und selbst wenn der Test wirklich zuverlässigalle HIV-Infizierten erkennt, wenn also P.TestCjHIVC/ D 1 ist, ändern sich obige Wertenur geringfügig.)

Page 39: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.6 Anwendungen 511

HIVC HIV�TestC P (TestC \ HIVC)

D P (TestCjHIVC) � P (HIVC)D 0;999 � 0;003

D 0;002997

P.TestC \ HIV�/

D P.TestCjHIV�/ � P.HIV�/

D 0;02 � 0;997

D 0;019940

P.TestC/

D 0;022937

Test� P.Test� \ HIVC/

D P.Test�jHIVC/ � P.HIVC/

D 0;001 � 0;003

D 0;000003

P.Test� \ HIV�/

D P.Test�jHIV�/ � P.HIV�/

D 0;98 � 0;997

D 0;977060

P.Test�/

D 0;977063

P.HIVC/ D 0;003 P.HIV�/ D 0;997 1

Wir wollen nun versuchen, dieses auf den ersten Blick sehr überraschende Ergebniszu verstehen: Ausgangspunkt war P.HIVC/ D 0;003, was bedeutet, dass von 1000 Per-sonen durchschnittlich 3 mit HIV infiziert sind. Wenn wir nun aber eine Population von1.000.000 Menschen zugrunde legen, so sind 3000 Infizierte darunter. Davon werden kor-rekt 2997 Infizierte durch den Test entdeckt, 3 Personen werden fälschlicherweise nichtidentifiziert. Von den 997.000 Gesunden werden allerdings ganze 19.940 Personen fälsch-licherweise als positiv getestet. Gehört man nun zu den 22.937 Personen mit positivemTestergebnis, so ist es viel wahrscheinlicher zur Gruppe der 19.940 Gesunden als zurGruppe der 2997 Kranken zu gehören.

Liefert also ein positiver Aidstest überhaupt keine Information? Doch: Mit einem posi-tiven Testergebnis ist die Wahrscheinlichkeit, an HIV erkrankt zu sein, im obigen Beispielvon 3 zu 1000 auf ca. 13 zu 100 angewachsen. Die Chancen stehen schlechter. Aber den-noch besagt ein positiver Test keinesfalls, wirklich HIV-positiv zu sein.

Als letztes wollen wir noch untersuchen, welchen Einfluss die Zugehörigkeit zueiner Risikogruppe auf die obigen Wahrscheinlichkeiten hat. Wir setzen wiederP.TestCjHIVC/ D 0;999 (richtige Positive) und P.TestCjHIV�/ D 0;02 (falschePositive). Für die Wahrscheinlichkeit, HIV-positiv zu sein, setzen wir P.HIVC/ D x,wobei x von der Verbreitung von AIDS in der jeweiligen Risikogruppe abhängt. Wirerhalten:

HIVC HIV�TestC 0;999 � x 0;02 � .1 � x/ 0;979 � x C 0;02

Test� 0;001 � x 0;98 � .1 � x/ �0;979 � x C 0;98

x 1 � x 1

Die Wahrscheinlichkeit, HIV-negativ zu sein trotz positivem Testergebnis, ist dann

P.HIV�jTestC/ D P.HIV� \ TestC/

P.TestC/D 0;02 � .1 � x/

0;979 � x C 0;02:

Page 40: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

512 11 Wahrscheinlichkeitsrechnungund Statistik

Für verschiedene x-Werte erhält man also verschiedene Wahrscheinlichkeiten:

x P (HIV�jTestC)

geringes Risiko 0,0003 0,9852

normales Risiko 0,003 0,8693

hohes Risiko 0,03 0,3930

sehr hohes Risiko 0,3 0,0446

In einer Nicht-Risikogruppe (vielleicht monogam lebende heterosexuelle Frauen) mitgeringem HIV-Risiko (nur 0,03 % dieser Bevölkerungsgruppe sind HIV-infiziert) ist manbei Vorliegen eines positiven Testergebnisses in 99 % der Fälle nicht infiziert. Gehörtman hingegen zu einer Risikogruppe (3 % dieser Gruppe ist infiziert), so ist man nurin 39 % nicht HIV-positiv. In einer Gruppe höchsten Risikos (vielleicht homosexuellepromiske Männer im San Francisco der achtziger Jahre) mit 30 % Infizierten ist die Wahr-scheinlichkeit, bei positivem HIV-Test nicht infiziert zu sein, nur noch 4 %. (Hier ist dieWahrscheinlichkeit, HIV-infiziert zu sein, aber auch ohne Test schon sehr hoch.) Als über-raschende Aussage bleibt: Wenn man einer Nicht-Risikogruppe angehört, ist es sogaräußerst unwahrscheinlich, bei positivem AIDS-Test wirklich infiziert zu sein!

11.7 Zusammenfassung

Mittelwert x und empirische Varianz S 2 der Datenwertex1; : : : ; xn

x WD 1

n

nX

iD1

xi ; S2 WD 1

n

nX

iD1

.xi � x/2I

mit Verschiebungsformel S2 D x2 � x2 (x2 WD 1n

PniD1 x2

i ),

empirische Standardabweichung S WD pS2.

Bsp. Datenwerte: 5; 8; 9; 2; Anzahl: n D 4

x WD 14

.5 C 8 C 9 C 2/ D 24=4 D 6.

S2 D 14..5 � 6/2 C .8 � 6/2 C .9 � 6/2 C .2 � 6/2/ D 30=4 D 7;5, oder

S2 D x2 � x2 D 14.52 C 82 C 92 C 22/ � 62 D 43;5 � 36 D 7;5.

Empirische DichteGegeben ist Datenmenge: x1; : : : ; xn

Klasseneinteilung �0 < �1 < : : : < �k (�0 < min xi ; �k > max xi )relative Häufigkeiten hi D ni =n, ni D Anzahl Datenwerte in .�i�1; �i �

empirische Dichte Of .x/ D(

hi

�i��i�1; falls x 2 .�i�1; �i �; i D 1; : : : ; k;

0; sonst

Page 41: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.7 Zusammenfassung 513

Bsp. empirische Dichte zu �0 D 47;5 < 49;5 < 51;5 < 53;5 D �3, n D 25

Klasse Anzahl Daten ni rel. Häufigkeit hi D ni =n Of .x/ D hi =2

47;5 < x � 49;5 9 0,36 0,18

49;5 < x � 51;5 13 0,52 0,26

51;5 < x � 53;5 3 0,12 0,06

Histogramm(D graphische Darstellung der empirischen Dichte)

Reduktionslage kleinster Wert �0 < Minimum der Datenwerte,Variationsbreite gesamte Länge �k � �0 mit �k > Maximum der Datenwerte,Klassenbreite Werte �i � �i�1 (häufig konstant),Klassenzahl Anzahl k der Klassen (empfohlen: 5 � k � 25),Säulenhöhe relative Häufigkeit/Klassenbreite (hi =.�i � �i�1/).

Empirische Verteilungsfunktion

OF .x/ WDxZ

�1Of .t/ dt

mit empirischer Dichte Of .t/; Eigenschaften:

� OF .x/ ist Maß für die Anzahl der Daten, deren Messwert kleiner gleich x ist.� Summe über alle relativen Häufigkeiten:

R1�1 Of .x/ dx D 1.

Bsp. Histogramm/Verteilungsfunktion zur vorherigen Beispieldichte mit Re-duktionslage 47;5, Variationsbreite 6, Klassenbreite 2 und Klassenzahl 3:

48.5 50.5 52.5

0.05

0.1

0.15

0.2

0.25

x-Klassen 47 48 49 50 51 52 53

0.2

0.4

0.6

0.8

1

x

Rel.Häufigkeit

F(x)^

Empirische Verteilungsfunktion hierzu:

OF .x/ D

8

ˆˆˆˆˆ<

ˆˆˆˆˆ:

0; falls x � 47;5,.x � 47;5/=2 � 0;36; falls 47;5 < x � 49;5,

0;36 C .x � 49;5/=2 � 0;52; falls 49;5 < x � 51;5,0;88 C .x � 51;5/=2 � 0;12; falls 51;5 < x � 53;5,

1; falls x > 53;5.

Page 42: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

514 11 Wahrscheinlichkeitsrechnungund Statistik

xp-Quantil(D Wert, bis zu dem 100 � p % der Daten liegen)

Bestimmungsgleichung:

OF .xp/ DxpZ

�1Of .x/ dx D p mit 0 � p � 1:

Median x0;5 („halbiert“ Datenmenge),Quartile x0;25 und x0;75.

Bsp. Median bzgl. vorheriger BeispielverteilungBestimmungsgleichung: 0;5 D OF .x0;5/ D 0;36 C .x � 49;5/=2 � 0;52.Auflösen liefert: x0;5 50;04.

Lineare RegressionsaufgabeGegeben: Liste zweidimensionaler Datenwerte .x1; y1/; .x2; y2/; : : : ; .xn; yn/.Gesucht: Gerade durch „Punktwolke“, so dass Summe der quadrierten Abweichun-

gen minimal wird.Lösung: Regressionsgerade y.x/ D bxCa, Regressionskoeffizienten a, b ergeben

sich aus Normalgleichungen:8

ˆˆˆˆ<

ˆˆˆˆ:

n � a C

nX

iD1

xi

!

� b DnX

iD1

yi

nX

iD1

xi

!

� a C

nX

iD1

x2i

!

� b DnX

iD1

xiyi

9

>>>>=

>>>>;

bzw. aus

b D Sxy

S2x

und a D y � bx; (falls Sx > 0):

Dabei: x; y Mittelwerte der x- bzw. y-Werte, S2x Varianz der x-Werte und

Sxy WD 1

n

nX

iD1

xi yi � x � y

empirische Kovarianz der x- und y-Werte.

Bsp. Regressionsgerade mittels Normalgleichungen für 4 Datenpaare:.1;5I 4;1/; .2;1I 5;0/; .3;3I 8;1/; .3;9I 8;7/;Pn

iD1 xi D 10;8,Pn

iD1 yi D 25;9,Pn

iD1 x2i D 32;76,

PniD1 xiyi D 77;31;

Normalgleichungen: 4a C 10;8b D 25;9, 10;8a C 32;76b D 77;31;Lösung ergibt b D 2;05; a D 0;94;Regressionsgerade: y.x/ D 2;05x C 0;94.

Page 43: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.7 Zusammenfassung 515

Kovarianz, KorrelationskoeffizientFür die empirische Kovarianz Sxy gilt auch

Sxy D 1

n

nX

iD1

.xi � x/.yi � y/:

Empirischer Korrelationskoeffizient (normierte Kovarianz)

rxy WD Sxy

SxSy

mit � 1 � rxy � 1

Sx; Sy sind Standardabweichungen der x- bzw. y-Werte.Korrelation: rxy 0 H) keine,

rxy 1 H) positive,rxy �1 H) negative.

Bsp. Datenpaare: .2; 5/; .4; 7/; .6; 9/ H) x D 4, y D 7, S2x D S2

y D 2;6,

Sxy D 13Œ.2 � 4/.5 � 7/ C .4 � 4/.7 � 7/ C .6 � 4/.9 � 7/� D 2;6 bzw.

Sxy D 13.2 � 5 C 4 � 7 C 6 � 9/ � 4 � 7 D 2;6,

b D 2;6

2;6D 1, a D 7 � 1 � 4 D 3 H) y D 1 � x C 3,

rxy D 2;6p2;6

p2;6

D 1 H) positive Korrelation (Daten liegen auf Gerade).

Zufallsexperimentbesteht aus Menge möglicher, sich gegenseitig ausschließender Elementarereignis-se !i .

� Ergebnismenge: ˝ D f!1; !2; !3; : : :g,� Ereignisse: Teilmengen von ˝, d. h. z. B. A; B � ˝,� Ereignisraum E: Potenzmenge von ˝, d. h. E D P.G/,� sicheres Ereignis: ˝, unmögliches Ereignis: ;,� A, B sind unvereinbar bzw. gegenseitig ausschließend, falls A \ B D ;,� zu A komplementäres Ereignis: A D ˝ n A.

Abzählregel (Laplace-Annahme)bei Gleichwahrscheinlichkeit aller Elementarereignisse:

P.A/ D jAjn

D Anzahl der Elemente von A

Anzahl der Elemente von ˝:

P.A/ heißt Laplace’sche Wahrscheinlichkeit.

Page 44: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

516 11 Wahrscheinlichkeitsrechnungund Statistik

Bsp. Zahl beim Werfen eines fairen Würfels˝ D f!1; : : : ; !6g mit !i D Augenzahl ist i ,Ereignis A D gerade Zahl H) A D f!2; !4; !6g � ˝,P.A/ D 3

6D 0;5.

Wahrscheinlichkeitsfunktionbzw. Verteilungsgesetz P W E 7! R ordnet jedem Ereignis A eine reelle Zahl P.A/

(D Wahrscheinlichkeit von A) zu. P muss dabei die Kolmogoroff’schen Axiome erfül-len:

a) Für alle A gilt: P.A/ � 0.b) Für das sichere Ereignis gilt: P.˝/ D 1.c) Sind A1, A2, A3; : : : paarweise unvereinbar, dann gilt:

P.A1 [ A2 [ A3 [ : : :/ D P.A1/ C P.A2/ C P.A3/ C : : :

Rechenregeln für Wahrscheinlichkeiten

komplementäres Ereignis P.A/ D 1 � P.A/,unmögliches Ereignis P.;/ D 0,Differenzmenge P.A n B/ D P.A/ � P.A \ B/,Additionssatz P.A [ B/ D P.A/ C P.B/ � P.A \ B/,stets gilt 0 � P.A/ � 1,Monotonie A � B H) P.A/ � P.B/.

Bsp. Zahl beim Werfen eines fairen WürfelsP.!i / D 1=6 für i D 1; : : : 6;Ereignisse: A D gerade Zahl, B D ungerade Zahl;P.B/ D P.A/ D 1 � P.A/ D 1 � 0;5 D 0;5, P.A \ B/ D P.;/ D 0;P.A [ B/ D 0;5 C 0;5 � 0 D 1, P.A [ B/ D P.˝/ D 1.

Bedingte WahrscheinlichkeitWahrscheinlichkeit dafür, dass A eintritt unter der Bedingung, dass B eingetreten ist

P.AjB/ D P.A \ B/

P.B/; wenn P.B/ > 0:

Satz von Bayes: P.AjB/ D P.A/ � P.B jA/

P.B/.

Unabhängige EreignisseEreignisse A und B heißen unabhängig, wenn

P.AjB/ D P.A/:

Für unabhängige Ereignisse A und B gilt:

P.A \ B/ D P.A/ � P.B/:

Page 45: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.7 Zusammenfassung 517

Bsp. Zahl beim Werfen eines fairen WürfelsEreignisse: A D „gerade Zahl“ (P.A/ D 1

2), B D „Zahl > 4“ (P.B/ D 1

3);

A \ B D f6g (P.A \ B/ D 1=6);AjB D „Zahl gerade“, vorausgesetzt, dass „Zahl > 4“ gewürfelt wurde;P.AjB/ D 1=6

1=3D 1=2;

P.AjB/ D P.A/ D 1=2 H) A; B unabhängig, d. h. P.A \ B/ D 12

� 13

D 16

.

ZufallsvariableD Funktion X W ˝ 7! R, die jedem Elementarereignis ! 2 ˝ genau eine reelle ZahlX.!/ zuordnet. Ist der Wertebereich von X endlich oder abzählbar unendlich, so heißtX diskret, andernfalls stetig.

VerteilungsfunktionF.x/ der Zufallsvariablen X gibt Wahrscheinlichkeit dafür an, dass X einen Wert an-nimmt der kleiner oder gleich einer vorgegebenen Zahl x ist:

F.x/ D P.X � x/:

� Diskrete Verteilung: Falls

f .x/ D�

pi für x D xi

0 für x ¤ xii D 1; 2; : : :

zugehörige Wahrscheinlichkeitsfunktion ist, dann gilt

F.x/ D P.X � x/ DX

xi�x

f .xi /:

� Stetige Verteilung: Falls f .x/ zugehörige Dichtefunktion ist, dann gilt

F.x/ D P.X � x/ DxZ

�1f .t/ dt:

Eigenschaften der VerteilungsfunktionFür Verteilungsfunktionen F.x/ gelten folgende Aussagen:

� F.x/ ist monoton wachsend (f .x/ � 0 stets),� 0 � F.x/ � 1,� limx!�1 F.x/ D 0 (unmögliches Ereignis),� limx!1 F.x/ D R1

�1 f .t/ dt D 1 (sicheres Ereignis),� P.a < X � b/ D F.b/ � F.a/

Speziell für stetiges F.x/ mit Dichte f .x/ gilt: F.b/ � F.a/ D R b

a f .x/ dx.

Page 46: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

518 11 Wahrscheinlichkeitsrechnungund Statistik

Bsp. Graph einer stetigen (Gleich-)Verteilung F.x/ mit Dichte f .x/ D 1b�a

füra � x � b und 0 sonst.

x x

f(x) F(x)

0 0a ab b

1

1b-a

Erwartungswert und Varianz diskreter und stetiger ZufallsvariablenSei X Zufallsvariable, f .x/ zugehörige Wahrscheinlichkeits- bzw. Dichtefunktion.Dann sind Erwartungswert �X und Varianz �2

X von X (im Konvergenzfall)

� für diskretes X gegeben durch:

�X D EŒX� WDX

i

xif .xi /; �2X D VarŒX� WD

X

i

.xi � �X/2f .xi /:

� für stetiges X gegeben durch:

�X D EŒX� WD1Z

�1xf .x/ dx; �2

X D VarŒX� WD1Z

�1.x � �X /2f .x/ dx:

Standardabweichung von X : �X WD p

VarŒX�.

Rechenregeln für Erwartungswert und Varianz (a; b 2 R)� EŒaX C b� D aEŒX� C b (Transformationsformel),� VarŒaX C b� D a2 � VarŒX� (Transformationsformel),� VarŒX� D EŒX2� � .EŒX�/2 (Verschiebungsformel).

Bsp. diskrete Zufallsvariable X D xi mit xi D i für i D 1; 2; 3 und Wahrschein-lichkeitsfunktion f .x/ mit f .1/ D 1=2, f .2/ D 1=6, f .3/ D 1=3.

�X D P3iD1 if .i/ D 1 � 1

2C 2 � 1

6C 3 � 1

3D 11

6,

�2X D P

i .i � �/2f .i/ D .1 � 116

/2 � 12

C .2 � 116

/2 � 16

C .3 � 116

/2 � 13

D 2936

,

EŒX2� D 12 � 12

C 22 � 16

C 32 � 13

D 256

,

Verschiebungsformel: �2X D 25

6� .11

6/2 D 29

36,

Transformationsformel: VarŒ3X C 5� D 32 � VarŒX� D 9 � 2936

D 294

.

Page 47: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.7 Zusammenfassung 519

Binomialverteilte (diskrete) ZufallsvariableX D k, k D 0; 1; 2; : : : ; n mit den Parametern n und p, kurz X � B.n; p/:

� Wahrscheinlichkeitsfunktion:

P.X D k/ D Pk.nI p/ WD

n

k

!

pk.1 � p/n�k ;

� Kenngrößen: EŒX� D np und VarŒX� D np.1 � p/.

Poisson-verteilte (diskrete) ZufallsvariableX D k, k D 0; 1; 2; : : : mit Parameter � > 0, kurz X � ˘.�/:

� Wahrscheinlichkeitsfunktion:

P.X D k/ D �k

kŠe�� für k D 0; 1; 2; : : : ;

� Kenngrößen: EŒX� D � und VarŒX� D �.

Normalverteilte (stetige) Zufallsvariable X

kurz X � N.�; �2/:

� Dichtefunktion (� 2 R, � 2 RC):

'.t; �; �/ WD 1

�p

2�e�

.t��/2

2�2 ;

� Verteilungsfunktion: ˚.x; �; �/ WD R x

�1 '.t; �; �/ dt;

� Kenngrößen: EŒX� D � und VarŒX� D �2.

Standardnormalverteilung (d. h. für� D 0 und � D 1):

˚.x/ D 1p2�

xZ

�1e�

t2

2 dt:

Gilt X � N.�; �2/, dann ist Y � N.0; 1/ mit Y D X���

. Es gilt dann

P.a < X � b/ D ˚

b � �

� ˚�a � �

:

Symmetriegleichung: ˚.�x/ D 1 � ˚.x/

Page 48: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

520 11 Wahrscheinlichkeitsrechnungund Statistik

Bsp. X � N.4; 4/, gesucht: P.2;5 � X � 8/

P.2;5 � X � 8/ D ˚

8 � 4

2

� ˚

2;5 � 4

2

D ˚.2/ � ˚.�0;75/

D ˚.2/ � .1 � ˚.0;75// D 0;9773 � 1 C 0;7734 D 0;7507:

Werte ˚.2/, ˚.0;75/ sind aus Tabelle für die Standardnormalverteilung.

11.8 Übungsaufgaben

Deskriptive Statistik1. Zeigen Sie die Verschiebungsformel S2 D x2 � x2:

2. Gegeben seien die Absatzdaten aus Übung 11.1.a) Erstellen Sie ein Histogramm mit Reduktionslage 480 und konstanter Klassen-

breite 5.b) Bestimmen Sie zur Dichtefunktion aus a) die empirische Verteilungsfunktion.

3. a) Stellen Sie die empirische Verteilungsfunktion des Aktienbeispiels, die zur Dichtemit Klassenbreite 1 gehört (Beispiel 11.4), dar. Ermitteln Sie dazu die nötigen„Stützpunkte“ in einer Tabelle.

b) Wie häufig lag der Kurs bei höchstens 49;8 Euro, wenn man die ermittelte Vertei-lung unterstellt?

c) Wo liegt, ausgehend von der Verteilung aus a), der Median? Warum unterscheidetsich dieser vom in Übung 11.2 berechneten Median?

4. Zeigen Sie, dass für die Koeffizienten der Regressionsgeraden zu y bzgl. x gilt: b DSxy=S2

x und a D y � bx, falls Sx > 0 (siehe Abschn. 11.2.3).

Wahrscheinlichkeitsrechnung1. Zeigen Sie die Rechenregeln c)–f) für Wahrscheinlichkeiten aus Abschn. 11.3.2.2. Ein Kreditinstitut hat in nachfolgender Tabelle die Liquiditätswahrscheinlichkeit einer

notleidenden Branche mit 500 Unternehmen über einen 5-Jahreszeitraum zusammen-gestellt:

Zeitraum noch liquide Untern. Liquid.wahrsch.

1 450 0,90

2 425 0,85

3 360 0,72

4 310 0,62

5 270 0,54

Stehe Ai dafür, dass ein Unternehmen nach i Jahren noch liquide ist, dann ist z. B.P.A5/ D 270=500 D 0;54. Wie groß ist die Wahrscheinlichkeit dafür, dass ein Unter-nehmen nach 5 Jahren noch liquide ist, wenn es nach drei Jahren noch nicht insolventwar?

Page 49: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.9 Lösungen 521

3. In Beispiel 11.10 (Bernoulli’sches Zufallsexperiment) sei nun n D 50. Wie klein mussdie Defekt-Wahrscheinlichkeit .1 � p/ mindestens sein, damit die Wahrscheinlichkeitdafür, dass das Gerät funktioniert, größer gleich 0;9 ist?

Zufallsvariable und Verteilungsfunktion1. Bei vielen Gesellschaftsspielen (z. B. Siedler von Catan) werden gleichzeitig zwei

Würfel geworfen. Abhängig von der Summe beider Würfelzahlen X kann der Spielerdann das weitere Spielgeschehen beeinflussen.a) Welche Zahl X ist am wahrscheinlichsten?b) Wie groß sind Erwartungswert, Varianz und Standardabweichung von X?c) Wie groß ist P.5 � X � 9/?

2. Zeigen Sie die Transformationsformelna) EŒaX C b� D aEŒX� C b,b) VarŒaX C b� D a2 � VarŒX�

[Hinweis: Für die Zufallsvariable Y WD aX C b gilt �2Y D EŒ.Y � �Y /2�.]

3. Berechnen Sie die Varianz aus Aufgabe 1b mittels Verschiebungsregel.4. Es sei X eine N.�; �2/-verteilte Zufallsvariable. Zeigen Sie, dass dann gilt:

P.jX � �j < �/ 68;26 %; P.jX � �j < 2�/ 95;46 %:

[Hinweis: Entnehmen Sie die nötigen Werte der Standardnormalverteilung aus einerTafel.]

11.9 Lösungen

Deskriptive Statistik1. Um die Formel zu beweisen, muss man in der Definitionsgleichung die Klammer aus-

multiplizieren und dann die Mittelwertbildung auf die entstandenen Faktoren einzelnanwenden:

1

n

nX

iD1

.xi � x/2 D 1

n

nX

iD1

x2i � 2xxi C x2

� D 1

n

nX

iD1

x2i � 2x

1

n

nX

iD1

xi C 1

n

nX

iD1

x2

D x2 � 2x � x C 1

nnx2 D x2 � x2:

2. a) Wir berechnen für die 7 Klassen (480 < x � 485, 485 < x � 490, 490 < x �495, 495 < x � 500, 500 < x � 505, 505 < x � 510, 510 < x � 515) zunächstdie relativen Häufigkeiten hi und daraus dann die Säulenhöhen hi =5:

Häufigkeit 2 6 10 9 8 4 1

rel. Häufigkeit hi 0,05 0,15 0,25 0,225 0,20 0,10 0,025

Rechteckhöhe hi =5 0,01 0,03 0,05 0,045 0,04 0,02 0,005

Das sich ergebende Histogramm zeigt Abb. 11.14.

Page 50: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

522 11 Wahrscheinlichkeitsrechnungund Statistik

Abb. 11.14 Histogramm mitSäulenbreite 5

482.5 487.5 492.5 497.5 502.5 507.5 512.5

0.01

0.02

0.03

0.04

0.05

x-Klassen

Abb. 11.15 Empirische Vertei-lungsfunktion OF .x/

480 490 500 510 520

0.2

0.4

0.6

0.8

1 Rel.HäufigkeitF(x)^

x

b) Entsprechend der Klasseneinteilung ergeben sich unsere Stützpunkte gemäß nach-folgender Tabelle:

xi -Werte 480 485 490 495 500 505 510 515

yi -Werte 0,000 0,050 0,200 0,450 0,675 0,875 0,975 1,000

Die daraus entstehende Graphik zeigt Abb. 11.15.3. Die Verteilungsfunktion ist eine stückweise lineare Funktion, die man graphisch dar-

stellen kann, indem man „Stützpunkte“ .�i ; yi /, i D 0; : : : ; k verwendet. Die �i ent-sprechen den Werten der Klasseneinteilung, stets ist .�0; y0/ D .�0; 0/ und für i � 1

sind die zugehörigen yi die kumulierten relativen Häufigkeiten yi D PijD1 hj .

a) Die benötigten „Stützpunkte“ von OF .x/ listet nachfolgende Tabelle auf:

xi -Werte 47,5 48,5 49,5 50,5 51,5 52,5

yi -Werte 0,00 0,08 0,36 0,68 0,88 1,00

Durch lineare Interpolation zwischen den „Stützpunkten“ ergibt sich OF .x/ gemäßAbb. 11.16.

b) Es ist OF .49;8/ D 225

C 725

C 49;8�49;550;5�49;5

� 825

D 0;456, also war der Kurs zu 45;6 %kleiner gleich 49;8. Diese Aussage gilt aber nur, wenn man unterstellt, dass dieAktienkurse gemäß OF .x/ verteilt sind!

Page 51: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.9 Lösungen 523

Abb. 11.16 Empirische Vertei-lungsfunktion OF .x/

47 48 49 50 51 52

0.2

0.4

0.6

0.8

1

x

F(x)^

53

Rel.Häufigkeit

Abb. 11.17 Venn-Diagrammder unvereinbaren Ereignissse

\ \A B A B B A

c) Unter Benutzung der Tabelle aus Teil a) erhält man die Bestimmungsgleichung0;5 D OF .x0;5/ D 0;36 C .x � 49;5/=1 � 0;32 und daraus x0;5 D 49;94. Tatsächlichliegen 12 Aktienkurse unter diesem Wert, 13 darüber. Je nach Klasseneinteilungergeben sich leicht unterschiedliche Mediane, da dann verschiedene Wahrschein-lichkeitsfunktionen zugrunde liegen.

4. Wenn wir aus Notationsgründen Mittelwerte durch „gequerte“ Größen (x D.1=n/

PniD1 xi , etc.) bezeichnen, so wird aus den Normalgleichungen von Ab-

schn. 11.2.3 nach Division durch n

a C xb D y; xa C x2b D xy:

Auflösen der ersten Gleichung nach a liefert a D y�bx. Setzt man letzteren Ausdruckin die zweite Gleichung ein, so ergibt sich

x.y � bx/ C x2b D xy ” b.x2 � x2/ D xy � xy:

Hieraus folgt unter Beachtung von S2x D x2 � x2 (Verschiebungsformel) die Behaup-

tung b D .xy � xy/=.x2 � x2/ D Sxy=S2x .

Wahrscheinlichkeitsrechnung1. a) Offensichtlich gilt A D .A n B/ [ .A \ B/. Da A n B und A \ B unvereinbar sind,

folgt aus dem dritten Axiom von Kolmogoroff: P.A/ D P.A n B/ C P.A \ B/

und damit die Regel c).b) Gemäß dem Venn-Diagramm der Abb. 11.17 lässt sich das Ereignis A [ B als

Vereinigung dreier unvereinbarer Ereignisse schreiben:

A [ B D .A n B/ [ .A \ B/ [ .B n A/:

Page 52: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

524 11 Wahrscheinlichkeitsrechnungund Statistik

Nach Regel c) gilt aber P.A n B/ D P.A/ � P.A \ B/ und P.B n A/ D P.B/ �P.A \ B/. Daraus folgt nun

P.A [ B/ D P.A n B/ C P.A \ B/ C P.B n A/

D P.A/ � P.A \ B/ C P.A \ B/ C P.B/ � P.A \ B/

D P.A/ C P.B/ � P.A \ B/:

c) Wegen P.A/ C P.A/ D 1 (Regel a)!), P.A/ � 0 und P.A/ � 0 (erstes Kolmo-goroff’sches Axiom) muss P.A/ � 1 gelten.

d) Wegen A � B lässt sich das Ereignis B als Vereinigung zweier unvereinbarerEreignisse schreiben: A [ .B n A/ D B . Anwendung des dritten Axioms liefertsomit P.A/ C P.B n A/ D P.B/. Da P.B n A/ � 0 (erstes Kolmogoroff’schesAxiom!) folgt die behauptete Monotonie.

2. Aus der Tabelle entnimmt man P.A3/ D 0;72 und P.A5 \A3/ D P.A5/ D 0;54. Fürdie gesuchte bedingte Wahrscheinlichkeit ergibt sich damit P.A5jA3/ D P.A5\A3/

P.A3/D

0;540;72

D 0;75.Diesen Wert erhält man übrigens auch, wenn man die relative Häufigkeit für diesesEreignis direkt aus der Tabelle ermittelt: 270=360 D 0;75. Die bedingte Wahrschein-lichkeit lässt sich hier interpretieren als die relative Häufigkeit, dass ein Unternehmen5 Jahre liquide bleibt, bezogen auf die Menge aller nach 3 Jahren noch liquiden Un-ternehmen.

3. In Beispiel 11.10 wurde bereits gezeigt, dass P.A/ D pn gilt. Daher ist zu fordern:p50 � 0;9 ” p � 50

p0;9. Für die Defekt-Wahrscheinlichkeit folgt daraus 1�p �

1 � 50p

0;9 0;002105.

Zufallsvariable und Verteilungsfunktion1. a) Wir definieren die diskrete Zufallsvariable X W ˝ ! Œ2; 12� durch X D i C j ,

wobei i; j die Augenzahlen der beiden Würfel sind. Die zu X gehörende Wahr-scheinlichkeitsfunktion f .x/ ergibt sich durch Abzählen der entsprechenden Wür-felkombinationen (von denen es insgesamt 36 gibt) zu:

xi 2 3 4 5 6 7 8 9 10 11 12

f .xi / 136

236

336

436

536

636

536

436

336

236

136

Weil für xi D 7 die Wahrscheinlichkeitsfunktion f ein Maximum hat, ist dieZahl 7 am wahrscheinlichsten.

b) Für den Erwartungswert gilt:

�X D 2 � 1

36C3 � 2

36C4 � 3

36C5 � 4

36C : : :C9 � 4

36C10 � 3

36C11 � 2

36C12 � 1

36D 7:

Page 53: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

11.9 Lösungen 525

Nun lässt sich die Varianz berechnen:

�2X D 1

36

.2 � 7/2 � 1 C .3 � 7/2 � 2 C : : : C .11 � 7/2 � 2 C .12 � 7/2 � 1�

D 210

36D 5;83:

Die Standardabweichung ist �X Dp

5;83 2;4152.c) Es ist P.5 � X � 9/ D P9

kD5 P.X D k/ D 2436

D 0;6.2. a) Im diskreten Fall ergibt sich unmittelbar aus der Definition:

EŒaX C b� DX

i

.axi C b/f .xi / D aX

i

xif .xi /

„ ƒ‚ …

DEŒX

CbX

i

f .xi /

„ ƒ‚ …

D1

D aEŒX� C b;

während im stetigen Fall ebenfalls unmittelbar aus der Definition folgt:

EŒaX C b� D1Z

�1.ax C b/f .x/ dx

D a

1Z

�1xf .x/ dx

„ ƒ‚ …

DEŒX

Cb

1Z

�1f .x/ dx

„ ƒ‚ …

D1

D aEŒX� C b:

b) Gemäß ihrer Definition kann man die Varianz auffassen als Erwartungswert derZufallsvariablen .X � �X/2: �2

X D EŒ.X � �X /2�. Man setzt Y WD aX C b undverifiziert die Transformationsformel unter Beachtung von �Y D a�X C b undVarŒaX C b� D VarŒY � D EŒ.Y � �Y /2�:

EŒ.Y � �Y /2� D EŒ.aX C b � .a�X C b//2� D EŒa2.X � �X /2�

D a2EŒ.X � �X /2� D a2VarŒX�:

3. Wir müssen zunächst EŒX2� berechnen:

�X2 D 1

36.22 � 1 C 32 � 2 C 42 � 3 C 52 � 4 C : : : C 92 � 4

C 102 � 3 C 112 � 2 C 122 � 1/ D 54;83:

Wegen �X D 7 ergibt sich nun �2x D �X2 � �2

X D 54;83 � 72 D 5;83.

Page 54: [Springer-Lehrbuch] Mathematik kompakt || Wahrscheinlichkeitsrechnung und Statistik

526 11 Wahrscheinlichkeitsrechnungund Statistik

4. X ist normalverteilt mit Parametern � und � . Anwendung der Formel P.a < X �b/ D ˚.b��

�/ � ˚.a��

�/ liefert:

P.jX � �j < �/ D P.� � � < X < � C �/ D ˚

� C � � �

� ˚�� � � � �

D ˚.1/ � ˚.�1/ D ˚.1/ � .1 � ˚.1// D 2˚.1/ � 1

2 � 0;8413 � 1 D 0;6826:

Analog berechnet man P.jX � �j < 2�/ D 2˚.2/ � 1 2 � 0;9773 � 1 D 0;9546.


Recommended