Home >Documents >Wahrscheinlichkeitsrechnung und Statistik - staff.uni-mainz.de ne Blutprobe, Blitze pro Gewit-ter,...

Wahrscheinlichkeitsrechnung und Statistik - staff.uni-mainz.de ne Blutprobe, Blitze pro Gewit-ter,...

Date post:07-Sep-2019
Category:
View:0 times
Download:0 times
Share this document with a friend
Transcript:
  • Anhang A

    Wahrscheinlichkeitsrechnung und Statistik

    c© Copyright 2006 Friederike Schmid1

    1Prof. Dr. Christhard Schmid, Anhang zur Vorlesung Thermodynamik und Statistische Physik (I) von Prof. Dr. Friederike Schmid, Universität Bielefeld, WS 2006/2007. Letzte Ände- rung der PDF-Datei am 01.03.2007.

    1

  • 2 ANHANG A. WAHRSCHEINLICHKEITSRECHNUNG/STATISTIK

    A.1 Allgemeines

    A.1.1 Kombinatorik

    Allgemein: Klassische Wahrscheinlichkeiten werden in der Regel mit den Me- thoden der Kombinatorik berechnet:

    • Aus N verschiedenen Elementen lassen sich n verschiedene Elemente

    – herausgreifen (ohne Rücksicht auf Anordnung) ( ” Kombinationen“)

    auf N(N − 1) · · · (N − n+ 1)

    n! =

    N !

    n!(N − n)! =

    ( N

    n

    ) (A.1)

    verschiedene Weisen.

    – herausgreifen und anordnen ( ” Variationen“)

    auf

    ( N

    n

    ) n! =

    N !

    (N − n)! verschiedene Weisen. (A.2)

    • Darf von N verschiedenen Elementen jedes beliebig oft vorkommen, so lassen sich n Elemente

    – herausnehmen ( ” Kombinationen mit Wiederholung“)

    auf

    ( N+n−1

    n

    ) = N(N + 1)(N + 2) · · · (N + n− 1)

    n! (A.3)

    verschiedene Weisen.

    – herausnehmen und anordnen ( ” Variationen mit Wiederholung“)

    auf Nn verschiedene Weisen. (A.4)

    A.1.2 Charakterisierung von Verteilungen

    Dichteverteilung fZ(z): Haupttext, Kapitel ??, Gl. (??)

    Normiert nach

    ∫ ∞ −∞

    dzfZ (z) = 1. (A.5)

    (Kumulative) Verteilungsfunktion FZ(z): Haupttext, Kapitel ??, Gl. (??)

    FZ (z) =

    ∫ z −∞

    dξfZ (ξ) bzw. fZ (z) = d

    dz FZ (z). (A.6)

    (vgl. Haupttext, Gleichung (??).)

    Charakteristische Funktion χ Z

    (k): Haupttext, Kapitel ??, Gl. (??)

    χ Z

    (k) = 〈eikZ〉 = ∞∫ −∞

    dz fZ (z)e ikz (A.7)

  • A.1. ALLGEMEINES 3

    Momente 〈Zn〉: Haupttext, Kapitel ??, Gl. (??)

    〈Zn〉 = 1 in

    dn

    dkn χ Z

    (k) ∣∣∣ k=0

    (A.8)

    Kumulanten C(n) Z

    : Haupttext, Kapitel ??, Gl. (??)

    C(n) Z

    = 1

    in dn

    dkn ln(χ

    Z (k))

    ∣∣∣ k=0

    (A.9)

    Ausführlichere Diskussion der Kumulanten siehe Abschnitt ??.1 (iii)

    Zentrale Momente Nach dem binomischen Satz ist (a und b beliebig reell)

    〈(Z−a)k〉=〈(Z−b+b−a)k〉 = i∑ i=0

    (ki)〈(Z−b) k−i)〉(b−a)i

    Setze a=0, b=〈Z〉: 〈Zk〉︸︷︷︸ Momente

    = k∑ i=0

    (ki) 〈(Z − 〈Z〉) k−i︸ ︷︷ ︸

    Zentrale Momente

    〉·〈Z〉i (A.10)

    a=〈Z〉,b=0: 〈(Z − 〈Z〉)k〉︸ ︷︷ ︸ ” Zentrale

    Momente“

    = k∑ i=0

    (−1)k ( k

    i

    ) 〈Zk−i〉 · 〈Z〉i︸ ︷︷ ︸

    Momente

    (A.11)

    〈(Z − 〈Z〉)2〉 = 〈Z2〉 − 〈Z〉2 = σ2 Z

    〈(Z − 〈Z〉)3〉 = 〈Z3〉 − 3〈Z2〉〈Z〉+ 2〈Z〉3 (A.12) 〈(Z − 〈Z〉)4〉 = 〈Z4〉 − 4〈Z3〉〈Z〉+ 6〈Z2〉〈Z〉2 − 3〈Z〉4 (A.13)

    Quantile Als p-Quantil oder p-Fraktil (0 < p < 1) einer Zufallsgröße Z mit der Verteilungsfunktion FZ (z) bezeichnet man jede Zahl zp , für die FZ (zp) ≤ p ≤ FZ (zp + 0) gilt. Ist FZ (z) streng monoton wachsend, wie es zutrifft für die Gaußverteilung und alle in Kapitel A.3 behandelten kontinuierli- chen Verteilungen (Chiquadrat, Student etc.), so ist zp bei beliebigem p eindeutig bestimmt durch die Umkehrfunktion

    FZ (zp) = p ⇔ zp = F −1 Z

    (p) (A.14)

    Wichtige Spezialfälle der Quantile erhält man für p = 12 , 1 4 ,

    3 4 , die Median

    (median), unteres Quartil (lower quartile), oberes Quartil (upper quartile) genannt werden. Die Quantile haben bei der Berechnung von Prognose- und Konfidenzintervallen besondere Bedeutung. Alle diese Berechnungen basieren auf der Identität

    P ( F −1

    Z (p1) < Z ≤ F

    −1

    Z (1− p2)

    ) = 1− (p1 + p2) =: 1− α (A.15)

    Beweis: P ( F −1

    Z (p1 )︸ ︷︷ ︸ a

    < Z ≤ F −1

    Z (1− p2 )︸ ︷︷ ︸ b

    ) (??) = FZ (b)︸ ︷︷ ︸

    1−p 2

    −FZ (a)︸ ︷︷ ︸ p 1

    X

  • 4 ANHANG A. WAHRSCHEINLICHKEITSRECHNUNG/STATISTIK

    A.2 Eindimensionale diskrete Verteilungen

    A.2.0 Tabelle der diskreten Verteilungen (A.16)

    1 2 3 4

    Verteilungsdichtefunktion Mittelwert Streuung Char.Funktion fZ (z) = 〈δ(z − Z)〉 〈Z〉 〈Z2〉 − 〈Z〉2 χZ (k) = 〈e

    ikZ〉 a

    Einpunkt- Verteilung

    δ(z−a) a 0 eika b

    n-Punkt- Verteilung

    n∑ i=1

    piδ(z−ai) mit n∑ i=1

    pi = 1 n∑ i=1

    piai n∑ i=1

    pia 2 i −

    ( n∑ i=1

    piai

    )2 n∑ i=1

    pie ikai c

    Hypergeo- metrische Verteilung

    min(M,n)∑ m=max

    (0,n+M−N)

    δ(z−m) ( M m

    )( N−M n−m

    ) ( N n

    ) Mn N

    Mn(N−M)(N−n) N2(N−1) d

    Negative hyperg.V.

    m+N−n∑ n=m

    δ(z−n) ( n−1 m−1

    )( N−n M−m

    ) ( N M

    ) m(N+1) M+1

    m(N−M)(N+1)(M+1−m) (M+1)2(M+2)

    e

    Binomial- Verteilung

    N∑ m=0

    δ(z−m) (N m

    ) pm(1−p)N−m Np Np(1−p) [1−p(1−eik)]N f

    Poisson- Verteilung

    ∞∑ m=0

    δ(z−m)e−λ λ m

    m! λ λ exp

    ( λ(eik−1)

    ) g

    negative Binomialv.

    ∞∑ m=0

    δ(z−m) (v+m−1

    m

    ) qm(1−q)v vq

    1−q vq

    (1−q)2 ( 1−q

    1−qeik ) v h

    geometr. Verteilung

    ∞∑ m=0

    δ(z−m)qm(1− q) q 1−q

    q (1−q)2

    1−q 1−qeik i

  • A.2. EINDIMENSIONALE DISKRETE VERTEILUNGEN 5

    A.2.1 Die hypergeometrische Verteilung

    Gegeben Schüssel mit (N−M) weißen und M schwarzen Kugeln. Ziehe n davon: Mit welcher Wahrscheinlichkeit P (m) erwischt man dabei genau m schwarze Kugeln?

    P (m) =

    ( M

    m

    )( N −M n−m

    )/(N n

    ) Hypergeometrische Ver- teilung (siehe Plot ??)

    (A.17)

    Plot ??: P (m) von (A.17)

    Anwendung in der statistischen Qua-

    litätskontrolle: P (m) = Wahrscheinlich-

    keit dafür, dass eine Stichprobe vom

    Umfang n, die man aus einer Charge von

    N Einheiten, davon M (zugegebenerma-

    ßen) fehlerhaft, zieht, genau m fehler-

    hafte Einheiten enthält. (Z.B. links: Ein

    Befund m ≥ 5 wäre ” signifikant“ (d.h.

    P < 0.05) für M > 12.)

    (Be-

    weis: Es gibt (N n

    ) Möglichkeiten, aus N Kugeln n auszuwählen (= Anzahl der möglichen Ereignisse).

    Günstig davon sind solche Ereignisse, in denen m Kugeln schwarz und n−m Kugeln weiß sind. In der Schüssel sind M schwarze und N −M weiße, und es gibt

    (M m

    ) bzw.

    (N−M n−m

    ) Möglichkeiten, m schwarze

    bzw. n−m weiße Kugeln aus den M bzw. N −M vorhandenen herauszuziehen. Jede Möglichkeit für schwarz kann mit jeder Möglichkeit für weiß kombiniert werden, sodass für das betrachtete Ereignis(M m

    )(N−M n−m

    ) Fälle günstig sind. X)

    A.2.2 Die negative hypergeometrische Verteilung

    Gegeben Schüssel mit (N−M) weißen und M schwarzen Kugeln. Ziehe solange, bis m schwarze gezogen sind: Mit welcher Wahrscheinlichkeit P (n) werden dabei genau n Kugeln entnommen?

    P (n) =

    ( n− 1 m− 1

    )( N − n M −m

    )/(N M

    ) negative (inverse) hyper- geometrische Verteilung

    (A.18)

    (Beweis?)

    Anwendung: Optimales Stoppen stochastischer Prozesse

  • 6 ANHANG A. WAHRSCHEINLICHKEITSRECHNUNG/STATISTIK

    A.2.3 Die Binomialverteilung

    Modell: Bernoulli-Experiment (Bernoulli trial) = Serie von unabhängigen Ver- suchswiederholungen, wobei man sich nur dafür interessiert, ob ein

    ” Er-

    folg“ eingetreten ist oder nicht. P (n) = Wahrscheinlichkeit dafür, dass bei N-maliger unabhängiger Wie- derholung eines Versuchs mit der Erfolgswahrscheinlichkeit p genau n Er- folge eintreten.

    P (n) = pn(1− p)N−n ( N

    n

    ) Binomialverteilung (siehe Plot ??)

    (A.19)

    Plot ??: P (n) von (A.19)

    Anwendungen: u.a. in der statisti-

    schen Qualitätskontrolle (Appro-

    ximation der hypergeometrischen

    Verteilung im Fall, dass sehr weni-

    ge (etwa 5%) Kugeln gezogen wer-

    den - dann spielt das Zurücklegen

    keine Rolle).

    NB: Zwei Approximationen der Binomialverteilung:

    N groß, p nicht sehr nahe bei 0 oder 1

    (??)⇒ P (n) ≈ 1 σ √

    2π e−

    (n−µ)2

    2σ2

    Gaußverteilung (vgl.A.3.1) mit µ = Np, σ2 = Np(1− p)

    (A.20)

    N →∞, p→ 0, Np = const.

    (A.23)⇒ P (n)→ e−λλ n

    n!

    Poissonverteilung (vgl. A.2.4) mit λ = Np

    (A.21)

  • A.2. EINDIMENSIONALE DISKRETE VERTEILUNGEN 7

    A.2.4 Die Poissonverteilung

    Grenzfall der Binomialverteilung N → ∞, p → 0, Np = λ (Siméon Denis Poisson 1837)

    ⇒ P (n)→ e−λλ n

    n! Poisson-Verteilung (siehe Plot ??) (A.22)

    (Beweis: P (n) = ( λ N

    )n(1− λ N

    )N−n (N n

    ) = λn (1−

    λ

    N )N︸ ︷︷ ︸

    →e−λ

    (1− λ

    N )−n︸ ︷︷

Click here to load reader

Embed Size (px)
Recommended