Post on 06-Feb-2018
transcript
Formeln und Notizen
Nachrichtenübertragung
Florian Franzmann∗
7. April 2009, 23:54 Uhr
Abbildungsverzeichnis
1. A-law-Kompressorkennlinie . . . . . . . . . . . . . . . . . . . . 362. Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . 583. Das komplementäre gauß’sche Fehlerintegral . . . . . . . . . . . 694. Korrelationsfunktionen und Leistungsdichtespektren . . . . . . 845. Typisches Szenario zur Wiener Filterung . . . . . . . . . . . . . 956. rect- und sinc-Funktion . . . . . . . . . . . . . . . . . . . . . . 997. Konvergenzbereich diskreter LTI-Systeme . . . . . . . . . . . . 102
Tabellenverzeichnis
1. Bandbegrenzung einiger Beispielanwendungen . . . . . . . . . . 112. Eckdaten von PAL . . . . . . . . . . . . . . . . . . . . . . . . . 123. Merktabelle für Pegelmaße . . . . . . . . . . . . . . . . . . . . . 134. Kenngrößen elektrischer Signale . . . . . . . . . . . . . . . . . . 155. Beispiele für Spitzenwertfaktoren ζ0 . . . . . . . . . . . . . . . 166. Typische Signaldynamik . . . . . . . . . . . . . . . . . . . . . . 177. Typische Frequenz und Wellenlänge . . . . . . . . . . . . . . . 198. Typische Sendeleistungen . . . . . . . . . . . . . . . . . . . . . 209. Typische Empfangsleistungen . . . . . . . . . . . . . . . . . . . 20
∗siflfran@hawo.stw.uni-erlangen.de
1
Inhaltsverzeichnis
10. Effektive Wirkfläche einiger Antennentypen . . . . . . . . . . . 2111. Beispielwerte für β aus Formel 40 auf Seite 22 . . . . . . . . . . 2212. Hochfrequenz- und ECB-Signal amplitudenmodulierter Signale 2413. Eigenschaften amplitudenmodulierter Signale . . . . . . . . . . 2414. Signal-Störabstand für AM beim AWGN-Kanal . . . . . . . . 2615. Eigenschaften winkelmodulierter Signale . . . . . . . . . . . . . 2816. Kennzeichen digitaler Übertragungssysteme . . . . . . . . . . . 4517. Parameter des AWGN-Kanals . . . . . . . . . . . . . . . . . . 4618. Parameter eines Kanalcodes . . . . . . . . . . . . . . . . . . . . 4619. Parameter eines diskreten Modulationsverfahrens . . . . . . . . 4820. Beispiele für Minimale Euklidische Distanzen . . . . . . . . . . 5221. Teile von Einheiten . . . . . . . . . . . . . . . . . . . . . . . . . 5522. Vielfache von Einheiten . . . . . . . . . . . . . . . . . . . . . . 5623. Trigonometrische Funktionen – Funktionswerte besonderer Winkel 5824. Potenzen der imaginären Einheit . . . . . . . . . . . . . . . . . 6325. Bekannte Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . 6526. Korrespondenzen der Fourier-Transformation . . . . . . . . . . 9626. Korrespondenzen der Fourier-Transformation . . . . . . . . . . 9726. Korrespondenzen der Fourier-Transformation . . . . . . . . . . 9827. Sätze der Fourier-Transformation . . . . . . . . . . . . . . . . . 10028. Korrespondenzen der zweiseitigen z-Transformation . . . . . . . 10230. Korrespondenzen der Hilbert-Transformation . . . . . . . . . . 104
Inhaltsverzeichnis
1. Nachrichtenübertragung 111.1. Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . 11
1.1.1. Pegelrechnung . . . . . . . . . . . . . . . . . . . . . . . 111.1.1.1. dBm . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2. Bewertungskriterien für Übertragungsverfahren . . . . . 111.1.3. Wirkungsgrad . . . . . . . . . . . . . . . . . . . . . . . . 141.1.4. Anwendung von Codierverfahren . . . . . . . . . . . . . 14
1.1.4.1. Quellencodierung . . . . . . . . . . . . . . . . 141.1.4.2. Kanalcodierung . . . . . . . . . . . . . . . . . 14
1.2. Quellensignale und deren Modellierung . . . . . . . . . . . . . . 141.2.1. Analoge Quellensignale . . . . . . . . . . . . . . . . . . 14
1.2.1.1. Primäres Quellensignal . . . . . . . . . . . . . 141.2.1.2. Aussteuergrad . . . . . . . . . . . . . . . . . . 14
2
Inhaltsverzeichnis
1.2.1.3. Aussteuerpegel . . . . . . . . . . . . . . . . . . 141.2.1.4. Äquivalente Störung infolge Spitzenwertbegren-
zung . . . . . . . . . . . . . . . . . . . . . . . . 141.2.1.5. Soft-Limiter . . . . . . . . . . . . . . . . . . . 141.2.1.6. WDF der äquivalenten Störung . . . . . . . . . 161.2.1.7. Leistung NL der Störung nL . . . . . . . . . . 161.2.1.8. SNR durch Spitzenwertbegrenzung (SNRL) . . 161.2.1.9. SNR des Verbrauchersignals (SNRv) . . . . . . 171.2.1.10. Signaldynamik . . . . . . . . . . . . . . . . . . 171.2.1.11. Normiertes Quellensignal . . . . . . . . . . . . 18
1.2.2. Digitale Quellensymbolsequenzen . . . . . . . . . . . . . 181.2.2.1. Informationsfluß . . . . . . . . . . . . . . . . . 18
1.3. Übertragungskanäle und deren Modellierung . . . . . . . . . . 181.3.1. Übertragungsmedien . . . . . . . . . . . . . . . . . . . . 18
1.3.1.1. Übertragungsfunktion kabelgebundener Über-tragung . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1.2. Fern- und Nahnebensprechen in vielpaarigen Ka-beln . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1.3. Funkübertragung – Modell der Freiraumausbrei-tung . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.2. Störmodelle . . . . . . . . . . . . . . . . . . . . . . . . . 221.3.2.1. Thermisches Rauschen . . . . . . . . . . . . . 221.3.2.2. Verstärkerrauschen . . . . . . . . . . . . . . . . 221.3.2.3. Whitening Filter . . . . . . . . . . . . . . . . . 23
1.4. Modulationsverfahren zur Übertragung analoger Signale . . . . 231.4.1. Bandbreiteneffizienz . . . . . . . . . . . . . . . . . . . . 231.4.2. Banderweiterungsfaktor . . . . . . . . . . . . . . . . . . 23
1.5. Demodulationsverfahren . . . . . . . . . . . . . . . . . . . . . . 231.5.1. Synchrondemodulation . . . . . . . . . . . . . . . . . . . 231.5.2. Einhüllendendemodulation . . . . . . . . . . . . . . . . 251.5.3. Einfluß additiver Störungen . . . . . . . . . . . . . . . . 25
1.5.3.1. HF-Störabstand . . . . . . . . . . . . . . . . . 251.5.3.2. Vergleichsstörabstand . . . . . . . . . . . . . . 251.5.3.3. NF-Störabstand . . . . . . . . . . . . . . . . . 251.5.3.4. Modulationsgewinn . . . . . . . . . . . . . . . 25
1.5.4. Störabstand infolge Spitzenwertbegrenzung und additi-ver Störung . . . . . . . . . . . . . . . . . . . . . . . . 27
1.6. Winkelmodulation . . . . . . . . . . . . . . . . . . . . . . . . . 271.6.1. Momentanfrequenz . . . . . . . . . . . . . . . . . . . . . 271.6.2. Frequenzhub . . . . . . . . . . . . . . . . . . . . . . . . 27
3
Inhaltsverzeichnis
1.6.3. Phasenhub . . . . . . . . . . . . . . . . . . . . . . . . . 271.6.4. Spektrum FM-modulierter Signale . . . . . . . . . . . . 271.6.5. Carson-Formel . . . . . . . . . . . . . . . . . . . . . . . 291.6.6. Näherung an das LDS nach Woodward . . . . . . . . . . 291.6.7. Effektiver Frequenzhub bei FM . . . . . . . . . . . . . . 291.6.8. Einfluß von Störungen . . . . . . . . . . . . . . . . . . . 29
1.6.8.1. HF-Störleistung . . . . . . . . . . . . . . . . . 291.6.8.2. HF-Störleistungsverhältnis . . . . . . . . . . . 291.6.8.3. NF-Störleistungsverhältnis . . . . . . . . . . . 291.6.8.4. FM-Schwelle . . . . . . . . . . . . . . . . . . . 30
1.6.9. Preemphase . . . . . . . . . . . . . . . . . . . . . . . . . 301.6.9.1. Optimales Preemphasefilter . . . . . . . . . . . 301.6.9.2. Optimales Signalstörleistungsverhältnis . . . . 301.6.9.3. Gewinn durch Preemphase . . . . . . . . . . . 30
1.7. Analoge Pulsamplitudenmodulation (PAM) . . . . . . . . . . . 311.7.1. PAM-Sendesignal . . . . . . . . . . . . . . . . . . . . . . 311.7.2. Mittlere Autokorrelationsfunktion . . . . . . . . . . . . 311.7.3. Mittleres Leistungsdichtespektrum . . . . . . . . . . . . 311.7.4. Spezialfälle des Leistungsdichtespektrums . . . . . . . . 31
1.8. Pulscodemodulation (PCM) . . . . . . . . . . . . . . . . . . . . 321.8.1. Nachrichtenfluß . . . . . . . . . . . . . . . . . . . . . . . 321.8.2. Mittlere Leistung des Quantisierungsgeräusch . . . . . . 321.8.3. Optimale Quantisierung nach Lloyd und Max . . . . . . 321.8.4. Näherung an die optimale Quantisierung . . . . . . . . . 331.8.5. Mittlere Quantisierungsgeräuschleistung . . . . . . . . . 331.8.6. Zeitdiskretes Quantisierungsgeräusch . . . . . . . . . . . 331.8.7. Störabstand bei gleichmäßiger Quantisierung . . . . . . 341.8.8. Kompandierung . . . . . . . . . . . . . . . . . . . . . . . 34
1.8.8.1. Quantisierungsgeräuschleistung . . . . . . . . . 341.8.8.2. Optimale Kompressorkennlinie . . . . . . . . . 341.8.8.3. Quantisierungsgeräuschleistung im Optimalfall 341.8.8.4. Gewinn bei optimaler Kompandierung . . . . . 351.8.8.5. Störabstand bei optimaler Kompandierung . . 351.8.8.6. Logarithmische Kompandierung mit A-Law . . 361.8.8.7. Abschnittsweise gleichmäßige Quantisierung . 371.8.8.8. Überabtastverfahren zur Signalrekonstruktion 37
1.8.9. Einfluß von Übertragungsfehlern auf das PCM-Signal . 381.8.9.1. Bit Error Rate (BER) . . . . . . . . . . . . . . 381.8.9.2. Word Error Rate (WER) . . . . . . . . . . . . 381.8.9.3. WER für den BSC . . . . . . . . . . . . . . . . 39
4
Inhaltsverzeichnis
1.8.9.4. Wahrscheinlichkeit für e Fehler in einem Wort 391.8.9.5. Leistung des Fehlersignals . . . . . . . . . . . . 39
1.9. PCM-Schwelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391.10. Vergleichssignalstörleistungsverhältnis . . . . . . . . . . . . . . 39
1.10.1. Vergleichsstörabstand . . . . . . . . . . . . . . . . . . . 391.10.2. Spektrale Effizienz (digital) . . . . . . . . . . . . . . . . 40
1.11. Übertragung analoger Signale mittels PCM . . . . . . . . . . . 401.11.1. Signalstörleistungsverhältnis . . . . . . . . . . . . . . . . 401.11.2. Spektrale Effizienz . . . . . . . . . . . . . . . . . . . . . 401.11.3. HF-Störleistungsverhältnis . . . . . . . . . . . . . . . . . 401.11.4. Vergleichssignalstörleistungsverhältnis . . . . . . . . . . 401.11.5. Shannon-Grenze . . . . . . . . . . . . . . . . . . . . . . 40
1.12. Differenzielle Pulscodemodulation (DPCM) . . . . . . . . . . . 401.12.1. Lineare Prädiktion . . . . . . . . . . . . . . . . . . . . . 401.12.2. Yule-Walker-Gleichung . . . . . . . . . . . . . . . . . . . 41
1.12.2.1. 0. Grades . . . . . . . . . . . . . . . . . . . . . 411.12.2.2. 1. Grades . . . . . . . . . . . . . . . . . . . . . 411.12.2.3. Beliebigen Grades . . . . . . . . . . . . . . . . 41
1.12.3. Leistung des Prädiktionsfehlers . . . . . . . . . . . . . . 421.12.4. Leistungsgewinn durch optimale Prädiktion . . . . . . . 421.12.5. Maximaler Gewinn durch lineare Prädiktion . . . . . . . 421.12.6. Vorwärtsprädiktion . . . . . . . . . . . . . . . . . . . . . 421.12.7. Rückwärtsprädiktion . . . . . . . . . . . . . . . . . . . . 421.12.8. DPCM mit logarithmischer Kompandierung . . . . . . . 431.12.9. Einfluß von Übertragungsfehlern . . . . . . . . . . . . . 431.12.10.∆-Modulation . . . . . . . . . . . . . . . . . . . . . . . 43
1.12.10.1.Störungen . . . . . . . . . . . . . . . . . . . . . 431.12.11.Adaptive ∆-Modulation . . . . . . . . . . . . . . . . . . 441.12.12.Σ∆-Modulation . . . . . . . . . . . . . . . . . . . . . . . 44
1.13. Shannon-Grenze . . . . . . . . . . . . . . . . . . . . . . . . . . 441.13.1. Austausch von Leistungs- und Bandbreiteneffizienz . . . 441.13.2. Kanalkapazität . . . . . . . . . . . . . . . . . . . . . . . 44
1.14. Kanalcodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . 441.14.1. Systematische Codierung . . . . . . . . . . . . . . . . . 441.14.2. Zuordnung . . . . . . . . . . . . . . . . . . . . . . . . . 441.14.3. Mapping-Redundanz . . . . . . . . . . . . . . . . . . . . 47
1.15. Modulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471.15.1. Rate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471.15.2. Rate eines Modulationsverfahrens Rm . . . . . . . . . . 471.15.3. Signalformung . . . . . . . . . . . . . . . . . . . . . . . 49
5
Inhaltsverzeichnis
1.15.4. Rate eines digitalen Übertragungsverfahrens . . . . . . . 491.16. Digitale Pulsamplitudenmodulation . . . . . . . . . . . . . . . . 49
1.16.1. Impulsformer . . . . . . . . . . . . . . . . . . . . . . . . 491.16.2. Grundimpulsform der PAM . . . . . . . . . . . . . . . . 49
1.16.2.1. Energie des Grundimpulses . . . . . . . . . . . 491.16.2.2. Leistungsdichtespektrum der zeitdiskreten Folge 501.16.2.3. Leistungsdichtespektrum des PAM-Signals . . 501.16.2.4. Spitzenwertfaktor des PAM-Signals . . . . . . 50
1.16.3. Signalangepaßtes Filter . . . . . . . . . . . . . . . . . . 501.16.4. ISI-freie PAM-Übertragung über den AWGN-Kanal . . 50
1.16.4.1. Detektionssignal . . . . . . . . . . . . . . . . . 501.16.4.2. Störsignal . . . . . . . . . . . . . . . . . . . . . 511.16.4.3. 1. Nyquist-Kriterium . . . . . . . . . . . . . . 511.16.4.4.
√Nyquist-Impuls . . . . . . . . . . . . . . . . 51
1.16.5. Detektion und Decodierung für digitale PAM-Signale . . 511.16.5.1. MAP-Regel . . . . . . . . . . . . . . . . . . . . 511.16.5.2. ML-Regel . . . . . . . . . . . . . . . . . . . . . 521.16.5.3. Metrik eines Codeworts ~c . . . . . . . . . . . . 521.16.5.4. Normierte Euklidische Distanz . . . . . . . . . 52
1.16.6. Fehlerwahrscheinlichkeit bei kohärenter Demodulation . 521.16.6.1. ML-Detektion ohne Kanalcodierung . . . . . . 521.16.6.2. Kapazität des AWGN-Kanals . . . . . . . . . . 531.16.6.3. Leistungs-Raten-Diagramm für digitale PAM . 531.16.6.4. Leistungs-Bandbreiten-Diagramm für digitale PAM 531.16.6.5. Kanalcodierung . . . . . . . . . . . . . . . . . 54
A. Mathematische Grundlagen 54A.1. Frequenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
A.1.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 54A.1.2. Kreisfrequenz . . . . . . . . . . . . . . . . . . . . . . . . 57A.1.3. Normierte Kreisfrequenz . . . . . . . . . . . . . . . . . . 57A.1.4. Die z-Ebene . . . . . . . . . . . . . . . . . . . . . . . . . 57
A.2. Lösungsformel für quadratische Gleichungen . . . . . . . . . . . 57A.3. Geradengleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 57
A.3.1. Gerade durch einen Punkt P (x0, y0) mit Steigung m . . 57A.3.2. Gerade durch die Punkte P (x0, y0) und A(x1, y1) . . . . 57A.3.3. Parameterform . . . . . . . . . . . . . . . . . . . . . . . 57A.3.4. Allgemeine Form der Geradengleichung . . . . . . . . . 57
A.4. Additionstheoreme . . . . . . . . . . . . . . . . . . . . . . . . . 59A.5. Rechenregeln des Logarithmus . . . . . . . . . . . . . . . . . . 59
6
Inhaltsverzeichnis
A.6. Differentiation . . . . . . . . . . . . . . . . . . . . . . . . . . . 59A.6.1. Regeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
A.6.1.1. Quotientenregel . . . . . . . . . . . . . . . . . 59A.6.1.2. Kettenregel . . . . . . . . . . . . . . . . . . . . 60A.6.1.3. Produktregel . . . . . . . . . . . . . . . . . . . 60A.6.1.4. Logarithmische Differentiation . . . . . . . . . 60A.6.1.5. Differentiation eines parameterabhängigen In-
tegrals . . . . . . . . . . . . . . . . . . . . . . . 60A.6.1.6. l’Hospital’sche Regel . . . . . . . . . . . . . . . 60
A.6.2. Operatoren . . . . . . . . . . . . . . . . . . . . . . . . . 60A.6.2.1. Laplace-Operator ∆ . . . . . . . . . . . . . . . 60A.6.2.2. Divergenz-Operator div . . . . . . . . . . . . . 60A.6.2.3. Gradient-Operator ∇ . . . . . . . . . . . . . . 61A.6.2.4. Rotations-Operator . . . . . . . . . . . . . . . 61A.6.2.5. Jacobi-Matrix (Funktionalmatrix) . . . . . . . 62A.6.2.6. Hesse-Matrix . . . . . . . . . . . . . . . . . . . 62A.6.2.7. Zusammengesetzte Operationen . . . . . . . . 62
A.7. Integrationsregeln . . . . . . . . . . . . . . . . . . . . . . . . . . 62A.7.1. Partielle Integration . . . . . . . . . . . . . . . . . . . . 62A.7.2. Substitutionsregel . . . . . . . . . . . . . . . . . . . . . 62A.7.3. Logarithmische Integration . . . . . . . . . . . . . . . . 63A.7.4. Integration der Umkehrfunktion . . . . . . . . . . . . . 63
A.8. Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . 63A.8.1. Komplexe Wurzel . . . . . . . . . . . . . . . . . . . . . . 64
A.9. Binomialkoeffizient . . . . . . . . . . . . . . . . . . . . . . . . . 64A.9.1. Reihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
A.10.Abschätzung mittels Union-Bound . . . . . . . . . . . . . . . . 64A.11.Bessel-Funktion erster Art . . . . . . . . . . . . . . . . . . . . . 66
A.11.1.Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 66A.11.2.Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 66
B. Abtasttheorem 66B.1. Basisband-Signale . . . . . . . . . . . . . . . . . . . . . . . . . 66B.2. Bandpass-Signale . . . . . . . . . . . . . . . . . . . . . . . . . . 66B.3. Interpolationsfilter . . . . . . . . . . . . . . . . . . . . . . . . . 66
B.3.1. Basisbandsignale . . . . . . . . . . . . . . . . . . . . . . 66B.3.2. Bandpaßsignale . . . . . . . . . . . . . . . . . . . . . . . 67
B.4. Abtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
C. Zufallsvariablen 67
7
Inhaltsverzeichnis
C.1. Statistische Unabhängigkeit . . . . . . . . . . . . . . . . . . . . 67C.1.1. Statistische Unabhängigkeit . . . . . . . . . . . . . . . . 67C.1.2. Unkorreliertheit . . . . . . . . . . . . . . . . . . . . . . . 67C.1.3. Orthogonalität . . . . . . . . . . . . . . . . . . . . . . . 68
C.2. Bedingte Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . . 68C.2.0.1. Satz von Bayes . . . . . . . . . . . . . . . . . . 68
C.3. Abbildungen von Zufallsvariablen . . . . . . . . . . . . . . . . . 68C.3.1. Eindimensionaler Fall . . . . . . . . . . . . . . . . . . . 68C.3.2. Mehrdimensionaler Fall . . . . . . . . . . . . . . . . . . 68
C.4. Wichtige Funktionen . . . . . . . . . . . . . . . . . . . . . . . . 69C.4.1. Komplementäres gauß’sches Fehlerintegral . . . . . . . . 69
C.5. Verteilung und Dichte . . . . . . . . . . . . . . . . . . . . . . . 70C.5.1. Eigenschaften einer Dichte . . . . . . . . . . . . . . . . . 70C.5.2. Eigenschaften einer Verteilung . . . . . . . . . . . . . . 70C.5.3. Randdichte und Randverteilung . . . . . . . . . . . . . . 70
C.5.3.1. Randdichte . . . . . . . . . . . . . . . . . . . . 70C.5.3.2. Randverteilung . . . . . . . . . . . . . . . . . . 70
C.5.4. Bedingte Verteilungen . . . . . . . . . . . . . . . . . . . 70C.5.5. Spezielle Verteilungen . . . . . . . . . . . . . . . . . . . 71
C.5.5.1. Gleichverteilung . . . . . . . . . . . . . . . . . 71C.5.5.2. Binomialverteilung (Bernoulli-Experiment) . . 71C.5.5.3. Geometrische Verteilung . . . . . . . . . . . . 72C.5.5.4. Poisson-Verteilung . . . . . . . . . . . . . . . . 72C.5.5.5. Gauß-Verteilung (Normal-Verteilung)N (mX , σX) 72C.5.5.6. Cauchy-Verteilung . . . . . . . . . . . . . . . . 73C.5.5.7. Lognormal-Verteilung . . . . . . . . . . . . . . 73C.5.5.8. Laplace-Verteilung . . . . . . . . . . . . . . . . 73C.5.5.9. Γ-Verteilung . . . . . . . . . . . . . . . . . . . 74
C.6. Perzentil und Median . . . . . . . . . . . . . . . . . . . . . . . 75C.7. Erzeugende Funktionen . . . . . . . . . . . . . . . . . . . . . . 76
C.7.1. Momentenerzeugende Funktion ΦX(s) . . . . . . . . . . 76C.7.2. Charakteristische Funktion ΦX(jω) . . . . . . . . . . . . 76C.7.3. Kumulantenerzeugende Funktion ΨX(s) . . . . . . . . . 76
D. Zufallsprozesse 76D.1. Stationarität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
D.1.1. Strenge Stationarität . . . . . . . . . . . . . . . . . . . . 76D.1.2. Gemeinsame strenge Stationarität . . . . . . . . . . . . 76D.1.3. Schwache Stationarität . . . . . . . . . . . . . . . . . . . 77
D.1.3.1. Eigenschaften (schwach) stationärer Prozesse . 77
8
Inhaltsverzeichnis
D.1.4. Zyklostationäre Prozesse . . . . . . . . . . . . . . . . . . 78D.1.5. Schwach zyklostationäre Prozesse . . . . . . . . . . . . . 79D.1.6. Ergodizität . . . . . . . . . . . . . . . . . . . . . . . . . 79
D.2. Mittelwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79D.2.1. Erwartungswert . . . . . . . . . . . . . . . . . . . . . . . 79D.2.2. Momente n-ter Ordnung . . . . . . . . . . . . . . . . . . 80
D.2.2.1. kontinuierlich . . . . . . . . . . . . . . . . . . . 80D.2.2.2. diskret . . . . . . . . . . . . . . . . . . . . . . 80
D.2.3. Zentrale Momente n-ter Ordnung . . . . . . . . . . . . . 80D.2.3.1. kontinuierlich . . . . . . . . . . . . . . . . . . . 80D.2.3.2. diskret . . . . . . . . . . . . . . . . . . . . . . 80
D.2.4. Wichtige Momente . . . . . . . . . . . . . . . . . . . . . 80D.2.4.1. Linearer Mittelwert . . . . . . . . . . . . . . . 80D.2.4.2. Quadratischer Mittelwert . . . . . . . . . . . . 80D.2.4.3. Varianz . . . . . . . . . . . . . . . . . . . . . . 81D.2.4.4. Normierte Momentanleistung . . . . . . . . . . 81
D.2.5. Zentrale Verbundmomente . . . . . . . . . . . . . . . . . 81D.2.5.1. kontinuierlich . . . . . . . . . . . . . . . . . . . 81D.2.5.2. diskret . . . . . . . . . . . . . . . . . . . . . . 82D.2.5.3. Kovarianz . . . . . . . . . . . . . . . . . . . . . 82D.2.5.4. Korrelationskoeffizient . . . . . . . . . . . . . . 82D.2.5.5. Bedingte Erwartungswerte . . . . . . . . . . . 82
D.3. LTI-Systeme und schwach stationäre Prozesse . . . . . . . . . . 82D.3.1. Mittelwerte . . . . . . . . . . . . . . . . . . . . . . . . . 82
D.3.1.1. Linearer Mittelwert . . . . . . . . . . . . . . . 82D.3.1.2. Quadratischer Mittelwert . . . . . . . . . . . . 83
D.3.2. Korrelationsfunktionen . . . . . . . . . . . . . . . . . . . 83D.3.2.1. Autokorrelationsfunktion . . . . . . . . . . . . 83D.3.2.2. Autokovarianz . . . . . . . . . . . . . . . . . . 83D.3.2.3. Kreuzkorrelation . . . . . . . . . . . . . . . . . 84D.3.2.4. Kreuzkovarianz . . . . . . . . . . . . . . . . . . 84D.3.2.5. Eigenschaften von AKF, AKV, KKF und KKV 84D.3.2.6. Autoleistungsdichtespektrum . . . . . . . . . . 85D.3.2.7. Kreuzleistungsdichtespektrum . . . . . . . . . 85D.3.2.8. KKF und LDS . . . . . . . . . . . . . . . . . 85
D.3.3. Autokorrelationsfunktion und Autoleistungsdichtespek-trum . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86D.3.3.1. kontinuierlich . . . . . . . . . . . . . . . . . . . 86D.3.3.2. diskret . . . . . . . . . . . . . . . . . . . . . . 86
D.3.4. Kohärenzfunktion . . . . . . . . . . . . . . . . . . . . . 86
9
Inhaltsverzeichnis
D.3.5. Weißes Rauschen . . . . . . . . . . . . . . . . . . . . . . 86D.3.5.1. Definition . . . . . . . . . . . . . . . . . . . . . 86D.3.5.2. Leistungsdichtespektrum . . . . . . . . . . . . 87D.3.5.3. Autokorrelationsfunktion . . . . . . . . . . . . 87D.3.5.4. Störleistung . . . . . . . . . . . . . . . . . . . . 87D.3.5.5. Bandbegrenztes ECB-Rauschen . . . . . . . . 87D.3.5.6. Streng weißes Rauschen . . . . . . . . . . . . . 87
D.4. Schätztheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87D.4.1. Prädiktion . . . . . . . . . . . . . . . . . . . . . . . . . . 87
D.4.1.1. Parameterschätzung . . . . . . . . . . . . . . . 88D.4.1.2. Intervallschätzung . . . . . . . . . . . . . . . . 89
D.4.2. Prädiktion . . . . . . . . . . . . . . . . . . . . . . . . . . 89D.4.2.1. Punktprädiktion . . . . . . . . . . . . . . . . . 89D.4.2.2. Intervallprädiktion . . . . . . . . . . . . . . . . 89
D.4.3. Gütekriterien für Parameterschätzer . . . . . . . . . . . 89D.4.3.1. Erwartungstreuer Schätzer . . . . . . . . . . . 89D.4.3.2. Effizienter Schätzer . . . . . . . . . . . . . . . 90D.4.3.3. Konsistenter Schätzer . . . . . . . . . . . . . . 90D.4.3.4. Hinreichende Statistik . . . . . . . . . . . . . . 90
D.4.4. Mittelwertschätzer . . . . . . . . . . . . . . . . . . . . . 90D.4.4.1. Arithmetisches Mittel . . . . . . . . . . . . . . 90D.4.4.2. Varianzschätzer bei bekanntem Mittelwert . . 91D.4.4.3. Varianzschätzer bei unbekanntem Mittelwert . 91D.4.4.4. Mittelwertschätzung bei bekannter Varianz . . 91D.4.4.5. Mittelwertschätzung bei unbekannter Varianz 91D.4.4.6. Mittelwertschätzung bei unbekannter Verteilung 91D.4.4.7. Parameterschätzung bei bestimmten Verteilungen 91D.4.4.8. Wahrscheinlichkeitsschätzung . . . . . . . . . . 92D.4.4.9. Varianzschätzung bei normalverteilten Zufalls-
variablen . . . . . . . . . . . . . . . . . . . . . 92D.4.5. MMSE- und LSE-Schätzung . . . . . . . . . . . . . . . . 92
D.4.5.1. MMSE-Schätzung . . . . . . . . . . . . . . . . 92D.4.5.2. MSE-Schätzung . . . . . . . . . . . . . . . . . 93D.4.5.3. Maximum-Likelihood-Schätzer . . . . . . . . . 93D.4.5.4. Log-Likelihood-Funktion . . . . . . . . . . . . 93D.4.5.5. Bayes’sche Schätzung . . . . . . . . . . . . . . 93D.4.5.6. Maximum a posteriori-Schätzer (MAP) . . . . 94
D.4.6. Cramer-Rao-Schranke . . . . . . . . . . . . . . . . . . . 94D.5. Lineare Optimalfilterung . . . . . . . . . . . . . . . . . . . . . . 94
D.5.1. Wiener Filter . . . . . . . . . . . . . . . . . . . . . . . . 94
10
1. Nachrichtenübertragung
Tabelle 1: Bandbegrenzung einiger Beispielanwendungen
Anwendung fu fo BNF
Telefon 300 Hz 3,4 kHz 3,1 kHz
FM-Rundfunk 20 Hz 15 kHz 15 kHz
D.5.1.1. Zeitkontinuierlich . . . . . . . . . . . . . . . . 94
E. Transformationen 95E.1. Fourier-Transformation . . . . . . . . . . . . . . . . . . . . . . . 95
E.1.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 95E.1.2. Inverse Fourier-Transformation . . . . . . . . . . . . . . 96E.1.3. rect- und sinc-Funktion . . . . . . . . . . . . . . . . . . 96E.1.4. Hinreichende Bedingung für die Existenz . . . . . . . . 98
E.2. z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . 101E.2.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 101E.2.2. Konvergenzbereich . . . . . . . . . . . . . . . . . . . . . 101E.2.3. Inverse z-Transformation . . . . . . . . . . . . . . . . . 101
E.3. Hilbert-Transformation . . . . . . . . . . . . . . . . . . . . . . . 103E.3.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 103E.3.2. Besonderheiten . . . . . . . . . . . . . . . . . . . . . . . 104
E.4. ECB-Transformation . . . . . . . . . . . . . . . . . . . . . . . . 105E.4.1. Definition . . . . . . . . . . . . . . . . . . . . . . . . . . 105E.4.2. Inverse Transformation . . . . . . . . . . . . . . . . . . 105E.4.3. Theorem von Grettenberg . . . . . . . . . . . . . . . . . 105E.4.4. Inphasekomponente . . . . . . . . . . . . . . . . . . . . 106E.4.5. Quadraturkomponente . . . . . . . . . . . . . . . . . . . 106
11
1. Nachrichtenübertragung
Tabelle 2: Eckdaten von PAL
Bezeichnung Wert
Zeilenzahl 625
Bildwechselfrequenz 50 Hz (60 Hz bei PAL M)
Kanalbandbreite 6-8 MHz
Videofrequenzbandbreite 4,2-6 MHz
Bild-/Tonträgerabstand 4,5-6 MHz
Restseitenband 0,75-1,25
Tonmodulation AM oder FM
12
1. Nachrichtenübertragung
Tabelle 3: Merktabelle für Pegelmaße
Leistungsverhältnis Effektivwertverhalten Pegelmaß [dB]
1 1 0
2√
2 3
3√
3 4,72
4 2 3 + 3 = 6
5√
5 10− 3 = 7
6√
6 3 + 4,77 = 7,77
7√
7 10+72 = 8,5
8√
8 3 + 3 + 3 = 9
9 9 4,77 + 4,77 = 9,5
10√
10 10
20√
20 3 + 10 = 13
50√
50 7 + 10 = 17
100 10 10 + 10 = 20
10n 10n2 10 · n
13
1. Nachrichtenübertragung
1. Nachrichtenübertragung
1.1. Grundlegende Definitionen
1.1.1. Pegelrechnung
1.1.1.1. dBmPdBm = 10 log10
(P
1 mW
)[dBm] (1)
P = 10PdBm
10−3 (2)
1.1.2. Bewertungskriterien für Übertragungsverfahren
Die Qualität analoger wie digitaler Übertragungsverfahren wird anhand ihrerLeistungseffizienz und ihrer Bandbreiteneffizienz bemessen.
1.1.3. Wirkungsgrad
η =PNutz
Pzugeführt(3)
1.1.4. Anwendung von Codierverfahren
1.1.4.1. Quellencodierung Reduktion von Redundanz und Irrelevanz.
1.1.4.2. Kanalcodierung Hinzufügen von Redundanz mit dem Ziel einefehlerarme bzw. fehlerfreie Übertragung zu gewährleisten.
1.2. Quellensignale und deren Modellierung
1.2.1. Analoge Quellensignale
1.2.1.1. Primäres Quellensignal Ein elektrisches Signal, das aus einemsonstigen Signal gewonnen wurde. Es handelt sich um einen reellen, mittel-wertfreien Prozeß, für den Zyklostationarität oder schwache Stationarität an-genommen wird.
1.2.1.2. AussteuergradA :=
q0,eff
qmax(4)
Der maximal mögliche Aussteuergrad, ohne daß Verzerrung auftritt ist A = 1ζq0
.
14
1. Nachrichtenübertragung
Tabelle 4: Kenngrößen elektrischer Signale
Bezeichnung Formel
Leistung Sq0 = E(q0(η, t))2
∀t
Leistung an einem Widerstand P = seff2
R
Effektivwert (Varianz) q0,eff =√Sq0 =
∫∞−∞ q2fq(q) dq =
√1T
∫ T0 q20(t) dt
Spitzenwert q0 = maxη,t |q0(η, t)|
Spitzenleistung Sq0,max = q20
Crestfaktor ζq0 = q0√Sq0
= q0q0,eff
Peak-to-Average-Ratio PAR =Sq0,max
Sq0= ζ2
q0
Bandgrenze unten / oben (einseitig) fq0,u / fq0,o
Bandbreite (einseitig) Bq0 = fq0,o − fq0,u
(mittlere) AKF siehe D.3.2.1 auf Seite 83 φq0q0(τ)
(mittleres) LDS siehe D.3.2.6 auf Seite 85 Φq0q0(f) = F φq0q0(τ)
WDF fq0(q0, t) ≈ fq0(q0)∀t
Einseitige Rauschleistungsdichte N0
Zweiseitige Rauschleistungsdichte N02
Störleistung durch Spitzenwertbegrenzung NL
15
1. Nachrichtenübertragung
Tabelle 5: Beispiele für Spitzenwertfaktoren ζ0
Signal ζ0
gaußverteilt ∞
gleichverteilt√
3
sinusförmig√
2
dreieckförmig√
3
rechteckförmig 1
1.2.1.3. Aussteuerpegel
10 log10(A2) = 20 log10(A) [dB] (5)
1.2.1.4. Äquivalente Störung infolge Spitzenwertbegrenzung
nL(t) := qL(t)− q0(t) (6)
1.2.1.5. Soft-Limiter
qL :=
−qmax für q0 < −qmax
q0 für − qmax ≤ q0 ≤ qmax
qmax sonst(7)
1.2.1.6. WDF fnL(nL) der äquivalenten Störung infolge Spitzenwert-begrenzung bei achsensymmetrischer WDF des Quellensignals
fnL(nL) = δ(nL) ·qmax∫
−qmax
fq0(q0) dq0 +
fq0(qmax − nL) für nL ≤ 0fq0(q−max − nL) für nL > 0
(8)
1.2.1.7. Leistung NL der Störung nL
NL =
∞∫−∞
n2LfnL(nL) dnL
wg. Symmetrie= 2 ·
∞∫0
n2Lfq0(qmax + nL) dnL (9)
16
1. Nachrichtenübertragung
1.2.1.8. SNR durch Spitzenwertbegrenzung (SNRL)
SNRL :=Sq0NL
=q20,eff
NL(10)
im Pegelmaß10 log10(SNRL) [dB] (11)
Gleichverteilung
NL = q20 ·
(q − 1√
3A
)3
3(12)
SNRL =
1„
1− 1
(√
3A)
«3 für A > 1√3
−→∞ für A ≤ 1√3
(13)
LaplaceverteilungNL = q20,effe−
√2
A (14)
SNRL = e√
2A (15)
10 log10 (SNRL) =6,14A
[dB] (16)
1.2.1.9. SNR des Verbrauchersignals (SNRv)
Sv = Sq0 = A2 · q2max (17)
Nv = NL +N (18)
SNRv :=Sv
Nv=
Sq0NL +N
(19)
1.2.1.10. Signaldynamik
DS :=Smax
Smin(20)
1.2.1.11. Normiertes Quellensignal
q(t) :=qL(t)qmax
(21)
Falls die Störung nur gering ist, so gilt folgendes:
• Effektivwert: A
• Mittlere Leistung: A2
17
1. Nachrichtenübertragung
Tabelle 6: Typische Signaldynamik
Anwendung Dynamik
Sprache 15 [dB]
Popmusik 5 [dB]
Orchester (Barock) 50 [dB]
Orchester (Hochromantik) ≥ 90 [dB]
1.2.2. Digitale Quellensymbolsequenzen
1.2.2.1. Informationsfluß
φS :=1Tb︸︷︷︸1
[bits
](22)
1.3. Übertragungskanäle und deren Modellierung
1.3.1. Übertragungsmedien
1.3.1.1. Übertragungsfunktion kabelgebundener Übertragung
KoaxialkabelHK(f) ≈ e−aN·l·
q2j f
f0 (23)
Symmetrisches Kabel
|HK(f)| = 10−adB(f)· l20 (24)
1.3.1.2. Fern- und Nahnebensprechen in vielpaarigen Kabeln
1Tb ist der mittlerer zeitlicher Abstand zwischen zwei Quellensymbolen
18
1. Nachrichtenübertragung
Übertragungsfunktion des Nutzsignals
HK(f) =E(f)S(f)
∣∣∣∣sF(t)=0∧sN(t)=0
= e−α(2πf)·l · e−jβ(2πf)·l (25)
α: kilometrische Dämpfung
β: kilometrischer Phasengang
FEXT Nebensprechen von Signalen gleicher Richtung.
|HFEXT(f)|2 =|E(f)|2
|SF(f)|2
∣∣∣∣s(t)=0∧sN(t)=0
(26)
= kFEXT · l ·(f
f0
)2
· |HK(f)|2 (27)
kFEXT ist abhängig vom Leitungstyp und der gegenseitigen Lage der Adern-paare.
NEXT
|HNEXT(f)|2 =|E(f)|2
|SN(f)|2
∣∣∣∣sF(t)=0∧s(t)=0
(28)
= kNEXT ·(f
f0
) 32
· (1− e−2·α(2πf)·l) (29)
Ab l ≈ 100m vereinfacht sich die Formel zu
|HNEXT(f)|2 ≈ kNEXT ·(f
f0
) 32
(30)
und somit einer Dämpfung von −15 [dB] pro Dekade.
1.3.1.3. Funkübertragung – Modell der Freiraumausbreitung
Isotroper Strahler Die Leistungsdichte eines isotropen Strahlers im Ab-stand d beträgt
SS
4πd2
[Wm2
](31)
19
1. Nachrichtenübertragung
Tabelle 7: Typische Frequenz und Wellenlänge
Anwendung f λ
GSM ca. 990 MHz ca. 30 cm
UMTS ca. 2 GHz ca. 15 cm
Tabelle 8: Typische Sendeleistungen
Anwendung Sendeleistung
P PdBm
UKW-Rundfunk 100 W bis 100 kW 50 bis 80 dBm
LW-Rundfunk 500 kW bis 2000 kW 87 bis 93 dBm
Tabelle 9: Typische Empfangsleistungen
Anwendung Empfangsleistung
P PdBm
Mobiles Empfangsgerät für Sprachverbindungen 10 fW bis 100 pW -70 bis -110 dBm
20
1. Nachrichtenübertragung
Tabelle 10: Effektive Wirkfläche einiger Antennentypen. η ist die Beleuch-tungseffizienz, D der Antennendurchmesser.
Antennentyp Ae η
Parabolantenne πD2
4 · η 0,5 bis 0,6
Hornantenne η ·A 0,8
Punktförmiger Isotroper Strahler als Absorber λ2
4π –
Äquivalenter Isotroper Strahler Das Modell des Äquivalenten IsoptropenStrahlers enthält einen Antennengewinn Gs, der die Hinweiseinheit dBi trägt.Die effictive isotropic radiated power berträgt
EIRP = Ss ·Gs (32)
Die Ursache des Antennengewinns ist die Richtwirkung der Antenne.
Von der Empfangsantenne aufgenommene Leistung
S(d) = EIRP · Ae
4πd2(33)
Ae ist die effektive Wirkfläche der Empfangsantenne.
Gewinn der Empfangsantenne gegenüber äquivalentem isotropenStrahler
Ge =4πλ2Ae (34)
Leistung an der Empfangsantenne
Se(d) = SS ·GS ·Ge ·1
(4π)2·(λ
d
)2
für d λ (35)
Se(d) = Se(d0) ·(d0
d
)2
d0 Normierungsdistanz (36)
21
1. Nachrichtenübertragung
Tabelle 11: Beispielwerte für β aus Formel 40
Umgebung β
Freiraum 2
Stadtgebiet bei 1 bis 2 GHz 3 bis 4,5
Innerhalb von Gebäuden (Sichtverbindung) 1,6 bis 1,8
Übertragungsfaktor
D :=
√Se(d)SS
(37)
Signaldämpfung
10 log10
(SS
Se(d)
)= 10 log10
(SS
Se(d0)
)+ 20 log10
(d
d0
)(38)
= −20 log10(D) (39)
Für mittlere Entfernungen bei direkter Sichtverbindung gilt folgende Näherung:
10 log10
(SS
Se(d)
)= 10 log10
(SS
Se(d0)
)+ 10β log10
(d
d0
)(40)
1.3.2. Störmodelle
1.3.2.1. Thermisches Rauschen
ΦnHFnHF =N0
2für |f| < 300 GHz (41)
= 2kTkR = 2 · 1,38 · 10−23
[WsK
]· (−TCelsius + 273) [K] ·R (42)
Falls R nicht gegeben ist, ist R = 1 [Ω] anzunehmen.
1.3.2.2. Verstärkerrauschen
22
1. Nachrichtenübertragung
Breitbandverstärkery(t) = v · x(t) (43)
• Rauschleistung am Eingang: Nx
• Rauschleistung am Ausgang: Ny
• Rauschzahl: F = Ny
v2·Nx≥ 1
• Rauschmaß: 10 log10(F )
Schmalbandverstärker
Y (f) = Hv(f) ·X(f) (44)
• LDS des Rauschens am Eingang: Φxx(f)
• LDS des Rauschens am Ausgang: Φyy(f)
• Noise-Figure: F (f) = Φyy(f)Φxx(f)·|Hv(f)|2 ≥ 1∀f
1.3.2.3. Whitening Filter Transformation eines farbigen Rauschens in einweißes Rauschen durch ein Filter mit der Übertragungsfunktion
HW(f) =
√N0
Φnn(f) · ejϕ(f) ∀f ≤ BHF
2
beliebig sonst(45)
1.4. Modulationsverfahren zur Übertragung analoger Signale
1.4.1. Bandbreiteneffizienz
Γa :=BNF
BHF(46)
1.4.2. Banderweiterungsfaktor
J :=BHF
BNF=
1Γa
(47)
1.5. Demodulationsverfahren
1.5.1. Synchrondemodulation
v1(t) + v2(t) = (q1(t) + jq2(t)) · e−j(2π∆fct+∆ϕ0) (48)
23
1. Nachrichtenübertragung
Tabelle 12: Hochfrequenz- und ECB-Signal amplitudenmodulierter Signale
Physikalisches Sendesignal sHF(t) ECB-Sendesignal
AM o. Tr.√
2 · zeff · q(t) · cos(2πfct+ ϕ0) zeff · q(t) · ejϕ0
AM m. Tr. s · (1 +m · q(t)) · cos(2πfct+ ϕ0) s√2· (1 +m · q(t)) · ejϕ0
QAM√
2 · zeff · (q1(t) · cos(2πfct+ ϕ0) zeff · (q1(t) + jq2(t))ejϕ0
−q2(t) · sin(2πfct+ ϕ0))
EM√
2 · zeff · (q(t) · cos(2πfct+ ϕ0) zeff · (q(t)± jHq(t))ejϕ0
∓Hq(t) · sin(2πfct+ ϕ0))
Tabelle 13: Eigenschaften amplitudenmodulierter Signale
≈ mittlere Sendeleistung Ss Spitzenleistung Smax PAR
AM o. Tr. z2eff ·A2 z2
eff1A2
AM m. Tr. 12 · s
2 · (1 +m2A2) 12 · s
2 · (1 +m)2 (1+m)2
1+m2A2
QAM z2eff · (A2
1 +A22) 2 · z2
eff2
A21+A2
2
EM 2 · z2effA
2 ∞ bzw. 2 · z2eff
2 1A2
24
1. Nachrichtenübertragung
1.5.2. Einhüllendendemodulation
Bedingung: m ≤ 1.env dHF =
s√2· |1 +m · q(t)| (49)
1.5.3. Einfluß additiver Störungen
1.5.3.1. HF-Störabstand Signalstörleistungsverhältnis nach dem Eingangs-filter:
SNRHF =Se
N0 ·BHF(50)
⇒ 10 log10(SNRHF ) [dB] (51)
1.5.3.2. Vergleichsstörabstand Der Vergleichsstörabstand für den AWGN-Kanal ist derjenige Störabstand, der bei direkter Übertragung des NF-Signalsmit mittlerer Leistung Sl über den AWGN-Kanal bei empfangsseitiger Band-begrenzung auf BNF gültig wäre:
10 log10(SNR0) := 10 log10
(Sl
BNF · N0
)(52)
Nur bei PCM und FM ist SNR0 < SNRNF möglich.
1.5.3.3. NF-Störabstand
SNRNF :=Sv
NK≈ A2
NK(53)
1.5.3.4. Modulationsgewinn Modulationsgewinn für den AWGN-Kanalbei Begrenzung der mittleren Sendeleistung:
G := 10 log10
(SNRNF
SNR0
)[dB] (54)
Modulationsgewinn für den AWGN-Kanal bei Begrenzung der maximalen Sen-deleistung:
G := 10 log10
(SNRNF
SNR0
)(55)
SNR0 :=Smax
N0 ·BNF(56)
25
1. Nachrichtenübertragung
Tab
elle
14:S
igna
l-Stö
rabs
tand
für
AM
beim
AW
GN
-Kan
al
Ver
fahr
enJ
SNR
NF
GG
AM
o.T
r.2
2·S
NR
HF·c
os2(∆ϕ
0)
20lo
g 10(|
cos(
∆ϕ
0)|)
20lo
g 10(|A
·cos
(∆ϕ
0)|)
AM
m.T
r.(m
≤1)
22·S
NR
HF·
m2·A
2
1+m
2·A
210
log 1
0
( m2·A
2
1+m
2·A
2
)10
log 1
0
( m2·A
2
(1+m
)2
) a
QA
M1
SNR
HF
für
∆ϕ
0=
00
10lo
g 10
( A2 1+A
2 22
)E
M1
SNR
HF
020
log 1
0(A
)
afü
rm
<1
ist
Aut
osyn
chro
ndem
odul
atio
nm
öglic
h.
26
1. Nachrichtenübertragung
1.5.4. Störabstand infolge Spitzenwertbegrenzung und additiverStörung
SNRv =A2
NK +NL=
11
SNRNF + 1SNRL
(57)
1.6. Winkelmodulation
Bei den winkelmodulierten Verfahren ist das PAR = 1.
1.6.1. Momentanfrequenz
fM(t) :=12π· ddtϕ(t)− fc (58)
:=12π· ddtψ(t) (59)
1.6.2. Frequenzhub
Maximale Auslenkung der Momentanfrequenz:
∆f := max∀f∈R
|fM(t)| (60)
:= max∀t∈R
∣∣∣∣ 12π· ddtψ(t)
∣∣∣∣ (61)
1.6.3. Phasenhub
Maximale Auslenkung der Phase von der Trägerphase:
∆ψ := max∀t∈R
|ψ(t)| (62)
1.6.4. Spektrum FM-modulierter Signale
Die Berechnung des Spektrums von FM-Signalen gelingt nur für spezielle mo-dulierte Signale. Ein sinusförmig moduliertes FM-Signal enthält Spektrallinienan der Stelle des Trägers und auf beiden Seiten des Trägers im Abstand vonganzzahligen Vielfachen der modulierten Frequenz. Abgesehen von der Phasen-drehung des Trägers ist das Spektrum reell.
∆ψ =∆ffq
(63)
S′(f) = seff ·∞∑
n=−∞Jn(∆ψ)δ(f − nfq) (64)
SHF(f) =1√2· (S′(f − fc) + S′∗(−f − fc)) (65)
27
1. Nachrichtenübertragung
Tabelle 15: Eigenschaften winkelmodulierter Signale
PM FM
Sendesignal sHF(t) s · cos(2πfct+ ψ(t))
ECB-Signal s(t) s√2· ejψ(t)
Sendeleistung Sss2
2 = Smax
Informationstragende ∆ψ · q(t) 2π∫ t−∞ fM(τ) dτ
Phasenfunktion
Momentanfrequenz ∆ψ2π ·
ddtq(t) ∆f · q(t)
fM(t) = 12π ·
ddtψ(t)
Maximaler Phasenhub ∆ψ →∞
Maximaler Frequenzhub ∆f = ∆ψ ·BNF ∆f
HF-Signalbandbreite BHF3 ≈ 2(∆f + 2BNF) =
(2∆ψ + 4)BNF
≈ 2(∆f + 2BNF)
Banderweiterungsfaktor ≈ 2∆ψ + 4 ≈ 2 ∆fBNF
+ 4
J = BHFBNF
NF-Störabstandsgewinn 10 log10(A2∆ψ2) ≈10 log10
(A2(J2 − 2
)2) 10 log10
(3A2( ∆f
BNF)2)≈
10 log10
(3A2
(J2 − 2
)2)G = G4
SNRNF A2 ·(J2 − γ
)2 · SNR0 3A2(
∆fBNF
)2· SNR0
28
1. Nachrichtenübertragung
1.6.5. Carson-Formel
zur Abschätzung der Bandbreite für winkelmodulierte Signale:
BHF ≈
2(∆f +BNF) für mittlere Qualität (90%)2(∆f + 2BNF) für hohe Qualität (99%)
(66)
Sie liefert zu große Werte für PM, jedoch eine gute Abschätzung für FM.
Γa =BNF
BHF≈
1
2( ∆fBNF
+ 1)für mittlere Qualität (90%)
beginequation2ex]1
2( ∆fBNF
+ 2)für hohe Qualität (99%)
(67)
1.6.6. Näherung an das LDS nach Woodward
Falls ∆f BNF, so kann für das LDS eines FM-Signals die quasistationäreNäherung nach Woodward verwendet werden:
ΦSS(f) ≈s2eff∆f
· fq(f
∆f
)(68)
1.6.7. Effektiver Frequenzhub bei FM
∆feff := ∆f ·A (69)
1.6.8. Einfluß von Störungen
1.6.8.1. HF-Störleistung
N = N0 ·BHF (70)
1.6.8.2. HF-Störleistungsverhältnis
SNRHF =s2eff
N0 ·BHF(71)
1.6.8.3. NF-Störleistungsverhältnis Die empfangsseitige Differentiationbei FM bewirkt eine Färbung des Störsignals. Die Störleistung steigt mit demQuadrat der HF-Bandbreite.
SNRNF = 3 ·A2 ·(δf
BNF
)2
· SNR0 (72)
29
1. Nachrichtenübertragung
1.6.8.4. FM-Schwelle Absenkung von SNRNF infolge Clicks um 1 [dB] ge-genüber Näherung für hohe Störabstände, d. h.
NK +Nc = 10110 ·NK ⇒ Nc = 0,26NK (73)
⇒ Q(√
2SNRHF, Schwelle) =0,26
3SNRHF, Schwelle · J2(74)
Bei FM-Rundfunk beträgt der Banderweiterungsfaktor J = 14 und SNRNF, Schwelleliegt bei 9 [dB].
1.6.9. Preemphase
1.6.9.1. Optimales Preemphasefilter
|HD(f)| = 4√λ · SNRf (75)
wobei λ so zu wählen ist, daß
√λ =
1Sq·
BNF∫−BNF
√Φqq(f) · Φnvnv(f) df (76)
=1Sq·
BNF∫−BNF
Φqq(f)√SNR(f)
df (77)
1.6.9.2. Optimales Signalstörleistungsverhältnis
SNRv, P =
Sq
BNF∫−BNF
√Φqq(f) · Φnvnv(f) df
2
(78)
1.6.9.3. Gewinn durch Preemphase
SNRv, P
SNRv=
BNF∫−BNF
Φqq(f) df ·BNF∫
−BNF
Φnvnv(f) df
BNF∫−BNF
√Φqq(f) · Φnvnv(f) df
2 (79)
30
1. Nachrichtenübertragung
1.7. Analoge Pulsamplitudenmodulation (PAM)
1.7.1. PAM-Sendesignal
s(t) =∞∑
k=−∞a[k]︸︷︷︸
5
g(t− kTA) (80)
1.7.2. Mittlere Autokorrelationsfunktion
φss(τ) =1TA
∑ν
φaa[ν]︸ ︷︷ ︸Ea[k]·a∗[k−ν]
· ϕgg(τ − νTA)︸ ︷︷ ︸g(t+τ−kTA)·g∗(t−(k−ν)TA)
(81)
1.7.3. Mittleres Leistungsdichtespektrum
Φss(f) =1TA
Φaa(fTA) · |G(f)|2 (82)
1.7.4. Spezialfälle des Leistungsdichtespektrums
1. Beim ideal abgetasteten Zufallsprozeß
x(t) = TA ·∑k
a[k]δ(t− kTA) (83)
giltΦxx(f) = TA · Φaa(fTA) (84)
2. FürY (f) = X(f) ·H(f) (85)
giltΦyy(f) = Φxx(f) · |H(f)|2 (86)
falls x(t) schwach zyklostationär ist, da zu schwach zyklostationären Zu-fallsprozessen durch Phase Randomizing schwach stationäre Ersatzpro-zesse gebildet werden können.
3. Die periodische Fortsetzung im Spektralbereich bei Abtastung gilt auchhinsichtlich des mittleren Leistungsdichtespektrums.
Φaa(F ) =1TA
·∑l
Φqq
(F − l
TA
)mit F = f · TA (87)
5a[k] = q(kTA), k ∈ Z ist die Folge der Amplitudenkoeffizienten
31
1. Nachrichtenübertragung
1.8. Pulscodemodulation (PCM)
1.8.1. Nachrichtenfluß1Tb
= fA · log2(Mq︸︷︷︸6
) = fA · n[
Bits
](88)
1.8.2. Mittlere Leistung des Quantisierungsgeräusch
NQ =MQ∑i=1
ui∫ui−1
(q − ri)2fq(q) dq (89)
1.8.3. Optimale Quantisierung nach Lloyd und Max
Das Verfahren nach Lloyd und Max findet den optimal an die gegebene Wahr-scheinlichkeitsdichtefunktion angepaßten Quantisierer, der die geringste Quan-tisierungsgeräuschleistung erzeugt.
1. Optimale Wahl der Rekonstruktionswerte. Gesucht: Rekonstruktionswer-te ri ∈ Ii, so daß die Leistung NQi
für das Intervall Ii minimiert wird.
ri =
ui∫ui−1
q · fq(q)P (q ∈ Ii)
dq (90)
⇒ Schwerpunkte bezüglich der Wahrscheinlichkeitsdichtefunktion.
2. Optimale Wahl der Intervallgrenzen ui
ui =ri+1 + ri
2(91)
⇒ Mittelwerte zwischen den Rekonstruktionswerten.
3. Initialisierung durch Vorgabe von Intervallgrenzen.
Iteration:
a) berechne ~r aus ~u.
b) berechne ~u aus ~r.
bis sich nichts mehr ändert.
6Zahl der Quantisierungsintervalle
32
1. Nachrichtenübertragung
1.8.4. Näherung an die optimale Quantisierung
Näherung an die optimale Quantisierung für kleine Quantisierungsintervalle.Voraussetzung:
∆qi qeff ∧Mq 1 (92)
1. Annäherung der Wahrscheinlichkeitsdichtefunktion des Quellensignals in-nerhalb des Intervalls durch Konstanten.
2. Rekonstruktionswert = Mittelwert
ri = −1 +i−1∑k=1
∆qk + ∆qi2
(93)
1.8.5. Mittlere Quantisierungsgeräuschleistung
NQ =Mq∑i=1
∆q2i12
·ui∫
ui−1
fq(q) dq (94)
≈Mq∑i=1
∆q3i12
fq(ri) (95)
Spezialfall: gleichmäßige Quantisierung.
⇒ NQ =∆q2
12(96)
1.8.6. Zeitdiskretes Quantisierungsgeräusch
Falls ∆q qeff und fA2 nicht sehr viel größer ist als Bq
Φεε(F ) = NQ ∀F (97)
Mittlere Quantisierungsgeräuschleistung nach dem Rekonstruktionsfilter:
NQc = NQ ·2 ·BNF
fA(98)
Achtung: Überabtastung ist eine äußerst ineffiziente Maßnahme zur Geräusch-reduktion.
33
1. Nachrichtenübertragung
1.8.7. Störabstand bei gleichmäßiger Quantisierung
Voraussetzung: Gleichmäßige Quantisierung und nur geringe Übersteuerung.
SNRNF =q2effNQ
=A2
NQ= 2 ·A2 ·M2
q (99)
10 log10(SNRNF) = 4,77 [dB] + 10 log10(A2) + n · 6,02 [dB] (100)
⇒ 6[
dBBit
]Störabstandsgewinn (101)
1.8.8. Kompandierung
Erzeugung einer nicht gleichmäßigen Quantisierung durch zwei dispersionsfreienichtlineare Übertragungsglieder mit den Kennlinien
x = kK(q) (Kompander) (102)
v = k−1K (y) (Expander) (103)
vor einem ADC und einem DAC mit gleichmäßiger Quantisierung. Zielist ein konstanter NF-Störabstand über einen möglichst weiten Bereich desAussteuergrades.
1.8.8.1. Quantisierungsgeräuschleistung
NQ ≈1
3 ·M2q
·1∫
−1
fq(q)(k′K(q))2
dq (104)
1.8.8.2. Optimale Kompressorkennlinie
kK(q) = c ·q∫
0
3
√fq(q′) dq′ für q ≥ 0 (105)
1.8.8.3. Quantisierungsgeräuschleistung bei optimaler Kompandie-rung
NQ =2
3M2q
·
1∫0
3
√fq(q) dq
3
(106)
34
1. Nachrichtenübertragung
1.8.8.4. Gewinn bei optimaler Kompandierung
GK, max := 10 · log10
1
2 ·(∫ 1
03√fq(q) dq
)3
(107)
Gaußverteilung
GK, max = 10 log10
( 2√27π
A2(1−Q( 1√3A
))3
)(108)
Für A < 210 ist
GK, max = 10 log10
(2√27π
)− 20 log10A (109)
NF-Störabstand ohne Berücksichtigung von Übersteuerung:
10 log10(SNRNF) = n · 6,02 [dB]− 4,35 [dB] (110)
unabhängig von A.
Laplaceverteilung
GK, max = 10 log10
227(
1− e−√
23A
)3
− 20 log10(A) (111)
Für A < 110 ist
GK, max = 10 log10
(227
)− 20 log10A = −11,3 [dB]− 20 log10A (112)
NF-Störabstand ohne Berücksichtigung von Übersteuerung:
10 log10(SNRNF) = n · 6,02 [dB]− 6,53 [dB] (113)
unabhängig von A.
1.8.8.5. Störabstand bei optimaler Kompandierung
10 · log10(SNRNF) = 10 · log10(3M2qA
2) +GK, max (114)
35
1. Nachrichtenübertragung
−1
−0.5
0
0.5
1
−1 −0.5 0 0.5 1
q−→
kK(q) −→
A = 87.56
Abbildung 1: A-law-Kompressorkennlinie
1.8.8.6. Logarithmische Kompandierung mit A-Law LogarithmischeQuantisierung erfordert keine Kenntnis der Wahrscheinlichkeitsdichtefunktiondes Quellensignals. Der Quantisierungsfehler ist proportional zur Amplitudedes Quellensignals. Der Störabstand ist konstant über einen sehr großen Aus-steuerbereich.
Mit steigendem A stellt sich ein Verlust an maximal erzielbarem SNR ein.
Kompressorkennlinie
kK(q) =
q · A
1+lnA für 0 ≤ q < qL
1 + ln(q)1+ln(A) für qL ≤ q ≤ 1
−kK(−q) für q < 0
(115)
Geräuschleistung und SNR Durch die Kompandierung wird für |q| < qLdie Stufenzahl um den Faktor
a =A
1 + ln(A)(116)
gegenüber einer gleichmäßigen Quantisierung erhöht.
36
1. Nachrichtenübertragung
1. Bei sehr niedriger Aussteuerung
NQ ≈1
3(aMq)2(117)
SNRNF ≈ 3(aMq)2 ·A2 (118)
2. Bei mittlerer bis Vollaussteuerung
NQ ≈A2
3a2MQ2
(119)
10 log10(SNRNF) = 10 log10(3M2q )− 20 log10(1 + ln(A)) (120)
3. Bei Übersteuerung
NQ ≈ 2
∞∫0
q2 · fq(q + 1) dq (121)
SNRL ≈q2effNL
(122)
Fall 1 und 2 sind unabhängig von fq(q), das SNR infolge Quantisierung istkonstant. Erst in Fall 3 spielen Aussteuerung und Wahrscheinlichkeitsdichte-funktion eine Rolle für die Rauschleistung.
1.8.8.7. Abschnittsweise gleichmäßige Quantisierung
Störleistung
NQ ≈ 2 ·B∑l=1
∆q2l12
·bl∫
−bl−1
fq(q) dq (123)
Laplaceverteiltes Quellensignal
NQ =1
768 ·M2q
·
((1− x) +
6∑i=1
(x2i−1 − x2i) · 22i
)mit x = e−
√2
64A (124)
1.8.8.8. Überabtastverfahren zur Signalrekonstruktion
37
1. Nachrichtenübertragung
Wirksamer Quantisierungsfehler
N(z) = (1−R(z)) · E(z) (125)
Leistung des wirksamen Quantisierungsgeräuschs
NQ =∆q2
12· T ·
fa2∫
− fa2
∣∣∣1−R(ej2πfT )∣∣∣2 df (126)
Spezialfälle:
1. Keine Rückkopplung
R(z) = 0 ⇒ NQ =∆q2
12· T · fa =
∆q2
12· 1c
(127)
2. Vierfach-Überabtastung: c = 4, R(z) = z−1
NQ =∆q2
12· 2 ·
(1c−
sin(πc
)π
)(128)
Gewinn:
G = −10 log10
(2 ·
(1c−
sin(πc
)π
))(129)
1.8.9. Einfluß von Übertragungsfehlern auf das PCM-Signal
1.8.9.1. Bit Error Rate (BER)
BER := P (q[k] 6= q[k]) (130)
Beim AWGN-Kanal ist die Bitfehlerrate
BER = Q
(√2 · Eb
N0
)= Q
(√SNR0
n
)(131)
Der Worst-Case für die Fehlerrate ist BER = 0,5, da dann keine brauchbareVorhersage mehr möglich ist.
1.8.9.2. Word Error Rate (WER) Die Wahrscheinlichkeit dafür, daß min-destens ein Bitfehler in einem Wort der Länge n auftritt. Die WER ist damitzugleich die Wahrscheinlichkeit für die Verfälschung eines Abtastwertes.
WER := P („Mindestens ein Bitfehler im Wort“) (132)
38
1. Nachrichtenübertragung
1.8.9.3. WER für den BSC
WER = 1− (1− BER)n ≈ n · BER (133)
1.8.9.4. Wahrscheinlichkeit für e Fehler in einem Wort
P (e Fehler in n Symbolen) =(n
e
)︸︷︷︸
7
·BERe︸ ︷︷ ︸8
· (1− BER)n−e︸ ︷︷ ︸9
(134)
1.8.9.5. Leistung des Fehlersignals
NE ≈ BER ·n−1∑l=0
1∑bn−1=0
· · ·1∑
b0=0
(r(bn−1, . . . , be, . . . , b0))2 · fq(r(~b))∆q(~b) (135)
Bei gewöhnlichem Binärcode hat das Fehlersignal die Leistung
NE ≈43· BER ∀n ≥ 4 (136)
Bei symmetrischem Binärcode hat es die Leistung
NE ≈ (4 ·A2 +13) · BER (137)
1.9. PCM-Schwelle
Die größte Bitfehlerrate, bei der das Fehlersignal infolge Übertragungsfehler imMittel keine höhere Leistung hat als das Quantisierungsrauschen.
1.10. Vergleichssignalstörleistungsverhältnis
für digitale Übertragung über den AWGN-Kanal:
Eb
N0(138)
1.10.1. Vergleichsstörabstand
10 log10
(Eb
N0
)[dB] (139)
7Zahl der möglichen Fehlermuster8e falsch9n− e richtig
39
1. Nachrichtenübertragung
1.10.2. Spektrale Effizienz (digital)
Γd =1Tb
BHF
[bit/sHz
](140)
1.11. Übertragung analoger Signale mittels PCM
1.11.1. Signalstörleistungsverhältnis
SNRv =A2
NQ +NE +NL(141)
1.11.2. Spektrale Effizienz
Γa = J−1 =Γd
2 n︸︷︷︸10
(142)
1.11.3. HF-Störleistungsverhältnis
SNRHF =Se
N0 ·BHF=Eb
N0· Γd (143)
1.11.4. Vergleichssignalstörleistungsverhältnis
SNR0 =Se
N0 ·BNF=
Se
N0 ·BNF· TbTb
= 2 · n · Eb
N0(144)
1.11.5. Shannon-Grenze
für die transparente11 digitale Übertraung eines Analogsignals:
SNRNF = (1 + Γa · SNR0)1
Γa − 1 (145)
1.12. Differenzielle Pulscodemodulation (DPCM)
1.12.1. Lineare Prädiktion
Erzeuge einen Prädiktionswert p[k] für den nachfolgenden Wert a[k+1] anhandbisher beobachteter Werte a[κ] (κ ∈ k; k − 1; . . . ;−∞) mittels eines linearenSystems mit der Impulsantwort hP[· · · ]
p[k] = a[k] ∗ hP[k] (146)
so daß der Prädiktionsfehler x[k] = a[k]− p[k − 1] minimal wird.10Wortlänge in Bit pro Abtastwert11d. h. nur BNF ist spezifiziert
40
1. Nachrichtenübertragung
1.12.2. Yule-Walker-Gleichung
Liefert in jedem Fall ein strikt minimalphasiges Prädiktionsfehlerfilter F (z) =1−HP (z) · z−1. n-ter Grad entspricht (n+ 1)-ter Ordnung.
1.12.2.1. 0. GradeshP[0] =
φaa[1]φaa[0]
(147)
1.12.2.2. 1. Grades
hP[0] =φaa[1]φaa[0]− φaa[2]φaa[1]
φ2aa[0]− φ2
aa[1](148)
hP[0] =φaa[0]φaa[2] + φ2
aa[1]φ2
aa[0]− φ2aa[1]
(149)
1.12.2.3. Beliebigen GradesP∑i=0
hP[i]φaa[l − i] = φaa[l + 1] für l = 0(1)P (150)
hP[0]φaa[0] hP[1]φaa[−1] · · · hP[P − 1]φaa[1− P ] hP[P ]φaa[−P ] φaa[1]
hP[0]φaa[1] hP[1]φaa[0] · · · hP[P − 1]φaa[2− P ] hP[P ]φaa[1− P ] φaa[2]
......
. . ....
......
hP[0]φaa[P − 1] hP[1]φaa[P − 2] · · · hP[P − 1]φaa[0] hP[P ]φaa[−1] φaa[P ]
hP[0]φaa[P ] hP[1]φaa[P − 1] · · · hP[P − 1]φaa[1] hP[P ]φaa[0] φaa[P + 1]
(151)
=
hP[0]φaa[0] hP[1]φaa[1] · · · hP[P − 1]φaa[P − 1] hP[P ]φaa[P ] φaa[1]
hP[0]φaa[1] hP[1]φaa[0] · · · hP[P − 1]φaa[P − 2] hP[P ]φaa[P − 1] φaa[2]
......
. . ....
......
hP[0]φaa[P − 1] hP[1]φaa[P − 2] · · · hP[P − 1]φaa[0] hP[P ]φaa[1] φaa[P ]
hP[0]φaa[P ] hP[1]φaa[P − 1] · · · hP[P − 1]φaa[1] hP[P ]φaa[0] φaa[P + 1]
(152)
41
1. Nachrichtenübertragung
1.12.3. Leistung des Prädiktionsfehlers
σ2x = φaa[0]︸ ︷︷ ︸
12
−P∑i=0
hP[i]φaa[i+ 1] (153)
1.12.4. Leistungsgewinn durch optimale Prädiktion
GP, opt = 10 log10
(φaa[0]σ2x
)(154)
= −10 log10
(1−
P∑i=0
hP[i] · φaa[i+ 1]φaa[0]
)(155)
1.12.5. Maximaler Gewinn durch lineare Prädiktion
σ2a
σ2x
=
1∫0
Φaa(F ) dF
eR 10 ln(Φaa(F )) dF
(156)
1.12.6. Vorwärtsprädiktion
Bringt keinen Vorteil bezüglich des meßbaren Störabstandes. Vorteil wegenpsychoakistischen Effekts. Prädiktionsfehlersignal nahezu weiß.
1.12.7. Rückwärtsprädiktion
Prädiktionsgewinn GP ist voll nutzbar.
NQ = X(z)− Y (z) = E(z) (157)
⇒ nQ[k] = ε[k] (158)
⇒ Fehler durch Quantisierung und Übersteuerung werden nicht verstärkt, dasPrädiktionsfehlersignal ist nahezu gaussverteilt. Die Zahl der Quantisierungs-stufen läßt sich durch Rückwärtsprädiktion bei gleichbleibender Qualität um
∆n =
16· ((20 log10(AD︸︷︷︸
13
)− 20 log10) +GP)
(159)
12Leistung vor dem Prädiktionsfilter
42
1. Nachrichtenübertragung
vermindern. Der Gewinn gegenüber PCM liegt für gewöhnlich bei 3 bis 4 Bitpro Abtastwert.
1.12.8. DPCM mit logarithmischer Kompandierung
Wenn ADC und DAC logarithmisch kompandieren, so wird der Prädiktions-gewinn durch DPCM unmittelbar in einen Störabstand transformiert.
1.12.9. Einfluß von Übertragungsfehlern
Das inverse Prädiktionsfilter1
F (z)=
11−HP(z)z−1
(160)
muß strikt stabil sein, d. h. alle Pole müssen innerhalb des Einheitskreises derz-Ebene liegen. Daraus folt, daß das Prädiktionsfilter strikt minimalphasig seinmuß, d. h.
F (z) = 1−HP(z)z−1 (161)
hat keine Nullstellen im Einheitskreis. Andernfalls pflanzen sich Übertragungs-fehler unendlich fort.
Prädiktoren, die durch Yule-Walker-Gleichungen gewonnen werden genügendiesen Anforderungen immer.
1.12.10. ∆-Modulation
Die ∆-Modulation ist die einfachste Form der DPCM. Es wird ein Prädiktornullten Grades mit der Übertragungsfunktion
HP(z) = 1 (162)
sowie Ein-Bit-ADC/DAC verwendet.
1.12.10.1. Störungen
• |Quantisierungsfehler| ≤ ∆
• Granulares Rauschen: Keine zwei aufeinanderfolgende Rekonstruktions-werte können gleich sein. Gegenmaßnahme: Überabtastung im Sinkenfil-ter.
• Steigungsüberlastung: Bitfehler verursachen bleibende Fehler ±2∆, diesich unendlich lang fortpflanzen. Gegenmaßnahme: Hochpaßanteil im Sin-kenfilter.
13Optimaler Aussteuergrad
43
1. Nachrichtenübertragung
1.12.11. Adaptive ∆-Modulation
Anpassung des Inkrements ±∆ an das Quellensignal
1.12.12. Σ∆-Modulation
Integration des Quellensignals vor der ∆-Modulation, Differentiation nach der∆-Demodulation. Vermeidet bleibende Fehler, vermindert das granulare Rau-schen und die Steigungsüberlastung. Dies ist der einfachste Empfänger ohneLinearitätsprobleme.
1.13. Shannon-Grenze
1.13.1. Austausch von Leistungs- und Bandbreiteneffizienz
Eb
N0=
1Γd·(2Γd − 1
)(163)
1.13.2. Kanalkapazität
CT = BHF · ld(
1 +S
N
)[bits
](164)
1.14. Kanalcodierung
1.14.1. Systematische Codierung
Werden bei binären Codesymbolen, d. h. für Mc = 2 die K Quellensymboledirekt auf K Codesymbole abgebildet, so spricht man von einer systematischenCodierung.
1.14.2. Zuordnung
Redundanzfreie Umcodierung der Codesymbolsequenz c[ν] mit ν ∈ Z, c[ν] ∈ C,|C| = Mc in das M -wertige Symbolalphabet 0; . . . ;M − 1 der Signalnum-mern, Transformation:
c[ν] 7→ m[k] ν, k ∈ Z m[k] ∈ 0; . . . ;M − 1 (165)
• m[k]: Signalnummer des k-ten Modulationsintervalls.
• M : Stufenzahl des Modulationsverfahrens bzw. des digitalen Übertra-gungsverfahrens.
44
1. Nachrichtenübertragung
Tabelle 16: Kennzeichen digitaler Übertragungssysteme
Formel Bezeichnung
1Tb
[bit/s] übertragener Nachrichtenfluß („Datenrate“)
Tb [s] Bitintervall
T [s] Symbolintervall (Symbolabstand)
1T [symbole/s] [Symbole/s] Symbolrate (Baudrate)
R = TTb
[bit/Symbol] Rate des Übertragungsverfahrens
Ss mittlere Sendesignalleistung
Se mittlere Leistung des Empfangsnutz signals
Es = Se · T mittlere Empfangssignalenergie pro Symbol
Eb = Se · Tb = EsR mittlere Signalenergie je bit
BHF einseitige Bandbreite des Signals
Γd = 1B =
1TbBHF
[bits
Hz
]Bandbreiteneffizienz (spektrale Effizienz)
EbN0
Leistungseffizienz
45
1. Nachrichtenübertragung
Tabelle 17: Parameter des AWGN-Kanals
Bezeichnung Formel
Zweiseitige Rauschleistungsdichte N02
Einseitige Rauschleistungsdichte N0
Vergleichsstörleistungsverhältnis EbN0
= Se · TbN0
= EsN0·R
Tabelle 18: Parameter eines Kanalcodes
Formel Bezeichnung
n Codewortlänge
C = c1, c2, . . . , cMc Codesymbolalphabet
Rc = 1n · ld
(2K)
= Kn
[bit
Codesymbol
]Coderate
ρc = 1n ·(ld(Mn
c − ld(2K)))
= ld(Mc)−Rc
[bit
Codesymbol
]Coderedundanz je Codesymbol
46
1. Nachrichtenübertragung
1.14.3. Mapping-Redundanz
ρM = ld(M)− L
Vld(Mc) (166)
1.15. Modulation
Repräsentation der Sequenz m[k], k ∈ Z von Signalnummern durch das wert-und zeitkontinuierliche Sendesignal sHF(t), bzw. das E. C. B.-Signal s(t), wobei
• jeder Signalnummer m[k] (unabhängig von vorausgegangenen und nach-folgenden Signalnummern) ein Signalimpuls sm[k](t − kT ) je Modulati-onsintervall T aus der Signalmenge
S = s0(t), s1(t), . . . , sM−1(t) (167)
mit |S| = M zugeordnet wird. Die Elemente der Signalmenge (die Signa-limpulse) werden als die Signalelemente des digitalen Übertragungsver-fahrens bezeichnet.
• das Sendesignal durch additive Überlagerung dieser Signalelemente ent-steht:
s(t) =∞∑
k=−∞sm[k](t− kT ) (168)
sHF(t) =∞∑
k=−∞sHF,m[k](t− kT ) (169)
• die Signalelemente bezüglich zeitlicher Verschiebung um ganzzahlige Viel-fache des Symbolintervalls T wechselseitig und bezüglich sich selbst or-thogonale Funktionen bilden.
1.15.1. Rate
Mittlerer Informationsgehalt, gemessen in bit pro Symbol, Modulationsab-schnitt, Modulationsintervall oder Zeit.
1.15.2. Rate eines Modulationsverfahrens Rm
Rm = H(M) mit H(M) = −M−1∑m=0
P (M = m) ld(P (M = m)) (170)
Mittlerer Informationsgehalt je Modulationsschritt unter Annahme einer red-undanzfreien Zuordnung redundanzfreier Quellensymbole auf die Signalelemen-te, also ohne Kanalcodierung. Es gilt Rm ≤ log2(M), mit Gleichheit bei gleich-wahrscheinlichen Signalelementen.
47
1. NachrichtenübertragungT
abel
le19
:Par
amet
erei
nes
disk
rete
nM
odul
atio
nsve
rfah
rens
Form
elB
ezei
chnu
ng
1 Tb
Übe
rtra
gene
rIn
form
atio
nsflu
ß
TM
odul
atio
nsin
terv
all,
Mod
ulat
ions
schr
itt
MM
odul
atio
nsst
ufen
zahl
Es=∑ M
−1
m=
0Em·P
(M=m
)M
ittl
ere
Sign
alen
ergi
eje
Sym
bol
Es=
1 M
∑ M−
1m
=0Em
Mit
tler
eSi
gnal
ener
gie
jeSy
mbo
lbei
glei
chw
ahrs
chei
nlic
hen
Sign
alel
emen
ten
Em
=∫ ∞ −
∞|s
m(t
)|dt
Mit
tler
eSi
gnal
ener
gie
jeSy
mbo
l
S=
EsT
mit
tler
eSi
gnal
leis
tung
R=R
c·L V[
bit
Mod
ulat
ions
absc
hnit
t] Abb
ildun
gvo
nL
Cod
esym
bole
nm
itjeR
cbi
tIn
form
atio
nau
fV
Sign
alel
emen
te
R=
T Tb≤
ld(M
)K
onti
nuit
ätsb
edin
gung
1bi
tT
b=
Rbi
tT
R=
ld(M
)be
ired
unda
nzfr
eier
Übe
rtra
gung
1 T=
1 Tb·
1 R=
1T
b·R
c·L
Schr
ittg
esch
win
digk
eit
(Bau
drat
e)
Eb
=S·T
b=
EsR
mit
tler
eSi
gnal
ener
gie
jebi
tIn
form
atio
n
MZu
falls
vari
able
zur
Sign
alnu
mm
erm
48
1. Nachrichtenübertragung
1.15.3. Signalformung
Verfahren zur Erzeugung einer nicht gleichwahrscheinlichen Verteilung für dieSignalelemente.
Shaping-Redundanz:ρS = ld(M)−H(M) (171)
1.15.4. Rate eines digitalen Übertragungsverfahrens
R = Rc ·Rm =T
Tb
[bit
Modulationswert
](172)
Mittlerer Informationsgehalt, der pro Modulationsschritt übertragen werd, Ka-nalcodierung, Zuordnung und Signalformung eingeschlossen.
1.16. Digitale Pulsamplitudenmodulation
Sind alle M Signalelemente eines digitalen Modulationsverfahrens Vielfacheeiner Grundimpulsform g(t), d. h.
si(t) = aig(t) i ∈ 0, . . . ,M − 1 (173)
so spricht man von Pulsamplitudenmodulation.Der Digitalen Symbolfolge wird eine Sequenz von Amplitudenkoeffizienten
zugeordnet, die einer Menge A mit M Elementen entstammen. das Sendesignalsetzt sich aus äquidistanten Impulsen zusammen, die mit den Amplitudenko-effizienten gewichtet werden:
s(t) =∞∑
k=−∞am[k]g(t− kT ) am[k] ∈ A ∧ k ∈ Z (174)
1.16.1. Impulsformer
Ein Impulsformer ist ein Filter, das die Sendeimpulse so formt, daß sie möglichstwenig Bandbreite benötigen.
1.16.2. Grundimpulsform der PAM
1.16.2.1. Energie des Grundimpulses
Eg =
∞∫−∞
|g(t)|2 dt =
∞∫−∞
|G(f)|2 df (175)
49
1. Nachrichtenübertragung
1.16.2.2. Leistungsdichtespektrum der zeitdiskreten Folge
Φaa(F ) = σ2a + |ma|2 ·
1T·
∞∑t=−∞
δ
(F − l
T
)(176)
1.16.2.3. Leistungsdichtespektrum des PAM-Signals
Φss(f) = σ2a ·|G(f)|2
T+ |ma|2 ·
|G(f)|2
T 2·
∞∑t=−∞
δ
(f − l
T
)(177)
1.16.2.4. Spitzenwertfaktor des PAM-Signals
ζ ≤ ζa · ζg (178)
wobei
ζa =maxam |am|√E |a|2
(179)
ζg =maxt
∑∞k=−∞ |g(t− kT )|√
Eg
T
(180)
1.16.3. Signalangepaßtes Filter
zur optimalen Detektion von Impulsen beim AWGN-Kanal. Liefert eine ge-spiegelte und verschobene Version des Originalimpulses.
HM(f) = γG∗(f) · e−j2πfTV (181)hM(t) = γg∗(TV − t) (182)
g(t): gesuchter Impuls.Für PAM ist
γ =1Eg
(183)
1.16.4. ISI-freie PAM-Übertragung über den AWGN-Kanal
Ermöglicht die optimale Extraktion mittels Signalangepaßtem Filter.
1.16.4.1. Detektionssignal am Ausgang des Signalangepaßten Filters:
d(t) =∞∑
k=−∞am[k]ϕ(t− kT − TV ) (184)
50
1. Nachrichtenübertragung
1.16.4.2. Störsignal am Ausgang des Signalangepaßten Filters:
σ2n = φndnd
(0) =N0
xEg(185)
Die Störabtastwerte sind statistisch unabhängig, wenn das 1. Nyquistkriteriumerfüllt ist (siehe 1.16.4.3).
1.16.4.3. 1. Nyquist-Kriterium
ϕ[λT ] =
∞∫−∞
g(t′ + λT ) · g∗(t′) dt′ =
Eg für λ = 0
0 sonst
= δ[λ]Eg (186)
⇒ Um Vielfaches des Grundimpulses verschobene Impulse sind wechselseitigorthogonal.
1.16.4.4.√
Nyquist-Impuls Impulse g(t), deren Autokorellierte ϕgg(τ) mitsich selbst bei l
T ∀l ∈ Z spektral überlagert äquidistante Nullstellen bei t =kT∀k ∈ Z \ 0 besitzt. Das gilt insbesondere für
1. Jeden zeitbegrenzten Impuls.
2. Rechteck/Trapez im Frequenzbereich.
3. Punktsymmetrische cos-Flanke im Frequenzbereich.√
Nyquist-Impulse ermöglichen eine ISI-freie Übertragung über nichtverzerren-de Kanäle mit anschließender Rekonstruktion durch Signalangepaßte Filter.
1.16.5. Detektion und Decodierung für digitale PAM-Signale
Ein Abtastwert pro Modulationsschritt ist hinreichend, falls phasensynchronabgetastet wird (dies reicht jedoch nicht für eine Rekonstruktion eines zeitkon-tinuierlichen Signals).
1.16.5.1. MAP-Regel
~a = argminM−1~a∈C1σ2n
∣∣∣~d− ~a∣∣∣2 − ln(P ( ~A = ~a)) (187)
~d ist das Detektionssignal, ~a der Kandidat, aus dem ~d entstanden sein könnte.
51
1. Nachrichtenübertragung
Tabelle 20: Beispiele für Minimale Euklidische Distanzen einiger Modulations-arten ohne Kanalcodierung.
Verfahren d2min
ASK bipolar 6ld(M)M2−1
PSK 2ld(M) · sin2(πM
)QAM quadratische Konstellation 3ld(M)
M−1
1.16.5.2. ML-Regel
~a = argminM−1~a∈C
∣∣∣~d− ~a∣∣∣2 (188)
1.16.5.3. Metrik eines Codeworts ~c
Λ(~c) = c1 ln(f~d(~d|~a)) + c2 (189)
1.16.5.4. Normierte Euklidische Distanz eines digitalen Übertragungs-verfahrens
d2min :=
Eg2Eb
·min~m6=~l
∞∑k=−∞
|am[k] − al[k]|2 (190)
Ohne Kanalcodierung
d2min =
Eg2Eb
·minm=l
|am − al|2∀m, l ∈ 0; 1; . . . ;M − 1 (191)
Beispielwerte siehe Skript S. 544.
Mit Kanalcodierung
d2min =
Eg
2Ebmin~m6=~l
N−1∑k=0
∣∣am[k] − al[k]∣∣2 : M−1 ~m ,M−1
~l∈ C (192)
1.16.6. Fehlerwahrscheinlichkeit bei kohärenter Demodulation
1.16.6.1. ML-Detektion ohne Kanalcodierung
52
1. Nachrichtenübertragung
Symbolfehlerwahrscheinlichkeit bei Bipolarer ASK
SER =2M − 2M
·Q
(√d2
min ·EbN0
)(193)
Schätzungstip: Für große M verhält sich der Vorfaktor wie 2.
Allgemeine untere Schranke
SER ≤ Nmin ·Q
(√d2
min ·EbN0
)(194)
Nmin mittlere Zahl Nachbarsignalpunkte.
Bitfehlerwahrscheinlichkeit bei PAM mit Gray-Zuordnung
BER ≈ Nmin
ld(M)·Q
(√d2
min ·EbN0
)(195)
1.16.6.2. Kapazität des AWGN-Kanals
C = log2
(1 +
S
N
)(196)
Im Optimalfall nimmt R den Wert C an.
1.16.6.3. Leistungs-Raten-Diagramm für digitale PAM
R =T
Tbld(
1 +Eb
N0·R)
= ld
(1 +
S · TbN0T · Tb
)(197)
Eb
N0=
1R
(198)
ES
N0= 2R − 1 ⇔ R = ld
(1 +
ES
N0
)= Γd · (1 + α)
(2R − 1
)(199)
1.16.6.4. Leistungs-Bandbreiten-Diagramm für digitale PAM Band-breiteneffizienz für
√Nyquist-Impulse:
Trägermoduliert
Γd =1
BHF· Tb =
R
1 + α=
ld(M)1 + α
(200)
BHF =1T
(1 + α) =1 + α
ld(M) · Tb(201)
53
A. Mathematische Grundlagen
Basisbandübertragung
Γd = 2 · R
1 + α= 2 · ld(M)
1 + α(202)
BS =1
2T· (1 + α) =
1 + α
2(ld(M) · Tb)(203)
1.16.6.5. Kanalcodierung für binäre bipolare Übertragungsverfahren
Hamming-Distanz Anzahl δ der Symbole, in denen sich zwei Codewörter~cn und ~ci unterscheiden. δmin − 1 Fehler sind erkennbar, δmin−1
2 Fehler sindkorrigierbar.
Rate eines CodesRc =
k
n
[bit
Codesymbol
](204)
k Quellwortlänge, n Codewortlänge.Fehlerkorrektur bedeutet Störabstandsgewinn durch Bandbreitenerweiterung.
Ratenverlust Kanalcodierung verursacht einen Ratenverlust, da für die Co-deredundanz Energie aufgewendet werden muß.
Eb =ES
R= ES ·
Tb
T(205)
Bei binärem Kanalcode gilt
Eb =ES
Rc · ld(M)(206)
A. Mathematische Grundlagen
A.1. Frequenz
A.1.1. Definition
f :=1T
(207)
T ist die Periode der Schwingung.
54
A. Mathematische Grundlagen
Tabelle 21: Teile von Einheiten
Bezeichnung Präfix Faktor Faktor2 Faktor3
yotto y 10−24 10−48 10−72
zepto z 10−21 10−42 10−63
atto a 10−18 10−36 10−54
femto f 10−15 10−30 10−45
pico p 10−12 10−24 10−36
nano n 10−9 10−18 10−27
micro µ 10−6 10−12 10−18
milli m 10−3 10−6 10−12
centi c 10−2 10−4 10−8
deci d 10−1 10−2 10−4
55
A. Mathematische Grundlagen
Tabelle 22: Vielfache von Einheiten
Bezeichnung Präfix Faktor Faktor2 Faktor3
Deka da 101 102 103
Hekto h 102 104 106
Kilo k 103 106 1012
Mega M 106 1012 1018
Giga G 109 1018 1027
Tera T 1012 1024 1036
Peta P 1015 1030 1045
Exa E 1018 1036 1054
Zeta Z 1021 1042 1063
Yotta Y 1024 1048 1072
56
A. Mathematische Grundlagen
A.1.2. Kreisfrequenz
ω := 2πf (208)
A.1.3. Normierte Kreisfrequenz
Ω :=ω
fa(209)
fa ist die Abtastfrequenz.
A.1.4. Die z-Ebene
z := ejΩ (210)
A.2. Lösungsformel für quadratische Gleichungen
ax2 + bx+ c = 0 (211)
⇒ x1,2 =
−b±
√b2 − 4ac
2afalls b2 − 4ac ≥ 0
−b± j√−(b2 − 4ac)2a
falls b2 − 4ac < 0(212)
A.3. Geradengleichung
A.3.1. Gerade durch einen Punkt P (x0, y0) mit Steigung m
y = m(x− x0) + y0 (213)
A.3.2. Gerade durch die Punkte P (x0, y0) und A(x1, y1)
y = y0 +y1 − y0
x1 − x0· (x− x0) mit x1 6= x0 (214)
A.3.3. Parameterform
x = x0 + t cosα (215)y = y0 + t sinα (216)
mit t ∈ ]−∞,∞[.
A.3.4. Allgemeine Form der Geradengleichung
Ax+By + C = 0 (217)
57
A. Mathematische Grundlagen
cottan
cos
sin
Abbildung 2: Trigonometrische Funktionen
Tabelle 23: Trigonometrische Funktionen – Funktionswerte besonderer Winkel
0 π6
π4
π3
π2 π 3
2π Quadrant
ϕ 0 30 45 60 90 180 270 I II III IV
sinϕ 0 12
12
√2 1
2
√3 1 0 −1 + + − −
cosϕ 1 12
√3 1
2
√2 1
2 0 −1 0 + − − +
tanϕ 0 13
√3 1
√3 nicht
definiert0 nicht
definiert+ − + −
cotϕ nichtdefiniert
√3 1 1
3
√3 0 nicht
definiert0 + − + −
58
A. Mathematische Grundlagen
A.4. Additionstheoreme
sinα · sinβ =12(cos(α− β)− cos(α+ β)) (218)
cosα · cosβ =12(cos(α− β) + cos(α+ β)) (219)
sinα · cosβ =12(sin(α− β) + sin(α+ β)) (220)
sin2 α =12(1− cos 2α) (221)
cos2 α =12(1 + cos 2α) (222)
sin 2α = 2 sinα cosα = 1− cos2 α (223)
cos 2α = cos2 α− sin2 α = 1− sin2 α (224)
sinα =ejα − e−jα
2j(225)
cosα =ejα + e−jα
2(226)
ejα = cosα+ j sinα (227)
e−jα = cosα− j sinα (228)
A.5. Rechenregeln des Logarithmus
logb(u · v) = logb u+ logb v logb(uv
)= logb u− logb v (229)
logb uz = z · logb u logb
n√u =
1n· logb u (230)
A.6. Differentiation
A.6.1. Regeln
A.6.1.1. Quotientenregel (uv
)′=u′v − uv′
v2(231)
59
A. Mathematische Grundlagen
A.6.1.2. Kettenregel
(u(v(x)))′ = u′(v(x)) · v′(x) (232)
A.6.1.3. Produktregel
(u(x) · v(x))′ = u(x) · v′(x) + u′(x) · v(x) (233)
A.6.1.4. Logarithmische Differentiation
y = u(x)v(x) mit u(x) > 0 (234)
⇒ y′ = u(x)v(x)(v′(x) · lnu(x) +
v(x) · u′(x)u(x)
)(235)
A.6.1.5. Differentiation eines parameterabhängigen Integrals
∂
∂x
b(x)∫a(x)
f(t, x) dt =
b(x)∫a(x)
∂
∂xf(t, x) dt+f(b(x), x)·b′(x)−f(a(x), x)·a′(x) (236)
A.6.1.6. l’Hospital’sche Regel
limx→a
u(x)v(x)
= limx→a
u′(x)v′(x)
(237)
A.6.2. Operatoren
A.6.2.1. Laplace-Operator ∆
∆f :=n∑i=1
∂2f
∂x2i
(238)
= Sp (Hessf (~x)) (239)= ∇ · ∇f (240)
A.6.2.2. Divergenz-Operator div
Definition
divf :=n∑i=1
∂fi∂xi
= Sp(J~v) = ∇ · f (241)
Rechenregeln
∇ · (φ~v) = (∇φ) · ~v + φ(∇~v) (242)∇ · (~v × ~w) = ~w · (∇× ~v)− ~v · (∇× ~w) (243)
60
A. Mathematische Grundlagen
A.6.2.3. Gradient-Operator ∇
Definitiongradf := ∇f = (fx1 , · · · , fxn)T (244)
Rechenregeln∇(A+B) = ∇A+∇B (245)
∇(A B) = ∇A B +∇A
B (246)
Hierbei bedeutet „“ eines der Produkte „·“, „ד oder „⊗“ und „A“ bedeutet,
daß ∇ nur auf A angewandt wird. Damit folgt:
∇(φψ) = φ(∇ψ) + (∇φ)ψ (247)∇(φ~v) = ~v ⊗ (∇φ) + φ(∇~v) (248)
∇(~v · ~w) = (∇~v)T ~w + (∇~w)T~v (249)∇ · (φf) = (∇φ) · f + φ∇ · f (250)
A.6.2.4. Rotations-Operator
Definition
rot~V :=
∂v3∂x2
− ∂v2∂x3
∂v1∂x3
− ∂v3∂x1
∂v2∂x1
− ∂v1∂x2
= ∇× ~V (251)
Rechenregeln
∇× (φ~v) = (∇φ)× ~v + φ(∇× ~v) (252)
∇× (~v × ~w) = (∇ · ~w)~v +∂~v
∂ ~w− (∇ · ~v)~w − ∂ ~w
∂~v(253)
Hierbei ist ∂~v∂ ~w die Richtungsableitung von ~v in Richtung von ~w, d. h. ∂
∂ ~w = ~w·∇.
61
A. Mathematische Grundlagen
A.6.2.5. Jacobi-Matrix (Funktionalmatrix)
∇~f =∂ ~f
∂~x= J ~f =
∂f1∂x1
· · · ∂f1∂xn
.... . .
...
∂fm
∂x1· · · ∂fm
∂xn
= ~f ⊗∇ (254)
A.6.2.6. Hesse-Matrix
Hessφ(~x) =∂2φ
∂x2=
∂2φ∂x2
1
∂2φ∂x1∂x2
∂2φ∂x1∂x3
∂2φ∂x2x1
∂2φ∂x2
2
∂2φ∂x2∂x3
∂2φ∂x3x1
∂2φ∂x3x2
∂2φ∂x2
3
(255)
= grad(gradφ) = ∇⊗∇φ (256)
A.6.2.7. Zusammengesetzte Operationen
∇ · (∇× ~v) = 0 (257)∇× (∇φ) = 0 (258)
∇× (∇× ~v) = ∇(∇ · ~v)−∆~v (259)
A.7. Integrationsregeln
A.7.1. Partielle Integration∫u(x)v′(x) dx = u(x)v(x)−
∫u′(x)v(x) dx (260)
A.7.2. Substitutionsregel
x = u(t) bzw. t = v(x). u und v seien zueinander Umkehrfunktionen.∫f(x) dx =
∫f(u(t))u′(t) dt bzw. (261)∫
f(x) dx =∫
f(u(t))v′(u(t))
dt (262)
62
A. Mathematische Grundlagen
Tabelle 24: Potenzen der imaginären Einheit
n 0 1 2 3
j(n mod 4) 1 j −1 −j
A.7.3. Logarithmische Integration∫f ′(x)f(x)
dx = ln |f(x)|+ c (263)∫f ′(x) · f(x) dx =
12· f2(x) + c (264)
A.7.4. Integration der Umkehrfunktion
u und v seien zueinander Umkehrfunktionen. Dann ist∫u(x) dx = xu(x)− F (u(x)) + c1 (265)
mitF (x) =
∫v(x) dx+ c2 (266)
A.8. Komplexe Zahlen
z = a+ jb (267)= ρ(cosϕ+ j sinϕ) (268)
arg z = ϕ+ 2kπ (−π < ϕ ≤ +π ∧ k ∈ Z) (269)
a = ρ cosϕ (270)b = ρ sinϕ (271)
ρ =√a2 + b2 (272)
ϕ =
arccos aρ für b ≥ 0 ∧ ρ > 0
− arccos aρ für b < 0 ∧ ρ > 0
unbestimmt für ρ = 0
(273)
63
A. Mathematische Grundlagen
ϕ =
arctan ba für a > 0
+π2 für a = 0 ∧ b > 0
−π2 für a = 0 ∧ b < 0
arctan ba + π für a < 0 ∧ b ≥ 0
arctan ba − π für a < 0 ∧ b < 0
(274)
z = ρ · ejϕ (275)
ejϕ = cosϕ+ j sinϕ (276)
ea+jb = ea · cos b+ jea · sin b (277)
A.8.1. Komplexe Wurzel
n√z = n
√|z| ·
(cos(ψ + 2πk
n
)+ j sin
(ψ + 2πk
n
))(278)
mit k = 0, . . . , n− 1 und ψ = arg(z).
A.9. Binomialkoeffizient(n
k
)=(
n
n− k
)=
n!k!(n− k)!
(279)
A.9.1. Reihen
Für konvergente Reihen gilt
∞∑n=1
(αan + βbn) = α
∞∑n=1
an + β
∞∑n=1
bn (280)
A.10. Abschätzung mittels Union-Bound
P (A ∪B) = P (A) + P (B)− P (A ∩B) ≤ P (A) + P (B) (281)
14Harmonische Reihe15Geometrische Reihe
64
A. Mathematische Grundlagen
Tabelle 25: Bekannte Reihen
Formel Anmerkung
14∞∑n=1
1n
divergiert
15∞∑k=0
qk1
1− qfalls |q| < 1
k1∑k=k0
qkqk0 − qk1+1
1− q
n∑(−1)n
ln(
12
)∞∑n=1
1n2
π6
∞∑n=1
1nα
konvergiert für α > 1
m∑n=1
nm · (m+ 1)
2
m∑n=1
n2 m · (m+ 1) · (2n+ 1)6
65
B. Abtasttheorem
A.11. Bessel-Funktion erster Art
A.11.1. Definition
Jν(η) =12π
π∫−π
ej(η sinx−νx) dx (282)
≈ 1n!·(x
2
)n− 1
(n+ 1)!·(x
2
)n+1falls x 1 (283)
A.11.2. Eigenschaften
• n gerade ⇒ Jn(x) = Jn(−x) = J−n(x) = J−n(−x)
• n ungerade ⇒ Jn(x) = −Jn(−x) = −J−n(x) = J−n(x)
B. Abtasttheorem
B.1. Basisband-Signale
ωB ≤ωS2
=π
T(284)
B.2. Bandpass-Signale
ωS = 2ωB mit ωB = ω2 − ω1 (285)
falls die obere Bandgrenze ω2 ganzzahliges Vielfach der Bandbreite ωB ist.Sonst wähle maximales ganzzahliges n, so daß
ωS = 2ω2
n> 2ωB (286)
B.3. Interpolationsfilter
B.3.1. Basisbandsignale
H(jω) = T rect(
ω
2ωB
)(287)
(288)h(t) = T · 2 · ωB · sinc(t · ωB)(?) (289)
66
C. Zufallsvariablen
B.3.2. Bandpaßsignale
H(jω) = T rect(ωT
π
)∗(δ
(ω − ω0 −
∆ω2
)+ δ
(ω + ω0 +
∆ω2
))(290)
(291)
h(t) = sinc(πt
2T
)· cos
((ω0 +
∆ω2
)· t)
(292)
B.4. Abtastung
xs(t) = xc(t) ∗∞∑−∞
δ(t− nT ) (293)
(294)
Xs(jω) =12πXc(jω) · 2π
T
∞∑k=−∞
δ(ω − 2πT· k) (295)
C. Zufallsvariablen
C.1. Statistische Unabhängigkeit
C.1.1. Statistische Unabhängigkeit
fXY (x, y) = fX(x) · fY (y) (296)
C.1.2. Unkorreliertheit
E XY = E X · E Y (297)
Aus statistischer Unabhängigkeit folgt Unkorreliertheit – ausschließlich beiGauß-Verteilung folgt aus Unkorreliertheit statistische Unabhängigkeit.
Für unkorrelierte Zufallsprozesse gilt
SXY (jω) = 2π ·mX ·m∗Y · δ(ω) (298)
SXY (ejΩ) = 2π ·mX ·m∗Y ·
∞∑k=−∞
δ(Ω− 2πk) (299)
67
C. Zufallsvariablen
C.1.3. Orthogonalität
Zwei Zufallsvariablen X und Y heißen orthogonal, wenn E XY = 0.Aus Unkorreliertheit und E X = 0 ∪ E Y = 0 folgt Orthogonalität.Für orthogonale Zufallsprozesse gilt
RXY = 0 ∧ SXY = 0 (300)
C.2. Bedingte Wahrscheinlichkeit
P (B|A) =P (B ∩A)
P (A)(301)
C.2.0.1. Satz von Bayes
P (A|B) =P (B|A) · P (A)
P (B)(302)
Bei statistischer Unabhängigkeit gilt
P (A|B) = P (A) ∧ P (B|A) = P (B) (303)
1. P (B|B) = 1
2. P (∅|B) = 0
3. Falls A ∩B = ∅, so gilt
P (A ∪ C|B) = P (A|B) + P (C|B) (304)
C.3. Abbildungen von Zufallsvariablen
C.3.1. Eindimensionaler Fall
fY (y) = fX(x) · |dx|dy
=fX(x)|g′(x)|
(305)
C.3.2. Mehrdimensionaler Fall
fY (~y) =fX(g−1(~y))
|det J(g−1(~y))|=
fX(~x)|det J(~x)|
mit J(~x) =
∂g1∂x1
· · · ∂g1∂xK
.... . .
...
∂gK∂x1
· · · ∂gK∂xK
(306)
68
C. Zufallsvariablen
1e− 16
1e− 14
1e− 12
1e− 10
1e− 08
1e− 06
0.0001
0.01
1
2 4 6 8 10 12 14 16 18
Q(x
)−→
20 log10(x) −→
(a) logarithmische Darstellung
Abbildung 3: Das komplementäre gauß’sche Fehlerintegral
fUW (u,w) =fXY (x, y)|det J(x, y)|
(307)
C.4. Wichtige Funktionen
C.4.1. Komplementäres gauß’sches Fehlerintegral
Q(x) :=
∞∫x
1√2π
e−y2
2 dy (308)
Tip: Bei Q(√
2 · . . .) hebt sich die Wurzel mit 20 log(. . . ) weg.
69
C. Zufallsvariablen
C.5. Verteilung und Dichte
C.5.1. Eigenschaften einer Dichte
fX(x) ≥ 0 ∧∞∫
−∞
fX(x) dx = 1 (309)
C.5.2. Eigenschaften einer Verteilung
Eine Wahrscheinlichkeitsverteilung ist immer monoton steigend. Außerdem gilt
0 ≤ FX(x) ≤ 1 (310)
C.5.3. Randdichte und Randverteilung
C.5.3.1. Randdichte
fX(x) =
∞∫−∞
fXY (x, η) dη (311)
fY (y) =
∞∫−∞
fXY (ξ, y) dξ (312)
C.5.3.2. Randverteilung
FX(x) =
x∫−∞
∞∫−∞
fXY (ξ, η) dη dξ =
x∫−∞
fX(ξ)dξ (313)
FY (y) =
y∫−∞
∞∫−∞
fXY (ξ, η) dξ, dη =
y∫−∞
fY (η) dη (314)
C.5.4. Bedingte Verteilungen
FX|X>t(x) =
∫ x−t fX(ξ) dξ1− FX(t)
(315)
fY (y|X = x) =fXY (x, y)fX(x)
(316)
fY |X(y) =fXY (x,y)
fX(x)(317)
70
C. Zufallsvariablen
C.5.5. Spezielle Verteilungen
Skript ab Seite 131.
C.5.5.1. Gleichverteilung
Diskreter Fall
fX(x) =1N·N∑i=1
δ(x− xi) (318)
mX =1N·N∑i=1
xi (319)
σ2X =
1N·N∑i=1
(xi −mX)2 (320)
Kontinuierlicher Fall
fX(x) =
1
xmax−xminfür xmin ≤ x ≤ xmax
0 sonst(321)
mX =xmax + xmin
2(322)
σ2X =
x3max − x3
min
3(xmax − xmin)− (xmax + xmin)2
4(323)
Der Spitzenwertfaktor eines Zufallsprozesses mit gleichverteilter Amplitude istζq0 =
√3.
C.5.5.2. Binomialverteilung (Bernoulli-Experiment)
fX(x) =N∑k=0
(N
k
)pk · (1− p)N−k · δ(x− k) mit 0 < p < 1 (324)
FX(x) =N∑k=0
(N
k
)pk · (1− p)N−k · ε(x− k) mit 0 < p < 1 (325)
mX = N · p (326)
m(2)X = N · p(1 +Np− p) (327)
σ2X = N · p(1− p) (328)
71
C. Zufallsvariablen
Die Binomialverteilung nähert sich für N · p · (1− p) 1 der Normalverteilungan.
C.5.5.3. Geometrische Verteilung Beschreibt die Zahl der Fehlversuchebis zum ersten Treffer.
fX(x) =∞∑k=0
p · (1− p)k · δ(x− k) mit 0 < p < 1 (329)
FX(x) =∞∑k=0
p · (1− p)k · ε(x− k) (330)
ΦX(s) =p
1− (1− p) · es(331)
mX =1− p
p(332)
m(2)X =
(1− p)(2− p)p2
(333)
σ2X =
1− p
p2(334)
C.5.5.4. Poisson-Verteilung Wahrscheinlichkeit, daß bei einem wiederhol-ten Bernoulli-Experiment k Ergebnisse im Intervall ∆ liegen.
fX(x) = e−a ·∞∑k=0
ak
k!· δ(x− k) (335)
FX(x) = e−a ·∞∑k=0
ak
k!· ε(x− k) (336)
ΦX(s) = ea(es−1) (337)
mX = a (338)
m(2)X = a+ a2 (339)
σ2X = a (340)
Wobei a = λ∆.
C.5.5.5. Gauß-Verteilung (Normal-Verteilung) N (mX , σX)
72
C. Zufallsvariablen
Definition
fX(x) =1√
2π · σX· e−(x−mX)2/2σ2
X (341)
FX(x) =12·[1 + erf
(x−mX√
2σX
)]mit erf(x) =
2√π∫ x0
e−ξ2
dξ (342)
ΦX(s) = es2σ2
X/2+smX (343)
Nur bei normalverteilten Zufallsvariablen gilt:Xi unkorreliert ⇒ Xi statistisch unabhängig. Der Spitzenwertfaktor eines
Zufallsprozesses mit gaußverteilter Amplitude geht gegen Unendlich.
Zwei gemeinsam normalverteilte Zufallsvariablen
fXY (x, y) =1
2πσXσY√
1− c2XY
·e
„− 1
2(1−c2XY
)·„
(x−mX )2
σ2X
−2cXY ·(x−mX )(y−mY )
σXσY+
(y−mY )2
σ2Y
««
(344)
N gemeinsam normalverteilte Zufallsvariablen N ZufallsvariablenX1, . . . , XN
werden als gemeinsam normalverteilt bezeichnet, wenn jede Linearkombinationy = a1X1 + · · ·+ aNYN = ~a ~X eine normalverteilte Zufallsvariable erzeugt.
C.5.5.6. Cauchy-Verteilung
fX(x) =b
π(b2 + (x− a)2)(345)
x0,5 = a = mX (346)
C.5.5.7. Lognormal-Verteilung
fX(x) =1√
2πσUx· e− (ln x−mU )2
2σ2U · ε(x) (347)
C.5.5.8. Laplace-Verteilung
fX(x) =1√2σX
· e−√
2|x−mX |/σX (348)
ΦX(s) =2
2− σ2Xs
2· esmX (349)
73
C. Zufallsvariablen
C.5.5.9. Γ-Verteilung
fX(x) =λa · xa−1eλx
Γ(a)ε(x) (350)
FX(x) =
∞∫0
λaξa−1e−λξ
Γ(a)dξ · ε(x) (351)
Γ(x) =
∞∫0
tx−1 · e−t dt x > 0 (352)
= (x− 1)! (353)
ΦX(s) =(
λ
λ− s
)a(354)
mX =a
λ(355)
m(2)X =
a(a+ 1)λ2
(356)
σ2X =
a
λ2(357)
Erlang-Verteilung
fX(x) =λnxn−1e−λx
(n− 1)!· ε(x) (358)
χ2-Verteilung Spezialfall der Γ-Verteilung für λ = 12 und a = b
2 , b ∈ N.
fX(x) =xb/2−1e−x/2
2b/2 · Γ(b/2)· ε(x) (359)
ΦX(s) =(
11− 2s
) b2
(360)
χ-Verteilung
fX(x) =2xN−1e−
x2
2
2N2 Γ(N2 )
· ε(x) (361)
74
C. Zufallsvariablen
Rayleigh-Verteilung (für N = 2)
z =√x2 + y2 (362)
fZ(z) =z
σ2· e−
x2
2σ2 wobei z ≥ 0 (363)
mZ =√π
2· σ (364)
σ2Z =
(2− π
2
)· σ2 (365)
Maxwell-Verteilung (für N = 3)
fX(x) =
√2π· x2 · e−
x2
2 · ε(x) (366)
Exponential-Verteilung
FX(x) =(1− e−λx
)· ε(x) (367)
fX(x) =(λe−λx
)· ε(x) (368)
ΦX(s) =λ
λ− s(369)
mX =1λ
(370)
m(2)X =
2λ2
(371)
σ2X =
1λ2
(372)
C.6. Perzentil und Median
Das u-Perzentil einer Zufallsvariable X ist der kleinste Wert, für den gilt
u = P (X ≤ xU ) = FX(xU ) =
xU∫−∞
fX(ξ) dξ (373)
Das 0,5-Perzentil wird auch Median genannt.
75
D. Zufallsprozesse
C.7. Erzeugende Funktionen
C.7.1. Momentenerzeugende Funktion ΦX(s)
ΦX(s) = E
esX
=
∞∫−∞
fX(x)esx dx = LfX(−x) (374)
Das Moment n-ter Ordnung entspricht der n-ten Ableitung von Φ(n)X (0) bei
s = 0.
C.7.2. Charakteristische Funktion ΦX(jω)
ΦX(jω) = E
ejωX
=
∞∫−∞
fX(x)ejωx dx =
∞∫−∞
fX(−x)e−jωx dx = F fX(−x)
(375)
C.7.3. Kumulantenerzeugende Funktion ΨX(s)
ΨX(s) = lnΦX(s) =∞∑n=0
Ψ(n)X (0)n!
sn (376)
Kumulanten: λ(n)X = Ψ(n)
X (0)
D. Zufallsprozesse
D.1. Stationarität
D.1.1. Strenge Stationarität
Ein Prozeß heißt streng stationär, wenn gilt
fX(t1)···X(tN )(x1, . . . , xN ) = fX(t1+∆)···X(tN+∆)(x1, . . . , xN ) ∀N ∈ N, ∆ ∈ R(377)
D.1.2. Gemeinsame strenge Stationarität
fX(t1)···X(tM )Y (t1)···Y (tN )(x1, . . . , xN , y1, . . . , yN )
= fX(t1+∆)···X(tN+∆)Y (t1+∆)···Y (tN+∆)(x1, . . . , xN , y1, . . . , yN ) ∀M,N ∈ N, ∆ ∈ R
76
D. Zufallsprozesse
D.1.3. Schwache Stationarität
1.mX(t) = mX (378)
2.
RXX(t1, t2) = E X(t1)X∗(t2) (379)= RXX(t+ τ, t) = E X(t+ τ)X∗(t) (380) RXX(τ) mit τ := t1 − t2 (381)
3.RXY (t+ τ, t) := RXY (τ) (382)
speziell SXY = RXY (0) Kreuzleistung.
4. Für komplexe Zufallsprozesse gilt
Rex(η, t) = xI(η, t) Inphasekomponente (383)Imx(η, t) = xQ(η, t) Quadraturkomponente (384)
a)RxIxI(τ) = RxQxQ(τ) (385)
Real- und Imaginärteil besitzen gleiche AKF.
b)RxIxQ(τ) = −RxIxQ(−τ) (386)
Punktsymmetrische KKF zwischen Real- und Imaginärteil. Schwachstationäre Prozesse sind somit rotationsinvariant, d. h. x(η, t) undx(η, t) · ejϕ haben die gleiche AKF.
Ein als komplex definierter Zufallsprozeß, dessen Imaginärteil 0 ist kannniemals stationär sein.
5. Symmetrieeigenschaft: RXX(τ) = R∗XX(−τ), speziell beim reellen Zu-fallsprozeß RXX(τ) = RXX(−τ) und RXY (τ) = RY X(−τ).
Bei normalverteilten Prozessen gilt:Schwache Stationarität ⇒ Stationarität.
D.1.3.1. Eigenschaften (schwach) stationärer Prozesse
77
D. Zufallsprozesse
AKF und AKV
RXX(−τ) = R∗XX(τ) (387)CXX(−τ) = C∗XX(τ) (388)
RXX(τ) = E X(t+ τ)X∗(t) (389)= E X(t+ τ + t0)X∗(t) (390)= RXX(τ + t0) (391)
AKF und AKV haben ein Maximum in τ = 0.
KKF und KKV
RXY (−τ) = R∗Y X(τ) (392)CXY (−τ) = C∗Y X(τ) (393)
CXY (t1, t2) = RXY (t1, t2)−mX(t1)mY (t2) (394)= RXY (t+ τ, t)−mX(t+ τ)m∗
Y (t) (395) RXY (τ)−mXm
∗Y (396)
Auto- und Kreuz-LDS Grundsätzlich gilt:
SXX(jω) ≥ 0 (397)
Komplexer Fall
SXX(jω) = S∗XX(jω) (398)SXY (jω) = S∗XY (jω) (399)
Reeller Fall
SXX(jω) = SXX(−jω) (400)SXY (jω) = SY X(−jω) (401)
D.1.4. Zyklostationäre Prozesse
fX···X(x1, . . . , xN , t1, . . . , tN ) = fX···X(x1, . . . , xN , t1 + kT, . . . , tN + kT ) ∀k ∈ Z(402)
Die zeitlich gemittelte AKF eines zyklostationären Prozesses hat die gleichenEigenschaften wie die AKF eines stationären Prozesses (siehe Abschnitt D.1.3.1).
78
D. Zufallsprozesse
D.1.5. Schwach zyklostationäre Prozesse
mX(t+ kT ) = mX(t) (403)
RXX(t+ τ + kT, t+ kT ) = RXX(t+ τ, t) (404)
D.1.6. Ergodizität
Ein Prozeß heißt ergodisch, wenn jeder zeitliche Mittelwert einer beliebigenMusterfunktion mit dem entsprechenden Scharmittelwert identisch ist.
Nachweis: Aus
mX konstant
CXX(t0, t1) = CXX(τ)
schwache Stationarität (405)
und
limT→∞
12T
2T∫−2T
(1− |τ |
2T
)CXX(τ) dτ = 0 (406)
folgt Ergodizität.
D.2. Mittelwerte
D.2.1. Erwartungswert
Erwartungswertoperator für eine Funktion g und eine reelle ZufallsvariableX(η):
E g(X) =
∞∫−∞
g(x)fX(x) dx (407)
Eg( ~X)
=
∞∫−∞
· · ·∞∫
−∞
g(~x)f ~X(~x) d~x (408)
Der Erwartungswertoperator ist linear:
E a1g1(X) + a2g2(X) = a1E g1(x)+ a2E g2(x) (409)
Das Signal-Störleistungs-Verhältnis berechnet sich aus den Mittelwerten zwei-ter Ordnung folgendermaßen:
SNR = 10 log10
(m
(2)X
m(2)N
)dB (410)
79
D. Zufallsprozesse
D.2.2. Momente n-ter Ordnung
D.2.2.1. kontinuierlich
m(n)X = E Xn =
∞∫−∞
xnfX(x) dx n ∈ N0 (411)
D.2.2.2. diskret
m(n)X = E Xn =
∞∑i=0
xni · P (xi) n ∈ N0 (412)
D.2.3. Zentrale Momente n-ter Ordnung
D.2.3.1. kontinuierlich
µ(n)X = E
(X −m
(1)X
)n=
∞∫−∞
(x−m
(1)X
)nfX(x) dx n ∈ N0 (413)
D.2.3.2. diskret
µ(n)X = E
(X −m
(1)X
)n=
∞∑i=−∞
(x−m
(1)X
)n· P (xi) n ∈ N0 (414)
D.2.4. Wichtige Momente
D.2.4.1. Linearer Mittelwert
kontinuierlich
m(1)X = mX = E X =
∞∫−∞
xfX(x) dx (415)
diskretm
(1)X mX = E X =
∑i
xi · P (xi) (416)
D.2.4.2. Quadratischer Mittelwert
80
D. Zufallsprozesse
kontinuierlich
m(2)X = E
X2
=
∞∫−∞
x2fX(x) dx (417)
=12π
∞∫−∞
SXX(jω) dω (418)
m(2)X =
12π
∞∫−∞
SXX(jω) dω = RXX(0) = E|X(t)|2
(419)
diskretm
(2)X =
∑i
x2i · P (xi) (420)
D.2.4.3. Varianz
kontinuierlich
σ2X = µ
(2)X = E
(X −mX)2
=
∞∫−∞
(x−mX)2fX(x) dx (421)
σ2X = RXX(0)−m2
X (422)
diskretσ2X = m
(2)X −m2
X (423)
D.2.4.4. Normierte Momentanleistung
Sx(t1) = E|x(η, t1)|2
=
∞∫−∞
|x|2fx(x, t1) dx (424)
D.2.5. Zentrale Verbundmomente
D.2.5.1. kontinuierlich
µ(m,n)XY = E (X −mX)m(X −mY )n (425)
=
∞∫−∞
(x−mX)m(y −mY )nfXY (x, y) dx dy (426)
81
D. Zufallsprozesse
D.2.5.2. diskret
µ(m,n)XY = E (X −mX)m(X −mY )n (427)
=∑i
∑j
(xi −mX)m(yj −mY )n · P (xi ∩ yj) (428)
D.2.5.3. Kovarianz
kontinuierlich
CXY = µ(1,1)XY = E (X −mX)(Y −mY ) (429)
= E XY − E XE Y (430)
=
∞∫−∞
∞∫−∞
(x−mX)(y −mY )fXY (x, y) dx dy (431)
diskret
CXY = µ(1,1)XY = E (X −mX)(Y −mY ) (432)
=∑i
∑j
(xi −mX)(yj −mY ) · P (xi ∩ yj) (433)
CXY = 0 ⇒ X und Y sind unkorreliert ⇒ E XY = E XE Y
D.2.5.4. Korrelationskoeffizient
cXY =CXYσXσY
(434)
D.2.5.5. Bedingte Erwartungswerte
Eg( ~X|A)
=
∞∫−∞
· · ·∞∫
−∞
g(~x)f ~X|A(~x) d~x (435)
D.3. LTI-Systeme und schwach stationäre Prozesse
D.3.1. Mittelwerte
D.3.1.1. Linearer Mittelwert
kontinuierlich
mY = mX ·∞∫
−∞
h(t) dt = mX ·H(0) (436)
82
D. Zufallsprozesse
diskretmY = mX ·H(1) (437)
D.3.1.2. Quadratischer Mittelwert
kontinuierlich
m(2)Y = RY Y (0) =
12π
∞∫−∞
|H(jω)|2 · SXX(jω) dω (438)
diskret
m(2)Y = RY Y [0] =
12π
2π∫0
SY Y(ejΩ)
dΩ =12π
2π∫0
|H(ejΩ)|2 · SXX
(ejΩ)
dΩ
(439)
D.3.2. Korrelationsfunktionen
D.3.2.1. Autokorrelationsfunktion
Rxx(t1, t2) = E x(η, t1) · x∗(η, t2) (440)
im Reellen=
∞∫−∞
∞∫−∞
x1x2fx1x2(x1, x2, t1, t2) dx1 dx2 (441)
im Komplexen=
∞∫−∞
∞∫−∞
∞∫−∞
∞∫−∞
((ac+ bd) + j(bc− ad))fabcd(a, b, c, d) da db dc dd
(442)
wobei a = Rex(η, t1), b = Imx(η, t1), c = Rex(η, t2) und d = Imx(η, t2).
Laplaceverteilter Zufallsprozeß
Raa[λ] = σ2ae− λ2
α2 (443)
D.3.2.2. Autokovarianz
CXX(t1, t2) = E [X(t1)−mX(t1)] · [X(t2)−mX(t2)]∗ (444)
= RXX(t1, t2)−mX(t1)mX(t2)∗ (445)
83
D. Zufallsprozesse
h(τ)
SXX(jω) SXY (jω) SY Y (jω)
RXX(τ) RXY (τ) RY Y (τ)
H∗(jω) H(jω)
h∗(−τ)
(a) Im Kontinuierlichen
h∗[−κ]
SXX(ejΩ) SXY (ejΩ) SY Y (ejΩ)
RXX [κ] RXY [κ] RY Y [κ]h[κ]
H(ejΩ)H∗(ejΩ)
(b) Im Diskreten
Abbildung 4: Korrelationsfunktionen und Leistungsdichtespektren
D.3.2.3. Kreuzkorrelation
DefinitionRXY (t1, t2) = E X(t1)Y ∗(t2) (446)
KreuzleistungSxy = φxy(t1, t1) (447)
D.3.2.4. Kreuzkovarianz
CXY (t1, t2) = E [X(t1)−mX(t1)] · [Y (t2)−mY (t2)]∗ (448)
= RXY (t1, t2)−mX(t1)mY (t2)∗ (449)
D.3.2.5. Eigenschaften von AKF, AKV, KKF und KKV AKF undAKV sind gerade Funktionen:
RXX(−τ) = R∗XX(τ) (450)CXX(−τ) = C∗XX(τ) (451)
AKF und AKV eines periodischen Zufallsprozesses sind periodisch:
RXX(τ) = RXX(τ + t0) (452)
Wegen CXX(τ) = RXX(τ)− |mX |2 folgt CXX(τ) = CXX(τ + t0).AKF und AKV haben ihr Maximum in τ = 0:
RXX(0) ≥ |RXX(τ)| ∀τ (453)
84
D. Zufallsprozesse
D.3.2.6. Autoleistungsdichtespektrum
kontinuierlich
SXX(jω) = F RXX(τ) =
∞∫−∞
RXX(τ)e−jωτ dτ (454)
diskret
SXX(ejΩ) = F∗ RXX [κ] =∞∑
κ=−∞RXY [κ]e−jΩκ (455)
D.3.2.7. Kreuzleistungsdichtespektrum
kontinuierlich
SXY (jω) = F RXY (τ) =
∞∫−∞
RXY (τ)e−jωτ dτ (456)
diskret
SXY (ejΩ) = F∗ RXY [κ] =∞∑
κ=−∞RXY [κ]e−jΩκ (457)
D.3.2.8. Kreuzkorrelationsfunktion und Kreuzleistungsdichtespektrumzwischen Ein- und Ausgang
kontinuierlich
RXY (τ) = RXX(τ) ∗ h∗(−τ) (458)RY X(τ) = RXX(τ) ∗ h(τ) (459)
SXY (jω) = H∗(jω) · SXX(jω) (460)SY X(jω) = H(jω) · SXX(jω) (461)
diskret
RXY [κ] = RXX [κ] ∗ h∗[−κ] (462)RY X [κ] = RXX [κ] ∗ h[κ] (463)
SXY(ejΩ)
= H∗ (ejΩ)· SXX
(ejΩ)
(464)
SY X(ejΩ)
= H(ejΩ)· SXX
(ejΩ)
(465)
85
D. Zufallsprozesse
D.3.3. Autokorrelationsfunktion und Autoleistungsdichtespektrumam Ausgang
D.3.3.1. kontinuierlich
RY Y (jω) = h(jω) ∗RXY (jω) (466)= h(jω) ∗ h∗(−jω) ∗RXX(jω) (467)= ρ(jω)︸ ︷︷ ︸
Filter-AKF
∗RXX(jω) (468)
SY Y (jω) = H(jω) · SXY (jω) (469)= H∗(jω) · SY X(jω) (470)
= |H(jω)|2 · SXX(jω) (471)
D.3.3.2. diskret
RY Y [κ] = h[κ] ∗RXY [κ] (472)= h[κ] ∗ h∗[−κ] ∗RXX [κ] (473)= ρ[κ]︸︷︷︸
Filter-AKF
∗RXX [κ] (474)
SY Y(ejΩ)
= H(jω) · SXY (jω) (475)= H∗(jω) · SY X(jω) (476)
= |H(ejΩ)|2 · SXX
(ejΩ)
(477)
D.3.4. Kohärenzfunktion
GXY (jω) =CXY (jω)√
SXX(jω) · SY Y (jω)(478)
GXY (ejω) =SXY
(ejΩ)√
SXX (ejΩ) · SY Y (ejΩ)(479)
D.3.5. Weißes Rauschen
D.3.5.1. Definition Ein Prozeß heißt genau dann „weiß“, wenn er ein kon-stantes Spektrum hat. Die Autokorrelationsfunktion ist dann ein Dirac-Impulsin 0.
86
D. Zufallsprozesse
kontinuierlich
CXX(t1, t2) = RXX(t1, t2)−mX(t1) ·m∗X(t2) = 0 ∀t1 6= t2 (480)
CXX(t1, t2) = RXX(t1, t2) = C0(t1)δ(t1 − t2) (481)
diskretCXX [k1, k2] = RXX [k1, k2] = C0[k1]δ[k1 − k2] (482)
D.3.5.2. Leistungsdichtespektrum
SnHFnHF(jω) =N0
2(483)
D.3.5.3. Autokorrelationsfunktion
RnHFnHF(τ) =N0
2· δ(τ) (484)
D.3.5.4. StörleistungNl →∞ (485)
D.3.5.5. Bandbegrenztes ECB-Rauschen
Snn(jω) = N0∀ω ∈ R (486)
D.3.5.6. Streng weißes Rauschen Ein weißer Rauschprozeß heißt strengweiß genau dann, wenn die Zufallsvariablen X(t1) und X(t2) statistisch unab-hängig für beliebige t1 6= t2 sind.
D.4. Schätztheorie
D.4.1. Prädiktion
Prädiktion macht Aussagen über nicht beobachtbare oder nicht beobachteteEreignisse auf Basis eines Wahrscheinlichkeitsmodells. Zu prädizierende Signalewerden als Musterfunktionen eines Zufallsprozesses angesehen.
Wichtige Größen bei der Prädiktion:
• Parametervektor ~φ oder ~Φ
– ~φ: Vektor von deterministischen aber unbekannten Parametern.
– ~Φ: Zufällige Parameter.
• Beobachtungsvektor ~x oder ~X
87
D. Zufallsprozesse
– ~x: Vektor von tatsächlich beobachtbaren Werten.
– ~X: Vektor von als Zufallsvariablen modellierten Beobachtungen.
Ziel: Prädiktion von ~x oder ~X, für die ein statistisches Modell bekannt ist durch~x oder ~
X.Voraussetzung: Kenntnis der Parameter des Wahrscheinlichkeitsmodells (z. B.
Verbunddichte zwischen Parametern und Beobachtungen oder Erwartungswer-te).
D.4.1.1. Parameterschätzung Ein oder mehrere unbekannte Parameter-werte eines Wahrscheinlichkeitsmodells sollen geschätzt werden. Wichtige Va-riablen:
• Parametervektor ~φ oder ~Φ.
• Beobachtungsvektor ~x oder ~X.
• Unbekanntes System/Kanal: Stellt die Beziehung zwischen ~x/ ~X her. (z. B.bedingte Wahrscheinlichkeiten, Verbundwahrscheinlichkeiten, Funktion& Rauschterm).
• Schätzer ~Θ: Erzeugt Schätzwerte als Funktionen der Beobachtung. Ent-wurf heuristisch oder per Modell der Beobachtungen ~X.
• Schätzwerte ~φ = ~Θ(~x), ~Φ = ~Θ( ~X): Mustervektor ~
φ am Ausgang desSchätzers ~Θ abgeleitet aus Beobachtungen ~x oder Ausgangsvektor ~Φ =~Θ( ~X), wenn die Beobachtungen als Zufallsvariablen betrachtet werden.
Ziel: Schätze ~φ bzw. ~Φ aus ~x bzw. ~X.Voraussetzung: Kenntnis der Beobachtung bzw. Struktur eines statistischen
Modells der Beobachtung (der Parameter bei Bayes).
Klassische Parameterschätzung Parameter φ werden als Konstanten an-gesehen. Schätzung ausschließlich auf Basis von tatsächlichen Beobachtungen.
Bayes’sche Schätzung Parameter werden als echte Zufallsvariablen ~Φ auf-gefaßt, Schätzung einer Realisierung mittels eines Wahrscheinlichkeitsmodells⇒ Prädiktion von Parametern.
88
D. Zufallsprozesse
D.4.1.2. Intervallschätzung Es werden für eine zu schätzende Zufallsva-riable ~X zwei Konstanten c1, c2 als Schranken der Wahrscheinlichkeitsvertei-lung bestimmt, so daß
P (c1 < ~X ≤ c2) = γ︸︷︷︸Konfidenzmaß
= 1− δ︸︷︷︸Konfidenzniveau
(487)
∆c = c2 − c1 Vertrauensintervall (488)
D.4.2. Prädiktion
Schätzung des Wertes einer Zufallsvariable.
D.4.2.1. Punktprädiktion Genau ein Wert einer (noch) nicht beobachte-ten Zufallsvariable soll möglichst gut vorhergesagt werden. Optimierungskrite-rium ist z. B. der mittlere quadratische Fehler (MQF) ⇒ Optimierungsziel istder minimale quadratische Fehler (MMSE). Kostenfunktion ist
J(x) = E(X − x)2
= min (489)
D.4.2.2. Intervallprädiktion Für ein bestimmtes Konfidenzmaß γ soll einmöglichst kleines Vertrauensintervall ∆c festgelegt werden. Je nach Beschaffen-heit der Wahrscheinlichkeitsdichtefunktion
1. Fall – Ein Maximum und und gerade Symmetrie:
fX(c1) = fX(c2) mit c1 ≤ mX ≤ c2 (490)
c1 = xδ/2 ∧ c2 = x1−δ/2 (491)
2. Fall – Ein Maximum: Startlösung nach Fall 1. Anschließend c1 und c2so entlang der x-Achse verschieben, daß die Wahrscheinlichkeits erhöht wird.Dann ∆c so weit verkleinern, daß P (c1 < X ≤ c2) = γ gilt.
3. Fall – Mehrere Maxima: Lösung nach Fall 2, allerdings müssen alle Ver-schiebungen abgesucht werden.
D.4.3. Gütekriterien für Parameterschätzer
D.4.3.1. Erwartungstreuer Schätzer
φbias = E
Φ− φ
= E
Φ− φ (492)
Ein erwartungstreuer Schätzer erfüllt φbias = 0. Ein asymptotisch erwartungs-treuer Schätzer erfüllt limN→∞ φbias = 0.
89
D. Zufallsprozesse
D.4.3.2. Effizienter Schätzer Ein erwartungstreuer Schätzer ist effizientgenau dann, wenn die Kovarianzmatrix
CΦΦ = E
(Φ− E
Φ)T (
Φ− E
Φ)
(493)
minimalCΦΦ,effizient = min
φCΦΦ (494)
ist, wobei als Norm der größte Eigenwert dienen kann.
D.4.3.3. Konsistenter Schätzer Ein erwartungstreuer Schätzer ist konsi-stent, wenn er bezüglich der Wahrscheinlichkeit konvergiert
limN→∞
P(∣∣∣Φ− φ
∣∣∣ ≥ ε)
= 0 (495)
wofürlimN→∞
CΦΦ = 0 (496)
hinreichend ist.Beispiele ab Seite 334.
D.4.3.4. Hinreichende Statistik Ein Schätzer ~Θ(~X)
heißt hinreichende
Statistik für die Schätzung des Parametervektors ~φ, wenn ~Φ = ~Θ(~X)
alle
Informationen über ~φ enthält, die in ~X enthalten sind, d. h.
fX|Φ
(~x, φ, φ
)=
fXΦ
(~x, φ, φ
)fΦ
(φ = ~Θ(~x)
) (497)
hängt nicht von φ ab.
D.4.4. Mittelwertschätzer
D.4.4.1. Arithmetisches Mittel
φ = mX =1N·N∑i=1
xi (498)
90
D. Zufallsprozesse
D.4.4.2. Varianzschätzer bei bekanntem Mittelwert
Φ = Σ2X =
1N
N∑i=1
(Xi −mX)2 (499)
D.4.4.3. Varianzschätzer bei unbekanntem Mittelwert
Σ2X =
1N − 1
N∑i=1
(Xi − MX
)2(500)
D.4.4.4. Mittelwertschätzung bei bekannter Varianz Z. B. für den Fall,daß N zu klein ist um mit dem zentralen Grenzwertsatz zu argumentieren.
1. Nimm N Beobachtungen xi der Zufallsvariablen X und bilde das arith-metische Mittel.
2. Bestimme für das gewünschte Konfidenzmaß γ = 1 − δ das Perzentil zufür u = 1− δ
2 für die normierte Gauß-Verteilung.
3. Bestimme die Intervallgrenzen durch Entnormierung
mX ± z1 −δ
2· σX√
N(501)
D.4.4.5. Mittelwertschätzung bei unbekannter Varianz
σ2X =
1N − 1
N∑i=1
(xi − mX)2 (502)
Für große N gilt σ2X = σ2
X . Anschließend kann nach dem in Abschnitt D.4.4.4aufgezeigten Schema verfahren werden.
D.4.4.6. Mittelwertschätzung bei unbekannter Verteilung Z. B. fürden Fall, daß N zu klein ist um mit dem zentralen Grenzwertsatz zu argumen-tieren.
P
(MX −
σX√Nδ
< mX < MX +σX√Nδ
)> 1− δ (503)
D.4.4.7. Parameterschätzung bei bestimmten Verteilungen
Exponentialverteilung Für MX > 0
P
1− z1 −δ2√N
MX
< λ <1 + z1 −
δ2√N
MX
= 1− δ = γ (504)
91
D. Zufallsprozesse
Poissonverteilung
a1,2 = MX + z2
1−δ2
2N
±
√√√√√MX +
z21− δ
2
2N
2
− M2X (505)
D.4.4.8. Wahrscheinlichkeitsschätzung
P
(∣∣∣MX − p∣∣∣ < z1− δ
2·√p(1− p)N
)= 1− δ = γ (506)
p1,2 =MX + z2
2N ±√MX · z
2
N ·(1− MX
)+(z2
2N
)2
1 + z2
2N
(507)
Für N > 100 gilt
p1,2 = MX ± z ·
√MX · (1− MX)
N(508)
D.4.4.9. Varianzschätzung bei normalverteilten Zufallsvariablen
Varianzschätzung bei bekanntem Mittelwert mX
N Σ2X
χ21− δ
2
(N)< σ2
X <N Σ2
X
χ2δ2
(N)(509)
Varianzschätzung bei unbekanntem Mittelwert mX
(N − 1)Σ2X
χ21− δ
2
(N − 1)< σ2
X <(N − 1)Σ2
X
χ2δ2(N−1)
(510)
D.4.5. MMSE- und LSE-Schätzung
Ziel: Schätze einen Vektor determinierter Parameter ~φ so, daß eine quadra-tische Abweichung Y = g
(~X,~φ)
von einer beobachtbaren Zufallsvariable Yminimiert wird.
D.4.5.1. MMSE-Schätzung Bestimme die Parameter ~φ einer Funktion g
so, daß die Zufallsvariable Y = g(~X, φ
)den mittleren quadratischen Fehler
minimiert (Minimum Mean Square Error).
ΘMMSE
(Y, ~X, φ
)= φMMSE = argminφ
(E(Y − g
(~X, φ
)))(511)
92
D. Zufallsprozesse
D.4.5.2. MSE-Schätzung
~ΦMSE = ~ΘMSE
(Y, ~X,
~Φ)
= argmin~Φ
N∑i=1
(Yi − g
(Xi,
~Φ))
(512)
D.4.5.3. Maximum-Likelihood-Schätzer Gegeben: Ein Beobachtungsvek-tor ~X und ein parametrisches Modell der WahrscheinlichkeitsdichtefunktionfX|Φ (~u|~v) (Likelihood-Funktion).
Ziel: Finde den Maximum-Likelihood-Schätzer
ΦML = ΘML
(~X, φ
)= argmax~vf ~X|~Φ (~x,~v) (513)
D.4.5.4. Log-Likelihood-Funktion
ΦML = ΘML
(~X, φ
)= argmax~v log f ~X|φ (~x|~v) (514)
günstig, wenn die N Elemente Xi des Beobachtungsvektors ~X unabhängig sind:
log f ~X|φ (~u|~v) = logN∏i=1
fXi|φ (xi|~v) =N∑i=1
log fXi|φ (xi|~v) (515)
Um die Log-Likelihood-Funktion bezüglich der K Elemente vk des Parameter-vektors ~v zu maximieren, setzt man die partiellen Ableitungen zu 0 und löstein System mit K Gleichungen:
∂
∂vk
N∑i=1
log fXi|φ (xi, ~v) =N∑i=1
∂
∂~vklog fXi|φ (xi|~v) = 0 ∀k = 1, . . . ,K (516)
D.4.5.5. Bayes’sche Schätzung
φBayes = ~ΘBayes (~x) = argminφR(φ|~x)
(517)
= argminφ
∫V
C(φ, ~v)f~Φ| ~X (~v|~x) d~v
(518)
= argminφ
∫V
C(φ, ~v)f ~X|~Φ (~x|~v) f~Φ (~v) d~v
(519)
93
D. Zufallsprozesse
D.4.5.6. Maximum a posteriori-Schätzer (MAP)
φMAP = argmaxφf~Φ| ~X(φ|~x)
(520)
= argmax~vf ~X|~Φ (~x|~v) · f~Φ (~v) (521)
In logarithmischer Darstellung
~Φ = argmax~v(log f ~X|~Φ (~x,~v) + log f~Φ (~v)
)(522)
D.4.6. Cramer-Rao-Schranke
Untere Schranke für die Varianz eines geschätzten Parametervektors Φ gegeben~X und ~v.
σ2Φi≥
(1 + ∂φbias,i
∂vi)2
E
(∂ ln f ~X|~Φ(~x|~v)
∂vi
) (523)
Für zufällige Parameter
σ2Φi≥
(1 + ∂φbias,i
∂vi
)2
E
(∂ ln f ~X|~Φ(~x,~v)
∂vi
)2
+(∂ ln f~Φ
(~v)
∂vi
) (524)
D.5. Lineare Optimalfilterung
D.5.1. Wiener Filter
D.5.1.1. Zeitkontinuierlich
Schwach stationäres weißes Rauschen am Eingang
hopt(τ) =1R0
·RDX(τ) (525)
Allgemeine nichtkausale Filter
Hopt(jω) =SDX(jω)SXX(jω)
(526)
Restfehler
EE2
min(t)
=12π
∞∫−∞
SEE(jω) dω (527)
94
E. Transformationen
h(t) ++
N(η, t)
X(η, t) Y (η, t)
g(t)
U(η, t) E(η, t)
D(η, t)
Abbildung 5: Typisches Szenario zur Wiener Filterung
mit
SEE(jω) = SDD(jω)−SDX(jω) · SXD(jω)
SXX(jω)(528)
Für D(t) = g(t) ∗ U(t) und X(t) = U(t) +N(t) gilt
Hopt(jω) = G(jω) · SUU (jω) + SUN (jω)SUU (jω) + SUN (jω) + SNU (jω) + SNN (jω)
(529)
Falls U(t) und N(t) orthogonal sind gilt
Hopt(jω) = G(jω) · SUU (jω)SUU (jω) + SNN (jω)
(530)
SEE(jω) = |G(jω)|2 · SUU (jω) · SNN (jω)− SUU (jω) · SNU (jω)SUU (jω) + SUN (jω) + SNU (jω) + SNN (jω)
(531)
E. Transformationen
E.1. Fourier-Transformation
E.1.1. Definition
X(jω) = Fx(t) =
∞∫−∞
x(t)e−jωtdt = Lx(t)∣∣∣s=jω
(532)
X(jω) = |X(jω)| · ejϕ(jω) (533)
95
E. Transformationen
E.1.2. Inverse Fourier-Transformation
x(t) =12π
∞∫−∞
X(jω)ejωtdω (534)
E.1.3. rect- und sinc-Funktion
rect(at) :=
1 für |t| ≤ 1
2a
0 sonst(535)
(536)
sinc(ω) :=
sinωω für ν 6= 0
1 für ν = 0(537)
Bemerkung zur Implementierung von Systemen, die auf der rect- bzw. sincbasieren:
• Der Spitzenwertfaktor ζ0 geht gegen ∞.
• Das System ist schwach stationär, nicht zyklostationär. Dadurch wirdeine eventuell nötige Symboltaktsynchronisation extrem schwierig.
• Die horizontale Augenöffnung im Augendiagramm geht gegen Null.
• Das System ist nur mit einem sehr hohen Systemgrad implementierbarund nie exakt. Die Grundlaufzeit ist sehr hoch.
Tabelle 26: Korrespondenzen der Fourier-Transformation
x(t) X(jω) = Fx(t) Bemerkung
δ(t) 1 Dirac-Impuls
δ(t) jω
δn(t) (jω)n
96
E. Transformationen
Tabelle 26: Korrespondenzen der Fourier-Transformation
x(t) X(jω) = Fx(t) Bemerkung
1 2πδ(ω) Gleichgröße
tn 2πjnδn(ω) n ∈ N
ε(t) πδ(ω) + 1jω Sprungfunktion
tn · ε(t) n!(jω)n+1 + πjnδn(ω) n ∈ N
sign(t) 2jω Signumfunktion
11+(at)2
πa · e
− |ω|a
1t2+a2
πa e−a|ω|
tt2+a2 −jπ · e−a|ω| · signω
1πt −jsign(ω) Hilbert-
Transformator
1−cos(ωg)πt jsign(ω) · rect( ωωg
) bandbegr.Hilberttr.
cos(ω0t) π[δ(ω + ω0) + δ(ω − ω0)] Cosinusschwingung
sin(ω0t) jπ[δ(ω + ω0)− δ(ω − ω0)] Sinusschwingung
ejω0t 2πδ(ω − ω0) komplexeExp.-Schw.
sign(cos(ω0t)) π∑∞
ν=11
2ν−1 [δ(ω − (2ν − 1)ω0) Rechteckschwingung
+δ(ω + (2ν − 1)ω0)]
97
E. Transformationen
Tabelle 26: Korrespondenzen der Fourier-Transformation
x(t) X(jω) = Fx(t) Bemerkung
∑∞k=−∞ δ(t− kT ) 2π
T
∑∞k=−∞ δ
(ω − 2π
T · k)
Dirac-Kamm
1T ⊥⊥⊥
(1T
)⊥⊥⊥
(ωT2π
)rect(at) 1
|a|sinc(ω2a
)Rechteckimpuls
tri(at) 1asinc2
(ω2a
)Dreieckimpuls
sinc(at) π|a|rect
(ω2a
)sinc-Impuls
ε(t) · e−at 1a+jω Einseitiger
Exp.-Impuls
e−a|t| 2aa2+ω2 a > 0 Zweiseitiger
Exp.-Impuls
e−a2t2√πa e−
ω2
4a2 Gaußimpuls
E.1.4. Hinreichende Bedingung für die Existenz derFourier-Transformierten
∞∫−∞
|x(t)|dt <∞ (538)
98
E. Transformationen
−0.5
0
0.5
1
1.5
−1 −0.5 0 0.5 1
f(t
)−→
ta −→
(a) f(t) = rect(at)
−0.2
0
0.2
0.4
0.6
0.8
1
1.2
−10 −8 −6 −4 −2 0 2 4 6 8 10
F(j
ω)
a−→
ω · π · a −→
(b) F (jω) = 1|a| sinc( ω
2a)
Abbildung 6: rect- und sinc-Funktion
99
E. Transformationen
Tabelle 27: Sätze der Fourier-Transformation
x(t) X(jω) = Fx(t)
Lineariät Ax1(t) +Bx2(t) AX1(jω) +BX2(jω)
Verschiebung x(t− τ) e−jωτX(jω)
Modulation ejω0tx(t) X(j(ω − ω0))
Differentiation imFrequenzbereich
tx(t) −dX(jω)d(jω)
Differentiation imZeitbereich
dx(t)dt jωX(jω)
Integration∫ t−∞ x(τ)dτ 1
jωX(jω) + πX(0)δ(ω)
Ähnlichkeit x(at) 1|a|X
(jωa
); a ∈ R \ 0
Faltung x1(t) ∗ x2(t) X1(jω) ·X2(jω)
Multiplikation x1(t) · x2(t) 12πX1(jω) ∗X2(jω)
Dualität x1(t)x2(jt)
x2(jω)2πx1(−ω)
Symmetrienx(−t)x∗(t)
x∗(−t)
X(−jω)X∗(−jω)X∗(jω)
ParsevalschesTheorem
∫∞−∞ |x(t)|
2dt 12π
∫∞−∞ |X(jω)|2dω
100
E. Transformationen
E.2. z-Transformation
E.2.1. Definition
Z x[k] = X(z) =∞∑
k=−∞x[k]z−k (539)
mitz := ejΩ (540)
E.2.2. Konvergenzbereich
1. Der Konvergenzbereich ist ein Ring um den Ursprung der z-Ebene.
2. Der Konvergenzbereich enthält keine Pole.
3. Ist x[k] von endlicher Dauer, so besteht der Konvergenzbereich aus dergesamten z-Ebene außer evt. z = 0 und/oder z = ∞.
4. Bei kausalen Folgen: Liegt der Kreis |z| = r0 im Konvergenzbereich, dannauch alle endlichen Werte von z, für die |z| > r0 gilt.
5. Bei antikausalen Folgen: Liegt der Kreis |z| = r0 im Konvergenzbereich,dann auch alle Werte von z, für die 0 < |z| < r0 gilt.
6. Bei zweiseitigen Folgen: Liegt |z| = r0 im Konvergenzbereich, so ist derKonvergenzbereich ein Ring in der z-Ebene, der |z| = r0 enthält.
E.2.3. Inverse z-Transformation
x[k] =1
2πj·∮C
X(z)zk−1dz (541)
=12π
2π∫0
X(|z|ejΩ|z|kejΩkdΩ (542)
=∑ν
ResX(z)zk−1
∣∣∣z=z∞,ν
(543)
=∑ν
1(m− 1)!
[dm−1
dzm−1(z − z∞,ν)mX(z)zk−1
]∣∣∣∣z=z∞,ν
(544)
m ist die Vielfachheit der betrachteten Singularität.
101
E. Transformationen
Imz
Rez
(a) kausal
Imz
Rez
(b) antikausal
Abbildung 7: Konvergenzbereich diskreter LTI-Systeme
Tabelle 28: Korrespondenzen der zweiseitigen z-Transformation
x[k] X(z) = Zx[k] Kb
δ[k] 1 z ∈ C
ε[k] zz−1 |z| > 1
akε[k] zz−a |z| > |a| (kausal)
−akε[−k − 1] zz−a |z| < |a| (antikausal)
kε[k] z(z−1)2
|z| > 1
kakε[k] az(z−a)2 |z| > |a|
ε[k − 1] · 1k · a
k−1 1a ln
(z
z−a
)|z| > |a|
sin(Ω0k)ε[k] z sin Ω0z2−2z cos Ω0+1
|z| > 1
cos(Ω0k)ε[k]z(z−cos Ω0)
z2−2z cos Ω0+1|z| > 1
102
E. Transformationen
Lineariät ax1[k] + bx2[k] aX1(z) + bX2(z) Kb ⊇KbX1 ∩KbX2
Verschiebung x[k − κ] z−κX(z) Kbx; z = 0und z → ∞gesondertbetrachten
Modulation akx[k] X(za
)Kb =z∣∣ za ∈ Kbx
Multiplikationmit k
kx[k] −z dX(z)dz Kbx; z =
0 gesondert be-trachten
Zeitumkehr x[−k] X(z−1) Kb = z∣∣z−1 ∈
Kbx
Faltung x1[k] ∗ x2[k] X1(z) ·X2(z) Kb ⊇ Kbx1 ∩Kbx2
Multiplikation x1[k] · x2[k] 12πj
∮X1(ζ)X2
(zζ
)1ζ dζ Grenzen der
Konvergenzbe-reiche multipli-zieren
E.3. Hilbert-Transformation
E.3.1. Definition
HH(ejΩ) = −jsign(Ω) (545)
(546)
hh[k] =1π
π∫0
sin(Ωk)dΩ =
2πk für k gerade0 für k ungerade
(547)
103
E. Transformationen
Tabelle 30: Korrespondenzen der Hilbert-Transformation[4].
x(t) Hx(t) Voraussetzung
cos(ω0t) sin(ω0t) ω0 > 0
sin(ω0t) − cos(ω0t) ω0 > 0
δ0(t) 1πt –
sin(ωgt)ωgt
1−cos(ωgt)ωgt
–
s(t) · cos(ω0t) s(t) · sin(ω0t) S(jω) = 0 für |ω| ≥ ω0
E.3.2. Besonderheiten
H
∞∑i=1
ai cos(it) + bi sin(it)
=
∞∑i=1
ai · sin(it)− b · cos(it) (548)
Die Hilbert-Transformation liefert zu einer geraden Funktion eine ungeradeFunktion mit demselben Betragsspektrum (nur Phase gedreht) und umgekehrt.
|X(f)| = |XH(f)|∀f 6= 0 (549)
Ein Signal und seine Hilbert-Transformierte sind zueinander orthogonal
∞∫−∞
x(t) · H x(t)∗ dt = 0 (550)
Läßt sich eine Funktion x(t) in einen geraden Anteil xg(t) und einen ungeradenAnteil xu zerlegen, so gilt
Hx(t) = Hxg(t)+Hxu(t) (551)
Achtung: Bei Signaltransformationen zur Gewinnung des ECB-Signals
jHxHF(t) = jxHF(t) ∗ 1πt
XHF(f) · sign(f) (552)
104
E. Transformationen
E.4. ECB-Transformation
Anmerkung: Der Faktor 1√2
wird verwendet, damit HF- und ECB-Signal diegleiche Energie haben. An f0 werden keinerlei Anforderungen gestellt.
E.4.1. Definition
s(t) =1√2· (sHF(t) + jHsHF(t)) · e−j·2π·f0·t (553)
=1√2s+HF(t) · e−j2πf0t (554)
(555)
S(f) =1√2S+
HF(f + f0) (556)
=1√2
(1 + sign(f + f0)) · SHF(f + f0) (557)
E.4.2. Inverse Transformation
sHF(t) =√
2 · Res(t) · ej2πf0t (558)
=√
22
(s(t) · ej2πf0t + s∗(t) · e−j2πf0t
)(559)
(560)
SHF(f) =√
22
(S(f − f0) + S∗(−(f + f0))) (561)
E.4.3. Theorem von Grettenberg
Ein reeller, physikalischer, schwach stationärer Zufallsprozeß besitzt einen äqui-valenten ECB-Prozeß mit den Eigenschaften stationär, mittelwertfrei, rotati-onssymmetrisch (siehe D.1.3).
105
Literatur
E.4.4. Inphasekomponente
hI(t) = Re hK(t) (562)
(563)
HI(t) =12
Re HK(f) +HK(−f)︸ ︷︷ ︸gerader Anteil
+j12
Im HK(f)−HK(−f)︸ ︷︷ ︸ungerader Anteil
(564)
E.4.5. Quadraturkomponente
hQ(t) = Im hK(t) (565)
(566)
HQ(t) =12
Im HK(f) +HK(−f) − j12
Re HK(f)−HK(−f) (567)
Literatur
[1] Christoph Schenk, Ulrich T.: Halbleiterschaltungstechnik. 12. Auflage.Berlin : Springer-Verlag, 2002. – ISBN 3–540–42849–6
[2] Furlan, Peter: Das Gelbe Rechenbuch 1. Lineare Algebra, Differentialrech-nung für Ingenieure, Naturwissenschaftler und Mathematiker. Dortmund :Verlag Martina Furlan, 1995. – ISBN 3–9316–4500–2
[3] Huber, Johannes: Nachrichtenübertragung. Erlangen : Vorlesungsskriptzur gleichnamigen Veranstaltung, 2006
[4] Kammeyer, Karl-Dirk: Nachrichtenübertragung. Stuttgart : Teubner,2004. – ISBN 3–519–26142–1
[5] Kellermann, Walter: Digitale Signalverarbeitung. Erlangen : Vorlesungs-skript zur gleichnamigen Veranstaltung, 2005
[6] Kellermann, Walter: Stochastische Prozesse. Erlangen : Vorlesungsskriptzur gleichnamigen Veranstaltung, 2005
106
Literatur
[7] Konstantin Adolfowitsch Semendjajew, Ilja Nikolajewitsch B.: Ta-schenbuch der Mathematik. Thun und Frankfurt am Main : Verlag HarriDeutsch, 2001. – ISBN 3–8171–2005–2
[8] Paul Mühlbauer, Friedrich B.: Mathematische Formeln und Definitio-nen. München : Bayerischer Schulbuchverlag, 1998. – ISBN 3–7627–3261–X
[9] Rudolf Rabenstein, Bernd G.: Einführung in die Systemtheorie. Stutt-gart : Teubner, 2005. – ISBN 3–5192–6194–4
107
Index
SymboleAe, 21BHF, 45Bq0 , 15DS, 17Eg, 49Eb, 45Em, 48Es, 45, 48F (z), 43G, 25GK, max, 35GP, opt, 42Ge, 21J , 23M , 48NQc , 33NQ, 32, 34P , 15Q(x), 69R, 15, 45, 48, 49, 53Rc, 49Rm, 49Rc, 46Se, 45Ss, 45Sq0,max, 15Sq0 , 15T , 45, 48Tb, 45∆ψ, 27∆feff, 29∆, 60Γa, 23, 40Γd, 40, 44, 45, 53, 54H., 103
Λ(~c), 52Φεε(F ), 33Φss(f), 50Φq0q0(f), 15α, 53, 54Φaa(F ), 50Φss(f), 31φss(τ), 311Tb
, 32, 45, 481T , 45EbN0
, 39, 44TTb
, 49N02 , 15γ, 50q0, 15j, 63N0, 15∇, 61φS, 18φq0q0(τ), 15ρM , 47ρS , 49ρc, 46ζ0, 16ζq0 , 15fq0,o, 15fq0,u, 15q0,eff, 15seff2 , 15
AAbbildung
von Zufallsvariablen, 68–69Ableitungsoperator
Nabla, 61Divergenz, 60
108
Index
Gradient, 61Laplace, 60Rotation, 61zusammengesetzte Operationen,
62Abtasttheorem, 66
Bandpaß, 66Basisband, 66
Abtastung, 67Additionstheoreme, 59atto, 55Ausbreitungsdämpfung, 22Aussteuergrad, 14Aussteuerpegel, 14Autokorellierte
mittlere, 31Autokorrelationsfunktion, 83
weißes Rauschen, 87AWGN, 50
BBandbegrenzung, 11Bandbreitenabschätzung, 29Bandbreiteneffizienz, 23Bandbreitenerweiterung, 54Banderweiterungsfaktor, 23Bayes’sche Regel, 68BER, 38Bessel-Funktion, 66Binomialkoeffizient
(nk
), 64
Bitfehlerwahrscheinlichkeit, 53
CCarson-Formel, 29centi, 55Codierung
Kanal-, 14Quellen-, 14systematische, 44
cos-, 59Covarianz, 82Cramer-Rao-Schranke, 94Crestfaktor, 15, 16
Ddeci, 55Decodierung, 51Deemphase, 30Deka, 56Detektion, 51Diagramm
Leistungs-Bandbreiten, 53Leistungs-Raten, 53
DichteEigenschaften, 70Rand-, 70
Differentialoperator, siehe Ableitungs-operator
Differentiation, 59Kettenregel, 60logarithmische, 60parameterabhängiges Integral, 60Produktregel, 60Quotientenregel, 59
Distanzeuklidische, 52
Divergenz, 60DPCM, 43Dynamik, 17
EECB-Signal
amplitudenmoduliertes Signal, 24ECB-Transformation, 105Effektivwert, 15Effizienz
spektrale, 40, 53, 54Empfangsantenne
109
Index
Gewinn, 21Leistung, 21
Ergodizität, 79Erwartungswert, 79
bedingter, 82Exa, 56Expander, 34
Ffemto, 55Fernnebensprechen, 19FEXT, 19Filter
Matched, 50optimales Preemphase-, 30signalangepaßtes, 50Wiener, 94
nichtkausal, 94FM-Spektrum, 27Frequenzhub, 27
effektiver, 29Funktion
charakteristische, 76Filterautokorrelations-, 86Kohärenz-, 86Korrelations-, 83
Auto-, 77, 83, 86Kreuz-, 78, 84, 85
Kovarianz-Auto-, 77, 83Kreuz-, 78, 84
kumulantenerzeugende, 76Log-Likelihood, 93momentenerzeugende, 76Q, 69rect-, 96sinc-, 96trigonometrische, 58, 59von Zufallsvariablen, 68–69
Wahrscheinlichkeitsdichte-, 70Funktionalmatrix, 62
GGeradengleichung
allgemeine Form, 57durch Punkt und Steigung, 57durch zwei Punkte, 57Parameterform, 57
Giga, 56Gleichverteilung, 16Gradiend, 61Gray-Zuordnung, 53
HHamming-Distanz, 54Hekto, 56Hochfrequenzsignal
amplitudenmoduliertes Signal, 24Hornantenne, 21
IInformationsfluß, 18Inphasekomponente, 106Integration
logarithmische, 63partielle, 62Substitutionsregel, 62Umkehrfunktion, 63
InterpolationsfilterBandpaß, 67Basisband, 66
Intersymbolinterferenz, 50ISI, 50Isotroper Strahler, 19, 21
Äquivalenter, 21
JJakobimatrix, 62
110
Index
KKanalcodierung, 14Kennlinie
Kompressor, 36Kettenregel, 60Kilo, 56Kompander, 34Komplexe Zahlen, 63Kompressorkennlinie, 36
optimale, 34Korrelationskoeffizient, 82Kovarianz, 82Kreuzkorrelierte, 84, 85Kreuzleistung, 77, 84
LLaplace-Operator, 60Laplaceverteilung, 17
Autokorrelation, 83Leistung, 15
Empfangsantenne, 21Fehlersignal, 39von der Empfangsantenne auf-
genommene, 21Widerstand, 15
Leistungsdichte, 19Leistungsdichtespektrum, 31
Auto-, 78, 85, 86Kreuz-, 78, 85mittleres, 31Näherung nach Woodward, 29PAM, 50weißes Rauschen, 87
Leistungsgewinnoptimale Prädiktion, 42
l’Hospitalsche Regel, 60Lloyd, 32Logarithmus
Rechenregeln, 59
MMAP, 51Mapping, 44Matched Filter, 50Matrix
Funktional, 62Hesse, 62Jakobi, 62
Max, 32Maximum a posteriori, 51Maximum-Likelihood, 52Median, 75Mega, 56Metrik, 52micro, 55milli, 55minimalphasig, 43Mittelwert, 79
linearer, 80, 82quadratischer, 80, 83
Modulation, 47Delta
adaptiv, 44∆, 43Σ∆, 44
Modulationsgewinn, 25Moment, 80
zentrales, 80zentrales Verbund-, 81
Momentanfrequenz, 27
NNachrichtenfluß, 32Nahnebensprechen, 19nano, 55NEXT, 19NF-Störabstand, 25Nyquist, 51√
Nyquist, 51
111
Index
OOptimalfilterung, 94Orthogonalität, 68
PPAL, 12, 13PAM, 49PAM, 31PAR, 15
amplitudenmoduliertes Signal, 24Parabolantenne, 21PCM, 32Perzentil, 75Peta, 56Phasenhub, 27pico, 55Prädiktion, 87, 89
Intervall-, 89Punkt-, 89
Prädiktionsfilterinverses, 43
Prädiktorrückwärts, 42vorwärts, 42
Preemphase, 30Produktregel, 60
QQ-Funktion, 69Quadratische Gleichung, 57Quadraturkomponente, 106Quantisierung
annäherung an die optimale, 33Geräuschleistung, 33gleichmäsige
Störabstand, 34optimale, 32
Quantisierungsgeräuschmittlere Leistung, 32
optimale Kompandierung, 34zeitdiskretes, 33
Quellencodierung, 14Quellensignal
normiertes, 18primäres, 14
Quotientenregel, 59
RRate
eines Codes, 54eines digitalen Übertragungsver-
fahrens, 49eines Modulationsverfahrens, 47
Rauschenstreng weißes, 87weißes, 86
Rauschleistungsdichte, 15Redundanz
eines Codes, 46Mapping, 47Shaping, 49Signalformung, 49
Reihegeometrische, 65harmonische, 65
Reihen, 64Roll-Off-Faktor, 53, 54Rotation rot, 61Rotationssymmetrie, 77
SSchätzer
Bayes, 93effizienter, 90erwartungstreuer, 89Intervall
normalverteilte Zufallsvariablemit bekanntem mX , 92
112
Index
normalverteilte Zufallsvariablemit unbekanntem mX , 92
konsistenter, 90MAP, 94Maximum-Likelihood, 93Mittelwert
arithmetischer, 90bei bekannter Varianz, 91bei unbekannter Varianz, 91bei unbekannter Verteilung, 91
MMSE, 92MSE, 93Parameter
Exponentialverteilung, 91Poissonverteilung, 92Wahrscheinlichkeit, 92
Varianzbei bekanntem Mittelwert, 91bei unbekanntem Mittelwert,
91Schätzung
Intervall-, 89Parameter-, 88
Bayes, 88klassische, 88
SchwelleFM, 30PCM, 39
Sendeleistungamplitudenmoduliertes Signal, 24
Shannon-GrenzeAnalogsignal, 40Austausch von Leistung und Band-
breiteneffizienz, 44Kanalcodierung, 44Kanalkapazität, 44transparente Übertragung, 40
Shaping, 49Signal-Störabstand
AM, 26
Signaldämpfung, 22Signaldynamik, 17Signaleigenschaften
winkelmoduliert, 28Signalformung, 49Signalstörleistungsverhältnis
PCM, 40sin-, 59SNR
durch Spitzenwertbegrenzung, 16Gleichverteilung, 17Laplaceverteilung, 17
HFFM, 29
HF, 25L, 16NF
FM, 29NF, 25v, 17Verbrauchersignal, 17Vergleich, 25
Soft-Limiter, 14Spektrale Effizienz, 40Spektrum
FM, 27Spitzenleistung, 15
amplitudenmoduliertes Signal, 24Spitzenwert, 15Spitzenwertbegrenzung, 14, 16Spitzenwertfaktor, 16, 50, 71, 73Stationarität
schwache, 77strenge, 76
gemeinsame, 76Zyklo-, 78
schwache, 79Statistik
hinreichende, 90Störabstand
113
Index
bei gleichmäßiger Quantisierung,34
Störleistungdurch Spitzenwertbegrenzung
Gleichverteilung, 16Laplaceverteilung, 17
HF, 29Störung, 14, 16Symbolfehlerwahrscheinlichkeit, 53Symbolrate, 53Symmetrie
Rotation, 77
TTera, 56Transformation
ECB, 105Fourier-, 95–98Hilbert-, 103inverse z-, 101z-, 101–103
UÜbertragungsfaktor, 22Übertragungsfehler, 38Übertragungsfilter, 43Unabhängigkeit
statistische, 67–68Union-Bound, 64Unkorreliertheit, 67
VVarianz, 15, 81Verbundmoment
Zentrales, 81Vergleichssignalstörleistungsverhältnis,
39, 40Vergleichsstörabstand, 25, 39Verteilung
bedingte, 70Binomial-, 71Cauchy-, 73χ-, 74χ2-, 74Eigenschaften, 70Erlang-, 74Exponential-, 75Gamma-, 74Γ-, 74Gauß-, 72geometrische, 72Gleich-, 71Laplace-, 73Lognormal-, 73Maxwell-, 75Normal-, 72
gemeinsame, 73Poisson-, 72Rand-, 70Rayleigh-, 75
WWahrscheinlichkeit
bedingte, 68Verbund-, 68–70, 73
Wahrscheinlichkeitsdichtefunktion, 16Weißes Rauschen, 86WER, 38, 39Winkelmodulation, 27Woodward, 29Wurzel
komplexe, 64
YYotta, 56yotto, 55Yule-Walker, 43Yule-Walker-Gleichung, 41
114
Index
ZZahl
komplexe, 63Wurzel, 64
zepto, 55Zeta, 56Zufallsprozeß, 71, 73Zufallsvariable
Abbildungeindimensional, 68mehrdimensional, 68
Zuordnung, 44
115