+ All Categories
Home > Documents > Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal...

Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal...

Date post: 28-Aug-2019
Category:
Upload: truongnhi
View: 217 times
Download: 0 times
Share this document with a friend
125
Matrixwertige Maße und ihre Anwendungen in der Stochastik Bettina Reuther Dissertation zur Erlangung des Doktorgrades der Naturwissenschaften an der Fakultät für Mathematik der Ruhr-Universität Bochum Mai 2008
Transcript
Page 1: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Matrixwertige Maße und

ihre Anwendungen in der Stochastik

Bettina Reuther

Dissertation

zur Erlangung des Doktorgrades

der Naturwissenschaften

an der Fakultät für Mathematik

der Ruhr-Universität Bochum

Mai 2008

Page 2: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome
Page 3: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Meiner Mutter

Page 4: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome
Page 5: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Inhaltsverzeichnis

Einleitung 1

1 Matrixmaße und Matrixpolynome 51.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2 Orthogonale Matrixpolynome . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2.2 Nullstellen orthonormaler Matrixpolynome . . . . . . . . . . . . . . . . 91.2.3 Matrix-Chebyshev-Polynome . . . . . . . . . . . . . . . . . . . . . . . . 121.2.4 Asymptotische Resultate für orthonormale Matrixpolynome . . . . . . 15

2 Matrixmaße und Matrixkettenbrüche 192.1 Matrixmaße und Favards Theorem auf den Intervallen [0, 1] und [0,∞) . . . . 192.2 Matrixkettenbruchentwicklungen . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Matrixmaße und Nullstellen orthonormaler Matrixpolynome 313.1 Asymptotische Nullstellenverteilung . . . . . . . . . . . . . . . . . . . . . . . . 313.2 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343.3 Beweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3.3.1 Beweis von Satz 3.2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403.3.2 Beweis von Folgerung 3.3 . . . . . . . . . . . . . . . . . . . . . . . . . . 49

4 Matrixmaße und Quasi-Geburts- und Todesprozesse 534.1 Zeitdiskrete Quasi-Geburts- und Todesprozesse . . . . . . . . . . . . . . . . . . 53

4.1.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 534.1.2 Zeitdiskrete Quasi-Geburts- und Todesprozesse und orthogonale Ma-

trixpolynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 554.1.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 634.1.4 Das Rückkehrverhalten und Grenzverhalten von zeitdiskreten Quasi-

Geburts- und Todesprozessen . . . . . . . . . . . . . . . . . . . . . . . 704.2 Zeitstetige Quasi-Geburts- und Todesprozesse . . . . . . . . . . . . . . . . . . 78

4.2.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 784.2.2 Zeitstetige Quasi-Geburts- und Todesprozesse und orthogonale Matrix-

polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 804.2.3 Beispiele aus der Warteschlangentheorie . . . . . . . . . . . . . . . . . 85

i

Page 6: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

ii INHALTSVERZEICHNIS

4.2.4 α-Rekurrenzkriterien für zeitstetige Quasi-Geburts- und Todesprozesse 88

5 Matrixmaße und Zufallsmatrizen 955.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 955.2 Asymptotische Eigenwertverteilung . . . . . . . . . . . . . . . . . . . . . . . . 975.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

Symbolverzeichnis 111

Literaturverzeichnis 113

Page 7: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Einleitung

Die klassische Momententheorie und die Theorie der skalaren orthogonalen Polynome bezüg-lich reellwertiger Maße stellen ausführlich untersuchte Teilgebiete der Mathematik dar [siehez. B. Shohat und Tamarkin (1963) sowie Chihara (1978)] und stehen sowohl untereinanderals auch zu zahlreichen anderen Teilgebieten der Mathematik wie beispielsweise der Zahlen-theorie, der Numerik oder der Wahrscheinlichkeitstheorie in engem Zusammenhang.Bezeichnet µ ein Maß auf der reellen Achse, so sind die gewöhnlichen Momente von µ (fürden Fall ihrer Existenz) definiert durch

sn = sn(µ) =

∫ ∞

−∞tndµ(t), n ≥ 0.

Weiter heißt eine Folge von skalaren Polynomen pnn≥0 genau dann orthogonal bzgl. desMaßes µ, falls

∫ ∞

−∞pk(t)pℓ(t)dµ(t) = 0 für k 6= ℓ

gilt. Nach dem Satz von Favard (1935) ist dies äquivalent dazu, dass die Polynome pnn≥0

eine Drei-Schritt-Rekursion der Form

pn+1(t) = (ant+ bn)pn(t) − cnpn−1(t), n ≥ 0,

mit an−1ancn > 0, n ≥ 1, sowie den Anfangsbedingungen p0(t) = c 6= 0, c konstant, undp−1(t) = 0 erfüllen. Hierbei können die Rekursionskoeffizienten an, bn, n ≥ 0, und cn, n ≥ 1,durch die gewöhnlichen Momente sn(µ), n ≥ 0, des zugrunde liegenden Orthogonalitätsma-ßes µ ausgedrückt werden. Weiterhin kann aus den Eigenschaften der Rekursionskoeffizientenauf die Lage des Trägers des Maßes µ geschlossen werden.Eine Anwendung der Theorie der orthogonalen Polynome und ihrer Orthogonalitätsmaßefindet man beispielsweise innerhalb der Wahrscheinlichkeitstheorie bei der Analyse von Mar-kovketten (Xn)n≥0 mit Zustandsraum N0, deren Einschritt-Übergangsmatrix durch eine un-endliche Jacobi-Matrix gegeben ist. Die n-Schritt-Übergangswahrscheinlichkeiten des Prozes-ses (Xn)n≥0 können durch einen Integralausdruck der Form

P (Xn = j | X0 = i) =

∫ 1

−1xnqi(x)qj(x)dψ(x)∫ 1

−1q2j (x)dψ(x)

, i, j ≥ 0,

charakterisiert werden, dessen Integranden aus orthogonalen Polynomen qnn≥0, den Ran-dom Walk Polynomen, sowie dem zugehörigen (durch seine Momente eindeutig bestimmten)

1

Page 8: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

2 EINLEITUNG

Orthogonalitätsmaß ψ, dem Random Walk Maß, bestehen [siehe z. B. Karlin und McGregor(1959)]. Dabei genügen die Random Walk Polynome qnn≥0 einer Drei-Schritt-Rekursion,deren Rekursionskoeffizienten gerade die Einschritt-Übergangswahrscheinlichkeiten des Pro-zesses sind. Weiterhin sind die Momente sn(ψ), n ≥ 0, des Random Walk Maßes ψ genau dien-Schritt-Rückkehrwahrscheinlichkeiten in den Zustand 0. Für die Stieltjes-Transformierte

∫ 1

−1

dψ(x)

z − x, z ∈ C\[−1, 1],

des Random Walk Maßes ψ leiten Dette und Studden (1997) Kettenbruchentwicklungen her,deren Einträge Ausdrücke der Rekursionskoeffizienten in der Drei-Schritt-Rekursion für diePolynome qnn≥0 (d. h. Ausdrücke der Einschritt-Übergangswahrscheinlichkeiten) bzw. derMomente sn(ψ) von ψ sind. Mithilfe dieser Kettenbruchentwicklungen sowie der Integraldar-stellung für die n-Schritt-Übergangswahrscheinlichkeiten können Eigenschaften des RandomWalks, insbesondere Rekurrenz und Transienz, durch die Eigenschaften des Random WalkMaßes ψ bzw. durch die der Random Walk Polynome qnn≥0 charakterisiert werden. Bei-spielsweise ist der Random Walk auf den nichtnegativen ganzen Zahlen genau dann positivrekurrent, falls das zugehörige Random Walk Maß einen Sprung an der Stelle x = 0 hat.Eine weitere Anwendung der Theorie der skalaren orthogonalen Polynome findet man beider Analyse des Spektrums von zufälligen Matrizen bei wachsender Dimension der Matrizen[siehe z. B. Pastur und Shcherbina (1997), Deift (1998), Bleher und Its (1999) sowie Detteund Imhof (2007)]. So weisen beispielsweise Dette und Imhof (2007) nach, dass sich die zufäl-ligen Eigenwerte des klassischen β-Hermite Ensembles fast sicher durch die deterministischenNullstellen von orthogonalen Hermite-Polynomen approximieren lassen. Daher ermöglichenResultate über das asymptotische Verhalten der deterministischen Nullstellen der Hermite-Polynome Rückschlüsse auf das der zufälligen Eigenwerte des β-Hermite Ensembles.

In der vorliegenden Arbeit leiten wir Eigenschaften und Anwendungen von matrixwertigenMaßen und matrixwertigen Polynomen her. Dabei verstehen wir unter einem Matrixmaß Σeine matrixwertige Abbildung

Σ : R → Rp×p,

die jeder Borelmenge A ⊆ R eine symmetrische, nichtnegativ definite Matrix Σ(A) zuordnet,deren Einträge endliche signierte Maße auf der reellen Achse sind. Matrixwertige Polynome

P (z) =n∑

i=0

Aizn, Ai ∈ R

p×p, i = 0, . . . , n,

können analog zum eindimensionalen Fall (p = 1) bzgl. matrixwertiger innerer Produkte,welche durch Matrixmaße erzeugt werden, orthogonalisiert bzw. orthonormalisiert werden.Analog zum skalaren Fall lassen sich orthogonale Matrixpolynome durch eine (matrixwerti-ge) Drei-Schritt-Rekursion charakterisieren. Insbesondere ist eine Folge Pnn≥0 von p × p-Matrixpolynomen genau dann orthonormal bzgl. eines Matrixmaßes Σ ∈ R

p×p, falls es Matri-zen An ∈ R

p×p, det (An) 6= 0, n ≥ 1, und Bn ∈ Rp×p, Bn = BT

n , n ≥ 0, gibt mit

tPn(t) = An+1Pn+1(t) +BnPn(t) + ATnPn−1(t), n ≥ 0.

Page 9: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

EINLEITUNG 3

Duran und van Assche (1995) und Duran (1995) weisen nach, dass jedes System von skala-ren Polynomen, welches eine (2p + 1)-Schritt-Rekursion erfüllt, durch eine Folge von p × p-Matrixpolynomen ausgedrückt werden kann, die orthonormal bzgl. eines Matrixmaßes ist.Weiterhin treten matrixwertige Maße beispielsweise bei der Analyse des Spektrums von zwei-fach unendlichen Jacobi-Operatoren auf. In diesem Fall sind die zugehörigen Spektralmaßegerade 2 × 2-Matrixmaße [siehe z. B. Berezanskii (1968)]. In der Wahrscheinlichkeitstheoriefindet dies insbesondere bei der Analyse des klassischen Random Walks auf den ganzen Zah-len Anwendung, dessen Einschritt-Übergangsmatrix durch eine zweifach unendliche Jacobi-Matrix gegeben ist [siehe z. B. Karlin und McGregor (1959)].Vor allem während der letzten beiden Jahrzehnte wurden intensiv die Eigenschaften von or-thogonalen Matrixpolynomen und ihren Orthogonalitätsmaßen untersucht, mit dem Ziel, Re-sultate aus der klassischen Theorie zu verallgemeinern. Das matrixwertige Momentenproblemdiskutieren u. a. Marcellan und Sansigre (1993). Weiterhin charakterisieren Dette und Studden(2002a) den Momentenraum matrixwertiger Maße. Ausgehend von der Drei-Schritt-Rekursionfür orthonormale Matrixpolynome beschreiben Duran und Lopez-Rodriguez (1996) und Du-ran (1996) die Eigenschaften der Nullstellen von orthonormalen Matrixpolynomen und leitenQuadraturformeln für Matrixpolynome her, deren Knoten die Nullstellen von orthonormalenMatrixpolynomen sind. Auf den Ergebnissen dieser Autoren basieren zahlreiche asymptoti-sche Resultate für orthonormale Matrixpolynome. So weisen Duran et al. (1999) mithilfe derQuadraturformeln die schwache Konvergenz der empirischen Nullstellenverteilung von ortho-normalen Matrixpolynomen, deren Rekursionskoeffizienten konvergieren, nach und geben dieGrenzverteilung explizit an. Weiterhin nutzt Duran (1996, 1999) die Quadraturformeln zumNachweis der Konvergenz von Produkten von Matrixpolynomen und kann auf diese Weisebedeutsame Resultate von Markoff (1895) und Nevai (1979) aus dem eindimensionalen Fall(p = 1) in den mehrdimensionalen Fall (p > 1) übertragen. Die asymptotischen Resultatevon Duran (1996, 1999) werden ihrerseits von Duran und Daneri-Vias (2001) sowie Yakhlef(2007) auf orthonormale Matrixpolynome verallgemeinert, deren Rekursionskoeffizienten inder zugehörigen Drei-Schritt-Rekursion zusätzlich von einer natürlichen Zahl k abhängen. Indiesem Fall spricht man von orthonormalen Matrixpolynomen mit variierenden Rekursions-koeffizienten.In den meisten Fällen erweist sich die unmittelbare Übertragung von Resultaten aus der klas-sischen Theorie in den Matrixfall als schwierig. Als Ursache dafür sind in erster Linie dieNichtpositivität der Matrixmaße sowie die Nichtkommutativität des Rings der Matrixpolyno-me zu nennen. So verallgemeinern zwar Duran (1999) und Duran et al. (1999) beispielsweisedas Konzept der klassischen Chebyshev-Polynome 1. und 2. Art auf den Matrixfall, jedochkönnen die zugehörigen matrixwertigen Orthogonalitätsmaße, die Matrix-Chebyshev-Maße 1.und 2. Art, nur unter bestimmten Voraussetzungen explizit angegeben werden. Weiterhin istfür die Beweise der asymptotischen Resultate von Duran (1996, 1999) die Reihenfolge derMultiplikation der Matrixpolynome wesentlich.

In der vorliegenden Arbeit verallgemeinern wir weitere klassische Resultate für orthogonalePolynome und deren Orthogonalitätsmaße auf den Matrixfall und wenden die gewonnenenErgebnisse zum einen bei der Analyse von zeitdiskreten und -stetigen Quasi-Geburts- undTodesprozessen und zum anderen bei der Untersuchung des asymptotischen Verhaltens der

Page 10: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4 EINLEITUNG

Eigenwerte von zufälligen blocktridiagonalen Matrizen, deren Einträge aus standard normalund Wurzeln von Chi-Quadrat verteilten Zufallsvariablen bestehen, an. Während der Zu-sammenhang zwischen skalaren orthogonalen Polynomen und gewöhnlichen Geburts- undTodesprozessen bzw. zwischen skalaren orthogonalen Polynomen und Zufallsmatrizen bereitsausführlich in der Literatur diskutiert wurde [siehe z. B. Karlin und McGregor (1957a,b, 1959),van Doorn (2003), van Doorn und Schrijner (1993), Dette und Studden (1997) sowie Deift(1998) und Dette und Imhof (2007)] stellen die Theorien der orthogonalen Matrixpolynome[siehe dazu die oben genannten Arbeiten von Duran und seinen Mitautoren sowie die darinenthaltenen Literaturangaben] und der Quasi-Geburts- und Todesprozesse [siehe z. B. Neuts(1989), Latouche et al. (1998) sowie Latouche und Ramaswami (1999)] bzw. der zufälligenBlockmatrizen [siehe z. B. Girko (2000) sowie Oraby (2007a,b)] bisher lediglich unabhängigvoneinander betrachtete Gebiete dar.

Die in dieser Arbeit benötigten Grundlagen über Matrixmaße und Matrixpolynome, insbe-sondere über orthogonale Matrixpolynome, werden in Kapitel 1 zur Verfügung gestellt. An-schließend erläutern wir in Kapitel 2 zunächst die von Dette und Studden (2002a) hergelei-teten Charakterisierungen des Momentenraumes matrixwertiger Maße. Diese legen eine zumeindimensionalen Fall analoge Definition von matrixwertigen kanonischen Momenten für Ma-trixmaße auf kompakten Intervallen nahe. Die eingeführten Bezeichnungen und Eigenschaftenmatrixwertiger Maße und ihrer Momente nutzen wir in demselben Kapitel zur Herleitung vonMatrixkettenbruchentwicklungen für die Stieltjes-Transformierte von matrixwertigen Ortho-gonalitätsmaßen auf kompakten Intervallen sowie auf dem Intervall [0,∞). Dabei ergeben sichMatrixkettenbruchentwicklungen, deren Einträge Ausdrücke der (kanonischen) Momente deszugrunde liegenden Matrixmaßes sind.In Kapitel 3 weisen wir die schwache Konvergenz der empirischen Nullstellenverteilung vonorthonormalen Matrixpolynomen mit variierenden und konvergierenden (für n, k → ∞) Re-kursionskoeffizienten nach. Dabei ist die Dichte der Grenzverteilung gegeben durch ein Integralüber die Spur von matrixwertigen Chebyshev-Dichten 1. Art.In Kapitel 4 stellen wir einen Zusammenhang zwischen zeitdiskreten bzw. -stetigen Quasi-Geburts- und Todesprozessen und orthogonalen Matrixpolynomen her. Im Gegensatz zumskalaren Fall ist die zu den Prozessen assoziierte Folge von Matrixpolynomen nicht für jedenzugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzungder Orthogonalität dieser Matrixpolynome leiten wir für die Übergangswahrscheinlichkeitender Prozesse eine Integraldarstellung her, die Ausdruck der orthogonalen Polynome sowie deszugehörigen Orthogonalitätsmaßes ist. Auf der Basis dieser Integraldarstellung untersuchenwir Eigenschaften wie Rekurrenz und Transienz der Prozesse. Dazu ziehen wir u. a. die inKapitel 2 hergeleiteten Matrixkettenbruchentwicklungen heran.In Kapitel 5 verallgemeinern wir das Konzept des klassischen β-Hermite Ensembles auf block-tridiagonale zufällige Matrizen. Wir zeigen, dass sich die zufälligen Eigenwerte dieser Block-matrizen asymptotisch wie die deterministischen Nullstellen bestimmter orthonormaler Ma-trixpolynome mit variierenden Rekursionskoeffizienten verhalten. Anschließend weisen wirmithilfe der in Kapitel 3 bewiesenen Resultate die schwache Konvergenz der empirischen Ei-genwertverteilung der zufälligen Blockmatrizen nach und geben die Dichte der Grenzverteilungals Ausdruck von matrixwertigen Chebyshev-Dichten 1. Art an.

Page 11: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Kapitel 1

Matrixmaße und Matrixpolynome

In diesem Kapitel werden Matrixmaße und Matrixpolynome eingeführt und die im weiterenVerlauf dieser Arbeit häufig benötigten Eigenschaften dargestellt. Der Schwerpunkt liegt da-bei auf den orthonormalen Matrixpolynomen, die wie im eindimensionalen Fall durch eineDrei-Schritt-Rekursion charakterisiert werden können. Diese stellt die Grundlage für die Un-tersuchungen der Eigenschaften von orthonormalen Matrixpolynomen und ihren Nullstellendar. Neben Favards Theorem für orthonormale Matrixpolynome auf der reellen Achse sowiematrixwertigen Chebyshev-Polynomen führen wir wichtige Eigenschaften der Nullstellen vonorthonormalen Matrixpolynomen auf. Abschließend geben wir zwei asymptotische Resultatefür orthonormale Matrixpolynome an.

1.1 Definitionen

Unter einem positiv definiten p×p-Matrixmaß Σ verstehen wir eine matrixwertige Abbildung

Σ : R → Rp×p,

p ∈ N, die jeder Borelmenge A ⊆ R eine symmetrische, nichtnegativ definite p × p-MatrixΣ (A) = σij (A)i,j=1,...,p zuordnet, deren Einträge σij(A), i, j = 1, . . . , p, endliche signierteMaße sind. Die Momente des Matrixmaßes Σ werden analog zum eindimensionalen Fall durchdie p× p-Matrizen

Sn = Sn(Σ) :=

R

tndΣ(t), n ≥ 0, (1.1)

definiert, wobei die Matrizen Sn, für alle n ≥ 0 symmetrisch und nichtnegativ definit sind. Inder vorliegenden Arbeit werden nur Matrixmaße betrachtet, für die alle Momente existieren.Man bezeichnet ein Matrixmaß Σ durch seine Momente Sn(Σ), n ≥ 0, eindeutig bestimmt,wenn Σ das einzige Matrixmaß mit den Momenten Sn(Σ), n ≥ 0, ist. Der (n+ 1)-te Momen-tenraum Mn+1 ist durch

Mn+1 := (S0(Σ), . . . , Sn(Σ)) | Σ ist p× p-Matrixmaß auf R ⊆(

Rp×p)n+1

(1.2)

5

Page 12: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

6 KAPITEL 1. MATRIXMAßE UND MATRIXPOLYNOME

definiert. Alle im weiteren Verlauf dieser Arbeit auftretenden Matrixmaße sind positiv definitep× p-Matrixmaße.

Für eine Folge von Maßen (bzw. Matrixmaßen) verwenden wir die übliche Definition derschwachen Konvergenz von Maßen (bzw. Matrixmaßen) [siehe z. B. Billingsley (1968)].

Definition 1.1 Eine Folge von Maßen µnn≥0 (bzw. Matrixmaßen) auf einem metrischenRaum X konvergiert schwach gegen ein Maß µ (bzw. Matrixmaß) falls

limn→∞

fdµn =

fdµ

für jede stetige und beschränkte Funktion f : X → R (bzw. Rp×p) gilt.

Bemerkung 1.2 In der vorliegenden Arbeit werden nur reellwertige Matrixmaße betrachtet.Die im Folgenden erläuterten Eigenschaften orthonormaler Matrixpolynome sowie die derin Kapitel 2 betrachteten Momente und Momentenräume bleiben auch für zugrunde liegendekomplexwertige Matrixmaße gültig. In diesem Fall ist die Matrix Σ(A) für jede BorelmengeA ⊆ R eine hermitesche und nichtnegativ definite Matrix, deren Einträge komplexe Maße sind.

Ein p×p-Matrixpolynom vom Grad n ∈ N ist eine matrixwertige Abbildung P : C → Cp×p mit

P (z) =n∑

i=1

Aizi, A0, A1, . . . , An ∈ C

p×p, An 6= 0p, (1.3)

wobei 0p die p × p-Nullmatrix bezeichne. Ein Matrixpolynom ist demnach eine Matrix, de-ren Einträge skalare Polynome vom Grad kleiner gleich n sind. Das Matrixpolynom P wirdmonisch genannt, falls für den führenden Koeffizienten An = Ip gilt, wobei Ip die p × p-Einheitsmatrix bezeichne. Ist die Matrix An nichtsingulär, so ist A−1

n P ein monisches Matrix-polynom. Wenn nichts anderes gesagt wird, handelt es sich bei den im Folgenden auftretendenMatrixpolynomen vom Grad n um p×p-Matrixpolynome mit reellen Koeffizienten Ai ∈ R

p×p,i = 0, . . . , n, An 6= 0p.

Eine Zahl z0 ∈ C ist eine Nullstelle des Matrixpolynoms P, falls P (z0) eine singuläre Matrixist. Damit sind die Nullstellen von P die Nullstellen des skalaren Polynoms detP. Da für dasin Gleichung (1.3) definierte Matrixpolynom

detP (z) = det (An) znp + . . . (1.4)

gilt, folgt, dass P genau np Nullstellen hat, falls An nichtsingulär ist, wobei jede Nullstelleentsprechend seiner Häufigkeit gezählt wird. Ist der führende Koeffizient von P singulär, sokann über die Nullstellen von P keine allgemeine Aussage getroffen werden. Beispielsweisegilt für das Matrixpolynom

P (z) =

(

z 1z2 z

)

detP (z) = 0 für alle z ∈ C.

Page 13: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

1.2. ORTHOGONALE MATRIXPOLYNOME 7

Für zwei Matrixpolynome P und Q wird das durch ein Matrixmaß Σ induzierte linke bzw.rechte matrixwertige innere Produkt im Raum der Matrixpolynome wie folgt definiert [Sinapund van Assche (1996)]:

Definition 1.3 Es seien P und Q zwei Matrixpolynome und Σ ein Matrixmaß auf der reellenAchse. Dann ist das linke bzw. rechte matrixwertige innere Produkt durch

〈P,Q〉 :=

R

P (t)dΣ(t)QT (t) bzw. 〈P,Q〉R :=

R

P T (t)dΣ(t)Q(t) (1.5)

definiert.

Es lassen sich direkt die folgenden Eigenschaften nachrechnen.

Satz 1.4 Für das in Definition 1.3 definierte linke innere Produkt gilt:

(a) 〈P,Q〉 = 〈Q,P 〉T

(b) 〈C1P1 + C2P2, Q〉 = C1 〈P1, Q〉 + C2 〈P2, Q〉 , C1, C2 ∈ Rp×p

(c) 〈tP,Q〉 = 〈P, tQ〉(d) Die Matrix 〈P, P 〉 ist nichtnegativ definit, und positiv definit, wenn detP 6≡ 0 gilt.

(e) Genau dann ist 〈P, P 〉 = 0p, wenn P = 0p gilt.

Es ist leicht zu sehen, dass die Eigenschaften (a) und (c) bis (e) genauso für das rechte innereProdukt gelten. Das Distributivgesetz (b) lautet für das rechte innere Produkt

〈P,Q1C1 +Q2C2〉R = 〈P,Q1〉R C1 + 〈P,Q2〉R C2, C1, C2 ∈ Rp×p.

1.2 Orthogonale Matrixpolynome

1.2.1 Einführung

Orthogonalisiert man die matrixwertige Folge tnIpn≥0 mit dem Gram-Schmidt-Verfahrenbzgl. des linken bzw. rechten inneren Produktes, welches durch ein Matrixmaß Σ ∈ R

p×p auf R

erzeugt werde, so erhält man Folgen von p× p-Matrixpolynomen Pnn≥0 bzw. PRn n≥0 mit

〈Pn, Pm〉 =

R

Pn(t)dΣ(t)P Tm(t) = Fn bzw. (1.6)

PRn , P

Rm

R=

R

(PRn (t))TdΣ(t)PR

m(t) = FRn , (1.7)

wobei Fn und FRn nichtsinguläre p×p-Matrizen und Pn und PR

n Matrixpolynome vom Grad nmit nichtsingulären führenden Koeffizienten sind. Die Matrixpolynome Pnn≥0 bzw. PR

n n≥0

Page 14: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

8 KAPITEL 1. MATRIXMAßE UND MATRIXPOLYNOME

heißen orthogonal bzgl. des Matrixmaßes Σ, falls Gleichung (1.6) bzw. (1.7) gilt, und ortho-normal bzgl. Σ, falls

〈Pn, Pm〉 = δnmIp bzw.⟨

PRn , P

Rm

R= δnmIp (1.8)

gilt, wobei δnm das Kroneckersymbol bezeichne. Sind die Polynome Pnn≥0 bzw. PRn n≥0

orthogonal bzgl. des Matrixmaßes Σ, so wird Σ im Folgenden Orthogonalitätsmaß von Pnn≥0

bzw. PRn n≥0 genannt. Ist Pnn≥0 eine bzgl. des Matrixmaßes Σ orthonormale Folge von

Matrixpolynomen (bzgl. des linken inneren Produktes) und Unn≥0 eine Folge orthogonalerp× p-Matrizen, d. h. UnU

Tn = UT

n Un = Ip, so gilt

〈UnPn, UmPm〉 = Un 〈Pn, Pm〉UTm =

0 falls m 6= nUnU

Tn = Ip, falls m = n

.

Daher sind die orthonormalen Matrixpolynome Pnn≥0 bis auf Multiplikation mit einer Folgevon orthogonalen Matrizen von links eindeutig bestimmt. Analog dazu sind die orthonormalenMatrixpolynome PR

n n≥0 bis auf Multiplikation mit einer Folge orthogonaler Matrizen vonrechts eindeutig bestimmt. Durch Multiplikation der orthogonalen Matrixpolynome mit derInversen ihres führenden Koeffizienten erhält man eindeutig bestimmte monische orthogonaleMatrixpolynome. Weiter folgt aus der Beziehung 〈P,Q〉 =

P T , QT⟩

Rfür zwei Matrixpoly-

nome P und Q die Identität

PRn (t) = (Pn(t))T , n ≥ 0.

Daher implizieren Resultate für orthogonale Polynome bzgl. des linken inneren Produktes dieentsprechenden Resultate für orthogonale Polynome bzgl. des rechten inneren Produktes (undumgekehrt). In der vorliegenden Arbeit wird aus diesem Grund nur das linke innere Produktverwendet, d. h. die auftretenden orthogonalen Matrixpolynome sind orthogonal bzgl. deslinken inneren Produktes.

Im Folgenden führen wir wichtige Eigenschaften orthogonaler Matrixpolynome auf, die imweiteren Verlauf dieser Arbeit benötigt werden. Weitere Details können u. a. den Arbeitenvon Geronimo (1982), Aptekarev und Nikishin (1984), Duran und van Assche (1995), Sinapund van Assche (1996), Duran und Lopez-Rodriguez (1996), Duran (1995, 1996, 1999), Duranet al. (1999), Duran und Daneri-Vias (2001), Dette und Studden (2002a) sowie Zygmunt(2002) entnommen werden. Für den skalaren Fall verweisen wir auf die Monografien vonSzegö (1975) und Chihara (1978).

Wie im eindimensionalen Fall [siehe z. B. Chihara (1978)] erfüllen orthonormale Matrixpolyno-me auf der reellen Achse eine Drei-Schritt-Rekursion. Umgekehrt ist eine Folge von Matrixpo-lynomen, die eine solche Drei-Schritt-Rekursion erfüllt, orthonormal bzgl. eines Matrixmaßesauf der reellen Achse. Im Eindimensionalen ist dies die Aussage von Favards Theorem [Fa-vard (1935)]. Der Beweis des folgenden Satzes kann den Arbeiten von Aptekarev und Nikishin(1984), Duran (1995) und Duran und van Assche (1995) sowie Duran und Lopez-Rodriguez(1996) [siehe Bemerkung 1.9] entnommen werden.

Page 15: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

1.2. ORTHOGONALE MATRIXPOLYNOME 9

Satz 1.5

(a) Ist Pnn≥0 eine Folge von Matrixpolynomen, die orthonormal bzgl. eines Matrixma-ßes Σ auf R ist, dann existieren nichtsinguläre Matrizen An ∈ R

p×p, n ≥ 1, und sym-metrische Matrizen Bn ∈ R

p×p, n ≥ 0, so dass die Drei-Schritt-Rekursion

tPn(t) = An+1Pn+1(t) +BnPn(t) + ATnPn−1(t) (1.9)

erfüllt ist.

(b) Es sei Pnn≥0 eine Folge von Matrixpolynomen, die eine Rekursion der Form (1.9) mitnichtsingulären Matrizen An ∈ R

p×p, n ≥ 1, und symmetrischen Matrizen Bn ∈ Rp×p,

n ≥ 0, erfüllt. Dann existiert ein Matrixmaß Σ auf R mit∫

R

Pn(t)dΣ(t)P Tm(t) = δnmIp. (1.10)

Die Drei-Schritt-Rekursion (1.9) charakterisiert demnach orthonormale Matrixpolynome aufder reellen Achse und stellt die Basis für die folgenden Untersuchungen der Eigenschaftenorthonormaler Matrixpolynome dar. Im weiteren Verlauf dieser Arbeit nehmen wir an, dassdie durch die Rekursion (1.9) gegebenen orthonormalen Matrixpolynome Pnn≥0 die An-fangsbedingungen

P−1(t) = 0p und P0(t) = Ip

erfüllen.

Analog zum eindimensionalen Fall definieren wir die assoziierten Polynome der Ordnung 1bzw. die Polynome 2. Art durch

Q(1)n (z) :=

Pn(z) − Pn(t)

z − tdΣ(t), n ≥ 0. (1.11)

Induktiv folgt, dass die Polynome Q(1)n n≥0 ebenfalls der Rekursion (1.9) genügen, wobei die

Anfangsbedingungen nach Definition durch

Q(1)0 (z) = 0p und Q

(1)1 (z) = A−1

1

dΣ(t) = A−11 S0

gegeben sind und Q(1)n ein Matrixpolynom vom Grad n− 1 ist. Die Polynome 2. Art tauchen

beispielsweise in den matrixwertigen Gewichten in der in Satz 1.8 aufgeführten Quadratur-formel für Matrixpolynome auf.

1.2.2 Nullstellen orthonormaler Matrixpolynome

Die Nullstellen von orthonormalen Matrixpolynomen können zum einen durch Eigenwerteblocktridiagonaler Jacobi-Matrizen, auf denen die Untersuchungen der Eigenschaften der Null-stellen von orthonormalen Matrixpolynomen basieren, und zum anderen durch Knoten in

Page 16: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

10 KAPITEL 1. MATRIXMAßE UND MATRIXPOLYNOME

Quadraturformeln für Matrixpolynome, die die Grundlage zahlreicher asymptotischer Resul-tate für orthonormale Matrixpolynome darstellen, identifiziert werden.

Zu einer durch die Rekursion (1.9) gegebenen Folge Pnn≥0 von orthonormalen Matrixpoly-nomen assoziieren wir die unendliche, symmetrische blocktridiagonale Jacobi-Matrix

J :=

B0 A1

AT1 B1 A2

AT2 B2 A3

. . . . . . . . .

, (1.12)

wobei die Blöcke An, n ≥ 1, und Bn, n ≥ 0, die Rekursionskoeffizienten aus der Drei-Schritt-Rekursion sind. Da mit Pnn≥0 auch jede Folge UnPnn≥0 mit orthogonalen Ma-trizen Unn≥0 bzgl. Σ orthonormal ist und damit eine Rekursion der Form (1.9) erfüllt,folgt, dass sich zu den Polynomen Pnn≥0 ebenfalls die Jacobi-Matrix J := UJUT mitU := diag (U0, U1, . . .) assoziieren lässt. Der folgende Satz identifiziert die Nullstellen desMatrixpolynoms Pn durch die Eigenwerte der nach np Zeilen und Spalten abgeschnittenenJacobi-Matrix J.

Satz 1.6 Es sei Pnn≥0 eine durch die Rekursion (1.9) gegebene Folge von orthonormalenMatrixpolynomen. Dann sind die Nullstellen von Pn die Nullstellen des skalaren Polynomsdet (tIn − Jnp) mit den entsprechenenden Vielfachheiten, wobei Jnp aus den ersten np Zeilenund Spalten der in (1.12) definierten Matrix J besteht.

Während skalare orthonormale Polynome vom Grad n genau n verschiedene Nullstellen haben,sind die Nullstellen im Matrixfall nicht notwendig verschieden. Da die Matrix Jnp symmetrischist und ihre Blöcke p × p-Matrizen sind, gilt für die Nullstellen und ihre Vielfachheiten imMatrixfall

Folgerung 1.7 Es sei Pnn≥0 eine Folge orthonormaler Matrixpolynome, gegeben durch dieRekursion (1.9). Dann hat Pn genau np reelle Nullstellen, wobei jede Nullstelle höchstensp-mal auftritt. Ist z0 eine Nullstelle von Pn mit Vielfachheit ℓ, so gilt

ℓ = p− Rang (Pn(z0)) ≤ p.

Für die Beweise von Satz 1.6 und Folgerung 1.7 sowie weitere elementare Eigenschaften derNullstellen von orthonormalen Matrixpolynomen verweisen wir auf die Arbeiten von Duranund Lopez-Rodriguez (1996) und Duran (1996).

Eine wichtige Anwendung von orthogonalen Matrixpolynomen ist die Konstruktion von Qua-draturformeln zur Approximation von Integralen über matrixwertige Polynome. Dabei bestehteine Quadraturformel vom Grad n bzgl. eines Matrixmaßes Σ aus m Knoten xj, j = 1, . . . ,m,und matrixwertigen Quadraturgewichten Gj, j = 1, . . . ,m, so dass für jedes Matrixpolynom Pvom Grad kleiner gleich n

P (t)dΣ(t) =m∑

j=1

P (xj)Gj

Page 17: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

1.2. ORTHOGONALE MATRIXPOLYNOME 11

gilt. Quadraturformeln für Matrixpolynome leiten beispielsweise Sinap und van Assche (1994),Duran und Lopez-Rodriguez (1996) sowie Duran (1996) her. Duran (1996) gibt dabei diematrixwertigen Gewichte in der in Satz 1.8 angegebenen Form explizit an, wobei Adj (A) füreine p× p-Matrix A die Adjungierte bezeichne, welche durch die Gleichung

AAdj (A) = Adj (A)A = detAIp (1.13)

eindeutig definiert wird.

Satz 1.8 Es sei Pnn≥0 eine durch die Rekursion (1.9) gegebene Folge von orthonormalenMatrixpolynomen mit Orthogonalitätsmaß Σ. Weiter bezeichnen xn,1, . . . , xn,m die m verschie-denen Nullstellen von Pn mit den Vielfachheiten ℓ1, . . . , ℓm. Dann gilt für jedes Matrixpoly-nom P mit Grad (P ) ≤ 2n− 1 die Quadraturformel

P (t)dΣ(t) =m∑

j=1

P (xn,j)Γn,j, (1.14)

wobei die matrixwertigen Gewichte durch die p× p-Matrizen

Γn,j =1

(det (Pn(t)))(ℓj) (xn,j)

(

Adj (Pn(t)))(ℓj−1)(xn,j)Q(1)n (xn,j

)

, j = 1, . . . ,m, (1.15)

gegeben sind und Q(1)n n≥0 die in Gleichung (1.11) definierten Polynome 2. Art bezeichnen.

Die Matrizen Γn,j sind nichtnegativ definit und haben Rang ℓj, j = 1, . . . ,m.

Der geschlossene Ausdruck für die Matrixgewichte Γn,j in Gleichung (1.15) stellt die Grund-lage für die Beweise der in Kapitel 1.2.4 aufgeführten asymptotischen Resultate für ortho-normale Matrixpolynome dar. In Kapitel 3 nutzen wir die Quadraturformel (1.14) in etwasallgemeinerer Form zur Herleitung der asymptotischen Nullstellenverteilung für orthonormaleMatrixpolynome mit variierenden Rekursionskoeffizienten.

Bemerkung 1.9 Mithilfe der matrixwertigen Gewichte Γn,j in der Quadraturformel (1.14)erhalten wir ein Orthogonalitätsmaß für die Matrixpolynome Pnn≥0 (und damit einen Be-weis für die Existenz eines Orthogonalitätsmaßes für eine durch die Rekursion (1.9) definierteFolge von Matrixpolynomen). Dazu bezeichne ∆n die Menge aller Nullstellen von Pn und

Γ =⋂

p≥0

Mp mit Mp =⋃

n≥p

∆n . (1.16)

Dann konvergiert (wie im skalaren Fall [siehe z. B. Szegö (1975)]) die Folge der nichtnegativdefiniten Matrixmaße

µn :=m∑

j=1

Γn,jδxn,j, n ≥ 0, (1.17)

schwach gegen ein Orthogonalitätsmaß von Pnn≥0 . Ist Σ ein durch seine Momente eindeutigbestimmtes Orthogonalitätsmaß von Pnn≥0, so folgt daraus für den Träger von Σ

supp (Σ) ⊂ Γ

[Duran und Lopez-Rodriguez (1996)].

Page 18: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

12 KAPITEL 1. MATRIXMAßE UND MATRIXPOLYNOME

1.2.3 Matrix-Chebyshev-Polynome

In diesem Kapitel führen wir Matrix-Chebyshev-Polynome 1. und 2. Art ein, die die matrix-wertigen Analoga zu den klassischen Chebyshev-Polynomen darstellen. Wie sich im weite-ren Verlauf dieser Arbeit zeigen wird, sind die Orthogonalitätsmaße der Matrix-Chebyshev-Polynome bei der Untersuchung des asymptotischen Verhaltens orthonormaler Matrixpoly-nome [siehe Kapitel 1.2.4 und Kapitel 3] und ihrer Nullstellen [siehe Kapitel 3] von großerBedeutung. Zur Einführung definieren wir zunächst, analog zum eindimensionalen Fall [Nevai(1979)], die Matrix-Nevai-Klasse M(A,B).

Definition 1.10 Es seien A ∈ Rp×p und B ∈ R

p×p mit BT = B und Pnn≥0 eine Folgeorthonormaler Matrixpolynome, die durch die Rekursion (1.9) gegeben sei. Dann gehören diePolynome Pnn≥0 zur Matrix-Nevai-Klasse M(A,B), falls für die Rekursionskoeffizienten

limn→∞

An = A und limn→∞

Bn = B

gilt. Ein Matrixmaß Σ gehört zur Klasse M(A,B), falls eine bzgl. Σ orthonormale Folge vonMatrixpolynomen zu M(A,B) gehört.

Da orthonormale Matrixpolynome nur bis auf einen orthogonalen Faktor eindeutig sind, ge-hört ein Matrixmaß zu verschiedenen Matrix-Nevai-Klassen. Duran (1999) und Duran et al.(1999) untersuchen das asymptotische Verhalten von Matrixpolynomen in der Matrix-Nevai-Klasse M(A,B) [siehe Satz 1.18] sowie das ihrer Nullstellen [siehe Beispiel 3.4]. Dabei istdie Eigenschaft, dass das zugrunde liegende Orthogonalitätsmaß kompakten Träger hat (undeindeutig bestimmt ist) wesentlich.

Satz 1.11 Ist Pnn≥0 eine durch die Rekursion (1.9) gegebene Folge orthonormaler Matrix-polynome mit Orthogonalitätsmaß Σ in der Matrix-Nevai-Klasse M(A,B), dann existiert eineKonstante M > 0, so dass |xn,j| ≤M für jede Nullstelle xn,j, j = 1, . . . , np, von Pn gilt. Wei-terhin besitzt Pnn≥0 ein eindeutig bestimmtes Orthogonalitätsmaß Σ mit kompaktem Trägerin [−M,M ].

Der Beweis von Satz 1.11 basiert auf Gershgorins Theorem, aus dem die Lage der Eigenwerteder in Satz 1.6 definierten Jacobi-Matrix Jnp, und damit die der Nullstellen von Pn, in ei-nem kompakten Intervall aufgrund der Konvergenz der Rekursionskoeffizienten folgt [Duran(1999)].

Die zu einer Matrix-Nevai-Klasse M(A,B) assoziierten Matrix-Chebyshev-Polynome 1. und2. Art werden von Duran et al. (1999) und Duran (1999) eingeführt und untersucht. Ist dieMatrix A symmetrisch, so unterscheiden sich die Drei-Schritt-Rekursionen für die Matrix-Chebyshev-Polynome wie im eindimensionalen Fall [siehe Bemerkung 1.13] lediglich durchihre Anfangsbedingungen.

Page 19: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

1.2. ORTHOGONALE MATRIXPOLYNOME 13

Definition 1.12 Es sei M(A,B) die in Definition 1.10 definierte Matrix-Nevai-Klasse.

(a) Die Matrix A sei symmetrisch und nichtsingulär. Dann sind die zu M(A,B) assoziiertenMatrix-Chebyshev-Polynome 1. Art TA,B

n (t)n≥0 definiert durch

tTA,B1 (t) = ATA,B

2 (t) +BTA,B1 (t) +

√2ATA,B

0 (t), (1.18)

tTA,Bn (t) = ATA,B

n+1 (t) +BTA,Bn (t) + ATA,B

n−1 (t), n ≥ 2, (1.19)

mit den Anfangsbedingungen TA,B0 (t) = Ip und TA,B

1 (t) = (√

2A)−1(tIp −B).

(b) Die Matrix A sei nichtsingulär. Dann sind die zu M(A,B) assoziierten Matrix-Cheby-shev-Polynome 2. Art UA,B

n (t)n≥0 durch die Rekursion

tUA,Bn (t) = ATUA,B

n+1(t) +BUA,Bn (t) + AUA,B

n−1(t), n ≥ 0, (1.20)

mit den Anfangsbedingungen UA,B−1 (t) = 0p und UA,B

0 (t) = Ip definiert.

Die Matrix-Chebyshev-Polynome TA,Bn (t)n≥0 und UA,B

n (t)n≥0 sind orthonormal bzgl. po-sitiv definiten Matrixmaßen, die im Folgenden mit XA,B und WA,B bezeichnet werden, wobeidie jeweiligen Anfangsbedingungen die Identität

dXA,B(t) =

dWA,B(t) = Ip (1.21)

implizieren.

Bemerkung 1.13 Die klassischen Chebyshev-Polynome 1. und 2. Art, welche durch

tn(t) = cos(n arccos t), n ≥ 0, und un(t) =sin((n+ 1) arccos t)

sin(arccos t), n ≥ 0,

definiert sind, genügen den Drei-Schritt-Rekursionen

tn+1(t) = 2t tn(t) − tn−1(t), n ≥ 1, und un+1(t) = 2t un(t) − un−1(t), n ≥ 1,

mit den Anfangsbedingungen t0(t) = 1 und t1(t) = t sowie u0(t) = 1 und u1(t) = 2t.

Bemerkung 1.14 Ist die Matrix A in der Matrix-Nevai-Klasse M(A,B) zusätzlich positivdefinit, so existiert eine eindeutige positiv definite Wurzel A1/2 und wir können die Matrix-Chebyshev-Polynome mittels der Darstellungen

TA,Bn (t) =

√2A−1/2tn

(

1

2A−1/2(tIp −B)A−1/2

)

A1/2, n ≥ 1,

und

UA,Bn (t) = A−1/2un

(

1

2A−1/2(tIp −B)A−1/2

)

A1/2, n ≥ 0,

Page 20: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

14 KAPITEL 1. MATRIXMAßE UND MATRIXPOLYNOME

die induktiv aus den jeweiligen Drei-Schritt-Rekursionen folgen, auf die skalaren Chebyshev-Polynome zurückführen. Demzufolge sind die skalaren Polynome T 1,0

n (t) und U1,0n (t) propor-

tional zu den klassischen Chebyshev-Polynomen, es gilt

T 1,0n (t) =

√2 cos

(

n arccost

2

)

, n ≥ 1, sowie U1,0n (t) =

sin(

(n+ 1) arccos t2

)

sin(arccos t2)

, n ≥ 0.

Duran et al. (1999) und Duran (1999) zeigen unter der Voraussetzung der positiven Definitheitvon A, dass die Maße WA,B und XA,B absolut stetig bzgl. Ip dλ sind, wobei λ das Lebesgue-Maß bezeichne. Im folgenden Satz geben wir die von diesen Autoren nachgewiesenen explizitenDarstellungen für die Matrix-Chebyshev-Dichten 1. und 2. Art an. Dazu bezeichne

LA,B(t) := A−1/2(B − tIp)A−1/2, t ∈ R. (1.22)

Da die Matrix LA,B(t) für alle reelle Zahlen t symmetrisch ist, ist sie für alle t ∈ R orthogonaldiagonalisierbar, d. h. wir können die Matrix LA,B(t) in der Form

LA,B(t) = U1(t)D1(t)UT1 (t) (1.23)

darstellen, wobei UT1 (t)U1(t) = U1(t)U

T1 (t) = Ip gilt und

D1(t) := diag (λA,B1 (t), . . . , λA,B

p (t))

eine Diagonalmatrix ist, deren Einträge die Eigenwerte von LA,B(t) sind.

Satz 1.15 Es sei M(A,B) die in Definition 1.10 eingeführte Matrix-Nevai-Klasse mit einerpositiv definiten Matrix A. Dann gilt:

(a) Das Matrix-Chebyshev-Maß 1. Art XA,B ist absolut stetig bzgl. des Lebesgue-Maßes mul-tipliziert mit der Einheitsmatrix Ip und besitzt die Dichte

dXA,B(t) = A−1/2U1(t)T (t)UT1 (t)A−1/2dt, (1.24)

wobei T (t) = diag(

t11(t), . . . , tpp(t))

eine Diagonalmatrix mit den Einträgen

tii(t) =

1

π

4 −(

λA,Bi (t)

)2, falls λA,B

i (t) ∈ (−2, 2)

0, sonst

, i = 1, . . . , p, (1.25)

ist. Weiter gilt für den Träger

supp (XA,B) = t ∈ R | A−1/2(tIp −B)A−1/2 hat einen Eigenwert in [−2, 2]= t ∈ R | λA,B

i (t) ∈ [−2, 2] für ein i ∈ 1, . . . , p. (1.26)

Page 21: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

1.2. ORTHOGONALE MATRIXPOLYNOME 15

(b) Das Matrix-Chebyshev-Maß 2. Art WA,B ist absolut stetig bzgl. des Lebesgue-Maßesmultipliziert mit der Einheitsmatrix Ip und besitzt die Dichte

dWA,B(t) = A−1/2U1(t)T (t)UT1 (t)A−1/2dt, (1.27)

wobei T (t) = diag (t11(t), . . . , tpp(t)) eine Diagonalmatrix mit den Einträgen

tii(t) =

1

4 −(

λA,Bi (t)

)2

, falls λA,Bi (t) ∈ (−2, 2)

0, sonst

, (1.28)

i = 1, . . . , p, ist, und für den Träger gilt supp (WA,B) = supp (XA,B).

Die expliziten Darstellungen für die Matrix-Chebyshev-Maße nutzen wir in Kapitel 3 zurHerleitung der asymptotischen Nullstellenverteilung von orthornormalen Matrixpolynomenbzw. in Kapitel 4 zur Berechnung von Spektralmaßen für Quasi-Geburts- und Todesprozesse.

Folgerung 1.16 Im eindimensionalen Fall (p = 1) ist die Chebyshev-Dichte 1. Art die Dichteeiner arcsin-Verteilung auf dem Intervall [B − 2A,B + 2A], d. h.

dXA,B(t) =1

π

1√

4A2 − (t−B)2IB−2A<t<B+2Adt.

Die Chebyshev-Dichte 2. Art ist im skalaren Fall durch das Halbkreisgesetz

dWA,B(t) =1

2πA2

4A2 − (t−B)2I[B−2A,B+2A](t)dt

gegeben. Insbesondere sind

µ(t) :=1

π

1√1 − t2

I−1<t<1 und ω(t) :=2

π

√1 − t2I[−1,1](t)

die Dichten der Orthogonalitätsmaße für die klassischen Chebyshev-Polynome 1. und 2. Art[siehe Bemerkung 1.13].

1.2.4 Asymptotische Resultate für orthonormale Matrixpolynome

In diesem Kapitel führen wir zwei wichtige asymptotische Resultate für orthonormale Matrix-polynome auf. Dazu sei Pnn≥0 eine durch die Rekursion (1.9) gegebene Folge von orthonor-malen Matrixpolynomen mit P−1(t) = 0p und P0(t) = Ip sowie dem Orthogonalitätsmaß Σ

auf R, und Q(1)n n≥0 die in Gleichung (1.11) definierten Matrixpolynome 2. Art.

Page 22: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

16 KAPITEL 1. MATRIXMAßE UND MATRIXPOLYNOME

Die Sätze 1.17 und 1.18 beschreiben das asymptotische Verhalten von

P−1n (z)Q(1)

n (z) und Pn−1(z)P−1n (z)A−1

n

für n → ∞ und übertragen die klassischen Resultate von Markoff (1895) und Nevai (1979)auf den matrixwertigen Fall, wobei im Matrixfall in beiden Sätzen die Reihenfolge der Mul-tiplikation der Polynome essenziell ist.

Das erste asymptotische Resultat stellt Markovs Theorem für orthonormale Matrixpolynomedar und wird von Duran (1996) mithilfe der in (1.17) definierten Folge von Matrixmaßenbewiesen.

Satz 1.17 (Markovs Theorem) Pnn≥0 sei eine Folge von Matrixpolynomen mit Ortho-gonalitätsmaß Σ auf R. Ist das Maß Σ eindeutig durch seine Momente bestimmt, so gilt

limn→∞

P−1n (z)Q(1)

n (z) =

dΣ(t)

z − t, z ∈ C\Γ, (1.29)

gleichmäßig auf kompakten Teilmengen von z ∈ C\Γ, wobei Γ die in (1.16) definierte Men-ge ist.

Im eindimensionalen Fall wurde inzwischen gezeigt, dass die Voraussetzung der eindeutigenBestimmtheit des Orthogonalitätsmaßes nicht notwendig für die Aussage ist [Berg (1994)].

Die symmetrische matrixwertige Funktion

ΦΣ(z) :=

R

dΣ(t)

z − t, z ∈ C\supp(Σ), (1.30)

wird Stieltjes-Transformierte des Matrixmaßes Σ genannt. Liegt der Träger von Σ in demkompakten Intervall [a, b], a, b ∈ R, a < b, so ist ΦΣ(z) eine analytische Funktion in C\[a, b].Weiter kann die Stieltjes-Transformierte in diesem Fall in die Reihe

∫ b

a

dΣ(t)

z − t=

∞∑

n=0

1

zn+1Sn(Σ)

entwickelt werden, wobei Sn(Σ), n ≥ 0, die Momente von Σ sind. Diese Reihe konvergiertfür |z| > max|a|, |b| gegen ΦΣ(z). Besitzt Σ die Dichte dΣ(t)/dt, so lässt sie sich aus derStieltjes-Transformierten (1.30) mit der Stieltjes-Perron-Inversionsformel

dΣ(t) = limy→0

1

2πi[ΦΣ(t− iy) − ΦΣ(t+ iy)] dt

= limy→0

1

πIm ΦΣ(t− iy) dt, t ∈ R, (1.31)

berechnen. In Kapitel 2 leiten wir mithilfe von Markovs Theorem für die Stieltjes-Trans-formierte von matrixwertigen Orthogonalitätsmaßen auf der reellen Achse Matrixkettenbru-chentwicklungen her.

Page 23: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

1.2. ORTHOGONALE MATRIXPOLYNOME 17

Der Beweis des folgenden Resultates, welches das asymptotische Verhalten des AusdrucksPn−1(z)P

−1n (z)A−1

n angibt ("ratio asymptotics"), kann der Arbeit von Duran (1999) entnom-men werden. Dabei stellt die Quadraturformel (1.14) die Grundlage des Beweises dar.

Satz 1.18 Es sei Pnn≥0 eine durch die Rekursion (1.9) gegebene Folge von orthonormalenMatrixpolynomen, deren Rekursionskoeffizienten die Bedingungen

limn→∞

An = A und limn→∞

Bn = B

erfüllen. Ist A nichtsingulär, so gilt

limn→∞

Pn−1(z)P−1n (z)A−1

n =

dWA,B(t)

z − t, z ∈ C\Γ,

gleichmäßig auf kompakten Teilmengen von C\Γ, wobei WA,B das Matrix-Chebyshev-Maß2. Art ist.

Folgerung 1.19 Es seien die Voraussetzungen von Satz 1.18 erfüllt. Dann ist

FA,B(z) :=

dWA,B(t)

z − t, z ∈ C\supp (WA,B) , (1.32)

eine Lösung der matrixwertigen quadratischen Gleichung

ATFA,B(z)AFA,B(z) + (B − zIp)FA,B(z) + Ip = 0p . (1.33)

Ist die Matrix A symmetrisch, so kann aus der Matrizengleichung (1.33) eine explizite Formelfür die Funktion FA,B(z) ausgerechnet werden [siehe Kapitel 3].

Page 24: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome
Page 25: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Kapitel 2

Matrixmaße und Matrixkettenbrüche

In diesem Kapitel diskutieren wir zunächst die im Folgenden benötigten Eigenschaften vonMomentenräumen matrixwertiger Maße, definieren für Matrixmaße auf kompakten Interval-len kanonische Momente und geben Favards Theorem für orthogonale Matrixpolynome aufden Intervallen [0, 1] sowie [0,∞) an. Anschließend stellen wir einen Zusammenhang zwischenorthonormalen Matrixpolynomen mit Orthogonalitätsmaß Σ auf R, die nach Satz 1.5 eine Re-kursion der Form (1.9) erfüllen, und Matrixkettenbrüchen her. Dies erfolgt über die Stieltjes-Transformierte von Σ, welche sich als unendlicher Matrixkettenbruch darstellen lässt, dessenEinträge die Rekursionskoeffizienten sind. Mit dieser Darstellung können Matrixkettenbruch-entwicklungen für die Stieltjes-Transformierte von matrixwertigen Orthogonalitätsmaßen aufkompakten Intervallen [a, b], a, b ∈ R, a < b, und [0,∞) hergeleitet werden, deren EinträgeAusdrücke der (kanonischen) Momente des zugrunde liegenden Orthogonalitätsmaßes sind.Die hergeleiteten Darstellungen für die Stieltjes-Transformierte auf den Intervallen [−1, 1]und [0,∞) werden in Kapitel 4 herangezogen, um Rekurrenzkriterien für zeitdiskrete undzeitstetige Quasi-Geburts- und Todesprozesse zu beweisen.

2.1 Matrixmaße und Favards Theorem auf den Interval-

len [0, 1] und [0,∞)

In diesem Abschnitt stellen wir das zur Herleitung der Matrixkettenbruchentwicklungen be-nötigte Hintergrundwissen über die Momente von Matrixmaßen auf den Intervallen [0, 1]und [0,∞) zur Verfügung. Die ausführlichen Beweise der dargestellten Eigenschaften so-wie weitere Resultate über die Momente und Momentenräume von Matrixmaßen auf [0, 1]und [0,∞) können den Arbeiten von Dette und Studden (2002a,b, 2003, 2005) entnommenwerden. Darin übertragen die Autoren zahlreiche Resultate aus der klassischen Momenten-theorie für Maße auf den Intervallen [0, 1] und [0,∞) aus dem eindimensionalen Fall auf denMatrixfall. Die entsprechenden Resultate im Eindimensionalen können in der Monografie vonDette und Studden (1997) nachgelesen werden.

19

Page 26: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

20 KAPITEL 2. MATRIXMAßE UND MATRIXKETTENBRÜCHE

Der folgende Satz, dessen Beweis der Arbeit von Dette und Studden (2002a) entnommenwerden kann, charakterisiert den Momentenraum von Matrixmaßen auf den Intervallen [0, 1]und [0,∞) durch die nichtnegative bzw. positive Definitheit der Block-Hankelmatrizen. Diesesind für alle n ≥ 0 durch die symmetrischen Blockmatrizen

H2n :=

S0 · · · Sn...

...Sn . . . S2n

, H2n :=

S1 − S2 · · · Sn − Sn+1...

...Sn − Sn+1 . . . S2n−1 − S2n

(2.1)

und

H2n+1 :=

S1 · · · Sn+1...

...Sn+1 . . . S2n+1

, H2n+1 :=

S0 − S1 · · · Sn − Sn+1...

...Sn − Sn+1 . . . S2n − S2n+1

(2.2)

definiert, wobei Sn, n ≥ 0, die in Gleichung (1.1) definierten Momente des zugrunde liegendenMatrixmaßes sind. Im Folgenden verwenden wir für die nichtnegative (positive) Definitheiteiner Matrix A die Schreibweise A ≥ 0 (A > 0). Dementsprechend verstehen wir für zweisymmetrische Matrizen A und B unter der Schreibweise A ≤ B (A < B) die nichtnegative(positive) Definitheit der Matrix B − A.

Satz 2.1 Es sei Mn+1 der in (1.2) definierte Momentenraum und H2n, H2n, H2n+1 sowieH2n+1 die in (2.1) und (2.2) definierten Hankelmatrizen. Für Matrixmaße auf dem Inter-vall [0, 1] ([0,∞)) gilt

(S0, . . . , Sn) ∈Mn+1 ⇔ Hn ≥ 0 und Hn ≥ 0 (Hn ≥ 0)

sowie(S0, . . . , Sn) ∈ Int (Mn+1) ⇔ Hn > 0 und Hn > 0 (Hn > 0),

wobei Int (Mn+1) das Innere des Momentenraumes Mn+1 bezeichne.

Liegt der Punkt (S0, . . . , Sn) in dem Momentenraum Mn+1 auf [0, 1], so kann wie im eindimen-sionalen Fall sowohl eine obere als auch eine untere Schranke für die Momente Sk angegebenwerden. Dies resultiert aus der nichtnegativen Definitheit der Hankelmatrizen Hn und Hn.Es bezeichnen

S−1 := 0 und S−

n+1 := hTnH

−1n−1hn, n ≥ 1, (2.3)

sowie

S+1 := S0, S

+2 := S1 und S+

n+1 := Sn − hT

nH−1

n−1hn, n ≥ 2, (2.4)

falls die Inversen der Hankelmatrizen existieren, mit

hT2n := (Sn+1, . . . , S2n) , h

T

2n := (Sn − Sn+1, . . . , S2n−1 − S2n) ,

hT2n−1 := (Sn, . . . , S2n−1) , h

T

2n−1 := (Sn − Sn+1, . . . , S2n−2 − S2n−1) . (2.5)

Page 27: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

2.1. MATRIXMASSE UND FAVARDS THEOREM 21

Dann folgt aus Satz 2.1

(S0, . . . , Sn) ∈ Int (Mn+1) ⇔ S−n+1 < S+

n+1

sowieS−

n ≤ Sn ≤ S+n für (S0, . . . , Sn) ∈Mn+1.

Analog zum eindimensionalen Fall werden für Momente (S0, . . . , Sn−1) ∈ Int (Mn) auf [0, 1]die k-ten kanonischen Momente durch die Matrizen

Uk := D−1k

(

Sk − S−k

)

mit Dk := S+k − S−

k , k = 1, . . . , n, (2.6)

definiert. Weiter bezeichne im Folgenden

Vk := Ip − Uk = D−1k

(

S+k − Sk

)

, 1 ≤ k ≤ n. (2.7)

Damit gelten die folgenden Darstellungen.

Satz 2.2 Sei n ≥ 1. Gilt (S0, . . . , Sn) ∈ Int (Mn+1) (auf [0, 1]), so folgt

(Sn−1 − S−n−1)

−1(Sn − S−n ) = Vn−1Un =: ζn, (2.8)

(S+n−1 − Sn−1)

−1(S+n − Sn) = Un−1Vn =: γn (2.9)

mit S−0 = 0p und V0 = Ip.

Beweis Nach Theorem 2.7 in der Arbeit von Dette und Studden (2002a) gilt

Dn+1 = S0U1V1U2V2 · · ·UnVn sowie UkVk = VkUk, k = 1, . . . , n. (2.10)

Daraus folgt mit den Gleichungen

Sn − S−n = DnUn = S0U1V1 · · ·Un−1Vn−1Un > 0 und (2.11)

S+n − Sn = DnVn = S0U1V1 · · ·Vn−1Un−1Vn > 0 (2.12)

die Behauptung.

Bemerkung 2.3 Aus der Definition der kanonischen Momente können wir wie folgt auf dieInvarianz der kanonischen Momente bzgl. linearer Transformation des zugrunde liegendenMatrixmaßes schließen. Dazu bezeichne Σab ein Matrixmaß auf dem Intervall [a, b], a, b ∈ R,a < b, welches eineindeutig durch die lineare Transformation y = a + (b − a)t, t ∈ [0, 1],aus einem Matrixmaß Σ auf [0, 1] (mit den Momenten Sn, n ≥ 0) hervorgeht. Die Momentevon Σab bezeichnen wir mit

Sn :=

∫ b

a

yndΣab(y), n ≥ 0.

Page 28: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

22 KAPITEL 2. MATRIXMAßE UND MATRIXKETTENBRÜCHE

Dann gelten für die Momente von Σ und Σab die Beziehungen

Sn =1

(b− a)n

n∑

j=0

(

n

j

)

(−a)n−jSj =1

(b− a)nSn + Tn, n ≥ 1, und (2.13)

Sn =n∑

j=0

(

n

j

)

(b− a)jan−jSj = (b− a)nSn + Tn, n ≥ 1, (2.14)

wobei Tn und Tn Matrizen sind, die von den Momenten Sn−1, . . . , S0 bzw. Sn−1, . . . , S0 abhän-gen. Definiert man auf [a, b] die Schranken S+

n und S−n analog zu denen auf dem Intervall [0, 1]

[siehe Gleichung (2.3) und (2.4)], so erhält man mit den Gleichungen (2.13) und (2.14)

Sn − S−n = (b− a)n(Sn − S−

n ) und (2.15)

S+n − S−

n = (b− a)n(S+n − S−

n ). (2.16)

Bezeichnen Ua,bk die kanonischen Momente von Σab auf dem Intervall [a, b], die analog zu

den kanonischen Momenten auf [0, 1] definiert werden, so implizieren die Gleichungen (2.15)und (2.16) die Identität Uk = Ua,b

k . Demzufolge sind die kanonischen Momente invariant unterlinearer Transformation von Σ.

Liegt der Punkt (S0, . . . , Sn) im Momentenraum Mn+1 auf [0,∞), so sind nach Satz 2.1 dieHankelmatrizen Hn nichtnegativ definit und es kann eine untere Schranke S−

n (jedoch keineobere Schranke) für die Momente Sn angegeben werden, wobei die Matrizen S−

n wie obendurch die Gleichung (2.3) definiert werden. Damit gilt

Sn+1 − S−n+1 = hT

nH−1n−1hn ≥ 0, (2.17)

falls Hn−1 nichtsingulär ist. Analog zur Definition der Matrizen ζn auf [0, 1] [siehe Glei-chung (2.8)], jedoch ohne kanonische Momente zu definieren, definieren wir für Matrixmaßeauf [0,∞) die Matrizen

ζn := (Sn−1 − S−n−1)

−1(Sn − S−n ). (2.18)

Damit gilt für (S0, . . . , Sn) ∈ Int (Mn+1)

Sn − S−n = S0ζ1ζ2 · · · ζn > 0. (2.19)

Mit den eingeführten Bezeichnungen führen wir im Folgenden Favards Theorem für ortho-gonale monische Matrixpolynome mit Orthogonalitätsmaß Σ auf den Intervallen [0, 1] und[0,∞) auf. Dabei sind die Koeffizienten in den jeweiligen Drei-Schritt-Rekursionen Ausdrückeder Momente von Σ, wobei wie im eindimensionalen Fall [siehe Chihara (1978) und Wall(1948)] aus den Eigenschaften dieser Koeffizienten auf die Lage des Trägers supp (Σ) des Ma-trixmaßes Σ geschlossen werden kann. Mit dem von Dette und Studden (2002b) beschriebenenmatrixwertigen q-d-Algorithmus können die Momente von Σ aus den Rekursionskoeffizienten(und umgekehrt) berechnet werden.

Die Beweise der Sätze 2.4 und 2.6 erfolgen wie die von Theorem 4.1 und Theorem 5.3 in derArbeit von Dette und Studden (2002a), in der die entsprechenden Resultate für monischeorthogonale Matrixpolynome bzgl. des rechten inneren Produktes bewiesen werden.

Page 29: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

2.2. MATRIXKETTENBRUCHENTWICKLUNGEN 23

Satz 2.4

(a) Ist die Folge P nn≥1 von monischen Matrixpolynomen orthogonal bzgl. eines Matrix-maßes µ auf [0, 1], so gilt die Rekursion

tP n(t) = P n+1(t) + (ζT2n+1 + ζT

2n)P n(t) + ζT2nζ

T2n−1P n−1(t), n ≥ 0, (2.20)

mit P−1(t) = 0p und P 0(t) = Ip, wobei die Koeffizienten ζn = Vn−1Un die Gleichun-gen (2.11) und (2.12) erfüllen und die Matrizen Ujj und Vjj in den Gleichun-gen (2.6) und (2.7) definiert sind.

(b) Ist P nn≥1 eine Folge von monischen Matrixpolynomen, welche eine Rekursion derForm (2.20) erfüllt, mit Matrizen ζn, die eine Kettenfolge bilden (d. h. es existieren Ma-trizen Un und Vn mit ζn = Vn−1Un) und die Gleichungen in (2.11) und (2.12) mit S0 = Iperfüllen, dann existiert ein Matrixmaß µ auf [0, 1], so dass die Polynome P nn≥1 or-thogonal bzgl. µ sind.

Bemerkung 2.5 Aus Satz 2.4 erhält man mithilfe der linearen Transformation y = a+ (b−a)t, t ∈ [0, 1], entsprechende Aussagen für orthogonale monische Matrixpolynome auf demkompakten Intervall [a, b] mit a, b ∈ R, a < b [siehe Beweis von Satz 2.11].

Das entsprechende Resultat für monische orthogonale Polynome auf dem Intervall [0,∞)lautet wie folgt.

Satz 2.6

(a) Ist die Folge P nn≥1 von monischen Matrixpolynomen orthogonal bzgl. eines Matrix-maßes µ auf [0,∞), so ist die Rekursion (2.20) erfüllt mit Koeffizienten ζn, für dieGleichung (2.19) gilt.

(b) Ist P nn≥1 eine Folge von monischen Matrixpolynomen, welche eine Rekursion derForm (2.20) erfüllt, mit Koeffizienten ζn, die Gleichung (2.19) mit S0 = Ip erfüllen,dann existiert ein Matrixmaß µ auf [0,∞), so dass die Polynome P nn≥1 orthogonalbzgl. µ sind.

2.2 Matrixkettenbruchentwicklungen

In diesem Kapitel geben wir für die Stieltjes-Transformierte von matrixwertigen Orthogo-nalitätsmaßen auf der reellen Achse eine Matrixkettenbruchentwicklung an und zeigen, wiedaraus Matrixkettenbruchentwicklungen für die Stieltjes-Transformierte von matrixwertigenOrthogonalitätsmaßen auf kompakten Intervallen der Form [a, b], a, b ∈ R, a < b, sowie [0,∞)entwickelt werden können. Diese verallgemeinern die von Dette und Studden (1997) im Eindi-mensionalen hergeleiteten Kettenbruchentwicklungen. Für den Fall eines kompakten Intervallsleiten wir exemplarisch die Matrixkettenbruchentwicklung für das Intervall [−1, 1] her. Diesewird in Kapitel 4 genutzt, um Rekurrenzbedingungen für zeitdiskrete Quasi-Geburts- und

Page 30: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

24 KAPITEL 2. MATRIXMAßE UND MATRIXKETTENBRÜCHE

Todesprozesse zu beweisen. Entsprechende Matrixkettenbruchentwicklungen für Matrixma-ße auf anderen kompakten Intervallen folgen ähnlich zu der auf dem Intervall [−1, 1] [sieheBemerkung 2.12]. Die Matrixkettenbruchentwicklung auf dem Intervall [0,∞) nutzen wir inKapitel 4 zur Herleitung von α-Rekurrenzbedingungen für zeitstetige Quasi-Geburts- undTodesprozesse.

Zunächst führen wir grundlegende Definitionen und Eigenschaften von Matrixkettenbrüchenauf. Für weitere Details verweisen wir auf die Arbeiten von Fair (1971), Aptekarev und Ni-kishin (1984), Levrie und Bultheel (1996), Sorokin und van Iseghem (1999) sowie Zygmunt(2002). Die Theorie der eindimensionalen Kettenbrüche findet man beispielsweise in den Mo-nografien von Wall (1948) und Perron (1954). Die meisten Resultate aus der eindimensionalenTheorie, insbesondere Konvergenzkriterien für unendliche Kettenbrüche, können u. a. wegender Nichtkommutativität des Matrixproduktes nicht ohne Weiteres auf den Matrixfall über-tragen werden.

Im Folgenden betrachten wir endliche Matrixkettenbrüche der Form

Mn := F0 +

F1 +

F2 + . . .+ F−1n Gn

−1

· · ·G2

−1

G1 ∈ Rp×p (2.21)

mit Matrizen Fn ∈ Rp×p, n ≥ 0, und Gn ∈ R

p×p, n ≥ 1, wobei die Inversen in den in dieserArbeit auftretenden Matrixkettenbrüchen der Form (2.21) stets existieren [siehe Zygmunt(2002)]. Induktiv folgt für den Kettenbruch (2.21)

Mn = T−1n Wn, n ≥ 0, (2.22)

wobei die matrixwertigen Folgen Wnn≥0 und Tnn≥0 durch die Rekursionen

Wn+1 = Fn+1Wn +Gn+1Wn−1 und (2.23)

Tn+1 = Fn+1Tn +Gn+1Tn−1, (2.24)

n ≥ 1, mit den Anfangsbedingungen W0 = F0 und W1 = F1F0+G1 sowie T0 = Ip und T1 = F1

gegeben sind. Ein unendlicher Matrixkettenbruch der Form

M := F0 +

F1 +

F2 + . . .−1

G2

−1

G1, (2.25)

Fn ∈ Rp×p, n ≥ 0, Gn ∈ R

p×p, n ≥ 1, heißt konvergent mit dem Grenzwert L ∈ Rp×p, falls

die Folge T−1n Wnn≥0 der Approximanten gegen L konvergiert, d. h. falls

limn→∞

Mn = L

gilt. Konvergenzkriterien für Matrixkettenbrüche werden beispielsweise von Fair (1971), Le-vrie und Bultheel (1996) sowie Raissouli und Kacha (2000) bewiesen. Für die (n + 1)-teund n-te Approximante des Kettenbruchs (2.25) gilt die im Beweis von Folgerung 2.13 (undFolgerung 2.15) benötigte Identität

T−1n+1Wn+1 − T−1

n Wn = (−1)n+1T−1n+1Gn+1Tn−1T

−1n Gn · · ·T−1

2 G2(F−11 G1 − F0). (2.26)

Page 31: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

2.2. MATRIXKETTENBRUCHENTWICKLUNGEN 25

Die im Folgenden hergestellte Verbindung zwischen orthogonalen bzw. orthonormalen Ma-trixpolynomen und unendlichen Matrixkettenbrüchen basiert zum einen auf den zugehörigenDrei-Schritt-Rekursionen und zum anderen auf Markovs Theorem [Satz 1.17]. Daher mussgewährleistet werden, dass die zugrunde liegenden Orthogonalitätsmaße eindeutig durch ihreMomente bestimmt sind.

Es sei Pnn≥0 eine durch die Rekursion (1.9) gegebene Folge von orthonormalen Matrixpoly-nomen mit den Anfangsbedingungen P−1(t) = 0p und P0(t) = Ip und Orthogonalitätsmaß Σ.Zu den Polynomen Pnn≥0 assoziieren wir den unendlichen Matrixkettenbruch

F (z) :=

zIp −B0 − A1

zIp −B1 − A2

zIp −B2 − . . .−1

AT2

−1

AT1

−1

(2.27)

[vgl. Zygmunt (2002)]. Dabei sind die Matrizen Bn, n ≥ 0, und An, n ≥ 1, die Koeffizientenaus der Rekursion (1.9). Die n-te Approximante Fn(z) von F (z) lässt sich in der Form (2.22)mit Tn = Pn(z) und Wn = Q

(1)n (z) darstellen, wobei Q(1)

n n≥0 die in Gleichung (1.11) defi-nierten Polynome 2. Art sind, d. h. es gilt

Fn(z) =

zIp −B0 − A1

zIp −B1 − . . .− An−1

zIp −Bn−1

−1

ATn−1

−1

· · ·AT1

−1

= P−1n (z)Q(1)

n (z). (2.28)

Unter der Voraussetzung der eindeutigen Bestimmtheit des zugrunde liegenden Orthogo-nalitätsmaßes erhalten wir mit Markovs Theorem aus Gleichung (2.28) für die Stieltjes-Transformierte von Σ die folgende Matrixkettenbruchentwicklung.

Satz 2.7 Die Folge der Matrixpolynome Pnn≥0 sei durch die Rekursion (1.9) gegeben undorthonormal bzgl. eines Matrixmaßes Σ auf R. Ist Σ eindeutig durch seine Momente bestimmt,so konvergiert der in Gleichung (2.27) definierte Matrixkettenbruch und es gilt

dΣ(t)

z − t=

zIp −B0 − A1

zIp −B1 − A2

zIp −B2 − . . .−1

AT2

−1

AT1

−1

, (2.29)

z ∈ C\supp(Σ).

Aus Satz 2.7 folgt für die Stieltjes-Transformierte des in Kapitel 1.2.3 eingeführten Matrix-Chebyshev-Maßes 2. Art mit An = A für alle n ≥ 1 und Bn = B für alle n ≥ 0 die folgendeMatrizengleichung.

Folgerung 2.8 Für die Stieltjes-Transformierte des Matrix-Chebyshev-Maßes 2. Art gilt

dWA,B(t)

z − t=

zIp −B − A

dWA,B(t)

z − tAT

−1

, z ∈ C\supp (WA,B) . (2.30)

Bemerkung 2.9 Ist die Matrix A symmetrisch, so ist die Gleichung (2.30) äquivalent zurquadratrischen Gleichung (1.33).

Page 32: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

26 KAPITEL 2. MATRIXMAßE UND MATRIXKETTENBRÜCHE

Für die Stieltjes-Transformierte des Matrix-Chebyshev-Maßes 1. Art erhalten wir aus Satz 2.7mit A1 =

√2A, An = A, n ≥ 2, und A = AT sowie Bn = B, n ≥ 0, die Matrixkettenbruch-

entwicklung∫

dXA,B(t)

z − t=

zIp −B −√

2A

zIp −B − A

zIp −B − . . .−1

A−1√

2A−1

,

z ∈ C\supp (XA,B) . Damit besteht zwischen den Stieltjes-Transformierten der beiden Matrix-Chebyshev-Maße die folgende Beziehung, auf die in Kapitel 3 zurückgegriffen wird.

Folgerung 2.10 Für die beiden Stieltjes-Transformierten der Matrix-Chebyshev-Maße 1. und2. Art gilt

dXA,B(t)

z − t=

zIp −B − 2A

dWA,B(t)

z − tA

−1

(2.31)

für z ∈ C\supp (WA,B) ∪ supp (XA,B).

Der folgende Satz liefert eine Matrixkettenbruchentwicklung für die Stieltjes-Transformiertevon matrixwertigen Orthogonalitätsmaßen auf dem Intervall [−1, 1]. In diesem Fall ist dasOrthogonalitätsmaß eindeutig bestimmt.

Satz 2.11 Es sei Pnn≥0 eine Folge von orthogonalen Matrixpolynomen mit Orthogonali-tätsmaß Σ auf [−1, 1]. Dann gilt für die Stieltjes-Transformierte von Σ die Matrixkettenbru-chentwicklung

dΣ(t)

z − t= lim

n→∞

zIp + Ip − 2ζT1 −

zIp + Ip − 2ζT2 − 2ζT

3 −

zIp + Ip − 2ζT4

−2ζT5 − . . .−

zIp + Ip − 2ζT2n − 2ζT

2n+1

−1

4ζT2nζ

T2n−1

−1

· · · 4ζT4 ζ

T3

−1

4ζT2 ζ

T1

−1

S0

= limn→∞

(z + 1)Ip −

Ip −

(z + 1)Ip − . . . (2.32)

. . .−

(z + 1)Ip − 2ζT2n+1

−1

2ζT2n

−1

· · · 2ζT2

−1

2ζT1

−1

S0,

wobei die Matrizen ζj ∈ Rp×p durch ζ0 = 0, ζ1 = U1, ζj = Vj−1Uj, j ≥ 2, und die Matri-

zen Ujj und Vjj durch die Gleichungen (2.6) und (2.7) gegeben sind. Die Konvergenz istgleichmäßig auf kompakten Teilmengen von C mit positivem Abstand vom Intervall [−1, 1].

Beweis Es sei Rn das n-te monische orthogonale Matrixpolynom auf dem Intervall [0, 1] mitOrthogonalitätsmaß Σ und P n das zu Rn assoziierte monische orthogonale Matrixpolynomvom Grad n auf [−1, 1]. Σ bezeichne das Orthogonalitätsmaß von P n auf [−1, 1], welches durchdie lineare Transformation t 7→ 2x− 1 aus dem Matrixmaß Σ auf dem Intervall [0, 1] hervor-geht. Dann haben Σ und Σ dieselben kanonischen Momente [siehe Bemerkung 2.3]. Da Rn(x)

Page 33: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

2.2. MATRIXKETTENBRUCHENTWICKLUNGEN 27

ein monisches Polynom vom Grad n ist, besitzt das Matrixpolynom Rn

(

x+12

)

den führendenKoeffizienten

(

12

)nIp. Damit erhalten wir für das monische Polynom P n die Darstellung

P n(t) = 2nRn

(

t+ 1

2

)

, n ≥ 0. (2.33)

Die Polynome Rnn≥0 erfüllen nach Satz 2.4 die Rekursion (2.20). Daher erhalten wir durchEinsetzen der Darstellung (2.33) in Rekursion (2.20) für die Polynome P nn≥0 die Rekursion

P n+1(t) =(

(t+ 1)Ip − 2ζT2n − 2ζT

2n+1

)

P n(t) − 4ζT2nζ

T2n−1P n−1(t), n ≥ 1, (2.34)

mit den Anfangsbedingungen

P−1(t) = 0p und P 0(t) = Ip,

wobei die Matrizen ζn in Gleichung (2.8) gegeben sind. Wie im Beweis von Lemma 3.3 in derArbeit von Dette und Studden (2002a) folgt

〈Rn, Rn〉Σ =(

S2n − S−2n

)T, (2.35)

wobei 〈·, ·〉Σ das durch Σ erzeugte linke matrixwertige innere Produkt bezeichne und die Ma-trizen S−

n in Gleichung (2.3) definiert sind. Die Gleichungen (2.35), (2.33) und (2.8) implizierendamit

∆2n := 〈P n, P n〉Σ = 22n(

S2n − S−2n

)T= 22n(S0ζ1 · · · ζ2n)T , ∆0 := S0.

〈·, ·〉Σ bezeichne dabei das durch Σ erzeugte linke innere Produkt. Da die Matrix ∆2n = ∆T2n

positiv definit ist [siehe Gleichung (2.11)], können wir die Polynome

Pn(t) := ∆−1/22n P n(t), n ≥ 0, (2.36)

definieren und erhalten

〈Pn, Pn〉Σ = ∆−1/22n 〈P n, P n〉∆−1/2

2n = ∆−1/22n ∆2n∆

−1/22n = Ip. (2.37)

Demzufolge sind die Polynome Pnn≥0 orthonormal bzgl. Σ. Damit erfüllen sie nach Satz 1.5eine Rekursion der Form

tPn(t) = An+1Pn+1(t) +BnPn(t) + ATnPn−1(t), n ≥ 0, (2.38)

mit nichtsingulären Matrizen An, n ≥ 1, und symmetrischen Matrizen Bn, n ≥ 0, wobei nachDefinition die Anfangsbedingungen

P−1(t) = 0p und P0(t) = S−1/20

gelten. Setzt man die Darstellung (2.36) in die Rekursion (2.34) ein, so erhält man für diePolynome Pnn≥0 andererseits die Rekursion

tPn(t) = ∆−1/22n ∆

1/22n+2Pn+1(t) + ∆

−1/22n

(

2ζT2n + 2ζT

2n+1 − Ip)

∆1/22n Pn(t) (2.39)

+ 4∆−1/22n ζT

2nζT2n−1∆

1/22n−2Pn−1(t).

Page 34: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

28 KAPITEL 2. MATRIXMAßE UND MATRIXKETTENBRÜCHE

Ein Vergleich der Koeffizienten in den Rekursionen (2.38) und (2.39) führt zu

An+1 = ∆−1/22n ∆

1/22n+2, (2.40)

Bn = −∆−1/22n (Ip − 2ζT

2n − 2ζT2n+1)∆

1/22n , (2.41)

ATn = 4∆

−1/22n ζT

2nζT2n−1∆

1/22n−2. (2.42)

(Mit ∆2n = 4∆2n−2ζ2n−1ζ2n = ∆T2n lässt sich leicht nachrechnen, dass die Darstellungen (2.40)

und (2.42) für An identisch sind). Es sei nun Q(1)n das assoziierte Polynom der Ordnung 1

von Pn [siehe Gleichung (1.11)]. Dann folgt mit (2.28) die Matrixkettenbruchentwicklung

Fn(z) := P−1n+1(z)Q

(1)n+1(z)

= S1/20

zIp −B0 − A1

zIp −B1 − A2

zIp −B2 − . . . (2.43)

. . .− An−1

zIp −Bn

−1

ATn

−1

· · ·AT2

−1

AT1

−1

S1/20 .

Daraus erhalten wir durch Einsetzen der Gleichungen (2.40) bis (2.42) in die Gleichung (2.43)

Fn(z) =

zIp + Ip − 2ζT1 −

zIp + Ip − 2ζT2 − 2ζT

3 −

zIp + Ip − 2ζT4 − 2ζT

5 − . . .

. . .−

zIp + Ip − 2ζT2n − 2ζT

2n+1

−1

4ζT2nζ

T2n−1

−1

· · · 4ζT4 ζ

T3

−1

4ζT2 ζ

T1

−1

S0. (2.44)

Durch iterative Andwendung der Gleichung

Ip + A−1B = (Ip − (B + A)−1B)−1, A,B ∈ Rp×p,

folgt schließlich aus dem Matrixkettenbruch (2.44) die Darstellung

Fn(z) =

(z + 1)Ip −

Ip −

(z + 1)Ip − . . .

. . .−

(z + 1)Ip − 2ζT2n+1

−1

2ζT2n

−1

· · · 2ζT2

−1

2ζT1

−1

S0

und daraus mit Markovs Theorem die Behauptung des Satzes.

Bemerkung 2.12 Analog zum Beweis der Matrixkettenbruchentwicklung für Orthogonali-tätsmaße auf dem Intervall [−1, 1] (ohne die Polynome P nn≥0 in Gleichung (2.33) einzu-führen) lässt sich eine Matrixkettenbruchentwicklung für matrixwertige Orthogonalitätsmaßeauf dem Intervall [0, 1] beweisen. Daraus können Matrixkettenbruchentwicklungen für Matrix-maße auf jedem Intervall der Form [a, b], a, b ∈ R, a < b, mittels der linearen Transformationt = a + (b − a)x, x ∈ [0, 1], hergeleitet werden. Geht ein Matrixmaß Σab auf [a, b] durch dielineare Transformation t = a + (b − a)x, x ∈ [0, 1], aus einem Matrixmaß Σ auf dem Inter-vall [0, 1] hervor, so besitzen Σab und Σ dieselben kanonischen Momente [siehe Bemerkung 2.3]und für die Stieltjes-Transformierten von Σab und Σ gilt

∫ b

a

dΣab(t)

z − t=

1

b− a

∫ 1

0

dΣ(x)

w − x, w =

z − a

b− a.

Page 35: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

2.2. MATRIXKETTENBRUCHENTWICKLUNGEN 29

Zur Herleitung von Rekurrenzbedingungen für zeitdiskrete Quasi-Geburts- und Todesprozessebenötigen wir die folgende Darstellung [siehe Kapitel 4].

Folgerung 2.13 Es seien die Voraussetzungen von Satz 2.11 erfüllt. Dann gilt

eTℓ

dΣ(t)

1 − teℓ = eT

1

2

[

Ip +∞∑

ℓ=1

(V T1 )−1 · · · (V T

ℓ )−1UTℓ · · ·UT

1

]

S0eℓ, (2.45)

eTℓ = (0, . . . , 0, 1, 0, . . . , 0), wobei die Matrizen Ujj und Vjj in den Gleichungen (2.6)

und (2.7) definiert sind.

Beweis Aus der Matrixkettenbruchentwicklung (2.32) folgt

eTℓ

dΣ(t)

1 − teℓ = lim

n→∞eT

1

2

Ip −

Ip −

Ip −

Ip − ζT2n+1

−1

ζT2n

−1

· · · ζT2

−1

ζT1

−1

S0eℓ.(2.46)

Dieser Matrixkettenbruch stellt einen endlichen Matrixkettenbruch der Form (2.21) dar mitF0 = 0p und Fi = Ip für alle i ≥ 1 sowie G1 = Ip und Gi = −ζT

i−1 für alle i ≥ 2. Damitgenügen die in Gleichung (2.24) gegebenen Matrizen Tn der Rekursion

Tn+1 = Tn − ζTn Tn−1, n ≥ 1, (2.47)

mit den Anfangsbedingungen T0 = T1 = Ip. Mithilfe der Identität (2.26) erhalten wir daherfür den Ausdruck in (2.46)

eTℓ

dΣ(t)

1 − teℓ = eT

1

2

∞∑

ℓ=0

T−1ℓ+1ζ

Tℓ Tℓ−1T

−1ℓ ζT

ℓ−1Tℓ−2T−1ℓ−1 · · ·T1T

−12 ζT

1 S0eℓ. (2.48)

Weiter folgt mit ζn = Vn−1Un aus der Rekursion (2.47) induktiv

Tn+1 = V Tn · · ·V T

1 , n ≥ 1. (2.49)

Durch Einsetzen der Darstellungen ζn = Vn−1Un und (2.49) in die Gleichung (2.48) erhaltenwir schließlich die Behauptung.

Der folgende Satz gibt eine Matrixkettenbruchentwicklung für die Stieltjes-Transformierte vonmatrixwertigen Orthogonalitätsmaßen Σ auf dem Intervall [0,∞) an. Der Beweis erfolgt mitSatz 2.6 ähnlich zu dem Beweis von Satz 2.11 und wird daher hier nicht aufgeführt.

Satz 2.14 Es sei Pnn≥0 eine Folge von Matrixpolynomen, die orthogonal bzgl. eines Ma-trixmaßes Σ auf [0,∞) sind, wobei Σ eindeutig durch seine Momente bestimmt sei. Dann lässtsich die Stieltjes-Transformierte von Σ darstellen als∫

dΣ(t)

z − t= lim

n→∞

zIp − ζT1 −

zIp − ζT2 − ζT

3 −

zIp − ζT4 − ζT

5 − . . . (2.50)

. . .−

zIp − ζT2n − ζT

2n+1

−1

ζT2nζ

T2n−1

−1

· · · ζT4 ζ

T3

−1

ζT2 ζ

T1

−1

S0

= limn→∞

zIp −

Ip −

zIp − . . .−

zIp − ζT2n+1

−1

ζT2n

−1

· · · ζT2

−1

ζT1

−1

S0,

wobei ζj, j ≥ 1, die in Gleichung (2.18) definierten Matrizen sind.

Page 36: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

30 KAPITEL 2. MATRIXMAßE UND MATRIXKETTENBRÜCHE

Ähnlich zum Beweis der Folgerung 2.13 lässt sich mit Satz 2.14 die folgende Darstellungnachweisen, die in Kapitel 4 herangezogen wird, um α-Rekurrenzbedingungen für zeitstetigeQuasi-Geburts- und Todesprozesse zu beweisen.

Folgerung 2.15 Es seien die Voraussetzungen von Satz 2.14 erfüllt. Dann gilt

eTℓ

dΣ(t)

teℓ = eT

∞∑

ℓ=0

(

ζT2ℓ+1ζ

T2ℓ−1 · · · ζT

1

)−1 (ζT2ℓζ

T2ℓ−2 · · · ζT

2

)

S0eℓ, (2.51)

eTℓ = (0, . . . , 0, 1, 0, . . . , 0), wobei die Matrizen ζj, j ≥ 1, in Gleichung (2.18) definiert sind.

Page 37: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Kapitel 3

Matrixmaße und Nullstellen

orthonormaler Matrixpolynome

In diesem Kapitel beschreiben wir das asymptotische Verhalten der Nullstellen von orthonor-malen Matrixpolynomen Rn,kn≥0, k ≥ 1, deren Koeffizienten An,k, n ≥ 1, und Bn,k, n ≥ 0,in der zugehörigen Drei-Schritt-Rekursion zusätzlich von einer natürlichen Zahl k abhängen.Unter der Annahme, dass die Rekursionskoeffizienten für n, k → ∞ mit n/k → u > 0 kon-vergieren, zeigen wir, dass die empirische Nullstellenverteilung von Rn,k für n, k → ∞ mitn/k → u > 0 schwach konvergiert und geben die Dichte der Grenzverteilung explizit alsAusdruck von Matrix-Chebyshev-Dichten 1. Art an. In Kapitel 5 nutzen wir die schwacheKonvergenz der empirischen Nullstellenverteilung, um die schwache Konvergenz der empiri-schen Eigenwertverteilung von blocktridiagonalen Zufallsmatrizen nachzuweisen.

3.1 Asymptotische Nullstellenverteilung

Im Folgenden sei Rn,kn≥0 für jedes k ≥ 1 eine durch die Drei-Schritt-Rekursion

tRn,k(t) = An+1,kRn+1,k(t) +Bn,kRn,k(t) + ATn,kRn−1,k(t), n ≥ 0, (3.1)

gegebene Folge von orthonormalen p× p-Matrixpolynomen, wobei die Anfangsbedingungen

R−1,k(t) = 0p sowie R0,k(t) = Ip, k ≥ 1,

gelten. Dabei sind Bi,k ∈ Rp×p, i ≥ 0, k ≥ 1, symmetrische und Ai,k ∈ R

p×p, i, k ≥ 1,nichtsinguläre Matrizen [vgl. Satz 1.5]. Σk ∈ R

p×p bezeichne im Folgenden für jedes k ≥ 1 einOrthogonalitätsmaß von Rn,kn≥0, k ≥ 1, d. h. es gelte

Rn,k(t)dΣk(t)Rm,k(t) = δnmIp, k ≥ 1.

Die orthonormalen Matrixpolynome Rn,kn≥0 verallgemeinern das Konzept der bisher be-trachteten orthonormalen Matrixpolynome Pnn≥0 mit Rekursionskoeffizienten An und Bn

31

Page 38: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

32 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

auf orthonormale Matrixpolynome mit variierenden Rekursionskoeffizienten An,k und Bn,k.Die in Kapitel 1.2 dargestellten nichtasymptotischen Eigenschaften der Polynome Pnn≥0

bleiben genauso für jedes k ≥ 1 für die Polynome Rn,kn≥0 gültig. Danach hat das Matrix-polynom Rn,k für jedes k ≥ 1 genau np reelle Nullstellen, wobei jede Nullstelle höchstensp-mal auftritt, und die Nullstellen von Rn,k sind die Eigenwerte der symmetrischen np× np-Jacobi-Matrix

Jnp,k :=

B0,k A1,k

AT1,k B1,k A2,k

. . . . . . . . .AT

n−2,k Bn−2,k An−1,k

ATn−1,k Bn−1,k

.

Das asymptotische Verhalten der Polynome Rn,k für n→ ∞ und k → ∞ wird in den Arbeitenvon Duran und Daneri-Vias (2001) sowie Yakhlef (2007) untersucht. Duran und Daneri-Vias(2001) beweisen den folgenden, im Beweis von Satz 3.2 benötigten Satz, der eine Verallge-meinerung von Satz 1.18 darstellt. Für eine entsprechende Verallgemeinerung von MarkovsTheorem [Satz 1.17] verweisen wir auf die Arbeit von Yakhlef (2007).

Satz 3.1 Die Folge Rn,kn≥0 von Matrixpolynomen sei für jedes k ≥ 1 durch die Rekursi-on (3.1) definiert und bzgl. Σk, k ≥ 1, orthonormal. Weiter sei A eine nichtsinguläre und Beine symmetrische Matrix, so dass die Rekursionskoeffizienten An,k und Bn,k für alle ℓ ∈ N0

die Bedingungen

limm→∞

Anm−ℓ,km= A und lim

m→∞Bnm−ℓ,km

= B (3.2)

erfüllen, wobei (nm)m und (km)m wachsende Folgen natürlicher Zahlen sind. Weiter bezeich-ne ∆m die Menge aller Nullstellen von Rnm,km

sowie

Γ =⋂

p≥0

Mp mit Mp =⋃

m≥p

∆m . (3.3)

Dann gilt

limm→∞

Rnm−1,km(z)R−1

nm,km(z)A−1

nm,km=

dWA,B(t)

z − t, z ∈ C\Γ, (3.4)

gleichmäßig auf kompakten Teilmengen von C\Γ, wobei WA,B das Chebyshev-Maß 2. Art ist.

Zum Nachweis der schwachen Konvergenz der empirischen Nullstellenverteilung des Matrix-polynoms Rn,k benötigen wir die folgenden Notationen. xn,k,1, . . . , xn,k,m bezeichnen die mverschiedenen Nullstellen von Rn,k mit den Vielfachheiten ℓ1, . . . , ℓm. Die empirische Nullstel-lenverteilung von Rn,k sei definiert durch

δn,k :=1

np

m∑

j=1

ℓjδxn,k,j, n, k ≥ 1, (3.5)

Page 39: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.1. ASYMPTOTISCHE NULLSTELLENVERTEILUNG 33

wobei δt das Dirac-Maß im Punkt t ∈ R bezeichne. Zur Untersuchung des asymptotischenVerhaltens von δn,k für n → ∞ und k → ∞ betrachten wir zwei wachsende Folgen (nj)j≥0

und (kj)j≥0 natürlicher Zahlen, für die nj/kj → u, u ∈ [0,∞), für j → ∞ gilt, und wirschreiben für den Grenzwert limj→∞Xnj ,kj

, falls er existiert, limnk→uXn,k.

Konvergieren die Rekursionskoeffizienten An,k in Rekursion (3.1) für n/k → u, u > 0, gegeneine nichtsinguläre und symmetrische Matrix A(u) und die Koeffizienten Bn,k gegen eine sym-metrische Matrix B(u), so können die Matrixpolynome Rn,kn≥0 als orthonormale Matrix-polynome in der Matrix-Nevai-Klasse M(A(u), B(u)) aufgefasst werden. Die entsprechendenMatrix-Chebyshev-Polynome 1. und 2. Art,

TA(u),B(u)n (t)n≥0 und UA(u),B(u)

n (t)n≥0,

definieren wir völlig analog zu den für eine Matrix-Nevai-Klasse M(A,B) mit konstantenMatrizen A(u) ≡ A und B(u) ≡ B definierten Matrix-Chebyshev-Polynomen [siehe Defini-tion 1.12]. XA(u),B(u) und WA(u),B(u) bezeichnen die zugehörigen Orthogonalitätsmaße, die sonormiert sind, dass

dXA(u),B(u)(t) =

dWA(u),B(u)(t) = Ip

gilt. Das folgende Resultat, welches in Kapitel 3.3.1 bewiesen wird, liefert die schwache Kon-vergenz von δn,k für n/k → u > 0 und gibt die Dichte der Grenzverteilung explizit an.

Satz 3.2 Rn,kn≥0 sei für jedes k ≥ 1 eine durch die Rekursion (3.1) definierte Folge vonorthonormalen Matrixpolynomen. Für die Rekursionskoeffizienten gelte für jedes ℓ ∈ N0 undeinem gegebenen u > 0

limnk→u

An−ℓ,k = A(u) und limnk→u

Bn−ℓ,k = B(u) (3.6)

mit nichtsingulären und symmetrischen Matrizen A(u) | u > 0 und symmetrischen MatrizenB(u) | u > 0. Existiert eine Zahl M > 0 mit

∞⋃

k=1

∞⋃

n=0

z ∈ C | detRn,k(z) = 0

⊆ [−M,M ] , (3.7)

so konvergiert die in Gleichung (3.5) definierte empirische Nullstellenverteilung δn,k von Rn,k

schwach gegen ein Maß, welches absolut stetig bzgl. des Lebesgue-Maßes ist. Die Dichte derGrenzverteilung ist gegeben durch

fA(u),B(u) :=1

u

∫ u

0

tr[

1

pXA(s),B(s)

]

ds, (3.8)

wobei XA(s),B(s) die Dichte des Matrix-Chebychev-Maßes 1. Art bezeichne.

Page 40: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

34 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

Satz 3.2 überträgt zum einen das von Kuijlaars und van Assche (1999) für den eindimensio-nalen Fall (p = 1) bewiesene entsprechende Resultat [siehe Beispiel 3.5] in den Matrixfall undverallgemeinert zum anderen das von Duran et al. (1999) für orthonomale Matrixpolynomein der Matrix-Nevai-Klasse M(A,B) nachgewiesene Ergebnis [siehe Beispiel 3.4]. Dabei istsowohl im Beweis des Resultates von Duran et al. (1999) als auch im Beweis von Satz 3.2 dieVoraussetzung der Symmetrie der Grenzmatrizen A bzw. A(u) | u > 0 essenziell.

Sind die Matrizen A(u) | u > 0 in Satz 3.2 zusätzlich positiv definit, so können wir dieDichte in (3.8) wie folgt explizit angeben. Der Beweis von Folgerung 3.3 wird in Kapitel 3.3.2dargestellt.

Folgerung 3.3 Es seien die Voraussetzungen von Satz 3.2 erfüllt mit positiv definiten Ma-trizen A(u) | u > 0. Dann ist die Dichte in (3.8) gegeben durch

fA(u),B(u)(t) =1

up

p∑

j=1

∫ u

0

− ddtλ

A(s),B(s)j (t)

π

4 −(

λA(s),B(s)j (t)

)2In

−2<λA(s),B(s)j (t)<2

ods, (3.9)

wobei λA(s),B(s)j (t), j = 1, . . . , p, die Eigenwerte der Matrix A−1(s)(B(s) − tIp) bezeichnen.

Sind die Matrizen A(u) | u > 0 und B(u) | u > 0 zusätzlich kommutativ, d. h. gilt fürjedes u > 0

A(u)B(u) = B(u)A(u),

so vereinfacht sich die Dichte in Gleichung (3.9) zu

fA(u),B(u)(t) =1

up

p∑

j=1

∫ u

0

Iβj(s)−2αj(s)<t<βj(s)+2αj(s)

π√

4α2j (s) − (t− βj(s))

2ds. (3.10)

Dabei bezeichnen αj(s), j = 1, . . . , p, und βj(s), j = 1, . . . , p, die Eigenwerte der Matri-zen A(s) und B(s). Demzufolge ist fA(u),B(u) in diesem Fall eine Summe von Integralen überarcsin-Dichten auf den Intervallen [βj(s) − 2αj(s), βj(s) + 2αj(s)], j = 1, . . . , p.

3.2 Beispiele

Beispiel 3.4 Es seien die Voraussetzungen von Satz 3.2 erfüllt. Hängen die Rekursionsko-effizienten nicht von k ab, d. h. gilt An,k = An für alle n, k ≥ 1 und Bn,k = Bn für allen ≥ 0, k ≥ 1, so sind die Bedingungen in (3.6) erfüllt mit konstanten Matrizen A(u) ≡ Aund B(u) ≡ B und die empirische Nullstellenverteilung δn,k = δn von Rn,k = Rn konvergiertfür n→ ∞ schwach gegen ein Maß mit der Dichte

fA,B(t) = tr

[

1

pXA,B(t)

]

,

wobei XA,B die Matrix-Chebyshev-Dichte 1. Art bezeichne. Dies ist die Aussage von Theo-rem 1.1 in der Arbeit von Duran et al. (1999).

Page 41: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.2. BEISPIELE 35

Beispiel 3.5 Es seien die Voraussetzungen von Satz 3.2 erfüllt mit p = 1. Weiter gelte für dieskalare GrenzfunktionA(u) > 0 für jedes u > 0.Dann ist nach Folgerung 3.3, Gleichung (3.10),die Dichte der Grenzverteilung von δn,k gegeben durch

fA(u),B(u)(t) =1

u

∫ u

0

1

π√

4A2(s) − (t−B(s))2IB(s)−2A(s)<t<B(s)+2A(s)ds.

Dies ist die Aussage von Theorem 1.4 in der Arbeit von Kuijlaars und van Assche (1999).Für skalare orthonormale Polynome mit nicht variierenden Rekursionskoeffizienten An,k = An

und Bn,k = Bn ist demzufolge die Dichte der asymptotischen Nullstellenverteilung eine arcsin-Dichte auf dem Intervall [B − 2A,B + 2A] [vgl. Nevai (1979)].

Beispiel 3.6 Rn,kn≥0, k ≥ 1, sei eine durch die Rekursion (3.1) gegebene Folge von ortho-normalen 2 × 2-Matrixpolynomen mit den Rekursionskoeffizienten

An,k =

(

an,k 00 an,k

)

, n ≥ 1, und Bn,k =

(

bn,k bn,k

bn,k bn,k

)

, n ≥ 0, (3.11)

wobei

an,k = 2

n(n+ αk + βk)(n+ αk)(n+ βk)

(2n+ αk + βk − 1)(2n+ αk + βk)2(2n+ αk + βk + 1), n ≥ 1, (3.12)

und

bn,k =β2

k − α2k

(2n+ αk + βk)(2n+ αk + βk + 2), n ≥ 0, (3.13)

die Koeffizienten in der Drei-Schritt-Rekursion für die skalaren orthonormalen Jacobi-Poly-nome p(αk,βk)

n mit αk > −1 und βk > −1 seien.

Die asymptotischen Eigenschaften der Nullstellen der skalaren Jacobi-Polynome werden aus-führlich von Kuijlaars und van Assche (1999) untersucht. Yakhlef (2007) beschreibt die asym-ptotischen Eigenschaften der Matrixpolynome Rn,kn≥0 mit den in (3.11) bzw. (3.12) und(3.13) definierten Rekursionskoeffizienten.

(a) Gelten für alle ℓ > 0 die Gleichungen

limk→∞

αk

k=: a ≥ 0 und lim

k→∞

βk

k=: b ≥ 0,

so folgt für alle ℓ > 0

limnk→u

An−ℓ,k = a(u)I2 =: A(u) und limnk→u

Bn−ℓ,k =

(

b(u) b(u)b(u) b(u)

)

:= B(u)

mit

a(u) := limnk→u

an−ℓ,k =2√

u(u+ a+ b)(u+ a)(u+ b)

(2u+ a+ b)2

Page 42: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

36 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

sowie

b(u) := limnk→u

bn−ℓ,k =b2 − a2

(2u+ a+ b)2.

Wählt man u > 0 beliebig, aber fest, so folgt aus der Konvergenz der Rekursionskoef-fizienten An,k und Bn,k mit Gershgorins Theorem, dass die Eigenwerte der zugehörigenJacobi-Matrix Jnp,k und damit die Nullstellen von Rn,k in einem kompakten Intervallliegen [siehe Satz 1.11]. Damit ist die Dichte fA(u),B(u) der asymptotischen Nullstellen-verteilung von Rn,k von der Form (3.10) mit p = 2,

α1(s) = α2(s) = a(s) sowie β1(s) = 2b(s) und β2(s) = 0.

Abbildung 3.1 zeigt die Dichte fA(u),B(u) für a = 1, b = 2 und verschiedene Werte von u.

-1 -0.5 0.5 1

0.5

1

1.5

2

2.5

0

u=3 u=2

u=1u=12

Abbildung 3.1: Dichte fA(u),B(u) der asymptotischen Nullstellenverteilungfür a = 1, b = 2 sowie u = 1/2, 1, 2, 3.

Wählt man a = b, so folgt für die Eigenwerte von A(u) und B(u)

α1(u) = α2(u) =

u(u+ 2a)

2(u+ a)sowie β1(u) = β2(u) = 0.

Demzufolge ist die Dichte fA(u),B(u) in diesem Fall ein Integral über eine arcsin-Dichteauf dem Intervall [−

u(u+ 2a)/(u+a),√

u(u+ 2a)/(u+a)]. Abbildung 3.2 zeigt diesefür a = b = 1 und verschiedene Werte von u, wobei sich die Dichte der Grenzverteilungmit wachsendem u der Dichte einer arcsin-Verteilung annähert.

(b) Wählen wir für die Folgen (αk)k und (βk)k in den Koeffizienten (3.12) und (3.13)

αk = (−1/2)k+1 und βk = (−1/3)k

sowie k = 2n [siehe Yakhlef (2007)], so folgt für die matrixwertigen Rekursionskoeffizi-enten

limnk→ 1

2

An−ℓ,k =1

2I2 und lim

nk→ 1

2

Bn−ℓ,k = 02

Page 43: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.3. BEWEISE 37

-1 -0.5 0.5 1

0.2

0.6

0.8

0.4

0

u=3

u=u=1

u=2

12

Abbildung 3.2: Dichte fA(u),B(u) der asymptotischen Nullstellenverteilungfür a = b = 1 sowie u = 1/2, 1, 2, 3.

für alle ℓ > 0. Wie in Teil (a) dieses Beispiels können wir schließen, dass die Nullstellenvon Rn,2n in einem kompakten Intervall liegen. Damit ist die Dichte fA(u),B(u) durch diearcsin-Dichte

fA(1/2),B(1/2)(t) =1

π

1√1 − t2

I−1<t<1dt

auf dem Intervall [−1, 1] gegeben [siehe Abbildung 3.3].

-1 -0.5 0.5 1

1

2

3

0

Abbildung 3.3: Dichte fA(1/2),B(1/2) der asymptotischen Nullstellenverteilungvon Rn,2n.

3.3 Beweise

Für den Beweis von Satz 3.2 wird das folgende Lemma benötigt, welches eine Verallgemeine-rung von Lemma 2.2 in der Arbeit von Kuijlaars und van Assche (1999) darstellt. Der Beweisvon Lemma 3.7 basiert auf einer Quadraturformel der Form (1.14) für die orthonormalenMatrixpolynome Rn,kn≥0.

Page 44: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

38 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

Lemma 3.7 Die Folge der Matrixpolynome Rn,kn≥0, k ≥ 1, sei durch die Rekursion (3.1)definiert und orthonormal bzgl. eines Matrixmaßes Σk, k ≥ 1. Liegen alle Nullstellen desMatrixpolynoms Rn+1,k im Intervall [−M,M ], so gilt für alle Vektoren v ∈ C

p und komplexeZahlen z ∈ C\[−M,M ] die Ungleichung

∣vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

∣ ≤ 1

dist (z, [−M,M ])vTv, (3.14)

wobei dist (z, [−M,M ]) den Abstand der komplexen Zahl z zu dem Intervall [−M,M ] bezeich-ne. Weiter gilt für alle Vektoren v ∈ C

p und komplexen Zahlen z mit |z| > M die Abschätzung

∣vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

∣ >1

2|z| vTv. (3.15)

Beweis Es sei Rn,kn≥0 für jedes k ≥ 1 eine Folge von orthonormalen Matrixpolynomen,gegeben durch die Rekursion (3.1), mit Orthogonalitätsmaß Σk, k ≥ 1. xn+1,k,1, . . . , xn+1,k,m

bezeichnen die m verschiedenen Nullstellen des Matrixpolynoms Rn+1,k mit den Vielfach-heiten ℓ1, . . . , ℓm. Mit den in Theorem 2.3 und Lemma 2.2 in der Arbeit von Duran (1996)dargestellten Eigenschaften der Adjungierten [siehe Gleichung (1.13)] von Matrixpolynomenerhalten wir für jedes feste k ≥ 1 und jedes Matrixpolynom Rk mit Grad (Rk) ≤ n dieDarstellung

Rk(z)R−1n+1,k(z) =

Rk(z)Adj (Rn+1,k(z))

det (Rn+1,k(z)).

Dies impliziert für die Matrixpolynome Rn,kn≥0 die Zerlegung

Rn,k(z)R−1n+1,k(z)A

−1n+1,k =

m∑

j=1

Cn+1,k,jA−1n+1,k

z − xn+1,k,j

, (3.16)

wobei die matrixwertigen Gewichte durch die Matrizen

Cn+1,k,jA−1n+1,k = Rn,k(xn+1,k,j)Γn+1,k,jR

Tn,k(xn+1,k,j), j = 1, . . . ,m, (3.17)

mit

Γn+1,k,j =ℓk

(det (Rn+1,k(t)))(ℓj) (xn+1,k,j)

(

Adj (Rn+1,k(t)))(ℓj−1) (xn+1,k,j)Q

(1)n+1,k(xn+1,k,j

)

j = 1, . . . ,m, gegeben sind. Dabei sind Q(1)n,kn≥0 die zu Rn,kn≥0 assoziierten Polynome der

Ordnung 1 [siehe Gleichung (1.11)]. Wie im Beweis von Theorem 3.1 (2) in der Arbeit vonDuran (1996) können wir nachweisen, dass die Matrixgewichte Γn+1,k,j, j = 1, . . . ,m, nichtne-gativ definit sind. Weiter lässt sich analog zum Fall nicht variierender Rekursionskoeffizienten[siehe Duran (1996)] die Gültigkeit der Quadraturformel

Rn+1,k(t)dΣk(t) =m∑

j=1

R(xn+1,k,j)Γn+1,k,j (3.18)

Page 45: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.3. BEWEISE 39

zeigen [vgl. Satz 1.8]. Daraus folgt mit Darstellung (3.17) sowie der Orthonormalität derMatrixpolynome Rn,kn≥0

m∑

j=1

Cn+1,k,jA−1n+1,k =

m∑

j=1

Rn,k(xn+1,k,j)Γn+1,k,jRTn,k(xn+1,k,j)

=

Rn,k(t)Σk(t)RTn,k(t) = Ip (3.19)

[vgl. Duran und Daneri-Vias (2001)].

Es sei nun z ∈ C\[−M,M ]. Dann gilt für alle j = 1, . . . ,m die Abschätzung

|z − xn+1,k,j| ≥ dist (z, [−M,M ]) , (3.20)

da nach Voraussetzung alle Nullstellen von Rn+1,k in dem Intervall [−M,M ] liegen. Die nicht-negative Definitheit der Matrizen Γn+1,k,j, j = 1, . . . ,m, impliziert wegen Gleichung (3.17)die nichtnegative Definitheit der Matrizen Cn+1,k,jA

−1n+1,k, j = 1, . . . ,m. Damit erhalten wir

aus den Darstellungen (3.16), (3.19) sowie (3.20) für alle komplexe Zahlen z mit |z| > M undVektoren v ∈ C

p die erste Behauptung des Lemmas

∣vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

∣ =∣

∣vT

m∑

j=1

Cn+1,k,jA−1n+1,k

z − xn+1,k,j

v∣

≤m∑

j=1

vTCn+1,k,jA−1n+1,kv

|z − xn+1,k,j|

≤ 1

dist (z, [−M,M ])

m∑

j=1

vTCn+1,k,jA−1n+1,kv

=1

dist (z, [−M,M ])vTv.

Da alle Nullstellen xn,k,j, j = 1, . . . ,m, in dem Intervall [−M,M ] liegen, gilt für alle komplexeZahlen z mit |z| > M außerdem die Abschätzung

xn+1,k,j

z

∣< 1, j = 1, . . . ,m,

welche

Re( 1

1 − xn+1,k,j

z

)

>1

2, j = 1, . . . ,m,

Page 46: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

40 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

impliziert. Daraus folgt mit (3.16) und (3.19) die zweite Behauptung des Lemmas

∣vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

∣ =∣

∣vT

m∑

j=1

Cn+1,k,jA−1n+1,k

z − xn+1,k,j

v∣

=1

|z|∣

m∑

j=1

vTCn+1,k,jA−1n+1,kv

1 − xn+1,k,j

z

≥ 1

|z|Re(

m∑

j=1

vTCn+1,k,jA−1n+1,kv

1 − xn+1,k,j

z

)

>1

2|z|m∑

j=1

vTCn+1,k,jA−1n+1,kv =

1

2|z| vTv.

3.3.1 Beweis von Satz 3.2

Es sei Rn,kn≥0, k ≥ 1, eine durch die Rekursion (3.1) gegebene Folge von orthonormalenMatrixpolynomen mit Orthogonalitätsmaß Σk, k ≥ 1, und δn,k die in Gleichung (3.5) defi-nierte empirische Nullstellenverteilung von Rn,k. Zum Nachweis der schwachen Konvergenzvon δn,k betrachten wir das logarithmische Potential der empirischen Nullstellenverteilung.Wie zeigen, dass dieses gegen das logarithmische Potential des Maßes mit der Lebesgue-Dichte (3.8), addiert mit einer Konstanten c ∈ C, konvergiert und schließen daraus auf dieschwache Konvergenz von δn,k gegen das Maß mit der Dichte fA(u),B(u). Dabei ist das lo-garithmische Potential eines endlichen positiven Maßes µ mit kompaktem Träger durch dieFunktion

Uµ(z) :=

log1

|z − t|dµ(t) (3.21)

für komplexe Zahlen z definiert [Saff und Totik (1997)]. Uµ(z) ist für alle z ∈ C\supp (µ) eineharmonische Funktion, d. h. Uµ(z) ist zweimal stetig differenzierbar und für den Laplace-Operator gilt ∆Uµ(z) = 0 für alle z ∈ C\supp (µ). Eine ausführliche Darstellung der Po-tentialtheorie findet man beispielsweise in der Monografie von Saff und Totik (1997). EineEinführung in die Funktionentheorie liefert z. B. Jänich (1993).

Zunächst normalisieren wir die Matrixpolynome Rn,kn≥0, k ≥ 1, so, dass sie als führendenKoeffizienten die Einheitsmatrix Ip besitzen und bezeichnen die monischen Matrixpolynomemit Rn,kn≥0, k ≥ 1, d. h.

R0,k(x) := Ip , Rn,k(x) := A1,k · · ·An,kRn,k(x), n ≥ 1, k ≥ 1. (3.22)

Da Rn,k und Rn,k dieselben Nullstellen haben, gilt für das logarithmische Potential U δn,k der

Page 47: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.3. BEWEISE 41

empirischen Nullstellenverteilung von Rn,k

limnk→u

U δn,k(z) = limnk→u

log1

|z − t|1

np

m∑

j=1

ℓjδxn,k,j(dt)

= limnk→u

1

np

m∑

j=1

log1

|z − xn,k,j|ℓj

= limnk→u

1

nplog

1

| det(Rn,k(z))|, (3.23)

z ∈ C\supp (δn,k) , wobei nach Voraussetzung supp (δn,k) ⊆ [−M,M ] gilt.

Zur besseren Übersichtlichkeit unterteilen wir den Beweis von Satz 3.2 in die folgendendrei Schritte.

Behauptung (i) Es gilt

limnk→u

U δn,k(z) =1

p

∫ 1

0

log

det

(∫

dWA(su),B(su)(t)

z − t

)∣

ds, |z| > M. (3.24)

Behauptung (ii) Für den Integranden in (3.24) gilt

log

det

(∫

dWA(u),B(u)(t)

z − t

)∣

= UX(z) + c1, z ∈ G, (3.25)

wobei

UX(z) :=

log1

|z − t| tr[

XA(u),B(u)(t)]

dt (3.26)

das logarithmische Potential des Maßes mit der Lebesgue-Dichte tr[

XA(u),B(u)(t)]

seiund die Menge G in Gleichung (3.50) definiert wird.

Behauptung (iii) Wir zeigen, dass die empirische Nullstellenverteilung δn,k schwach kon-vergiert und die Dichte der Grenzverteilung durch die Funktion fA(u),B(u) in (3.8) gegebenist.

Beweis von Behauptung (i) Aus der Definition der Matrixpolynome Rn,k folgt

R−1j,k(z)Rj+1,k(z) = R−1

j,k(z)Aj+1,kRj+1,k(z), j ≥ 0, (3.27)

und daraus erhalten wir mit der Drei-Schritt-Rekursion (3.1) induktiv die Darstellung

Rn,k(z) =n−1∏

j=0

R−1j,k(z)Aj+1,kRj+1,k(z), n ≥ 0. (3.28)

Page 48: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

42 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

Demzufolge gilt

1

nplog∣

∣detRn,k(z)∣

∣ =1

nplog

det

(

n−1∏

j=0

R−1j,k(z)Aj+1,kRj+1,k(z)

)∣

=1

np

n−1∑

j=0

log∣

∣det(

R−1j,k(z)Aj+1,kRj+1,k(z)

)∣

=1

p

∫ 1

0

log∣

∣det(

R−1[sn],k(z)A[sn]+1,kR[sn]+1,k(z)

)∣

∣ ds

=1

p

∫ 1

0

log∣

∣det(

A[sn]+1,kR[sn]+1,k(z)R−1[sn],k(z)

)∣

∣ ds, (3.29)

wobei [sn] den ganzzahligen Anteil von sn bezeichnet. Im Folgenden zeigen wir, dass derIntegrand in (3.29) beschränkt ist. Dazu bezeichnen ηn,k,1(z), . . . , ηn,k,p(z) die Eigenwerte derp× p-Matrix Rn,k(z)R

−1n+1,k(z)A

−1n+1,k und v ∈ C

p. Dann lassen sich die Eigenwerte ηn,k,i nachHorn und Johnson (1985), Seite 181, durch

minv 6=0

vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

vTv

∣ ≤∣

∣ηn,k,i(z)∣

∣ ≤ maxv 6=0

vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

vTv

für alle i = 1, . . . , p abschätzen. Daraus folgen mit Lemma 3.7 für komplexe Zahlen z mit|z| > M die Abschätzungen

∣det(

Rn,k(z)R−1n+1,k(z)A

−1n+1,k

)∣

∣=

p∏

i=1

ηn,k,i(z)∣

∣(3.30)

≥( p

mini=1

∣ηn,k,i(z)∣

)p

≥(

minv 6=0

vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

vTv

)p

=(

minvT v=1

∣vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

)p

>( 1

2|z|)p

und∣

∣det(

Rn,k(z)R−1n+1,k(z)A

−1n+1,k

)∣

∣ ≤(

pmaxi=1

|ηn,k,i(z)|)p

(3.31)

≤(

maxv 6=0

vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

vTv

)p

=(

maxvT v=1

∣vTRn,k(z)R−1n+1,k(z)A

−1n+1,kv

)p

≤ 1

dist(z, [−M,M ])p.

Aus den Ungleichungen (3.30) und (3.31) erhalten wir schließlich die obere Schranke∣

∣log∣

∣det(

An+1,kRn+1,k(z)R−1n,k(z)

)∣

∣ ≤ max p |log (dist(z, [−M,M ]))| , p |log(2|z|)|

Page 49: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.3. BEWEISE 43

für z ∈ C mit |z| > M. Damit ist der Integrand in Gleichung (3.29) für komplexe Zahlen z,|z| > M, beschränkt und es folgt mit Lebesgues Theorem für |z| > M

limnk→u

1

nplog∣

∣detRn,k(z)∣

∣ =1

p

∫ 1

0

log

det(

limnk→u

A[sn]+1,kR[sn]+1,k(z)R−1[sn],k(z)

)

ds. (3.32)

Zur Berechnung des Grenzwertes auf der rechten Seite in Gleichung (3.32) ziehen wir Satz 3.1heran. Da die in Gleichung (3.3) definierte Menge Γ nach Voraussetzung im Intervall [−M,M ]liegt, gilt Satz 3.1 für alle komplexe Zahlen z ∈ C mit |z| > M. Damit konvergiert die Ma-trix A[sn]+1,kR[sn]+1,k(z)R

−1[sn],k(z) in Gleichung (3.32) gleichmäßig auf kompakten Teilmengen

von C\[−M,M ] gegen die Inverse der Stieltjes-Transformierten des Matrix-Chebyshev-Maßes2. Art, wobei die Grenzwerte der Koeffizienten Asn,k und Bsn,k nach Voraussetzung, und damitdas Matrix-Chebyshev-Maß 2. Art von su abhängen. Für z ∈ C mit |z| > M gilt demzufolge

limnk→u

1

nplog∣

∣detRn,k(z)∣

∣ =1

p

∫ 1

0

log

det(

dWA(su),B(su)(t)

z − t

)−1∣

ds

= −1

p

∫ 1

0

log∣

∣det(

FA(su),B(su)(z))

∣ds,

= − 1

pu

∫ u

0

log∣

∣det(

FA(s),B(s)(z))

∣ds (3.33)

mit

FA(u),B(u)(z) :=

dWA(u),B(u)(t)

z − t, z ∈ C\supp

(

WA(u),B(u)

)

. (3.34)

Beweis von Behauptung (ii) Zunächst geben wir für die Stieltjes-Transformierte vonWA(u),B(u) eine explizite Formel an. Analog zur Herleitung von Gleichung (1.33) folgt aus derRekursion (3.1) mit Satz 3.1 für die Stieltjes-Transformierte FA(u),B(u) die Matrizengleichung

A(u)FA(u),B(u)(z)A(u)FA(u),B(u)(z) + (B(u) − zIp)FA(u),B(u)(z) + Ip = 0p.

Wie in Duran (1999) erhalten wir daraus die explizite Formel

FA(u),B(u)(z) =1

2A−1(u)(zIp −B(u))A−1(u) − 1

2A−1(u)(B(u) − zIp)

1/2

×[

Ip − 4(B(u) − zIp)−1/2A(u)(B(u) − zIp)

−1A(u)(B(u) − zIp)−1/2

]1/2

×(B(u) − zIp)1/2A−1(u), (3.35)

wobei die Wurzel der Matrix

HA(u),B(u)(z) := Ip − 4(B(u) − zIp)−1/2A(u)(B(u) − zIp)

−1A(u)(B(u) − zIp)−1/2

wie folgt definiert wird. Bezeichnet

KA(u),B(u)(z) := (B(u) − zIp)1/2A−1(u)(B(u) − zIp)

1/2 (3.36)

Page 50: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

44 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

und sind β1(u) ≤ . . . ≤ βp(u) die Eigenwerte der Matrix B(u), so folgt aus der Symmetrieder Matrizen A(u) und B(u) nach Lemma 2.4 in Duran (1999), dass die Matrix KA(u),B(u)(z)für alle bis auf endlich viele komplexe Zahlen z ∈ C\[β1(u), βp(u)] diagonalisierbar ist. ImFolgenden bezeichnen wir die Vereinigung dieser endlich vielen komplexen Zahlen mit demIntervall [β1(u), βp(u)] mit ∆ = ∆(u). Damit ist auch die MatrixHA(u),B(u)(z) für alle z ∈ C\∆diagonalisierbar, wobei die Eigenwerte von HA(u),B(u)(z) von der Gestalt

1 − 4(

λA(u),B(u)j (z)

)−2

, j = 1, . . . , p,

sind, wenn λA(u),B(u)j (z), j = 1, . . . , p, die Eigenwerte von KA(u),B(u)(z) bezeichnen. Im Fol-

genden wählen wir die Wurzel√w so, dass |w−

√w2 − 4| < 2 für w ∈ C\[−2, 2] gilt. Dann ist

die Funktion w −√w2 − 4 analytisch in C\[−2, 2] und wir definieren für komplexe Zahlen z

mit λA(u),B(u)j (z) ∈ C\[−2, 2], j = 1, . . . , p, die Wurzel der Matrix HA(u),B(u)(z) über ihre Dia-

gonalform. Dabei ist die Definition der Wurzel von HA(u),B(u)(z) unabhängig von der Wahlder Diagonalform von KA(u),B(u)(z) [Horn und Johnson (1991), Seite 407 f].

Wir schreiben nun die Matrix KA(u),B(u)(z) in der Form

KA(u),B(u)(z) = U(z)D(z)U−1(z), z ∈ C\∆, (3.37)

wobei die Einträge der Diagonalmatrix

D(z) = D(z, u) = diag(

λA(u),B(u)1 (z), . . . , λA(u),B(u)

p (z))

die Eigenwerte von KA(u),B(u)(z) sind. Bezeichnet

G0 := C \ supp (WA(u),B(u)) ∪ ∆,

so folgt aus den Darstellungen (3.35), (3.36) sowie (3.37) für alle z ∈ G0

FA(u),B(u)(z) =1

2A−1(u)(B(u) − zIp)

1/2(

−Ip −√

Ip − 4K−2A(u),B(u)(z)

)

×(B(u) − zIp)1/2A−1(u) (3.38)

= A−1(u)(B(u) − zIp)1/2U(z)T (z)U−1(z)(B(u) − zIp)

1/2A−1(u).

Dabei ist T (z) := diag (t11(z), . . . , tpp(z)) eine Diagonalmatrix mit den Einträgen

tii(z) =−λA(u),B(u)

i (z) −√

(λA(u),B(u)i (z))2 − 4

2λA(u),B(u)i (z)

, i = 1, . . . , p. (3.39)

Page 51: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.3. BEWEISE 45

Damit folgt wegen log |w| = Re (logw) für den Integranden in Gleichung (3.33)

log∣

∣det(

FA(u),B(u)(z))∣

∣ = log∣

∣det(

A−2(u)T (z)(B(u) − zIp))∣

= log∣

∣det(

A−1(u)T (z)D(z))∣

= log∣

p∏

j=1

tjj(z)λA(u),B(u)j (z)

αj(u)

=

p∑

j=1

log∣

−λA(u),B(u)j (z) −

(λA(u),B(u)j (z))2 − 4

2αj(u)

∣ (3.40)

= Re(

p∑

j=1

log−λA(u),B(u)

j (z) −√

(λA(u),B(u)j (z))2 − 4

2αj(u)

)

,

wobei α1(u), . . . , αp(u) die Eigenwerte der Matrix A(u) bezeichnen. Da die Einträge der inGleichung (3.37) definierten Matrix KA(u),B(u)(z) für alle komplexen Zahlen z holomorph sindund KA(u),B(u)(z) für alle z ∈ C\∆ diagonalisierbar ist, folgt nach Kato (1976), Seite 64, dassdie Eigenwerte von KA(u),B(u)(z) holomorph auf C \ ∆ sind. Bezeichnet

f(z) := log(det(

FA(u),B(u)(z)))

=

p∑

j=1

log−λA(u),B(u)

j (z) −√

(λA(u),B(u)j (z))2 − 4

2αj(u)(3.41)

sowie

fj(z) :=−λA(u),B(u)

j (z) −√

(λA(u),B(u)j (z))2 − 4

2αj(u), j = 1, . . . , p, (3.42)

so folgt aus der Holomorphie der Eigenwerte λA(u),B(u)j (z), j = 1, . . . , p, für die Wirtinger-

Ableitung d/dz von f(z)

d

dzf :=

1

2

(

df

dx+ i

df

dy

)

=

p∑

j=1

1

2fj(z)αj(u)

(

−dλ

A(u),B(u)j (z)

dx−λ

A(u),B(u)j (z)

dλA(u),B(u)j (z)

dx√

(λA(u),B(u)j (z))2 − 4

)

+

p∑

j=1

i1

2fj(z)αj(u)

(

−dλ

A(u),B(u)j (z)

dy−λ

A(u),B(u)j (z)

dλA(u),B(u)j (z)

dy√

(λA(u),B(u)j (z))2 − 4

)

=

p∑

j=1

1

2√

(λA(u),B(u)j (z))2 − 4

(

d

dxλ

A(u),B(u)j (z) + i

d

dyλ

A(u),B(u)j (z)

)

= 0

Page 52: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

46 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

für jede komplexe Zahl z = x+ iy ∈ G0. Damit ist f holomorph auf G0 mit der Ableitung

df

dz:=

1

2

(

df

dx− i

df

dy

)

=1

2

p∑

j=1

1√

(λA(u),B(u)j (z))2 − 4

(

d

dxλ

A(u),B(u)j (z) − i

d

dyλ

A(u),B(u)j (z)

)

=

p∑

j=1

ddzλ

A(u),B(u)j (z)

(λA(u),B(u)j (z))2 − 4

, z ∈ G0. (3.43)

Mithilfe der Ableitung von f zeigen wir nun, dass für die in Gleichung (3.41) definierte Funk-tion f und das in Gleichung (3.26) definierte logarithmische Potential UX die Beziehung

Re f = UX + c1

gilt, wobei c1 ∈ C eine Konstante ist. Dazu definieren wir die Funktion

g(z) :=d

dxUX(z) − i

d

dyUX(z), z = x+ iy, y > 0, (3.44)

und weisen nach, dass f ′ = g gilt. Da das logarithmische Potential UX(z) harmonisch auf

G1 := C \ supp(

tr[XA(u),B(u)])

ist, ist die Funktion g auf G1 differenzierbar und es gelten die Cauchy-Riemannschen Diffe-rentialgleichungen

d

dxRe g =

d2

dx2UX = − d2

dy2UX =

d

dyIm g,

d

dyRe g =

d2

dydxUX =

d2

dxdyUX = − d

dxIm g.

Damit gilt für die Wirtinger-Ableitung d/dz von g mit z = x+ iy ∈ G1

dg

dz=

1

2

(

d2

dx2UX +

d2

dy2UX

)

= 0, (3.45)

d. h. g ist holomorph auf G1. Weiter folgt aus den Definitionen von UX und g für alle z ∈ G1

die Darstellung

g(z) = −∫

z − t

|z − t|2 tr[

XA(u),B(u)(t)]

dt

= −∫

tr[

XA(u),B(u)(t)]

z − tdt = −tr

[

GA(u),B(u)(z)]

, (3.46)

Page 53: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.3. BEWEISE 47

wobei

GA(u),B(u)(z) :=

dXA(u),B(u)(t)

z − t, z ∈ C\supp (XA(u),B(u)),

die Stieltjes-Transformierte von XA(u),B(u) bezeichne. Um die Spur in Gleichung (3.46) zuberechnen, ziehen wir die in Gleichung (3.36) definierte Matrix KA(u),B(u)(z) und Darstel-lung (3.37) heran und erhalten für die Ableitung von KA(u),B(u)(z)

K ′A(u),B(u)(z) = −1

2(B(u) − zIp)

−1/2A−1(u)(B(u) − zIp)1/2

−1

2(B(u) − zIp)

1/2A−1(u)(B(u) − zIp)−1/2

= U ′(z)D(z)U−1(z) + U(z)D′(z)U−1(z) + U(z)D(z)(U−1(z)), (3.47)

z ∈ C\∆. Setzt man die Gleichungen

A−1(u)(B(u) − zIp)1/2 = (B(u) − zIp)

−1/2U(z)D(z)U−1(z) und

(B(u) − zIp)1/2A−1(u) = U(z)D(z)U−1(z)(B(u) − zIp)

−1/2,

welche aus Darstellung (3.37) folgen, in Gleichung (3.47) ein, so erhalten wir

−1

2U−1(z)(B(u) − zIp)

−1U(z)D(z) − 1

2D(z)U−1(z)(B(u) − zIp)

−1U(z)

= U−1(z)U ′(z)D(z) +D′(z) +D(z)(U−1(z))′U(z)

= U−1(z)U ′(z)D(z) +D′(z) −D(z)U−1(z)U ′(z), (3.48)

wobei das letzte Gleichheitszeichen gilt, da U−1(z)U(z) = Ip die Identität

(U−1(z))′U(z) = −U−1(z)U ′(z) (3.49)

impliziert. Da D(z) eine Diagonalmatrix ist, folgt aus Gleichung (3.48) für die Diagonalele-mente der Matrix U−1(z)(B(u) − zIp)

−1U(z) die Darstellung

[U−1(z)(B(u) − zIp)−1U(z)]jj =

1

λA(u),B(u)j (z)

(

−[U−1(z)U ′(z)]jjλA(u),B(u)j (z)

− d

dzλ

A(u),B(u)j (z) + λ

A(u),B(u)j (z)[U−1(z)U ′(z)]jj

)

= −ddzλ

A(u),B(u)j (z)

λA(u),B(u)j (z)

für alle z ∈ C\∆ und j = 1, . . . , p. Weiter liefern die Gleichungen (2.31) und (3.38) für dieStieltjes-Transformierte GA(u),B(u)(z) die Darstellung

GA(u),B(u)(z) =

zIp −B(u) − 2A(u)FA(u),B(u)(z)A(u)−1

= (B(u) − zIp)−1/2U(z)T (z)U−1(z)(B(u) − zIp)

−1/2

Page 54: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

48 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

für alle z ∈ G, wobei G gegeben ist durch

G := C\supp(

WA(u),B(u)

)

∪ supp(

XA(u),B(u)

)

∪ ∆, (3.50)

und T (z) := diag(

t11(z), . . . , tpp(z))

eine Diagonalmatrix mit den Einträgen

tii(z) =λ

A(u),B(u)i (z)

(λA(u),B(u)i (z))2 − 4

, i = 1, . . . , p,

ist. Damit erhalten wir schließlich für die Funktion g mit Gleichung (3.46)

g(z) = −tr[

GA(u),B(u)(z)]

= −p∑

j=1

[U−1(z)(B(u) − zIp)−1U(z)]jj tjj(z)

=

p∑

j=1

ddzλ

A(u),B(u)j (z)

(λA(u),B(u)j (z))2 − 4

(3.51)

für alle z ∈ G. Daher gilt wegen Gleichung (3.43) und der Definition von g für alle komplexenZahlen z = x+ iy ∈ G

f ′(z) =

p∑

j=1

ddzλ

A(u),B(u)j (z)

(λA(u),B(u)j (z))2 − 4

= g(z) =d

dxUX(z) − i

d

dyUX(z). (3.52)

Bezeichnet h := Re f, so folgt mit Gleichung (3.52)

f ′ =d

dxh− i

d

dyh =

d

dxUX − i

d

dyUX ,

d. h.d

dx(h− UX) ≡ 0 und

d

dy(h− UX) ≡ 0.

Dies impliziert für alle z ∈ G die Identität Re f(z) = UX(z)+c1 mit einer Konstanten c1 ∈ C,d. h. es gilt

Re f(z) = Re(

log(

det(

FA(u),B(u)(z))))

= log | det(

FA(u),B(u)(z))

| = UX(z) + c1

für alle z ∈ G.

Beweis von Behauptung (iii) Aus den Behauptungen (i) und (ii) folgt für den Grenzwertin (3.33) für alle z ∈ G

limnk→u

1

nplog∣

∣detRn,k(z)∣

∣ = − 1

pu

∫ u

0

(UX(z) + c1)ds

= − 1

pu

∫ u

0

log1

|z − t|tr[

XA(s),B(s)(t)]

dtds− c

= −∫

log1

|z − t|1

u

∫ u

0

tr

[

1

pXA(s),B(s)(t)

]

dsdt− c

= −Uσ(z) − c, (3.53)

Page 55: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.3. BEWEISE 49

wobei Uσ(z) das logarithmische Potential des Maßes σ mit Lebesgue-Dichte fA(u),B(u) in (3.8)bezeichne und c ∈ C eine Konstante ist. Damit gilt nach Gleichung (3.23)

limnk→u

U δn,k(z) = Uσ(z) + c, z ∈ G. (3.54)

Da die Folge (δnj ,kj)j∈N nach Voraussetzung kompakten Träger in dem Intervall [−M,M ]

hat, besitzt sie nach Hellys Auswahltheorem [siehe z. B. Saff und Totik (1997)] eine schwachkonvergente Teilfolge µm mit Grenzwert µ und

supp (µ) ⊂ [−M,M ].

Weiter implizieren die Stetigkeit der Funktion

m(y) := log1

|z − y| , z ∈ C\[−M,M ],

auf [−M,M ] und die schwache Konvergenz der Teilfolge µm gegen µ für die logarithmischenPotentiale

limm→∞

Uµm(z) = Uµ(z), |z| > M.

Daraus erhalten wir mit Gleichung (3.54)

Uµ(z) = Uσ(z) + c, z ∈ G, |z| > M.

Da σ und µ kompakten Träger haben und c als Konstante auf G harmonisch ist, folgt ausdem Eindeutigkeitstheorem für logarithmische Potentiale [Saff und Totik (1997)] die Identität

σ = µ (3.55)

und damit die schwache Konvergenz der empirischen Nullstellenverteilung δn,k gegen dasMaß σ mit der Dichte fA(u),B(u).

3.3.2 Beweis von Folgerung 3.3

Da die Matrizen A(u) | u > 0 nach Voraussetzung positiv definit sind, existieren eindeutigepositiv definite Wurzeln A1/2(u) | u > 0 und wir definieren für jedes u > 0 die Matrix

LA(u),B(u)(t) := A−1/2(u)(B(u) − tIp)A−1/2(u), t ∈ R (3.56)

[vgl. Gleichung (1.22)]. LA(u),B(u)(t) ist für alle t ∈ R orthogonal diagonalisierbar, d. h. es gilt

LA(u),B(u)(t) = U1(t)D1(t)UT1 (t), t ∈ R, (3.57)

wobei die Einträge der Matrix

D1(t) = D1(t, u) = diag(

λA(u),B(u)1 (t), . . . , λA(u),B(u)

p (t))

Page 56: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

50 KAPITEL 3. NULLSTELLEN ORTHONORMALER MATRIXPOLYNOME

die Eigenwerte von LA(u),B(u)(t) und U1(t) = U1(t, u) orthogonale Matrizen sind. Damit folgtfür die Ableitung von LA(u),B(u)(t) die Gleichung

L′A(u),B(u)(t) = −A−1(u)

= U ′1(t)D1(t)U

T1 (t) + U1(t)D1

′(t)UT1 (t) + U1(t)D1(t)(U1

T (t))′,

die wegen (UT1 (t))′U1(t) = −UT

1 (t)U ′1(t) äquivalent zu

−U1T (t)A−1(u)U1(t) = U1

T (t)U1′(t)D1(t) +D1

′(t) −D1(t)U1T (t)U1

′(t) (3.58)

ist. Demzufolge gilt für die Diagonalelemente der Matrix auf der linken Seite von (3.58)

[U1T (t)A−1(u)U1(t)]jj = − d

dtλ

A(u),B(u)j (t), j = 1, . . . , p. (3.59)

Wie in Satz 1.15 angegeben, lässt sich die Dichte des Matrix-Chebyshev-Maßes 1. Art in derForm (1.24) darstellen, wobei hier die in Gleichung (1.25) definierten Einträge der MatrixT (t) = T (t, u) ebenfalls von u abhängen. Damit folgt wegen Gleichung (3.59)

tr[

dXA(u),B(u)(t)]

=

p∑

j=1

[UT1 (t)A−1(u)U1(t)]jj tjj(t)dt

=

p∑

j=1

− ddtλ

A(u),B(u)j (t)

π√

4 − (λA(u),B(u)j (t))2

In

−2<λA(u),B(u)j (t)<2

odt

und mit Gleichung (3.8) die erste Behauptung der Folgerung.

Sind die Matrizen A(u) und B(u) für u > 0 zusätzlich kommutativ, so lassen sie sich simultanorthogonal diagonalisieren [siehe z. B. Horn und Johnson (1985), S. 50], d. h. es existierenorthogonale Matrizen V (u) | u > 0 mit

V T (u)A(u)V (u) = diag (α1(u), . . . , αp(u)) und (3.60)

V T (u)B(u)V (u) = diag (β1(u), . . . , βp(u)) , (3.61)

wobei αj(u), j = 1, . . . , p, bzw. βj(u), j = 1, . . . , p, die Eigenwerte der Matrizen A(u) bzw.B(u) bezeichnen. Setzt man die Gleichungen (3.60) und (3.61) in die Gleichung (3.56) ein, sofolgt für die Eigenwerte von LA(u),B(u)(t)

λA(u),B(u)j (t) =

βj(u) − t

αj(u), j = 1, . . . , p, (3.62)

und damit die zweite Behauptung der Folgerung.

Page 57: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

3.3. BEWEISE 51

Bemerkung 3.8 Die im Beweis von Satz 3.2 [siehe Teil (ii)] nachgewiesene Identität∫

log1

|z − t| tr[

XA(s),B(s)(t)]

dt+ c = log∣

∣det(

FA(s),B(s)(z))∣

∣ , (3.63)

c ∈ C, erhalten wir in dem Fall, in dem die Matrizen A(u) | u > 0 positiv definit und dieMatrizen A(u) | u > 0 und B(u) | u > 0 kommutativ sind, wie im Folgenden dargestellt,unmittelbar aus der Beziehung

log1

|z − t|dγA(s),B(s)j (t) = log

∣νA(s),B(s)j (z)

∣ , (3.64)

z ∈ C\[βj(s) − 2αj(s), βj(s) + 2αj(s)], mit

dγA(u),B(u)j (t) :=

I[βj(u)−2αj(u),βj(u)+2αj(u)](t)

π√

4α2j (u) − (t− βj(u))2

dt sowie

νA(u),B(u)j (z) :=

z − βj(u) −√

(z − βj(u))2 − 4α2j (u)

2α2j (u)

,

j = 1, . . . , p, wobei αj(u), j = 1, . . . , p, und βj(u), j = 1, . . . , p, die Eigenwerte der Matri-zen A(u) und B(u) bezeichnen.

Sind die Matrizen A(u) | u > 0 positiv definit, so vereinfacht sich die Darstellung (3.35) zu

FA(u),B(u)(z) =1

2A−1(u)(zIp −B(u))A−1(u) (3.65)

−1

2A−1/2(u)

(A−1/2(u)(zIp −B(u))A−1/2(u))2 − 4Ip A

−1/2(u),

z ∈ C\supp(

WA(u),B(u)

)

[siehe Duran (1999)]. Dabei wird die Wurzel der Matrix

MA(u),B(u)(z) :=(

A−1/2(u)(zIp −B(u))A−1/2(u))2 − 4Ip (3.66)

analog zum symmetrischen Fall [siehe Beweis von Satz 3.2] über die Diagonalform der MatrixMA(u),B(u)(z) und

√w durch |w −

√w2 − 4| < 2 für w ∈ C\[−2, 2] definiert. Aus der Kom-

mutativität der Matrizen A(u) und B(u), u > 0, und Gleichung (3.65) folgt nun, dass dieEigenwerte von FA(u),B(u)(z) gerade durch die Funktionen ν

A(u),B(u)j (z), j = 1, . . . , p, gegeben

sind. Weiter folgt aus der Darstellung (1.24), dass γA(u),B(u)j , j = 1, . . . , p, die Eigenwerte

von XA(u),B(u) sind. Demzufolge erhalten wir wegen (3.64) die Gleichung (3.63) mit c = 0 unddaraus sofort die Identität (3.55) [siehe z. B. Mattner (1992)].

Page 58: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome
Page 59: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Kapitel 4

Matrixmaße und Quasi-Geburts- und

Todesprozesse

In diesem Kapitel stellen wir einen Zusammenhang zwischen zeitdiskreten bzw. zeitstetigenQuasi-Geburts- und Todesprozessen, d. h. homogenen Markovprozessen mit einer blocktri-diagonalen Übergangsmatrix P bzw. einer blocktridiagonalen Intensitätsmatrix Q, und or-thogonalen Matrixpolynomen her. Die Grundlage dafür stellt eine zu den Markovprozessenassoziierte Folge von Matrixpolynomen dar, die unter bestimmten Voraussetzungen an dieBlöcke von P bzw. Q orthogonal bzgl. eines positiv definiten Matrixmaßes ist. In diesemFall können wir die Übergangswahrscheinlichkeiten der Prozesse durch einen Integralausdrucküber die orthogonalen Matrixpolynome sowie das zugehörige Orthogonalitätsmaß charakte-risieren. Auf der Basis dieser Integraldarstellung diskutieren wir Eigenschaften, insbesondereRekurrenz und Transienz, der zugrunde liegenden Prozesse und leiten mithilfe der in Kapi-tel 2 bewiesenen Matrixkettenbruchentwicklungen für matrixwertige Orthogonalitätsmaße aufden Intervallen [−1, 1] und [0,∞) Rekurrenzkriterien für zeitdiskrete und zeitstetige Quasi-Geburts- und Todesprozesse her.

4.1 Zeitdiskrete Quasi-Geburts- und Todesprozesse

Zunächst betrachten wir ausschließlich zeitdiskrete Quasi-Geburts- und Todesprozesse. Ent-sprechende Aussagen für zeitstetige Quasi-Geburts- und Todesprozesse können Kapitel 4.2entnommen werden.

4.1.1 Einführung

Im Folgenden sei (Ω,F , P, (Xn)n∈N0) bzw. (Xn)n≥0 ein zeitdiskreter homogener Markovprozess(homogene Markovkette) über dem zweidimensionalen Zustandsraum

Cp := (i, j) ∈ N0 × 1, . . . , p, p ∈ N, p <∞, (4.1)

53

Page 60: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

54 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

wobei Ω die Ereignismenge, F die zugrunde liegende σ-Algebra und P das Wahrscheinlich-keitsmaß bezeichne. Für einen Zustand (i, j) ∈ Cp wird i das Level und j die Phase desZustandes genannt. Im Folgenden nehmen wir an, dass aus einem Zustand (i, j) ∈ Cp nurÜbergänge in Zustände in den Leveln i, i + 1, i ≥ 0, oder i − 1, i ≥ 1, möglich seien. Dannerhalten wir durch eine lexikographische Anordnung der Zustände, d. h.

(0, 1), . . . , (0, p), (1, 1), . . . , (1, p), . . . ,

für den Prozess (Xn)n≥0 eine blocktridiagonale (Einschritt)-Übergangsmatrix der Form

P :=

B0 A0

CT1 B1 A1

CT2 B2 A2

. . . . . . . . .

, (4.2)

wobei die Blöcke An, n ≥ 0, Bn, n ≥ 0, und Cn, n ≥ 1, p × p-Matrizen sind und die(Einschritt)-Übergangswahrscheinlichkeiten

P(i,j),(i′,j′) := P (Xn+1 = (i′, j′) | Xn = (i, j)) , (i, j), (i′, j′) ∈ Cp, (4.3)

enthalten. Bezeichnet Pii′ den Block in der Position (i, i′) der Matrix P, so steht die Wahr-scheinlichkeit für den Übergang von Zustand (i, j) in den Zustand (i′, j′) im Eintrag (j, j′)der Matrix Pii′ , d. h. es gilt

P(i,j),(i′,j′) = eTj Pii′ej′ ,

wobei eTj := (0, . . . , 0, 1, 0, . . . , 0) der j-te Einheitsvektor im R

p sei.

Den eingeführten Bezeichnungen entsprechend heißt der Prozess (Xn)n≥0 mit Übergangsma-trix (4.2) level-abhängig, und level-unabhängig, falls An = A und Bn = B für alle n ≥ 0sowie Cn = C für alle n ≥ 1 gilt. Aufgrund der formalen Ähnlichkeit der Übergangsmatrix Pzu der tridiagonalen Übergangsmatrix eines klassischen Random Walks auf den nichtnegati-ven ganzen Zahlen bzw. zu der tridiagonalen Übergangsfunktion eines gewöhnlichen Geburts-und Todesprozesses wird (Xn)n≥0 auch Random Walk oder (zeitdiskreter) Quasi-Geburts-und Todesprozess auf dem Gitter Cp genannt.

Zahlreiche zeitdiskrete homogene Markovprozesse, insbesondere Random Walks, können durchEinbettung ihrer Zustandsräume in das in (4.1) definierte Gitter Cp als zeitdiskrete Quasi-Geburts- und Todesprozesse aufgefasst werden [siehe Kapitel 4.1.3]. Weiterhin treten homo-gene Markovketten mit einem Zustandsraum der Form (4.1) und einer Übergangsmatrix derForm (4.2) beispielsweise bei der Untersuchung von in zeitstetigen Markovprozessen mit Zu-standsraum Cp und einer blocktridiagonalen Intentsitätsmatrix Q eingebetteten Markovkettenauf [siehe z. B. Latouche und Ramaswami (1999) sowie Kapitel 4.2].

Page 61: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 55

4.1.2 Zeitdiskrete Quasi-Geburts- und Todesprozesse und orthogo-

nale Matrixpolynome

In diesem Kapitel stellen wir eine Verbindung zwischen zeitdiskreten Quasi-Geburts- undTodesprozessen über dem Zustandsraum (4.1) und orthogonalen Matrixpolynomen her. Dazuassoziieren wir zu der in (4.2) definierten Einschritt-Übergangsmatrix P analog zum eindimen-sionalen Fall [siehe z. B. Karlin und McGregor (1959)] eine durch die Drei-Schritt-Rekursion

xQn(x) = AnQn+1(x) +BnQn(x) + CTnQn−1(x), n ≥ 0, (4.4)

mit den Anfangsbedingungen Q−1(x) = 0p und Q0(x) = Ip definierte Folge von p × p-Matrixpolynomen Qnn≥0, wobei die Rekursionskoeffizienten die Blöcke aus der in (4.2)definierten Matrix P sind. Während im eindimensionalen Fall (p = 1) zu den durch die Re-kursion (4.4) definierten Polynomen Qnn≥0 immer ein Orthogonalitätsmaß existiert [siehez. B. Karlin und McGregor (1959)], sind die Polynome Qnn≥0 im Fall p > 1 nicht notwen-dig orthogonal bzgl. eines Matrixmaßes. Im Mehrdimensionalen existiert nach Satz 1.5 einOrthogonalitätsmaß für die Matrixpolynome Qnn≥0, falls für die Rekursionskoeffizienten

An = Cn+1, An nichtsingulär, sowie BTn = Bn

für alle n ≥ 0 gilt, d. h. falls die in (4.2) definierte Übergangsmatrix P symmetrisch ist. Dadies in der Regel jedoch nicht erfüllt ist, geben wir zunächst, unter der Voraussetzung derNichtsingularität der Matrizen An, n ≥ 0, und Cn, n ≥ 1, ein notwendiges und hinreichendesKriterium für die Existenz eines Orthogonalitätsmaßes für die Matrixpolynome Qnn≥0 an.Dabei seien die Block-Hankelmatrizen H2n, n ≥ 0, wie in (2.1) definiert, wobei Sn, n ≥ 0, diein (1.1) definierten Momente des zugrunde liegenden Matrixmaßes seien. Sind die Vorausset-zungen von Satz 4.1 erfüllt, so wird das entsprechende Orthogonalitätsmaß im Folgenden auchRandom Walk Matrixmaß oder Spektralmaß und Qn, n ≥ 0, Random Walk Matrixpolynomgenannt.

Satz 4.1 Die Matrizen An, n ≥ 0, und Cn, n ≥ 1, in der Übergangsmatrix (4.2) seiennichtsingulär und Qnn≥0 sei eine durch die Rekursion (4.4) definierte Folge von Matrixpo-lynomen. Es existiert genau dann ein Matrixmaß Σ auf R mit positiv definiten Hankelmatri-zen H2n, n ≥ 0, so dass Qnn≥0 orthogonal bzgl. Σ ist, falls es eine Folge von nichtsingulärenMatrizen Rnn≥0 gibt mit

RnBnR−1n =

(

RnBnR−1n

)T ∀ n ≥ 0 sowie

RTnRn = C−1

n · · ·C−11 (RT

0R0)A0 · · ·An−1 ∀ n ≥ 1. (4.5)

Beweis Zunächst nehmen wir an, dass die durch die Rekursion (4.4) definierten Matrixpo-lynome Qnn≥0 orthogonal bzgl. des Matrixmaßes Σ und die Hankelmatrizen H2n für allen ≥ 0 positiv definit seien. Dann gilt

R

Qi(x)dΣ(x)QTj (x) = 0p, i 6= j, sowie

R

Qi(x)dΣ(x)QTi (x) =: Fi > 0, i ≥ 0.

Page 62: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

56 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Nun definieren wir die Matrizen Rn := F−1/2n , n ≥ 0, und damit die Matrixpolynome

Qn(x) := RnQn(x), n ≥ 0. (4.6)

Definitionsgemäß sind die Polynome Qnn≥0 orthonormal bzgl. Σ, d. h. es existieren nicht-singuläre p× p-Matrizen Dnn≥1 und symmetrische p× p-Matrizen Enn≥0 mit

xQn(x) = Dn+1Qn+1(x) + EnQn(x) +DTn Qn−1(x), n ≥ 0, (4.7)

[siehe Satz 1.5], wobei die Anfangsbedingungen Q−1(x) = 0p und Q0(x) = R0 gelten. Ande-rerseits genügen die Polynome Qnn≥0 wegen (4.4) der Rekursion

xQn(x) = RnAnR−1n+1Qn+1(x) +RnBnR

−1n Qn(x) +RnC

TnR

−1n−1Qn−1(x), n ≥ 0. (4.8)

Ein Vergleich der Koeffizienten in den Rekursionen (4.7) und (4.8) führt zu

Dn+1 = RnAnR−1n+1, En = RnBnR

−1n = ET

n sowie DTn = RnC

TnR

−1n−1. (4.9)

Damit folgt die Symmetrie der Matrizen RnBnR−1n für alle n ≥ 0 sowie die Identität

RnAnR−1n+1 = (Rn+1C

Tn+1R

−1n )T = (RT

n )−1Cn+1RTn+1, n ≥ 1,

welche äquivalent zuRT

n+1Rn+1 = C−1n+1(R

TnRn)An, n ≥ 1,

ist. Daraus erhalten wir induktiv

RTnRn = C−1

n · · ·C−11 RT

0R0A0 · · ·An−1, n ≥ 1,

und damit den ersten Teil des Satzes.

Für die Blöcke in der Übergangsmatrix P gelten nun die Bedingungen in (4.5) mit einerFolge Rnn≥0 nichtsingulärer Matrizen. Wie im ersten Teil des Beweises erfüllen die PolynomeQn(x) := RnQn(x), n ≥ 0, die Rekursion (4.8) und mit den Gleichungen in (4.5) folgt dieSymmetrie der Matrizen

En := RnBnR−1n , n ≥ 0,

sowie die Identität

Dn+1 := RnAnR−1n+1 = (Rn+1C

Tn+1R

−1n )T , n ≥ 0,

wobei Dnn≥1 nichtsinguläre Matrizen sind. Demzufolge genügen die Polynome Qnn≥0

einer Rekursion der Form (4.7). Somit existiert nach Favards Theorem [siehe Satz 1.5] einpositiv definites Matrixmaß Σ, so dass die Polynome Qnn≥0 orthonormal bzgl. Σ, unddamit die Polynome Qn(x) = R−1

n Qn(x) orthogonal bzgl. Σ sind.Zum Nachweis der positiven Definitheit der Hankelmatrizen H2n für alle n ≥ 0 schreiben wirdie Hankelmatrizen in der Form

H2n =

(

H2n−2 h2n−1

hT2n−1 S2n

)

, n ≥ 0,

Page 63: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 57

wobei hT2n−1, n ≥ 0, wie in (2.5) definiert sei. Dann ist die Matrix H2n genau dann positiv

definit, wenn H2n−2 und das Schurkomplement von S2n in H2n, d. h. S2n−S−2n, positiv definit

sind [siehe z. B. Horn und Johnson (1985), S. 472], wobei S−2n := hT

2n−1H−12n−2h2n−1 bezeichne

[vgl. Gleichung (2.3)]. Nun definieren wir die monischen Matrixpolynome

Qn(x) := R−1

0 D1 · · ·DnQn(x).

Dann ist die Matrix

〈Qn, Q

n〉 =

Qn(t)dΣ(t)QT

n(t) = R−1

0 D1 · · ·DnDTn · · ·DT

1 (RT0 )−1

nichtsingulär. Andererseits können wir anlog zum Beweis von Lemma 3.3 in der Arbeit vonDette und Studden (2002a) die Identität

〈Qn, Q

n〉 = S2n − S−

2n

nachweisen. Damit folgt induktiv die positive Definitheit der Hankelmatrizen H2n, n ≥ 0.

Bemerkung 4.2 Die Bedingungen in (4.5) bedeuten eine Symmetrisierung der Übergangs-matrix P, d. h. eine notwendige und hinreichende Bedingung für die Existenz eines Spek-tralmaßes ist die Existenz einer Folge von nichtsingulären Matrizen Rnn≥0, so dass dieMatrix RPR−1 symmetrisch ist, wobei R die Blockdiagonalmatrix R := diag (R0, R1, . . .) be-zeichne. Der Fall der nicht notwendigerweise symmetrischen Übergangsmatrix P wird somitauf den Fall einer symmetrischen Blocktridiagonalmatrix zurückgeführt, in dem die Existenzeines Spektralmaßes aus Favards Theorem folgt. Dabei ist leicht zu sehen, dass neben der Fol-ge Rnn≥0 auch jede Folge Rnn≥0 := UnRnn≥0 mit orthogonalen Matrizen Unn≥0 dieBedingungen in (4.5) erfüllt. Weiterhin wird ein Random Walk Matrixmaß nicht notwendigdurch den zugrunde liegenden Random Walk eindeutig bestimmt.

Bemerkung 4.3 Sind die Voraussetzungen von Satz 4.1 erfüllt mit einem Spektralmaß Σ, sosind die in (4.6) definierten Polynome Qnn≥0 = RnQnn≥0 orthonormal bzgl. Σ, d. h. es gilt

Ip = 〈Q0, Q0〉 =

Q0(x)dΣ(x)QT0 = R0S0R

T0 .

Dies impliziert für das 0-te Moment des Random Walk Matrixmaßes Σ

S0 = R−10 (RT

0 )−1 = (RT0R0)

−1.

Insbesondere gilt im eindimensionalen Fall S0 = 1 sowie

〈Qn, Qn〉 =C1 · · ·Cn

A0 · · ·An−1

[vgl. Karlin und McGregor (1959)].

Page 64: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

58 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Es sei nun (Xn)n≥0 ein Quasi-Geburts- und Todesprozess auf dem Gitter Cp, für den einSpektralmaß Σ existiere. Dann können wir die n-Schritt-Übergangswahrscheinlichkeiten

P n(i,j),(i′,j′) := P (Xn = (i′, j′) | X0 = (i, j)) , (i, j), (i′, j′) ∈ Cp,

des Prozesses durch einen Integralausdruck über Σ und die zugehörigen Random Walk Ma-trixpolynome charakterisieren. Diese Darstellung verallgemeinert die für die n-Schritt-Über-gangswahrscheinlichkeiten eines klassischen Random Walks auf den nichtnegativen ganzenZahlen hergeleitete Integraldarstellung [siehe Karlin und McGregor (1959) sowie Dette undStudden (1997)] und stellt die Grundlage für die Untersuchung der Eigenschaften des zugrundeliegenden Prozesses dar [siehe Kapitel 4.1.4].

Satz 4.4 Es sei (Xn)n≥0 ein zeitdiskreter Quasi-Geburts- und Todesprozess mit einem Zu-standsraum der Form (4.1) und einer Einschritt-Übergangsmatrix der Form (4.2). Weiterseien die Voraussetzungen von Satz 4.1 erfüllt mit Spektralmaß Σ und durch die Drei-Schritt-Rekursion (4.4) definierten Random Walk Matrixpolynomen Qnn≥0. Dann gilt

P nij =

(

xnQi(x)dΣ(x)QTj (x)

)(

Qj(x)dΣ(x)QTj (x)

)−1

, i, j ≥ 0, (4.10)

wobei P nij den Block an der Stelle (i, j) in der n-Schritt-Übergangsmatrix P n bezeichne.

Beweis Es bezeichne Q(x) := (QT0 (x), QT

1 (x), . . .)T . Dann ist Rekursion (4.4) äquivalent zu

xQ(x) = PQ(x).

Iterativ folgt daraus die Gleichung

xnQ(x) = P nQ(x),

welche die Identität∫

xnQ(x)dΣ(x)QTj (x) = P n

Q(x)dΣ(x)QTj (x) (4.11)

impliziert. Da die Polynome Qnn≥0 nach Voraussetzung orthogonal bzgl. Σ sind, ist dasIntegral auf der rechten Seite von Gleichung (4.11) nur für den Eintrag Qj(x) in Q(x) ungleichNull und wir erhalten somit die Darstellung (4.10).

Bemerkung 4.5 Sind die Voraussetzungen von Satz 4.4 erfüllt mit Spektralmaß Σ, so folgtaus der Integraldarstellung (4.10) mit i = j = 0 für die Momente von Σ

Sn = P n00(R

T0R0)

−1, n ≥ 0.

Insbesondere sind die n-Schritt-Rückkehrwahrscheinlichkeiten in den Zustand 0 eines RandomWalks auf den nichtnegativen ganzen Zahlen genau die Momente des zugehörigen RandomWalk Maßes.

Page 65: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 59

Der folgende Satz liefert eine hinreichende Bedingung dafür, dass ein Random Walk Matrix-maß eindeutig bestimmt ist und sein Träger in dem kompaktem Intervall [−1, 1] liegt.

Satz 4.6 Es seien die Voraussetzungen von Satz 4.1 erfüllt mit einer Folge Rnn≥0 nichtsin-gulärer Matrizen. Ist die Blockdiagonalmatrix R := diag (R0, R1, . . .) symmetrisch und besitztdie Matrix

P := RPR−1 (4.12)

nur nichtnegative Einträge, so existiert ein eindeutig bestimmtes Spektralmaß Σ = σiji,j=1,...,p

mit supp (σij) ⊂ [−1, 1] für alle i, j = 1, . . . , p.

Beweis Die Matrix P ist nach Voraussetzung symmetrisch und hat nur nichtnegative Ein-träge. Sind v und w zwei Vektoren mit positiven Einträgen, welche die Ungleichungen

P v ≤ w und Pw ≤ v (4.13)

(komponentenweise) erfüllen, so folgt mit Schurs Test [siehe z. B. Halmos und Sunder (1978)]

‖P‖2 ≤ 1. (4.14)

Es sei nun v := w := R1 mit 1T = (1, 1, . . .). Dann folgt wegen (4.12)

P v = PR1 = RP1 ≤ R1 = v,

d. h. die Vektoren v = w = R1 erfüllen die Ungleichungen in (4.13), welche (4.14) implizieren.Nun definieren wir die Matrix

Πj := C−1j · · ·C−1

1 RT0R0A0 · · ·Aj−1 = RT

j Rj, j ≥ 0, (4.15)

und damit das Innenprodukt

〈x, y〉Π :=∞∑

i=0

xTi Πiyi (4.16)

mit x = (xT0 , x

T1 , . . .), y = (yT

0 , yT1 , . . .) sowie xj, yj ∈ R

p, j ≥ 0, wobei ‖ · ‖Π die zugehörigeNorm bezeichne. Weiter definieren wir den Folgenraum

ℓ2(Rp) := x = (xT0 , x

T1 , . . .) | xj ∈ R

p, j ≥ 0; ‖x‖2Π =

∞∑

i=0

xTi Πixi <∞. (4.17)

Dann induziert die Einschritt-Übergangsmatrix in (4.2) einen beschränkten selbstadjungiertenOperator P auf ℓ2(Rp) mit Norm kleiner gleich 1 und das Spektralmaß ist eindeutig bestimmt:Aus der Definition von P und Πj = ΠT

j folgt zunächst die Identität

ΠiPij = P TjiΠj ∀ i, j ≥ 0

Page 66: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

60 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

und damit

〈Px, y〉Π =∞∑

j=0

∞∑

i=0

xTj P

Tij Πiyi =

∞∑

j=0

∞∑

i=0

xTj ΠjPjiyi = 〈x, Py〉Π,

d. h. der Operator P ist selbstadjungiert bzgl. des Innenproduktes 〈·, ·〉Π. Weiter erhalten wirmit Π := RTR und Ungleichung (4.14) für jedes x die Abschätzung

‖Px‖Π = xTP T ΠPx = xTRT P T PRx = ‖PRx‖2

≤ ‖P‖2‖Rx‖2 ≤ xTRTRx = xT Πx = ‖x‖Π,

welche ‖P‖Π ≤ 1 und damit die Behauptung des Satzes impliziert.

Bemerkung 4.7 Da die Voraussetzungen von Satz 4.6 in zahlreichen Beispielen erfüllt sind[siehe z. B. Kapitel 4.1.3], lässt sich vermuten, dass der Träger jedes Random Walk Matrixma-ßes in dem Intervall [−1, 1] liegt. Für einen Random Walk auf den nichtnegativen ganzen Zah-len existiert immer ein (eindeutig bestimmtes) Random Walk Maß ψ mit supp (ψ) ⊂ [−1, 1],da für p = 1 die Voraussetzungen der Sätze 4.1 und 4.6 stets erfüllt sind. Weitere Detailszu dem klassischen Resultat können der Arbeit von Karlin und McGregor (1959) sowie derMonografie von Dette und Studden (1997) entnommen werden.

Bemerkung 4.8 Insbesondere in zahlreichen Beispielen aus der Warteschlangentheorie istdie Voraussetzung der Nichtsingularität der Matrizen Cn, n ≥ 1, in der zugehörigen Über-gangsmatrix P der Form (4.2) nicht gegeben [siehe z. B. Latouche und Ramaswami (1999)].Daher zeigen wir in dieser Bemerkung, wie die Existenz eines Spektralmaßes in diesem Fallfolgt. Dazu weisen wir nach, dass die Gleichungen

RnBn = EnRn ∀ n ≥ 0 und (4.18)

Cn+1RTn+1Rn+1 = RT

nRnAn ∀ n ≥ 0, (4.19)

hinreichend für die Existenz eines Spektralmaßes sind, wobei Enn≥0 eine Folge symmetri-scher Matrizen sei. Es ist leicht zu sehen, dass die Gleichungen (4.18) und (4.19) unter denVoraussetzungen von Satz 4.1 äquivalent zu den Bedingungen in (4.5) sind. Die dem Nachweisder Existenz eines Spektralmaßes zugrunde liegenden Resultate aus der Theorie der selbstad-jungierten Operatoren werden beispielsweise von Berezanskii (1968) ausführlich erläutert undbewiesen.

Wie im Beweis von Satz 4.6 definieren wir die Matrix Πj := RTj Rj, j ≥ 0, sowie den Folgen-

raum ℓ2(Rp) [siehe (4.17)]. Weiter bezeichne

ℓ2(Rp×p) :=

X =(

XT0 , X

T1 , . . .

)T | Xj ∈ Rp×p, j ≥ 0; 〈〈X,X〉〉 <∞

mit dem matrixwertigen "inneren Produkt"

〈〈X,Y 〉〉 :=∞∑

i=0

XTi ΠiYi,

Page 67: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 61

X =(

XT0 , X

T1 , . . .

)T, Y =

(

Y T0 , Y

T1 , . . .

)T, Xj, Yj ∈ R

p×p, j ≥ 0. Dabei besitzt 〈〈·, ·〉〉 bis aufdie Definitheit zu den Eigenschaften eines gewöhnlichen Innenproduktes analoge Eigenschaftenund wird daher auch Pseudoinnenprodukt genannt. Der Folgenraum ℓ2(Rp×p) ist, versehen mitdem Innenprodukt

〈X,Y 〉 :=1

ptr 〈〈X,Y 〉〉,

ein Hilbertraum und isometrisch isomorph zu dem Raum ℓ2(Rp). Weiter induziert die in (4.2)definierte Übergangsmatrix P einen Operator P auf ℓ2(Rp×p), d. h.

(PX)n = AnXn+1 +BnXn + CTnXn−1, n ≥ 0, X−1 = 0p,

sowie einen Operator J auf ℓ2(Rp), d. h.

(Jx)n = Anxn+1 +Bnxn + CTn xn−1, n ≥ 0, x−1 = 0.

Wie im Beweis von Satz 4.6 implizieren die Gleichungen (4.18) und (4.19) die IdentitätP T

ij Πi = ΠjPji und damit die Selbstadjungiertheit des Operators J bzgl. des Innenproduk-tes 〈·, ·〉Π. Damit folgt aus dem Spektralsatz für selbstadjungierte Operatoren für den Ope-rator J die Darstellung Jx =

λEλx, wobei (Eλ)λ die Spektralschar zu J bezeichne. Dieseinduziert durch

(EλU)x := Eλ(Ux), U ∈ ℓ2(Rp×p), x ∈ Rp,

eine Spektralschar (Eλ)λ zu dem Operator P auf ℓ2(Rp×p).

Mit den eingeführten Bezeichnungen sowie E(j) := (0p, . . . , 0p, Ip, 0p, . . .)T ∈ ℓ2(Rp×p) (Ip steht

an der j-ten Stelle) definieren wir nun das Spektralmaß durch

Σ(λ) := 〈〈E(0), EλE(0)〉〉 ∈ R

p×p.

Dann folgt mit ähnlichen Argumenten wie im Beweis von Theorem 2.4 in Kapitel VII, §2, inder Monografie von Berezanskii (1968) die Identität

Qi(λ)dΣ(λ)QTj (λ) = 〈〈E(i), E(j)〉〉 = δijΠj, i, j = 0, 1, . . . .

Mit den im Beweis von Satz 4.4 angeführten Argumenten erhalten wir daraus für die Blöckeder n-Schritt-Übergangsmatrix P n

P nijΠj =

λnQi(λ)dΣ(λ)QTj (λ), i, j = 0, 1, . . . .

Weiter können wir wie im Beweis von Satz 4.6 schließen, dass der Träger des Spektralmaßesin dem Intervall [−1, 1] liegt, falls die in (4.12) definierte Matrix P nur nichtnegative Einträgebesitzt und PR = RP , R = diag (R0, R1, . . . , ) , gilt.

Page 68: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

62 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Zum Abschluss dieses Abschnittes stellen wir in Satz 4.9 einen Zusammenhang zwischen denStieltjes-Transformierten [siehe Gleichung (1.30)] zweier eindeutig bestimmter Spektralma-ße her, deren zugrunde liegenden Übergangsmatrizen sich lediglich durch den ersten Blockunterscheiden. Das Resultat stellt ein nützliches Hilfsmittel zur Berechnung der Stieltjes-Transformierten eines Spektralmaßes dar, falls die Stieltjes-Transformierte eines Spektralma-ßes zu einer leicht abgeänderten Übergangsmatrix bekannt ist oder leichter berechnet werdenkann [siehe Kapitel 4.1.3].

Satz 4.9 Es sei P die in (4.2) definierte Einschritt-Übergangsmatrix sowie

P :=

B0 A0

CT1 B1 A1

CT2 B2 A2

. . . . . . . . .

, (4.20)

wobei B0 eine p×p-Matrix sei und Ai, i ≥ 0, Bi, i ≥ 1, und Ci, i ≥ 1, die Blöcke aus P sind.Zu P existiere ein Spektralmaß Σ auf R. Weiter sei Rnn≥0 eine Folge von nichtsingulärenMatrizen, mit der die Bedingungen in (4.5) so erfüllt sind, dass die Matrix R0B0R

−10 symme-

trisch ist. Dann existiert ein Spektralmaß Σ zu P . Sind die Spektralmaße Σ und Σ eindeutigdurch ihre Momente bestimmt, so gilt für deren Stieltjes-Transformierten

dΣ(t)

z − t=(

dΣ(t)

z − t

)−1

− S−10 (B0 − B0)

−1

. (4.21)

Beweis Da sich die Matrizen P und P nur durch den Block in der ersten Position unter-scheiden und die Matrix R0B0R

−10 nach Voraussetzung symmetrisch ist, sind die Gleichungen

in (4.5) auch für die Blöcke von P erfüllt. Demzufolge existiert zu P ein Spektralmaß Σ.Es sei nun Qnn≥0 die durch die Rekursion (4.4) definierte Folge von Matrixpolynomenmit Orthogonalitätsmaß Σ. Die Folge der Matrixpolynome Qnn≥0 (mit OrthogonalitätsmaßΣ) ist durch dieselbe Rekursion definiert, wobei die Matrix B0 durch die Matrix B0 ersetztwird. Bezeichnen Q(1)

n n≥0 bzw. Q(1)n n≥0 die assoziierten Matrixpolynome der Ordnung 1

von Qnn≥0 bzw. Qnn≥0 [siehe Gleichung (1.11)], so lässt sich leicht die Identität

Q(1)n (x) = Q(1)

n (x) ∀ n ≥ 0

nachrechnen. Weiter genügen die Matrixpolynome

Rn(x) := Qn(x) −Qn(x), n ≥ 0,

der Rekursion (4.4) mit den Anfangsbedingungen

R0(x) = 0p und R1(x) = A−10 (B0 − B0)

und wir erhalten induktiv die Darstellung

Rn(x) = Q(1)n (x)RT

0R0(B0 − B0), n ≥ 0. (4.22)

Page 69: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 63

Zum Beweis der Behauptung definieren wir nun die Matrixmaße

dµ(x) := R0dΣ(x)RT0 und dµ(x) := R0dΣ(x)RT

0 .

Da die Maße Σ und Σ nach Voraussetzung eindeutig durch ihre Momente bestimmt sind, giltdies auch für die Maße µ and µ. Weiter ist leicht zu sehen, dass µ und µ Orthogonalitätsma-ße für die Matrixpolynome RnQn(x)R−1

0 n≥0 und RnQn(x)R−10 n≥0 sind. Daher folgt mit

Markovs Theorem [Satz 1.17] sowie Darstellung (4.22)∫

dΣ(t)

z − t= R−1

0

dµ(t)

z − t(RT

0 )−1

= limn→∞

R−10 (RnQn(z)R−1

0 )−1(RnQ(1)n (z)RT

0 )(RT0 )−1

= limn→∞

(Qn(z))−1Q(1)n (z)

= limn→∞

Qn(z) +Q(1)n (z)RT

0R0(B0 − B0)−1Q(1)n (z)

= limn→∞

(Qn(z))−1Q(1)n (z)−1 +RT

0R0(B0 − B0)−1

= limn→∞

RT0 (RnQn(z)R−1

0 )−1RnQ(1)n (z)RT

0 −1R0 +RT0R0(B − B0)−1

=

RT0

(

dµ(t)

z − t

)−1

R0 +RT0R0(B0 − B0)

−1

=(

dΣ(t)

z − t

)−1

+RT0R0(B0 − B0)

−1

und daraus wegen S0 = (RT0R0)

−1 [siehe Bemerkung 4.3] die Behauptung des Satzes.

4.1.3 Beispiele

In diesem Abschnitt weisen wir für Random Walks über verschiedenen Zustandsräumen dieExistenz eines Spektralmaßes nach und geben die Stieltjes-Transformierte des jeweiligen Spek-tralmaßes sowie, falls möglich, das Spektralmaß explizit an.

Beispiel 4.10 [Random Walk auf Z] Es sei (Xn)n≥0 der klassische Random Walk auf denganzen Zahlen mit den Einschritt-Übergangswahrscheinlichkeiten

pi,i+1 = pi, pii = ri und pi,i−1 = qi, pi + qi + ri ≤ 1, i ∈ Z,

wobei pij := P (Xn+1 = i | Xn = j) bezeichne. Gilt pi + qi + ri < 1, so existiert ein absorbie-render Zustand i∗, aus dem keine Übergänge in andere Zustände möglich sind. Dieser wird aus

Page 70: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

64 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

dem Zustand i mit der Wahrscheinlichkeit 1− pi − qi − ri erreicht. Mittels der eineindeutigenAbbildung

ψ :

Z → C2

i →

(i, 1), falls i ∈ N0

(−i− 1, 2), sonst

können wir den Random Walk auf Z als Random Walk auf dem Gitter C2 auffassen, wo-bei Übergänge zwischen der ersten und der zweiten Zeile (und umgekehrt) nur zwischen denZuständen (0, 1) und (0, 2) möglich sind. Demzufolge sind die Einträge der zugehörigen Über-gangsmatrix P in (4.2) durch die 2 × 2-Matrizen

B0 =

(

r0 q0p−1 r−1

)

, Bn =

(

rn 00 r−n−1

)

, n ≥ 1,

An =

(

pn 00 q−n−1

)

, n ≥ 0, sowie CTn =

(

qn 00 p−n−1

)

, n ≥ 1,

gegeben. Es ist leicht zu sehen, dass sich die Übergangsmatrix P mit den Diagonalmatrizen

R0 = diag

(

1,

q0p−1

)

sowie Ri = diag

(√

p0 · · · pn−1

q1 · · · qn,

q0q−1 · · · q−n

p−1p−2 · · · p−n−1

)

, i ≥ 1,

symmetrisieren lässt. Damit existiert nach Satz 4.1 und Satz 4.6 zu (Xn)n≥0 ein Spektralmaß Σmit supp (Σ) ⊂ [−1, 1].

Zur Herleitung der Stieltjes-Transformierten von Σ ersetzen wir in der Einschritt-Übergangs-matrix P die Matrix B0 durch die Matrix

B0 :=

(

r0 00 r−1

)

und bezeichnen die neue Übergangsmatrix mit P . Dann existiert zu P ebenfalls ein Spektral-maß Σ mit supp (Σ) ⊂ [−1, 1] [siehe Satz 4.9 und Satz 4.6], wobei die Stieltjes-Transformierte Φvon Σ eine Diagonalmatrix

Φ(z) :=

dΣ(x)

z − x:= diag

(

φ1(z), φ2(z))

ist. Damit folgt aus Satz 4.9 für die Stieltjes-Transformierte Φ von Σ die Darstellung

Φ(z) :=

dΣ(t)

z − t=

(

1/φ1(z) −q0−q0 1/φ2(z)

)−1

=1

1 − q20φ1(z)φ2(z)

(

φ1(z) q0φ1(z)φ2(z)q0φ1(z)φ2(z) φ2(z)

)

. (4.23)

Page 71: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 65

Gilt für die Einschritt-Übergangswahrscheinlichkeiten pi = p, qi = q und ri = 0 für alle i ∈ Z,so sind die Einträge von Φ gegeben durch

φ1(z) = −z −√

z2 − 4pq

2pqund φ2(z) =

p

qφ1(z).

Damit erhalten wir aus (4.23) die von Karlin und McGregor (1959) mit wahrscheinlichkeits-theoretischen Argumenten hergeleitete Stieltjes-Transformierte des Spektralmaßes

Φ(z) =

1√z2−4pq

− 12q

(

1 − z√z2−4pq

)

− 12q

(

1 − z√z2−4pq

)

pq

1√z2−4pq

und aus ihr mit der Inversionsformel (1.31) das Spektralmaß

dΣ(x) =1

π

1√4pq−x2

12q

x√4pq−x2

12q

x√4pq−x2

pq

1√4pq−x2

I[−2√

pq,2√

pq](x)dx.

Beispiel 4.11 [Random Walk auf dem Gitter Cp] Es sei (Xn)n≥0 ein Random Walk auf demin (4.1) definierten Gitter Cp, für den aus einem Zustand (i, j) Übergänge in die benachbartenZustände (i, j + 1), (i, j − 1), (i− 1, j) und (i+ 1, j) mit den Übergangswahrscheinlichkeiten

P(i,j),(i,j+1) = u, P(i,j),(i,j−1) = v, P(i,j),(i−1,j) = ℓ und P(i,j),(i+1,j) = r

möglich seien, wobei u+ v + ℓ+ r = 1 gelte. In diesem Fall sind die Einträge der Übergangs-matrix P in (4.2) durch die p× p-Matrizen Ai = rIp, i ≥ 0, Ci = ℓIp, i ≥ 1, sowie

Bi =

0 uv 0 u

. . . . . . . . .v 0 u

v 0

, i ≥ 0, (4.24)

gegeben und wir erhalten induktiv für die durch die Rekursion (4.4) definierten Matrixpoly-nome Qnn≥0 die Darstellung

Qn(x) =(

r

)n

un

(1

2

r

ℓA)

, n ≥ 0,

wobei unn≥0 die skalaren Chebyshev-Polynome 2. Art [siehe Bemerkung 1.13] sind und

A :=1

r

x −u−v x −u

. . . . . . . . .−v x −u

−v x

∈ Rp×p (4.25)

Page 72: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

66 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

bezeichne. Nach Satz 4.1 und Satz 4.6 existiert zu dem Prozess (Xn)n≥0 ein Spektralmaß Σauf [−1, 1], da mit den Matrizen

R0 = diag

(

1,

u

v,

u2

v2, . . . ,

up−1

vp−1

)

und Ri =

(√

r

)i

R0, i ≥ 1, (4.26)

die Bedingungen in (4.5) erfüllt sind.

Im Folgenden berechnen wir zunächst die Stieltjes-Transformierte von Σ. Dazu betrachtenwir die in (4.6) definierten Matrixpolynome Qnn≥0, die orthonormal bzgl. Σ sind und eineDrei-Schritt-Rekursion der Form (4.7) erfüllen. Mit den Matrizen in (4.26) folgt aus (4.9) fürdie Rekursionskoeffizienten D := Dn =

√rℓIp, n ≥ 1, sowie

E := En =

0√vu√

vu 0√vu

. . . . . . . . .√vu 0

√vu√

vu 0

, n ≥ 0 .

Demzufolge ist die Stieltjes-Transformierte von Σ gegeben durch∫

dΣ(t)

z − t=

1

2rℓ

zIp − E −√

(zIp − E)2 − 4rℓIp

[siehe Gleichung (3.65)].

Zur Berechnung des Spektralmaßes Σ ziehen wir die Darstellung (1.27) heran. Dazu berechnenwir zunächst die Spektralzerlegung der Matrix

4Ip −D−1/2(xIp − E)D−1(xIp − E)D−1/2 =1

rℓ

4rℓIp − (xIp − E)2

. (4.27)

Da die Eigenwerte λj und zugehörige normierte Eigenvektoren xj der Matrix E durch

λj = 2√uv cos

(

p+ 1

)

und xj =

2

p+ 1

(

sin

(

πjℓ

p+ 1

))p

ℓ=1

, (4.28)

j = 1, . . . , p, gegeben sind [siehe z. B. Basilevsky (1983)], besitzt die Matrix in (4.27) dieEigenwerte

λj(x) =1

rℓ

4rℓ−(

x− 2√vu cos

( jπ

p+ 1

))2

, j = 1, . . . , p,

mit den in (4.28) angegebenen Eigenvektoren xj, j = 1, . . . , p. Damit erhalten wir aus derDarstellung (1.27) das Spektralmaß

dΣ(x) =1

2π√rℓUΛ(x)UTdx,

Page 73: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 67

wobei Λ(x) die Diagonalmatrix

Λ(x) :=

diag (max (λ1(x), 0) , . . . ,max (λp(x), 0))1/2

bezeichne und die Einträge der Matrix U = ujℓj,ℓ=1,...,p durch

ujℓ =

2

p+ 1sin

(

πjℓ

p+ 1

)

, j, ℓ = 1, . . . , p,

gegeben sind. Weiter folgt aus (1.26) für den Träger des Spektralmaßes

supp (Σ) =[

−2√rℓ+ 2

√uv cos

( πp

p+ 1

)

, 2√rℓ+ 2

√uv cos

( π

p+ 1

)]

.

Schränkt man den oben betrachteten Random Walk (Xn)n≥0 auf ein endliches Gitter der Form

Cp,N := (i, j) ∈ 0, . . . , N − 1 × 1, . . . , p, N ∈ N, N <∞,

ein, so bleiben alle bisher gezeigten Resultate gültig. In diesem Fall ist die zugehörige Über-gangsmatrix durch die endliche Blocktridiagonalmatrix

PN−1 :=

B0 A0

CT1 B1 A1

. . . . . . . . .CT

N−2 BN−2 AN−2

CTN−1 BN−1

mit Ai = rIp, 0 ≤ i ≤ N − 2, Ci = ℓIp, 1 ≤ i ≤ N − 1, und den in (4.24) angegebenenMatrizen Bi, 0 ≤ i ≤ N − 1, gegeben, und das zugehörige Spektralmaß hat endlichen Träger.Im Folgenden geben wir eine Konvergenzrate für die Wahrscheinlichkeit, dass keine Absorbie-rung eintritt, an. Aus der Integraldarstellung (4.10), welche sich in diesem Fall als endlicheSumme schreiben lässt, folgt, dass diese Konvergenzrate durch die größte Nullstelle xN desMatrixpolynoms QN bestimmt wird, d. h.

P (Xn ∈ Cp,N | X0 = x) = O(xnN), n→ ∞.

Zur Berechnung der Nullstelle xN schreiben wir das N -te skalare Chebyshev-Polynom 2. Artin der Form

uN

(z

2

)

=N∏

j=1

(

z − 2 cos

(

N + 1

))

. (4.29)

Weiter erhalten wir induktiv für die Determinante der in (4.25) definierten p× p-Matrix A

detA =

(√uv

r

)p

up

(

1

2√uv

x

)

. (4.30)

Page 74: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

68 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Aus den Darstellungen (4.29) und (4.30) folgt schließlich wegen

∣uN

(1

2A)∣

∣ =N∏

j=1

∣A− 2 cos

(

N + 1

)

Ip

für die Nullstellen xij des Matrixpolynoms QN

r

√uv

r

(

xij√uv

− 2 cos

(

p+ 1

))

− 2 cos

(

N + 1

)

= 0

⇔ xij = 2

(√uv cos

(

p+ 1

)

+√ℓr cos

(

N + 1

))

, i = 1, . . . , p, j = 1, . . . , N.

Demnach ist x11 die größte Nullstelle des Matrixpolynoms QN und es gilt somit

P (Xn ∈ Cp,N | X0 = x) = O

(

2n

(√uv cos

(

π

p+ 1

)

+√ℓr cos

(

π

N + 1

))n)

.

Beispiel 4.12 [Random Walk auf einem Baum] In diesem Beispiel betrachten wir einen Ran-dom Walk (Xn)n≥0 auf einem Zustandsraum der folgenden Gestalt: Der Zustandsraum be-stehe aus p im Ursprung miteinander verbundenen Strahlen. Auf jedem Strahl bezeichne p1

die Wahrscheinlichkeit für einen Schritt weg vom Ursprung und q1 die Wahrscheinlichkeitfür einen Schritt hin zum Ursprung, wobei p1 + q1 = 1 gelte. Die Wahrscheinlichkeit, vomUrsprung auf den i-ten Strahl zu gelangen, betrage di > 0, i = 1, . . . , p, mit

∑pi=1 di = 1.

Zur Verdeutlichung des Zustandsraumes zeigen wir in Abbildung 4.1 den Zustandsraum imFall p = 4. Ist p = 2, so stellt der Prozess (Xn)n≥0 einen Random Walk auf den ganzen Zahlendar [vgl. Beispiel 4.10].

@@

@@

@@

@@

@@

@@

s

@@R

@@I

d1d3

d2

d4

q

q q

q

@@R@@I

@@R@@I p1

p1p1

p1

q1

q1

q1

q1

1

23

4

Abbildung 4.1: Random Walk auf einem Baum

Durch Einbetten des Zustandsraumes in das in (4.1) definierte Gitter Cp erhalten wir eineEinschritt-Übergangsmatrix P der Form (4.2) mit den Einträgen A0 = diag (d1, p1, . . . , p1) ,

Page 75: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 69

Ai = p1Ip, i ≥ 1, Ci = q1Ip, i ≥ 1,

B0 =

0 d2 · · · dp

q1 0 · · · 0...

......

q1 0 · · · 0

sowie Bi = 0p, i ≥ 1. Da sich die Übergangsmatrix P mit den Diagonalmatrizen

R0 = diag

(

1,

d2

q1, . . . ,

dp

q1

)

, R1 = diag

(√

d1

q1,

d2p1

q21

, . . . ,

dpp

q21

)

und

Ri =

(√

p1

q1

)i−1

R1, i ≥ 2,

symmetrisieren lässt, existiert nach Satz 4.1 bzw. Satz 4.6 zu (Xn)n≥0 ein Spektralmaß Σ mitsupp (Σ) ⊂ [−1, 1].

Zur Herleitung der Stieltjes-Transformierten von Σ ersetzen wir in der Übergangsmatrix Pdie Matrix B0 durch die p× p-Nullmatrix. Auf diese Weise erhalten wir eine neue Übergangs-matrix P , für die ebenfalls ein Spektralmaß Σ mit supp

(

Σ)

⊆ [−1, 1] existiert [siehe Satz 4.9und Satz 4.6], dessen Stieltjes-Transformierte eine Diagonalmatrix

Φ(z) :=

dΣ(x)

z − x:= diag

(

φ1(z), . . . , φp(z))

ist. Durch Anwenden von Satz 4.9 folgt damit für die Stieltjes-Transformierte Φ von Σ

Φ(z) = f(z)

1 d2φ2(z) d3φ3(z) . . . dpφp(z)d2φ2(z) a2(z) d2d3φ2(z)φ3(z) . . . d2dpφ2(z)φp(z)d3φ3(z) d2d3φ2(z)φ3(z) a3(z) . . . d3dpφ3(z)φp(z)

.

.

.

.

.

.

.

.

.

.

.

.

dp−1φp−1(z) d2dp−1φ2(z)φp−1(z) d3dp−1φ3(z)φp−1(z) . . . dpdp−1φp(z)φp−1(z)dpφp(z) d2dpφ2(z)φp(z) d3dpφ3(z)φp(z) . . . ap(z)

mit

f(z) :=φ1(z)

1 − φ1(z)∑p

i=2 d2i φi(z)

sowie aj(z) :=φj(z)

φ1(z)− φj

i=2,i6=j

d2i φi(z), j = 2, . . . , p.

Page 76: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

70 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

4.1.4 Das Rückkehrverhalten und Grenzverhalten von zeitdiskreten

Quasi-Geburts- und Todesprozessen

In diesem Abschnitt charakterisieren wir unter der Voraussetzung der Existenz eines RandomWalk Matrixmaßes das Rückkehr- und Grenzverhalten von zeitdiskreten Quasi-Geburts- undTodesprozessen (Xn)n≥0 auf dem Gitter Cp in (4.1) durch das Random Walk Matrixmaß, diezugehörigen Random Walk Matrixpolynome sowie die Blöcke der Übergangsmatrix. Dazunehmen wir an, dass der Träger des Random Walk Matrixmaßes in dem Intervall [−1, 1] liegt.

Rückkehrverhalten

Zur Charakterisierung des Rückkehrverhaltens klassifizieren wir die Zustände des in (4.1)definierten Zustandsraumes Cp wie folgt. Ein Zustand (i, ℓ) ∈ Cp heißt rekurrent, falls derProzess (Xn)n≥0 nach Start im Zustand (i, ℓ) mit Sicherheit wieder in den Zustand (i, ℓ)zurückkehrt (sonst transient). Ein rekurrenter Zustand (i, ℓ) ∈ Cp wird positiv rekurrentgenannt, falls die mittlere Rückkehrdauer in diesen Zustand endlich ist (sonst null rekurrent).Weiter heißt ein rekurrenter Zustand (i, ℓ) ∈ Cp aperiodisch, falls δ = 1 der größte gemeinsameTeiler der Menge

n ≥ 1 : P (Xn = (i, ℓ) | X0 = (i, ℓ)) > 0ist (sonst periodisch mit der Periode δ > 1). Ist der Prozess (Xn)n≥0 irreduzibel, d. h. istjeder Zustand von jedem Zustand aus erreichbar, so ist (Xn)n≥0 genau dann rekurrent, positivrekurrent bzw. aperiodisch, falls ein Zustand rekurrent, positiv rekurrent bzw. aperiodisch ist.

Das folgende Resultat stellt neben der Integraldarstellung (4.10) für die Blöcke der n-Schritt-Übergangsmatrix die Grundlage für die im Folgenden hergeleiteten Rekurrenzkriterien darund wird beispielsweise von Çinlar (1975) bewiesen.

Satz 4.13 Es sei (Xn)n≥0 ein zeitdiskreter Quasi-Geburts- und Todesprozess mit einem Zu-standsraum der Form (4.1) und einer Einschritt-Übergangsmatrix der Form (4.2).

(a) Ein Zustand (i, ℓ) ∈ Cp ist genau dann rekurrent (transient), falls

eTℓ

∞∑

n=0

P niieℓ = ∞ ( <∞), (4.31)

eTℓ = (0, . . . , 0, 1, 0, . . . , 0), gilt, wobei P n

ii der Block an der Stelle (i, i) in der n-Schritt-Übergangsmatrix P n ist.

(b) Ein rekurrenter Zustand (i, ℓ) ∈ Cp ist genau dann positiv rekurrent (null rekurrent),falls

limn→∞

eTℓ P

niieℓ =: α > 0 ( = 0), (4.32)

eTℓ = (0, . . . , 0, 1, 0, . . . , 0), gilt.

Page 77: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 71

Existiert zu dem in Satz 4.13 betrachteten Prozess (Xn)n≥0 ein Random Walk Matrixmaß Σmit supp (Σ) ⊂ [−1, 1], so können wir die Blöcke der n-Schritt-Übergangsmatrix in derForm (4.10) darstellen und erhalten somit aus Satz 4.13 (a) das folgende Rekurrenzkrite-rium.

Satz 4.14 Es sei (Xn)n≥0 ein zeitdiskreter Quasi-Geburts- und Todesprozess mit einem Zu-standsraum der Form (4.1) und einer Einschritt-Übergangsmatrix der Form (4.2). Weiterseien die Voraussetzungen von Satz 4.1 erfüllt mit Spektralmaß Σ, wobei supp (Σ) ⊂ [−1, 1]gelte. Der Zustand (i, ℓ) ∈ Cp ist genau dann rekurrent, falls

eTℓ

(

Qi(x)dΣ(x)QTi (x)

1 − x

)(

Qi(x)dΣ(x)QTi (x)

)−1

eℓ = ∞, (4.33)

eTℓ = (0, . . . , 0, 1, 0, . . . , 0), gilt, wobei Qnn≥0 die zugehörigen Random Walk Matrixpolyno-

me sind.

Beweis Es bezeichne Hij(z) die (matrixwertige) erzeugende Funktion der Matrix P nij, d. h.

Hij(z) :=∞∑

n=0

P nijz

n, |z| < 1,

für die wir mit der Integraldarstellung (4.10) sowie Lebesgues Theorem die Darstellung

Hij(z) =(

Qi(x)dΣ(x)QTj (x)

1 − xz

)(

Qj(x)dΣ(x)QTj (x)

)−1

erhalten. Daraus folgt wegen

eTℓ

∞∑

n=0

P niieℓ = lim

z→1eT

ℓ Hii(z)eℓ (4.34)

die Behauptung des Satzes.

Insbesondere gilt für einen irreduziblen zeitdiskreten Quasi-Geburts- und Todesprozess aufdem Gitter Cp, für den ein Spektralmaß auf dem Intervall [−1, 1] existiert, das folgende Re-kurrenzkriterium.

Folgerung 4.15 Es seien die Voraussetzungen von Satz 4.14 erfüllt und (Xn)n≥0 irreduzibel.Der Prozess (Xn)n≥0 ist genau dann rekurrent, falls

eTℓ

∫ 1

−1

dΣ(x)

1 − xS−1

0 eℓ = ∞ (4.35)

für ein ℓ ∈ 1, . . . , p gilt (In diesem Fall gilt Gleichung (4.35) für jedes ℓ ∈ 1, . . . , p).

Page 78: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

72 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Weiterhin lässt sich auf der Basis der Integraldarstellung (4.10) das folgende hinreichendeund notwendige Kriterium für die positive Rekurrenz eines zeitdiskreten irreduziblen Quasi-Geburts- und Todesprozesses mit Zustandsraum (4.1) und Random Walk Matrixmaß Σ aufdem Intervall [−1, 1] nachweisen.

Satz 4.16 Es seien die Voraussetzungen von Folgerung 4.15 erfüllt. Der Prozess (Xn)n≥0 istgenau dann positiv rekurrent, falls eines der Maße

τℓ := eTℓ ΣS−1

0 eℓ, ℓ ∈ 1, . . . , p, (4.36)

einen Sprung an der Stelle x = 1 hat (In diesem Fall hat jedes Maß τℓ, ℓ ∈ 1, . . . , p, einenSprung im Punkt x = 1).

Beweis Aus der Integraldarstellung (4.10) folgt mit der Bezeichnung in (4.36) für die Rück-kehrwahrscheinlichkeit vom Zustand (0, ℓ) in den Zustand (0, ℓ) in n Schritten

αn := eTℓ P

n00eℓ = eT

∫ 1

−1

xndΣ(x)S−10 eℓ =

∫ 1

−1

xndτℓ(x).

Betrachten wir die Folge α2n, so folgt daraus mit Satz 4.13 und dem Satz über die dominierendeKonvergenz, dass der Prozess (Xn)n≥0 genau dann positiv rekurrent ist, falls das Maß τℓ einenSprung bei x = −1 oder x = 1 hat. Hat τℓ keinen Sprung an der Stelle x = 1, so gilt für denPunkt x = −1

τℓ (−1) = limn→∞

−∫ 1

−1

x2n+1dτℓ(x) +

∫ 1

−1−x2n+1dτℓ(x)

= −eTℓ lim

n→∞P 2n+1

00 eℓ ≤ 0,

d. h. τℓ hat ebenfalls keinen Sprung in x = −1. Demzufolge ist der Prozess (Xn)n≥0 genaudann positiv rekurrent, falls das Maß τℓ einen Sprung an der Stelle x = 1 hat.

Bemerkung 4.17 Gilt in Folgerung 4.15 bzw. Satz 4.16 für das 0-te Moment des RandomWalk Matrixmaßes S0 = Ip, so wird die (positive) Rekurrenz des Prozesses (Xn)n≥0 vollständigdurch die Diagonalelemente des Random Walk Matrixmaßes charakterisiert. Insbesondere istein Random Walk auf den nichtnegativen ganzen Zahlen mit Random Walk Maß ψ genaudann rekurrent, falls

∫ 1

−1

dψ(x)

1 − x

divergiert, und positiv rekurrent, falls ψ einen Sprung an der Stelle x = 1 hat. Weitere Detailszu den klassischen Resultaten findet man in der Arbeit von Karlin und McGregor (1959) undder Monografie von Dette und Studden (1997).

In dem folgenden Satz charakterisieren wir die Rekurrenz eines zeitdiskreten irreduziblenQuasi-Geburts- und Todesprozesses auf dem Gitter Cp in (4.1) mit Einschritt-Übergangsma-trix P in (4.2) und Spektralmaß Σ auf [−1, 1] durch die Blöcke von P sowie die zugehörigenRandom Walk Matrixpolynome. Dazu ziehen wir zum Beweis des Resultates die in Satz 2.11

Page 79: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 73

hergeleitete Matrixkettenbruchentwicklung für die Stieltjes-Transformierte eines matrixwerti-gen Orthogonalitätsmaßes auf dem Intervall [−1, 1] heran und stellen somit eine Verbindungzwischen zeitdiskreten Quasi-Geburts- und Todesprozessen, Matrixkettenbrüchen sowie denkanonischen Momenten des Random Walk Matrixmaßes her. In der klassischen Theorie wur-de dieser Zusammenhang bereits von Dette und Studden (1997) hergestellt und ausführlichdiskutiert.

Satz 4.18 Es sei (Xn)n≥0 ein zeitdiskreter irreduzibler Quasi-Geburts- und Todesprozess miteinem Zustandsraum der Form (4.1) und einer Einschritt-Übergangsmatrix der Form (4.2).Weiter seien die Voraussetzungen von Satz 4.6 erfüllt mit Random Walk Matrixmaß Σ. DerZustand (0, ℓ) ∈ Cp ist genau dann rekurrent, falls

eTℓ

∞∑

i=0

T−1i+1A

−1i CT

i Ti−1T−1i A−1

i−1CTi−1Ti−2T

−1i−1 · · ·T1T

−12 A−1

1 CT1 T0T

−11 A−1

0 T0eℓ = ∞

gilt mit Ti := Qi(1), i ≥ 0, sowie T−2 = T−1 = Ip. Dabei sind Qnn≥0 die zugehörigenRandom Walk Matrixpolynome. Insbesondere ist der Prozess (Xn)n≥0 genau dann rekurrent,falls eines der Diagonalelemente der Matrix

∞∑

i=0

T−1i+1A

−1i CT

i Ti−1T−1i A−1

i−1CTi−1Ti−2T

−1i−1 · · ·T1T

−12 A−1

1 CT1 T0T

−11 A−1

0 T0

unendlich ist (In diesem Fall ist jedes Diagonalelement unendlich).

Beweis Nach Folgerung 4.15 ist der Zustand (0, ℓ) ∈ Cp genau dann rekurrent, falls

eTℓ

∫ 1

−1

dΣ(x)

1 − xS−1

0 eℓ = ∞ (4.37)

gilt. Weiter können wir die Stieltjes-Transformierte des Spektralmaßes als Matrixketten-bruch (2.32) schreiben und erhalten mit der Darstellung (2.45) die zu (4.37) äquivalenteRekurrenzbedingung

t :=1

2eT

[

Ip +∞∑

i=1

(V T1 )−1 · · · (V T

i )−1UTi · · ·UT

1

]

eℓ = ∞, (4.38)

wobei Ujj die kanonischen Momente des Spektralmaßes sind und die Matrizen Vjj durchVj = Ip − Uj, j ≥ 1, gegeben sind. Wir definieren nun die Matrizen Tn := Qn(1), n ≥ 0, mitT−2 = T−1 = Ip sowie die Matrixpolynome

Qn(x) := A0 · · ·An−1Qn(x), n ≥ 1.

Nach Definition sind die Polynome Qnn≥0 monisch und orthogonal bzgl. Σ. Weiter genügen

sie wegen (4.4) der Rekursion

Qn+1

(x) = xQn(x) − A0 · · ·An−1BnA

−1n−1 · · ·A−1

0 Qn(x)

− A0 · · ·An−1CTnA

−1n−2 · · ·A−1

0 Qn−1

(x). (4.39)

Page 80: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

74 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Andererseits erfüllen die Polynome Qnn≥0 eine Rekursion der Form (2.34), wobei die Ma-

trizen ζn = Vn−1Un in Gleichung (2.8) definiert sind. Ein Vergleich der Koeffizienten in denGleichungen (4.39) und (2.34) führt zu

A0 · · ·An−1BnA−1n−1 · · ·A−1

0 = −Ip + 2ζT2n + 2ζT

2n+1,

A0 · · ·An−1CTnA

−1n−2 · · ·A−1

0 = 4ζT2nζ

T2n−1. (4.40)

Mit der Darstellung ζn = Vn−1Un und der Kommutativität der kanonischen Momente [sieheGleichung (2.10)] folgt durch Einsetzen der Darstellungen (4.40) in die Rekursion (4.4)

Tn = 2nA−1n−1 · · ·A−1

0 V T2n−1V

T2n−2 · · ·V T

1 .

Damit sind die Matrizen Tn nichtsingulär und wir können die Matrixpolynome

Qn(x) := T−1n Qn(x), n ≥ 0,

definieren. Setzen wir die Darstellung Qn(x) = TnQn(x) in die Rekursion (4.4) ein, so erhaltenwir für die Polynome Qnn≥0 die Rekursion

xQn(x) = AnQn+1(x) + BnQn(x) + CTn Qn−1(x) (4.41)

mit den Koeffizienten

An = T−1n AnTn+1, Bn = T−1

n BnTn sowie CTn = T−1

n CTn Tn−1.

Damit implizieren die Gleichungen in (4.40) die Darstellungen

A0 · · · An−1BnA−1n−1 · · · A−1

0 = −Ip + 2ζT2n + 2ζT

2n+1,

A0 · · · An−1CTn A

−1n−2 · · · A−1

0 = 4ζT2nζ

T2n−1,

mit denen wir wegen

An + Bn + CTn = T−1

n (AnTn+1 +BnTn + CTn Tn−1) = T−1

n Tn = Ip

induktiv die Identitäten

2UT2nU

T2n−1 = A0 · · · An−1C

Tn A

−1n−1 · · · A−1

0 ,

2V T2n+1V

T2n = A0 · · · An−1AnA

−1n−1 · · · A−1

0

nachweisen können. Setzt man diese Gleichungen in die Darstellung (4.38) ein, so folgt

t =1

2eT

∞∑

i=0

(V T1 )−1 · · · (V T

2i )−1UT

2i · · ·UT1 + (V T

1 )−1 · · · (V T2i+1)

−1UT2i+1 · · ·UT

1

eℓ

= eTℓ

∞∑

i=0

A−1i CT

i A−1i−1 · · · A−1

1 CT1 A

−10 eℓ

= eTℓ

∞∑

j=0

T−1i+1A

−1i CT

i Ti−1T−1i A−1

i−1CTi−1Ti−2T

−1i−1 · · ·T1T

−12 A−1

1 CT1 T0T

−11 A−1

0 T0eℓ

und damit die Behauptung des Satzes.

Page 81: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 75

Bemerkung 4.19 Sind die Matrizen Ti = Qi(1), Ai und Ci kommutativ, so vereinfacht sichdie Rekurrenzbedingung in Satz 4.18 zu

eTℓ

∞∑

i=0

T−1i+1T

−1i (C1 · · ·Ci)

T (A0 · · ·Ai)−1eℓ = ∞ .

Dies gilt insbesondere im eindimensionalen Fall (p = 1) [vgl. Dette und Studden (1997)].

Grenzverhalten

Im Folgenden sei (Xn)n≥0 ein zeitdiskreter irreduzibler aperiodischer Quasi-Geburts- und To-desprozess auf dem Gitter Cp in (4.1). Dann können wir das Grenzverhalten des Prozesseswie folgt spezifizieren. Für weitere Details über das Grenzverhalten von zeitstetigen Mar-kovprozessen sowie den Beweis von Satz 4.20 verweisen wir auf die Monografie von Çinlar(1975).

Satz 4.20 Es sei (Xn)n≥0 ein zeitdiskreter irreduzibler aperiodischer Quasi-Geburts- und To-desprozess mit einem Zustandsraum der Form (4.1) und einer Einschritt-Übergangsmatrix derForm (4.2). Dann gilt:

(a) Für alle Zustände (i, j), (i′, j′) ∈ Cp existieren die Grenzwerte

α(i′,j′) := limn→∞

P n(i,j)(i′,j′) (4.42)

und sind unabhängig von dem Zustand (i, j).

(b) Der Prozess (Xn)n≥0 ist genau dann positiv rekurrent, falls das Gleichungssystem

π(i′,j′) =∑

(i,j)∈Cp

π(i,j)P(i,j)(i′,j′),∑

(i′,j′)∈Cp

π(i′,j′) = 1, (4.43)

genau eine nichtnegative Lösung π = (πT0 , π

T1 , . . .), π

Tj = (π(j,0), . . . , π(j,p)), j ≥ 0, besitzt,

nämlichπ(i′,j′) = lim

n→∞P n

(i,j)(i′,j′).

In diesem Fall heißt π die stationäre Verteilung des Prozesses (Xn)n≥0.

Bemerkung 4.21 Es ist leicht zu sehen, dass die stationäre Verteilung π ein invariantesMaß für die Übergangsmatrix P darstellt, d. h dass πP = π gilt. Während nicht für jedeeindimensionale irreduzible Markovkette ein invariantes Maß existiert [Çinlar (1975)], besitztjeder irreduzible zeitdiskrete Quasi-Geburts- und Todesprozess (Xn)n≥0 auf dem Gitter Cp eininvariantes Maß, dessen Einträge sich als Matrixprodukt schreiben lassen [Latouche et al.(1998)]. Ist der Prozess (Xn)n≥0 positiv rekurrent, so stimmt das invariante Maß mit derstationären Verteilung π überein und wir können die Einträge von π in der Form

πTk = πT

0

k−1∏

ℓ=0

Rℓ, k ≥ 1, (4.44)

Page 82: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

76 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

schreiben. Dabei stellt die Menge der Matrizen Rℓ∞ℓ=0 die minimale nichtnegative Lösungder Gleichungen

Rk = Ak +RkBk+1 +RkRk+1CTk+2, k ≥ 0, (4.45)

dar und der Vektor π0 erfüllt die Gleichung

πT0 (B0 + R0C

T1 ) = πT

0 (4.46)

mit πT1 = 1, 1T = (1, 1, . . .). Interpretationen des invarianten Maßes für nullrekurrente und

transiente Quasi-Geburts- und Todesprozesse können beispielsweise den Arbeiten von Derman(1955) und Kelly (1983) entnommen werden.

Der folgende Satz liefert für die Grenzwerte in (4.42) eine Darstellung, welche Ausdruck einesRandom Walk Matrixmaßes auf dem Intervall [−1, 1] sowie der zugehörigen Random WalkMatrixpolynome (falls diese existieren) ist. Der Beweis des Resultates basiert erneut auf derIntegraldarstellung (4.10) für die Blöcke der n-Schritt-Übergangsmatrix P n.

Satz 4.22 Es sei (Xn)n≥0 ein zeitdiskreter irreduzibler aperiodischer Quasi-Geburts- und To-desprozess mit einem Zustandsraum der Form (4.1) und einer Einschritt-Übergangsmatrixder Form (4.2). Weiter seien die Voraussetzungen von Satz 4.1 erfüllt mit Random WalkMatrixmaß Σ und Random Walk Matrixpolynomen Qnn≥0. Liegt der Träger von Σ in demIntervall [−1, 1], so gilt

Li′ := limn→∞

P nii′ = Qi(1)Σ(1)QT

i′ (1)(

∫ 1

−1

Qi′(x)dΣ(x)QTi′ (x)

)−1

∀ i, i′ ∈ Cp, (4.47)

wobei Σ(−1) und Σ(1) die Massen des Maßes Σ in den Punkten x = −1 und x = 1 bezeichnen.

Beweis Da der Prozess (Xn)n≥0 nach Voraussetzung aperiodisch ist, existiert der in (4.47)definierte Grenzwert Li′ [siehe Satz 4.20]. Mit der Integraldarstellung (4.10) sowie dem Satzüber die dominierende Konvergenz folgt daher

Li′ = limn→∞

(

Qi(1)Σ(1)QTi′ (1) + (−1)nQi(−1)Σ(−1)QT

i′ (−1))

Z−1i′ (4.48)

mit

Zi′ :=

∫ 1

−1

Qi′(x)dΣ(x)QTi′ (x),

wobei Σ(−1) und Σ(1) die Massen von Σ in den Punkten x = −1 und x = 1 sind. Betrachtetman die Folge der ungeraden natürlichen Zahlen, so folgt aus Gleichung (4.48), dass Σ keineMasse im Punkt x = −1 haben kann und damit die Behauptung.

Insbesondere lässt sich die stationäre Verteilung eines irreduziblen aperiodischen positiv re-kurrenten Quasi-Geburts- und Todesprozesses mit Zustandsraum Cp und Spektralmaß Σauf [−1, 1] wie folgt darstellen.

Page 83: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.1. ZEITDISKRETE QUASI-GEBURTS- UND TODESPROZESSE 77

Folgerung 4.23 Es seien die Voraussetzungen von Satz 4.22 erfüllt und (Xn)n≥0 positiv re-kurrent. Dann ist die stationäre Verteilung von (Xn)n≥0 gegeben durch

π = (πT0 , π

T1 , . . .) mit πT

k = eT0 Σ(1)QT

k (1)

(∫ 1

−1

Qk(x)dΣ(x)QTk (x)

)−1

, k ≥ 0, (4.49)

eT0 = (1, 0, . . . , 0), wobei Σ(1) die Masse des Random Walk Matrixmaßes an der Stelle x = 1

bezeichne.

Beweis Da der in Satz 4.22 berechnete Grenzwert Li′ unabhängig vom Zustand i ist, giltDarstellung (4.47) für jedes i, insbesondere für i = 0. Damit folgt wegen

π = (πT0 , π

T1 , . . .) = eT

0 (L0, L1, . . .)

die Behauptung des Satzes.

Bemerkung 4.24 Elementare Rechnungen zeigen, dass die Matrizen

Rj = Zj(QTj (1))−1QT

j+1(1)Z−1j+1, j ≥ 0, (4.50)

mit πT0 = eT

0 Σ(1)Z−10 die Gleichung (4.44) erfüllen, wobei die Matrizen Zj im Beweis von

Satz 4.22 definiert sind. Außerdem folgt mit den Bedingungen in (4.5), dass die Matrizenin (4.50) der Rekursion (4.45) sowie der Anfangsbedingung (4.46) genügen.

Weiterhin impliziert die Darstellung (4.47) ein einfaches notwendiges Kriterium für die posi-tive Rekurrenz eines irreduziblen zeitdiskreten Quasi-Geburts- und Todesprozesses auf demGitter Cp, für den ein Spektralmaß auf dem Intervall [−1, 1] existiert.

Satz 4.25 (Xn)n≥0 sei ein zeitdiskreter irreduzibler Quasi-Geburts- und Todesprozess miteinem Zustandsraum der Form (4.1) und einer Einschritt-Übergangsmatrix der Form (4.2).Weiter seien die Voraussetzungen von Satz 4.1 erfüllt mit Random Walk Matrixmaß Σ, wobeisupp (Σ) ⊂ [−1, 1] gelte. Ist der Prozess (Xn)n≥0 positiv rekurrent, so sind die Matrizen

Qi(1) −Qk(1)

für alle i, k ≥ 0 nichtsingulär, wobei Qnn≥0 die durch die Rekursion (4.4) gegebenen zuge-hörigen Random Walk Matrixpolynome sind.

Beweis Da der Grenzwert in (4.47) unabhängig von i ist, gilt

Li′ = Qi(1)Σ(1)QTi′ (1) = Qk(1)Σ(1)QT

i′ (1), i′, i, k ≥ 0.

Dies impliziert mit i′ = 0

(Qi(1) −Qk(1))Σ(1) = 0, i, k ≥ 0.

Da nach Satz 4.16 der Prozess (Xn)n≥0 genau dann positiv rekurrent ist, falls die MaßeeT

ℓ Σ(x)S−10 eℓ, ℓ ∈ 1, . . . , p, einen Sprung an der Stelle x = 1 haben, muss die Matrix

Qi(1) −Qk(1) nichtsingulär sein (sonst wäre Σ(1) die Nullmatrix).

Page 84: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

78 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

4.2 Zeitstetige Quasi-Geburts- und Todesprozesse

In diesem Kapitel diskutieren wir die Existenz von Spektralmaßen für zeitstetige Quasi-Geburts- und Todesprozesse und leiten aus der Existenz eines Spektralmaßes Eigenschaftendes zugrunde liegenden Prozesses her.

4.2.1 Einführung

Im Folgenden bezeichne (Ω,F , P, (Xt)t∈R+0) bzw. (Xt)t≥0 einen zeitstetigen homogenen Mar-

kovprozess auf dem in (4.1) definierten Gitter Cp, für den aus einem Zustand (i, j) nur Über-gänge in Zustände in den Leveln i, i + 1 und i − 1, i ≥ 1, möglich seien. Dann heißt die(blocktridiagonale [vgl. Kapitel 4.1]) matrixwertige Funktion

P (t) =(

P(i,j),(i′,j′)(t))

(i,j),(i′,j′)∈Cp,

deren Einträge durch die Übergangswahrscheinlichkeiten zum Zeitpunkt t ≥ 0

P(i,j),(i′,j′)(t) := P (Xt = (i, j) | X0 = (i′, j′)), (i, j), (i′, j′) ∈ Cp,

gegeben sind, Übergangsfunktion bzw. Übergangsmatrix von (Xt)t≥0. Gilt für die Übergangs-wahrscheinlichkeiten

limt→0

P(i,j),(i′,j′)(t) = δ(i,j),(i′,j′) ∀ (i, j), (i′, j′) ∈ Cp,

so wird P (t) Standard-Übergangsmatrix genannt. In diesem Fall existieren die Grenzwerte

Q(i,j),(i′,j′) := limt→0+

P(i,j),(i′,j′)(t) − δ(i,j),(i′,j′)t

, (i, j), (i′, j′) ∈ Cp, (4.51)

d. h. für Standard-Übergangsmatrizen existiert die Ableitung P ′(0). Fassen wir die Grenzwertein (4.51) in einer Matrix zusammen, so erhalten wir eine blocktridiagonale Matrix der Form

Q :=

B0 A0

CT1 B1 A1

CT2 B2 A2

. . . . . . . . .

(4.52)

mit P ′(0) = Q sowie den p × p-Matrizen An, n ≥ 0, Bn, n ≥ 0, und Cn, n ≥ 1. Dabeiwird Q Intensitäts- bzw. Q-Matrix des Prozesses (Xt)t≥0 genannt. Weiter heißen die Einträgevon Q Übergangsintensitäten bzw. Übergangsraten. Analog zum zeitdiskreten Fall steht dieÜbergangsrate vom Zustand (i, j) in den Zustand (i′, j′) in der Position (j, j′) des Blockes Qii′

von Q, d. h. es gilt

Q(i,j),(i′,j′) = eTj Qii′ej′ , e

Tj = (0, . . . , 0, 1, 0, . . . , 0).

Page 85: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.2. ZEITSTETIGE QUASI-GEBURTS- UND TODESPROZESSE 79

Bemerkung 4.26 Betrachtet man in dem zeitstetigen Markovprozess (Xt)t≥0 nur die Sprün-ge und nicht die Verweildauern, so entsteht die in den Prozess (Xt)t≥0 eingebettete (zeit-diskrete) Markovkette (Xn)n≥0. Mit den eingeführten Bezeichnungen sind deren Einschritt-Übergangswahrscheinlichkeiten gegeben durch

P(i,j),(i′,j′) =

− Q(i,j),(i′,j′)

Q(i′,j′)(i′,j′), falls (i, j) 6= (i′, j′) und Q(i′,j′)(i′,j′) 6= 0,

0, falls (i, j) = (i′, j′) und Q(i′,j′)(i′,j′) 6= 0,

δ(i,j),(i′,j′), falls Q(i′,j′)(i′,j′) = 0.

(4.53)

Bemerkung 4.27 Bisher haben wir für zeitstetige Markovprozesse über dem in (4.1) defi-nierten Zustandsraum Cp Übergangswahrscheinlichkeiten und damit die zugehörige Q-MatrixQ definiert. Umgekehrt können wir unabhängig voneinander Übergangsfunktionen und Q-Matrizen allgemein durch ihre Eigenschaften definieren [siehe z. B. Anderson (1991)]. Zueiner gegebenen Q-Matrix Q heißt P (t) ein Q-Prozess, falls P (t) eine Übergangsfunktion mitP ′(0) = Q ist.

Zeitstetige Quasi-Geburts- und Todesprozesse mit einem Zustandsraum der Form (4.1) undeiner Intensitätsmatrix der Form (4.52) stellen beispielsweise ein sehr nützliches Hilfsmittel beider Modellierung von Warteschlangensystemen dar [siehe z. B. Neuts (1981, 1989), Latoucheund Ramaswami (1999) sowie Kapitel 4.2.3]. Dabei ist die Q-Matrix häufig jedoch die einzigeInformation, die über den zugrunde liegenden Prozess vorliegt. In diesem Fall stellt sich dieFrage, wie aus der gegebenen Q-Matrix eine zugehörige Übergangsfunktion berechnet werdenkann. Dazu werden ausgehend von der Q-Matrix alle Q-Prozesse gesucht. Ist die in (4.52)definierte Q-Matrix konservativ, d. h. gilt

(A0 +B0)1 = 0 und (An +Bn + CTn )1 = 0 ∀ n ∈ N

mit 1T := (1, 1, . . . , 1), so existiert immer eine Übergangsfunktion P (t) mit

P (0) = I und P ′(0) = Q,

welche die Kolmogorovsche Vorwärtsgleichung

P ′(t) = P (t)Q ∀ t ≥ 0 (4.54)

und die Kolmogorovsche Rückwärtsgleichung

P ′(t) = QP (t) ∀ t ≥ 0 (4.55)

erfüllt, wobei I die unendliche Einheitsmatrix bezeichne. DieQ-Matrix heißt regulär, falls P (t)die einzige Übergangsfunktion zu Q ist, welche die Kolmogorovschen Differentialgleichungenerfüllt. Für weitere Details über die Lösbarkeit sowie die Herleitung der KolmogorovschenGleichungen verweisen wir auf die Monografie von Anderson (1991). Für gewöhnliche Geburts-und Todesprozesse sind die Kolmogorovschen Gleichungen stets erfüllt [siehe z. B. Karlin undMcGregor (1957a)].

Page 86: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

80 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

4.2.2 Zeitstetige Quasi-Geburts- und Todesprozesse und orthogona-

le Matrixpolynome

Analog zum eindimensionalen Fall [siehe z. B. Karlin und McGregor (1957b)] assoziieren wirzu der in (4.52) definierten Intensitätsmatrix Q eine durch die Drei-Schritt-Rekursion

−xQn(x) = AnQn+1(x) +BnQn(x) + CTnQn−1(x), n ≥ 0, (4.56)

mit den Anfangsbedingungen Q−1(x) = 0p und Q0(x) = Ip definierte Folge Qnn≥0 vonMatrixpolynomen, wobei die Rekursionskoeffizienten die Blöcke aus Q sind. Wie im zeitdis-kreten Fall können wir unter der Voraussetzung der Nichtsingularität der Matrizen An, n ≥ 0,und Cn, n ≥ 1, zeigen, dass die durch die Rekursion (4.56) definierten Matrixpolynome ge-nau dann orthogonal bzgl. eines Matrixmaßes Σ sind, falls es eine Folge von nichtsingulärenMatrizen gibt, mit der sich die in (4.52) definierte Q-Matrix symmetrisieren lässt. In diesemFall wird Σ Spektralmaß genannt.

Satz 4.28 Die Matrizen An, n ≥ 0, und Cn, n ≥ 1, in der Q-Matrix (4.52) seien nicht-singulär und Qnn≥0 sei eine durch die Rekursion (4.56) definierte Folge von Matrixpoly-nomen. Es existiert genau dann ein Matrixmaß Σ auf R mit positiv definiten Hankelmatri-zen H2n, n ≥ 0, so dass Qnn≥0 orthogonal bzgl. Σ ist, wenn es eine Folge von nichtsingulärenMatrizen Rnn≥0 gibt mit

RnBnR−1n = (RnBnR

−1n )T ∀ n ≥ 0 sowie

RTnRn = C−1

n · · ·C−11 (RT

0R0)A0 · · ·An−1 ∀ n ≥ 1. (4.57)

Dabei seien die Hankelmatrizen H2n, n ≥ 0, wie in (2.1) definiert. Weiter gilt S0 = (RT0R0)

−1,wobei S0 das 0-te Moment von Σ ist.

Bemerkung 4.29 Satz 4.28 stellt einen alternativen Beweis für die Existenz eines Spektral-maßes für gewöhnliche Geburts- und Todesprozesse dar. Während wir im Matrixfall keineallgemeine Aussage über die Lage des Trägers des Spektralmaßes treffen können, existiert imeindimensionalen Fall immer ein Spektralmaß µ mit supp (µ) ⊂ [0,∞) [Karlin und McGregor(1957b)].

Ist P (t) eine Übergangsfunktion, welche die Kolmogorovsche Vorwärtsgleichung (4.54) mit derin (4.52) definierten Intensitätsmatrix Q erfüllt, so existiert für die Blöcke von P (t) eine Integ-raldarstellung, deren Integranden aus einem Spektralmaß sowie den zugehörigen orthogonalenMatrixpolynomen (falls existent) bestehen. Diese Darstellung verallgemeinert die von Karlinund McGregor (1957b) für die Übergangswahrscheinlichkeiten eines gewöhnlichen Geburts-und Todesprozesses hergeleitete Integraldarstellung und stellt, analog zum zeitdiskreten Fall,die Grundlage für die Untersuchung der Eigenschaften des zugrunde liegenden Prozesses dar[siehe Kapitel 4.2.4].

Page 87: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.2. ZEITSTETIGE QUASI-GEBURTS- UND TODESPROZESSE 81

Satz 4.30 Es sei (Xt)t≥0 ein zeitstetiger Quasi-Geburts- und Todesprozess mit einem Zu-standsraum der Form (4.1) und einer Intensitätsmatrix der Form (4.52). Weiter seien dieVoraussetzungen von Satz 4.28 erfüllt mit Spektralmaß Σ. Ist P (t) eine Übergangsfunktion,welche die Kolmogorovsche Vorwärtsgleichung (4.54) für alle t ≥ 0 erfüllt, so gilt

Pij(t) =

(∫

e−txQi(x)dΣ(x)QTj (x)

)(∫

Qj(x)dΣ(x)QTj (x)

)−1

, i, j ≥ 0, (4.58)

wobei Qnn≥0 die durch die Drei-Schritt-Rekursion (4.56) definierten, bzgl. Σ orthogonalenMatrixpolynome sind und Pij(t) den Block an der Stelle (i, j) in der Übergangsmatrix P (t)bezeichne.

Beweis Es bezeichne Q(x) := (QT0 (x), QT

1 (x), . . .)T . Dann ist Rekursion (4.56) äquivalent zu

−xQ(x) = QQ(x).

Da die Übergangsfunktion P (t) nach Voraussetzung die Kolmogorovsche Vorwärtsgleichungerfüllt, folgt mit der Definition

F (x, t) := P (t)Q(x)

die Differentialgleichung

d

dtF (x, t) = P ′(t)Q(x) = P (t)QQ(x) = −xP (t)Q(x) = −xF (x, t), (4.59)

wobei P (0) = I die Anfangsbedingung

F (x, 0) = P (0)Q(x) = Q(x)

impliziert. Damit erhalten wir als Lösung der Differentialgleichung (4.59)

F (x, t) = e−txQ(x) = P (t)Q(x).

Aus ihr folgt die Identität∫

e−txQ(x)dΣ(x)QTj (x) = P (t)

Q(x)dΣ(x)QTj (x)

und damit wegen der Orthogonalität der Matrixpolynome Qnn≥0 die Darstellung (4.58).

Bemerkung 4.31 Wie in Bemerkung 4.8 dargestellt, können wir im Fall von nichtsingulärenMatrizen Cn, n ≥ 1, nachweisen, dass die Bedingungen

RnBn = EnRn und Cn+1RTn+1Rn+1 = RT

nRnAn ∀ n ≥ 0,

wobei Enn≥0 symmetrische Matrizen sind, hinreichend für die Existenz eines Spektralma-ßes Σ für einen zeitstetigen Quasi-Geburts- und Todesprozess auf dem Gitter Cp sind. Fürdie Blöcke der Übergangsfunktion P (t) erhalten wir in diesem Fall mit den im Beweis vonSatz 4.30 angeführten Argumenten

Pij(t)RTj Rj =

e−txQi(x)dΣ(x)QTj (x), i, j = 0, 1, . . . ,

wobei Qnn≥0 die zugehörigen, bzgl. Σ orthogonalen Matrixpolynome sind.

Page 88: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

82 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Weiterhin besteht analog zum zeitdiskreten Fall [siehe Satz 4.9] zwischen der Stieltjes-Trans-formierten eines eindeutig bestimmten Spektralmaßes zu der in (4.52) definierten Q-Matrixund der eines eindeutig bestimmten Spektralmaßes zu einer Q-Matrix Q, welche sich von Qlediglich durch den ersten Block unterscheidet, die folgende Beziehung.

Satz 4.32 Es sei Q die in (4.52) definierte Intensitätsmatrix und

Q :=

B0 A0

CT1 B1 A1

CT2 B2 A2

. . . . . . . . .

, (4.60)

wobei B0 eine p × p-Matrix sei und Ai, i ≥ 0, Bi, i ≥ 1, und Ci, i ≥ 1, die Blöcke aus Qsind. Zu Q existiere ein Spektralmaß Σ auf R. Weiter sei Rnn≥0 eine Folge von nichtsingu-lären Matrizen, mit der die Bedingungen in (4.57) so erfüllt sind, dass die Matrix R0B0R

−10

symmetrisch ist. Dann existiert ein Spektralmaß Σ zu Q. Sind die Spektralmaße Σ und Σeindeutig durch ihre Momente bestimmt, so gilt für deren Stieltjes-Transformierten

dΣ(t)

z − t=(

dΣ(t)

z − t

)−1

− S−10 (B0 −B0)

−1

. (4.61)

In dem folgenden Resultat betrachten wir den zu dem Prozess (Xt)t≥0 mit Zustandsraum Cp

in (4.1) und Intensitätsmatrix Q in (4.52) assoziierten Prozess (X(k)t )t≥0, X

(0)t := Xt, der

Ordnung k ≥ 1, dessen Intensitätsmatrix Q(k) ebenfalls von der Form (4.52) ist, wobei dieMatrizen An, Bn und Cn durch die Matrizen An+k, Bn+k und Cn+k ersetzt werden [van Doorn(2006)]. Die zu den durch die Rekursion (4.56) definierten Matrixpolynomen Qnn≥0 asso-ziierten Matrixpolynome Q(k)

n n≥0 der Ordnung k ≥ 1 sind demnach durch eine Rekursionder Form (4.56) mit den Rekursionskoeffizienten An+k, Bn+k und Cn+k gegeben. Der folgendeSatz stellt einen Zusammenhang zwischen der Stieltjes-Transformierten eines Spektralmaßeszu Q(k) und der eines Spektralmaßes zu Q sowie der eines Spektralmaßes zu Q(k+1) (falls dieseexistieren und eindeutig bestimmt sind) her.

Satz 4.33 Es sei Q die in (4.52) definierte Intensitätsmatrix und

Q(k) :=

Bk Ak

CTk+1 Bk+1 Ak+1

CTk+2 Bk+2 Ak+2

. . . . . . . . .

, k ≥ 1. (4.62)

Weiter seien für die Blöcke von Q die Bedingungen in (4.57) mit einer Folge Rnn≥0 nicht-singulärer Matrizen erfüllt, d. h. zu Q existiere ein Spektralmaß Σ. Dann exisitiert ein Spek-tralmaß Σ(k) zu Q(k). Sind die Spektralmaße eindeutig durch ihre Momente bestimmt, so gilt

Page 89: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.2. ZEITSTETIGE QUASI-GEBURTS- UND TODESPROZESSE 83

für deren Stieltjes-Transformierten∫

dΣ(x)

z − x= R−1

0

zIp − E0 −D1

zIp − E1 −D2

zIp − E2 − . . .

. . .−Dk−1

zIp − Ek−1 −DkRk

dΣ(k)(x)

z − xRT

kDTk

−1

DTk−1

−1

· · ·DT2

−1

DT1

−1

(RT0 )−1 (4.63)

mit

Dn+1 := −RnAnR−1n+1, En := −RnBnR

−1n sowie DT

n := −RnCTnR

−1n−1. (4.64)

Weiter gilt für die Stieltjes-Transformierten der Maße Σ(k) und Σ(k+1) die Beziehung∫

dΣ(k)(x)

z − x= R−1

k

zIp +RkBkR−1k −RkAk

dΣ(k+1)(x)

z − xRT

k+1Rk+1CTk+1R

−1k

−1

(RTk )−1.

Beweis Qnn≥0 sei die durch die Rekursion (4.56) definierte und bzgl. Σ orthogonale Folgevon Matrixpolynomen. Nach Voraussetzung sind die Bedingungen in (4.57) mit einer Fol-ge Rnn≥0 nichtsingulärer Matrizen erfüllt. Somit sind die Polynome Wn := RnQn orthonor-mal bzgl. Σ und sie genügen wegen (4.56) der Rekursion

xWn(x) = Dn+1Wn+1(x) + EnWn(x) +DTnWn−1(x) (4.65)

mit den AnfangsbedingungenW−1(x) = 0p undW0(x) = R0 sowie den Rekursionskoeffizienten

Dn+1 = −RnAnR−1n+1, En = −RnBnR

−1n und DT

n = −RnCTnR

−1n−1. (4.66)

Nach Satz 2.7 erhalten wir damit für die Stieltjes-Transformierte von Σ die Darstellung∫

dΣ(x)

z − x= lim

n→∞R−1

0

zIp − E0 −D1

zIp − E1 −D2

zIp − E2 − . . . (4.67)

. . .−Dn

zIp − En

−1

DTn

−1

· · ·DT2

−1

DT1

−1

(RT0 )−1.

Es sei nun Q(k)n n≥0 die zu Qnn≥0 assoziierte Folge von Matrixpolynomen der Ordnung k

(siehe oben). Dann genügen die Polynome Q(k)n n≥0 der Rekursion

−xQ(k)n (x) = An+kQ

(k)n+1(x) +Bn+kQ

(k)n (x) + CT

n+kQ(k)n−1(x) (4.68)

mit den Anfangsbedingungen Q(k)−1(x) = 0p und Q(k)

0 (x) = Ip. Mit den Bezeichnungen

A(k)n := An+k, B

(k)n := Bn+k, C

(k)n := Cn+k sowie R(k)

n := Rn+k

folgt aus den Gleichungen in (4.57) die Symmetrie der Matrizen

−R(k)n B(k)

n (R(k)n )−1 = −Rn+kBn+kR

−1n+k ∀ n ≥ 0

Page 90: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

84 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

sowie die Identität

(R(k)n )TR(k)

n = RTn+kRn+k

= C−1n+kC

−1n+k−1 · · ·C−1

k+1C−1k · · ·C−1

1 RT0R0A0A1 · · ·Ak−1Ak · · ·An+k−1

= C−1n+kC

−1n+k−1 · · ·C−1

k+1RTkRkAk · · ·An+k−1

= (C(k)n )−1(C

(k)n−1)

−1 · · · (C(k)1 )−1(R

(k)0 )TR

(k)0 A

(k)0 · · ·A(k)

n−1 ∀ n ≥ 1.

Demzufolge existiert nach Satz 4.28 ein Spektralmaß Σ(k) zu Q(k). Wie oben gilt weiter, dassdie Polynome W (k)

n (x) := R(k)n Q

(k)n (x) orthonormal bzgl. Σ(k) sind und die Rekursion

xW (k)n (x) = D

(k)n+1W

(k)n+1(x) + E(k)

n W (k)n (x) + (D(k)

n )TW(k)n−1(x) (4.69)

mit den Anfangsbedingungen W (k)0 (x) = R

(k)0 = Rk und den Koeffizienten

D(k)n+1 = Dn+k+1 sowie E(k)

n = En+k ∀ n ≥ 0

erfüllen. Daher folgt aus Satz 2.7 für die Stieltjes-Transformierte des Maßes Σ(k) die Matrix-kettenbruchentwicklung

dΣ(k)(x)

z − x= lim

n→∞(R

(k)0 )−1

zIp − E(k)0 −D

(k)1

zIp − E(k)1 −D

(k)2

zIp − E(k)2 − . . .

. . .−D(k)n

zIp − E(k)n

−1

(D(k)n )T

−1

· · · (D(k)2 )T

−1

(D(k)1 )T

−1

((R(k)0 )T )−1

= limn→∞

R−1k

zIp − Ek −Dk+1

zIp − Ek+1 −Dk+2

zIp − Ek+2 − . . .

. . .−Dn+k

zIp − En+k

−1

DTn+k

−1

· · ·DTk+2

−1

DTk+1

−1

(RTk )−1. (4.70)

Damit gilt wegen (4.67) für die Stieltjes-Transformierten der Maße Σ und Σ(k) die Beziehung∫

dΣ(x)

z − x= R−1

0

zIp − E0 −D1

zIp − E1 −D2

zIp − E2 − . . .

. . .−Dk−1

zIp − Ek−1 −DkRk

dΣ(k)(x)

z − xRT

kDTk

−1

DTk−1

−1

· · ·DT2

−1

DT1

−1

(RT0 )−1.

Weiter folgt mit dem Matrixkettenbruch (4.70) sowie den Darstellungen in (4.66)∫

dΣ(k)(x)

z − x= R−1

k

zIp − Ek −Dk+1Rk+1

dΣ(k+1)(x)

z − xRT

k+1DTk+1

−1

(RTk )−1

= R−1k

zIp +RkBkR−1k −RkAk

dΣ(k+1)(x)

z − xRT

k+1Rk+1CTk+1R

−1k

−1

(RTk )−1

und damit die zweite Behauptung des Satzes.

Page 91: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.2. ZEITSTETIGE QUASI-GEBURTS- UND TODESPROZESSE 85

4.2.3 Beispiele aus der Warteschlangentheorie

In diesem Kapitel weisen wir für zeitstetige Quasi-Geburts- und Todesprozesse, denen War-teschlangenmodelle zugrunde liegen, die Existenz eines Spektralmaßes nach und geben, fallsmöglich, die Stieltjes-Transformierte des Spektralmaßes explizit an. Dazu verwenden wir zurBeschreibung der Systeme die Kendallsche Notation A/B/c/K für Bediensysteme, in der Aund B für die Verteilungen der Zwischenankunfts- und Bedienzeiten stehen, c die Anzahl derBediener angibt und K die Warteraumkapazität beschreibt. Insbesondere steht M für dieExponentialverteilung ("markovian distribution").

Beispiel 4.34 In diesem Beispiel betrachten wir das von Dayar und Quessette (2002) be-schriebene Warteschlangenmodell. Das Modell besteht aus zwei unabhängigen Warteschlan-gensystemen, wobei das erste System ein M/M/1/∞-System und das zweite System einM/M/1/p − 1-System ist. Beide Ankunftsströme bilden damit jeweils einen Poissonpro-zess mit Ankunftsraten λ1 bzw. λ2. Weiter sind die Bedienzeiten exponential verteilt mitBedienraten µ1 bzw. µ2, wobei γ := λ1 + λ2 + µ1 + µ2 gelte. Das beschriebene Warte-schlangenmodell kann durch einen zweidimensionalen zeitstetigen homogenen MarkovprozessX(t) := (L1(t), L2(t))t≥0 über dem Zustandsraum E := N0 × 0, . . . , p − 1 beschriebenwerden, wobei L1(t) die Länge der ersten Warteschlange und L2(t) die Länge der zweitenWarteschlange zum Zeitpunkt t ≥ 0 angibt. Die zugehörige Intensitätsmatrix ist demnachvon der Form (4.52) mit den Einträgen

B0 =

−(λ1 + λ2) λ2

µ2 −(γ − µ1) λ2

. . . . . . . . .µ2 −(γ − µ1) λ2

µ2 −(λ1 + µ2)

,

Bi =

−(γ − µ2) λ2

µ2 −γ λ2

. . . . . . . . .µ2 −γ λ2

µ2 −(γ − λ2)

, i ≥ 1,

Ai = λ1Ip, i ≥ 0, und CTi = µ1Ip, i ≥ 1, und ist somit konservativ. Es ist leicht zu sehen, dass

die Intensitätsmatrix mit den Diagonalmatrizen

R0 = diag

(

1,

λ2

µ2

,(

λ2

µ2

)2

, . . . ,(

λ2

µ2

)p−1)

und Ri =

(√

λ1

µ1

)i

R0, i ≥ 1,

symmetrisiert werden kann. Dies impliziert die Existenz eines Spektralmaßes [siehe Satz 4.28].

Page 92: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

86 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Bezeichnet (Xn)n≥0 die in den Prozess (Xt)t≥0 eingebettete Markovkette, so können derenn-Schritt-Übergangswahrscheinlichkeiten mit (4.53) berechnet werden. Weiterhin existiertzu (Xn)n≥0 ein Spektralmaß Σp mit supp (Σp) ⊂ [−1, 1], da mit den Diagonalmatrizen

Rp0 = diag

(λ1 + λ2)µ2√

(γ − µ1)λ2

, 1,

√λ2√µ2

,λ2

µ2

, . . . ,(

√λ2√µ2

)p−3

,

(λ1 + µ2)λp−22

(γ − µ1)µp−22

,

Rp1 = diag

λ1(γ − µ2)µ2√

λ2(γ − µ1)µ1

,

√γλ1

(γ − µ1)µ1

, . . . ,

γλ1λp−32

(γ − µ1)µ1µp−32

,

λ1(γ − λ2)λp−22

(γ − µ1)µ1µp−22

,

Rpi =

(√

λ1

µ1

)i−1

R1, i ≥ 2,

die Voraussetzungen der Sätze 4.1 und 4.6 erfüllt sind.

Beispiel 4.35 Im Folgenden bezeichne (Xt)t≥0 einen zeitstetigen homogenen Quasi-Geburts-und Todesprozess mit einem Zustandsraum der Form (4.1) und einer Intensitätsmatrix derForm (4.52), deren Einträge durch die p× p-Matrizen

B0 =

−γ0 β01

β10 −γ1 β12

. . . . . . . . .βp−2,p−3 −γp−2 βp−2,p−1

βp−1,p−2 −γp−1

, (4.71)

Bi =

−δ0 β01

β10 −δ1 β12

. . . . . . . . .βp−2,p−3 −δp−2 βp−2,p−1

βp−1,p−2 −δp−1

, i ≥ 1, (4.72)

γk 6= 0, δk 6= 0, k = 0, . . . , p− 1, Ai = α1Ip, i ≥ 0, sowie CTi = α2Ip, i ≥ 1, gegeben seien.

Eine Intensitätsmatrix dieser Form tritt beispielsweise bei der Modellierung des folgendenWarteschlangenmodells auf. Das Modell bestehe aus p einzelnen M/M/1/∞-Systemen, wel-che in dem Sinne miteinander verbunden seien, dass das Modell aus einem System in einanderes System wechseln kann. Innerhalb der einzelnen Systeme bilden die Ankünfte derKunden somit einen Poissonprozess, wobei die Ankunftsraten jeweils durch α1 gegeben seien.Weiter sind die Bedienzeiten der einzelnen Systeme exponential verteilt mit einer Rate α2.Befindet sich das Modell in dem System i, so wechsele es mit der Rate βij in das System j,wobei aus dem System i nur Übergänge in die benachbarten Systeme i− 1 und i+ 1 möglichseien. Das beschriebene Modell kann durch einen zweidimensionalen zeitstetigen homogenen

Page 93: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.2. ZEITSTETIGE QUASI-GEBURTS- UND TODESPROZESSE 87

Markovprozess (Xt)t≥0 := (Nt, St)t≥0 über dem Zustandsraum E := N0 ×1, . . . , p beschrie-ben werden. Dabei zählt Nt die Anzahl der Kunden im gesamten Modell zur Zeit t und St gibtan, in welchem System sich das Modell zur Zeit t befindet. Die zugehörige Intensitätsmatrixhat demnach die angegebene Form und ist konservativ.

Gilt für die Einträge in der Intensitätsmatrix βij 6= 0 für alle i, j = 0, . . . , p − 1, so sind dieBedingungen in (4.57) mit den Diagonalmatrizen

R0 = diag

(√

βp−1,p−2 · · · β10

β01 · · · βp−2,p−1

,

βp−1,p−2 · · · β21

β12 · · · βp−2,p−1

, · · · ,√

βp−1,p−2

βp−2,p−1

, 1

)

(4.73)

und

Ri =

(√

α1

α2

)i

R0, i ≥ 1, (4.74)

erfüllt. Dies impliziert die Existenz eines Spektralmaßes Σ zu dem Prozess (Xt)t≥0.

Im Folgenden geben wir unter der Voraussetzung, dass für die Einträge in der Intensitätsma-trix

δi =: δ, γi =: γ, βi−1,i =: β1 sowie βi,i−1 =: β2 ∀ i = 0, . . . , p− 1, β1, β2 6= 0, (4.75)

gilt, eine Darstellung für die Stieltjes-Transformierte von Σ an. Dazu ersetzen wir in der Q-Matrix den Block B0 durch den Block B1 und bezeichnen die neue Q-Matrix mit Q. Dannexistiert zu Q ein Spektralmaß Σ [siehe Satz 4.32]. Nun betrachten wir die Matrixpolyno-me Wn := RnQn, n ≥ 0, wobei Qnn≥0 die durch die Rekursion (4.56) definierten, bzgl. Σorthogonalen Matrixpolynome bezeichnen. Dann sind die Polynome Wnn≥0 orthonormalbzgl. Σ und erfüllen wegen (4.73) und (4.74) eine Rekursion der Form (4.65) mit den kon-stanten Koeffizienten D := Dn = −√

α1α2Ip, n ≥ 1, und

E := En =

δ −√β1β2

−√β1β2 δ −√

β1β2

. . . . . . . . .−√

β1β2 δ −√β1β2

−√β1β2 δ

, n ≥ 0. (4.76)

Damit ist die Stieltjes-Transformierte des Maßes Σ von der Form (3.35) mit konstanten Ma-trizen D(u) ≡ D und E(u) ≡ E. Bezeichnen

λj = δ + 2√

β1β2 cos

(

p+ 1

)

, j = 1, . . . , p,

die Eigenwerte der Matrix E und

xj =

2

p+ 1

(

sin

(

πjℓ

p+ 1

))p

ℓ=1

, j = 1, . . . , p,

Page 94: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

88 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

die zugehörigen normierten Eigenvektoren [vgl. Beispiel 4.11], so gilt die Darstellung

E − zIp = UH(z)UT , UTU = Ip,

mit H := diag (λ1 − z, . . . , λp − z) , wobei die Einträge der Matrix U = ujℓj,ℓ=1,...,p durch

ujℓ =

2

p+ 1sin

(

πjℓ

p+ 1

)

, j, ℓ = 1, . . . , p,

gegeben sind. Damit folgt aus der Darstellung (3.35) für die Stieltjes-Transformierte von Σ

Φ(z) = −1

2D−2(E − zIp)

1/2

Ip +√

Ip − 4D2(E − zIp)−2

(E − zIp)1/2

= − 1

2α1α2

UH1/2(z)

Ip +√

Ip − 4α1α2H−2(z)

H1/2(z)UT

und daraus erhalten wir mit Satz 4.32 die Stieltjes-Transformierte des Spektralmaßes Σ.

4.2.4 α-Rekurrenzkriterien für zeitstetige Quasi-Geburts- und To-

desprozesse

In diesem Kapitel charakterisieren wir unter der Voraussetzung der Existenz eines Spektral-maßes die α-Rekurrenz von zeitstetigen irreduziblen Quasi-Geburts- und Todesprozessen aufdem Gitter Cp in (4.1) durch das Spektralmaß, die zugehörigen orthogonalen Matrixpolynomesowie die Blöcke der Intensitätsmatrix. Dazu nehmen wir an, dass der Träger des Spektral-maßes in dem Intervall [α,∞) liegt. Weitere α-Rekurrenzkriterien für Quasi-Geburts- undTodesprozesse können der Arbeit von van Doorn (2006) entnommen werden.

Aus der klassischen Theorie der zeitstetigen irreduziblen homogenen Markovprozesse mitÜbergangsfunktion pij(t) und Zustandsraum S ist bekannt, dass für alle Zustände i, j ∈ Seine Zahl λ ≥ 0 mit

limt→∞

1

tlog pij(t) = −λ

existiert. Dabei wird λ auch "decay parameter" genannt. Ist λ > 0, so ist der zugrundeliegende Prozess transient. Weiter kann λ als Konvergenzbereich der Laplace-Transformiertender Übergangsfunktion pij(t) intepretiert werden, d. h.

λ = sup

s ≥ 0 :

∫ ∞

0

estpij(t)dt <∞

, i, j ∈ S.

Für weitere Details sowie die in (4.78) und (4.79) angegebenen Definitionen der α-Rekurrenzbzw. α-Transienz verweisen wir auf die Monografie von Anderson (1991) sowie die Arbeitenvon van Doorn (2003, 2006).

Page 95: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.2. ZEITSTETIGE QUASI-GEBURTS- UND TODESPROZESSE 89

Es bezeichne nun (Xt)t≥0 einen zeitstetigen irreduziblen Quasi-Geburts- und Todesprozessmit einem Zustandsraum der Form (4.1) und einer Intensitätsmatrix der Form (4.52), wobei

B01 + A01 < 0, (4.77)

1T = (1, . . . , 1), 0T = (0, . . . , 0), gelte. Weiterhin sei P (t) eine zugehörige Übergangsfunktion

und α der "decay parameter" von (Xt)t≥0, d. h.

α := sup

s ≥ 0 : eTj

∫ ∞

0

estPii′(t)dt ej′ <∞

, (i, j), (i′, j′) ∈ Cp.

Dann heißt ein Zustand (i, ℓ) ∈ Cp α-rekurrent, falls

eTℓ

∫ ∞

0

eαtPii(t)dteℓ = ∞, (4.78)

eTℓ = (0, . . . , 0, 1, 0, . . . , 0), gilt (sonst α-transient). Ist der Zustand (i, ℓ) ∈ Cp α-rekurrent, so

wird er α-positiv genannt, fallseT

ℓ limt→∞

eαtPii(t)eℓ > 0 (4.79)

gilt (sonst α-null). Der Prozess (Xt)t≥0 heißt α-rekurrent (α-positiv, α-null) bzw. α-transient,falls ein Zustand in dem Zustandsraum Cp α-rekurrent (α-positiv, α-null) bzw. α-transientist.

Existieren zu dem eingeführten Prozess (Xt)t≥0 ein Spektralmaß Σ auf dem Intervall [α,∞)und eine Übergangsfunktion P (t), die die Kolmogorovsche Vorwärtsgleichung erfüllt, so lässtsich mithilfe der Integraldarstellung (4.58) für die Blöcke von P (t) das folgende α-Rekurrenz-kriterium nachweisen. Dabei erfolgt der Nachweis mit ähnlichen Argumenten wie der Beweisvon Satz 4.14 und wird daher hier nicht aufgeführt. Das Resultat überträgt das von van Doorn(2003) für gewöhnliche Geburts- und Todesprozesse nachgewiesene α-Rekurrenzkriterium aufden mehrdimensionalen Fall.

Satz 4.36 Es sei (Xt)t≥0 ein zeitstetiger irreduzibler Quasi-Geburts- und Todesprozess miteinem Zustandsraum der Form (4.1) und einer Intensitätsmatrix der Form (4.52), für de-ren Einträge die Bedingung (4.77) gelte. Weiter seien die Voraussetzungen von Satz 4.28erfüllt mit Spektralmaß Σ, wobei für den Träger supp (Σ) ⊂ [α,∞) gelte. Existiert eine Über-gangsfunktion P (t), welche die Kolmogorovsche Vorwärtsgleichung (4.54) erfüllt, so ist derZustand (i, ℓ) ∈ Cp genau dann α-rekurrent, falls

eTℓ

(∫

Qi(x)dΣ(x)QTi (x)

x− α

)(∫

Qi(x)dΣ(x)QTi (x)

)−1

eℓ = ∞, (4.80)

eTℓ = (0, . . . , 1, . . . , 0), gilt, wobei Qnn≥0 die durch die Rekursion (4.56) gegebenen, bzgl. Σ

orthogonalen Matrixpolynome sind. Insbesondere ist der Prozess (Xt)t≥0 genau dann α-rekur-rent, falls

eTℓ

∫ ∞

α

dΣ(x)

x− αS−1

0 eℓ = ∞ (4.81)

für ein ℓ ∈ 1, . . . , p gilt (In diesem Fall gilt Gleichung (4.81) für jedes ℓ ∈ 1, . . . , p).

Page 96: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

90 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Weiterhin können wir auf der Basis der Integraldarstellung (4.58) analog zu Satz 4.16 für denin Satz 4.36 betrachteten Quasi-Geburts- und Todesprozess (Xt)t≥0 das folgende Kriteriumfür α-Positivität nachweisen und somit das klassische Resultat von van Doorn (2003) auf denmehrdimensionalen Fall übertragen.

Satz 4.37 Es seien die Voraussetzungen von Satz 4.36 erfüllt. Der Prozess (Xt)t≥0 ist genaudann α-positiv, falls eines der Maße

τℓ := eTℓ ΣS−1

0 eℓ, ℓ ∈ 1, . . . , p, (4.82)

einen Sprung an der Stelle x = α hat. (In diesem Fall hat jedes Maß τℓ, ℓ ∈ 1, . . . , p, einenSprung im Punkt x = α.)

Satz 4.39 charakterisiert die α-Rekurrenz des bisher betrachteten Prozesses (Xt)t≥0 durchdie Blöcke der Intensitätsmatrix und die zugehörigen orthogonalen Matrixpolynome Qnn≥0

(falls ein Spektralmaß existiert). Analog zu Satz 4.18 basiert das Resultat auf dem Zusammen-hang zwischen zeitstetigen Quasi-Geburts- und Todesprozessen und Matrixkettenbrüchen. Fürden Beweis von Satz 4.39 führen wir zunächst den Prozess (Xt,α)t≥0 mit dem Zustandsraum Cp

in (4.1) und der Intensitätsmatrix

Qα :=

B0,α A0,α

CT1,α B1,α A1,α

CT2,α B2,α A2,α

. . . . . . . . .

(4.83)

ein, deren Einträge durch die Matrizen

An,α := Q−1n (α)AnQn+1(α), n ≥ 0,

Bn,α := Q−1n (α)BnQn(α), n ≥ 0,

CTn,α := Q−1

n (α)CTnQn−1(α), n ≥ 1,

gegeben seien. Qn,αn≥0 bezeichne die zu Qα assoziierte Folge von Matrixpolynomen, welchedurch die Drei-Schritt-Rekursion

−xQn,α(x) = An+1,αQn+1,α(x) +Bn,αQn,α(x) + CTn,αQn−1,α(x) (4.84)

mit den Anfangsbedingungen Q−1,α(x) = 0p und Q0,α(x) = Ip definiert sind.

Bemerkung 4.38 Für die Polynome Qn,αn≥0 in (4.84) folgt induktiv aus den Rekursio-nen (4.56) und (4.84) die Darstellung

Qn,α(x) = Q−1n (α)Qn(x+ α), n ≥ 0. (4.85)

Sind die Voraussetzungen von Satz 4.28 mit einer Folge Rnn≥0 nichtsingulärer Matrizenerfüllt, so lässt sich die in (4.83) definierte Matrix Qα mit den Matrizen

Rn,α := RnQn(α), n ≥ 0,

Page 97: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.2. ZEITSTETIGE QUASI-GEBURTS- UND TODESPROZESSE 91

symmetrisieren. Weiter folgt mit Darstellung (4.85)∫

Qn,α(x)dΣα(x)QTm,α = 0, n 6= m,

wobei Σ ein Spektralmaß zu Q sei und das Matrixmaß Σα durch

Σα ((0, x]) = Σ ((α, α + x])

definiert sei. Damit ist Σα ein Spektralmaß zu Qα. Weiterhin impliziert die Integraldarstel-lung (4.58) mit i = j = 0 die Identität

eαtP00(t) =

e−txdΣα(x)S−10 .

Mit den eingeführten Bezeichnungen können wir das folgende α-Rekurrenzkriterium nachwei-sen.

Satz 4.39 Es seien die Voraussetzungen von Satz 4.36 erfüllt. Ist das Spektralmaß Σ eindeu-tig durch seine Momente bestimmt und ist P (t) eine Übergangsfunktion mit P ′(t) = P (t)Q,so ist der Prozess (Xt)t≥0 genau dann α-rekurrent, falls

eTℓ

∞∑

i=0

H−1i+1A

−1i CT

i Hi−1H−1i A−1

i−1CTi−1Hi−2H

−1i−1 · · ·H1H

−12 A−1

1 CT1 H

−11 A−1

0 H0eℓ = ∞ (4.86)

gilt mit Hi := Qi(α), i ≥ 0, H−2 = H−1 = Ip, wobei Qnn≥0 die durch die Rekursion (4.56)definierten, bzgl. Σ orthogonalen Matrixpolynome sind.

Beweis Da nach Voraussetzung die Gleichungen in (4.57) mit einer Folge Rnn≥0 nicht-singulärer Matrizen erfüllt sind, lässt sich die in (4.83) definierte Matrix Qα mit den Ma-trizen Rn,α := RnQn(α), n ≥ 0, symmetrisieren und Σα ist ein Spektralmaß zu Qα mitsupp (Σα) ⊂ [0,∞) [siehe Bemerkung 4.38]. Daher können wir die Stieltjes-Transformiertevon Σα durch einen Matrixkettenbruch der Form (2.50) darstellen. Weiter erhalten wir mitFolgerung 2.15 und ähnlichen Argumenten wie im Beweis von Satz 4.18 die Darstellung

∫ ∞

α

dΣ(x)

x− α=

∫ ∞

0

dΣα(x)

x=

∞∑

i=0

A−1i,αC

Ti,αA

−1i−1,α · · ·AT

1,αCT1,αA

−10,α.

Daraus folgt wegenA−1

j,αCTj,α = Q−1

j+1(α)A−1j CT

j Qj−1(α)

die Behauptung des Satzes.

Bemerkung 4.40 Sind die Matrizen Hi = Qi(α), Ai und Ci kommutativ, so vereinfacht sichdas α-Rekurrenzkriterium in Satz 4.39 zu

eTℓ

∞∑

i=0

H−1i+1H

−1i (C1 · · ·Ci)

T (A0 · · ·Ai)−1eℓ = ∞.

Dies gilt insbesondere im eindimensionalen Fall (p = 1) [vgl. van Doorn (2003)].

Page 98: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

92 KAPITEL 4. MATRIXMAßE UND QUASI-GEBURTS- UND TODESPROZESSE

Weiterhin erhalten wir mit den in Satz 4.33 hergeleiteten Matrixkettenbruchentwicklungenund Satz 4.36 die folgenden α-Rekurrenzkriterien für den Prozess (Xt)t≥0, welche die klassi-schen Resultate von van Doorn (2003) verallgemeinern.

Folgerung 4.41 Es seien die Voraussetzungen von Satz 4.36 erfüllt mit Spektralmaß Σ. Wei-ter sei Σ(1) ein Spektralmaß zu den assoziierten Polynomen Q(1)

n n≥0 der Ordnung k = 1.Sind die Maße Σ und Σ(1) eindeutig durch ihre Momente bestimmt, so gilt:

(a) Der Prozess (Xt)t≥0 ist genau dann α-rekurrent, falls für einen Zustand (0, ℓ) ∈ Cp (unddamit für jeden Zustand in Cp)

eTℓ

dΣ(x)

x− αS−1

0 eℓ = eTℓ

−αIp −B0 − A0

dΣ(1)(x)

x− αRT

1R1CT1

−1

eℓ = ∞

gilt.

(b) Der Prozess (Xt)t≥0 ist genau dann α-positiv, falls für einen Zustand (0, ℓ) ∈ Cp (unddamit für jeden Zustand in Cp)

eTℓ lim

t→∞eαtP00(t)eℓ = lim

z→0zeT

dΣ(x)

z + α− xS−1

0 eℓ

= eTℓ lim

z→0

z + α

zIp +

1

z

(

B0 − A0

dΣ(1)(x)

z + α− xRT

1R1CT1

)−1

> 0

gilt.

Es ist leicht zu sehen, dass sich die zu Beginn dieses Kapitels in (4.78) und (4.79) angegebe-nen α-Rekurrenzkriterien zu notwendigen und hinreichenden Kriterien für die Rekurrenz undpositive Rekurrenz eines Zustandes in dem Zustandsraum Cp reduzieren, wenn man α = 0wählt [siehe z. B. Anderson (1991)]. Somit gelten die folgenden Rekurrenzkriterien, welche fürgewöhnliche Geburts- und Todesprozesse bereits von van Doorn (2003) nachgewiesen wurden.

Satz 4.42 Es sei (Xt)t≥0 ein zeitstetiger irreduzibler Quasi-Geburts- und Todesprozess miteinem Zustandsraum der Form (4.1) und einer Intensitätsmatrix der Form (4.52). Wei-ter seien die Voraussetzungen von Satz 4.28 erfüllt mit Spektralmaß Σ, für dessen Trägersupp (Σ) ⊂ [0,∞) gelte, und zugehörigen orthogonalen Matrixpolynomen Qnn≥0. Existierteine Übergangsfunktion P (t) mit P ′(t) = P (t)Q, so gilt:

(a) Der Zustand (i, ℓ) ∈ Cp ist genau dann rekurrent, falls

eTℓ

(∫

Qi(x)dΣ(x)QTi (x)

x

)(∫

Qi(x)dΣ(x)QTi (x)

)−1

eℓ = ∞,

eTℓ = (0, . . . , 0, 1, 0, . . . , 0), gilt. Insbesondere ist der Prozess (Xt)t≥0 genau dann rekur-

rent, falls

eTℓ

∫ ∞

0

dΣ(x)

xS−1

0 eℓ = ∞

Page 99: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

4.2. ZEITSTETIGE QUASI-GEBURTS- UND TODESPROZESSE 93

für ein ℓ ∈ 1, . . . , p (und damit für jedes ℓ ∈ 1, . . . , p) gilt. Ist das Spektralmaß Σeindeutig durch seine Momente bestimmt, so ist dies ist äquivalent zu

eTℓ

∞∑

i=0

T−1i+1A

−1i CT

i Ti−1T−1i A−1

i−1CTi−1Ti−2T

−1i−1 · · ·T1T

−12 A−1

1 CT1 T

−11 A−1

0 T0eℓ = ∞

mit Tj := Qj(0), j ≥ 0, T−2 = T−1 = Ip.

(b) Der Prozess (Xt)t≥0 ist genau dann positiv rekurrent, falls eines der Maße

τℓ = eTℓ ΣS−1

0 eℓ, ℓ ∈ 1, . . . , p,

einen Sprung an der Stelle x = 0 hat (In diesem Fall hat jedes Maß τℓ, ℓ ∈ 1, . . . , peinen Sprung im Punkt x = 0).

Weiterhin implizieren die Sätze 4.42 und 4.33 analog zum Beweis der Folgerung 4.41 diefolgenden Rekurrenzkriterien.

Folgerung 4.43 Es seien die Voraussetzungen von Satz 4.42 erfüllt mit Spektralmaß Σ. Wei-ter sei Σ(1) ein Spektralmaß zu den assoziierten Polynomen Q(1)

n n≥0 der Ordnung k = 1.Sind die Maße Σ und Σ(1) eindeutig durch ihre Momente bestimmt, so gilt:

(a) Der Prozess (Xt)t≥0 ist genau dann rekurrent, falls für einen Zustand (0, ℓ) ∈ Cp (unddamit für jeden Zustand in Cp)

eTℓ

dΣ(x)

xS−1

0 eℓ = − limz→0

eTℓ

dΣ(x)

z − xRT

0R0eℓ

= eTℓ

−B0 − A0

dΣ(1)(x)

xRT

1R1CT1

−1

eℓ = ∞

gilt.

(b) Der Prozess (Xt)t≥0 ist genau dann positiv rekurrent, falls für einen Zustand (0, ℓ) ∈ Cp

(und damit für jeden Zustand in Cp)

eTℓ lim

t→∞P00(t)eℓ = eT

ℓ limz→0

z

dΣ(x)

z − xS−1

0 eℓ

= eTℓ lim

z→0Ip +

1

z(B0 − A0

dΣ(1)(x)

z − xRT

1R1CT1 )−1eℓ > 0

gilt.

Page 100: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome
Page 101: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Kapitel 5

Matrixmaße und Zufallsmatrizen

In diesem Kapitel untersuchen wir das asymptotische Verhalten der Eigenwerte von zufälligenBlocktridiagonalmatrizen, deren Hauptdiagonalelemente standard normal verteilte Zufallsva-riablen und deren Einträge auf den Nebendiagonalen Wurzeln von Chi-Quadrat verteiltenZufallsvariablen sind. Die Konstruktion dieser zufälligen Blockmatrizen basiert auf den zudem klassischen β-Ensemble (β > 0) gehörenden tridiagonalen zufälligen Matrizen. Zunächstzeigen wir, dass sich die zufälligen Eigenwerte der Blockmatrizen fast sicher gleichmäßig durchdie deterministischen Nullstellen bestimmter orthonormaler Matrixpolynome approximierenlassen. Anschließend ziehen wir die Resultate aus Kapitel 3 heran, um die asymptotischeEigenwertverteilung der zufälligen Blockmatrizen herzuleiten.

5.1 Einführung

Einen bedeutsamen Teil der klassischen Theorie der zufälligen Matrizen [siehe z. B. Mehta(1967)] stellt das klassische β-Hermite bzw. Gaußsche Ensemble dar, welches über die gemein-same Dichte seiner Eigenwerte λ1 ≤ . . . ≤ λn, die durch

fβ(λ1, . . . , λn) = cβ ·∏

1≤i<j≤n

|λi − λj|β exp

(

−n∑

i=1

λ2i

2

)

(5.1)

gegeben ist, definiert wird. Dabei bezeichnet β > 0 eine Konstante und cβ die Normierungs-konstante

cβ = (2π)−n/2

n∏

j=1

Γ(1 + β2)

Γ(1 + j β2). (5.2)

Schon Dyson (1962) zeigt, dass die in (5.1) angegebene Dichte für β = 1, 2 und 4 die gemein-same Dichte der Eigenwerte der zu dem Gaußschen Ensemble gehörenden zufälligen Matrizensind. Weiter spezifiziert er das Ensemble für β = 1, 2 bzw. 4 durch seine Invarianz unterorthogonaler, unitärer bzw. symplektischer Transformation und definiert auf diese Weise das

95

Page 102: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

96 KAPITEL 5. MATRIXMAßE UND ZUFALLSMATRIZEN

Gaußsche orthogonale Ensemble GOE (β = 1), das Gaußsche unitäre Ensemble GUE (β = 2)sowie das Gaußsche symplektische Ensemble GSE (β = 4). Später weisen Dumitriu und Edel-man (2002) nach, dass die Dichte in Gleichung (5.1) für jedes β > 0 die gemeinsame Dichteder Eigenwerte der symmetrischen zufälligen n× n-Matrix

G(1)n :=

N11√2X(n−1)β

1√2X(n−1)β N2

1√2X(n−2)β

. . . . . . . . .1√2X2β Nn−1

1√2Xβ

1√2Xβ Nn

(5.3)

ist, wobei die EinträgeXβ, . . . , X(n−1)β,N1, . . . , Nn unabhängige Zufallsvariablen mitXjβ ≥ 0,

X2jβ ∼ X 2

jβ und Nj ∼ N (0, 1)

sind. Dabei bezeichne X 2jβ eine Chi-Quadrat verteilte Zufallsvariable mit jβ Freiheitsgraden

und N (0, 1) eine standard normal verteilte Zufallsvariable.

Im weiteren Verlauf dieses Kapitels betrachten wir zufällige Blocktridiagonalmatrizen, welchedie Matrix G

(1)n wie folgt verallgemeinern. Es sei G(p)

n , n = mp, m, p ∈ N, die zufälligesymmetrische blocktridiagonale n× n-Matrix

G(p)n :=

B(p)0 A

(p)1

A(p)1 B

(p)1 A

(p)2

. . . . . . . . .

A(p)np−2 B

(p)np−2 A

(p)np−1

A(p)np−1 B

(p)np−1

, (5.4)

deren Blöcke A(p)i , i = 1, . . . , n/p− 1, und B(p)

i , i = 0, . . . , n/p− 1, durch die p× p-Matrizen

B(p)i =

1√2

√2Nip+1 Xγ1(n−ip−1) Xγ2(n−ip−2) · · · Xγp−1(n−(i+1)p+1)

Xγ1(n−ip−1)

√2Nip+2 Xγ1(n−ip−2) · · · Xγp−2(n−(i+1)p+1)

.

.

.. . .

. . .. . .

.

.

.

Xγp−2(n−(i+1)p+2) · · · Xγ1(n−(i+1)p+1)

√2N(i+1)p−1 Xγ1(n−(i+1)p+1)

Xγp−1(n−(i+1)p+1) · · · Xγ2(n−(i+1)p+1) Xγ1(n−(i+1)p+1)

√2N(i+1)p

und

A(p)i =

1√2

Xγp(n−ip) Xγp−1(n−ip) Xγp−2(n−ip) · · · Xγ1(n−ip)

Xγp−1(n−ip) Xγp(n−ip−1) Xγp−1(n−ip−1) · · · Xγ2(n−ip−1)

.

.

.. . .

. . .. . .

.

.

.

Xγ2(n−ip) · · · Xγp−1(n−(i+1)p+3) Xγp(n−(i+1)p+2) Xγp−1(n−(i+1)p+2)

Xγ1(n−ip) · · · Xγp−2(n−(i+1)p+3) Xγp−1(n−(i+1)p+2) Xγp(n−(i+1)p+1)

Page 103: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

5.2. ASYMPTOTISCHE EIGENWERTVERTEILUNG 97

gegeben seien. Dabei bezeichnen γ1, . . . , γp positive Konstanten und

Xγ1 , . . . , Xγ1(n−1), Xγ2 , . . . , Xγ2(n−2), . . . , Xγp, . . . , Xγp(n−p), N1, . . . , Nn

unabhängige Zufallsvariablen mit

X2jγi

∼ X 2(jγi) und Nj ∼ N (0, 1).

Demnach sind die Diagonalelemente der Matrix G(p)n standard normal verteilte Zufallsva-

riablen und jedes andere Element ist eine Wurzel einer Chi-Quadrat verteilten Zufallsva-riable, deren Anzahl an Freiheitsgraden von der Position des jeweiligen Elementes abhängt.Im Fall p = 1 erhalten wir die zum dem klassischen β-Ensemble (β > 0) gehörende Ma-trix G(1)

n in (5.3).

In Kapitel 5.2 untersuchen wir das asymptotische Verhalten der Eigenwerte der zufälligenBlocktridiagonalmatrix

1√nG(p)

n

für n→ ∞. Dazu bezeichnen wir mit λ(n,p)1 ≤ . . . ≤ λ

(n,p)n die Eigenwerte der Matrix G(p)

n /√n

und mit

σ(p)n :=

1

n

n∑

j=1

δλ(n,p)j

(5.5)

ihre empirische Eigenwertverteilung, wobei δt das Dirac-Maß im Punkt t ∈ R ist. Für Untersu-chungen des asymptotischen Verhaltens der Eigenwerte von weiteren zufälligen Blockmatrizen(unter bestimmten Voraussetzungen an die Blöcke) verweisen wir auf die Arbeiten von Girko(2000) und Oraby (2007a,b).

5.2 Asymptotische Eigenwertverteilung

Zur Herleitung der asymptotischen Eigenwertverteilung der Matrix G(p)n /

√n stellen wir zu-

nächst einen Zusammenhang zwischen den zufälligen Blocktridiagonalmatrizen der Form (5.4)und der Theorie der orthonormalen Matrixpolynome her. Im eindimensionalen Fall wurde derenge Zusammenhang zwischen der Theorie der skalaren orthogonalen Polynome und der klas-sischen Theorie der Zufallsmatrizen bereits ausführlich untersucht [siehe z. B. Deift (1998)].Insbesondere vergleichen Dette und Imhof (2007) die zufälligen Eigenwerte der Matrix G

(1)n

mit den deterministischen Nullstellen der skalaren orthogonalen Hermite-PolynomeHn(x/√β)

[siehe dazu auch Beispiel 5.5]. Auf den Ergebnissen dieser Autoren basieren die in den bei-den folgenden Resultaten diskutierten Vergleiche der Eigenwerte der Matrix G

(p)n mit den

Nullstellen bestimmter orthonormaler Matrixpolynome.

Page 104: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

98 KAPITEL 5. MATRIXMAßE UND ZUFALLSMATRIZEN

Es bezeichne R(p)m,nm≥0 eine durch die Drei-Schritt-Rekursion

t R(p)m,n(t) = A

(p)m+1,n R

(p)m+1,n(t) + B(p)

m,n R(p)m,n(t) + A(p)

m,n R(p)m−1,n(t), m ≥ 0, n = mp, (5.6)

definierte Folge von orthonormalen p× p-Matrixpolynomen mit den Anfangsbedingungen

R(p)−1,n(t) = 0p und R

(p)0,n(t) = Ip

sowie den variierenden Rekursionskoeffizienten

B(p)i,n =

1√2

0p

(ip + 1)γ1

p

(ip + 1)γ2 · · ·p

(ip + 1)γp−1p

(ip + 1)γ1 0p

(ip + 2)γ1 · · ·p

(ip + 2)γp−2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

p

(ip + 1)γp−2 · · ·p

((i + 1)p − 2)γ1 0p

((i + 1)p − 2)γ1p

(ip + 1)γp−1 · · ·p

((i + 1)p − 2)γ2

p

((i + 1)p − 1)γ1 0

,

i ≥ 0, und

A(p)i,n =

1√2

p

((i − 1)p + 1)γp

p

((i − 1)p + 2)γp−1

p

((i − 1)p + 3)γp−2 · · · √ipγ1

p

((i − 1)p + 2)γp−1

p

((i − 1)p + 2)γp

p

((i − 1)p + 3)γp−1 · · · √ipγ2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

p

(ip − 1)γ2 · · ·p

(ip − 1)γp−1

p

(ip − 1)γp

p

ipγp−1√ipγ1 · · ·

p

ipγp−2p

ipγp−1

p

ipγp

,

i ≥ 1 [vgl. Rekursion 3.1 in Kapitel 3]. Dabei seien γ1, . . . , γp die positiven Konstanten ausder in (5.4) definierten Matrix G(p)

n , welche so gewählt werden, dass die Matrizen A(p)i,n , i ≥ 1,

nichtsingulär sind. Nach Definition ist R(p)m,n ein orthonormales p × p-Matrixpolynom vom

Grad n/p, d. h. es besitzt (n/p)p = n reelle Nullstellen [siehe Kapitel 1.2.2].

Im Folgenden zeigen wir, dass sich die zufälligen Eigenwerte der in (5.4) definierten MatrixG(p)n

und die deterministischen Nullstellen des durch die Rekursion (5.6) definierten Matrixpoly-noms R(p)

m,n asymptotisch gleich verhalten. Dazu geben wir zunächst eine obere Schranke fürdie Wahrscheinlichkeit, dass der maximale Abstand zwischen den (der Größe nach) geord-neten Eigenwerten der Matrix G

(p)n und den (der Größe nach) geordneten Nullstellen des

Matrixpolynoms R(p)m,n eine beliebige Schranke ε > 0 übersteigt, an.

Satz 5.1 Es seien λ(n,p)1 ≤ . . . ≤ λ

(n,p)n die Eigenwerte der in (5.4) definierten zufälligen

Blocktridiagonalmatrix G(p)n und x

(n,p)1 ≤ . . . ≤ x

(n,p)n die Nullstellen des durch die Rekursi-

on (5.6) gegebenen orthonormalen Matrixpolynoms R(p)m,n. Dann gilt für jedes ε > 0

P

max1≤j≤n

∣λ

(n,p)j − x

(n,p)j

∣≥ ε

≤ 2n(p+ 1) exp

(−ε2

18p2

)

. (5.7)

Page 105: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

5.2. ASYMPTOTISCHE EIGENWERTVERTEILUNG 99

Beweis Wie in Kapitel 1 bzw. Kapitel 3 beschrieben, können wir die Nullstellen des Matrix-polynoms R(p)

m,n durch die Eigenwerte der symmetrischen blocktridiagonalen Jacobi-Matrix

F (p)n :=

B(p)0,n A

(p)1,n

A(p)1,n B

(p)1,n A

(p)2,n

. . . . . . . . .

A(p)np−2,n B

(p)np−2,n A

(p)np−1,n

A(p)np−1,n B

(p)np−1,n

∈ Rn×n (5.8)

identifizieren, wobei die Blöcke A(p)i,n, i = 1, . . . , n/p − 1, und B

(p)i,n , i = 0, . . . , n/p − 1, die

Rekursionskoeffizienten in der Rekursion (5.6) sind. Multipliziert man diese Jacobi-Matrixvon links und rechts mit der n× n-Matrix

En :=

0 0 0 · · · 0 0 10 0 0 · · · 0 1 0

. . .0 1 0 · · · 0 0 01 0 0 · · · 0 0 0

= E−1n , (5.9)

so wird in der Matrix F(p)n die erste Zeile (Spalte) mit der letzten Zeile (Spalte), die zweite

Zeile (Spalte) mit der vorletzten Zeile (Spalte) usw. vertauscht. Auf diese Weise erhalten wirdie tridiagonale n× n-Blockmatrix

F (p)n := EnF

(p)n En =

E(p)0,n D

(p)1,n

D(p)1,n E

(p)1,n D

(p)2,n

. . . . . . . . .

D(p)np−2,n E

(p)np−2,n D

(p)np−1,n

D(p)np−1,n E

(p)np−1,n

(5.10)

mit den symmetrischen p× p-Blöcken

E(p)i,n =

1√2

0p

γ1(n − ip − 1) · · ·p

γp−1(n − (i + 1)p + 1)p

γ1(n − ip − 1) 0 · · ·p

γp−2(n − (i + 1)p + 1)

.

.

.

.

.

.

.

.

.

.

.

.

p

γp−2(n − (i + 1)p + 2) · · · 0p

γ1(n − (i + 1)p + 1)p

γp−1(n − (i + 1)p + 1) · · ·p

γ1(n − (i + 1)p + 1) 0

,

i = 0, . . . , n/p− 1, und

D(p)i,n =

1√2

p

γp(n − ip)p

γp−1(n − ip) · · ·p

γ1(n − ip)p

γp−1(n − ip)p

γp(n − ip − 1) · · ·p

γ2(n − ip − 1)

.

.

.

.

.

.

.

.

.

.

.

.

p

γ2(n − ip) · · ·p

γp(n − (i + 1)p + 2)p

γp−1(n − (i + 1)p + 2)p

γ1(n − ip) · · ·p

γp−1(n − (i + 1)p + 2)p

γp(n − (i + 1)p + 1)

,

Page 106: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

100 KAPITEL 5. MATRIXMAßE UND ZUFALLSMATRIZEN

i = 1, . . . , n/p − 1. Da die Matrizen F(p)n und F

(p)n ähnlich sind, besitzen sie dieselben Ei-

genwerte, nämlich nach Definition x(n,p)1 ≤ . . . ≤ x

(n,p)n . Damit erhalten wir nach Horn und

Johnson (1985), S. 297, für die Eigenwerte der Matrizen G(p)n und F (p)

n die Abschätzung

max1≤j≤n

∣λ(n,p)j − x

(n,p)j

∣ ≤∣

∣λ(n,p)n − x

(n,p)1

∣ ≤ ρ(G(p)n − F (p)

n ) ≤∥

∥G(p)n − F (p)

n

∞ , (5.11)

wobei ρ (A) den Spektralradius für eine Matrix A ∈ Rn×n und ‖·‖∞ die Zeilensummennorm

‖A‖∞ = max1≤i≤n

n∑

j=1

|aij| , A = (aij)ni,j=1 ∈ R

n×n,

bezeichne. Nun definieren wir die Zufallsvariable

Zn := max

max1≤j≤n

|Nj| , max1≤j≤n−1

1√2

∣Xjγ1 −

jγ1

∣, . . . , max

1≤j≤n−p

1√2

∣Xjγp

−√

jγp

.

Damit können wir die Summe der Elemente in der ersten Zeile der Matrix G(p)n − F

(p)n durch

n∑

j=1

∣G(p)n − F (p)

n 1j

∣ = |N1| +p−1∑

j=1

1√2

∣Xγj(n−j) −

γj(n− j)∣

+

p∑

j=1

1√2

∣Xγj(n−p) −

γj(n− p)∣

≤ Zn + (p− 1)Zn + pZn = 2pZn

nach oben abschätzen. Analog dazu gilt für die Summe der Elemente in den Zeilen i = 2, . . . , p,n− p+ 1, . . . , n der Matrix G(p)

n − F(p)n die Ungleichung

n∑

j=1

∣G(p)n − F (p)

n ij

∣ ≤ 2pZn.

Weiter erhalten wir für die Einträge in der Zeile i = p+ 1 von G(p)n − F

(p)n die Abschätzung

n∑

j=1

∣G(p)n − F (p)

n p+1,j

∣ = |Np+1| +p−1∑

j=1

1√2

∣Xγj(n−p−j) −√

γj(n− p− j)∣

+

p∑

j=1

1√2

∣Xγj(n−p) −√

γj(n− p)∣

+

p∑

j=1

1√2

∣Xγj(n−2p) −√

γj(n− 2p)∣

≤ Zn + (p− 1)Zn + pZn + pZn = 3pZn

Page 107: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

5.2. ASYMPTOTISCHE EIGENWERTVERTEILUNG 101

und analog dazu für die Zeilen i = p+ 2, . . . , n− p die Ungleichung

n∑

j=1

∣G(p)n − F (p)

n ij

∣ ≤ 3pZn. (5.12)

Insgesamt können wir die Zeilensummen und damit wegen (5.11) den maximalen Abstandzwischen den zufälligen Eigenwerten der Matrix G

(p)n und den deterministischen Nullstellen

des Polynoms R(p)m,n durch

max1≤j≤n

∣λ

(n,p)j − x

(n,p)j

∣≤ 3pZn

abschätzen und erhalten somit

P

max1≤j≤n

∣λ

(n,p)j − x

(n,p)j

∣≥ ε

≤ P

Zn ≥ ε

3p

. (5.13)

Weiter folgen wie im Beweis von Theorem 4.1 in der Arbeit von Dette und Imhof (2007) dieAbschätzungen

P

∣Xjγk−√

jγk

√2

≥ ε

3p

≤ 2e−ε2/9p2

, k = 1, . . . , p, j = 1, . . . , n− k, (5.14)

und

P

max1≤j≤n

|Nj| ≥ε

3p

≤ 2ne−ε2/18p2

. (5.15)

Damit erhalten wir schließlich aus der Definition der Zufallsvariable Zn

P

Zn ≥ ε

3p

≤ 2ne−ε2/18p2

+

p∑

k=1

(n− k) 2e−ε2/9p2

≤ 2ne−ε2/18p2

+ pn2e−ε2/9p2 ≤ 2n(p+ 1)e−ε2/18p2

und daraus mit Ungleichung (5.13) die Behauptung des Satzes.

Auf der Basis von Satz 5.1 können wir nun die fast sichere gleichmäßige Approximation derzufälligen Eigenwerte der Matrix G(p)

n durch die deterministischen Nullstellen des Matrixpo-lynoms R(p)

m,n nachweisen.

Satz 5.2 Es seien λ(n,p)1 ≤ . . . ≤ λ

(n,p)n die Eigenwerte der in (5.4) definierten zufälligen Ma-

trix G(p)n und x

(n,p)1 ≤ . . . ≤ x

(n,p)n die Nullstellen des orthonormalen Matrixpolynoms R(p)

m,n,welches durch die Rekursion (5.6) definiert sei. Dann existiert eine fast sicher endliche Zu-fallsvariable S, so dass die Abschätzung

max1≤j≤n

∣λ

(n,p)j − x

(n,p)j

∣≤ [log n]1/2 S ∀ n ≥ 2 (5.16)

gilt.

Page 108: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

102 KAPITEL 5. MATRIXMAßE UND ZUFALLSMATRIZEN

Beweis Es bezeichne (φn)n eine Folge mit φn > 0 und φn → ∞ sowie

Rn :=

[

1

log n

]1/2

max1≤j≤n

∣λ

(n,p)j − x

(n,p)j

∣, n ≥ 2.

Dann gilt nach Satz 5.1 für jedes ε > 0 die Abschätzung

P

Rn

φn

≥ ε

= P

1

φn

1√log n

max1≤j≤n

∣λ

(n,p)j − x

(n,p)j

∣≥ ε

= P

max1≤j≤n

∣λ

(n,p)j − x

(n,p)j

∣≥ εφn

log n

≤ 2n(p+ 1)exp

(−ε2φ2n log n

18p2

)

= 2(p+ 1)n1−ε2φ2n/18p2

,

welche∑∞

n=2 PRn/φn ≥ ε < ∞ impliziert. Weiter folgt daraus mit dem Lemma von Borelund Cantelli Rn/φn → 0 f.s. Es bezeichne nun

Sn := max1≤k≤n

Rk sowie S := supn≥2

Sn = supn≥2

Rn.

Im Folgenden zeigen wir δ := P S = ∞ = 0. Dazu nehmen wir an, dass δ > 0 gelte undbetrachten die Folge (φn)n mit

φn := sup

φ ≥ 0 : PSn ≥ φ ≥ δ

2

.

(φn)n ist eine monoton wachsende und unbeschränkte Folge [Dette und Imhof (2007)]. Diesimpliziert φn → ∞ und mit dem ersten Teil des Beweises erhalten wir Rn/φn → 0 f.s. Wie imBeweis von Theorem 2.2 in der Arbeit von Dette und Imhof (2007) folgt daraus Sn/φn → 0 f.s.Dies steht jedoch im Widerspruch zu der Aussage

Sn

φn

p

6→ 0,

welche aus der Definition der Folge (φn)n folgt. Daher gilt δ = 0, d. h. S <∞ f.s.

Abschließend weisen wir die fast sichere schwache Konvergenz der in (5.5) definierten empiri-schen Eigenwertverteilung der Matrix G(p)

n /√n nach und geben die Dichte der Grenzverteilung

explizit als Ausdruck von Matrix-Chebyshev-Dichten 1. Art [siehe Kapitel 1.2.3] an. Dazu ap-proximieren wir, wie in den Sätzen 5.1 und 5.2 beschrieben, die zufälligen Eigenwerte derMatrix G(p)

n /√n fast sicher gleichmäßig durch die deterministischen Nullstellen der orthonor-

malen Matrixpolynome R(p)m,n(

√nx), deren asymptotische Nullstellenverteilung mit Satz 3.2

hergeleitet werden kann.

Page 109: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

5.2. ASYMPTOTISCHE EIGENWERTVERTEILUNG 103

Satz 5.3 Es seien λ(n,p)1 ≤ . . . ≤ λ

(n,p)n die Eigenwerte der zufälligen Matrix G(p)

n /√n, wo-

bei G(p)n die in (5.4) definierte Matrix sei. Werden die positiven Konstanten γ1, . . . , γp so

gewählt, dass alle Blöcke D(p)i , i = 1, . . . , n/p− 1, der in (5.10) definierten Matrix F (p)

n nicht-singulär sind, so konvergiert die in (5.5) definierte empirische Eigenwertverteilung σ(p)

n vonG

(p)n /

√n fast sicher schwach gegen ein Maß, welches absolut stetig bzgl. des Lebesgue-Maßes

ist und die Dichte

f(t) =

∫ 1p

0

tr[

XA(p)(s),B(p)(s)(t)]

ds (5.17)

besitzt. Dabei bezeichne XA(p)(s),B(p)(s) die Dichte des Matrix-Chebyshev-Maßes 1. Art mit densymmetrischen p× p-Matrizen

A(p)(s) :=

sp

2

√γp

√γp−1

√γp−2 · · · √

γ1√γp−1

√γp

√γp−1 · · · √

γ2

.... . . . . . . . .

...

√γ2 · · · √

γp−1√γp

√γp−1√

γ1 · · · √γp−2

√γp−1

√γp

(5.18)

und

B(p)(s) :=

sp

2

0√γ1

√γ2 · · · √

γp−1√γ1 0

√γ1 · · · √

γp−2

.... . . . . . . . .

...

√γp−2 · · · √

γ1 0√γ1√

γp−1 · · · √γ2

√γ1 0

. (5.19)

Beweis Es sei R(p)m,nn≥0, m = n/p, eine durch eine Drei-Schritt-Rekursion der Form (3.1)

gegebene Folge orthonormaler Matrixpolynome, deren Rekursionskoeffizienten durch

A(p)i,n :=

1√nA

(p)i,n, i = 1, . . . ,

n

p− 1, und B

(p)i,n :=

1√nB

(p)i,n , i = 0, . . . ,

n

p− 1,

definiert seien. Dabei sind A(p)i,n und B(p)

i,n die Rekursionskoeffizienten in der Rekursion (5.6) für

die Matrixpolynome R(p)m,nn≥0. Dann hat das Matrixpolynom R

(p)m,n definitionsgemäß genau n

reelle Nullstellen, die wir mit x(n,p)1 ≤ . . . ≤ x

(n,p)n bezeichnen. Weiter ist leicht zu sehen, dass

R(p)m,n(x) = R(p)

m,n(√nx), m ≥ 0, sowie x

(n,p)j = x

(n,p)j /

√n, j = 1, . . . , n,

gilt, wobei x(n,p)1 ≤ . . . ≤ x

(n,p)n die Nullstellen des Matrixpolynoms R(p)

m,n sind.

Page 110: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

104 KAPITEL 5. MATRIXMAßE UND ZUFALLSMATRIZEN

Zunächst leiten wir die schwache Konvergenz sowie die Grenzverteilung der empirischen Null-stellenverteilung des Matrixpolynoms R(p)

m,n her. Aus der Definition der Matrizen A(p)i,n und B(p)

i,n

folgt

limn→∞

A(p)np−1,n =

1√2

√γp

√γp−1

√γp−2 · · · √

γ1√γp−1

√γp

√γp−1 · · · √

γ2

.... . . . . . . . .

...

√γ2 · · · √

γp−1√γp

√γp−1√

γ1 · · · √γp−2

√γp−1

√γp

=: A(p)

sowie

limn→∞

B(p)np−1,n =

1√2

0√γ1

√γ2 · · · √

γp−1√γ1 0

√γ1 · · · √

γp−2

.... . . . . . . . .

...

√γp−2 · · · √

γ1 0√γ1√

γp−1 · · · √γ2

√γ1 0

=: B(p).

Damit existiert nach Gershgorins Theorem eine Zahl M > 0, so dass die Nullstellen derPolynome R(p)

m,n in einem kompakten Intervall [−M,M ] liegen. Weiter folgt für alle ℓ ∈ N0

und einem u > 0

limin→u

B(p)i−ℓ,n =

√upB(p) =: B(p)(u) sowie lim

in→u

A(p)i−ℓ,n =

√upA(p) =: A(p)(u).

Dabei ist die MatrixA(p)(u) nach Voraussetzung nichtsingulär. Demzufolge können wir Satz 3.2mit u = limn→∞(n/p)/n = 1/p anwenden und erhalten somit die schwache Konvergenz derempirischen Nullstellenverteilung

δ(p)n :=

1

n

n∑

j=1

δx(n,p)j

(5.20)

von R(p)m,n gegen ein Maß, welches absolut stetig bzgl. des Lebesgue-Maßes ist und die in (5.17)

angegebene Dichte f besitzt.

Zum Beweis der Behauptung ziehen wir nun Satz 5.2 heran und erhalten mit den eingeführtenBezeichnungen

max1≤j≤n

∣λ

(n,p)j − x

(n,p)j

∣=

1√n

max1≤j≤n

∣λ

(n,p)j − x

(n,p)j

∣= O

(

(

log n

n

)1/2)

f.s. (5.21)

Page 111: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

5.3. BEISPIELE 105

Bezeichnet L(Fσ

(p)n, F

δ(p)n

) den Levy-Abstand zwischen den Verteilungsfunktionen Fσ

(p)n

und Fδ(p)n

der Maße σ(p)n und δ(p)

n , so gilt nach Bai (1999), S. 615, die Abschätzung

L3(Fσ

(p)n, F

δ(p)n

) ≤ 1

n

n∑

j=1

∣λ(n,p)j − x

(n,p)j

2

,

welche wegen Gleichung (5.21)

L3(Fσ

(p)n, F

δ(p)n

) ≤ O

(

log n

n

)

f.s.

impliziert. Daraus folgt die fast sichere schwache Konvergenz der empirischen Eigenwertver-teilung σ

(p)n von G

(p)n /

√n gegen die Grenzverteilung von δ

(p)n und mit dem ersten Teil des

Beweises die Behauptung des Satzes.

5.3 Beispiele

Beispiel 5.4 Nach den in Kapitel 5.2 nachgewiesenen Resultaten unterliegen die asymptoti-schen Eigenwertverteilungen der Matrizen G

(p)n [siehe (5.4)] und F

(p)n [siehe (5.10)] derselben

Verteilung. Dies veranschaulichen wir exemplarisch in Abbildung 5.1, in der wir der simulier-ten (mit n = 5000) Dichte der asymptotischen Eigenwertverteilung der Matrix G

(2)n die der

Matrix F (2)n mit γ1 = 2 sowie γ2 = 4 gegenüberstellen.

−1.5 −1 −0.5 0 0.5 10

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

−1.5 −1 −0.5 0 0.5 10

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

Abbildung 5.1: Simulierte (mit n = 5000) Dichten der asymptotischen Eigenwertverteilungender Matrizen G(p)

n (links) und F (p)n (rechts) für p = 2, γ1 = 2 sowie γ2 = 4.

Page 112: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

106 KAPITEL 5. MATRIXMAßE UND ZUFALLSMATRIZEN

Beispiel 5.5 Es sei p = 1. Dann lassen sich die zufälligen Eigenwerte der in (5.3) definiertenMatrix G(1)

n fast sicher gleichmäßig durch die Nullstellen der skalaren orthogonalen Hermite-Polynome Hn(x/

√β) approximieren [vgl. Dette und Imhof (2007)]. Weiter konvergiert die

empirische Eigenwertverteilung der Matrix G(1)n /

√n nach Satz 5.3 fast sicher schwach gegen

ein Maß, dessen Dichte durch das Halbkreisgesetz

f(t) =1

πβ

2β − t2I[−√

2β,√

2β](t)

gegeben ist. Damit stellt Satz 5.3 eine Verallgemeinerung des klassischen Halbkreisgesetzesvon Wigner dar. In Abbildung 5.2 zeigen wir ein Histogramm (mit n = 5000) der Eigenwertesowie die berechnete Dichte der asymptotischen Eigenwertverteilung der Matrix G(1)

n /√n im

Fall β = 2.

−1.5 −1 −0.5 0 0.5 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

-1.5 -1 -0.5 0.5 1 1.5

0.1

0.2

0.3

0.4

0.5

0.6

Abbildung 5.2: Simulierte (mit n = 5000, d. h. m = n = 5000) und berechnete Dichte derasymptotischen Eigenwertverteilung der Matrix G(p)

n /√n für p = 1 sowie β = 2.

Beispiel 5.6 Es sei p = 2 und für die Parameter in der Matrix G(2)n gelte γ1 6= γ2 so-

wie γ2 > γ1. Dann sind die Voraussetzungen von Satz 5.3 erfüllt. Da die Matrizen A(2)(s)und B(2)(s) in diesem Fall kommutativ sind, können wir die Dichte der Grenzverteilung inder Form (3.10) darstellen und erhalten somit die fast sichere schwache Konvergenz der em-pirischen Eigenwertverteilung σ(2)

n gegen ein Maß mit der Dichte

f(t) =2∑

j=1

∫ 1/2

0

Iβj(s)−2αj(s)<t<βj(s)+2αj(s)

π√

4α2j (s) − (t− βj(s))

2ds (5.22)

wobei

α1,2(s) :=√s (

√γ2 ±

√γ1) und β1,2(s) := ±√

sγ1 (5.23)

bezeichnen. In den Abbildungen 5.3 und 5.4 stellen wir exemplarisch für γ1 = 2 und γ2 = 8sowie γ1 = 1 und γ2 = 100 jeweils ein Histogramm der Eigenwerte der Matrix G

(2)n /

√n,

welches mit n = 5000 erzeugt wurde, und die in (5.22) angegebene Dichte der Grenzverteilung

Page 113: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

5.3. BEISPIELE 107

dar. Dabei ist jeweils gut zu erkennen, dass die Dichte der Grenzverteilung aus einer Summevon zwei Integralen über arcsin-Dichten besteht. Wird der Parameter γ2 im Vergleich zumParameter γ1 groß gewählt, so nähern sich die Größen α1(s) und α2(s) (für festes s) in (5.23)an. In diesem Fall "nähert" sich die Dichte in (5.22) einem Integral über eine arcsin-Dichte,d. h. einem Halbkreis an. Dies spiegelt die Abbildung 5.4 wider.

−1.5 −1 −0.5 0 0.5 10

0.2

0.4

0.6

0.8

1

1.2

1.4

1.6

-1.5 -1 -0.5 0.5 1 1.5

0.25

0.5

0.75

1

1.25

1.5

Abbildung 5.3: Simulierte (mit n = 5000, d. h. m = n/p = 2500) und berechnete Dichte derasymptotischen Eigenwertverteilung der Matrix G(p)

n /√n für p = 2, γ1 = 2 sowie γ2 = 8.

−1.5 −1 −0.5 0 0.5 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

-1.5 -1 -0.5 0.5 1 1.5

0.1

0.2

0.3

0.4

0.5

0.6

0.7

Abbildung 5.4: Simulierte (mit n = 5000, d. h. m = n/p = 2500) und berechnete Dichte derasymptotischen Eigenwertverteilung der Matrix G(p)

n /√n für p = 2, γ1 = 1 sowie γ2 = 100.

Bemerkung 5.7 Sind die Voraussetzungen von Satz 5.3 erfüllt mit p ≥ 3, so können wirkeine explizite Formel für die Dichte der asymptotischen Eigenwertverteilung der Matrix G(p)

n

angeben. Werden die Parameter γ1 bis γp jedoch so gewählt, dass die Matrizen A(p)(s) in (5.18)positiv definit sind, so ist die Dichte der Grenzverteilung nach Folgerung 3.3 gegeben durch

f(t) =

p∑

j=1

∫ 1p

0

− ddtλ

A(p)(s),B(p)(s)j (t)

π

4 −(

λA(p)(s),B(p)(s)j (t)

)2I

−2<λA(p)(s),B(p)(s)j (t)<2

ffds,

wobei λA(p)(s),B(p)(s)j (t), j = 1, . . . , p, die Eigenwerte der Matrix (A(p)(s))−1(B(p)(s)− tIp) sind.

Page 114: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

108 KAPITEL 5. MATRIXMAßE UND ZUFALLSMATRIZEN

Beispiel 5.8 Abschließend stellen wir in den Abbildungen 5.5, 5.6 und 5.7 jeweils ein Hi-stogramm der Eigenwerte (mit n = 5001) sowie die berechnete Dichte der asymptotischenEigenwertverteilung der Matrix G

(3)n /

√n für die Parameter γ1 = 1, γ2 = 100, γ3 = 200 und

γ1 = 1, γ2 = 4, γ3 = 25 sowie γ1 = γ2 = 4, γ3 = 100 dar. Während in Abbildung 5.5 dieAbstände zwischen den Parametern γ1 und γ2 bzw. γ2 und γ3 gleich gewählt wurden, ist inAbbildung 5.6 der Abstand von γ3 zu γ1 und γ2, welche in diesem Fall nahe beieinander liegen,groß. Dies erklärt die zu einem Halbkreis größere Ähnlichkeit der Dichten in Abbildung 5.6im Vergleich zu der der Funktionen in Abbildung 5.5. Da in Abbildung 5.7 zwei Parametergleich gewählt wurden, besteht die Grenzverteilung in diesem Fall aus einer Summe von zweiFunktionen.

−1.5 −1 −0.5 0 0.5 10

1

2

3

4

5

6

7

-1.5 -1 -0.5 0.5 1 1.5

2

4

6

8

Abbildung 5.5: Simulierte (mit n = 5001, d. h. m = n/p = 1667) und berechnete Dichte derasymptotischen Eigenwertverteilung der Matrix G

(p)n /

√n für p = 3, γ1 = 1, γ2 = 100 sowie

γ3 = 200.

−1.5 −1 −0.5 0 0.5 10

0.2

0.4

0.6

0.8

1

1.2

1.4

-1.5 -1 -0.5 0.5 1 1.5

0.2

0.4

0.6

0.8

1

1.2

1.4

Abbildung 5.6: Simulierte (mit n = 5001, d. h. m = n/p = 1667) und berechnete Dichte derasymptotischen Eigenwertverteilung der Matrix G

(p)n /

√n für p = 3, γ1 = 1, γ2 = 4 sowie

γ3 = 25.

Page 115: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

5.3. BEISPIELE 109

−1.5 −1 −0.5 0 0.5 10

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

-1.5 -1 -0.5 0.5 1 1.5

0.2

0.4

0.6

0.8

1

Abbildung 5.7: Simulierte (mit n = 5001, d. h. m = n/p = 1667) und berechnete Dichteder asymptotischen Eigenwertverteilung der Matrix G

(p)n /

√n für p = 3, γ1 = γ2 = 4 sowie

γ3 = 100.

Page 116: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome
Page 117: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Symbolverzeichnis

Allgemeine Notationen

Σ,Σk Matrixmaß 5, 31Sn, Sn (Σ) matrixwertige Momente 5Mn+1 (n+ 1)-ter Momentenraum 50p p× p-Nullmatrix 6Ip p× p-Einheitsmatrix 6〈·, ·〉, 〈·, ·〉R linkes bzw. rechtes matrixwertiges inneres Produkt 7Pnn≥0, PR

n n≥0, Rn,kn≥0 orthonormale Matrixpolynome (mit variierenden Re-kursionskoeffizienten)

7, 31

δnm Kroneckersymbol 8Q(1)

n n≥0 assoziierte Matrixpolynome der Ordnung 1 9J, Jnp, Jnp,k unendliche bzw. np× np-Jacobi-Matrix 10, 32Adj (A) Adjungierte einer Matrix A 11xn,j, xn,k,j, j = 1, . . . , np, Nullstellen von Matrixpolynomen 11, 32ℓj Vielfachheit der Nullstelle xn,j bzw. xn,k,j 11, 32Γn,j,Γn,k,j, j = 1, . . . ,m, matrixwertige Gewichte in der Quadraturformel 11, 38supp (Σ) Träger des Matrixmaßes Σ 11M(A,B) Matrix-Nevai-Klasse mit Matrizen A und B 12TA,B

n (t)n≥0, matrixwertige Chebyshev-Polynome 1. Art 13, 33TA(u),B(u)

n (t)n≥0

UA,Bn (t)n≥0, matrixwertige Chebyshev-Polynome 2. Art 13, 33

UA(u),B(u)n (t)n≥0

XA,B, XA(u),B(u) matrixwertiges Chebyshev-Maß 1. Art 13, 33WA,B,WA(u),B(u) matrixwertiges Chebyshev-Maß 2. Art 13, 33tnn≥0, unn≥0 skalare Chebyshev-Polynome 1. und 2. Art 13Ia≤t≤b, I[a,b](t) Indikatorfunktion 15FA,B(z) Stieltjes-Transformierte des Chebyshev-Maßes WA,B 17H2n, H2n, H2n+1, H2n+1 Block-Hankelmatrizen 20Int (Mn+1) Inneres des Momentenraumes Mn+1 20S−

k , S+k Schranken für matrixwertige Momente 20, 22

Uk matrixwertige kanonische Momente 21Vk Matrizen Vk = Ip − Uk 21

111

Page 118: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

112 SYMBOLVERZEICHNIS

ζk Matrizen ζn = (Sk−1 − S−k−1)

−1(Sk − S−k ) 21, 22

γn Matrizen γn = (S+k−1 − Sk−1)

−1(S+k − Sk) 21

δn,k empirische Nullstellenverteilung 32δt Dirac-Maß im Punkt t ∈ R 32

Quasi-Geburts- und Todesprozesse

Ω Ereignismenge 53, 78F σ-Algebra 53, 78(Xn)n≥0 zeitdiskreter Quasi-Geburts- und Todesprozess 53Cp Zustandsraum 53, 78P Einschritt-Übergangsmatrix 54Pij Block an der Stelle (i, j) in der Matrix P 54eT

j j-ter Einheitsvektor im Rp 54

Qn(x)n≥0, Rnn≥0 Folge von Matrixpolynomen bzw. Matrizen 55, 80P n n-Schritt-Übergangsmatrix 58P n

ij Block an der Stelle (i, j) in der Matrix P n 58π stationäre Verteilung 75(Xt)t≥0 zeitstetiger Quasi-Geburts- und Todesprozess 78P (t) Übergangsfunktion 78Q Q-Matrix bzw. Intensitätsmatrix 78Qij Block an der Stelle (i, j) in der Matrix Q 78Pij(t) Block an der Stelle (i, j) in der Matrix P (t) 81X

(k)t assoziierter Prozess der Ordnung k 82

Q(k) assoziierte Intensitätsmatrix der Ordnung k 82Q(k)

n n≥0 assoziierte Matrixpolynome der Ordnung k 82λ, α "decay parameter" 88, 89

Zufallsmatrizen

β, γ1, . . . , γp positive Konstanten 95, 96X 2

jβ Chi-Quadrat-Verteilung mit jβ Freiheitsgraden 96N (0, 1) Standard-Normalverteilung 96G

(p)n Zufallsmatrix 96

λ(n,p)i , λ

(n,p)i , i = 1, . . . , n, zufällige Eigenwerte 97, 98

σ(p)n empirische Eigenwertverteilung 97

Hnn≥0 skalare Hermite-Polynome 97R(p)

m,nm≥0, R(p)m,nm≥0 orthonormale Matrixpolynome mit variierenden Re-

kursionskoeffizienten98, 103

x(n,p)i , x

(n,p)i , i = 1, . . . , n, Nullstellen von Matrixpolynomen 98, 103

L(F1, F2) Levy-Abstand zwischen zwei Verteilungsfunktionen 105

Page 119: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Literaturverzeichnis

W. J. Anderson (1991). Continuous-Time Markov Chains. Springer, New York.

A. I. Aptekarev und E. M. Nikishin (1984). The scattering problem for a discreteSturm-Liouville operator. Math. USSR, Sb. 49, 325–355.

Z. D. Bai (1999). Methodologies in spectral analysis of large-dimensional random matrices,a review. Statist. Sinica 9 (3), 611–677.

A. Basilevsky (1983). Applied Matrix Algebra in the Statistical Sciences. North-Holland.

J. M. Berezanskii (1968). Expansions in eigenfunctions of selfadjoint operators. AMS,Providence, R.I.

C. Berg (1994). Markov’s theorem revisited. J. Approx. Theory 78 (2), 260–275.

P. Billingsley (1968). Convergence of probability measures. John Wiley and Sons, Inc.,New York.

P. Bleher und A. Its (1999). Semiclassical asymptotics of orthogonal polynomials,Riemann-Hilbert problem, and universality in the matrix model. Ann. of Math. (2) 150 (1),185–266.

T. S. Chihara (1978). An introduction to orthogonal polynomials. Gordon and BreachScience Publishers, New York.

E. Çinlar (1975). Introduction to stochastic processes. Prentice-Hall, Inc. Englewood Cliffs,New Jersey.

T. Dayar und F. Quessette (2002). Quasi-birth-and-death processes with level-geometricdistribution. SIAM J. Matrix Anal. Appl. 24 (1), 281–291 (electronic).

P. Deift (1998). Orthogonal Polynomials and Random Matrices: A Riemann-Hilbert Ap-proach. AMS, Providence, R.I.

C. Derman (1955). Some contributions to the theory of denumerable Markov chains. Trans.Amer. Math. Soc. 79, 541–555.

H. Dette und L. Imhof (2007). Uniform approximation of eigenvalues in Laguerre andHermite β-ensembles by roots of orthogonal polynomials. Trans. Amer. Math. Soc. 359 (10),4999–5018 (electronic).

113

Page 120: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

114 LITERATURVERZEICHNIS

H. Dette und W. J. Studden (1997). The Theory of Canonical Moments with Applica-tions in Statistics, Probability, and Analysis. John Wiley and Sons, Inc., New York.

H. Dette und W. J. Studden (2002a). Matrix measures, moment spaces and Favard’stheorem for the interval [0, 1] and [0,∞). Linear Algebra Appl. 345 (1-3), 169–193.

H. Dette und W. J. Studden (2002b). A note on the matrix valued q-d algorithmand matrix orthogonal polynomials on [0, 1] and [0,∞). J. Comput. Appl. Math. 148 (2),349–361.

H. Dette und W. J. Studden (2003). Quadrature formulas for matrix measures - ageometric approach. Linear Algebra Appl. 364, 33–64.

H. Dette und W. J. Studden (2005). A note on the maximization of matrix valuedHankel determinants with applications. J. Comput. Appl. Math. 177 (1), 129–140.

I. Dumitriu und A. Edelman (2002). Matrix models for beta ensembles. J. Math.Phys. 43 (11), 5830–5847.

A. J. Duran (1995). On orthogonal polynomials with respect to a positive definite matrixof measures. Canad. J. Math. 47 (1), 88–112.

A. J. Duran (1996). Markov’s theorem for orthogonal matrix polynomials. Canad. J.Math. 48 (6), 1180–1195.

A. J. Duran (1999). Ratio asymptotics for orthogonal matrix polynomials. J. Approx.Theory 100 (2), 304–344.

A. J. Duran und E. Daneri-Vias (2001). Ratio asymptotics for orthogonal matrixpolynomials with unbounded recurrence coefficients. J. Approx. Theory 110 (1), 1–17.

A. J. Duran und P. Lopez-Rodriguez (1996). Orthogonal matrix polynomials: zerosand Blumenthal’s theorem. J. Approx. Theory 84 (1), 96–118.

A. J. Duran, P. Lopez-Rodriguez und E. B. Saff (1999). Zero asymptotic behaviourfor orthogonal matrix polynomials. J. Anal. Math. 78, 37–60.

A. J. Duran und W. van Assche (1995). Orthogonal matrix polynomials and higher-order recurrence relations. Linear Algebra Appl. 219, 261–280.

F. J. Dyson (1962). The threefold way. Algebraic structure of symmetry groups and ensem-bles in quantum mechanics. J. Math. Phys. 3, 1199–1215.

W. Fair (1971). Noncommutative continued fractions. SIAM J. Math. Anal. 2, 226–232.

J. Favard (1935). Sur les polynômes de Tchebicheff. C. R. Acad. Sci., Paris 200, 2052–2053.

J. S. Geronimo (1982). Scattering theory and matrix orthogonal polynomials on the realline. Circuits Systems Signal Process. 1 (3-4), 471–495.

V. L. Girko (2000). Random block matrix density and SS-law. Random Oper. StochasticEquations 8 (2), 189–194.

Page 121: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

LITERATURVERZEICHNIS 115

P. R. Halmos und V. S. Sunder (1978). Bounded Integral Operators on L2-Spaces.Springer, New York.

R. A. Horn und C. R. Johnson (1985). Matrix Analysis. Cambridge University Press,Cambridge.

R. A. Horn und C. R. Johnson (1991). Topics in Matrix Analysis. Cambridge UniversityPress, Cambridge.

K. Jänich (1993). Funktionentheorie. Springer, Berlin.

S. Karlin und J. McGregor (1957a). The classification of birth and death processes.Trans. Amer. Math. Soc. 86, 366–400.

S. Karlin und J. McGregor (1957b). The differential equations of birth-and-deathprocesses, and the Stieltjes moment problem. Trans. Amer. Math. Soc. 85, 489–546.

S. Karlin und J. McGregor (1959). Random walks. Illinois J. Math. 3, 66–81.

T. Kato (1976). Perturbation Theory for linear Operators. Springer, Berlin.

F. Kelly (1983). Invariant measures and the Q-matrix. Probability, statistics and analysis,Lond. Math. Soc. Lect. Note Ser. 79, 143-160.

A. B. J. Kuijlaars und W. van Assche (1999). The asymptotic zero distributionof orthogonal polynomials with varying recurrence coefficients. J. Approx. Theory 99 (1),167–197.

G. Latouche, C. E. M. Pearce und P. G. Taylor (1998). Invariant measures forquasi-birth-and-death processes. Comm. Statist. Stochastic Models 14 (1-2), 443–460.

G. Latouche und V. Ramaswami (1999). Introduction to matrix analytic methods instochastic modeling. ASA-SIAM, Philadelphia.

P. Levrie und A. Bultheel (1996). Matrix continued fractions related to first-orderlinear recurrence systems. Electron. Trans. Numer. Anal. 4, 46–63 (electronic).

F. Marcellan und G. Sansigre (1993). On a class of matrix orthogonal polynomialson the real line. Linear Algebra Appl. 181, 97–109.

A. Markoff (1895). Deux démonstrations de la convergence de certaines fractions continues.Acta Math. 19 (1), 93–104.

L. Mattner (1992). Completeness of location families, translated moments, and uniquenessof charges. Probab. Theory Related Fields 92 (2), 137–149.

M. L. Mehta (1967). Random matrices and the statistical theory of energy levels. AcademicPress, New York.

M. F. Neuts (1981). Matrix-Geometric Solutions in Stochastic Models, An AlgorithmicApproach. The John Hopkins University Press, Baltimore, Md.

Page 122: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

116 LITERATURVERZEICHNIS

M. F. Neuts (1989). Structured Stochastic Matrices of M/G/1 Type and their Applications.Marcel Dekker, Inc., New York.

P. G. Nevai (1979). Orthogonal polynomials. Mem. Amer. Math. Soc. 18 (213).

T. Oraby (2007a). The limiting spectra of Girko’s block-matrix. J. Theoret. Probab. 20 (4),959–970.

T. Oraby (2007b). The spectral laws of Hermitian block-matrices with large random blocks.Electron. Comm. Probab. 12, 465–476 (electronic).

L. Pastur und M. Shcherbina (1997). Universality of the local eigenvalue statistics fora class of unitary invariant random matrix ensembles. J. Statist. Phys. 86 (1-2), 109–147.

O. Perron (1954). Die Lehre von den Kettenbrüchen. Teubner, Stuttgart.

M. Raissouli und A. Kacha (2000). Convergence of matrix continued fractions. LinearAlgebra Appl. 320 (1-3), 115–129.

E. B. Saff und V. Totik (1997). Logarithmic Potentials with External Fields. Springer,Berlin.

J. Shohat und J. Tamarkin (1963). The problem of moments. Mathematical Surveys.AMS, Providence, R.I.

A. Sinap und W. van Assche (1994). Polynomial interpolation and Gaussian quadraturefor matrix-valued functions. Linear Algebra Appl. 207, 71–114.

A. Sinap und W. van Assche (1996). Orthogonal matrix polynomials and applications.J. Comput. Appl. Math. 66 (1-2), 27–52.

V. N. Sorokin und J. van Iseghem (1999). Matrix continued fractions. J. Approx.Theory 96 (2), 237–257.

G. Szegö (1975). Orthogonal polynomials. AMS, Providence, R.I.

E. A. van Doorn (2003). Birth-death processes and associated polynomials. J. Comput.Appl. Math. 153 (1-2), 497–506.

E. A. van Doorn (2006). On the α-classification of birth-death and quasi-birth-deathprocesses. Stoch. Models 22 (3), 411–421.

E. A. van Doorn und P. Schrijner (1993). Random walk polynomials and randomwalk measures. J. Comput. Appl. Math. 49 (1-3), 289–296.

H. S. Wall (1948). Analytic Theory of Continued Fractions. Van Nostrand, New York.

H. O. Yakhlef (2007). Relative asymptotics for orthogonal matrix polynomials with un-bounded recurrence coefficients. Integral Transforms Spec. Funct. 18 (1-2), 39–57.

M. J. Zygmunt (2002). Matrix Chebyshev polynomials and continued fractions. LinearAlgebra Appl. 340 (1-3), 155–168.

Page 123: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Danksagung

Herrn Prof. Dr. Holger Dette danke ich ganz herzlich für die ausgezeichnete fachliche Be-treuung sowie seine stetige Unterstützung während der Entstehung dieser Arbeit. Weiterhinbedanke ich mich bei allen Mitarbeiterinnen und Mitarbeitern des Lehrstuhls für ihre Hilfs-bereitschaft.

Von Herzen danke ich Jörg Simon, der mir in den letzten Jahren viel Rückhalt gegeben hatund mir jederzeit mit Rat und Tat zur Seite stand.

Bei Gabi Wieczorek bedanke ich mich ganz herzlich für ihre vielfältige Unterstützung undihre immer herzlichen Worte und wertvollen Ratschläge.

Christian Monscheuer und Jan Schlake danke ich für ihre Hilfsbereitschaft und ständige Un-terstützung.

Ganz besonders bedanke ich mich bei meiner Mutter Eva-Maria Reuther, die mir durch ihreUnterstützung jeglicher Art diesen Weg ermöglicht hat. Meiner Zwillingsschwester Susannedanke ich ganz herzlich für ihre moralische Unterstützung und die vielen Telefonate. MeinDank gilt außerdem meinen Brüdern Christoph, Tilmann und Florian für ihre stetige Unter-stützung.

Nicht zuletzt möchte ich allen Freunden, insbesondere den Volleyballern, und Kumpels dan-ken, die mich während der Entstehung dieser Arbeit unterstützt haben.

Page 124: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Dissertation eingereicht am 05. Mai 2008

Erstgutachter: Prof. Dr. H. Dette (Ruhr-Universität Bochum)Zweitgutachter: Prof. Dr. T. Kriecherbauer (Ruhr-Universität Bochum)

Mündliche Prüfung am 19. Juni 2008

Page 125: Matrixwertige Maße und ihre Anwendungen in der Stochastik · zugrunde liegenden Prozess orthogonal bzgl. eines Matrixmaßes. Unter der Voraussetzung der Orthogonalität dieser Matrixpolynome

Lebenslauf

Persönliche Daten

Name Bettina Reuther

Geburtsdatum 16.10.1979

Geburtsort Daun

Schulausbildung

1986 - 1990 Grundschule Friedrichstraße, Wittlich

1990 - 1999 Cusanus-Gymnasium, Wittlich

Juni 1999 Abitur

Studium

1999 - 2004 Diplomstudiengang Mathematik mit Anwendungsfach

Wirtschaftswissenschaften an der TU Clausthal

Oktober 2001 Vordiplom in Mathematik

August 2004 Diplom in Mathematik

Beschäftigung

November 2000 - März 2004 Studentische Hilfskraft am Institut für Mathematik,

TU Clausthal

seit September 2004 Wissenschaftliche Mitarbeiterin an der Fakultät

für Mathematik, Ruhr-Universität Bochum


Recommended