+ All Categories
Home > Documents > [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

[Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

Date post: 08-Dec-2016
Category:
Upload: wolf
View: 226 times
Download: 9 times
Share this document with a friend
139
Kapitel 8 Einige Anwendungen der Linearen Algebra 8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen 8.1.1 Lineare Gleichungssysteme Man betrachte folgendes kleines LGS 1 1 11 10 16 x 1 x 2 = 20 20 10 15 . Die eindeutige Lösung wird von der Mathematik-Software MATLAB Version 7.11 (MAT- LAB-Befehl A\b) als x 1 x 2 = 20 0 angegeben. Tatsächlich ist sie aber x 1 x 2 = 10 10 . MATLAB erkennt zumindest, dass ein Problem vorliegt: „Matrix is close to singular or badly scaled. Results may be inaccurate.“ Bisher sind wir immer davon ausgegangen, dass Rechenoperationen im zugrunde gelegten Zahlkörper R exakt durchgeführt werden. Tat- sächlich geht aber jedes Rechnen, egal ob mit der Hand oder auf einem Computer mit Runden einher, da es nur möglich ist, endlich viele Stellen einer Zahl zu berücksichtigen. Diese Rundungsfehler können im Sinne einer a posteriori Fehleranalyse auch als Fehler in den Eingangsdaten der rechten Seite und der Matrix interpretiert werden, die dann mit einer exakten reellen Arithmetik verarbeitet werden. Hinzu kommt, dass für (fast) jedes „reale“ Problem b oder A nur gestört vorliegen. Die Störungen von b sind als „Datenfeh- ler“, die von A als „Modellfehler“ interpretierbar. 775 P. Knabner, W. Barth, Lineare Algebra, Springer-Lehrbuch, DOI 10.1007/978-3-642-32186-3_8, © Springer-Verlag Berlin Heidelberg 2013
Transcript
Page 1: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

Kapitel 8

Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte

unter Datenstörungen

8.1.1 Lineare Gleichungssysteme

Man betrachte folgendes kleines LGS(1 11 1 − 10−16

) (x1x2

)=

(20

20 − 10−15

).

Die eindeutige Lösung wird von der Mathematik-Software MATLAB Version 7.11 (MAT-LAB-Befehl A\b) als (

x1x2

)=

(200

)angegeben. Tatsächlich ist sie aber (

x1

x2

)=

(1010

).

MATLAB erkennt zumindest, dass ein Problem vorliegt: „Matrix is close to singular orbadly scaled. Results may be inaccurate.“ Bisher sind wir immer davon ausgegangen, dassRechenoperationen im zugrunde gelegten Zahlkörper R exakt durchgeführt werden. Tat-sächlich geht aber jedes Rechnen, egal ob mit der Hand oder auf einem Computer mitRunden einher, da es nur möglich ist, endlich viele Stellen einer Zahl zu berücksichtigen.Diese Rundungsfehler können im Sinne einer a posteriori Fehleranalyse auch als Fehlerin den Eingangsdaten der rechten Seite und der Matrix interpretiert werden, die dann miteiner exakten reellen Arithmetik verarbeitet werden. Hinzu kommt, dass für (fast) jedes„reale“ Problem b oder A nur gestört vorliegen. Die Störungen von b sind als „Datenfeh-ler“, die von A als „Modellfehler“ interpretierbar.

775P. Knabner, W. Barth, Lineare Algebra, Springer-Lehrbuch, DOI 10.1007/978-3-642-32186-3_8, © Springer-Verlag Berlin Heidelberg 2013

Page 2: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

776 8 Einige Anwendungen der Linearen Algebra

Sei ‖ . ‖ eine feste Norm auf Kn und ‖ . ‖ eine dazu verträgliche Norm auf K(n,n), diesubmultiplikativ ist.

Sei also A ∈ K(n,n) invertierbar und b ∈ Kn. Man betrachte das LGS Ax = b. Auchwenn man von exakten Daten A, b ausgeht, wird wegen rundungsbehafteter Rechnungjedes numerische Verfahren nur eine approximative Lösung liefern in dem Sinn, dass dasResiduum

r := Ax − b

nicht verschwindet, sondern nur klein ist. Auch hier liegt somit die exakte Lösung einesLGS mit gestörter rechter Seite b + r vor.

Die Auswirkungen von Störungen δb und δA auf die Lösung x zu untersuchen, bedeutetdie Stetigkeit der Abbildung

F : GL(n,K) ×Kn → Kn , (A, b) �→ A−1b

zu untersuchen (und zu quantifizieren). Man beachte, dass für festes A (keine Modellfeh-ler) F linear ist, sonst aber nichtlinear (vergleiche Bemerkungen 7.38, 1)).

Es seien δA ∈ K(n,n), δb, δx ∈ Kn die absoluten Fehlergrößen, d. h.

(A + δA)(x + δx) = b + δb bzw. (A + δA)δx = δb − (δA)x .

Ist A + δA invertierbar, dann gilt

‖δx‖ ≤ ‖(A + δA)−1‖ ‖δb − (δA)x‖ ≤ ‖(A + δA)−1‖(‖δb‖ + ‖(δA)x‖)≤ ‖(A + δA)−1‖(‖δb‖ + ‖δA‖ ‖x‖) .

Falls etwa für eine submultiplikative Matrixnorm

‖A−1‖ ‖δA‖ < 1

gilt, so folgt aus Theorem 7.37, 4):

‖δx‖ ≤ ‖A−1‖(1 − ‖A−1‖ ‖δA‖)−1(‖δb‖ + ‖δA‖ ‖x‖) . (8.1)

Diese Abschätzung zeigt demnach, dass der Verstärkungsfaktor für absolute Fehler nahebei ‖A−1‖ liegt. Für eine entsprechende Aussage für relative Fehler setzt man:

Definition 8.1

Sei ‖ . ‖ eine Norm auf K(n,n), sei A ∈ K(n,n) invertierbar. Dann heißt

κ(A) := ‖A‖ ‖A−1‖die Konditionszahl von A (bezüglich ‖ . ‖).

Page 3: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen 777

Damit können wir folgenden Satz formulieren:

Theorem 8.2: Relative Fehlerverstärkung

Sei A ∈ K(n,n) invertierbar, ‖ . ‖ sei eine submultiplikative Norm auf K(n,n) und dieMatrixstörung erfülle: ‖A−1‖ ‖δA‖ < 1. Es sei b � 0, d. h. x � 0.Dann gilt für den relativen Fehler für verträgliche Normen

‖δx‖‖x‖ ≤ κ(A)

(1 − κ(A)

‖δA‖‖A‖

)−1 ( ‖δb‖‖b‖ +

‖δA‖‖A‖

),

wobei die Matrixnorm submultiplikativ sei.

Beweis: Die Abschätzung folgt aus (8.1) unter Verwendung von

(‖A‖ ‖x‖)−1 ≤ ‖Ax‖−1 = ‖b‖−1 . �

Bemerkungen 8.3

1) Für alle invertierbaren A und alle α ∈ K mit α � 0 gilt

κ(αA) = κ(A) .

Ist die Matrixnorm erzeugt, gilt zusätzlich:

κ(A) ≥ 1 für alle invertierbaren A .

2) Im Allgemeinen ist die Konditionszahl schwer zu berechnen, da A−1 „unbekannt“ ist.Für die euklidische Norm ‖ . ‖2 und die diesbezügliche Konditionszahl κ2 folgt sofort ausTheorem 7.30, 3)

κ2(A) =σ1

σr,

wobei σ1 den größten und σr den kleinsten positiven Singulärwert in einer normiertenSVD von A bezeichnet.Ist A normal, gilt insbesondere

κ2(A) =|λmax||λmin| ,

wobei λmax und λmin den betragsgrößten bzw. -kleinsten Eigenwert von A bezeichnen.

3) Zur Interpretation von Theorem 8.2:Da die relativen Eingangsfehler mindestens so groß wie die Maschinengenauigkeit τ sind,ist es – falls die normweise Sichtweise angemessen ist – hoffnungslos, ein Gleichungssys-

Page 4: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

778 8 Einige Anwendungen der Linearen Algebra

tem mit κ(A) > 1/τ lösen zu wollen. Beim Eingangsbeispiel ist

κ(A) = 1017,

die Maschinengenauigkeitτ ist aber bei einfach genauer Arithmetik (in MATLAB single)τ = 10−6, bei doppelt genauer Arithmetik (in MATLAB double) τ = 10−14. Unabhängigvom Verfahren ist es folglich bei diesem Beispiel in üblicher Rechnerarchitektur unmög-lich, eine signifikante Stelle zu errechnen, wie sich am Fehler

‖δx‖‖x‖ ∼ 1

auch zeigt. Man beachte, dass das Residuum zu x

r =(

010−15

),

d. h. denkbar klein ist. �Durch Transformation von Ax = b kann versucht werden, die Kondition von A zu senken.Vorkonditionierung eines Gleichungssystems bedeutet bei großer Konditionszahl κ(A):Gesucht ist ein nichtsinguläres B ∈ K(n,n), so dass

1) κ(BA) < κ(A),2) BA und Bb sind „leicht“ zu berechnen und die Lösung von

BAx = Bb

ist nicht aufwändiger als die Lösung von Ax = b.

Optimal für 1) ist B = A−1, aber nicht für 2)!Der einfachste Ansatz für B ist eine Diagonalmatrix D = diag(di) mit di � 0 für alle

i, d. h. Multiplikation der i-ten Zeile des Gleichungssystems mit di � 0. Hier gilt, gleicheZeilennormen (Zeilenäquilibrierung) sind optimal:

Satz 8.4: Zeilenäquilibrierung optimal

A ∈ K(n,n) sei invertierbar und erfülle

n∑j=1

|ai, j| = 1 für alle 1 ≤ i ≤ n .

Dann gilt für jede Diagonalmatrix D = diag(di), di � 0 für alle i:

κ(DA) ≥ κ(A) ,

wobei κ bezüglich der von ‖ . ‖∞ erzeugten Norm auf K(n,n) gebildet werde.

Page 5: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen 779

Beweis: Nach Theorem 7.30, 1) ist die von ‖ . ‖∞ erzeugte Norm die Zeilensummennorm.Es ist also:

‖DA‖ = maxi=1,...,n

|di|n∑

j=1

|ai, j|︸���︷︷���︸=1

= maxi=1,...,n

|di| ‖A‖︸︷︷︸=1

und bei A−1 = (ai, j)i j

‖(DA)−1‖ = ‖A−1D−1‖ = maxi=1,...,n

n∑j=1

|ai, j|/|d j|

≥⎛⎜⎜⎜⎜⎜⎜⎝ max

i=1,...,n

n∑j=1

|ai, j|⎞⎟⎟⎟⎟⎟⎟⎠ / max

i=1,...,n|di| = ‖A−1‖/ max

i=1,...,n|di| .

Zusammen folgt

κ(DA) = ‖DA‖ ‖(DA)−1‖ ≥ κ(A) . �

In Theorem 7.37 haben wir gesehen, dass die Menge der invertierbaren Matrizen, d. h.GL(n,K), in K(n,n) offen ist. Der Radius der in GL(n,K) um A ∈ GL(n,K) enthaltenenKugel ist nach Theorem 7.37, 4) mindestens

r :=1‖A−1‖ .

Wir zeigen, dass dies (für die Spektralnorm) auch der maximal mögliche Radius ist bzw.als relative Abweichung ausgedrückt:

Satz 8.5: Abstand zur nächsten singulären Matrix

Sei A ∈ K(n,n) invertierbar. ‖ . ‖ = ‖ . ‖2 sei die Spektralnorm. Dann gilt:

sup{ ‖δA‖2‖A‖2

∣∣∣∣ δA ∈ K(n,n), so dass A + δA invertierbar ist}=

1κ(A)

.

1κ(A) ist damit der relative Abstand zum nähesten singulären (d. h. nicht eindeutiglösbaren) LGS.

Beweis: Die Aussage ist äquivalent mit

sup{‖δA‖2

∣∣∣∣ A + δA ist invertierbar}=

1‖A−1‖2 , (8.2)

wobei schon aus Theorem 7.37, 4) bekannt ist, dass

Page 6: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

780 8 Einige Anwendungen der Linearen Algebra

‖δA‖2 <1‖A−1‖ 2

⇒ A + δA ist invertierbar ,

also gilt in (8.2) „≥“.Um „≤“ zu zeigen, muss ein δA ∈ K(n,n) mit ‖δA‖2 ≤ 1/‖A−1‖2 angegeben werden, so dassA + δA nicht invertierbar ist. Es gibt ein x ∈ Kn mit ‖x‖2 = 1 und ‖A−1‖2 = ‖A−1x‖2 =:α > 0. Man setze y := 1

α A−1x, d. h.

‖y‖2 = 1 und δA := − 1α

x ⊗ y ,

dann ist nach Bemerkungen 7.31, 7)

‖δA‖2 = ‖x‖2α‖y‖2 = 1

‖A−1‖2 .

Außerdem ist A + δA nicht invertierbar, da y ∈ Kern(A + δA), denn:

(A + δA)y = Ay − 1α

x ⊗ yy = 1α

x − 1α

x = 0 . �

Bemerkungen 8.6

1) Die maximal mögliche Störung kann sogar durch eine Matrix vom Rang 1 erzielt wer-den.

2) Manchmal ist die normweise Konditionsanalyse irreführend, da sie nur den „worst ca-se“ berücksichtigt. Betrachte zum Beispiel

A :=(

1 00 ε

)für 0 < ε < 1, so dass

κ2(A) = ‖A‖2 · ‖A−1‖2 = 1 · ε−1 = ε−1 .

Dennoch ist ein LGS

Ax = b bzw. Axδ = bδ

stabil, d. h. ohne relative komponentenweise Fehlerverstärkung zu lösen, da

xi + xδi

xi=

bi + bδi

bi, i = 1, 2 .

Eine komponentenweise Konditionsanalyse wird im mathematischen Teilgebiet der Nu-merischen Mathematik behandelt. �Ist die Konditionszahl einer Matrix zu groß in Relation zu den Datenfehlern (insbesondereden unvermeidlichen, die beim numerischen Rechnen auftreten), ist es sinnlos, das gestörteLGS

Axδ = b + δb

Page 7: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen 781

lösen zu wollen, auch wenn A invertierbar ist. Man wird i. Allg. keine sinnvolle Näherungan die Lösung von

Ax = b (8.3)

erhalten (mit b � 0).

Eine Strategie für solche schlecht konditionierten Probleme besteht darin, das Problem„wenig“ zu verändern durch Übergang zu einer invertierbaren Matrix Aε, die besser als Akonditioniert ist und dann als LGS

Aεxε = b + δb (8.4)

zu lösen. Dabei misst ε > 0 die Abweichung von A, d. h.

‖A − Aε‖ → 0 für ε→ 0 .

Anwendung von Theorem 8.2 (mit (8.4) als „Originalproblem“ und (8.3) als gestörtemProblem) liefert

‖x − xε‖‖xε‖ ≤ κ(Aε)

(1 − κ(Aε)

‖A − Aε‖‖Aε‖

)−1 ( ‖δb‖‖b + δb‖ +

‖A − Aε‖‖Aε‖

). (8.5)

Da zusätzlich zu (8.5) zu erwarten ist, dass

κ(Aε)→ κ(A) für ε→ 0 ,

wobei κ(A) „groß“ ist, ist in (8.5) weder ein zu großes ε (dann ‖A − Aε‖ groß) noch ein zukleines ε (dann κ(Aε) groß) wünschenswert, es wird also ein die Fehlerschranke in (8.5)minimierendes, „optimales“ ε > 0 geben.

Die schlechte Kondition einer Matrix (bezüglich ‖ . ‖2) ist nach Bemerkungen 8.3 durchsehr kleine positive Singulärwerte in einer normierten SVD verursacht. Es bietet sich folg-lich an, gemäß einer Schranke ε > 0 die Singulärwerte 0 < σ < ε wegzulassen, d. h. dieSVD abzuschneiden. Es gilt allgemein:

Satz 8.7: Abgeschnittene SVD

Sei A ∈ K(m,n), mit m ≥ n und Rang(A) = r. Sei A = U Σ V† eine normierte SVD mitden positiven Singulärwerten σ1 ≥ . . . ≥ σr > 0.

Dann ist

A =r∑

i=1

σiui ⊗ ui , (8.6)

d. h. eine Summe von Rang-1-Matrizen und die Matrix von Rang k < r mit kleinstemAbstand bezüglich ‖ . ‖2 zu A ist

Page 8: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

782 8 Einige Anwendungen der Linearen Algebra

Ak :=k∑

i=1

σiui ⊗ ui , wobei ‖A − Ak‖2 = σk+1 .

Es gilt

Ak = UΣk V† , mit Σk = diag(σ1, . . . , σk, 0, . . . , 0) .

Beweis: Die Darstellung (8.6) wurde schon in (4.101) gezeigt. Es gilt nach Definition undTheorem 7.30, 3):

‖A − Ak‖2 =∥∥∥∥ r∑

i=k+1

σiui ⊗ ui∥∥∥∥ = ‖U diag(0, . . . , 0, σk+1, . . . , σr)V†‖ = σk+1

und Rang(Ak) = k (da die positiven Singulärwerte σ1, . . . , σk sind). Es muss daher nurnoch gezeigt werden, dass für jedes B ∈ K(m,n) mit Rang(B) = k gilt:

‖A − B‖2 ≥ σk+1 .

Sei also B eine solche Matrix, für die gilt:

Kern B ⊂ Kn und dim Kern B = n − k .

Sei V (k+1) := span(u1, . . . , uk+1) ⊂ Kn, d. h. dim V (k+1) = k + 1. Daher gilt:

Kern B ∩ V (k+1) � ∅ .

Sei x aus diesem Schnitt und ‖x‖2 = 1, dann

‖A − B‖22 ≥ ‖(A − B)x‖22 = ‖Ax‖22 = ‖U Σ V†x‖22 = ‖Σ V†x‖22 .

Man bezeichne mit (u1, . . . , uk+1) die Matrix aus K(n,k+1), deren Spalten aus den gewähltenBasisvektoren von V (k+1) bestehen. Da insbesondere x ∈ V (k+1), gilt x =

∑k+1i=1 αiui =

(u1, . . . , uk+1)α mit einem Vektor α, der ‖α‖2 = 1 erfüllt (siehe (1.89)). Somit ist V†x =diag(1, . . . , 1, 0, . . . , 0)α, wobei die Diagonalmatrix in K(n,k+1) liegt und k + 1 Einsen aufder Diagonalen hat. Dann folgt

‖A − B‖22 ≥ ‖Σ V†x‖22 = ‖(σ1α1, . . . , σk+1αk+1, 0 . . . , 0)t‖22 ≥ σ2k+1‖α‖22 = σ2

k+1 . �

Sei nunmehr für (8.4)

Aε := Ak , (8.7)

wobei k so gewählt wird, dass σk ≥ ε, σk+1 < ε, also

Page 9: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen 783

‖A − Aε‖2 = σk+1 < ε ,

κ2(Aε) =σ1

σk≤ σ1

ε,

‖Aε‖2 = σ1 .

Bei Anwendung von (8.5) gilt zwar

κ2(Aε)‖A − Aε‖2/‖Aε‖2 = σk+1/σk < 1 ,

aber nicht die Konvergenz gegen 0 für ε→ 0.

Bemerkungen 8.8

1) Die Modifikation eines schlecht gestellten LGS wie in (8.7) nennt man Regularisie-rung.

2) Die abgeschnittene SVD kann nicht nur zur Regularisierung, sondern auch zur Da-tenkompression genutzt werden, da analog zur reduzierten Form (4.100) der SVD bei kbeibehaltenen Singulärwerten Ak|(Kern Ak)⊥ nur mittels jeweils k Spalten von U und V dar-gestellt werden kann (siehe Abbildung 8.1). �Es kann auch die Situation auftreten, dass zwar das Problem gut konditioniert ist, dasverwendete Verfahren aber schlecht konditioniert. Man betrachte das LGS(

0, 005 11 1

) (x1x2

)=

(0, 51

).

Die Konditionszahl der Matrix ist

κ2(A) ≈ 2, 6 ,

d. h. das LGS sollte gut konditioniert auf Rundungsfehler reagieren. Die auf drei Stellengerundete exakte Lösung lautet

Rd3

(x1

x2

)=

(0, 5030, 497

).

Das Gauss-Verfahren ohne Pivotsuche (d. h. mit Pivotelement a1,1 = 0, 005) liefert beizweistelliger (Gleitpunkt-)Rechnung(

x1x2

)=

(0, 50

),

daher

‖δx‖2‖x‖2 ≈ 0, 70 .

Das Gauss-Verfahren mit Spaltenpivotsuche (Pivotelement a2,1 = 1) liefert

Page 10: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

784 8 Einige Anwendungen der Linearen Algebra

k = 10 k = 30

k = 50 k = 2112 (exakt)

Abb. 8.1: Bilddatenkompression durch abgeschnittene SVD.

(x1x2

)=

(0, 50, 5

),

was der zweistelligen Rundung der exakten Lösung entspricht. Weitere Informationenzu diesem Thema findet man z. B. in Golub und Van Loan 1996, Deuflhard undHohmann 1991 oder Higham 1996.

8.1.2 Ausgleichsprobleme

Wir wenden uns den Ausgleichsproblemen (mit vollem Spaltenrang) zu, wie sie beiüberbestimmten LGS entstehen. Ohne Beweis halten wir fest: Für Ausgleichsprobleme‖Ax − b‖2 → min für A ∈ K(m,n) ist der Verstärkungsfaktor für den relativen Fehler stattTheorem 8.2 (Demmel 1997, S. 117):

κLS :=2

cosΘκ2(A) + tan Θ (κ2(A))2 .

Page 11: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen 785

Dabei ist die Definition der Kondition (bezüglich ‖ . ‖2) für nichtquadratische (odernicht invertierbare) Matrizen erweitert durch

κ2(A) := σ1/σr ,

wenn σ1 ≥ . . . σr > 0 die positiven Singulärwerte in einer normierten SVD sind.

Es ist Θ ∈ [0, π/2] definiert durch

sin Θ := ‖Ax − b‖2/‖b‖2für die Lösung x des ungestörten Ausgleichsproblems (für das also ‖Ax− b‖2 ≤ ‖b‖2 gilt).

Es gibt folgende Fälle:

• Θ klein, d. h. ‖Ax − b‖2 klein:

κLS ∼ κ2(A)

analog zum gestörten LGS.• 0 ' Θ ' π/2, d. h. 0 ' ‖Ax − b‖2 ' ‖b‖2 und dann für große κ2(A):

ϕκLS ∼ (κ2(A))2 .

Im Vergleich zum LGS quadriert sich die Konditionszahl.• Θ = π

2 , d. h. ‖Ax − b‖2 = ‖b‖2, somit x = 0. Dann ist wegen tan Θ = ∞κLS unbeschränkt.

Löst man das Ausgleichsproblem über die Normalgleichungen

A†Ax = A†b ,

dann liegt immer der Verstärkungsfaktor

κ2(A†A) = σ21/σ

2r = (κ2(A))2

vor. Daher sollte man Verfahren bevorzugen, die wie die QR-Zerlegung (siehe Ab-schnitt 4.8) direkt das Ausgleichsproblem angehen.

Jedes LGS kann auch als Ausgleichsproblem geschrieben werden, was aber die Kon-dition wie gesehen nicht verbessert, durch die Formulierung über die Normalgleichun-gen hingegen verschlechtert. Schlecht gestellte (unendlichdimensionale)und auch schlechtkonditionierte (endlichdimensionale) Probleme können auch dadurch regularisiert werden,dass eine a priori Normschranke an die Lösung vorgegeben wird, d. h. das Ausgleichspro-blem wird modifiziert zu:

Ausgleichsproblem unter Normschranken:Seien A ∈ K(m,n), b ∈ Kn, c > 0 gegeben.

Page 12: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

786 8 Einige Anwendungen der Linearen Algebra

Minimiere f (x) := ‖Ax − b‖22unter der Nebenbedingung

‖x‖2 ≤ c .

Dabei können hier und im Folgenden auch analog zu Bemerkungen 4.145, 7) ‖ . ‖2durch Energienormen ‖ . ‖C und ‖ . ‖E ausgetauscht werden. In Analogie zum Lagrange-Multiplikator in (4.125) kann man sich die Nebenbedingung auch „angekoppelt“ denken,um zu große ‖x‖2 zu bestrafen und kommt als weitere Regularisierungsmethode zum

Ausgleichsproblem mit Tikhonov1-Regularisierung:Seien A ∈ K(m,n), b ∈ Km, α > 0.

Minimiere f (x) := ‖Ax − b‖22 + α‖x‖22 auf Kn . (8.8)

Es besteht ein enger Zusammenhang zum Abschneiden kleiner Singulärwerte:Die Minimierungsaufgabe (8.8) ist das Ausgleichsproblem zu folgendem überbestimm-

ten LGS:Seien Aα ∈ K(m+n,n), b ∈ Km+n definiert durch

Aα :=(

Aα1/21n

), b :=

(b0

), d. h.

Aαx = b .

Für beliebiges A hat Aα vollen Spaltenrang, so dass (8.8) eindeutig lösbar ist und dieLösung x durch die Pseudoinverse gegeben wird:

x = A+α

(b0

).

Sei

A = UΣV†

eine normierte SVD mit positiven Singulärwerten σ1 ≥ . . . ≥ σr > 0, r = Rang(A), danngilt

x =r∑

i=1

q(α, σi)1σiui ⊗ ui =

r∑i=1

q(α, σi)1σi〈b . ui〉 ui , (8.9)

wobei

q(α, σ) :=σ2

σ2 + α,

da dieser Vektor die zugehörigen Normalgleichungen

1 Andrey Nikolayevich Tikhonov ∗30. Oktober 1906 in Gschatsk †8. November 1993 in Moskau

Page 13: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen 787

(A†A + α1)z = A†b

löst:

(A†A + α1)x =r∑

i=1

q(α, σi)1σi〈b . ui〉 (A†A + α1)ui =

r∑i=1

σi

σ2i + α

〈b . ui〉 (σ2i + α)ui

=

r∑i=1

σi 〈b . ui〉 ui = VΣ†U†b = A†b .

Also:

Theorem 8.9: Tikhonov-Regularisierung

Seien A ∈ K(m,n), b ∈ Km, α > 0. Dann existiert die Lösung des Tikhonov-regularisierten Ausgleichsproblems, x = xα, eindeutig und wird durch die gedämpf-te Pseudoinverse

xα = A+(α)b := VΣ+(α)U†b

gegeben, wobei Σ(α) ∈ K(m,n) die Diagonalmatrix mit den Diagonaleinträgen

σi

q(α, σi)= σi +

α

σi, i = 1, . . . , r

ist.

Wegen 0 ≤ q(α, σ) ≤ 1 sowie

q(α, σ) → 0 für σ→ 0 und α > 0 ,q(α, σ) → 1 für σ→ ∞ und α > 0 ,

werden in A+(α) im Vergleich zu A+ die durch kleine Singluärwerte erzeugten Verstärkungs-faktoren verkleinert, es werden aber alle inversen Singulärwerte verändert. Im Gegensatzdazu werden bei der abgeschnittenen SVD für alle σ < ε die Einträge 1/σ in A+ durch 0ersetzt und für σ ≥ ε die Einträge 1/σ nicht verändert. Dies entspricht (8.9), aber mit εstatt α und

q(ε, σ) =

⎧⎪⎪⎨⎪⎪⎩1 für σ ≥ ε

0 für σ < ε .

Andererseits ist für die Durchführung der Tikhonov-Regularisierung die Kenntnis einerSVD nicht nötig. Zusätzliche Informationen finden sich z. B. in Demmel 1997.

Page 14: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

788 8 Einige Anwendungen der Linearen Algebra

8.1.3 Eigenwerte

Auch wenn man von einer exakten Matrix A ausgeht, wird wegen rundungsfehlerbehafte-ter Rechnung jedes Verfahren nur approximative Eigenwerte und -vektoren λ, u liefern, indem Sinn, dass das Residuum

r := Au − λu

nicht verschwindet, sondern nur ‖r‖ klein ist. Auch dieser Fall kann als eine exakte Eigen-wertberechnung zu einer gestörten Matrix interpretiert werden.

Satz 8.10: Defekt = Datenstörung

Sei A ∈ K(n,n), u, r ∈ Kn, ‖u‖2 = 1, λ ∈ C, so dass

Au = λu + r .

Dann gibt es eine Rang-1-Matrix δA ∈ K(n,n), so dass

1) ‖δA‖2 = ‖r‖2 und

2) (A + δA)u = λu.

Beweis: Sei

δA := −r ⊗ u ,dann gilt 1) nach (7.16) und

(A + δA)u = λu + r − ‖u‖22 r = λu . �

Im Fall eines gut konditionierten Eigenwertproblems (aber nur hier) kann man also voneinem kleinen Residuum auf einen kleinen Eigenwert(vektor)fehler schließen. Da, wieschon mehrfach erwähnt, in realen Problemen die definierenden Matrizen i. Allg. immerfehlerbehaftet vorliegen, stellt sich auch bei der Eigenwert- bzw. Eigenvektorberechnungdie Frage nach deren Stabilität . Wird eine Matrix nur um kleine Einträge gestört, bedeutetdies auch eine geringe Störung der Eigenwerte bzw. Eigenvektoren? Wir werden hier nurin die erste Fragestellung einführen, die zweite ist technisch zu komplex. Prinzipiell ist dieAntwort positiv, denn es gilt:

Satz 8.11: Stetige Abhängigkeit der Eigenwerte

Sei A = (ai, j) ∈ K(n,n). Dann hängen die Eigenwerte von A in C stetig von denai, j ∈ K ab.

Page 15: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen 789

Beweisskizze: Da der Beweis zur Analysis bzw. zur Funktionentheorie gehört, soll er hiernur kurz skizziert werden. Die Eigenwerte sind nach Satz 4.23 die Nullstellen des charak-teristischen Polynoms. Schreibt man dieses in der Standardform der Monombasis, so sindaufgrund der Leibnizschen Formel (siehe Definition 2.105) die Koeffizienten Polynomeder Einträge von A. Daher hängen diese Koeffizienten stetig von den Einträgen von A ab.Um zu zeigen, dass die Nullstellen eines Polynoms stetig von den Koeffizienten abhängen,bedarf es Methoden der Funktionentheorie. �

Abbildung 8.2 lässt erwarten, dass sich (insbesondere bei reellen Eigenwerten) Unter-schiede zwischen einfachen und mehrfachen Eigenwerten ergeben. Genauer kann je nachNichtdiagonalisierbarkeit oder nach Diagonalisierbarkeit bzw. einfachen und mehrfachenEigenwerten ein sehr unterschiedliches Stetigkeitsverhalten vorliegen. Den ersteren Fallbetrachtet:

einfache Nullstelle

mehrfache Nullstelle

Abb. 8.2: Störung einer Funktion: Einfluss auf Nullstelle.

Satz 8.12: Beliebig schlechte stetige Abhängigkeit

Sei A ∈ K(n,n), λ ∈ K Eigenwert von A. Im nichtdiagonalisierbaren Fall ist λ i. Allg.nicht Lipschitz-stetig abhängig von den Einträgen von A und die stetige Abhän-gigkeit kann für große n ∈ N beliebig schlecht sein.

Beweis: Dazu betrachte man den Jordan-Block zu μ ∈ C

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝μ 1 0

. . .. . .

. . . 10 μ

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ∈ K(n,n)

und als Störung

Page 16: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

790 8 Einige Anwendungen der Linearen Algebra

δA = (−1)nεen ⊗ e1 ,

d. h. ein ±ε-Eintrag in der Position (n, 1). Entwicklung nach der ersten Spalte (nachSatz 2.116) zeigt für Aε := A + δA

χAε(λ) = det(Aε − λ1n) = (μ − λ)n − ε

und damit hat Aε die Eigenwerte

λε, j = μ − ω jε1/n, j = 1, . . . , n ,

wobei ω := e2πi/n, d. h. die ω j die komplexen n-ten Einheitswurzeln darstellen (sieheSatz B.32). Folglich gilt

|μ − λε, j| = ε1/n .

Diese Abhängigkeit ist nicht Lipschitz-stetig in ε und für große n beliebig schlecht (indem Sinn: Hölder-stetig mit Hölder-Konstante α = 1/n→ 0 für n→ ∞). �

Besser ist die Situation im diagonalisierbaren Fall:

Satz 8.13: Lipschitz-stetige Abhängigkeit diagonalisierbarer Matrizen

Sei A ∈ K(n,n) in C diagonalisierbar, d. h. A = BDB−1, wobei D = diag(λi) eineDiagonalmatrix ist. Sei μ ∈ C ein Eigenwert der gestörten Matrix A + δA, so dassμ � λi für alle i = 1, . . . , n. Dann hat A einen Eigenwert λk, so dass

|μ − λk | ≤ κp(B)‖δA‖p ,

wobei ‖ . ‖p die gemäß Theorem 7.23 erzeugte Matrixnorm zur Norm ‖ . ‖p aus (7.1),1 ≤ p ≤ ∞, bezeichnet.

Beweis: Sei u Eigenvektor zu μ von A + δA, d. h.

(A + δA)u = μu

und

w := B−1u , δA := B−1δAB ,

dann gilt

(D + δA)w = μw (8.10)

und

‖δA‖ ≤ ‖B−1‖ ‖δA‖ ‖B‖ = κ(B)‖δA‖

Page 17: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.1 Lineare Gleichungssysteme, Ausgleichsprobleme und Eigenwerte unter Datenstörungen 791

(für eine beliebige submultiplikative Norm). (8.10) lässt sich umformen zu

w = (μ1n − D)−1δAw

und damit

‖w‖ ≤ ‖(μ1n − D)−1δA‖ ‖w‖ ≤ ‖(μ1n − D)−1‖ ‖δA‖ ‖w‖(für verträgliche Normen), wegen w � 0 also

‖(μ1n − D)−1‖ ‖δA‖ ≥ 1 .

Ist speziell ‖ . ‖ = ‖ . ‖p, so gilt nach Bemerkungen 7.31, 6)

‖(μ1n − D)−1‖p = 1/ min{|μ − λi| : i = 1, . . . , n}und damit für ein k ∈ {1, . . . , n}:

|μ − λk | = ‖(μ1n − D)−1‖−1p ≤ ‖δA‖p ≤ κ(B)‖δA‖p . �

Bemerkung 8.14 Über Satz 8.13 hinaus kann gezeigt werden, dass jeder Eigenwert vonA der algebraischen Vielfachheit k in der Nähe genau einen Eigenwert von A + δAder gleichen Vielfachheit hat, falls ‖δA‖p klein genug ist. Dies kann mit dem Satz vonGerschgorin2 (siehe Aufgabe 8.6) gezeigt werden. �Für normale Matrizen folgt sofort, dass deren Eigenwerte immer stabil sind:

Satz 8.15: Stabilität der Eigenwerte bei normalen Matrizen

Sei A ∈ K(n,n) normal mit Eigenwerten λ1, . . . , λn ∈ C. Sei μ ∈ C Eigenwert dergestörten Matrix A + δA, so dass μ � λi für alle i = 1, . . . , n gilt. Dann hat A einenEigenwert λk, so dass

|μ − λk | ≤ ‖δA‖2 .

Beweis: Die Eigenwertbasis, deren Spalten B bilden, kann orthonormal gewählt werden,damit

‖B‖2 = ‖B−1‖2 = 1 , d. h. κ2(B) = 1 . �

Hängt in Satz 8.13 die Konditionszahl vom Verhalten der gesamten Eigenvektor-Basis ab,lässt sich dies bei einfachen Eigenwerten lokalisieren:

2 Semjon Aronowitsch Gerschgorin ∗24. August 1901 in Pruschany †30. Mai 1933

Page 18: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

792 8 Einige Anwendungen der Linearen Algebra

Satz 8.16: Stabilität eines einfachen Eigenwerts

Sei A ∈ K(n,n) in C diagonalisierbar und λ ∈ C ein einfacher Eigenwert von A. Seiu ∈ Kn ein Eigenvektor von A zu λ und w ∈ Kn ein Eigenvektor von At zu λ, d. h.wtA = λwt. Sei ε > 0 und δA eine Störung von A, so dass ‖δA‖2/‖A‖2 = ε. Dann gibtes ein ε0 > 0, so dass für 0 < ε ≤ ε0 gilt:A + δA hat einen Eigenwert λ + δλ, so dass die Abschätzung

|δλ|‖A‖2 ≤ ‖w‖2‖u‖2ε + O(ε2)

gilt.

Beweisskizze: Wenn ‖δA‖ klein genug ist, hat A + δA auch einen einfachen Eigenwertλ+δλ zum Eigenvektor u+δu (siehe Bemerkung 8.14). Es kann gezeigt werden, dass dannauch ‖δu‖2 ≤ Cε für eine Konstante C > 0. Demnach mit Satz 8.13

Au = λu(A + δA)(u + δu) = (λ + δλ)(u + δu)

und weiter

δAu + Aδu = δλu + λδu + O(ε2) . (8.11)

Eventuell globale Abhängigkeiten sind somit nur im quadratischen Term enthalten. Nachden Überlegungen ab Bemerkungen 4.35 können u und ein linker Eigenvektorw so gewähltwerden, dass

wtu = 1 .

Aus (8.11) folgt:wtδAu + wtAδu = δλ + λwtδu + O(ε2) und mit wtA = λwt heben sich die jeweils zweitenTerme weg und so

δλ =wtδAu + O(ε2) ,

d. h. |δλ|≤‖w‖2‖u‖2‖δA‖2 + O(ε2)

und damit die Behauptung. �

Weitere Ergebnisse werden z. B. in Watkins 2007 oder Saad 2011 dargestellt.

Aufgaben

Aufgabe 8.1 (K) Bestimmen Sie für 0 < ε < 1 die Konditionszahl der Matrix

Page 19: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

Aufgaben 793

A =(1 00 ε

)bezüglich ‖ . ‖∞ und ‖ . ‖2.

Aufgabe 8.2 (T) Betrachtet wird das LGS Ax = b mit A ∈ GL(n,K), b ∈ Kn. Sei ‖ . ‖eine erzeugte Norm auf Kn und κ(A) die Konditionszahl von A bezüglich ‖ . ‖. Zu x ∈Kn betrachte man das Residuum r(x) = x − A−1b. Man zeige die folgenden a posterioriAbschätzungen für den absoluten und relativen Fehler:

‖r(x)‖‖A‖ ≤ ‖x − A−1b‖ ≤ ‖A−1‖ ‖r(x)‖ ,

1κ(A)

‖r(x)‖‖b‖ ≤

‖x − A−1b‖‖A−1b‖ ≤ κ(A)

‖r(x)‖‖b‖ .

Aufgabe 8.3 (K) Man betrachte das LGS Ax = b mit

A =(

40 4039 40

)und b =

(8079

).

Geben Sie Schranken für die relativen Fehler

S A :=‖δA‖∞‖A‖∞ , S b =

‖δb‖∞|b‖∞

an, damit für die Lösung x = x+δx des gestörten Problems (A+δA)x = δb+ b der relativeFehler ‖δx‖∞/‖x‖∞ kleiner gleich 10−2 ausfällt.

Aufgabe 8.4 (T) Sei A ∈ K(n,n), A = A†, A > 0. Dann wissen wir laut Satz 4.142, dass Aeine Cholesky-Zerlegung A = LL† besitzt. Zeigen Sie:

κ2(L) = κ2(L†) =√κ2(A) < κ2(A).

Aufgabe 8.5 (T) Für α > 0 sei xα die Lösung des Tikhonov-regularisierten Problems(8.8). Zeigen Sie

‖Axα − b‖2 α→0−→ 0 ⇔ b ∈ Bild(A) .

Aufgabe 8.6 (T) Satz von Gerschgorin: Sei A ∈ K(n,n), λ ∈ C ein Eigenwert von A,dann gibt es ein j ∈ {1, . . . , n}, so dass

∣∣∣λ − a j, j

∣∣∣ ≤ n∑i=1,i� j

∣∣∣a j,i

∣∣∣ =: r j .

Die Eigenwerte liegen daher in der Vereinigung der Gerschgorin-Kreise Br j(a j, j) (⊂C).

Page 20: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

794 8 Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und

Eigenwerte

8.2.1 Das Page-Rank-Verfahren von Google

Die Beliebtheit der Internet-Suchmaschine Google liegt unter anderem darin begründet,dass Google anscheinend in der Lage ist, auch bei wenigen Suchbegriffen, d. h. bei einergroßen Anzahl von Internetseiten, die diese Suchbegriffe enthalten, die „relevanten“ Seitenan den ersten Positionen zu platzieren. Dem liegt ein Bewertungsmodell für Internetseitenzugrunde, das in seiner ersten Form auf ein Eigenwertproblem bzw. in seiner endgültigenForm auf ein lineares Gleichungssystem führt, und das im Jahr 1998 von den Mitbegrün-dern von Google, Sergey Brin3 und Larry Page4, entwickelt worden ist, wobei derAnsatz tatsächlich historisch wesentlich älter ist. Das patentierte Verfahren in seiner algo-rithmischen Umsetzung ist als PageRank-Algorithmus bekannt und soll hier als Beispielfür iterative Lösungsverfahren von LGS besprochen werden.

Man kann sich die vernetzten Seiten des Internets vorstellen als einen gerichteten Graphen(siehe Definition 8.36), wobei die Menge der Seiten die Knoten des Graphen darstellenund genau dann eine Kante von x auf y verweist, wenn die Seite x einen Hyperlink (imFolgenden kurz: Link) auf die Seite y besitzt. Dieser Graph kann durch eine Adjazenzma-trix (siehe Definition 8.39) beschrieben werden, d. h. :Seien 1, . . . , n die (erfassten) Seiten des Internets. Sei B = (bi, j)i, j ∈ R(n,n) definiert durch

bi, j =

⎧⎪⎪⎨⎪⎪⎩1, wenn ein Link von Seite i auf Seite j verweist,0, sonst .

Im Folgenden soll ein Bewertungsschema von Webseiten entwickelt werden, das aus-schließlich die durch diese Links definierte Vernetzungsstruktur des Internets ausnutzt, umeiner Seite eine relative „Relevanz“ zuzuordnen; es geht also dabei nicht um eine Bewer-tung des Inhalts der betreffenden Seiten. Als erstes Maß von Bedeutung könnte man dieAnzahl der auf eine betreffende Seite verweisenden Links heranziehen, d. h. also zur Seitej die Summe der j-ten Spalte von B. Ein solches Kriterium kann aber durch Linkfarms,d. h. Seiten, deren Aufgabe allein darin besteht, auf andere Seiten zu verlinken, manipu-liert werden. Ein Ausweg aus dieser Situation ist die Begrenzung der Einflussnahme einerSeite auf eine „Stimme“, d. h. durch eine Gewichtung der Einträge der i-ten Zeile durchdie jeweilige Zeilensumme, so dass auf diese Weise jede Seite nur insgesamt als Summedie Bewertung 1 verteilen kann. Sei daher

bi :=n∑

j=1

bi, j, i = 1, . . . , n ,

3 Sergey Michailowitsch Brin ∗21. August 1973 in Moskau4 Lawrence Edward Page ∗26. März 1973 in Ann Arbor

Page 21: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 795

die Summe der von i ausgehenden Links. Die gewichtete Adjazenzmatrix B = (bi, j)i, j wirddefiniert durch

bi, j =

⎧⎪⎪⎨⎪⎪⎩bi, j/bi, falls bi � 0 ,

0, falls bi = 0 .

Auch dieses Bewertungsschema könnte durch die Erstellung vieler, auf eine spezielle Seiteverweisende Seiten, manipuliert werden. Einen Ausweg bietet folgende implizite Definiti-on der „Wichtigkeit“ einer Seite xi für die Seite i dadurch, dass diese Wichtigkeit durch dieauf sie verweisenden skalierten Links noch einmal skaliert mit der Wichtigkeit der Seiten,von denen sie ausgehen, definiert wird, d. h. somit:

Definition 8.17

Das Gewicht einer Internetseite i ist definiert als xi ≥ 0, wobei x = (xi)i ∈ Rn

folgende Gleichungen löst:

xi =

n∑j=1

b j,ix j, i = 1, . . . , n, bzw.

(Bt − 1)x = 0 . (8.12)

Wir betrachten als Erstes den Fall, dass

bi � 0 für alle i = 1, . . . , n ,

d. h. jede Seite hat mindestens einen ausgehenden Link. Dann gilt

n∑j=1

bi, j = 1 für alle i = 1, . . . , n

und damit

B1 = 1 und auch ‖Bt‖1 = ‖B‖∞ = 1 ,

d. h. λ = 1 ist Eigenwert von B (mit Eigenvektor 1) und somit hat auch Bt den Eigenwert1. Es handelt sich dabei um einen betragsmaximalen Eigenwert, da nach Theorem 7.32, 2)gilt:

ρ(Bt) ≤ ‖Bt‖1 = 1 .

Da insbesondere B nichtnegativ ist, hat (8.12) nach dem Satz von Perron5 und Frobe-nius (Hauptsatz 8.51) eine nicht negative Lösung x (d. h. xi ≥ 0 für alle i = 1, . . . , n), wiegewünscht. Ist zusätzlich B irreduzibel, so ist sogar x > 0 (d. h. xi > 0 für alle i = 1, . . . , n)

5 Oskar Perron ∗7. Mai 1880 in Frankenthal (Pfalz) † 22. Februar 1975 München

Page 22: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

796 8 Einige Anwendungen der Linearen Algebra

und 1 ist ein einfacher Eigenwert. Dabei ist B irreduzibel genau dann, wenn der Adjazenz-graph zusammenhängend ist (Definition 8.41, Satz 8.43), d. h. sich eine beliebige Seite zueiner anderen beliebigen Seite durch Links verbinden lässt, was so nicht zu erwarten ist.Insgesamt hat das Modell einige unerwünschte Eigenschaften: Man betrachte die Netz-struktur 3, . . . , n, wobei Knoten 3 viele eingehende Kanten hat. Die Situation sei so, dasseine Lösung xi > 0, i = 3, . . . , n existiert. Es ist zu erwarten, dass x3 „groß“ ist. Ergänztman nun dieses Netz um die Knoten 1, 2 in folgender Weise (Abbildung 8.3), so hat Bt

3

1 2

Abb. 8.3: Erweiterte Netzwerkstruktur.

folgende Gestalt:

Bt =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 1 1 0 · · · · · · 01 0 0 0 · · · · · · 00 0 0...

...... ∗

0 0 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠und damit sind die ersten zwei Gleichungen in (8.12) entkoppelt und lauten

x2 + x3 = x1 ,

x1 = x2 ,

woraus notwendigerweise

x3 = 0 und x1 = x2

folgt, d. h. eine „kleine“ Änderung der Netzstrukturen ergibt eine „große“ Änderung derGewichte. Der Adjazenzgraph ist hier nicht zusammenhängend: Die Knoten 1, 2 könnennicht verlassen werden. Falls gilt

bk = 0 für ein k ∈ {1, . . . , n} ,

Page 23: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 797

d. h. es gibt eine Seite k ohne herausweisende Links, so ist i. Allg. λ = 1 kein Eigenwertvon Bt, d. h. (8.12) hat die eindeutige Lösung

x = 0 ,

die nicht aussagekräftig ist. Dies tritt im folgenden Beispiel auf (siehe Abbildung 8.4).

Also

3

1 2

Abb. 8.4: Netzwerkstruktur ohne herausweisende Links.

Bt =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 0 0 00 0 01 1 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ , d. h. Bt − 1 =⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝−1 0 0

0 −1 01 1 −1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠und damit ist Bt − 1 invertierbar. Die von Page und Brin vorgeschlagene Modifikationbeinhaltet eine Dämpfung in folgender Art:

Definition 8.18

Sei 0 < ω < 1. Das Gewicht mit Dämpfung ω einer Internetseite i ist definiert alsxi ≥ 0, wobei x = (xi)i ∈ Rn folgende Gleichungen löst:

xi = ω

n∑j=1

B j,ix j + (1 − ω) , i = 1, . . . , n

bzw.

(1 − ωBt)x = (1 − ω)1 . (8.13)

Hat sodann (8.13) eine nichtnegative Lösung, so gilt für diese notwendigerweise

xi ≥ 1 − ω für i = 1, . . . , n , (8.14)

d. h. jede Seite bekommt a priori einen Bonus bei der Bewertung, man kann die Vorge-hensweise auch mit dem Modell des Zufallssurfers erklären: Ein Websurfer startet aufeiner beliebig gewählten Seite und verfolgt einen beliebig ausgewählten Link auf dieserSeite. Das Gewicht xi ohne Dämpfung ist dann ein Maß, wie oft ein solcher Surfer auf

Page 24: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

798 8 Einige Anwendungen der Linearen Algebra

die Seite i gelangt. Bei Hinzunahme des Dämpfungsparameters verfährt der Surfer mit derWahrscheinlichkeit ω nach der oben genannten Strategie und mit der Wahrscheinlichkeit1 − ω wählt er eine Seite beliebig aus. Im Extremfall ω = 0 wählt er demnach immer be-liebig Seiten aus, was damit konsistent ist, dass (8.13) dann die eindeutige Lösung xi = 1für alle i hat. Das LGS (8.13) ist ohne weitere Voraussetzungen eindeutig lösbar, da

ρ(ωBt) ≤ ‖ωBt‖1 = ω < 1 (8.15)

und damit nach Theorem 7.37, 1)

1 − ωBt invertierbar

ist. Nach Hauptsatz 8.54 (mit s = 1) ist 1 −ωBt sogar eine invertierbare M-Matrix. Insbe-sondere ist daher wegen (1 − ω)1 > 0 die Lösung von (8.13) nichtnegativ und damit gilt(8.14). Für die Konditionszahl von 1 − ωBt gilt wegen

‖(1 − ωBt)−1‖1 ≤ 11 − ‖ωBt‖1 ≤

11 − ω

nach (8.15) und Theorem 7.37 und

‖1 − ωBt‖1 ≤ 1 + ω , (8.16)

denn für die i-te Spaltensumme gilt: Im Fall bi � 0:

|1 − ωbi,i| +n∑

j=1j�i

|ωbi, j| = 1 − ωbi,i + ω

n∑i=1j�i

bi, j = 1 + ω

n∑j=1

bi, j − 2ωbi,i ≤ 1 + ω .

Im Fall bi = 0:

|1 − ωbi,i| +n∑

j=1j�i

|ωbi, j| = 1 .

Da im Allgemeinen bk � 0 für k ∈ {1, . . . , n} und auch bi,i = 0 gilt, ist (8.16) nicht zuverbessern. Infolgedessen gilt

κ1(1 − ωBt) ≤ 1 + ω

1 − ω.

Der Dämpfungsfaktorω sollte deswegen nicht zu dicht an 1 gewählt werden. Gebräuchlichist bei Google anscheinend ω = 0.85.

Page 25: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 799

8.2.2 Linear-stationäre Iterationsverfahren für lineare Gleichungssysteme

Sei A ∈ K(n,n) invertierbar. Man betrachte für b ∈ Kn das eindeutig lösbare LGS

Ax = b .

Carl Friedrich Gauss lobte folgendes Verfahren:Löse die i-te Gleichung nach xi auf, d. h.

xi =1

ai,i

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝bi −n∑

j=1j�i

ai, jx j

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ für i ∈ {1, . . . , n} . (8.17)

Dafür muss ai,i � 0 sein für alle i = 1, . . . , n, was durch eine Umordnung der Zeilen undSpalten erreicht werden kann. Aus (8.17) ist leicht xi auszurechnen, wenn die x j, j � i,bekannt sind, was aber nicht der Fall ist.Man kann aber mit einer Schätzung x(1), der Startiterierten, beginnen, dann mittels (8.17)x(2) bestimmen und nun dieses Iterationsverfahren (zur Erzeugung einer Folge von Vekto-ren x(1), x(2), . . .) fortsetzen, d. h.

x(k+1)i :=

1ai,i

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝bi −n∑

j=1j�i

ai, jx(k)j

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ für i ∈ {1, . . . , n}, k ∈ N (8.18)

und erhält das Jacobi6- oder Gesamtschritt-Verfahren. Hier ist es offensichtlich ohneBelang, in welcher Reihenfolge die n Berechnungen in (8.18) gemacht werden. Legt mansich auf die Reihenfolge 1, 2, 3, . . . fest, dann liegen im i-ten Teilschritt die neuen Nähe-rungen x(k+1)

1 , . . . , x(k+1)i−1 vor, die, da ja wohl „besser“ als die alten, gleich in (8.18) benutzt

werden sollten, d. h.

x(k+1)i :=

1ai,i

⎛⎜⎜⎜⎜⎜⎜⎝bi −i−1∑j=1

ai, jx(k+1)j −

n∑j=i+1

ai, jx(k)j

⎞⎟⎟⎟⎟⎟⎟⎠ für i = 1, 2, . . . , n, k ∈ N . (8.19)

Dies ist das Gauss-Seidel7- oder Einzelschritt-Verfahren.Konvergieren diese Verfahren und wenn ja, mit welcher „Geschwindigkeit“?

Zu ihrer Analyse schreiben wir A = L + D + R mit der strikten unteren DreiecksmatrixL, der Diagonalmatrix D und der strikten oberen Dreiecksmatrix R (nicht zu verwechselnmit einer LR-Zerlegung A = LR):

6 Carl Gustav Jacob Jacobi ∗10. Dezember 1804 in Potsdam †18. Februar 1851 in Berlin7 Philipp Ludwig von Seidel ∗24. Oktober 1821 in Zweibrücken †13. August 1896 in München

Page 26: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

800 8 Einige Anwendungen der Linearen Algebra

L =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝0 . . . . . . 0

a2,1. . .

......

. . .. . .

...an,1 . . . an,n−1 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ , D =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a1,1 0 . . . 0

0. . .

. . ....

.... . .

. . . 00 . . . 0 an,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ,

R =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝0 a1,2 . . . a1,n...

. . .. . .

......

. . . an−1,n

0 . . . . . . 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

(8.20)

Das Jacobi-Verfahren entspricht dann der Umformung des LGS in die Fixpunktform:

Dx = −(L + R)x + b bzw. x = D−1(−(L + R)x + b)

und das Verfahren ist dann das (Banachsche) Fixpunktverfahren (vergleiche Analysis)

x(k+1) = D−1(−(L + R)x(k) + b) .

Analog entspricht das Gauss-Seidel-Verfahren der Fixpunktform

(D + L)x = −Rx + b bzw. x = (D + L)−1(−Rx + b)

und das Verfahren lautet

x(k+1) = (D + L)−1(−Rx(k) + b) . (8.21)

Man beachte, dass die Vorwärtssubstitution für das in (8.21) zu lösende LGS zur Berech-nung von x(k+1) schon in (8.19) „eingebaut“ ist und gegenüber (8.18) keinen Mehraufwanddarstellt.

Als allgemeinen Rahmen betrachten wir die folgende Klasse von affin-linearen Iterati-onsfunktionen

Φ(x) := Mx + Nb (8.22)

mit noch zu spezifizierenden M, N ∈ K(n,n). Die affin-lineare Abbildung Φ ist stetig aufKn. Allgemein sind dabei folgende Begriffe von Bedeutung:

Definition 8.19

Sei (V, ‖ . ‖) ein normierter Raum. Man betrachte ein Problem (P) in V mit der Lö-sungsmenge M.Sei

(u(n)

)n

eine durch ein Iterationsverfahren erzeugte Folge (bei Vorgabe von u(1)).

1) Das Verfahren heißt (global) konvergent für (P), wenn u(n) → u für n → ∞für ein u ∈ M bei beliebiger Wahl von u(1).

Page 27: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 801

2) Das Verfahren heißt konsistent mit (P), wenn gilt:Ist u(n) → u für n→ ∞, dann folgt u ∈ M .

Bei einem durch (8.22) gegebenen Fixpunktiterationsverfahren

x(k+1) = Φ(x(k)) = Mx(k) + Nb (8.23)

folgt aus der Konvergenz von x(k) gegen x :x ist Fixpunkt , d. h.

x = Mx + Nb . (8.24)

Bei der Form (8.22) ist Φ Lipschitz-stetig bezüglich einer gegebenen Norm ‖ . ‖ auf Rn

mit Lipschitz-Konstante ‖M‖, wobei ‖ . ‖ eine Norm auf K(n,n) ist, die mit der Vektor-norm verträglich ist (siehe Definition 7.22). Genauer erfüllt der Fehler

e(k) := x(k) − x ,

wobei x ein Fixpunkt ist, d. h. (8.24) erfüllt

e(k+1) = Me(k) , (8.25)

wie sich aus Subtraktion von (8.23) und (8.24) sofort ergibt. Die Rekursion (8.25) istäquivalent mit

e(k) = Mke(0) . (8.26)

Die gewünschte Aussage ist also

e(k) → 0 für k → ∞ .

Die Gültigkeit dieser Aussage wird im Allgemeinen von der Wahl des Startvektors x(0) ab-hängen. Ist die Fixpunktgleichung eindeutig lösbar und das Verfahren global konvergent,wird mit e(0) = x(0) − x der ganze Kn ausgeschöpft, daher ist

e(k) → 0 für k → ∞ und für beliebiges e(0) ∈ Kn . (8.27)

Dies ist äquivalent mit

Mk → 0 für k → ∞ . (8.28)

Das kann man folgendermaßen einsehen: Gilt (8.28), dann auch in jeder Norm auf K(n,n) (nach Haupt-satz 7.10), so dass bezüglich einer beliebig auf Kn gewählten Norm ‖ . ‖ und der erzeugten Norm ‖ . ‖ aufK(n,n) gilt (nach (7.13))

‖e(k)‖ ≤ ‖Mk‖ ‖e(0)‖ → 0 für k →∞ .

Page 28: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

802 8 Einige Anwendungen der Linearen Algebra

Gilt andererseits (8.27) für beliebige e(0), so etwa für die Wahl e(0) = e1, . . . , en, d. h. die Spaltenfolgenvon Mk konvergieren (komponentenweise), konvergiert Mk (komponentenweise) gegen 0 (siehe Bemer-kungen 7.11, 2)).

Hinsichtlich der qualitativen Frage nach Konvergenz gibt es also keinen Unterschied zwi-schen den Normen (wie immer im Endlichdimensionalen), wohl aber im Konvergenzver-halten: Sei ‖ . ‖ submultiplikativ und gilt

‖M‖ < 1 ,

so dass dann bei verträglicher Vektornorm folgt:

‖e(n)‖ ≤ ‖Mn‖ ‖e(0)‖ ≤ ‖M‖n‖e(0)‖ .

Gilt wie hier allgemein für eine Iterationsfolge und den diesbezüglichen Fehler

‖e(n)‖ ≤ ρn‖e(0)‖ (8.29)

für ein 0 < ρ < 1, dann heißt die Folge linear konvergent , mit Kontraktionszahl ρ.

Das Ziel ist die Lösung von Ax = b (dies ist also Problem (P) in Definition 8.19), also seidie Fixpunktiteration konsistent mit Ax = b, dann ist ein Fixpunkt die eindeutige Lösungvon Ax = b, somit insbesondere ein eindeutiger Fixpunkt. Es gebe einen solchen Fixpunktfür jedes b ∈ Kn. So muss gelten

x = Mx + Nb ⇔ x = A−1b für beliebige b ∈ Kn ,

d. h. A−1b = MA−1 b + Nb ⇒ A−1 = MA−1 + N ⇒

1 = M + NA . (8.30)

(8.30) ist folglich eine notwendige und bei Invertierbarkeit von N auch hinreichendeBedingung für Konsistenz.

Bei Gültigkeit von (8.30) lässt sich die Fixpunktiteration (8.23) auch schreiben als

x(k+1) = x(k) − N(Ax(k) − b) , (8.31)

da Mx(k) + Nb = (1 − NA)x(k) + Nb.Ist N invertierbar, ist andererseits die durch (8.31) definierte Iteration konsistent. Dann

ist mit W := N−1 eine wiederum äquivalente Form gegeben durch

W(x(k+1) − x(k)) = −(Ax(k) − b

). (8.32)

Die Korrektur x(k+1) − x(k) für x(k) ergibt sich nunmehr aus dem Defekt (oder Residuum)

Page 29: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 803

d(k) := Ax(k) − b

durch (8.31) oder (8.32), d. h. eventuell durch Lösen eines Gleichungssystems. Um kon-kurrenzfähig zu den direkten Verfahren (mit O(n3) Operationen (bei vollbesetzten Ma-trizen)) zu sein, sollte die Auflösung in (8.32) (bei vollbesetzter Matrix) nur O(n) oderO(n2) Operationen benötigen (O(n2) Operationen werden schon bei der Berechnung vond(k) benötigt). Andererseits sollte das Verfahren konvergieren, und zwar möglichst schnell.Iterationsverfahren in der Form (8.23), (8.31) oder (8.32) heißen linear-stationär, da sichdie affin-lineare Abbildungsvorschrift nicht ändert.

Theorem 8.20: Globale Konvergenz bei eindeutiger Lösbarkeit

Seien M, N ∈ K(n,n), b ∈ Kn. Die Fixpunktgleichung (8.24) sei lösbar.

1) Dann sind äquivalent:

(ia) Die Fixpunktgleichung (8.24) ist eindeutig lösbar,

(ib) die Fixpunktiteration (8.23) ist global konvergent;

und

(ii) ρ(M) < 1 .

2) Wenn bezüglich einer mit einer Vektornorm ‖ . ‖ verträglichen, submultiplikati-ven Norm ‖ . ‖ auf K(n,n) gilt

‖M‖ < 1 , (8.33)

so gelten die Aussagen 1) und die Konvergenz ist monoton im folgenden Sinn:

‖e(n+1)‖ ≤ ‖M‖ ‖e(n)‖ (8.34)

und insbesondere linear konvergent mit Kontraktionszahl ‖M‖.3) Gilt (8.30) und sind A und N invertierbar, dann ist der Fixpunkt x die Lösungvon Ax = b.

Beweis: Zu 1): „⇒“ folgt aus der Vorüberlegung im Anschluss an (8.26) und Haupt-satz 7.34. Bei „⇐“ folgt die globale Konvergenz entsprechend. Da dann jede Fixpunkt-folge gegen jeden Fixpunkt konvergiert, ist dieser eindeutig.Zu 2): Theorem 7.32, 1) und (8.29).Zu 3): Nach den Vorüberlegungen. �

Bemerkungen 8.21

1) Ist der Fixpunkt nicht eindeutig, d. h. die Menge der Fixpunkte ist ein affiner Unterr-raum positiver Dimension, dann kann auch bei globaler Konvergenz, d. h. bei beliebigem

Page 30: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

804 8 Einige Anwendungen der Linearen Algebra

x(0) ∈ Kn, sein, dass sich der Startvektor „seinen“ Grenzwert „aussucht“, d. h. mit x(0) − xnicht ganz Kn erfasst wird und somit nicht nach (8.28) notwendig ρ(M) < 1 gelten muss.In Abschnitt 8.6 wird ein solcher Fall betrachtet.

2) Bei linearer Konvergenz mit Kontraktionszahl ρ ist also eine Fehlerverkleinerung proIterationsschritt um den Faktor ρ garantiert. Nach (8.29) wird der Eingangsfehler (norm-mäßig) um den Faktor ε > 0 verkleinert, wenn

ρk ≤ ε bzw. k ≥ log(ε)log(ρ)

.

Um nun l signifikante Stellen in einer Dezimaldarstellung zu gewinnen, braucht man daheri. Allg.

k ≥ −llog10(ρ)

Iterationsschritte.

3) Die obige Aussage ist zum Teil Spezialfall des Banachschen Fixpunktsatzes:Sei (V, ‖ . ‖) ein Banach-Raum, Φ : V → V Lipschitz-stetig mit Lipschitz-KonstanteL < 1 (also eine Kontraktion). Dann konvergiert die Fixpunktiteration

x(k+1) = Φ(x(k))

linear mit Kontraktionszahl L gegen den eindeutigen Fixpunkt x von Φ.Der Identität (8.25) entspricht hier die Normabschätzung

‖x(k+1) − x‖ = ‖Φ(x(k)) − Φx‖ ≤ L‖x(k) − x‖ . �

In der Form (8.31) gilt für die Iterationsmatrix M

M = 1 − NA

bzw. bei (8.32) mit nichtsingulärem W

M = 1 −W−1A .

Zur Verbesserung der Konvergenz, d. h. zur Verkleinerung von ρ(M) (oder ‖M‖) solltedemnach

N ∼ A−1 bzw. W ∼ A

sein, was im Widerspruch zur leichteren Auflösbarkeit von (8.32) steht. Ein Verfahren, beidem die Lösung von (8.32) ohne Aufwand gegeben ist, entsteht durch die Wahl

Page 31: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 805

W := 1 , d. h.M = 1 − A ,

das sogenannte Richardson8-Verfahren.

Eine Wahl, für die auch die leichte Auflösbarkeit von (8.32) sichergestellt ist, lautet inBezug auf die Zerlegung (8.20):

W := D ,

wobei das zugehörgie konsistente Verfahren gerade das Jacobi-Verfahren ist, da in derForm (8.23) dann

N = D−1 ,

M = 1 − NA = 1 − D−1A = −D−1(L + R)

gilt. Das Gauss-Seidel-Verfahren ergibt sich als die konsistente Iteration mit

W = D + L .

W ist invertierbar, weil D invertierbar ist, und in der Form (8.23) lautet die Iteration:

N = W−1 = (D + L)−1 ,

M = 1 − NA = 1 − (D + L)−1A = −(D + L)−1R .

Hinreichende Bedingungen für Konvergenz ergeben sich aus:

Satz 8.22: Konvergenz Jacobi-Verfahren

Das Jacobi-Verfahren konvergiert global und monoton bezüglich ‖ . ‖∞, wenn dasstarke Zeilensummenkriterium

n∑j=1j�i

|ai, j| < |ai,i| für alle i = 1, . . . , n , (8.35)

erfüllt ist bzw. global und monoton bezüglich ‖ . ‖1, wenn das starke Spaltensum-menkriterium gilt:

n∑i=1i� j

|ai, j| < |a j, j| für alle j = 1, . . . , n . (8.36)

8 Lewis Fry Richardson ∗11. Oktober 1881 in Newcastle upon Tyne †30. September 1953 in Kilmun

Page 32: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

806 8 Einige Anwendungen der Linearen Algebra

Beweis: Wegen M = −D−1(L+R) ist (8.35) äquivalent mit ‖M‖∞ < 1, wenn ‖ . ‖∞ die von‖ . ‖∞ erzeugte Zeilensummennorm bezeichnet. Analog ist (8.36) äquivalent mit ‖M‖1 < 1(Spaltensummennorm). �

Bemerkung 8.23 Wenn man auf das Problem (8.13) zur Bestimmung der Webseitenge-wichte mit Dämpfungsfaktor ω das Richardson-Verfahren anwendet, so entsteht dersogenannte PageRank-Algorithmus

x(k+1) = ωBt x(k) + (1 − ω)1 .

Wegen (8.15) und Theorem 8.20 oder auch Satz 8.22 ist dieses Verfahren global konver-gent und bezüglich ‖ . ‖1 auch monoton konvergent. Die Kontraktionszahl kann mit ω ab-geschätzt werden. Da nur wenig signifikante Stellen gebraucht werden, um die Anordnungder xi sicher zu bestimmen, ist dies akzeptabel. �Iterationsverfahren, die, wie die obigen Beispiele, in einem Iterationsschritt nur Matrix ×Vektor-Operationen haben, sind besonders günstig für dünnbesetzte LGS, bei denen dieSystemmatrix „viele“ Nulleinträge besitzt. Das trifft auf das Beispiel aus Abschnitt 8.2.1zu, aber auch auf die durchlaufenden Beispiele 2 und 3. Die durch die Nichtnulleinträgedefinierte Indexmenge nennt man auch das Besetzungsmuster der Matrix. Beim Elimi-nationsverfahren können daraus eventuell Nichtnulleinträge werden (fill-in), was in derNumerischen Mathematik genauer behandelt wird. Durch die explizite Berechnung derinversen Matrix für Beispiel 3 (siehe (MM.53)) zeigt sich, dass diese im Gegensatz zu Avollbesetzt ist. Solche LGS entstehen typischerweise bei der Diskretisierung von Rand-wertaufgaben für (partielle) Differentialgleichungen.

Beispiel 3(10) – Massenkette Das aus Beispiel 3(2), (MM.11) bekannte Modell mit

A :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

2 −1

−1. . .

. . .

. . .. . .

. . .

. . .. . . −1−1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠∈ R(n−1,n−1) (MM.103)

erhält man auch, wenn man die Lösung der einfachen Randwertaufgabe, nämlich: Finde eine Funktionu : [a, b] → R, so dass

−u′′(x) = f (x) für x ∈ [a, b]

u(a) = u(b) = 0

für eine gegebene Funktion f ;mit einem Finite-Differenzen-Ansatz approximiert. Dies bedeutet, dass u angenähert wird durch ein uh ∈S 1(Δ) (siehe (1.30)), wobei die Zerlegung Δ durch

xi = a + ih, i = 0, . . . , n

für h := (b − a)/n gegeben ist. Dann sind

uh(x0) = uh(a) = 0, uh(xn) = uh(b) = 0

Page 33: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 807

durch die Randbedingungen gegeben und die Approximation von −u′′(xi) durch

1h2 (−uh(xi−1) + 2uh(xi) − uh(xi+1)) .

Dies führt auf

1h2 Auh = ( f (xi))i .

Im Gegensatz zu vollbesetzten Matrizen weist A unabhängig von der Dimension nur maximal k = 3von Null verschiedene Einträge auf (siehe Bemerkungen 1.51, 5)), die noch dazu in einem Band um dieDiagonale mit Bandbreite 1 angeordnet sind.Die Forderungen von Satz 8.22 erweisen sich folglich für dieses Beispiel als zu restriktiv. Dennoch liegtauch hier Konvergenz vor.Solche LGS werden daher i. Allg. groß sein, um das eigentlich interessierende kontinuierliche Modellhinreichend anzunähern. Hier macht sich dann für die obigen Beispielverfahren negativ bemerkbar, dasszwar für die Iterationsmatrix M = M(n) gilt

ρ(M(n)) < 1 , (MM.104)

aber ρ(M(n)) → 1 für n→ ∞ .Es nimmt somit nicht nur der Aufwand für eine Iteration zu, sondern auch die Anzahl der Iterationen.

In dieser Hinsicht vorteilhafte Verfahren werden in der Numerischen Mathematik besprochen.Für Matrix A nach (MM.103) gilt:Die Eigenwerte von A sind nach (MM.81):

μk := 2(1 − cos

knπ

), k = 1, . . . , n − 1 (MM.105)

zu den Eigenvektoren

x(k)i := sin

ikπn

, i = 1, . . . , n − 1 ,

und daraus folgen als Eigenwerte der Iterationsmatrix MJ des Jacobi-Verfahrens

λk = cosknπ, k = 1, . . . , n − 1 ,

da wegen

MJ = −12

A + 1

beide Matrizen die gleichen Eigenvektoren haben und die Eigenwerte sich mittels

λk = −12μk + 1, k = 1, . . . , n − 1

transformieren. Man erhält dann bezüglich ‖ . ‖2:

Jacobi-Verfahren: ρ(MJ) = cos πn ≈ 1 − π2

2n2 .

Es kann weiter gezeigt werden (z.B. Bunse und Bunse-Gerstner 1985, S. 135):

Gauss-Seidel-Verfahren: ρ(MGS ) = ρ(MJ)2 =(cos π

n

)2 ≈ 1 −(πn

)2.

Man sieht hier deutlich das Verhalten von (MM.104) für n → ∞. Das bedeutet zweierlei: Da man allge-mein bei einer Kontraktionszahl ρ ca. k = log (ε) / log (ρ) Iterationsschritte braucht (Bemerkungen 8.21,

Page 34: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

808 8 Einige Anwendungen der Linearen Algebra

3)), um ein relatives Fehlerniveau von ε > 0 zu erreichen, d. h.

‖x(k) − x‖ ≤ ε‖x(0) − x‖ ,braucht das Gauss-Seidel-Verfahren (für dieses Beispiel) nur ca. die Hälfte der Iterationsschritte desJacobi-Verfahrens. Andererseits hat sich das asymptotische Verhalten der Kontraktionszahl nicht verbes-sert.

Das hier vorliegende Beispiel löst man übrigens mit keinem der iterativen Verfahren, sondern mit ei-ner an seine tridiagonale Besetzungsstruktur angepassten Gauss-Elimination. Iterationsverfahren werdendann überlegen, wenn das Besetzungsmuster der Matrix „unregelmäßig“ wird. �

Weitere Informationen finden sich z. B. in Hackbusch 1991, Bunse und Bunse-Gerstner 1985 oder Golub und Van Loan 1996.

8.2.3 Gradientenverfahren

Sei A ∈ K(n,n) selbstadjungiert und positiv definit (A = A†, A > 0). Satz 4.144 ergibt einenalternativen Zugang zu Lösungsverfahren, indem man versucht, das Minimierungsproblem

Minimiere f : Kn → R,

f (x) :=12〈Ax . x〉 − Re 〈x . b〉 (8.37)

zu lösen.Im Prinzip sind solche Zugänge auch auf allgemeine invertierbare Matrizen anwendbar,da das LGS

Ax = b

dann noch äquivalent ist zum Ausgleichsproblem

Minimiere f (x) := ‖Ax − b‖22bzw. äquivalent dazu zum LGS

A†Ax = A†b

mit der selbstadjungierten, positiv definiten Matrix A†A.

Allgemein folgt aus Satz 4.140 (und Definition 4.133) für selbstadjungiertes A ∈ K(n,n):Sei

〈x . y〉A := 〈Ax . y〉für x, y ∈ Kn (mit dem euklidischen inneren Produkt 〈 . 〉). Dann sind äquivalent:

(i) A ist positiv definit: A > 0.

Page 35: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 809

(ii) 〈 . 〉A ist ein inneres Produkt auf Kn. 〈 . 〉A wird auch als Energieskalarprodukt(bezüglich A) bezeichnet aufgrund seiner konkreten Interpretation in Anwendun-gen der Mechanik.Die von 〈 . 〉A erzeugte Norm wird mit ‖ . ‖A bezeichnet und auch die A-Norm oderEnergienorm bezüglich A genannt, d. h.

‖x‖A := 〈Ax . x〉1/2 . (8.38)

Bei A = A† und A > 0 ist also 〈 . 〉A ein inneres Produkt, aber auch 〈 . 〉A−1 und 〈 . 〉A†A.Mit x = A−1b als Lösung des LGS lässt sich (8.37) dann umschreiben zu

f (y) = f (x) +12‖y − x‖A = f (x) +

12‖Ay − b‖A−1 . (8.39)

(8.37) ist also äquivalent zur Minimierung des Abstands zur Lösung in der A-Norm bzw.zur Minimierung des Defekts in der A−1-Norm.

Ein allgemeines Iterationsverfahren zur Lösung von (8.37) hat die Struktur:

Bestimme eine Suchrichtung d(k) .

Minimiere α �→ g(α) := f(x(k) + αd(k))

exakt oder approximativ, dies ergibt αk .

Setze x(k+1) := x(k) + αk d(k) .

Der Fehler der k-ten Iterierten werde mit e(k) bezeichnet:

e(k) := x(k) − x .

Ist f durch (8.37) gegeben, dann gilt für

g(α) := f(x(k) + αd(k)

):

g(α) =12

⟨A(x(k) + αd(k)) . x(k) + αd(k)

⟩− Re

⟨x(k) + αd(k) . b

⟩=

12

⟨Ax(k) . x(k)

⟩− Re

⟨x(k) . b

⟩+ Re

⟨Ax(k) − b . d(k)

⟩α +

12

⟨Ad(k) . d(k)

⟩α2 .

Hierbei wurde die Selbstadjungiertheit von A ausgenutzt (man vergleiche Hauptsatz 1.102und Bemerkungen 1.104, 1)). Aus diesem Grund liegt g in der folgenden Form vor:

g(α) = a + bα + cα2 mit

a :=12

⟨Ax(k) . x(k)

⟩− Re

⟨x(k) . b

⟩, b := Re

⟨Ax(k) − b . d(k)

⟩, c :=

12

⟨Ad(k) . d(k)

⟩.

Damit ist die Minimalstelle αk von g charakterisiert durch

Page 36: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

810 8 Einige Anwendungen der Linearen Algebra

g′(αk) = 0 bzw. αk = − b2c= −

Re⟨g(k) . d(k)

⟩⟨Ad(k) . d(k)

⟩ ∈ R . (8.40)

Als Abkürzung wurde hier

g(k) := Ax(k) − b

für das Residuum verwendet (g wie Gradient: siehe Bemerkungen 8.25). Es gilt

Ae(k) = g(k) , e(k+1) = e(k) + αk d(k) , g(k+1) = g(k) + αkAd(k) (8.41)

und damit durch Einsetzen

Re⟨g(k+1) . d(k)

⟩= 0 . (8.42)

Aus (8.39) folgt

‖e(k)‖2A = ‖g(k)‖2A−1

und somit mit (8.41)

‖e(k+1)‖2A =⟨A−1g(k+1) . g(k) + αkAd(k)

⟩=

⟨g(k+1) . e(k)

⟩+ αk

⟨g(k+1) . d(k)

⟩,

d. h. mit (8.42)

‖e(k+1)‖2A = Re⟨g(k+1) . e(k)

⟩.

Die bisherigen Überlegungen waren gültig für allgemeine Suchrichtungen d(k).Da −g(k) die Richtung des lokal steilsten Abstiegs von f ist (siehe Bemerkungen 8.25, 2)),liegt das Gradientenverfahren nahe, bei dem

d(k) := −g(k)

gesetzt wird. Dann ist

αk =

⟨g(k) . g(k)

⟩⟨Ag(k) . g(k)⟩ .

Weiter folgt aus den obigen Identitäten

‖e(k+1)‖2 = Re⟨g(k) + αkAd(k) . e(k)

⟩= ‖e(k)‖2A − αk Re

⟨Ag(k) . e(k)

⟩= ‖e(k)‖2A

⎛⎜⎜⎜⎜⎜⎜⎝1 − αk

⟨g(k) . g(k)

⟩⟨A−1g(k) . g(k)⟩

⎞⎟⎟⎟⎟⎟⎟⎠und damit nach Definition von αk:

Page 37: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 811

‖x(k+1) − x‖2A = ‖x(k) − x‖2A⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝1 −

⟨g(k) . g(k)

⟩2⟨Ag(k) . g(k)⟩ ⟨

A−1g(k) . g(k)⟩⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ . (8.43)

Mit Satz 7.63 folgt sofort:

Satz 8.24: Konvergenz Gradientenverfahren

Seien A ∈ K(n,n), A = A†, A > 0, b ∈ Kn. Sei x := A−1b.Für das Gradientenverfahren gilt

‖x(k) − x‖A ≤(1 − 1

κ

)k/2

‖x(0) − x‖A ,

wobei κ := κ2(A) die Konditionszahl von A bezüglich ‖ . ‖2 bezeichnet.Das Gradientenverfahren ist also in der A-Norm linear und global konvergent mitKontraktionszahl 1 − 1/κ.

Beweis: Satz 7.63 liefert mit der Abschätzung aus (8.43)

‖x(k+1) − x‖2A ≤(1 − 1‖A‖2‖A−1‖2

)‖x(k) − x‖2A

und damit die Behauptung. �

Bemerkungen 8.25

1) Die Kontraktionszahl in Satz 8.24 lässt sich verbessern: Mit der Ungleichung vonKantorowitsch9

〈Ax . x〉⟨A−1x . x

⟩〈x . x〉2 ≤

(12κ1/2 +

12κ−1/2

)2

(für eine Beweisskizze siehe z. B. Saad 2003, S. 138f), wobei κ2 := κ(A) die spektraleKonditionszahl ist, folgt wegen

1 − 4(a1/2 + a−1/2)2 =

(a − 1)2

(a + 1)2 für a > 0 :

∥∥∥x(k) − x∥∥∥

A ≤(κ − 1κ + 1

)k ∥∥∥x(0) − x∥∥∥

A . (8.44)

9 Leonid Witaljewitsch Kantorowitsch ∗19. Januar 1912 in Sankt Petersburg †7. April 1986 inMoskau

Page 38: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

812 8 Einige Anwendungen der Linearen Algebra

2) Unter Verwendung von mehrdimensionaler Analysis (siehe Bemerkungen 4.145, 2))gilt für die Ableitung ∇ f (x) von f bei x:

∇ f (x)t h = Re 〈Ax − b . h〉 für h ∈ Kn

und damit wird in der Linearisierung

f (x + h) = f (x) + ∇ f (x)t h + Fehler höherer Ordnung

f lokal am kleinsten, wenn in die Richtung

h := −(Ax − b)

gegangen wird. g′(α) lässt sich demzufolge auch kürzer über die Kettenregel als

g′(α) = ∇ f(x(k) + αd(k)

)td(k)

= Re⟨A

(x(k) + αd(k)

)− b . d(k)

⟩bestimmen, woraus (8.40) folgt. Entsprechend ergibt sich (8.42).

3) Für das Beispiel 3(10) folgt aus (MM.105)

κ2(A) =1 − cos n−1

n π

1 − cos πn=

1 + cos πn

1 − cos πn

,

so dass sich die Kontraktionszahl nach (8.44) ergibt zu

κ − 1κ + 1

= 1 − 2κ + 1

= 1 −(1 − cos

π

n

)= cos

π

n,

so dass wir (jetzt in der A-Norm) die gleiche (schlechte) Konvergenzgeschwindigkeit wiebeim Jacobi-Verfahren erhalten.

4) Wegen λmax‖x‖22 ≥ 〈Ax . x〉 ≥ λmin‖x‖22, wobei λmin, λmax der kleinste bzw. größte Ei-genwert von A ist, erhält man aus der Konvergenzabschätzung (nach 1)) für die A-Normauch:

‖x(k) − x‖2 ≤(λmax

λmin

)1/2 (κ − 1κ + 1

)k

‖x(0) − x‖2 .

5) Das Problem liegt darin, dass zwar wegen (8.42) für K = R⟨g(k+1) . g(k)

⟩= 0 gilt,

nicht aber im Allgemeinen⟨g(k+2) . g(k)

⟩= 0; vielmehr sind diese Suchrichtungen oftmals

fast parallel (s. Abbildung 8.5). Insbesondere für große κ können die Suchrichtungen g(k)

und g(k+1) bezüglich des Skalarprodukts 〈· . ·〉A fast parallel sein, minimieren aber bezüg-lich ‖ . ‖A den Abstand zur Lösung. Das Problem ist umso ausgeprägter, je „ellipsenförmi-ger“ die Höhenlinien von f sind, d. h. je größer κ2(A) ist. �

Page 39: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 813

m = 2:

f = const..(Hohenlinien)

.x(0)

Abb. 8.5: Zick-Zack-Verhalten des Gradientenverfahrens.

Ein Verfahren, das auch für Matrizen vom Typ (MM.103) verbesserte Konvergenzeigen-schaften hat, ist das Konjugierte-Gradienten-Verfahren (CG-Verfahren, siehe Algorith-mus 6), bei dem Suchrichtungen konstruiert werden, die zueinander konjugiert, d. h. be-züglich 〈 . 〉A orthogonal sind. Die genaue Herleitung und Analyse dieses Verfahrens gehörtzur Numerischen Mathematik.

Folgende Routine realisiert das CG-Verfahren für eine wie in diesem Abschnitt an-genommene Matrix A, einer rechten Seite b, einem Startvektor x und einer (hinreichendkleinen) Toleranz tol (vgl. Knabner und Angermann 2000, S. 216, Tabelle 5.2):

Algorithmus 6 (CG-Verfahren)

function x = cgverfahren(A, b, x, tol)d = b - A * x;g = -d;while norm(g) > tolalpha = (g’ * g) / (d’ * (A * d));x = x + alpha * d;gold = g;g = gold + alpha * A * d;beta = (g’ * g) / (gold’ * gold);d = - g + beta * d;

endend

Weitere Informationen, insbesondere zum CG-Verfahren, findet man z. B. in Hackbusch1991, Golub und Van Loan 1996 oder Saad 2003.

8.2.4 Die Potenzmethode zur Eigenwertberechnung

Im Gegensatz zur Lösung eines LGS ist die Bestimmung von Eigenwerten und Eigenvek-toren ein nichtlineares Problem. Insofern ist nicht zu erwarten, dass es direkte Verfahrengibt, die bei exakter Arithmetik in endlich vielen Operationen das exakte Ergebnis liefern.Vielmehr sind Algorithmen zur Bestimmung von Eigenwerten stets iterative Verfahren.Der bei der Handrechnung kleiner Beispiele gebräuchliche Weg – Bestimmung des cha-rakteristischen Polynoms sowie dessen Nullstellen – ist i. Allg. in zweifacher Hinsichtnicht gangbar: Zum einen können die Koeffizienten des charakteristischen Polynoms nicht

Page 40: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

814 8 Einige Anwendungen der Linearen Algebra

mit vertretbarer Komplexität bestimmt werden, zum anderen können auch bei PolynomenNullstellen nur approximativ durch iterative Verfahren ermittelt werden (zum Stabilitäts-problem s. Abschnitt 8.1). Hier soll nur ein einfaches Verfahren zur Bestimmung einzelnerEigenwerte unter bestimmten Voraussetzungen besprochen werden, die Potenzmethode,auch Vektoriteration genannt.

Sei dazu A eine Matrix, die über K diagonalisierbar ist, wobei der betragsgrößte Eigen-wert λ1 einfach (geometrische = algebraische Vielfachheit = 1) sein soll.

Es seien also λi ∈ K die Eigenwerte von A, geordnet gemäß

|λ1| > |λ2| ≥ · · · ≥ |λn|und u1, . . . , un ∈ Kn mit ‖ui‖2 = 1

(8.45)

eine auf Länge 1 skalierte Eigenvektorbasis von Kn.Die Potenzmethode lautet in ihrer Grundform

x(0) ∈ Kn gegeben,

x(k+1) := Ax(k) .

Also

x(k) := Ak x(0) .

Sei α1 � 0 und

x(0) =

n∑i=1

αiui . (8.46)

Dann:

x(k)= λk

1

⎛⎜⎜⎜⎜⎜⎝α1u1 +n∑

i=2

(λi

λ1

)k

αiui

⎞⎟⎟⎟⎟⎟⎠ =: λk1 (α1u1 + ek) . (8.47)

Wegen

|λi||λ1| ≤

|λ2||λ1| < 1 für i = 2, . . . , n

gilt

‖ek‖2 = O(∣∣∣∣∣λ2

λ1

∣∣∣∣∣k)→ 0 für k → ∞ .

x(k) nähert sich folglich einem Eigenvektor zu λ1 an, genauer gilt für

Page 41: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.2 Klassische Iterationsverfahren für lineare Gleichungssysteme und Eigenwerte 815

Uk := {αAk x(0) : α ∈ K} : (8.48)

d(u1, Uk) = O(∣∣∣∣∣λ2

λ1

∣∣∣∣∣k)→ 0 für k → ∞

(siehe Bemerkungen 1.93, 1)), denn sei γk :=(λk

1α1

)−1, dann

d(u1, Uk) ≤ ‖γk x(k) − u1‖2 = ‖u1 + α−11 ek − u1‖2 = α−1

1 ‖ek‖2 .

Nach (4.82) kann somit als Näherung für λ1

λ(k) :=

⟨Ax(k) . x(k)

⟩‖x(k)‖22

=

⟨x(k+1) . x(k)

⟩‖x(k)‖22

(8.49)

angesehen werden. Tatsächlich gilt wegen γk+1 = λ−11 γk:

λ(k) = λ1

⟨γk x(k+1) . γk+1 x(k)

⟩‖γk x(k)‖22

= λ1

⟨u1 + α−1

1 ek+1 . u1 + α−11 ek

⟩‖u1 + α−1

1 ek‖22= λ1

(1 + O

(∣∣∣∣∣λ2

λ1

∣∣∣∣∣k)) .

Nach (8.47) gilt

‖x(k)‖2 → ∞ für |λ1| > 1 ,

‖x(k)‖2 → 0 für |λ1| < 1 ,

so dass die Skalierung x(k) := x(k)/‖x(k)‖2 zweckmäßig erscheint. Wegen

x(k) =Ak x(0)

‖Ak x(0)‖2 ,

wie sich sofort durch vollständige Induktion ergibt, und der Skalierungsinvarianz in (8.48)gelten die obigen Überlegungen weiterhin für den folgenden Algorithmus 7, welcher füreine quadratische Matrix A und einen Spaltenvektor x nach n Iterationen eine Näherung anden betragsgrößten Eigenwert lam und zugehörigen Eigenvektor x liefert:

Algorithmus 7 (Potenzmethode)

function [lam, x] = potenzmethode(A, x, n)x = x/norm(x, 2);for k = 1 : ny = A*x;lam = x’*y;x = y/norm(y, 2);

endend

Daher:

Page 42: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

816 8 Einige Anwendungen der Linearen Algebra

Satz 8.26: Konvergenz der Potenzmethode

Unter den Voraussetzungen (8.45) und (8.46) konvergiert die Potenzmethode nachAlgorithmus 7 hier im Sinne

λ(k) = λ1

(1 + O

(∣∣∣∣∣λ2

λ1

∣∣∣∣∣k)) .

Bemerkungen 8.27

1) Die Bedingung (8.46) ist nicht einschränkend, da durch Rundungsfehler immer einsolcher Anteil an der Iterierten entsteht.

2) Ist der betragskleinste Eigenwert von A ungleich Null und einfach, so ist der betrags-größte Eigenwert von A−1 einfach, so dass darauf die Potenzmethode anwendbar ist:Wähle Startvektor x(0) mit ‖x(0)‖2 = 1. Für k = 0, 1, . . . :

Löse Ax(k+1)= x(k)

λ(k) :=1⟨

x(k) . x(k+1)⟩

x(k+1) :=x(k+1)

‖x(k+1)‖2.

Diese inverse Potenzmethode liefert eine Näherung für λn und einen zugehörigen Eigen-vektor.

3) Ist bei Diagonalisierbarkeit über K für den einfachen Eigenwert λl eine Näherung μbekannt, so dass

|μ − λl| < |μ − λi| für alle i � l,

d. h. hat A−μ1 den einfachen, betragskleinsten Eigenwert λl−μ, so kann darauf die inversePotenzmethode angewendet werden.

4) Sollen die Gewichte von Internetseiten (ohne Dämpfung) nach Definition 8.17 be-stimmt werden und ist λ = 1 einfacher Eigenwert von Bt, so kann dies ebenfalls mittelsder Potenzmethode geschehen. �Weitere Informationen, insbesondere zu zeitgemäßen Krylow-Unterraum-Verfahren fin-det man z. B. in Golub und Van Loan 1996, Saad 2011 oder Watkins 2007.

Aufgaben

Aufgabe 8.7 (K) Für die Matrizen

Page 43: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

Aufgaben 817

B1 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 1 −2 2−1 1 −1−2 −2 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ , B2 =12

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝2 −1 −12 2 −21 1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠sollen die Gleichungssysteme Bix = b (i = 1, 2) iterativ gelöst werden. Man überprüfe fürdas Jacobi- und das Gauss-Seidel-Verfahren die Konvergenz für B1 bzw. B2.

Aufgabe 8.8 (K) Man betrachte das System Ax = b mit

A ∈ R(n,n) und b ∈ Rn , A nach (MM.11) .

Die Eigenwerte der Systemmatrix M ∈ R(n,n) des Iterationsverfahrens

x(k+1) = Mx(k) + Nb, k = 0, 1, 2, . . . ,

wobei M und N gemäß dem Jacobi-Verfahren gewählt seien, lauten cos(

jπn+1

), j =

1, . . . , n nach Beispiel 3(10). Für welche Werte des Parameters ω ∈ R konvergiert dasgedämpfte Jacobi-Verfahren

x(k+1/2) = Mx(k) + Nb, x(k+1) = x(k) − ω(x(k) − x(k+1/2)) ?

Aufgabe 8.9 (T) Sei A ∈ R(n,n) mit At = A und A > 0 gegeben.

a) Zeigen Sie, dass für zwei Vektoren x, y ∈ Rn mit xty = 0 stets

〈x . y〉A‖x‖A‖y‖A ≤

κ2(A) − 1κ2(A) + 1

gilt, wobei κ2(A) die Konditionszahl von A bezüglich ‖ . ‖2 bezeichne.b) Zeigen Sie anhand eines Beispiels für n = 2, dass die Abschätzung aus a) scharf

ist.

Aufgabe 8.10 (T) Gegeben sei die folgende Netzstruktur, für deren Knoten Gewichte be-stimmt werden sollen:

2 4 6

1 3 5

a) Stellen Sie die gewichtete Adjazenzmatrix B zu diesem Netzwerk auf und berech-nen Sie durch Lösen von (Bt−1)x = 0 Gewichte x = (x1, . . . , x6)t für die einzelnenSeiten, wobei die Normierung ‖x‖1 = n = 6 gelten soll.

b) Das Netzwerk wird nun modifiziert, indem die Verbindungen zwischen den Kno-ten 1 und 4 entfernt werden. Welches Problem tritt nun bei der Ermittlung derGewichte auf und warum?

Page 44: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

818 8 Einige Anwendungen der Linearen Algebra

c) Berechnen Sie für das modifizierte Netzwerk die Gewichte mit einer Dämpfungvon ω = 0.85, indem Sie die Lösung x von (1 − ωBt)x = (1 − ω)1 bestimmen.

Hinweis: Für das Lösen von Gleichungssystemen können Sie ein Software-Werkzeug(z. B. MATLAB) verwenden.

Aufgabe 8.11 Beim Page-Rank-Verfahren werde zusätzlich angenommen, dass von je-dem Knoten des Netzwerkes mindestens eine Kante ausgeht. Zeigen Sie:

a) Das Gleichungssystem (8.13) ist äquivalent zur Eigenwertgleichung

x = Mx , ‖x‖1 = n , x > 0 , (8.50)

wobei M = (ωBt + (1 − ω)S ) und S = (1/n)i, j=1,...,n.b) Sei V = {x ∈ Rn :

∑ni=1 xi = 0}. Dann gilt Mu ∈ V für alle u ∈ V und

‖Mu‖1 ≤ c‖u‖1 für alle u ∈ V

mit c = max1≤ j≤n |1 − 2 min1≤i≤n Mi, j| < 1.c) Sei x0 ≥ 0 ein beliebiger Vektor mit ‖x0‖1 = n und sei x die (eindeutige) Lösung

von (8.13) bzw. (8.50). Zeigen Sie, dass dann limk→∞ Mk x0 = x gilt. Die Potenz-methode konvergiert also gegen die Lösung der Eigenwertgleichung und damitgegen die Lösung von (8.13).

Aufgabe 8.12 (K) Schreiben Sie eine MATLAB-Funktion x = pagerank(B,omega),die mit Hilfe der Potenzmethode einen Gewichtsvektor x = (x1, . . . , xn)t für die Gewichteder Seiten x1, . . . , xn einer Netzstruktur nach dem Page-Rank-Algorithmus berechnet (sie-he Aufgabe 8.11c). Eingabeparameter sind die gewichtete Adjazenzmatrix B ∈ R(n,n) einerNetzstruktur und der Wichtungsfaktor 0 < ω < 1. Das Programm soll so viele Iterationendurchführen, bis ‖Mxk − xk‖1 < 10−10 für die k-te Iterierte xk = Mk x0 gilt. Überprüfen SieIhr Programm anhand des Beispiels aus Aufgabe 8.10c).

Aufgabe 8.13 (T) Man arbeite Bemerkungen 8.27 2) und 3) aus.

Page 45: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.3 Datenanalyse, -synthese und -kompression 819

8.3 Datenanalyse, -synthese und -kompression

Datenerfassung und -speicherung geschieht heute in den verschiedensten Anwendungsbe-reichen in digitaler Form, die moderne Medien- und Computertechnik ist somit auf dieVerarbeitung und Komprimierung erheblicher digitaler Datenmengen angewiesen. Dieserfordert typischerweise Speicherkapazität, aber oftmals auch die Möglichkeit zur Verar-beitung der Daten in Echtzeit. Zur Nutzung der enormen Datenmengen sind Analyse- undKompressionsverfahren essentiell, etwa explizit zur Archivierung von Dateien, oder auchimplizit bei Verwendung von Standarddateiformaten zur Audio-, Bild- oder Videokodie-rung. Auch hier spielen die Methoden der Linearen Algebra eine grundlegende Rolle. Wirgreifen zunächst die Ergebnisse von Abschnitt 4.1 zum Basiswechsel nochmals auf.Sei U ein n-dimensionaler K-Vektorraum über einen Körper K.Gegeben seien:

u1, . . . , un ∈ U : die „alte“ Basis.w1, . . . ,wn ∈ U : die „neue“ Basis.

Dann gibt es eindeutige a ji ∈ K, so dass

wi =

n∑j=1

a ji u j für alle j = 1, . . . , n ,

d. h. für die Matrix A = (aij)i, j ∈ K(n,n) gilt für

u =n∑

i=1

xiui =n∑

i=1

yiwi

und x := (xi)i, y := (yi) ∈ Kn:

Ay = x .

Wir werden sehen, dass die Wahl einer speziellen Basis w1, . . . ,wn Vorteile liefern kann.Der Schritt

xA−1

�→ ywird dann als Analyse (bezüglich der Basis w1, . . . ,wn bezeichnet), der Schritt

yA�→ x

⎛⎜⎜⎜⎜⎜⎝ �→ n∑i=1

xiui

⎞⎟⎟⎟⎟⎟⎠wird als Synthese bezeichnet.

In dieser Form durchgeführt, handelt es sich um äquivalente Darstellungen in n Pa-rametern mit gleichem „Informationsgehalt“, der aber je nach Basiswahl mehr oder we-niger offensichtlich sein kann. Wenn n (sehr) groß ist, ist eine Approximation in einem

Page 46: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

820 8 Einige Anwendungen der Linearen Algebra

k-dimensionalen Raum mit k ' n, anzustreben, um das „Signal“ u besser zu speichern,bearbeiten und transportieren zu können. Dies kann am Einfachsten durch „Abschneiden“,d. h. durch Projektion auf

Uk := span{w1, . . . ,wk} ,geschehen. Der dann noch enthaltene „Informationsgehalt“ bzw. die Größe des Fehlerswird stark von der Wahl der Basis w1, . . . ,wn abhängen.Diesen Schritt, d. h.

xA−1

�→ y P�→ y = (y1, . . . , yk) (A�→ x =

n∑i=1

xiui) ,

wobei x = (x1, . . . , xn)t, bezeichnet man als Kompression.Man beachte, dass für allgemeine Transformationen der Analyse-Schritt (Lösen eines

LGS mit A) aufwändiger ist als der Synthese-Schritt (Multiplikation mit A). Dies ist nichtder Fall, wenn die Spalten von A orthogonal sind wie in den beiden folgenden Beispielen.

Seien nun Basen u1, . . . , un,w1, . . . ,wn gewählt, und sei

A−1 = (aij)i j = (a1, . . . , an) mit (den Spalten) ai ∈ Kn, dann

u =n∑

i=1

yiwi =

n∑i=1

(A−1x)iwi =

n∑i=1

⎛⎜⎜⎜⎜⎜⎜⎝ n∑j=1

x j a j

⎞⎟⎟⎟⎟⎟⎟⎠i

wi .

Sei

A := A−1 =(at

1, . . . , at)t

n∈ K(n,n) mit den Zeilen ai

(∈ K(1,n)

), i = 1, . . . , n , dann

u =n∑

i=1

ai · xwi . (8.51)

Die neue Basis sei so, dass die Spalten von A orthogonal sind in dem Sinne

ati a j = δi, j‖ai‖22 für i, j = 1, . . . , n ,

dann ist

A = A−1 = diag(1/‖ai‖22)At ,

d. h. ai = ati/‖ai‖22, i = 1, . . . , n

und aus (8.51) ergibt sich damit

u =n∑

i=1

1‖ai‖22

ati xwi . (8.52)

Sei U = Kn und u1, . . . , un die Einheitsbasis, d. h. die Spalten von A entsprechen genau wi:

Page 47: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.3 Datenanalyse, -synthese und -kompression 821

A = (w1, . . . ,wn) ,

dann wird aus (8.51)

u =n∑

i=1

ai · u wi und (w1, . . . ,wn)−1 =(at

1, . . . , atn ,

)t

und wenn w1, . . . ,wn eine ONB ist für K = K, d. h.

A−1 = A†

und damit ai = ati = wi

t, i = 1, . . . , n, dann ergibt sich

u =n∑

i=1

〈u .wi〉wi ,

d. h. die aus Kapitel 1.5 bekannte (Fourier-)Darstellung bezüglich einer ONB.

8.3.1 Wavelets

Betrachte V = S 0(Δ) auf einer Zerlegung Δ : a = x0 < x1 < . . . < xn = b, den n-dimensionalen Raum der Treppenfunktionen oder Histogramme. In (1.34) wurde dafürdie Basis

fi(x) =

⎧⎪⎪⎪⎨⎪⎪⎪⎩1, x ∈ [xi−1, xi)

0, x sonst, für i = 1, . . . , n − 1,

fn(x) =

⎧⎪⎪⎨⎪⎪⎩1, x ∈ [xn−1, xn]0, x sonst .

(8.53)

eingeführt. Diese Basis ist bezüglich des L2-inneren Produkts auf V orthogonal, da für dieTräger der Basisfunktionen gilt:

supp fi ∩ supp f j ist höchstens einelementig für i � j , (8.54)

wobei

supp f := cl{x ∈ D : f (x) � 0}für eine Abbildung f : D → R, D ⊂ Kn.

Page 48: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

822 8 Einige Anwendungen der Linearen Algebra

Funktionen in V sind deswegen leicht bezüglich f1, . . . , fn darstellbar, aber diese Ba-sis ist nicht für eine Kompression geeignet. Dies ist anders bezüglich der Wavelet-Basis(aufgebaut auf das Haar-Wavelet10):

Wir beginnen mit dem Beispiel n = 4. Die Basis ist dann gegeben durch Abbildung 8.6.

g1 : 1

a b

)g2 : 1

−1

a b

)

)

g3 : 212

−212

a b

)

)g4 : 2

12

−212

a b

Abb. 8.6: Wavelet-Basis g1, . . . , g4.

Die Skalierung ist dabei so gewählt, dass in der L2-Norm auf [a, b]:

‖gi‖2 = (b − a), i = 1, . . . , 4 .

10 Alfréd Haar ∗11. Oktober 1885 in Budapest †16. März 1933 in Szeged

Page 49: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.3 Datenanalyse, -synthese und -kompression 823

Man sieht folgende Eigenschaften: gi ∈ V für i = 1, . . . , 4 und {g1, . . . , g4} ist orthogonalbezüglich des L2-inneren Produkts, aber i. Allg. nicht normiert und damit ist {g1, . . . , g4}linear unabhängig, d. h. eine Basis von V . Dabei ist g2 das Haar-Wavelet. Es gilt abernicht die Lokalität nach (8.54). Vielmehr gibt g1 eine „Hintergrundinformation“ an, aufdie g2 und dann g3 und g4 weitere Detailinformation aufsetzen.

Allgemein sei Δk eine Zerlegung von [a, b] in n Teilintervalle, wobei n = 2k für eink ∈ N und Δk aus Δk−1 durch Einführung von weiteren 2k−1 Teilungspunkten in die Teilin-tervalle hervorgeht.Halbiert man insbesondere fortwährend und betrachtet o. B. d. A. [a, b] = [0, 1], so erhältman

Δk = { jhk | j = 0, . . . , 2k} mit hk := 2−k .

Sei

Vk := S 0(Δk) (8.55)

der zugehörige Raum der Treppenfunktionen. Nun betrachte man k = 0, 1, . . . , p. Aufdiese Weise ist eine ganze Skala von Funktionenräumen definiert worden:

V0 ⊂ V1 ⊂ . . .Vp .

Die Basisfunktionen für Vk aus (8.53) lassen sich mit Hilfe der charakteristischen Funk-tion von [0, 1], in diesem Zusammenhang auch Skalierungsfunktion oder Vater-Waveletgenannt,

χ(x) = χ[0,1](x) =

⎧⎪⎪⎨⎪⎪⎩1, 0 ≤ x < 10, sonst

(8.56)

wie folgt darstellen: In der Doppelindizierung k = 0, . . . , p und j = 0, . . . , 2k − 1 sei

fk, j(x) = χ(2kx − j) ,

dann entsprechen f1, . . . , fn für n = 2k und Δk wie in (8.55) fk,0, . . . , fk,n−1 (mit irrelevanterAbweichung fn(1) = 1, fk,n−1(1) = 0). Durch die Normierung

fk, j(x) = 2k/2χ(2kx − j)

wird erreicht, dass in der L2-Norm auf [0, 1]

‖ fk, j‖2 = 1 .

Äquivalent ist die Darstellung

fk,0(x) = 2k/2χ(2kx)fk, j(x + jhk) := fk,0(x)

}k = 0, . . . , p ,j = 0, . . . , 2k − 1 .

(8.57)

Page 50: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

824 8 Einige Anwendungen der Linearen Algebra

Ausgehend von χ werden die Basisfunktionen dementsprechend durch Stauchung (x �→2kx) und durch Translation nach rechts (x �→ x + jhk) gebildet.

Alternativ lässt sich eine Basis auch hierarchisch aufbauen, d. h. liegt eine Basis von Vk

vor, so kann diese durch Wahl eines direkten Komplements Wk, d. h.

Vk+1 = Vk ⊗Wk ,

und einer Basis von Wk zu einer Basis von Vk+1 ergänzen. Auf diese Weise wird erreicht,die „niederfrequenten“ Funktionen Vk stärker von den „höherfrequenten“ Funktionen Wk

zu trennen.Zum Beispiel ist

V0 = span( f0,0) ( f0,0 = χ) (8.58)

ergänzbar mit

W0 := span(g0,0) ,

wobei analog zu (8.57)

gk,0(x) := 2k/2ψ(2kx)gk, j(x + jhk) := gk,0(x)

}k = 0, . . . , pj = 0, . . . , 2k − 1 (8.59)

und V1 mit

W1 := span(g1,0, g1,1) .

Dabei ist

ψ(x) :=

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩1, 0 < x ≤ 1/2−1, 1/2 < x ≤ 10, sonst,

(8.60)

das Haar-Wavelet (Wavelet = Ondelette = kleine Welle) und man erhält für V2 = V0 ⊕W0 ⊕W1 die oben angegebene Basis {g1, . . . , g4}. Damit allgemein Wk := span(gk, j : j =0, . . . , 2k−1) ⊂ Vk+1 gilt, muss ψ ∈ S 0(Δ) mit

Δ = { j/2 : j ∈ Z}gewählt werden. Allgemein gilt:

Satz 8.28: Wavelet-Basis von S 0(Δ)

Die Räume Vk, k = 0, . . . , p, (nach (8.55)) werden mit dem inneren Produkt

〈 f . g〉 :=∫ 1

0f (x)g(x)dx

Page 51: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.3 Datenanalyse, -synthese und -kompression 825

betrachtet.Es seien fk, j und gk, j, k = 0, . . . , p, j = 0, . . . , 2k−1 wie in (8.57) und (8.59) definiert.Dann gilt:

1) Mk := { fk, j : j = 0, . . . , 2k − 1} ist eine ONB von Vk.

2) Sei Nk := {gk, j : j = 0, . . . , 2k − 1}, dann ist Wk := span(Nk) = V⊥k bezüglich Vk+1und Nk ist eine ONB von Wk.

Beweis: Es gilt supp( fk, j) = supp(gk, j) = [ jhk, ( j + 1)hk] und damit berühren sich dieseIntervalle für j � j′ in höchstens einem Punkt, so dass das Integral der Produktfunktionenverschwindet, damit ⟨

fk, j . fk, j′⟩=

⟨gk, j . gk, j′

⟩=

⟨fk, j . gk, j′

⟩= 0

für j � j′, j, j′ ∈ {0, . . . , 2k − 1}.Weiter gilt

⟨fk, j . fk, j

⟩=

∫ ( j+1)2−k

j2−k2k(χ(2kx − j))2dx =

∫ 1

0χ2(x)dx = 1

⟨gk, j . gk, j

⟩=

∫ ( j+1)2−k

j2−k2k(ψ(2kx − j))2dx =

∫ 1

0ψ2(x)dx = 1

⟨fk, j . gk, j

⟩=

∫ ( j+1)2−k

j2−k2kχ(2kx − j)ψ(2kx − j)dx =

∫ 1

0χ(x)ψ(x)dx = 0 .

Folglich gilt 1), Nk ist eine ONB von Wk und Wk ⊂ V⊥k .Da dim Vk+1 = 2k+1 = dim Vk + 2k und dim Wk = 2k folgt schließlich

Wk = V⊥k . �

Neben der Standardbasis Mk+1 hat folglich Vk+1 auch die Zweiskalenbasis Mk ∪ Nk,d. h.

Vk+1 = span(Mk ∪ Nk) ,

die eine Zerlegung von f ∈ Vk+1 bezüglich des „feinen“ Gitters Δk+1 darstellt in einenTrend fk ∈ Vk und eine Fluktuation gk ∈ Wk bezüglich des „groben“ Gitters Δk. Darekursiv Δk als das „feine“ und Δk−1 als das „grobe“ Gitter betrachtet werden kann,kann die Zerlegung fortgesetzt werden, wodurch für Vp mit

M0 ∪ N1 ∪ . . . ∪ Np−1

eine Multiskalenbasis erhältlich ist, die Haar-Basis in S 0(Δp).

Page 52: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

826 8 Einige Anwendungen der Linearen Algebra

In der Haar-Basis kann ein f ∈ L2([0, 1],R)

i. Allg. effizienter als in der Standardbasisvon Vp, d. h. mit weniger Basisfunktionen, approximiert werden.

Zum Beispiel für f = χ[a,b] setze

ap := sup{x ∈ Δp : x ≤ a}, bp := inf{x ∈ Δp : x ≥ b} ,dann erfüllt fp := χ[ap,bp] in der L2-Norm auf [0, 1]:

‖ f − fp‖22 ≤ |a − ap| + |b − bp| ≤ 2 · 2−p .

Zur Darstellung von fp werden die Basisfunktionen gebraucht, die nicht orthogonal sindzu fp, d. h. in der Standardbasis alle fp, j, j = l, . . . , m mit l2−p = ap, m2−p = bp, imExtremfall also alle Basisfunktionen. In der Haar-Basis sind es dagegen nur f0,0 undhöchstens zwei weitere Elemente von N1 ∪ . . . ∪ Np−1 (unabhängig von |b − a|), wie derobige Transformationsprozess zeigt.

Für k = 2 (n = 4) wurde oben eine Wavelet-Basis angegeben. Die Darstellungsmatrixder Transformation ist dann

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 1 21/2 01 1 −21/2 01 −1 0 21/2

1 −1 0 −21/2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠und

AtA = diag(‖ai‖22) = diag(4, 4, 4, 4)

und damit

A−1 =14

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 1 1 11 1 −1 1

21/2 −21/2 0 00 0 21/2 −21/2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Man beachte, dass die durch die erste Zeile von A−1 gegebene Skalarmultiplikation, d. h.die der Bildung des Koeffizienten zur ersten Waveletbasisfunktion entspricht, gerade dasarithmetische Mittel der Werte darstellt.

Sei allgemein Ak ∈ K(n,n), n = 2k die Darstellungsmatrix der Transformation für k, dannergibt sie sich für k + 1 und damit die Wavelet-Basis durch

Ak+1 = (b1, c1, b2, . . . , bn, c2, . . . , cn) ∈ K(2n,2n) , mit

b1 = (1, . . . , 1)t , c1 = (1, . . . , 1︸��︷︷��︸2k=n

,−1, . . . ,−1︸�������︷︷�������︸2k

)t, bi =

(21/2ai

0

), ci =

(0

21/2ai

), i = 2, . . . , n ,

wobei a1, . . . , an die Spalten von Ak darstellen. Auch hier gilt wieder

Page 53: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.3 Datenanalyse, -synthese und -kompression 827

A−1k = diag

(‖a1‖−2

2 , . . . , ‖an‖−22

)At

k

und ‖ai‖22 = n, i = 1, . . . , n .

Es ist zu erwarten, dass für großes n das Weglassen von Basisfunktionen mit kleinemTräger wenig Einfluss auf den „Informationsgehalt“ hat und sich daher eine solche Kom-pression anbietet.

Auch der Basiswechsel kann hierarchisch vollzogen werden und damit braucht Ap bzw.A−1

p gar nicht aufgebaut zu werden. Es gilt:

21/2 fk, j = fk+1,2 j + fk+1,2 j+1 , (8.61)

21/2gk, j = fk+1,2 j − fk+1,2 j+1 , (8.62)

folglich (fk, j

gk, j

)=

121/2

(1 11 −1

) (fk+1,2 j

fk+1,2 j+1

).

Sei

A−1loc =

121/2

(1 11 −1

),

dann ist Aloc = A−1loc und damit auch(

fk,2 j

fk+1,2 j+1

)= Aloc

(fk, j

gk, j

). (8.63)

Somit transformiert sich f ∈ Vk+1, n := 2k aus

f =2n−1∑j=0

ξk+1, j fk+1, j

in die Zweiskalenbasis

f =n−1∑j=0

ξk, j fk, j + ηk, jgk, j

durch (ξk, j

ηk, j

)= Aloc

(ξk+1,2 j

ξk+1,2 j+1

)(8.64)

für k = p − 1, . . . , 0, j = 0, . . . , 2k − 1 und durch sukzessive Anwendung dieser Transfor-mation auf den „Trendanteil“.

So kann die (Haar-)Wavelettransformation (d. h. die Koeffizienten bezüglich derHaar-Basis) aufgebaut werden durch sukzessive Berechnung der ηk, j mittels (8.64). Dies

Page 54: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

828 8 Einige Anwendungen der Linearen Algebra

benötigt∑p−1

k=0 2 2k ≈ 2p+1 = 2 dim Vp Elementaroperationen (Addition + Multiplikation)im Gegensatz zur Größenordnung (dim Vp)2 bei einem nicht-rekursiven Aufbau. Wir ha-ben hiermit eine schnelle Wavelet-Transformation. Die inverse Transformation (d. h. dieAnwendung von A) ergibt sich direkt aus (8.63).

Theorem 8.29: Schnelle Wavelet-Transformation

Im Raum der Treppenfunktion Vp := S 0(Δp) nach (8.55) kann der Übergangvon der Standardbasis (8.57) zur hierarchischen Basis (8.58), (8.59), die auf dasHaar-Wavelet (8.60) und die Skalierungsfunktion (8.56) aufbaut, durch rekursiveRückführung auf die Berechnung der Trendanteile Vl auf immer gröberen GitternΔl, l < p mittels (8.64) erfolgen. Diese schnelle Wavelet-Transformation benötigtO(dim Vp) Elementaroperationen.

8.3.2 Diskrete Fourier-Transformation

In Theorem 7.66 ff. wurde die Fourier-Analyse einer Funktion f ∈ L2([0, 2π],K) alsDarstellung einer 2π-periodischen Funktion auf R (dort das um −π verschobene Intervall[−π, π]) angedeutet, d. h. der Übergang zur Darstellung im Frequenzraum

(f (n)

)n∈Z ∈ l2(K),

wobei

f (k) :=1

(2π)1/2

∫ 2π

0f (x)e−ikxdx, k ∈ Z

und die Rekonstruktion von f aus(f (n)

)n

durch

f (t) =∑n∈Z

f (n)1

(2π)1/2 eint, t ∈ [0, 2π]

(Konvergenz in L2([0, 2π],K)).Im Allgemeinen kann ein „Signal“ f nur zu diskreten „Zeitpunkten“ t j gemessen wer-

den. Statt einer 2π-periodischen Funktion f (∈ L2([0, 2π],K)) wird daher eine diskreteMessung (Sampling)

( f0, . . . , fN−1)t ∈ CN

betrachtet, d. h. fi entspricht/approximiert f (t j),

t j := 2π jN , j = 0, . . . , N − 1 . (8.65)

Page 55: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.3 Datenanalyse, -synthese und -kompression 829

Man beachte dann wegen der Periodizität fN = f0, fN+1 = f1, . . .Sei N gerade: N = 2n. Der SONB nach Satz 7.74

fk(x) =1

(2π)1/2 exp(ikx), k ∈ Z

entsprechen in der Diskretisierung (·(2π)1/2)

f k ∈ CN , fk, j = exp(ikt j), j = 0, . . . , N − 1, k = 1 − n, . . . , n .

Die Fourier-Koeffizienten werden in der Diskretisierung, d. h. durch Integration vonf ∈ S 0(Δ), Δ := {t j : j = 0, . . . , N},

f∣∣∣∣[t j ,t j+1)

= f (t j) =: f j für j = 0, . . . , N − 1

(wobei die Stetigkeit von f vorausgesetzt werden muss) zu

f (k) =1

(2π)1/2

2πN

N−1∑j=0

f je−ikt j =(2π)1/2

N

N−1∑j=0

f je−ikt j =:(2π)1/2

Nf (n)

für k ∈ Z. Also gilt näherungsweise durch Abschneiden der Fourier-Reihe

f (tl) ∼n∑

k=1−n

f (k)1

(2π)1/2 eiktl =1N

n∑k=1−n

f (k)eiktl für l = 0, . . . , N − 1 . (8.66)

Diese als Approximation der kontinuierlichen Fourier-Koeffizienten und -Reihen erhal-tene Beziehung gilt diskret tatsächlich exakt:

Definition 8.30

Für ein allgemeines f = ( f j) j=0,...,N−1 ∈ CN , N = 2n, t j nach (8.65) bezeichnet manf = f (k)k=1,...,n ∈ CN mit

f (k) :=N−1∑j=0

f je−ikt j , k = 1 − n, . . . , n (8.67)

als die diskrete Fourier-Transformation (DFT) von f und f (k) heißt diskreterFourier-Koeffizient.

fl =1N

n∑k=1−n

f (k)eiktl , l = 0, . . . , N − 1 (8.68)

heißt die inverse diskrete Fourier-Transformation (IDFT).

Page 56: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

830 8 Einige Anwendungen der Linearen Algebra

Ohne Rückgriff auf die Fourier-Entwicklung einer Funktion f kann man V = CN mitf = ( f0, . . . , fN−1)t ∈ V mit dem inneren Produkt

〈 f . g〉 := 1N

∑N−1j=0 f jg j (8.69)

versehen, was (bis auf den Faktor (2π)1/2) die oben beschriebene Diskretisierung des L2-inneren Produkt ist und stellt fest für die Vektoren:

f k ∈ CN mit fk, j := eikt j j, k = 0, . . . , N − 1 . (8.70)

Satz 8.31

Die f 0, . . . , f N−1 nach (8.70) bilden eine ONB von CN bezüglich 〈 . 〉 nach (8.69).

Beweis:

⟨f k . f l

⟩=

1N

N−1∑j=0

eikt j e−ilt j =1N

N−1∑j=0

(ei(k−l) 2π

N

) j.

Folglich für k � j

⟨f k . f l

⟩=

1N

N−1∑j=0

q j für q = ei(k−l) 2πN � 0

=1N

1 − qN

1 − q=

1N

1 − ei(k−l)2π

1 − q= 0

und für k = j

⟨f k . f k

⟩=

1N

N−1∑j=0

1 = 1 . �

Bemerkungen 8.32

1) Es kann auch eine „unendliche“ Folge

f k ∈ CN für k ∈ Knach (8.70) definiert werden, d. h.

fk, j := eikt j , j = 0, . . . , N − 1, k ∈ Z , (8.71)

Page 57: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.3 Datenanalyse, -synthese und -kompression 831

für die dann gilt

f k+lN = f k für l ∈ Z, k = 0, . . . , N − 1 ,

da

ei(k+lN) 2πN j = eik 2π

N j .

Die höheren Frequenzen werden somit auf dem zugrunde liegenden Gitter t j, j = 0, . . . , N−1 nicht mehr wahrgenommen.

2) Für N = 2n, n ∈ N kann dann

f 0, . . . , f N−1

umgeschrieben werden zu (l = −1 für f n+1, . . . , f N−1)

f 0, . . . , f n, f 1−n, . . . , f−1

und entsprechend die Entwicklungskoeffizienten zu dieser ONB von⟨f . f 0

⟩, . . . ,

⟨f . f N−1

⟩zu ⟨

f . f 1−n⟩, . . . ,

⟨f . f−1

⟩,⟨

f . f 0⟩, . . . ,

⟨f . f n

⟩.

3) Daher sind die 1N f (k), k = 1 − n, . . . , n, f (k) nach (8.67) die (diskreten) Fourier-

Koeffizienten von f bezüglich f k, k = n + 1, . . . , N − 1, 0, . . . , n nach (8.70) und (8.68)ist die Basisdarstellung von f mittels der f k. Die DFT stellt den Analyse-Schritt und dieIDFT den Synthese-Schritt dar, die also in diesem Sinn invers sind. �

Satz 8.33: Synthese-Schritt

Sei N = 2n, n ∈ N. Die diskrete Fourier-Transformation von f ∈ CN , f ∈ CN

ergibt sich aus der Darstellung von f in der ONB nach (8.70), angeordnet als

f 1−n, . . . , f 0, . . . , f n (8.72)

über f =∑n

k=1−n1N f (k) f i .

Bemerkungen 8.34

1) Allgemein stellt

Page 58: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

832 8 Einige Anwendungen der Linearen Algebra

p(t) : =∑k

k=k αkeikt =∑k

k=k αk(eit)k (8.73)

ein trigonometrisches Polynom dar, d. h. ein Polynom in der Variable eit (man denke sichdie Summanden für negative Indizes analog zu Bemerkungen 8.32, 2) zu positiven Indizestransformiert).Wenn für N = 2n gilt

f j = f (t j), j = 0, . . . , N − 1 ,

für ein f ∈ C([0, 2π],K), dann kann die DFT bzw. die ONB-Entwicklung als trigonome-trische Interpolation

f (tl) =1N

n∑k=1−n

f (k)eiktl , l = 0, . . . , N − 1

interpretiert werden. Setzt man

ρlN := ei2πl/N , l = 0, . . . , N − 1 ,

für die N-ten Einheitswurzeln (siehe Satz B.32), dann stellt die DFT die explizite Lösungder komplexen Interpolationsaufgabe

Gesucht al ∈ C, l = 0, . . . , N − 1,

so dass p ∈ CN−1[z], p(z) =N−1∑l=0

αlzl ,

f (tl) =(ρl

N

)1−np(ρl

N

)dar.

2) Nimmt man in (8.73) weniger Summanden, etwa

pn(t) =n∑

k=−n

αkeikt

für n < N/2, so wird man mit den orthogonalen Vektoren f−n, . . . , f n ein beliebiges f ∈ Cn

nicht darstellen können (d. h. die trigonometrische Interpolationsaufgabe ist nicht lösbar).Durch Wahl der αk als die diskreten Fourier-Koeffizienten erhält man aber gerade dieOrthogonalprojektion von f auf span( f−n, . . . , f n). �Sei wieder N = 2n, n ∈ N. Sei

ω := ωN := ρ−1N = e−2πi/N . (8.74)

ω ∈ C ist eine N-te Einheitswurzel (siehe Satz B.32). Alle N N-ten Einheitswurzelnergeben sich als

Page 59: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.3 Datenanalyse, -synthese und -kompression 833

ω0, ω, . . . , ωN−1 .

In dieser Notation ist

f k =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝ω0

...

ωk(N−1)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Die diskrete Fourier-Transformation lässt sich dann schreiben als

f = F f ,

wobei F = FN ∈ C(N,N) definiert ist als die symmetrische Matrix

Fk, j := ωk j, k, j = 0, . . . , N − 1 . (8.75)

F heißt auch Fourier-Matrix.Da nach Satz 8.31 im euklidischen inneren Produkt gilt⟨

f k . f l⟩= Nδk,l ,

sind die Spalten von F orthogonal, deswegen F†F = N 1 und damit

F−1 =1N

F† .

Damit ergibt sich die inverse diskrete Fourier-Transformation

f = F−1 f

wegen der Symmetrie von F durch

f =1N

F f ,

so dass beide Transformationen eine schnelle Auswertung der Matrixmultiplikation mit Fbrauchen. Eine solche Schnelle Fourier-Transformation (Fast Fourier Transform: FFT)wurde von J. Cooley11 und J. W. Tukey12 1965 entwickelt, siehe Cooley undTukey 1965. Vorformen gehen aber schon auf C. F. Gauss (1805) und C. Runge13

(1903) zurück.Sei N = 2m für m ∈ N und

11 James Cooley ∗192612 John Wilder Tukey ∗16. Juni 1915 in New Bedford †26. Juli 2000 in New Brunswick13 Carl David Tolmé Runge ∗30. August 1856 in Bremen †3. Januar 1927 in Göttingen

Page 60: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

834 8 Einige Anwendungen der Linearen Algebra

y := F2m f für f ∈ CN .

Dann gilt für k = 0, . . . , m − 1 mit ρkn nach (B.18):

y2k =

2m−1∑j=0

f jω2 jk2m =

2m−1∑j=0

f jρ−2 jk2m =

2m−1∑j=0

f jρ− jkm =

m−1∑j=0

f jρ− jkm + f j+mρ

−( j+m)km

=

m−1∑j=0

(f j + f j+m

)ρ− jkm =

m−1∑j=0

Fk, j( f j + f j+m)

und analog

y2k+1 =

2m−1∑j=0

f jρ− j(2k+1)2m =

2m−1∑j=0

f jρ− j2mρ

− jkm =

m−1∑j=0

f jρ− j2mρ

− jkm + f j+mρ

− j−m2m ρ

− jkm

=

m−1∑j=0

(f j − f j+m

)ρ− j2mρ

− jkm =

m−1∑j=0

Fk, jρ− j2m( f j − f j+m) ,

jeweils mittels Satz B.32, demgemäß

Py :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

y0y2...

y2m−2y1...

y2m−1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠=

(Fm 00 Fm

) (1 1

D2m −D2m

)f (8.76)

mit D2m := diag(ρ− j2m

)j=0,...,m−1

= diag(ω j) j=0,...,m−1. Dadurch wird y = F2m f auf 2m Addi-tionen, 2m Multiplikationen, eine Umsortierung von Py zu y und 2 Anwendungen von Fm

zurückgeführt, infolge dessen:

Hauptsatz 8.35: Schnelle Fourier-Transformation (FFT)

Sei N = 2k, k ∈ N, dann kann für f ∈ CN die Multiplikation mit der Fourier-Matrix F2m dadurch ausgeführt werden, dass rekursiv (8.76) angewendet wird. DerAufwand in Elementaroperationen ist

A(N) = 2N log2 N .

Beweis: Nach den obigen Überlegungen gilt

Page 61: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

Aufgaben 835

A(N) = 2N + 2A(

N2

)und auch A(2) = 4. Mithin gilt bei einem Induktionsbeweis für N = 2k über k der Indukti-onsanfang k = 1 und der Induktionsschluss folgt wegen

A(2k+1

)= 2 2k+1 + 2

(2 2k log2 2k

)= 2 2k+1(1 + k) = 2 2k+1 log2 2k+1 . �

Die Schnelle Fourier-Transformation ist nach dem rekursiven Cooley-Tukey-Algorithmusin Algorithmus 8 realisiert, siehe Cooley und Tukey 1965. f muss hierbei die Län-ge N = 2n mit n ∈ N besitzen, genauer ist fftCT eine Abbildung von C(N,1) nach C(N,1):

Algorithmus 8 (Schnelle Fourier-Transformation (FFT))

function y = fftCT(f)N = length(f);if N == 2 % trivialer Fally = [f(1) + f(2); f(1) - f(2)];

else % halbiere f und berechne (rekursiv) FFTomega = exp(-2*pi*1i/N); % BasisfunktionenD = diag(omega.^((0 : N/2 - 1)’)); E = eye(N/2);f = [E, E; D, -D]*f; % nach (8.76)Py = [fftCT(f(1:N/2)); fftCT(f(N/2+1:end))]; % nach (8.76)y = Py(kron(N/2 + 1 : N, [0, 1]) + kron(1 : N/2, [1, 0]));

end

Aufgaben

Aufgabe 8.14 (K) Verifizieren Sie die Identitäten (8.61) und (8.62).

Aufgabe 8.15 (K) Auf dem Raum V2 = S 0(Δ2) der Treppenfunktionen über dem Intervall[0, 1] soll der Basiswechsel von der Basis M2 = { f2,0, f2,1, f2,2, f2,3} in die Zweiskalenba-sis M1 ∪ N1 = { f1,0, f1,1, g1,0, g1,1} untersucht werden, wobei die Funktionen fk, j und gk, j

wie in (8.57) bzw. (8.59) definiert seien.

a) Skizzieren Sie die Basisfunktionen der Zweiskalenbasis M1 ∪ N1.b) Bestimmen Sie die Übergangsmatrix A des Basisübergangs und zeigen Sie, dass

A−1 = At gilt.c) Stellen Sie die Funktion χ[0,1](x) =

∑3k=0

12 f2,k(x) in der Zweiskalenbasis M1 ∪ N1

dar

(i) durch Multiplikation mit A−1,(ii) unter Verwendung der schnellen Wavelet-Transformation (8.64)

und vergleichen Sie die Anzahl der jeweils benötigten Rechenoperationen.

Page 62: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

836 8 Einige Anwendungen der Linearen Algebra

Aufgabe 8.16 (T) Es sei N = 2p, p ∈ N und C ∈ C(N,N) eine zirkulante Matrix, d. h.

C =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

c0 c1 . . . cN−2 cN−1

cN−1 c0 c1 . . . cN−2...

. . .. . .

. . ....

c2 . . . cN−1 c0 c1

c1 c2 . . . cN−1 c0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

Sei weiter FN die N-dimensionale Fourier-Matrix

FN =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

ω0 ω0 . . . ω0

ω0 ω1 . . . ωN−1

ω0 ω2 . . . ω2(N−1)

......

......

ω0 ωN−1 . . . ω(N−1)2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠∈ C(N,N)

mit den Einheitswurzeln ω = e−i2π/N . Man beweise, dass dann gilt:

CF†N = F†N D mit D = diag(λi)i=0,...,N−1,

wobei λi die Eigenwerte von C sind. Daraus schließe man, dass die Eigenwerte einer zirku-lanten Matrix durch eine Fourier-Transformation ihrer ersten Spalte berechnet werdenkönnen.

Page 63: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.4 Lineare Algebra und Graphentheorie 837

8.4 Lineare Algebra und Graphentheorie

Zwischen Linearer Algebra und Graphentheorie besteht insofern ein enger Zusammen-hang, als dass gewisse Eigenschaften von Matrizen graphentheoretisch formuliert undbehandelt werden können und andererseits auch graphentheoretische Fragen als Matrix-probleme gefasst werden können. Dabei besteht ein (gerichteter) Graph aus einer endli-chen Menge von Knoten, die durch (gerichtete) Kanten verbunden sein können, genauer:

Definition 8.36

Ein (endlicher) gerichteter Graph auf V ist ein Tupel (V, E), wobei V eine (endliche)Menge, die Menge der Knoten (vertices), und E ⊂ V × V die Menge der Kanten(edges) ist. Für eine Kante e = (v1, v2) heißt v2 benachbart zu v1 und v1 der Vor-gänger von v2 bzw. v2 der Nachfolger zu v1, v1 heißt Ausgangsknoten von e bzw. v2

Zielknoten von e.

Bemerkung 8.37

1) (v1, v2) ∈ E zieht nicht notwendig (v2, v1) ∈ E nach sich. (v, v) ∈ E für gewisse v ∈ V ,so genannte Schleifen, sind erlaubt. Treten keine Schleifen auf, heißt der gerichtete Graphschleifenfrei.

2) Neben gerichteten Graphen gibt es u. a. auch ungerichtete Graphen, bei denen die Kan-tenmenge durch E ⊂ {{v1, v2} : v1, v2 ∈ V, v1 � v2} repräsentiert wird, demzufolge nichtzwischen den Kanten (v1, v2) und (v2, v1) unterschieden wird. Ein ungerichteter Graph kannals spezieller gerichteter Graph aufgefasst werden, für den nämlich gilt:

(v1, v2) ∈ E ⇒ (v2, v1) ∈ E für alle v1, v2 ∈ V ,

um dann (v1, v2) und (v2, v1) zu identifizieren. �Die konkrete Wahl der Knotendarstellung ist für die folgenden Aussagen irrelevant, d. h.zwei gerichtete Graphen (V, E) und (V ′, E′) werden als gleich angesehen, wenn eine bijek-tive Abbildung

ϕ : V → V ′

existiert, so dass

(v′1, v′2) ∈ E′ ⇔ Es gibt v1, v2 ∈ V mit (v1, v2) ∈ E, v′i = ϕ(vi), i = 1, 2 . (8.77)

O. B. d. A. kann somit bei einem endlichen gerichteten Graph, wie sie im Folgenden nurbetrachtet werden sollen,

V = {1, . . . , n}

Page 64: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

838 8 Einige Anwendungen der Linearen Algebra

gesetzt werden. Damit sind noch Umnummerierungen möglich. Diese sind zwar für diefolgenden Aussagen nicht essentiell, verändern aber mit Graphen assoziierte Matrizen(s. u.), so dass wir definieren:

Definition 8.38

Seien (V, E), (V ′, E′) gerichtete Graphen. V und V ′ seien jeweils mit einer totalenOrdnung versehen, die unterschiedslos mit ≤ bezeichnet wird. (V, E) und (V ′, E′)heißen isomorph, wenn es eine bijektive Abbildung ϕ : V → V ′ gibt, die ordnungs-erhaltend ist (d. h. v1 ≤ v2 ⇒ ϕ(v1) ≤ ϕ(v2)) und so (8.77) gilt.Wir setzen daher voraus, dass die Knotenmenge immer mit einer Ordnung versehenist und identifizieren sie bei einem endlichen Graphen im Sinn dieser Ordnung mit{1, . . . , n} für ein n ∈ N.

Im Folgenden ist Eindeutigkeit eines Graphen immer bis auf Isomorphie zu verstehen.Einem gerichteten Graphen kann auf zwei Arten eine beschriebene Matrix zugeordnetwerden:

Definition 8.39

Sei (V, E) ein endlicher gerichteter Graph, die Knoten seien gemäß ihrer Ordnungnummeriert: v1 ≤ . . . ≤ vn für ein n ∈ N.A = (ai, j) ∈ R(n,n), definiert durch

ai, j =

⎧⎪⎪⎨⎪⎪⎩1 , falls (vi, v j) ∈ E0 , sonst ,

heißt dann die Adjazenzmatrix oder Nachbarschaftsmatrix zu (V, E).Sei andererseits A ∈ R(n,n) eine beliebige Matrix.Durch

ai, j :=

⎧⎪⎪⎨⎪⎪⎩1 , falls ai, j � 00 , sonst

wird A eine Adjazenzmatrix A = (ai, j) ∈ R(n,n) zugeordnet und damit ein Adjazenz-graph.

Die Adjazenzmatrix bzw. jedes A = (ai, j) ∈ R(n,n) mit ai, j ∈ {0, 1} legt also den zugehö-rigen gerichteten Graphen auf V eindeutig fest. Eine Umnummerierung, d. h. Permutationder Knoten entspricht einer simultanen Permutation der Zeilen und Spalten der Adjazenz-matrix. Da nach (2.133) die Permutation von Zeilen mit einer Permutation σ der Multipli-kation von links mit P und nach (2.134) der Permutation von Spalten die Multiplikationvon rechts mit P−1 = Pt entspricht, wobei P die Permutationsmatrix zu σ−1 ist, bedeutet

Page 65: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.4 Lineare Algebra und Graphentheorie 839

dies also für die Adjazenzmatrix den Übergang von A zu

PAPt . (8.78)

Der Adjazenzgraph A ist dadurch genau dann als ungerichteter Graph interpretierbar, wennA symmetrisch ist.

Definition 8.40

Es gelten die Voraussetzungen von Definition 8.39 und auch die Kantenmenge Ewird durchnummeriert mit k1, . . . , km für ein m ∈ N.B = (bi, j) ∈ R(m,n), definiert durch

bi, j :=

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩1 , falls v j Zielknoten von ki ist−1 , falls v j Ausgangsknoten von ki ist0 , sonst ,

heißt Inzidenzmatrix oder Knoten-Kanten-Matrix zu (V, E).

Die Inzidenzmatrix bzw. jedes B ∈ R(m,n), für das bi, j ∈ {0, 1,−1} und bi, j = 1 für genauein j ∈ {1, . . . , n}, bi, j = −1 für genau ein j ∈ {1, . . . , n} gilt, legt den zugehörigen ge-richteten Graphen auf V eindeutig fest. Die Inzidenzmatrix zu einem Graphen ist schon inAbschnitt 1.6 aufgetreten und benutzt worden.

Definition 8.41

Sei (V, E) ein endlicher gerichteter Graph, v1, v2 ∈ V, v1 � v2. Der Knoten v1 heißtmit dem Knoten v2 durch einen Pfad verbindbar, wenn Knoten vi1 , . . . , vil−1 existieren,so dass mit vi0 := v1, vil := v2 alle (vi j , vi j+1 ), j = 0, . . . , l − 1 Kanten, d. h. in E sind.l ∈ N heißt die Länge des Pfads (vi0 , vi1 ), . . . , (vil−1 , vil) von v1 nach v2. (V, E) heißtzusammenhängend, wenn sich jedes v1 ∈ V mit jedem v2 ∈ V durch einen Pfadverbinden lässt.

Die Relation

v1 ∼ v2 := v1 ist durch einen Pfad verbindbar mit v2

ist zwar transitiv, aber i. Allg. nicht symmetrisch, es sei denn (V, E) ist nicht gerichtet.Ergänzen wir die Definition, so dass immer v ∼ v gilt, so liegt für ungerichtete Gra-phen eine Äquivalenzrelation vor, so dass V sodann in Äquivalenzklassen zerfällt (sieheSatz A.22).Ein ungerichteter Graph ist damit zusammenhängend, genau dann wenn nur eine Äquiva-lenzklasse existiert. Die Äquivalenzklassen heißen auch Zusammenhangskomponenten.Allgemein gilt:

Page 66: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

840 8 Einige Anwendungen der Linearen Algebra

Lemma 8.42: nicht zusammenhängender Graph

Sei (V, E) ein endlicher gerichteter Graph.(V, E) ist nicht zusammenhängend genau dann, wenn gilt:Es existiert N ⊂ V, N � ∅, N � V , so dass für jedes v1 ∈ N kein Pfad zu einemv2 ∈ V \ N existiert.

Beweis: „⇒ “: Nach Voraussetzung gibt es v1, v2 ∈ V, v1 � v2, so dass v1 nicht durch einenPfad mit v2 verbindbar ist.Sei vorerst N := {v ∈ V : v1 ist mit v durch einen Pfad verbindbar}.Ist v ∈ N und gibt es einen Pfad von v zu einem v ∈ V \ N dann wird v aus N entfernt.Schließlich wird v1 zu N hinzugefügt.Deshalb gilt v2 � N und N � ∅. V ist demnach disjunkt in N und V \ N zerlegt, so dasskein Pfad von einem v ∈ N zu einen v ∈ V \ N existiert. �

Die entsprechenden Matrizenbegriffe sind schon in Definition 2.71 eingeführt worden:

Satz 8.43: (ir-)reduzible Matrix

Sei A ∈ R(n,n), A � 0.

1) A ist irreduzibel, genau dann wenn der zugehörige Adjazenzgraph zusammen-hängend ist.

2) A ist reduzibel genau dann, wenn eine Permutationsmatrix P ∈ R(n,n) existiert, sodass

PAPt =

(A1,1 0A2,1 A2,2

), (8.79)

wobei A1,1 ∈ Rk,k für ein k ∈ {1, . . . , n − 1} und die anderen Teilmatrizen in derPartitionierung entsprechend dimensioniert sind.

Beweis: Zu 1): Ist klar.

Zu 2): Nach Lemma 8.42 ist der Adjazenzgraph von A genau dann nicht zusammenhän-gend, wenn {1, . . . , n} in N und M zerfällt, so dass v ∈ N nicht zu v ∈ M durch einen Pfadverbindbar ist. Durch Umnummerierung sei N = {v1, . . . , vk}, M = {vk+1, . . . , vn}. Also istäquivalent zur Reduzibilität:

ai, j = 0 für i ∈ {1, . . . , k}, j ∈ {k + 1, . . . , n} . (8.80)

Wäre nämlich aμ,ν � 0 für ein μ ∈ {1, . . . , k}, ν ∈ {k + 1, . . . , n}, dann wäre vμ zu vνmit einem Pfad (der Länge 1) verbindbar, gilt andererseits (8.80), gibt es keinen Pfad von

Page 67: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.4 Lineare Algebra und Graphentheorie 841

einem v ∈ N zu einem v ∈ M. Demzufolge hat A nach simultaner Permutation von Zeilenund Spalten die Form (8.79). �

Bemerkungen 8.44

1) Allgemein gilt:

A ist (ir)reduzibel ⇔ PAPt ist (ir)reduzibel

für eine beliebige Permutationsmatrix P.

2) Im reduziblen Fall kann das LGS Ax = b durch simultane Zeilen- und Spaltenpermu-tation in die gestaffelte Form

A1,1x1 = b1

A2,2x2 = b2 − A2,1x1

gebracht werden. Dabei sind x =(xt

1, xt2

)t, b =

(bt

1, bt2

)tzu (8.79) kompatible Partitio-

nierungen. Es können daher zwei kleinere LGS gelöst werden, die nur einseitig gekoppeltsind (x2 hängt von x1 ab, aber nicht x1 von x2).

3) A ist (ir)reduzibel⇔ A ist (ir)reduzibel.Dabei ist A = (ai, j) und

ai, j :=

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩beliebig,� 0 , für i � j, ai, j � 00 , für i � j, ai, j = 0beliebig , für i = j .

4) Mit A ∈ R(n,n) ist auch At irreduzibel.Um i mit j durch nichtverschwindende Einträge von At zu verbinden, verbinde man j mit i durch nicht-verschwindende Einträge von A und kehre den Pfad dann um.

�Sei A ∈ R(n,n) und (V, E) der zugehörige Adjazenzgraph. Einen Pfad der Länge 1 vonKnoten i zu Knoten j gibt es genau dann, wenn ai, j � 0. Einen Pfad der Länge 2 vonKnoten i zu Knoten j gibt es, wenn ein Knoten k existiert, so dass

ai,k � 0 und ak, j � 0 , (8.81)

also wenn (A2)i j =

n∑l=1

ai,lal, j � 0 . (8.82)

Gilt andererseits (8.81) und ist zusätzlich ai, j ≥ 0 für alle i, j = 1, . . . , n, dann folgt aus(8.81) auch (8.82).Allgemein gilt aus diesem Grund:

Page 68: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

842 8 Einige Anwendungen der Linearen Algebra

Lemma 8.45

Sei A ∈ R(n,n), q ∈ N.

1) Ist (Aq)i, j � 0, dann gibt es einen Pfad der Länge q vom Knoten i zum Knoten jdes zugehörigen Adjazenzgraphen.

2) Ist ai, j ≥ 0 für alle i, j ∈ {1, . . . , n}, dann gilt auch die Umkehrung von Aussage 1).

Beweis: Durch vollständige Induktion über q.Für q = 1 ist die Behauptung klar.Es gelte die Behauptung für q. Wegen

(Aq+1

)i, j= (AqA)i, j =

n∑l=1

a(q)i,l al, j , wobei Aq =

(a(q)

i, j

),

folgt die Behauptung für q � 1 aus den obigen Überlegungen: Bei 1) etwa ist(Aq+1

)i, j� 0

und damit a(q)i,l � 0, al, j � 0 für ein l ∈ {1, . . . , n}. Nach Induktionsvoraussetzung gibt es

dann einen verbindenden Pfad vom Knoten i zum Knoten l der Länge q und vom Knotenl zum Knoten j der Länge 1, zusammen folgt die Behauptung. Bei 2) beachte man, dassauch a(q)

i, j ≥ 0 für alle i, j ∈ {1, . . . , n}. �

Aus Lemma 8.45 folgt unmittelbar eine hinreichende bzw. bei ai, j ≥ 0 für alle i, j ∈{1, . . . , n} äquivalente Bedingung für Irreduzibilität. Ist ai,i > 0 für alle i = 1, . . . , n, giltverschärft:

Theorem 8.46: Positive Potenz und Irreduzibilität

Sei A ∈ Rn,n,

ai, j ≥ 0 für i, j ∈ {1, . . . , n}, ai,i > 0 für i = 1, . . . , n .

Dann sind äquivalent:

(i) Es existiert ein q ∈ N, so dass

(Aq)i, j > 0 für alle i, j ∈ {1, . . . , n} .

(ii) A ist irreduzibel.

Beweis: (i)⇒ (ii): Folgt aus Lemma 8.45, 1).(ii)⇒ (i): Sei Aq = (a(q)

i, j ). Nach Voraussetzung gilt für l ∈ N0 :(Al+1

)i, j=

∑nk=1 a(l)

i,kak, j > 0, falls a(l)i, j > 0 und damit a(l)

i, ja j, j > 0 .

Page 69: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

Aufgaben 843

Gibt es demnach einen Pfad der Länge l, den Knoten i im Adjazenzgraph mit Knoten j zuverbinden, so gibt es auch einen solchen Pfad der Länge l + 1, d. h. es gibt einen solchenPfad der Länge l für jedes l ≥ l.

Nach Definition gibt es zu den beliebigen Knoten i, j einen Pfad der Länge q ((i, j)) ∈N, der i mit j verbindet. Sei

q := maxi, j=1,...,n

q ((i, j)) .

Dann gibt es nach obigen Überlegungen zu beliebigen Knoten i, j Pfade der Länge q, diei mit j verbinden, mit Lemma 8.45, 2) folgt die Behauptung. �

Lemma 8.45 aus der Sicht von Graphen formuliert lautet:

Satz 8.47: Pfadlänge in Graphen

Sei (V, E) ein endlicher gerichteter Graph, sei A ∈ R(n,n) die zugehörige Adjazenz-matrix, q ∈ N. Seien i, j ∈ {1, . . . , n}. Dann gibt (Aq)i, j die Anzahl der Pfade derLänge q an, die den Knoten i mit dem Knoten j verbinden.

Ist (V, E) ungerichtet, d. h. A symmetrisch, dann gibt(A2

)i,i

den Grad des Knotensi an, d. h. die Anzahl der Kanten, die i als Ausgangsknoten haben.

Beweis: Der erste Teil ist analog zum Beweis von Lemma 8.45, beim zweiten Teil beachteman (

A2)i,i=

n∑l=1

ai,lal,i =

n∑l=1

a2i,l =

n∑l=1

ai,l

wegen ai,l ∈ {0, 1}. �

Aufgaben

Aufgabe 8.17 (K) Bestimmen Sie für den Graphen aus Aufgabe 8.10 die Adjazenzmatrixund die Inzidenzmatrix.

Aufgabe 8.18 (T) Zeigen Sie die Irreduzibilität der Matrix

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

2 −1−1 2 −1

. . .. . .

. . .

−1 2 −1−1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠∈ R(n,n) .

Page 70: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

844 8 Einige Anwendungen der Linearen Algebra

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse

In den Teilen des Beispiels 4 (Input-Output-Analyse, Kapitel 1.1 , 1.3 und 2.3) ist dieNützlichkeit von monotonen und invers-monotonen Matrizen klar geworden. Hier solleneinige Grundergebnisse ihrer Theorie entwickelt werden, um diese dann u. a. auf die Input-Output-Analyse anzuwenden. Wir ergänzen Definition 6.1:

Definition 8.48

Sei x ∈ Rn, x = (xi), y ∈ Rn. |x| ∈ Rn wird definiert durch

(|x|)i := |xi| für i = 1, . . . , n .

Seien A = (ai, j), B = (bi, j) ∈ R(m,n). Analog zu Definition 6.1 definiert man

A � 0 genau dann wenn ai, j ≥ 0 für alle i = 1, . . . , m, j = 1, . . . , n,

sowie A � 0, A � B, B � A, A � B, B A und (auch für A ∈ K(n,n)) |A| .

Um eine Unterscheidung zu

A ≥ 0 für eine (symmetrische), positiv semidefinite Matrix,A > 0 für eine (symmetrische), positiv definite Matrix (nach Definition 4.133)

sicherzustellen wurde eine unterschiedliche Bezeichnung gewählt.

Bemerkungen 8.49 Sei x ∈ Rn, x ≥ 0. A ∈ R(m,n), A � 0. Einige offensichtliche Ab-schätzungen sind:

1) x ≤ |x|.2) Ax ≥ 0.

3) Ist x � 0, A � 0, dann Ax > 0.

4) Ist x > 0, A � 0, dann Ax � 0, aber nicht i. Allg. Ax > 0.

5) Sind x ∈ Rn, A ∈ R(m,n) beliebig, dann |Ax| ≤ |A||x|.6) Sind x, y ∈ Rn, x, y ≥ 0, dann:

(x . y) ≥ 0, ist x � 0, y > 0, dann (x . y) > 0.

7) Sei A ∈ K(n,n), B ∈ R(n,n) und |A| � B. Dann gilt ρ(A) ≤ ρ(B).Aus |ai, j | ≤ bi, j für alle i, j = 1, . . . , n folgt durch vollständige Induktion für k ∈ N

|(Ak)i, j | ≤ |(Bk)i, j | für alle i, j = 1, . . . , n

und daher z. B. in der Zeilensummennorm

Page 71: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse 845

‖Ak‖ ≤ ‖Bk‖ ,also nach Bemerkungen 7.33, 1)

ρ(A) = limk→∞‖Ak‖1/k ≤ lim

k→∞‖Bk‖1/k = ρ(B) .

�In Beispiel 4(3) wurde schon im Wesentlichen gezeigt (dort nur für m = n und ohne denoffensichtlichen Teil (iii)):

Lemma 8.50

Sei A ∈ R(m,n).

1) Dann sind äquivalent:

(i) A � 0.

(ii) x ≥ 0⇒ Ax ≥ 0 für alle x ∈ Rn.

(iii) x ≥ y⇒ Ax ≥ Ay für alle x, y ∈ Rn.

Solche Matrizen heißen nichtnegativ oder monoton.

2) Sei m = n. Dann sind äquivalent:

(i) A ist invertierbar und A−1 ≥ 0.

(ii) Ax ≥ 0⇒ x ≥ 0 für alle x ∈ Rn.

(iii) Ax ≥ Ay⇒ x ≥ y für alle x, y ∈ Rn.

Solche Matrizen heißen invers-monoton.

Ist also ein LGS

Ax = b (8.83)

durch eine invers-monotone Matrix A gegeben, so führt eine Anordnung der Daten

b(1) ≥ b(2)

zu einer Anordnung der Lösungen

x(1) ≥ x(2) .

Page 72: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

846 8 Einige Anwendungen der Linearen Algebra

Insbesondere erzeugt eine Oberlösung von (8.83), d. h. ein x ∈ Rn mit Ax ≥ b, dieAbschätzung für die Lösung x von (8.83):

x ≤ x

und analog eine Unterlösung, d. h. ein x ∈ Rn mit Ax ≤ b die Abschätzung

x ≤ x ,

zusammen dementsprechend die Einschließung

x ≤ x ≤ x .

Wir beginnen mit dem Hauptsatz über monotone Matrizen, dessen Beweis bei alleinigemInteresse an den nachfolgenden Anwendungen übersprungen werden kann.

Hauptsatz 8.51: Satz von Perron und Frobenius

Sei A ∈ R(n,n), A � 0.Dann gilt:

1) ρ(A) ist ein Eigenwert von A.

2) Ist zusätzlich A � 0, so gibt es zu ρ(A) einen Eigenvektor u, so dass u > 0.

3) Zu ρ(A) gibt es einen Eigenvektor u, so dass u ≥ 0.

4) Ist A zusätzlich irreduzibel, dann gilt:

a) Kern(A − ρ(A)1) = span(u) für ein u ∈ Rn mit u > 0.

b) Auch die algebraische Vielfachheit von ρ(A) ist 1.

c) ρ(A) ist der einzige Eigenwert mit einem nichtnegativen Eigenvektor.

Beweis (nach Helmut Wielandt14):

– in Anlehnung an Huppert und Willems 2006, S. 339 f. –

Zu 1): Ist ρ(A) = 0, so ist 0 Eigenwert von A.Sei sodann ρ(A) > 0. O. B. d. A. kann ρ(A) = 1 gesetzt werden durch Übergang zur MatrixA := ρ(A)−1A. Zu zeigen ist deswegen: 1 ist ein Eigenwert von A. Es ist für 0 ≤ t < 1:

ρ(tA) = t < 1

und damit nach Theorem 7.37

Page 73: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse 847

(1 − tA)−1 =

∞∑k=0

tkAk ≥m∑

k=0

tkAk (8.84)

für alle m ∈ N.Angenommen 1 ist kein Eigenwert von A. Dann existiert auch (1 − A)−1 und da die Ab-bildung A �→ A−1 stetig ist auf der offenen Menge der invertierbaren Matrizen (sieheTheorem 7.37, 3)), so folgt für t → 1 aus (8.84)

(1 − A)−1 ≥m∑

k=0

Ak für alle m ∈ N .

Insbesondere gilt also limk→∞ Ak = 0 nach Bemerkungen 7.40, 2), 3) und nach Haupt-satz 7.34 folgt damit der Widerspruch ρ(A) < 1.Zu 2): Im Fall ρ(A) = 0 ist λ = 0 der einzige Eigenwert von A, so dass nach Satz 4.78, 2)An = 0 folgt im Widerspruch zu A > 0. Folglich ist ρ(A) > 0 und damit können wir unswieder auf ρ(A) = 1 beschränken. Nach 1) gibt es ein u ∈ Rn, u � 0, so dass

Au = u .

Wir behaupten, dass u := |u| ≥ 0 auch Eigenvektor von A zu λ = 1 ist, für den dann wegenA � 0 notwendigerweise gilt

u = Au > 0 .

– Hier und im Folgenden wird immer wieder von den Bemerkungen 8.49 Gebrauchgemacht. –

Angenommen, u ist kein Eigenvektor von A zu λ = 1. Wegen

u = |Au| ≤ |A||u| = Au

bedeutet das für

w := (A − 1)u ≥ 0

die Annahme w � 0. Dann ist

(A − 1)Au = Aw und Aw > 0

und damit gibt es ein ε > 0, so dass Aw ≥ εAu .Sei z := Au > 0, dann:

(A − 1)z = (A − 1)Au ≥ εz bzw. Az ≥ (1 + ε)z .

Insofern erfüllt die Matrix

B := (1 + ε)−1A > 0

Page 74: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

848 8 Einige Anwendungen der Linearen Algebra

mit Bz ≥ z auch Bmz ≥ z für alle m ∈ N wegen Bm − 1 = (∑m−1

i=0 Bi)(B − 1).Andererseits folgt aus Hauptsatz 7.34 wegen ρ(B) = (1 + ε)−1 < 1:

limm→∞ Bm = 0

und damit der Widerspruch 0 = limm→∞ Bm z ≥ z > 0.Zu 3): Durch eine kleine Störung in A durch

Ak := A +1k

1, k ∈ N

kann auf Teil 2) zurückgegriffen werden. Dabei ist 1 ∈ R(n,n) die Matrix, die an allenPositionen den Eintrag 1 hat. Es existieren somit Eigenvektoren u(k) ∈ Rn, u(k) > 0 von Ak

zu ρk := ρ(Ak).Wegen

A1 > A2 > . . . > A

gilt nach Bemerkungen 8.49, 7)

ρ1 ≥ ρ2 ≥ . . . ≥ ρ := ρ(A) .

Damit existiert μ := limk→∞ ρk und

μ ≥ ρ . (8.85)

Durch Übergang zu den normierten Eigenvektoren u(k)/‖u(k)‖1 (siehe Bemerkungen 7.2, 1))liegen alle Eigenvektoren in der kompakten Menge

M := {x ∈ Rn : x ≥ 0,

n∑i=1

xi = 1} .

Nach Satz C.11 existiert deswegen eine konvergente Teilfolge von (u(k))k – wieder mit(u(k))k bezeichnet – und

limk→∞

u(k) =: u ∈ M, d. h. u ≥ 0, u � 0 .

Daraus folgt

μu = limk→∞

ρku(k) = limk→∞

Aku(k) = limk→∞

Au(k) + limk→∞

(Ak − A)u(k) = Au + 0 ,

da limk→∞ Ak = A und (u(k)) ∈ M beschränkt ist. Also ist u Eigenvektor zum Eigenwert μ,für den nach (8.85)

μ = ρ(A)

gilt.

Page 75: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse 849

Zu 4 a): Nach 3) existiert ein u ∈ Rn, u ≥ 0, u � 0, so dass Au = ρ(A)u.u hat m Komponenten mit ui > 0, 1 ≤ m ≤ n. Zu zeigen ist, dass m = n, um u > 0sicherzustellen. Diese m Komponenten werden durch eine Permutation auf den ersten mPositionen platziert und P−1 ∈ R(n,n) sei die zugehörige Permutationsmatrix, dann

u = Pw und w = (w1, . . . , wm, 0, . . . , 0)t, wi > 0 für i = 1, . . . , m .

Damit gilt für B := P−1AP:

Bw = ρ(A)w .

B sei partioniert in der Form

B =(

B1,1 B1,2

B2,1 B2,2

)mit B1,1 ∈ R(m,m) und B2,2 ∈ R(n−m,n−m) usw., wobei dabei eventuell B1,2, B2,1, B2,2 nichtvorhanden sind.Wir nehmen an, dass dies nicht so ist, d. h. m < n gilt, dann folgt für w = (w1, . . . , wm) ∈Rm, d. h. w > 0,

ρ(A)(w0

)=

(B1,1 B1,2

B2,1 B2,2

) (w0

)=

(B1,1wB2,1w

), also: 0 = B2,1w

und damit wegen B2,1 ≥ 0, w > 0 : B2,1 = 0.Damit ist die Matrix B reduzibel und nach Satz 8.43 auch A im Widerspruch zur An-

nahme. Hiermit ist u > 0. Es bleibt zu zeigen, dass sich jeder Eigenvektor w von A zumEigenwert ρ(A) als Vielfaches von u schreiben lässt. Wählt man λ ∈ R als das Maximumder w j/u j, dann gilt

u := λu − w ≥ 0 und (λu − w)i = 0 für ein i ∈ {1, . . . , n} .Wenn u � 0 ist, dann ist u wieder nichtnegativer Eigenvektor von A zu ρ(A), für den inder ersten Hälfte dieses Teilbeweises u > 0 gezeigt wurde. Das ist im Widerspruch zurKonstruktion von u, so dass mit u = 0 die Behauptung folgt.Zu 4 b): Nach Satz 4.94 und den Überlegungen nach (4.71) ist zu zeigen:

Kern((A − ρ(A)1)2) ⊂ Kern(A − ρ(A)1) .

Sei (A − ρ(A)1)2w = 0, dann ist nach 4 a)

(A − ρ(A)1)w = λu

für ein λ ∈ R und einen Eigenvektor u > 0 von A zu ρ(A). Es ist vor diesem Hintergrundλ = 0 zu zeigen. Wegen ρ(A) = ρ(At) und At ≥ 0 gibt es nach 3) ein u ∈ Rn, u ≥ 0, u � 0,so dass

Atu = ρ(A)u .

Page 76: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

850 8 Einige Anwendungen der Linearen Algebra

Damit folgt

λ (u . u) = ((A − ρ(A)1)w . u) =(w . (At − ρ(A)1)u

)= 0

und dann wegen (u . u) > 0 die Behauptung λ = 0.Zu 4 c): Sei Aw = λw und w ≥ 0,w � 0. Zu zeigen ist λ = ρ(A). Da mit A auch At

irreduzibel ist, gibt es nach 4 a) ein u ∈ Rn, so dass Atu = ρ(A)u und u > 0. Es istdemzufolge (w . u) > 0 und

λ (w . u) = (Aw . u) =(w . Atu

)= ρ(A) (w . u)

und damit die Behauptung. �

Als Folgerung ergibt sich folgende Abschätzung für den Spektralradius:

Korollar 8.52: Spektralradiuseinschließung

Sei A ∈ R(n,n), A � 0 und irreduzibel.

1) Sei x ∈ Rn, x > 0. y := Ax, tk := (Ax)k/xk. Dann gilt:Ist ti = t für alle i = 1, . . . , n, dann

ρ(A) = t .

Gibt es j, k ∈ {1, . . . , n}, so dass t j < tk, dann

minl∈{1,...,n}

tl < ρ(A) < maxl∈{1,...,n}

tl .

2) Ist∑n

ν=1 ai,ν = a für alle i = 1, . . . , n, dann

ρ(A) = a .

Gibt es j, k ∈ {1, . . . , n}, so dass

n∑ν=1

a j,ν <

n∑ν=1

ak,ν ,

dann ist

minl∈{1,...,n}

n∑ν=1

al,ν < ρ(A) < maxl∈{1,...,n}

n∑ν=1

al,ν .

3) Es gebe x ∈ Rn, x > 0, so dass Ax ≤ x und Ax − x � 0. Dann gilt:

ρ(A) < 1 .

Page 77: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse 851

Beweis: Zu 1): Sei tk := yk/xk für k = 1, . . . , n. Da auch At ≥ 0 und irreduzibel, gibt esnach Hauptsatz 8.51, 4) ein u ∈ Rn, u > 0, so dass Atu = ρ(A)u.Daraus folgt

((xiti)i − ρ(A)x . u) = (Ax − ρ(A)x . u) =(x . (At − ρ(A)1)u

)= 0 ,

d. h. :n∑

i=1

(ti − ρ(A)) xiui = 0

und xiui > 0 für alle i = 1, . . . , n. Damit sind nur die Fälle möglich:

1. ti − ρ(A) = 0 für alle i, . . . , n.2. Es gibt j, k ∈ {1, . . . , n}, so dass

t j − ρ(A) < 0 < tk − ρ(A) .

Zu 2): Man wähle in 1) x = 1 = (1, . . . , 1)t.Zu 3): Nach Voraussetzung ist (Ax)i/xi ≤ 1 und für mindestens ein j ∈ {1, . . . , n} giltechte Ungleichheit. Danach trifft der zweite Fall in 1) zu und damit

ρ(A) < maxl∈{1,...,n}

(Ax)l/xl ≤ 1 . �

Eine Charakterisierung von Irreduzibilität bei nichtnegativen Matrizen befindet sich inTheorem 8.46.

In Beispiel 4 haben wir gesehen, dass die Frage nach Zulässigkeit bzw. Profitabili-tät beim offenen Input-Output-Modell äquivalent ist mit der Eigenschaft, die wir gleich„nichtsinguläre M-Matrix“ nennen werden. Diese soll im Folgenden charakterisiert wer-den. Allgemeiner betrachten wir dazu Matrizen B = (bi, j) ∈ R(n,n) mit

bi, j ≤ 0 für i, j = 1, . . . , n, i � j . (8.86)

Solche Matrizen können äquivalent in der Form geschrieben werden (Übung):

B = s1 − A ,

wobei s > 0 und A � 0 .(8.87)

Definition 8.53

Sei B ∈ Rn,n und habe die Form (8.87). Ist B invers-monoton, so heißt B invertierbareM-Matrix.

Dann gilt:

Page 78: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

852 8 Einige Anwendungen der Linearen Algebra

Hauptsatz 8.54: Charakterisierung invertierbare M-Matrix

Betrachtet werden Matrizen der Form (8.87). Dann sind folgende Eigenschaftenäquivalent:

(i) B ist invertierbare M-Matrix.

(ii) ρ(A) < s.

(iii) Es existiert ein x ∈ Rn, x > 0, so dass y := Bx ≥ 0 und y � 0 gilt, undweiter:Ist yi0 = 0 für i0 ∈ {1, . . . , n}, dann gibt es i1, . . . , ir ∈ {1, . . . , n}, so dass

bij−1,i j � 0 für j = 1, . . . , r und yir � 0 ,

d. h. im zugehörigen Adjazenzgraphen ist der Knoten i0 im Fall yi0 = 0 miteinem Knoten ir verbindbar, für den yir � 0 gilt.

(iv) Es existiert x ∈ Rn, x > 0, so dass

Bx > 0 .

Beweis: Wir zeigen (ii)⇒ (i)⇒ (iv)⇒ (iii)⇒ (ii).

(ii)⇒ (i): Sei B := s−1B = 1 − s−1A, dann kann äquivalent für B die Inversmonotoniegezeigt werden. Wegen ρ(B) < 1 folgt aus Theorem 7.37:

B ist invertierbar und B−1 =

∞∑k=0

(s−1A)k ≥ 0 ,

da (s−1A)k ≥ 0 für alle k ∈ N gilt.(i)⇒ (iv): Sei b ∈ Rn mit b > 0 vorgegeben. Dann existiert ein x ∈ Rn, x ≥ 0 , so dass

Bx = b .

Es ist x � 0, da sonst auch b = 0 gelten müsste. Wenn xi � 0 für alle i = 1, . . . , n, ist derBeweis beendet. Sei j ∈ {1, . . . , n} so, dass x j = 0.Mit B =

(b(1), . . . , b(n)

)ist dann

n∑i=1i� j

xi b(i) = b und damitn∑

i=1i� j

xib(i) + εb( j) = b + εb( j) =: c .

Wenn ε > 0 klein genug gewählt wird, gilt weiterhin c > 0 und damit liegt für die rechteSeite c eine Lösung mit positiver j-ter Komponente vor. Mit weiteren Nullkomponentenvon x wird entsprechend verfahren, bis eine positive Lösung für eine positive rechte Seitevorliegt.

Page 79: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse 853

(iv)⇒ (iii): Klar.(iii)⇒ (ii): Insbesondere ist Ax ≤ s und y = (s1 − A)x. Sei A = (ai, j) ∈ R(n,n) definiertdurch

ai, j =

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩ai, j , wenn ai, j � 0ε , wenn ai, j = 0 und yi � 00 , sonst.

Dabei ist ε > 0. Dann ist A irreduzibel. Seien nämlich k, l ∈ {1, . . . , n} beliebig. Ist yk � 0,dann ist ak,l � 0, d. h. die Knoten im Adjazenzgraphen sind durch einen einkantigen Wegverbindbar. Ist yk = 0, dann ist nach Voraussetzung der Knoten k im Adjazenzraphenmit einem Knoten ir verbindbar, für den yir � 0 gilt, so dass dieser wieder mit einemeinkantigen Weg zum Knoten l verbindbar ist.

Wenn ε > 0 klein genug gewählt wird, gilt weiterhin

Ax ≤ sx, Ax � sx .

Nach Folgerung 8.52, 3) ergibt sich für s−1A:

ρ(s−1A) < 1 , also ρ(A) < s

und wegen A ≥ A und Bemerkungen 8.49

ρ(A) ≤ ρ(A) < s . �

Die Zusatzbedingung in (iii) ist somit eine abgeschwächte Irreduzibilitätsforderung an A(siehe Abschnitt 8.4), d. h. insbesondere bei Irreduzibilität erfüllt.

Korollar 8.55

Sei B eine Matrix der Form (8.87). Seien zi :=∑n

j=1 bi, j die Zeilensummen und s j :=∑ni=1 bi, j die Spaltensummen von B. Die folgenden Eigenschaften sind hinreichend

dafür, dass B eine invertierbare M-Matrix ist:

1)

zi ≥ 0 für alle i = 1, . . . , n, zk > 0 für ein k ∈ {1, . . . , n} (8.88)

und wenn zi0 = 0, dann gibt es einen Pfad im Adjazenzgraph von B bzw. A zu ir, sodass zir > 0.

2) s j ≥ 0 für alle j = 1, . . . , n, sk > 0 für ein k ∈ {1, . . . , n} und wenn s j0 = 0, danngibt es einen Pfad im Adjazenzgraph von Bt bzw. At zu jr , so dass z jr > 0.

Beweis: Zu 1): Man wähle x = 1 = (1, . . . , 1)t in Hauptsatz 8.54, (iii).

Page 80: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

854 8 Einige Anwendungen der Linearen Algebra

Zu 2): Es gilt: B ist M-Matrix⇔ Bt ist M-Matrixund Bedingung 2) geht durch Transponieren in Bedingung 1) über. �

Bemerkungen 8.56

1) Ist B = (bi, j) nach (8.86), dann ist zi>

(≥) 0 äquivalent zu

|bi,i| >(≥)

n∑j=1j�i

|bi, j| ,

so dass man bei der Bedingung (8.88) auch von Diagonaldominanz spricht. Gilt für allei ∈ {1, . . . , n} zi > 0, so spricht man von strikter Diagonaldominanz.

2) Es gibt noch viele weitere Charakterisierungen der Eigenschaft, invertierbare M-Matrixzu sein. In Berman und Plemmons 1994 sind insgesamt 50 (!) angegeben. Ohne Beweisseien zwei weitere erwähnt:

(v) Alle Hauptminoren von B sind positiv.In der ökonomischen Literatur ist diese Bedingung nach Hawkins15 und Simon16

benannt.

(vi) B besitzt eine LR-Zerlegung

B = LR ,

wobei L eine untere und R eine obere Dreiecksmatrix ist, jeweils mit positivenDiagonalelementen.

Bei M-Matrizen ist daher das Gauss-Verfahren ohne (Zeilen-)Vertauschung durchführbar.

3) Bedingung Hauptsatz 8.54, (ii) bedeutet, dass alle reellen Eigenwerte von B positivsind. Damit kann der Begriff invertierbare M-Matrix als eine Erweiterung der Positivdefi-nitheit bei Matrizen der Form (8.87) angesehen werden:Sei B ∈ R(n,n) von der Form (8.87) und symmetrisch, dann gilt:

B ist invertierbare M-Matrix ⇔ B ist positiv definit.

Dies folgt sofort aus Satz 4.135. Solche Matrizen heißen auch Stieltjes17-Matrizen.

4) Notwendig für eine invertierbare M-Matrix ist sodann

bi,i > 0 für alle i = 1, . . . , n ,

denn aus Hauptsatz 8.54 (iv) folgt

15 David Ramon Hawkins ∗23. Juni 1927 in Milwaukee16 Herbert Alexander Simon ∗15. Juni 1916 in Milwaukee †9. Februar 2001 in Pittsburgh17 Thomas Jean Stieltjes ∗29. Dezember 1856 in Zwolle †31. Dezember 1894 in Toulouse

Page 81: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse 855

bi,i xi > −n∑

j=1j�i

bi, j x j ≥ 0

und daraus wegen xi > 0: bi,i > 0.

5) Neben direkten Verfahren stehen zur Lösung von Bx = f auch iterative Verfahren zurVerfügung, falls B M-Matrix ist:Wegen ρ

(1s A

)< 1 ist nach Theorem 8.20 das folgende Iterationsverfahren konvergent:

Sei x(0) ∈ Rn beliebig gewählt,

x(n+1) :=1s

Ax(n) +1s

f . (8.89)

Dieses Richardson-ähnliche Verfahren ist stark verwandt mit der Jacobi-Iterationnach (8.18).

Man kann (8.89) auch als ein zeitdiskretes dynamisches System interpretieren, bei demsich der Output, um eine Zeitperiode versetzt, aus den laufenden Inputs und der Endnach-frage bestimmt und die Lösung des statischen offenen Input-Output-Modells ist der sichals Grenzwert für n → ∞ (d. h. große Zeiten) einstellende Gleichgewichtsfall (siehe Ab-schnitt 8.2.2). �Beispiel 3(11) – Massenkette Betrachtet man die Massenkette bei beidseitiger oder einseitiger Einspan-nung (und allgemeiner Federkonstanten ci > 0), so hat die Matrix die Form (8.87), die Zeilensummen sind0 bis auf die beiden (bzw. eine) Randzeile, wo sie positiv sind. Da die Matrix irreduzibel ist, ist sie nachKorollar 8.55 eine invertierbare M-Matrix. Dies war (für konstante Federkonstanten) schon in (MM.53)bzw. (MM.54) durch das explizite Berechnen der Inversen verifiziert worden. Mit Bemerkungen 8.56, 3)ergibt sich ein erneuter Nachweis der Positivdefinitheit. �

Beispiel 4(4) – Input-Output-Analyse Für das offene Input-Output-Modell nach (MM.7) bzw. (MM.27)folgt mithin

Satz 8.57

Sei A ∈ R(n,n), A ≥ 0.Es sind äquivalent:

(i) Das offene Input-Output-Modell (1 − A)x = f ist zulässig.

(ii) Das offene Input-Outptut-Modell ist profitabel.

(iii) Es gibt ein x ∈ Rn , x > 0, so dass y := (1 − A)x ≥ 0, y � 0 und:Ist yi0 = 0, so existiert im Adjazenzgraph von A ein Pfad zu ir, so dass yir � 0.

(iv) Es gibt ein x ∈ Rn , x > 0 und

(1 − A)x > 0 .

Hinreichend für (i) (bzw. (ii)) sind die folgenden Bedingungen:Seien zi :=

∑nj=1 ai, j die Zeilensummen und s j :=

∑ni=1 ai, j die Spaltensummen von A:

1) zi ≤ 1 für alle i = 1, . . . , n, zk < 1 für ein k ∈ {1, . . . , n} und wenn zi0 = 1, dann gibt es einenPfad im Adjazenzgraph von A zu ir, so dass zir < 1.

Page 82: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

856 8 Einige Anwendungen der Linearen Algebra

2) s j ≤ 1 für alle j = 1, . . . , n, sk < 1 für ein k ∈ {1, . . . , n} und wenn s j0 = 1, dann gibt es einenPfad im Adjazenzgraph von At zu ir, so dass sir < 1.

Bemerkungen 8.58

1) Insbesondere sind folglich hinreichend:

a) zi < 1 für alle i = 1, . . . , n.

b) s j < 1 für alle j = 1, . . . , n.

2) Einige Bedingungen haben eine direkte Interpretation innerhalb des Modells. Die von 1)b) wurde schonin Beispiel 4(1) (siehe (MM.10)) entwickelt. �Wenn sich die Endnachfrage im Input-Output-Modell erhöht, stellt die Invers-Monotonie gerade sicher,dass sich auch der Output erhöht. Dies bedeutet aber nicht, dass bei maximaler (z. B. alleiniger) Steigerungder Nachfrage im Sektor i auch der Output in Sektor i am stärksten wächst. Dazu ist nötig, dass der„Verstärkungsfaktor“ (B−1)k,i für den Einfluss eines Inputs im Sektor i für k = i am größten ist. Dazu gilt:

Lemma 8.59

Sei B ∈ R(n,n) eine nichtsinguläre M-Matrix mit nichtnegativen Zeilensummen, d. h. B1 ≥ 0. Danngilt:

(B−1)i,i ≥ (B−1)k,i für alle i, k = 1, . . . , n .

Gilt B1 > 0, dann ist

(B−1)i,i > (B−1)k,i für alle i, k = 1, . . . , n .

Beweis: Der Beweis greift auf die Darstellung von B−1 durch Satz 2.118 (Cramersche Regel) zurück,siehe Berman und Plemmons 1994, S. 254 f. �

Daraus folgt sofort:

Korollar 8.60

Sei A ∈ R(n,n), A ≥ 0 und 1− A eine nichtsinguläre M-Matrix. Sind alle Zeilensummen von A nichtgrößer als 1, d. h. A1 ≤ 1, dann wächst bei einem Zuwachs der Endnachfrage in Sektor i der Outputim Sektor i nicht weniger als in anderen Sektoren. Gilt sogar A1 < 1, dann ist das Wachstum imSektor i sogar stärker als in anderen Sektoren.

Beweis: Übung. �

Für die Zuwächse in den Schattenpreisen gibt es analoge Aussagen, wobei Zeilensummen durch Spal-tensummen zu ersetzen sind. Die dabei auftretende Bedingung (MM.10) ist schon in Beispiel 4(1) alsnaheliegend diskutiert worden.Wir wenden uns nun dem geschlossenen Input-Output-Modell (MM.28) zu. Für die Existenz einesGleichgewichts-Outputvektors x ∈ Rn ist daher notwendig, dass B singulär ist, während beim offenenModell die Nichtsingularität notwendig ist. Wegen der Gleichheit der Strukturbedingungen (MM.10) istein Zusammenhang zu vermuten, der es wünschenswert erscheinen lässt, den Begriff der M-Matrix auch

Page 83: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.5 (Invers-)Monotone Matrizen und Input-Output-Analyse 857

auf singuläre Matrizen zu erweitern. Wir betrachten folglich weiter Matrizen der Form (8.87) und setzen:

Definition 8.61

Sei B ∈ R(n,n) von der Form (8.87). B heißt M-Matrix, wenn gilt

ρ(A) ≤ s .

In Anbetracht von Hauptsatz 8.54 sind demzufolge die M-Matrizen mit ρ(A) < s genau die invertier-baren, die mit s = ρ(A) genau die singulären, die hier neu betrachtet werden. Der Zusammenhang zumgeschlossenen Input-Output-Modell ergibt sich durch:

Satz 8.62

Sei B ∈ R(n,n) von der Form B = 1 − A und A � 0. Das zugehörige geschlossene Input-Modell seizulässig nach Definition 1.53. Dann ist B eine M-Matrix.

Beweis: Nach Voraussetzung existiert ein x > 0, so dass Bx ≥ 0. Daher gilt für Bε := (1+ ε)−1(ε1+ B) =(1 − (1 + ε)−1A).

Bεx = (1 + ε)−1(εx + Bx) > 0

und damit ist die Bedingung (iv) in Hauptsatz 8.54 erfüllt, also gilt:

(1 + ε)−1ρ(A) = ρ((1 + ε)−1A) < 1

und damit

ρ(A) ≤ 1 . �

(Singuläre) M-Matrizen zu charakterisieren ist recht aufwändig, auch ist die Aussage in Satz 8.62 i. Allg.nicht umkehrbar. Übersichtlicher wird die Situation, wenn die Input-Output-Matrix A irreduzibel ist.

Satz 8.63

Sei B ∈ R(n,n) von der Form B = 1 − A und A � 0. B sei singulär und irreduzibel. Dann sindäquivalent:

(i) Das geschlossene Input-Output-Modell zu B ist zulässig.

(ii) Es gibt einen Output-Gleichgewichtsvektor, der eindeutig ist bis auf positive skalare Viel-fache.

(iii) B ist M-Matrix.

Beweis: (i)⇒ (iii): Satz 8.62.(iii)⇒ (ii): Folgt aus ρ(A) = 1 und Hauptsatz 8.51, 4).(ii)⇒ (i): Klar. �

Page 84: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

858 8 Einige Anwendungen der Linearen Algebra

Insbesondere liegt eine M-Matrix vor, wenn (siehe (MM.29)) alle Spaltensummen von A gleich 1 sind,was man als Ausgleich zwischen laufendem Input und Output interpretieren kann:

Satz 8.64

Sei B ∈ R(n,n) von der Form B = 1 − A und A = (ai, j) � 0. Wenn∑n

i=1 ai, j = 1 für alle j = 1, . . . , ngilt, dann ist B eine singuläre M-Matrix.

Beweis: Nach Voraussetzung gilt:

At1 = 1 ,

d. h. es gilt ρ(A) ≥ 1. Andererseits ist wegen Theorem 7.30, 2) und A ≥ 0

‖A‖1 = 1

und damit nach Theorem 7.32, 1)

ρ(A) ≤ ‖A‖1 = 1 ,

folglich ρ(A) = 1. �

Unter der Voraussetzung von Satz 8.64 ist A eine stochastische Matrix nach Definition 8.102, so dass damitdie Verbindung zu Abschnitt 8.6.5 hergestellt ist. �

Aufgaben

Aufgabe 8.19 (T) Zeigen Sie, dass Matrizen B = (bi, j) ∈ R(n,n) mit (8.86) äquivalent inder Form (8.87) geschrieben werden können.

Aufgabe 8.20 (T) Zeigen Sie Korollar 8.60.

Aufgabe 8.21 (T) Sei B ∈ R(n,n) von der Form (8.87) und symmetrisch und habe nichtne-gative Zeilensummen (d. h. sei diagonaldominant).

a) Dann gilt im euklidischen Skalarprodukt

(Bx . x) =n∑

j=1

⎛⎜⎜⎜⎜⎜⎜⎝ n∑k=1

a j,k|x j|2 −∑j<k

a j,k|xi − x j|2⎞⎟⎟⎟⎟⎟⎟⎠

und damit: B ≥ 0.b) Gilt verschärft (8.88), so ist B > 0.

Page 85: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 859

8.6 Kontinuierliche und dynamische Systeme

8.6.1 Die Lösungsraumstrukturbei linearen Problemen

Im Kapitel 4 waren wir in der Lage, mit der dort entwickelten Eigenwerttheorie explizitLösungen für Systeme von linearen Differenzen- bzw. Differentialgleichungen (1. Ord-nung) anzugeben (siehe (4.12) und Beispiele 4.56, 4.117, 4.120 bzw. (4.83), (4.84) undBeispiel 7.44). Die Probleme seien noch einmal genannt:

Sei n ∈ N, A ∈ K(n,n), x0 ∈ Kn bzw. y0 ∈ Kn, t0, T ∈ R, t0 < T gegeben:

A Lineare Differenzengleichung 1. Ordnung (mit konstanten Koeffizienten)Gesucht ist x ∈ (Kn)N0 , so dass

x(k+1) = Ax(k) für k ∈ N0 ,

x(0) = x0 .(8.90)

B Lineare Differentialgleichung 1. Ordnung (mit konstanten Koeffizienten)Gesucht ist y ∈ C ([t0, T ],Kn), so dass

y(t) = Ay(t) für t ∈ [t0, T ] ,

y(t0) = y0 .(8.91)

Naheliegende Verallgemeinerungen von A und B sind für eine Matrizenfolge Ak ∈K(n,n), k ∈ N, bzw. für eine matrixwertige Funktion

A : [t0, T ]→ K(n,n) ,

etwa A ∈ C([t0, T ],K(n,n)

),

C Lineare Differenzengleichung 1. Ordnung (mit variablen Koeffizienten)Gesucht ist x ∈ (Kn)N0 , so dass

x(k+1) = Ak+1x(k) für k ∈ N0 ,

x(0) = x0(8.92)

bzw.D Lineare Differentialgleichung 1. Ordnung (mit variablen Koeffizienten)

Gesucht ist y ∈ C([t0, T ],Kn), so dass

y(t) = A(t)y(t) für t ∈ [t0, T ] ,

y(t0) = y0 .(8.93)

Für C ist analog zu A weiterhin offensichtlich, dass eine Lösung eindeutig existiert,auch wenn die sich ergebende Lösungsdarstellung

Page 86: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

860 8 Einige Anwendungen der Linearen Algebra

x(k) = Ak . . . A1x(0)

nicht wirklich nützlich ist. Bei B sind Existenz und Eindeutigkeit einer Lösung unklar.Dennoch ist auch D ein eher „einfaches“ Problem, da es weiterhin linear ist. Daruntersoll allgemein Folgendes verstanden werden:

Definition 8.65

Betrachtet werde ein Problem (P), wobei zu einem Datum z0 ∈ D eine Lösung zgesucht wird. D sei ein K-Vektorraum, die Menge aller Lösungen zu z0 ∈ D werdemit L bezeichnet. Einer Lösung z sei ein Datum z0 eindeutig zugeordnet. (P) heißtlinear, wenn L ein K-Vektorraum ist und die Abbildung von L nach D, die z auf z0

abbildet, linear ist.

Dies bedeutet also, dass jede Linearkombination von Lösungen wieder eine Lösung ist,und zwar zur Linearkombination der Daten. Daher spricht man auch vom Superpositions-prinzip. Ein Spezialfall davon sind Theorem 1.8 und Bemerkungen 2.6, 5). Insbesonderebedeutet die Linearität, dass zur trivialen Lösung 0 ∈ L der triviale Datensatz 0 ∈ D gehört.Die Existenz oder Eindeutigkeit einer Lösung wird nicht gefordert.

Weitere lineare Probleme sind die inhomogenen Varianten von A bis D : Dazu seien(weitere) Daten bk ∈ Kn für k ∈ N0 bzw. f ∈ C ([t0, T ],Kn) gegeben:

A i Inhomogene lineare Differenzengleichung 1. Ordnung (mit konst. Koeff.)

x(k+1) = Ax(k) + bk für k ∈ N0 ,

x(0) = x0 .(8.94)

B i Inhomogene Differentialgleichung 1. Ordnung (mit konst. Koeff.)

y(t) = Ay(t) + f (t) für t ∈ [t0, T ] ,

y(t0) = y0 .(8.95)

C i Inhomogene lineare Differenzengleichung 1. Ordnung

x(k+1) = Ak+1x(k) + bk für k ∈ N0 ,

x(0) = x0 .(8.96)

D i Inhomogene Differentialgleichung 1. Ordnung

y(t) = A(t)y(t) + f (t) für t ∈ [t0, T ] ,

y(t0) = y0 .(8.97)

Page 87: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 861

Das Superpositionsprinzip bedeutet, dass eine Lösung gemäß der „Datenanteile“ zer-legt werden kann: So ist z. B. eine Lösung von D i dadurch erhältlich, dass manwegen (

y0f

)=

(y00

)+

(0

f

)eine Lösung von D mit einer Lösung von

y(t) = A(t)y(t) + f (t) ,

y(t0) = 0(8.98)

kombiniert.

Für konstante Koeffizienten ist dies in Beispiel 7.44, 2) geschehen. Werden Anteile derDaten konstant gehalten, z. B. bei D i f bei variablen Daten y0, so sind die jeweiligenAbbildungen zwischen variablen Daten und Lösungen noch affin-linear. Dem Datum y0 =

0 entspricht dann nicht die Nulllösung, sondern y nach (8.98).Lineare Probleme müssen nicht „Anfangswertprobleme“ sein. Ein Beispiel für eine

„Randwertaufgabe“ ist (1.82).Über den Lösungsraum eines linearen Problems kann man strukturell etwas aussagen,

wenn man weiß, dass zu jedem Datum eine Lösung eindeutig existiert. Für A und auchC i ist dies offensichtlich, D i wird durch den allgemeinen Satz zur eindeutigen Existenz

von Lösungen von Anfangswertaufgaben für gewöhnliche Differentialgleichungen, demSatz von Picard-Lindelöf, erfasst (siehe Analysis). Da diese Überlegung zur Analysisgehört, wird sie hier nicht weiter ausgeführt, sondern vielmehr die eindeutige Existenz vonLösungen von D i vorausgesetzt.

Bemerkungen 8.66

1) Der Lösungsbegriff für D i ist abhängig von der Glattheitsvoraussetzung an A undf . Für A ∈ C([t0, T ],K(n,n)) und f ∈ C([t0, T ],Kn) (was im Folgenden im Zweifelsfallvorausgesetzt werden soll) ist dann notwendig

y ∈ C1([t0, T ],Kn) ,

so dass (8.97) (komponentenweise) im Sinne der eindimensionalen Analysis zu verstehenist. Hier sind Abschwächungen möglich.

2) Solange A (und f ) auf (a, b) ( mit der nötigen Glattheit) definiert sind, können t0, T ∈(a, b) beliebig gewählt werden, ohne dass Existenz und Eindeutigkeit von Lösungen da-durch verändert werden, d. h. die „Zeit“ t kann auch rückwärts durchlaufen werden.Sei etwa T < t0, dann setze man

t := t0 + T − t für t ∈ [T, t0] .

Page 88: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

862 8 Einige Anwendungen der Linearen Algebra

Dadurch tauschen t0 und T ihre Plätze, d. h. aus einer „Endwertaufgabe“ wird eine Anfangswertaufgabeund

y(t)

:= y(t0 + T − t

)erfüllt (8.97) für

A(t)

:= −A(t0 + T − t

),

f(t)

:= − f(t0 + T − t

).

(8.99)

Genauso kann der Anfangszeitpunkt durch t := t − t0 + t′0 verschoben werden und so (sofern a ≤ 0 ≤ b)o. B. d. A. auch t0 = 0 gesetzt werden. Zur Verifikation sind elementare Kenntnisse der eindimensionalenAnalysis nötig, die im Folgenden stillschweigend vorausgesetzt werden.

3) Analog kann bei C i der „Anfangsindex“ k0 auch beliebig in Z gewählt werden. Um(8.96) auch „rückwärts“, d. h. für k0, k−1, . . . zu durchlaufen, muss vorausgesetzt werden,dass die Ak invertierbar sind.

4) Bei A bzw. B verändert daher die Verschiebung des Anfangspunktes nicht das sons-tige Problem. Man nennt ein solches Problem, das den Anfangspunkt nicht „wahrnimmt“,auch autonom.

5) Wegen der Linearität der Abbildung Lösung �→Datum reduziert sich die Eindeutigkeitallgemein in der Situation von Definition 8.65 auf:

Sei z ∈ L die Lösung zu z0 = 0 ∈ D ,

dann ist z = 0 ∈ L .

6)

Zu (8.93) werde ein adjungiertes Problem definiert als das „Endwertproblem“:

Gesucht ist z ∈ C ([t0, T ],Kn) , so dassz(t) = −A†(t)z(t)

z(T ) = z0 .(8.100)

Dann gilt für eine Lösung y von (8.93) und eine Lösung z von (8.100):

h(t) := 〈y(t) . z(t)〉 ist konstant auf [t0, T ] .

Es gilt nämlich

ddt

h(t) = 〈y(t) . z(t)〉 + 〈y(t) . z(t)〉 = 〈A(t)y(t) . z(t)〉 −⟨y(t) . A†(t)z(t)

⟩= 0 .

Ist demnach A(t) schief-hermitesch bzw. -symmetrisch, dann ist e(t) := ‖y(t)‖2 konstant.Ist y eine Lösung von (8.93), kann (für z0 = y(T )) z = y gewählt werden.

Page 89: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 863

7) Bei B ist die Existenz einer Lösung durch (7.18) gesichert. Für die Eindeutigkeit istnach 5) zu prüfen:Ist y eine Lösung von

y(t) = Ay(t), y(t0) = 0 ,

dann ist y = 0 (d. h. y(t) = 0 für alle t ∈ [t0, T ]). Dies gilt.Der Beweis kann (auch für D i oder allgemein) mit dem Gronwall-Lemma (siehe z. B. Amann undEscher 1999, S. 131) angegangen werden. Hier ist auch ein algebraischer Beweis möglich:Statt y = 0 zu zeigen, reicht auch y(T ) = 0, da jedes t > t0 als Endzeit gewählt werden kann. Seiz0 ∈ Kn eine beliebige Endwertvorgabe für das adjungierte Problem. Wegen 1) existiert dazu (wie zujedem Problem B ) eine Lösung z. Nach 6) gilt

〈y(T ) . z0〉 = 〈y(T ) . z(T )〉 = ⟨y0 . z(0)

⟩= 0 (8.101)

für alle z0 ∈ Kn, also y(T ) = 0.

Genauer entspricht (8.101) Satz 2.63. �

Ab jetzt betrachten wir ein lineares Problem nach Definition 8.65, bei dem für je-des Datum z0 ∈ D eine eindeutige Lösung z ∈ L existiert. Damit gibt es auch dieUmkehrabbildung

Φ : D→ L, z0 �→ z ,

die ebenfalls linear und auch bijektiv ist, folglich ein Isomorphismus. Insbesonderegilt sodann

dim L = dim D

nach Theorem 2.28 bzw. :Seien z(1)

0 , . . . , z(k)0 ∈ D und z(i) := Φ

(z(i)

0

), i = 1, . . . , k.

Dann:

z(1)0 , . . . , z(k)

0 sind linear unabhängig/spannen D auf/sind Basis von Dgenau dann, wenn

z(1), . . . z(k) sind linear unabhängig/spannen L auf/sind Basis von L .

(8.102)

Für (einen Spezialfall von) A findet sich konkret diese Aussage in Lemma 1.42 und Satz 1.68, wo genaudie Linearität des Problems und die hier offensichtlich eindeutige Lösbarkeit ausgenutzt wird.

Definition 8.67

Sei (P) ein lineares Problem, so dass für jedes Datum z0 ∈ D genau eine Lösungz ∈ L existiert. Sei dim D = n und z(1)

0 , . . . , z(n)0 eine Basis von D, dann heißen die

Page 90: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

864 8 Einige Anwendungen der Linearen Algebra

zugehörigen z(1), . . . , z(n) ein Fundamentalsystem oder auch Fundamentallösung von(P).

Mit einer Fundamentallösung ist offensichtlich der Lösungsraum prinzipiell bekannt: Istz0 ∈ D und

z0 =

n∑i=1

αi z(i)0 ,

dann ist

z =n∑

i=1

αi z(i)

die Lösung zu z0.Ist speziell D = Kn wie in C und D , kann z(i)

0 = ei gewählt werden. Bei A bzw. Bergeben sich explizit die Fundamentalsysteme für i = 1, . . . , n:(

x(k))(i)

:= Akei für k ∈ N , bzw.

y(i)(t) := exp (A(t − t0)) ei für t ∈ [t0, T ]

und die dafür entwickelten Konkretisierungen.Sei

X(k) :=((

x(k))(1)

, . . . ,(x(k)

)(n))∈ K(n,n) , bzw.

Y(t) :=(y(1)(t), . . . , y(n)(t)

)∈ K(n,n)

die aus einer Fundamentallösung für C bzw. D gebildeten Folgen bzw. Funktionen.Diese erfüllen

bei C

X(0) ist nichtsingulär ,

X(k+1) = Ak+1X(k) für k ∈ N0 , (8.103)

bei D

Y(t0) ist nichtsingulär ,

Y(t) = A(t)Y(t) für t ∈ [t0, T ] , (8.104)

wobei die Ableitung komponentenweise zu verstehen ist.Es gilt:

Page 91: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 865

Theorem 8.68: Fundamentallösung

1) Seien die Ak nichtsingulär für k ∈ N.Sei X(k) ∈ (K(n,n))N eine Lösung von (8.103).Dann gilt für k, l ∈ N0:

X(k) ist nichtsingulär genau dann, wenn

X(l) ist nichtsingulär,und bei Gültigkeit liegt eine Fundamentallösung von C vor.

2) Sei Y ∈ C([t0, T ],Kn) eine Lösung von 8.104.Dann gilt für t, s ∈ [t0, T ]

Y(t) ist nichtsingulär genau dann, wenn

Y(s) ist nichtsingulär,und bei Gültigkeit liegt eine Fundamentallösung von D vor.

3) Seien (X(k))k und (X(k))k bzw. Y und Y Fundamentallösungen für C bzw. D .Dann gibt es jeweils ein C ∈ GL(n,K), so dass

X(k) := X(k)C für alle k ∈ N0

bzw.

Y(t) := Y(t)C für t ∈ [t0, T ] .

Beweis: Zu 2): Sei t, s ∈ [t0, T ], t ≤ s.Ist Y(t) nichtsingulär, so sind y(1), . . . , y(n) auf [t, T ] linear unabhängig und, da auch Y(s)als Anfangsvorgabe für t ∈ [s, T ] angesehen werden kann, nach (8.99), ist auch Y(s) nicht-singulär. Diese Überlegung gilt auch für t > s, da nach Bemerkungen 8.66, 2) die Diffe-rentialgleichung auch „rückwärts in der Zeit“ betrachtet werden kann.Die Überlegung bei 1) ist identisch, die Zusatzvoraussetzung sorgt dafür, die Rekursionauch für abnehmende Indizes betrachten zu können.Zu 3): Es reicht einen der Fälle, etwa D , zu betrachten, der andere ist analog:Da Y(t0), Y(t0) nichtsingulär sind, erfüllt

C := Y−1(t0)Y(t0) ∈ GL(n,K)

Y(t0) = Y(t0)C .

Da auch YC eine Fundamentallösung darstellt (die Spalten sind Linearkombinationen vonLösungen) zu den Daten Y(t0), muss wegen der Eindeutigkeit von Lösungen auch

Page 92: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

866 8 Einige Anwendungen der Linearen Algebra

Y(t) = Y(t)C für t ∈ [t0, T ]

gelten. �

Betrachtet man demnach zu einem Fundamentalsystem X zu C bzw. Y zu D

w(n) := det X(n) , bzw.w(t) := det Y(t) , (8.105)

dann gilt

w(n) � 0 für alle n ∈ N , bzw. (8.106)w(t) � 0 für alle t ∈ [t0, T ] . (8.107)

Dabei heißt w(n) die Casorati18-Determinante oder Casoratische und w(t) dieWronski19-Determinante oder Wronskische.

w(n) bzw. w(t) beschreibt demzufolge das (vorzeichenbehaftete) Volumen des von den Spal-ten des Fundamentalsystems aufgespannten Parallelotops im Kn.

Konkret gilt für B : Nach Theorem 8.68, 3) hat jede Fundamentallösung die Gestalt

Y(t) = exp(At)C (8.108)

und nach Bemerkung 7.45

w(t) = det(C) exp(sp(A)t) . (8.109)

Damit ist w Lösung der skalaren linearen Differentialgleichung

w(t) = sp(A)w(t) ,

w(0) = det(C) .

Daraus bzw. direkt aus (8.109) folgt:

Satz 8.69: Volumenerhaltung bei sp(A) = 0

Ist sp(A) = 0, dann bleibt bei B das Volumen des von der Fundamentallösungaufgespannten Parallelotops konstant.

Betrachten wir genauer D i oder C i, so kann nicht nur y ∈ C([t0, T ],Kn) bzw. x ∈(Kn)N0 als Lösung angesehen werden, sondern auch y(t) für t ∈ (t0, T ] oder x(k) für k > 0

19 Felice Casorati ∗17. Dezember 1835 in Pavia †11. September 1890 in Pavia19 Josef Hoëné-Wronski ∗23. August 1776 in Wolsztyn †9. August 1853 in Paris

Page 93: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 867

(da auch y �→ y(r) bzw. x(k) �→ (x(k))i linear sind). Auch können y(s) (s ≥ t0) bzw. x(k)

(k ≥ 0) als Anfangswerte angesehen werden. Wegen der Eindeutigkeit ergeben sich auf[s, T ] bzw. für Indizes ab k die gleichen Lösungen.

Es gibt also auch die (Zustands-)Übergangsoperatoren für D i

U(t, s) :{Kn → Kn

y(s) �→ y(t) (8.110)

für t, s ∈ (t0, T ], t ≥ s, wobei y die Lösung von D i auf [s, T ] mit Anfangsvorgabebei s, bzw. (Zustands-)Übergangsoperatoren für C i

U(l, k) :{Kn → Kn

x(k) �→ x(l) (8.111)

für k, l ∈ N0, l ≥ k, wobei (x(i))i die Lösung von C i mit Anfangsvorgabe bei i = ksei.

Diese Operatoren sind affin-linear bzw. im homogenen Fall ( D : f = 0 bzw. C : (bi)i = 0)linear.

Zur Vereinfachung seien im Folgenden die Daten bei D i auf ganz R (in der nötigenGlattheit für eindeutige Existenz) definiert. Es gilt dementsprechend

U(t, t) = id bzw. U(k, k) = id

und wegen der eindeutigen Lösbarkeit für r, t, s ∈ R, r ≥ t ≥ s bzw. m, l, k ∈ N, m ≥ l ≥ k

U(r, t) ◦ U(t, s) = U(r, s) ,U(m, l) ◦U(l, k) = U(m, k) .

(8.112)

Da D i auch rückwärts in t betrachtet werden kann und auch C i, wenn die Ak als inver-tierbar vorausgesetzt werden können (siehe Bemerkungen 8.66, 2), 3)), sind auch

U(t, s) für t < s

bzw. U(l, k) für l, k ∈ Z, l < k

wohldefiniert und es gilt für t, s ∈ R bzw. l, k ∈ Z: U(t, s) bzw. U(l, k) sind invertierbar,und

U(t, s)−1 = U(s, t) ,U(l, k)−1 = U(k, l) .

(8.113)

Page 94: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

868 8 Einige Anwendungen der Linearen Algebra

Bemerkung 8.70 Sei U = U(t, s) der Übergangsoperator zum Problem D , dann istV(s, t) = U†(s, t) der Übergangsoperator zum adjungierten Problem (8.100).Das kann man folgendermaßen einsehen. Seien x0, y0 ∈ Kn , t, s ∈ [t0, T ], t ≥ s beliebig und y dieLösung zu (8.93) zum Anfangswert x0 bei s, sei z die Lösung von (8.100) zum Endwert y0 bei t. NachBemerkungen 8.66, 6) gilt ⟨

y(t) . z(t)⟩= 〈y(s) . z(s)〉 , d. h.⟨

U(t, s)x0 . y0

⟩=

⟨x0 . V(s, t)y0

⟩,

woraus die Behauptung für diesen Fall folgt. Für t < s kann analog argumentiert werden.

�Betrachten wir den autonomen und homogenen Fall A oder B , so verändert die Index-bzw. Zeitverschiebung nicht die definierte Gleichung (siehe Bemerkungen 8.66, 4)), somitgilt:

U(t, s) = U(t − s, 0) =: U(t − s) ,U(m, k) = U(m − k, 0) =: U(m − k) .

(8.114)

Die Abbildungen

U :{N0 → Hom(Kn,Kn)m �→ U(m) bei A

bzw.

U :{R → Hom(Kn,Kn)t �→ U(t) bei B

haben folgende Eigenschaften:

Satz 8.71

1) Bei A gilt

U(0) = id ,

U(m + k) = U(m)U(k) = U(k)U(m) .

Ist A ∈ K(n,n) invertierbar, kann N0 durch Z in der Definition von U ersetzt werdenund es gilt

U(m)−1 = U(−m) für m ∈ Z .

2) Bei B gilt

Page 95: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 869

U(0) = id ,

U(t + s) = U(t)U(s) = U(s)U(t) ,

U(t)−1 = U(−t) .

Beweis:

Zu 2): U(t)U(s) = U(t, 0)U(s, 0) = U(t + s, s)U(s, 0) = U(t + s, 0) = U(t + s)nach (8.114), (8.112) und

U(−t)U(t) = U(−t, 0)U(t, 0) = U(0, t)U(t, 0) = U(0, 0) = id .

Der Beweis von 1) ist analog. �

Bemerkung 8.72 U bei B ist daher ein Gruppen-Homomorphismus von (R,+, 0) nach(Hom(Kn,Kn), ◦, id), und damit ist der Unterraum Bild U eine kommutative Gruppe be-züglich ◦. Bei A gilt unter der Voraussetzung, dass A invertierbar ist, das Analoge mit(Z,+, 0) statt (R,+, 0). Ohne diese Voraussetzung ist Bild U nur eine Halbgruppe. �Mit Hilfe der Übergangsoperatoren für C und D lassen sich auch Lösungen für dieinhomogenen Probleme C i und D i angeben. Diese setzen sich wegen des Superposi-tionsprinzip zusammen aus den Lösungen zu der Anfangsvorgabe bei homogener rechterSeite (x0, 0) bzw. (y0, 0) und aus Lösungen zu homogenen Anfangsvorgaben und beliebi-ger rechter Seite (0, (bk)k) bzw. (0, f ).

Hauptsatz 8.73: Variation der Konstanten

Eine Lösung für die inhomogenen Probleme lautet

für C i:

x(k) := U(k, 0)x0 +∑k

i=1 U(k, i)bi−1 für k ≥ 1 ,x(0) := x0 ,

(8.115)

für D i:

y(t) := U(t, t0)y0 +

∫ t

t0U(t, s) f (s)ds für t ∈ [t0, T ] . (8.116)

Dabei sind U(k, i) bzw. U(t, s) die Übergangsoperatoren für C nach (8.110) bzw.für D nach (8.111).

– Das Integral ist komponentenweise zu verstehen. –

Page 96: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

870 8 Einige Anwendungen der Linearen Algebra

Beweis: Zu C i: Es ist zu verifizieren, dass

z(k) :=

⎧⎪⎪⎨⎪⎪⎩∑k

i=1 U(k, i)bi−1 für k ≥ 10 für k = 0

eine Lösung von C izur rechten Seite (bk)k darstellt.

z(k+1) =

k+1∑i=1

U(k + 1, i)bi−1 =

k∑i=1

Ak+1U(k, i)bi−1 + U(k + 1, k + 1)bk

= Ak+1 z(k) + bk für k ∈ N0 .

Zu D i: Analog ist hier

z(t) =∫ t

t0U(t, s) f (s)ds (8.117)

zu betrachten. Es ist z(t0) = 0 und z(t) berechnet sich nach der Leibnizschen Regel (sieheAnalysis) als

z(t) =∫ t

t0

ddt

(U(t, s) f (s))ds + 1 · U(t, t) f (t) =∫ t

t0A(t)(U(t, s) f (s))ds + f (t)

= A(t)z(t) + f (t) für t ∈ [t0, T ] . �

Eine andere Bezeichnung für Lösungsansätze obigen Typs ist Prinzip von Duhamel20.

Bemerkungen 8.74

1) Konkretisiert für A i bzw. B i lauten die Lösungsdarstellungen:

x(k) = Ak x0 +

k∑i=1

Ak−ibi−1 für k ≥ 1 bzw.

y(k) = exp(A(t − t0))y0 +

∫ t

t0exp(A(t − s)) f (s)ds ,

wie schon in Beispiel 7.44, 2) erwähnt.

2) Es werden demnach für jedes i = 1, . . . , k bzw. s ∈ [t0, t] homogene Anfangswertauf-gaben mit den Anfangswerten bi−1 bzw. f (s) gelöst und diese diskret oder kontinuierlich„gemittelt“, und zwar durch die Operatoren

I :

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩Vd → Wd

(x(k))k �→⎧⎪⎪⎨⎪⎪⎩∑k

i=1 x(i−1) , k ≥ 10 , k = 0

20 Jean-Marie Constant Duhamel ∗5. Februar 1797 in Saint-Malo †29. April 1872 in Paris

Page 97: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 871

wobei Vd := (Kn)N0 und Wd :={(z(k))k ∈ Vd : z(0) = 0

}bzw.

I :⎧⎪⎨⎪⎩ Vk → Wk

f �→ ∫ tt0

f (s)ds

wobei Vk = C([t0, T ],Kn), Wk := {g ∈ C1([t0, T ],Kn) : g(t0) = 0}.Diese sind gerade die Umkehrabbildungen von

D :{

Wd → Vd

(y(k))k �→ (y(k+1) − y(k))kbzw. D :

{Wk → Vk

g �→ ddtg

(vergleiche Bemerkungen 7.13, 2)).

3) Mit (8.115) bzw. (8.116) lassen sich Lösungsdarstellungen von A bzw. B wiedergewinnen, die auf der Basis von Jordansche Normalformen von A bzw. exp(At) reinalgebraisch hergeleitet worden sind:Sei o. B. d. A. A ein Jordan-Block zum Eigenwert λ der Größe s:

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝λ 1

. . .. . .

. . . 1λ

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ∈ K(s,s) .

Betrachtet man statt y nach A die Komponenten in rückwärtiger Reihenfolge (d. h. in derOriginalreihenfolge der Kettenelemente: siehe Theorem 4.106), also

zi = ys−i+1, i = 1, . . . , s ,

so erfüllt z : [t0, T ]→ Kn

z(t) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝λ

1. . .

. . .. . .

1 λ

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ z(t) ,

also z1(t) = λz1(t) bzw. z1(t) = exp(λt)z1(t0), wobei t := t − t0.Ab i = 2 treten einseitig gekoppelte Gleichungen

zi(t) = λzi(t) + zi−1(t)

auf, die auch als inhomogene Probleme mit der (bekannten) rechten Seite zi−1 interpretiertwerden können, somit ergibt sich nach (8.116) etwa für i = 2

Page 98: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

872 8 Einige Anwendungen der Linearen Algebra

z2(t) = exp(λt)z2(t0) +∫ t

t0exp(λ(t − s))z1(s)ds

= exp(λt)(z2(t0) + tz1(t0))

und durch sukzessives Fortfahren

zk(t) = exp(λt)

⎛⎜⎜⎜⎜⎜⎜⎝ k∑i=1

1(k − i)!

tk−izi(t0)

⎞⎟⎟⎟⎟⎟⎟⎠ .

Dies entspricht einer aus (7.29) abgeleiteten bzw. der in (4.87) angegebenen Lösungsdar-stellung. Analog kann man bei A mit dem gleichen A nach (8.115) auch x(k) = Ak x(0)

berechnen: Werden die Komponenten analog zu oben in rückwärtiger Reihenfolge be-stimmt, d. h. z(k)

i := x(k)s−i+1, dann z(k+1)

1 = λz(k)1 bzw. z(k)

1 = λkz(0)1 und z(k+1)

2 = λz(k)2 + z(k)

1 .Nach (8.115) mit U(l, k) = λl−k gilt somit

z(k)2 = λkz(0)

2 +

k∑i=1

λk−iλi−1z(0)1 = kλk−1z(0)

1 + λkz(0)2 =

1∑i=0

(ki

)λk−iz(0)

i+1

und durch Fortführung dieser Überlegung

z(k)j =

j−1∑i=0

(ki

)λk−iz(0)

i+1, j = 1, . . . , s ,

entsprechend der aus (4.76) sich ergebenden Lösungsdarstellung. �

Bemerkungen 8.75 Eine Lösungsdarstellung für A bzw. B (und damit A i bzw. B i)kann auch aus der allgemeinen Kenntnis der Eigenwerte entwickelt werden, ohne die ge-samte Jordansche Normalform zu kennen. Dies kann im nichtdiagonalisierbaren Fallvon Vorteil sein. Ein solcher Zugang wurde von E. J. Putzer (Putzer 1966) angege-ben.

Seien λ1, . . . , λn ∈ C die nicht notwendigerweise paarweise verschiedenen Eigenwerte vonA. Sei M0 = 1, Mk := (A − λk1)Mk−1 für k = 1, . . . , n, dann ist Mn = χA(A) = 0 nach demSatz von Cayley-Hamilton (Theorem 4.81) und die Matrizen M1, . . . , Mn−1 singulärmit sukzessive größer werdenden Kernen.

1) Demnach ist es möglich exp(At) als eindeutige Linearkombination von M0, . . . , Mn−1darzustellen:

Page 99: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 873

exp(At) =n−1∑i=0

ui+1(t)Mi . (8.118)

Dabei sind die Koeffizientenfunktionen u = (u1, . . . , un)t als Lösung eines nur ein-seitig gekoppelten Problems des Typs B gegeben, d. h.

u(t) = Au(t), u(0) = e1 (8.119)

und

A :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝λ11 λ2

. . .. . .

1 λn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ . (8.120)

Genauer: Die Darstellung (8.118) mit u(0) = e1 gilt genau dann, wenn u eine Lösung von(8.119) mit (8.120) ist.Das kann man folgendermaßen einsehen:

„⇐“ Sei Y(t) :=∑n−1

i=0 ui+1(t)Mi, dann ist Y(0) = 1, so dass nur noch Y(t) = AY(t) für alle t ∈ R gezeigtwerden muss:

Y(t) =n−1∑i=0

ui+1(t)Mi

und andererseits

AY(t) =n−1∑i=0

ui+1(t)AMi =

n−1∑i=0

ui+1(t)(Mi+1 + λi+1 Mi) = λ1u1(t)M0 +

n∑i=1

ui(t)Mi +

n−1∑i=1

λi+1ui+1(t)Mi

=λ1u1(t)M0 +

n−1∑i=1

(ui(t) + λi+1ui+1(t))Mi

wegen Mn = 0. Nach Definition von u(t) gilt sodann Gleichheit.

„⇒“ Nach Voraussetzung ist u(0) = e1 und es ist Y(t) = AY(t). Vergleich der obigen Identitäten erzwingt

u1(t) = λ1u1(t)

ui+1(t) = ui(t) + λi+1ui+1(t), i = 1, . . . , n − 1 ,

also (8.120).

2)

Page 100: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

874 8 Einige Anwendungen der Linearen Algebra

In analoger Weise lässt sich Ak darstellen:

Ak =

n−1∑i=0

u(k)i+1Mi , u(0) = e1

genau dann, wenn

u(k+1) = Au(k) , u(0) = e1 (8.121)

mit A nach (8.120).

Der Beweis verläuft analog zu 1):

„⇐“ Sei Y(k) :=∑n−1

i=0 u(k)i+1 Mi, dann

Y(0) := 1 und Y(k+1) =

n−1∑i=0

u(k+1)i+1 Mi

und andererseits

AY(k) :=n−1∑i=0

u(k)i+1AMi =

n−1∑i=0

u(k)i+1(Mi+1 + λi+1 Mi) = λ1u(k)

1 M0 +

n−1∑i=1

(u(k)i + λi+1u(k)

i+1)Mi

und damit Gleichheit nach Definition von u(k), demzufolge Y(k) = Ak.

„⇒“ Die obigen Identitäten erzeugen durch Gleichsetzen die Gültigkeit von (8.121).

3) Die reduzierten Probleme in (8.119) bzw. (8.121) sind zwar auch im diagonalisierba-ren Fall nicht entkoppelt, doch können die Lösungskomponenten analog zu Bemerkun-gen 8.74, 3) mittels Hauptsatz 8.73 im Prinzip angegeben werden. So gilt für u nach(8.119)

u1(t) = exp(λ1t)

u2(t) =∫ t

0exp(λ2(t − s))u1(s)ds =

∫ t

0exp(λ2t) exp((λ1 − λ2)s)ds

= exp(λ2t)

⎧⎪⎪⎨⎪⎪⎩t für λ1 = λ21

λ1−λ2exp((λ1 − λ2)t) für λ1 � λ2

und im Prinzip lässt sich diese Lösungsdarstellung weiter entwickeln aus

ui(t) =∫ t

0exp(λi(t − s))ui−1(s)ds , i = 2, . . . , n .

Analog gilt für u(k) nach (8.121):

Page 101: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 875

u(k)1 = λk

1

u(k)i =

k∑j=1

λk− ji u( j−1)

i−1 , i = 2, . . . , n . �

8.6.2 Stabilität: Asymptotisches Verhalten für große Zeiten

Für C i bzw. D i soll im Folgenden das Verhalten von Lösungen für k → ∞ bzw. t → ∞studiert werden: Liegt Konvergenz vor, d. h.

x(k) → x∗ für k → ∞bzw. y(t)→ y∗ für t → ∞ ,

so folgt daraus für z(k) := x(k) − x∗ bzw. z(t) := y(t) − y∗

z(k) → 0 für k → ∞bzw. z(t)→ 0 für t→ ∞

und

z(k+1) = Ak+1 z(k) + bk mit bk := Ak+1x∗ − x∗ + bk → 0 für k → ∞bzw. z(t) = A(t)z(t) + f (t) mit f (t) = A(t)y∗ + f (t)→ 0 für t → ∞ .

Gilt zusätzlich

Ak+1 → A, bk → b für k → ∞bzw. A(t)→ A, f (t)→ f für t→ ∞ ,

(8.122)

so folgt

bk → b∗ := Ax∗ − x∗ + b = 0

bzw. f (t)→ f ∗ := Ay∗ + f = 0 .(8.123)

Für die letzte Identität beachte man

y(t) = A(t)y(t) + f (t) → Ay∗ + f =: y für t→ ∞und damit notwendigerweise y = 0.

Andererseits bezeichnet eine Gleichgewichtslösung eine (für große k bzw. t) konstanteLösung, d. h. für C i ein x∗, so dass

x∗ = Ak+1x∗ + bk für k ≥ k0

Page 102: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

876 8 Einige Anwendungen der Linearen Algebra

bzw. für D i ein y∗, so dass

A(t)y∗ + f (t) = 0 für t ≥ t0 .

Unter der Voraussetzung (8.122) gilt infolgedessen wie in (8.123)

bei C i x∗ = Ax∗ + b

bei D i 0 = Ay∗ + f .

Insbesondere im zeitunabhängigen Fall(

A i bzw. B i)

sind daher die Grenzwerte von

Lösungen notwendigerweise Gleichgewichtslösungen. Im homogenen Fall C bzw. D istdie Nulllösung eine Gleichgewichtslösung. Ob und wie eine Lösung gegen eine Gleichge-wichtslösung konvergiert, hängt vom Stabilitätsverhalten des Systems ab.

Definition 8.76

1) Das Problem C i heißt stabil in seiner Lösung(x(k)

)k

(oder auch(x(k)

)k

heißt

stabil), wenn zu ε > 0 ein δ > 0 existiert, so dass aus ‖x0 − x(0)‖ ≤ δ für dieLösung

(x(k)

)k

von C i zu x(0) = x0 folgt:

‖x(k) − x(k)‖ ≤ ε für alle k ∈ N0 .

2) Das Problem D i heißt stabil in einer Lösung y (oder auch y heißt stabil),wenn zu ε > 0 ein δ > 0 existiert, so dass aus ‖y0 − y(t0)‖ ≤ δ für die Lösungy zu y(t0) = y0 folgt:

‖y(t) − y(t)‖ ≤ ε für alle t ∈ [t0, T ] .

Ist C i[

D i]

in(x(k)

)k

[y] nicht stabil, so heißt es dort instabil.

Bemerkungen 8.77

1) Damit ist insbesondere die Stabilität (in) einer Gleichgwichtslösung definiert.Stabilität bedeutet in Worten, dass beliebig nah an einer vorgegebenen Lösung (für alleZeiten) verblieben werden kann, wenn man nur hinreichend nah an dieser startet.

2) Bei D i kann auch ein halbunendliches Intervall [t0,∞) betrachtet werden.

3) Die gewählte Vektornorm ‖ . ‖ hat keinen Einfluss wegen der Äquivalenz aller Normenauf Kn (siehe 7.10). �Im hier vorliegenden Fall gilt verschärfend:

Page 103: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 877

Theorem 8.78: Stabilität und Fundamentalsystem

Sei(x(k)

)k

[y] eine beliebige Lösung von C i[

D i], wobei die rechten Seiten

(bk)k [ f ] als fest vorgegeben angesehen werden. Die folgenden Aussagen sind fürC i bzw. D i äquivalent:

(i) C i[

D i]

ist stabil in(x(k)

)k

[y].

(ii) C i[

D i]

ist stabil in(x(k)

)k

[y], wobei x(k) die Lösung von

x(k+1) = Ak+1 x(k) + bk, x(0) = 0

bzw. y von (8.98) ist.

(iii) Sei Y(n)[Y(t)] das Fundamentalsystem von C[

D]

mit Y(0) = 1[Y(t0) =1], dann existiert ein M > 0, so dass

‖Y(n)‖ [‖Y(t)‖] ≤ M für alle n ∈ N0 [t ∈ [t0, T ]] ,

wobei ‖ . ‖ eine Norm auf K(n,n) ist.

Beweis: Der Begriff der Stabilität ist die explizite Forderung der Stetigkeit der Abbildung

Φ : D→ L, x(0) �→(x(k)

)k

[y0 �→ y] ,

wobei die rechte Seite (bk)k [ f ] als fest betrachtet wird, und zwar für D = (Kn, ‖ . ‖),L =

({(x(k)

)k∈ (Kn)N0 :

(x(k)

)k

ist beschränkt}, ‖ . ‖L

) [C([t0, T ],Kn), ‖ . ‖L)

]mit

‖(x(k)

)‖L := sup

{‖x(k)‖ : k ∈ N0

}[‖(y)‖L := sup{‖y(t)‖ : t ∈ [t0, T ]}] .

Dabei ist ‖ . ‖ die in der Definition benutzte Vektornorm. Da Φ affin-linear ist, reicht es denlinearen Anteil zu betrachten bzw. (bk)k = 0 [ f = 0] zu setzen. Der Beweis ergibt sich mitdieser Vorüberlegung sofort:

(i)⇒(ii): Theorem 7.4, (iii)⇒(iv)(ii)⇒(iii): Theorem 7.4, (iv)⇒(i) liefert die Beschränktheit des Lösungsoperators, der

im homogenen Fall dem Fundamentalsystem Y entspricht, d. h. die Existenz von M > 0,so dass für alle x ∈ D

sup{‖Y(n)x‖ : n ∈ N0} ≤ M‖x‖ ⇔ ‖Y(n)x‖ ≤ M‖x‖ für alle n ∈ N0

⇔ ‖Y(n)‖ ≤ M für alle n ∈ N0

Page 104: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

878 8 Einige Anwendungen der Linearen Algebra

für die erzeugte Norm ‖ . ‖ und analog

‖Y(t)‖ ≤ M für alle t ∈ [t0, T ] .

(iii)⇒(i): Theorem 7.4, (i)⇒(iii). �

Bemerkung 8.79 Im homogenen Fall C bzw. D ist x bzw. y in ii) die Nulllösung.Stabilität in einer beliebigen Lösung ist somit äquivalent mit Stabilität in der Nulllö-

sung, die auch Gleichgewichtslösung ist. �Im autonomen Fall ist folglich die Beschränktheit von

‖Ak‖ für alle k ∈ N0 bzw. ‖ exp(At)‖ für alle t ∈ [t0, T ]

durch Bedingungen an A zu charakterisieren. Das Erste ist schon in Bemerkung 7.35 ge-schehen, für das Zweite gilt:

Satz 8.80: Beschränktheit von exp(At)

Sei A ∈ K(n,n), seien λ1, . . . , λn ∈ C die Eigenwerte von A. Dann sind äquivalent:

(i) Es existiert M > 0, so dass ‖ exp(At)‖ ≤ M für alle t ≥ 0.

(ii) Re λi ≤ 0 für alle i = 1, . . . , n.Ist Re λi = 0, so ist λi halbeinfach.

Beweis: Da die Aussage von der Wahl der Norm unabhängig ist, kann diese wie im Be-weis von Theorem 7.32, 2) gewählt werden, d. h. o. B. d. A. seien A = J, die JordanscheNormalform, und ‖ . ‖ die Zeilensummennorm. Also reicht es einen Jordan-Block zu ei-nem festen Eigenwert λ = μ + iν zu betrachten (siehe (7.24)). Es gilt daher (7.28) und(7.29). Weiterhin sind die Matrixeinträge betragsmäßig vom Typ

| exp(iνt)| exp(μt)|p(t)| =: h(t) (8.124)

mit p ∈ Kk−1[x], wobei k die Größe des Jordan-Blocks darstellt.

(ii)⇒ (i): Ist μ < 0, so ist h(t) beschränkt. Ist μ = 0, dann ist k = 1 und damit h auchbeschränkt und damit z. B. die Zeilensummennorm in diesen Einträgen.

(i)⇒(ii): Ist eine Funktion vom Typ (8.124) für t ≥ 0 beschränkt, so kann nicht μ > 0 seinund im Fall μ = 0 muss p beschränkt sein, also k = 1 und damit λ halbeinfach. �

Also:

Hauptsatz 8.81: Stabilität im autonomen Fall

Sei A ∈ K(n,n), λ1, . . . , λn ∈ C die Eigenwerte von A.

Page 105: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 879

1) Das Problem A i ist stabil an einer beliebigen Lösung genau dann, wenn ρ(A) ≤1 und Eigenwerte von A mit |λ| = 1 halbeinfach sind.

2) Das Problem B i ist stabil an einer beliebigen Lösung genau dann, wenn Re λi ≤0 für alle i = 1, . . . , n und λi ist halbeinfach, falls Re λi = 0.

Beweis: 1): Theorem 8.78 und Bemerkung 7.35.2): Theorem 8.78 und Satz 8.80. �

Bemerkung 8.82 Können C i (falls die Ak invertierbar sind) bzw. D i nach Bemerkun-gen 8.66, 2) sowohl „vorwärts“ als auch „rückwärts“ betrachtet werden, so gibt es bei derStabilität einen gravierenden Unterschied. Im autonomen Fall gilt:

Bei A i: Richtungsumkehr bedeutet Wechsel von A zu A−1 bzw. bei den Eigenwertenvon λi zu λ−1

i , mithin:Ist A i in Vorwärtsrichung stabil und |λi| < 1 für einen Eigenwert λi, so ist A i in

Rückwärtsrichtung wegen ρ(A−1) > 1 instabil und vice versa.Nur wenn für alle Eigenwerte |λi| = 1 gilt, bleibt die Stabilität auch bei Richtungsum-

kehr erhalten.Bei B i: Richtungsumkehr bedeutet Wechsel von A zu −A bzw. bei den Eigenwerten

von λi zu −λi, damit:Ist B i stabil in Vorwärtsrichtung und Re λi < 0 für einen Eigenwert λi, so ist B i in

Rückwärtsrichtung instabil und vice versa.Nur wenn für alle Eigenwerte Re λi = 0 gilt, bleibt die Stabilität auch bei Richtungs-

umkehr erhalten. �Bemerkung 8.83 Ein Beispiel, bei dem eine Richtungsumkehr bei Beibehaltung der Sta-bilität möglich ist, ist das Differentialgleichungssystem 2. Ordnung (MM.96) unter derVoraussetzung A > 0, M > 0. Physikalisch entspricht das Modell einer ungedämpftenSchwingung. Genau gilt:

Ist A positiv definit, so sind nach Satz 7.47 alle Eigenwerte in der äquivalenten Formu-lierung 1. Ordnung ((MM.97), (MM.98)) rein imaginär und halbeinfach, so dass Stabilitätvorliegt. Dies bedeutet für die Massenkette mindestens einseitige Einspannung.

Ist A nur positiv semidefinit, so ist λ = 0 nicht halbeinfacher Eigenwert, d. h. es liegtkeine Stabilität vor, was auch sofort durch die unbeschränkte Lösung

x(t) = tu, für einen Eigenvektor u zu λ = 0

ersichtlich ist. Dies entspricht der Massenkette ohne Einspannung.Sobald „dissipative“ Prozesse (wie z. B. Reibung) hinzukommen, geht diese Eigen-

schaft verloren, das Modell wird aber stabiler in Vorwärtsrichtung, nämlich asymptotischstabil . Ein solches Modell, das physikalisch einem Diffusionsprozess entspricht, wird inBeispiel 3(12) besprochen. �Stabilität sichert nicht die Konvergenz gegen eine Gleichgewichtslösung, aber:

Page 106: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

880 8 Einige Anwendungen der Linearen Algebra

Definition 8.84

Sei x∗ ∈ Kn[y∗ ∈ Kn] eine Gleichgewichtslösung von C[

D].

1) Die Gleichgewichtslösung heißt anziehend, wenn es ein ρ > 0 gibt, so dassfür ‖x∗ − x0‖ ≤ ρ [‖y∗ − y0‖ ≤ ρ] gilt

x(k) → x∗ für k → ∞[y(t)→ y∗ für t→ ∞] ,

wobei(x(k)

)k

[y] die Lösung von C[

D]

zu x0 [y0] ist.2) Eine Gleichgewichtslösung heißt asymptotisch stabil , wenn sie stabil und an-

ziehend ist.

Theorem 8.85: anziehend im linearen Fall

Für C bzw. D sei Y(n) bzw. Y(t) das Fundamentalsystem mit Y(0) = 1 bzw.Y(t0) = 1. Dann sind äquivalent:

(i) Es gibt eine anziehende Gleichgewichtslösung x∗ ∈ Kn bzw. y∗ ∈ Kn.

(ii)

Y(n)→ 0 für n→ ∞ bzw.Y(t) → 0 für t → ∞ .

Bei Gültigkeit ist eine Gleichgewichtslösung eindeutig ( x∗ = 0 bzw. y∗ = 0) unddie Konvergenz ist global, d. h. für jedes x0 [y0] ∈ Kn.

Beweis: Wir betrachten C , der Beweis für D verläuft analog.(i)⇒(ii). Es gibt ein ρ > 0, so dass für x0 mit ‖x0 − x∗‖ ≤ ρ gilt:

Y(n)x0 → x∗ für n→ ∞ .

Wegen Y(n)x∗ = x∗ (für große n) ist dies äquivalent mit

Y(n)x→ 0 für n→ ∞ ,

wobei x = x0 − x∗ ∈ Bρ(0) beliebig gewählt werden kann und damit auch beliebig in Kn

wegen der Linearität von Y(n). Damit gilt etwa in einer erzeugten Norm und damit in jederNorm:

‖Y(n)‖ → 0 für n→ ∞ .

Page 107: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 881

(ii)⇒(i): Die obigen Argumente können umgekehrt werden: Sei x∗ eine beliebige Gleich-gewichtslösung:

‖Y(n)x0 − x∗‖ = ‖Y(n)(x0 − x∗)‖ ≤ ‖Y(n)‖ ‖x0 − x∗‖ → 0 für n→ ∞ .

Damit muss x∗ eindeutig sein und es liegt sogar globale Konvergenz für jedes x0 vor. �

Im autonomen Fall ist sodann

An → 0 für n→ ∞bzw. exp(At)→ 0 für t → ∞

zu charakterisieren. Das Erste ist in Hauptsatz 7.34 geschehen, das Zweite folgt inSatz 8.86.

Satz 8.86: Konvergenz von exp(At) gegen 0

Sei A ∈ K(n,n), seien λ1, . . . , λn ∈ C die Eigenwerte von A. Dann sind äquivalent:

(i) exp(At)→ 0 für t → ∞.

(ii) Re λi < 0 für alle i = 1, . . . , n.

Beweis: Da die Norm auf K(n,n) beliebig gewählt werden kann, ist der Beweis eine leichteModifikation des Beweises von Satz 8.80. Es ist folglich die Funktion h aus (8.124) zubeachten, und es reicht festzustellen, dass

h(t)→ 0 für t → ∞äquivalent ist mit μ < 0. �

Theorem 8.87: Asymptotische Stabilität im autonomen Fall

Seien A ∈ K(n,n) und λ1, . . . , λn ∈ C die Eigenwerte von A.

1) Die Nulllösung ist bei A asymptotisch stabil genau dann, wenn ρ(A) < 1.

2) Die Nulllösung ist bei B asymptotisch stabil genau dann, wenn Re λi < 0 füralle i = 1, . . . , n.

Beweis: Hauptsatz 8.81, Theorem 8.85 und bei 1) Hauptsatz 7.34, bei 2) Satz 8.86. �

Bemerkung 8.88 Eine typische asymptotisch stabile Gleichung ist also vom Typ

Page 108: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

882 8 Einige Anwendungen der Linearen Algebra

y(t) + By(t) = 0 für t ≥ t0y(t0) = y0 ,

wobei B > 0 gilt. Nach Bemerkungen 4.137, 3) gilt dies auch für die Verallgemeinerung

My(t) + By(t) = 0 für t ≥ t0y(t0) = y0 ,

wenn B > 0, M > 0. Ein solcher Fall wurde in Beispiel 3(9) besprochen. �Stabilität wurde als (Lipschitz-)stetige Abhängigkeit der Lösung von Daten eingeführt.Weitere Verschärfungen für C i werden z. B. in Elaydi 2005, S. 173 ff. untersucht, etwa:

Definition 8.89

In der Situation von Definition 8.76 spricht man von exponentieller Stabilität , wennM > 0, η ∈ (0, 1) existieren, so dass die Abschätzung

‖x(k) − x(k)‖ ≤ M‖x(0) − x(0)‖ηk

bei C i bzw.

‖y(t) − y(t)‖ ≤ M‖y0 − y(t0)‖ηt−t0

bei D i gilt.

Für den autonomen Fall ergibt sich recht direkt:

Satz 8.90: Exponentielle Stabilität im lineraren Fall

Seien A ∈ K(n,n) und λ1, . . . , λn ∈ C die Eigenwerte von A.

1) Die Nulllösung bei A ist asymptotisch stabil genau dann, wenn sie exponentiellstabil ist, wobei dann M = 1, η ∈ (ρ(A), 1) gewählt werden kann.

2) Die Nulllösung bei B ist asymptotisch stabil genau dann, wenn sie exponentiellstabil ist, wobei dann M = 1, η = exp(ξ) mit ξ ∈

(maxn

i=1 Re λi, 0)

gewählt werdenkann.

Beweis: Es reicht jeweils der Nachweis der stärkeren exponentiellen Stabilität.Bei 1) existiert nach Theorem 7.32, 2) zu η eine erzeugte Norm ‖ . ‖, so dass gilt

‖A‖ ≤ η

Page 109: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 883

und damit

‖An‖ ≤ ‖A‖n ≤ ηn .

Bei 2) existiert nach Bemerkung 8.91 eine erzeugte Norm, so dass

‖ exp(At)‖ ≤ exp(ξt) = exp(ξ)t . �

Bemerkung 8.91 Wendet man Theorem 7.32, 2) auf exp(A) an, erhält man nur

‖ exp(A)‖ ≤ exp(‖A‖) ≤ exp(ρ(A) + ε) ,

d. h. die Tatsache | exp(iν)| = 1 für die Imaginärteile der Eigenwerte geht verloren.Übertragung des dortigen Beweises liefert verschärfend: Zu ε > 0 gibt es eine erzeugte

Norm ‖ . ‖, so dass

‖ exp(A)‖ ≤ exp(

nmax

i=1Re λi + ε

),

wobei λ1, . . . , λn die Eigenwerte von A seien.In der Notation des Beweises von Theorem 7.32, 2) gilt

exp(A) = C exp(J)C−1 und damit ‖ exp(A)‖′′ = ‖ exp(J)‖′ = ‖ exp(D + N)‖′

= ‖ exp(D) exp(N)‖′ ≤ ‖ exp(D)‖′ ‖ exp(N)‖′ ≤ nmax

i=1

(| exp(i Im λi)| exp(Re λi)) exp(‖N‖′)und damit mit ‖N‖′ ≤ ε die Behauptung.

�Betrachten wir A i bzw. B i im Spezialfall einer konstanten Inhomogenität, d. h.

A i x(k+1) = Ax(k) + b, k ∈ N0 ,

B i y(t) = Ay(t) + f , t ≥ t0 .

Eine Gleichgewichtslösung x∗ bzw. y∗ von A i bzw. B i ist asymptotisch stabil genaudann, wenn die Nulllösung eine asymptotisch stabile Gleichgewichtslösung von A bzw.B ist. Daher sind dann nach Theorem 8.87 1 − A bzw. A invertierbar und so ist die

Gleichgewichtslösung eindeutig bestimmt durch

A i x∗ = Ax∗ + b ,

B i 0 = Ay∗ + f .

Nach Theorem 8.78 und Theorem 8.87

x(k) → x∗ für k → ∞bzw. y(t)→ y∗ für t → ∞

Page 110: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

884 8 Einige Anwendungen der Linearen Algebra

für beliebige Startwerte x(0)[y0]. Es liegt deshalb (im Sinne von Definition 8.19) globaleKonvergenz vor in der Form, dass der Grenzwert vom Anfangswert unabhängig ist.

Wir fragen, ob noch andere Formen von globaler Konvergenz existieren, d. h. Situatio-nen, in denen auch

(x(k)

)k

bzw. y(t) für k → ∞ [t → ∞] und beliebige Startwerte x(0)

[y0] konvergieren, der Grenzwert aber davon abhängt. Da der Grenzwert notwendigerwei-se Gleichgewichtslösung ist, muss somit (1 − A)x∗ = b bzw. Ay∗ = f lösbar sein, abernicht eindeutig, daher muss also bei A i 1 Eigenwert von A bzw. bei B i 0 Eigenwert vonA sein. Andererseits muss A bzw. B beschränkt sein.

Theorem 8.92: Globale Konvergenz im linearen Fall

Sei A ∈ K(n,n), b, f ∈ Kn. Die LGS x + Ax = b bei A i bzw. Ay = f bei B i seienlösbar. Dann sind äquivalent:Bei A i:

(i) Die Lösungen sind bei beliebigem Startvektor x(0) konvergent für k → ∞.

(ii) ρ(A) ≤ 1 und ist λ ein Eigenwert von A mit |λ| = 1, dann gilt λ = 1 und λ isthalbeinfach.

Bei B i:

(i) Die Lösungen sind bei beliebigem Startvektor y0 konvergent für t → ∞.

(ii) Re(λ) ≤ 0 für jeden Eigenwert λ von A und ist Re(λ) = 0, dann λ = 0 und λist halbeinfach.

Beweis: Wir betrachten B i, der Beweis für A i ist analog. Sei y ∈ Kn eine fest gewählteLösung von Ay = f .

i)⇒ii): Sei x ∈ Kn beliebig und y die Lösung von B i zu y(t0) = x + y. Nach Vorausset-zung gilt

y(t)→ y∗ für t → ∞ und ein y∗ ∈ Kn

und damit y(t) := y(t) − y→ y∗ − y. y ist eine Lösung von A , d. h.

y(t) = exp(A(t − t0))y(t0) = exp(A(t − t0))x

und dies für beliebiges x ∈ Kn, also

exp(At)→ B für t→ ∞ und ein B ∈ K(n,n) .

Insbesondere ist deswegen exp(At) beschränkt für t ≥ 0 und damit folgt die Behauptungaus Satz 8.86, noch mit der Möglichkeit, dass außer λ = 0 weitere halbeinfache Eigenwerteλ = iν, ν ∈ R, existieren könnten. Nach Beispiel 7.44, 4) gilt auch für jeden (reellen)Jordan-Block J

Page 111: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 885

exp(Jt) konvergiert für t → ∞ ,

was bei J = iν1 nach (7.26) zum Widerspruch führen würde.ii)⇒i): Sei y0 ∈ Rn beliebig und y die Lösung zu B i dazu, also ist y(t) := y(t) − y eineLösung von B zu y(t0) = y0 − y =: y0. Sei E der Eigenraum von A zu λ = 0, sei H dieSumme der zu den übrigen Eigenwerten, die folglich alle Re(λ) < 0 erfüllen, gehörigenHaupträume. Sei y0 = u + x die eindeutige Darstellung in Kn = E ⊕ H. Die Räume E undH sind A-invariant und damit auch exp(At)-invariant für alle t ≥ 0 (siehe (7.24)). NachSatz 8.86 gilt aus diesem Grund

exp(At)x→ 0 für t → ∞und

exp(At)u = exp(λt)u = u ,

also

y(t) = exp(A(t − t0)y0 → uund so

y(t) = y(t) + y→ u + y für t→ ∞. �

Bemerkung 8.93 Ist nun bei B i E := Kern1−A bzw. bei A i E := Kern A nicht trivial,so ist der Grenzwert vom Startvektor abhängig. Ist bei beliebiger Gleichgewichtslösung y[x] der eindeutige Anteil von y0 − y [x0 − x] mit u bezeichnet, so ist

u + y [u + x]

der Grenzwert, der nicht von der Wahl von y [x] abhängt. Ist P die durch die Zerlegungdefinierte Projektion von Kn auf E, ist daher der Grenzwert

y∗ = Py0 + y − Py für B i,

d. h. es wird das eindeutig bestimmte y∗ ∈ E, für das

Py∗ = Py0

gilt, als Grenzwert ausgewählt[analog für A i

]. �

Bemerkung 8.94 Eine typische asymptotisch stabile Gleichung ist also eine Gleichungder Art

My(t) + By(t) = 0 für t ≥ t0 , ,

y(t0) = y0 ,

Page 112: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

886 8 Einige Anwendungen der Linearen Algebra

wobei M > 0, B > 0 gilt (siehe Bemerkungen 4.137, 3). Ein solcher Fall wird in Beispiel3(12) besprochen. Ist nur B ≥ 0, so liegt nicht nur Stabilität vor, sondern auch globaleKonvergenz nach Theorem 8.92. �Im Folgenden sollen für die autonomen Fälle A bzw. B in zwei Variablen (n = 2)anhand der Eigenwerte von A alle Möglichkeiten aufgezeigt werden. Sei nunmehr A ∈R(2,2), die komplexen Eigenwerte seien mit λ1, λ2 bezeichnet:

Das jeweilige (In)Stabilitätsverhalten in der Gleichgewichtslösung x∗ = (0, 0)t wird

durch ein Phasendiagramm dargestellt, d. h. durch eine Darstellung von(x(k)

1 , x(k)2

)tbzw.

(y1(t), y2(t))t in der kartesischen Ebene, parametrisiert durch k bzw. t. Wie schnell die da-durch aufgezeigten Trajektorien durchlaufen werden ist mithin aus der Darstellung nichtersichtlich. Die Richtung, mit der die Lösung für wachsende k bzw. t durchlaufen wird,wird durch Pfeile angedeutet. Richtungs(Pfeil-)umkehr entspricht somit bei A (wennmöglich, d. h. λi � 0) Wechsel von λi zu 1

λi, bei B allgemein Wechsel von λi zu −λi.

Es wird im Folgenden die Lösung nicht in den Originalkoordinaten (x1, x2) bzw. (y1, y2),sondern in denen einer Hauptvektorbasis dargestellt, in der A Jordansche Normalformhat (ohne Wechsel der Bezeichnung). Die entsprechende Rücktransformation ist dann dennachfolgenden Abbildungen noch zu überlagern (siehe Abbildung 8.7).

Für die Differenzengleichung A liegt asymptotische Stabilität genau für den Fall

x1

x2

x1

x2

a) b)

Abb. 8.7: Asymptotisches Verhalten in a) transformierten und b) ursprünglichen Koordi-naten.

|λ1|, |λ2| < 1 vor. Parametrisiert man bei 0 < λ1 < 1 die (transformierte) Lösung mitλk

1 =: tk, d. h.

Page 113: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 887

x1

x2

(a) 0 < λ1 < λ2 < 1,Pfeilumkehr für λ1 > λ2 > 1

x1

x2

(b) −1 < λ1 < λ2 < 0,Pfeilumkehr für λ2 < λ1 < −1

x1

x2

(c) −1 < λ1 < 0 < λ2 < 1,λ2/λ1 > −1,Pfeilumkehr für λ1 < −1,λ2 > 1, λ2/λ1 < −1

x1

x2

(d) −1 < λ1 < 0 < λ2 < 1, λ2/λ1 < −1,Pfeilumkehr für λ2/λ1 > −1

Abb. 8.8: Asymptotische Stabilität bei A bei reellen Eigenwerten, A diagonalisierbar.

xk1 = x0

1tn, xk2 = x0

2

(λ2

λ1

)k

tk ,

so konvergiert die x2-Komponente bei λ := λ2/λ1 > 1 entsprechend lansam gegen 0.Analog ergeben sich die weiteren Fälle in Abbildung 8.8. Die Pfeile sind in wachsenderGröße zu lesen.

Im nicht diagonalisierbaren Fall, gilt für die Jordansche Normalform

J =(λ 10 λ

), d. h. Jk =

(λk kλk−1

0 λk

)für k ∈ N nach (4.75) .

Page 114: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

888 8 Einige Anwendungen der Linearen Algebra

x1

x2

(e) 0 < λ1 = λ2 < 1,Pfeilumkehr für λ1 = λ2, λi > 1

x1

x2

(f) −1 < λ1 = λ2 < 0,Pfeilumkehr für λ1 = λ2, λi < −1

x1

x2

(g) λ1 = λ2 = 0

Abb. 8.8: Asymptotische Stabilität bei A bei reellen Eigenwerten, A diagonalisierbar.

Parametrisiert man die (transformierte) Lösung mit tn = λn, so lautet die Lösung:

xk1 = x0

1tk, xk2 = x0

1tk + kx02t

k−1k

k ,

d. h. es ergibt sich Abbildung 8.9.

Den Fall komplexer Eigenwerte zeigt Abbildung 8.10. Die stabilen, aber nicht asympto-tisch stabilen Fälle sind in Abbildung 8.11 und schließlich die (in beiden Zeitrichtungen)instabilen Fälle in Abbildung 8.12 dargestellt. Hier spricht man von einem Sattelpunkt .

Man beachte bei Abbildung 8.11 a), dass durchaus (startwertunabhängige) Konvergenzgegen eine Gleichgewichtslösung, d. h. einen Eigenwert von A zu λ = 1, stattfindet, aberi. Allg. nicht gegen (0, 0)t.

Page 115: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 889

x1

x2

x1

x2

(a) 0 < λ < 1 (b) −1 < λ < 0Pfeilumkehr bei λ > 1 λ < 1

Abb. 8.9: Asymptotische Stabilität bei A im nicht diagonalisierbaren Fall.

x1

x2

Abb. 8.10: Asymptotische Stabilität bei A bei echt komplexen Eigenwerten, |λi| < 1,Pfeilumkehr für |λi| > 1.

Für die Differentialgleichung B ist die Stabilitätsklassifikation völlig analog, wobei jetztdie gestrichelten Linien den Trajektorien entsprechen, die aber nun exponentiell in derZeit t durchlaufen werden. Anstelle von λi bestimmt Re λi das Stabilitätsverhalten und dieBedingung |λi| � 1 ist durch Re λi � 0 zu ersetzen.

Page 116: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

890 8 Einige Anwendungen der Linearen Algebra

x1

x2

x1

x2

(a) 0 < λ1 < λ2 = 1 (b) λ1 ∈ C\R, λ2 = λ1, |λi | = 1, Im λ1 > 0Umkehrung für 1 = λ2 < λ1 Umkehrung für Im λ1 < 0

Abb. 8.11: Stabilität bei A .

x1

x2

0 < λ1 < 1 < λ2, Umkehrung für λ2 < 1 < λ1

Abb. 8.12: Instabilität (in beide Richtungen) bei A .

Asymptotische Stabilität liegt also vor bei: Pfeilumkehr bei:λ1 < λ2 < 0: siehe Abb. 8.8, a); 0 < λ2 < λ1

λ1 = λ2 < 0: siehe Abb. 8.8, e) (diagonalisierbarer Fall); λ1 = λ2 > 0siehe Abb. 8.9, a) (nicht diagonalisierbarer Fall);

λi ∈ C\R, Reλi < 0, Imλi > 0: siehe Abb. 8.10; Im λi < 0 .

Page 117: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 891

Sattelpunktverhalten liegt vor bei; Pfeilumkehr beiλ1 < 0 < λ2: siehe Abb. 8.12; λ2 < 0 < λ1 .

Stabilität liegt vor bei; Pfeilumkehr beiλi ∈ C\R, Reλi = 0, Imλi > 0: siehe Abb. 8.11 b); Im λi < 0 .

Mehr Informationen, insbesondere auch zu nichtlinearen Differential- und Differenzen-gleichungen finden sich in den einschlägigen Lehrbüchern, von denen exemplarischAmann 1995 und Elaydi 2005 genannt seien.

8.6.3 Approximation kontinuierlicherdurch diskrete dynamische Systeme

In (4.25), (4.26) ist mit dem expliziten Euler-Verfahren eine erste Approximation einergewöhnlichen Differentialgleichung 1. Ordnung durch eine Differenzengleichung 1. Ord-nung angegeben worden. Diese und Alternativen bzw. die gleiche Konstellation für dieOrdnung 2 sollen im Folgenden untersucht werden. Eingangs soll aber noch das Spektrumder (physikalischen) Modelle erweitert werden.

Beispiel 3(12) – Jenseits der Massenkette: Stofftransport durch Diffusion

Ein zu (MM.96) scheinbar sehr ähnliches Modell ergibt sich, wenn bei gleichen Voraussetzungen undBeispielen für die Matrizen M und A die analoge Anfangswertaufgabe für eine gewöhnliche Differential-gleichung 1. Ordnung betrachtet wird:

Gesucht ist x : [t0,∞)→ Rm, so dassM x(t) + Ax(t) = f (t) für t ≥ t0,

und x(t0) = x0.(MM.106)

Ein solches Problem entsteht, wenn man dem in Beispiel 3 bzw. allgemeiner in Abschnitt 1.6 entwickeltenModell eine andere physikalische Bedeutung gibt. Dazu werden Knoten

x0 < x1 < . . . < xn−1 < xn

betrachtet und das dadurch definierte Intervall [x0, xn] und seine Zerlegung Δ (siehe Definition 1.29). Injedem Knoten denken wir uns die Masse eines Stoffes mit Konzentration ui, i = 0, . . . , n. Eine (sekundäre)Zerlegung Δ von [x0, xn] sei definiert durch

F0 := [x0 , x 12), Fi := [xi− 1

2, xi+ 1

2) für i = 1, . . . , n − 1, Fn := [xn− 1

2, xn],

wobei xi+ 12

:= 12 (xi + xi+1) für i = 0, . . . , n − 1, siehe Abbildung 8.13. Seien (analog zu (1.35)) hi :=

xi − xi−1, i = 1, . . . , n die Schrittweiten in der Zerlegung und hi die Länge von Fi, gegeben durch

h0 :=12

h1, hi =12

(hi + hi+1), i = 1, . . . , n − 1, hn =12

hn. (MM.107)

Die „Kontrollelemente“ Fi können als mit einer Substanz angefüllte Behältnisse (Compartments) ange-sehen werden, deren (konstante) Konzentration ui ist. Der Vektor u spielt hier die gleiche Rolle wie dieAuslenkung x bei der Massenkette. Das hier für das Modell wesentliche Erhaltungsprinzip ist die Er-haltung der Masse. Dies bedeutet, dass bei der „Übergabe“ von Fi zu einem benachbarten Compartmentkeine Masse verloren geht oder entsteht. Dies kann mit Hilfe des Massenflusses qi, i = 0, 1

2 , . . . , n − 12 , n,

formuliert werden, der daher an den Eckpunkten der Fi definiert ist (und der Kraft y bei der Massenkette

Page 118: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

892 8 Einige Anwendungen der Linearen Algebra

entspricht). qi > 0 bedeutet Fluss von links nach rechts und vice versa. Betrachtet man das CompartmentFi, i = 1, . . . , n − 1, so fließt bei xi− 1

2der Fluss qi− 1

2in Fi hinzu und bei xi+ 1

2der Fluss qi+ 1

2aus Fi her-

aus. Um eine stationäre Konzentrationsverteilung zu erreichen, müssen sich diese Flüsse kompensierenoder aber es muss eine (konstante) Quelldichte fi vorhanden sein, die für den Überschuss oder Verlustverantwortlich ist, d. h. die Massenbilanz in Fi lautet

qi+ 12− qi− 1

2= fihi, i = 1, . . . , n − 1. (MM.108)

Hier geht man davon aus, dass fi > 0 eine Quelle und fi < 0 eine Senke beschreibt, da die linke Seite derGleichung je nach Vorzeichen den Verlust oder Gewinn durch den Nettoabfluss über die Randpunkte vonFi beschreibt. Das zum Hookeschen Gesetz analoge Gesetz ist das Ficksche21 Gesetz und besagt, dassder Massenfluss proportional zum Konzentrationsgefälle ist. Also

q := (q 12, . . . , qn− 1

2)t, q = Cg, (MM.109)

wobei C = diag(ci+ 12), ci+ 1

2> 0, i = 0, . . . , n − 1, die Matrix aus den Diffusionskoeffizienten darstellt und

g = (g 12, . . . , gn− 1

2)t also durch

gi+ 12= − 1

hi+1(ui+1 − ui), i = 0, . . . , n − 1 (MM.110)

gegeben ist. (Dies ist exakt, wenn man den ui die Interpolierende in S 1(Δ) zuordnet.) Durch Einsetzenerhält man aus (MM.108) n−1 lineare Gleichungen für die Unbekannten u0, . . . , un, die mithin noch durchRandbedingungen um zwei Gleichungen zu ergänzen sind. In den Randpunkten a := x0 und b := xn kanndie Konzentration (Dirichlet22-Randbedingung) oder auch der Massenfluss (aus dem Intervall heraus)(Fluss-Randbedingung) vorgegeben werden:

Die Dirichlet-Randbedingung lautet

bei x = a : u0 = ua,

bei x = b : un = ub

für gegebene ua, ub ∈ R.(MM.110) wird zu

F0 F1 Fn−1 Fn

x0 x1 xn−2 xn−1 xn

x 12

x 32

xn− 32

xn− 12

x2

Abb. 8.13: Zerlegung und sekundäre Zerlegung.

21 Adolf Eugen Fick ∗3. September 1829 in Kassel †21. August 1901 in Blankenberge22 Johann Peter Gustav Lejeune Dirichlet ∗13. Februar 1805 in Düren †5. Mai 1859 in Göttingen

Page 119: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 893

g 12= − 1

h1u1 +

1h1

ua,

gi+ 12= − 1

hi+1(ui+1 − ui), i = 1, . . . , n − 2,

gn− 12=

1hn

un−1 − 1hn

ub.

Hierdurch reduzieren sich die Unbekannten auf u1 , . . . , un−1 und das entstehende LGS ist quadratisch. Umdessen Struktur besser einzusehen, beschränken wir uns auf den Fall einer äquidistanten Zerlegung, d. h.

hi = h, i = 1, . . . , n, hi = h, i = 1, . . . , n − 1, h0 = hn =h2,

wobei h := (xn−x0 )n . (MM.110) lässt sich dann unter Beachtung der Dirichlet-Randbedingungen für

u = (u1 , . . . , un−1)t schreiben als

g = −1h

Bu +1h

uD,

wobei uD = (ua , 0, . . . , 0,−ub)t und B ∈ R(n,n−1) der Matrix B aus (MM.35) entspricht. Analog schreibtsich (MM.108) als

−Bt q = h f ,

demnach folgt zusammen mit (MM.109)

BtCBu = f := h2 f + BtCuD (MM.111)

und somit genau die Gestalt (MM.41).Die homogene Dirichlet-Bedingung (ua = ub = 0) entspricht damit der Einspannung der Massen-

kette. Man spricht auch von der stationären (diskreten) Diffusionsgleichung.Die Fluss-Randbedingung lautet

bei x = a : − q0 = qa,

bei x = b : qn = qb

für gegebene qa, qb ∈ R.Mit der Massenbilanz (MM.108) in F0 bzw. in Fn, d. h.

q 12− q0 = f0h0 und qn − qn− 1

2= fnhn ,

erhält man

q 12= f0h0 − qa, (MM.112)

−qi− 12+ qi+ 1

2= fihi, i = 1, . . . , n − 1,

−qn− 12= fnhn − qb.

Aus diesen n + 1 Gleichungen entsteht durch Einsetzen von (MM.109) und (MM.110) ein quadratischesLGS für u0, . . . , un. Im äquidistanten Fall lässt sich (MM.112) schreiben als

−Bt q = h f − qF ,

wobei qF := (qa , 0, . . . , 0, qb)t, f := ( 12 f0, f1, . . . , fn−1,

12 fn)t und B ∈ R(n,n+1) definiert ist durch

Page 120: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

894 8 Einige Anwendungen der Linearen Algebra

B =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

−1 1. . .

. . .

. . .. . .

−1 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠. (MM.113)

Aus (MM.110) folgt

g = −1h

Bu,

daher

BtCBu = f := h2 f − hqF . (MM.114)

Für C = 1 ist die Systemmatrix, d. h. BtB, die Matrix A aus (MM.15), d. h. die Vorgabe des Flus-ses an beiden Rändern entspricht bei der Massenkette der Freigabe beider Einspannungen und führtnach (MM.15) ff. bzw. allgemeiner Satz 2.72 zu einer Matrix mit eindimensionalen Kern, für die dann(MM.114) nicht eindeutig lösbar ist.

Analog führt etwa die Dirichlet-Vorgabe bei x0 und die Flussvorgabe bei xn zu einem der einseitigenEinspannung analogen LGS, d. h. (bei äquidistanter Zerlegung) zu einem B wie in (MM.36).

Wird kein stationärer Zustand, sondern eine zeitliche Entwicklung der Konzentrationswerte betrachtet,so ist für t0, T ∈ R, t0 < T eine Funktion

u : [t0, T ]→ Rm

gesucht (m = n − 1, n + 1, n, je nach Randbedingung). Da dann ui je nach Vorzeichen als Senke oderQuelle(ndichte) interpretiert werden kann, ist also in (MM.108) h fi durch h( fi − ui) zu ersetzen (wenn dieKonzentration als konstant für Fi angenommen wird). Mit dieser Modifikation und aus (MM.111) bzw.(MM.114) ergibt sich:

h2u(t) + BtCBu(t) = f , (MM.115)

d. h. ein lineares Differentialgleichungssystem 1. Ordnung, das mit der Vorgabe

u(t0) = u0

eine Anfangswertaufgabe ergibt.Man spricht auch von der instationären (diskreten) Diffusionsgleichung. Da Quellendichte f und Rand-

bedingungen zusammen die rechte Seite in (MM.115) bilden, kann bei zeitabhängigem f auch die Rand-vorgabe zeitabhängig sein (d. h. ua = ua(t) etc.), ohne dass sich der Charakter von (MM.115) ändert. �

Beispiel 3(12): Diffusionsproblem Hier soll das asymptotische Verhalten für t → ∞ bei (MM.115) un-tersucht werden. Zur Vereinfachung sei eine äquidistante Zerlegung vorausgesetzt. Sei

M := h21, A := BtCB, mit C = diag(ci+ 12), ci+ 1

2> 0.

Sei f (t) = f für t ≥ t0. Bei Dirichlet-Randbedingungen ist B durch (MM.35) gegeben und damit ist

A > 0, M−1A > 0

nach Bemerkungen 4.137, 3).Das „stationäre“ Problem

Au∗ = f

Page 121: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 895

ist somit eindeutig lösbar und nach Theorem 8.85 und Theorem 8.87 ist die Gleichgewichtslösung u∗asymptotisch stabil (man beachte den Vorzeichenwechsel in der Systemmatrix A zwischen der Formulie-rung (MM.106) und Problem B i(8.95)) und damit für beliebiges u0:

u(t) → u∗ für t →∞ ,

und zwar exponentiell nach Satz 8.90,2). Die stationäre Lösung existiert immer und „vergibt“ die An-fangsvorgabe u(t0), was physikalisch gerade der „Offenheit“ des Systems entspricht.

Bei einer Fluss-Randbedingung ist B durch (MM.113) gegeben und damit nach Bemerkungen 4.137,3)

A ≥ 0 , M−1A ≥ 0 ,

aber Kern A = Kern B = span(1) nach Satz 2.67,1). Daher ist das stationäre Problem genau dann lösbar,wenn

f ∈ Kern(At)⊥ = Kern(A)⊥ ,

alson+1∑i=1

fi = 0 bzw. h

⎛⎜⎜⎜⎜⎜⎝12

f0 +

n∑i=1

fi +12

fn+1

⎞⎟⎟⎟⎟⎟⎠ = qa + qb.

Dies besagt, dass sich ein stationärer Zustand einstellen kann genau dann, wenn sich die verteilten Zuflüssedurch die Quelldichte f mit den Randzuflüssen q kompensieren. Im Fall der Lösbarkeit unterscheiden sichstationäre Lösungen in einer Konstante. Nach Theorem 8.92 konvergiert für beliebiges u0

u(t)→ u∗ für t→ ∞und der Beweis zeigt, dass die Konvergenz auch hier exponentiell ist. Es wird die stationäre Lösung u∗ausgewählt, für die

n∑i=0

u∗i =n∑

i=0

u0,i, (MM.116)

die daher in diesem Sinn die gleiche Masse wie die Anfangsvorgabe hat.Dies ergibt sich aus Bemerkung 8.93: A ist diagonalisierbar und die Eigenräume sind orthogonal (nach

Satz 4.65, 6)), sodass die Projektion P auf Kern A, den Eigenraum zu λ = 0, orthogonal ist (siehe Bemer-kungen 4.61) und damit

Pu =

(∑ni=0 ui

)n + 1

1 für u ∈ Rn+1.

Die Bedingung (MM.116) ist also nur die Konkretisierung von

Pu∗ = Pu0.

Physikalisch entspricht die beschriebene Situation der „Abgeschlossenheit“ des Systems. �

Im Folgenden wird wegen der Beispiele 2 und 3 die Formulierung (MM.106) verwendet.Dabei sei M als positiv definit vorausgesetzt:

M ∈ R(m,m), M > 0.

Man beachte den Vorzeichenwechsel im Term Ax(t) gegenüber (4.24) und der gesam-ten Behandlung gewöhnlicher Differentialgleichungen einschließlich der Abschnitte 8.6.1,8.6.2. Das explizite Euler-Verfahren angewendet auf (MM.106) ist analog zu (4.25),

Page 122: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

896 8 Einige Anwendungen der Linearen Algebra

(4.26) das Differenzenverfahren x(0) = x0 und

M1Δt

(x(k+1) − x(k)

)+ Ax(k) = f (tk), k ∈ N, bzw.

x(k+1) = AEEx(k) + g(k) , (8.125)

wobei g(k) := ΔtM−1 f (tk) und AEE := 1 − ΔtM−1A. Im üblichen Fall, dass M eine Diago-nalmatrix ist, erscheint dieses Verfahren insofern attraktiv, als dass für einen Schritt von(8.125) als wesentlichen Anteil nur ein Matrix-Vektor-Produkt mit einer bekannten Matrixnötig ist (daher die Benennung als „explizit“).

Eine Alternative zum expliziten Euler-Verfahren ist das implizite Euler-Verfahren,bei dem anders als in (4.25) der Differenzenquotient als rückwärtsgenommen interpretiertwird, d. h.

1Δt

(x(tk+1) − x(tk)) ≈ x(tk+1),

so dass also die zu (MM.106) approximierende Differenzengleichung lautet:

M1Δt

(x(k+1) − x(k)

)+ Ax(k+1) = f (tk+1), k ∈ N, bzw.

x(k+1) = AIEx(k) + g(k+1), (8.126)

wobei g(k+1) := (M + ΔtA)−1 Δt f (tk+1) und AIE :=(1 + ΔtM−1A

)−1. Wie üblich sollte man

hier nicht die inverse Matrix berechnen, sondern x(k+1) durch Lösen eines LGS bestimmen,etwa von

(M + ΔtA) z(k) = Δt(−Ax(k) + f (tk+1)

),

um dann x(k+1) := x(k) + z(k)

zu setzen. Der Aufwand ist hier folglich höher als bei (8.125), da x(k+1) nur „implizit“gegeben ist, obwohl sich dies dadurch relativiert, dass (wegen der konstanten Zeitschritt-weite Δt) einmalig eine LR-Zerlegung von M + ΔtA berechnet werden kann, so dass dannfür jeden Iterationsschritt nur eine Vorwärts- und Rückwärtssubstitution nötig ist. Bei-de Formulierungen haben aber deutlich unterschiedliches Stabilitätsverhalten, was für dieimplizite Variante sprechen kann. Sei dazu zunächst vorausgesetzt: A ∈ R(m,m), A ≥ 0.Dies ist die typische Situation der diskreten Diffusionsgleichung aus Beispiel 3(12). DasStabilitätsverhalten abhängig von den Randbedingungen wurde in Beispiel 3(12) für dieDiffusionsgleichung untersucht. Die Approximation (8.125) bzw. (8.126) sollte also auch(asymptotisch) stabil sein. Es gilt:

Theorem 8.95: Stabilität explizites und implizites Euler-Verfahren

Betrachtet werde (MM.106), wobei M > 0, A ≥ 0. Dann gilt:

Page 123: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 897

1) Das implizite Euler-Verfahren ist für alle Δt > 0 stabil, d. h. die Nulllösung istbei g(k) = 0 (für große k ∈ N) stabil und global konvergent für k → ∞ bei konstanterrechter Seite. Ist A > 0, so ist das implizite Euler-Verfahren (im analogen Sinn)asymptotisch stabil.

2) Das explizite Euler-Verfahren ist stabil bei konstanter rechter Seite (analog zu1)) genau dann, wenn

Δt ≤ 2max{λi ∈ R : λi ist Eigenwert von M−1A} . (8.127)

Ist A > 0, dann ist das explizite Euler-Verfahren asymptotisch stabil genau dann,wenn (8.127) mit echter Ungleichung gilt. Dann ist es auch global konvergent fürt → ∞.

Beweis: Nach Bemerkungen 4.137, 3) ist M−1A positiv (semi)definit, d. h. die Eigenwer-te λi erfüllen λi > 0 (λi ≥ 0). Die Klammer bezieht sich dabei auf die abgeschwächteVoraussetzung A ≥ 0.

Zu 1): Die Eigenwerte μi von AIE sind

μi =1

(1 + Δtλi)für alle i = 1, . . . , m.

Damit gilt

0 < μi ≤ 1 für alle i = 1, . . . , m (8.128)

und μi = 1 genau dann, wenn λi = 0. Die Behauptung folgt aufgrund dessen aus Haupt-satz 8.81, 1), Theorem 8.92, 1) und Theorem 8.87. (Da M−1A diagonalisierbar ist, ist auchAIE diagonalisierbar, damit sind insbesondere alle μi halbeinfach).Zu 2): Die Eigenwerte μi von AEE sind

μi = 1 − Δtλi für alle i = 1, . . . , m

und damit

μi ≤ 1 für alle i = 1, . . . , m. (8.129)

μi = 1 genau dann, wenn λi = 0. Es bleibt μi ≥ −1 zu charakterisieren. Im Fall λi = 0 giltimmer μi > −1. Im Fall λi > 0 gilt μi ≥ −1 genau dann, wenn Δt ≤ 2/λi und analog mit >,<. Analog zu 1) ergibt sich die Behauptung. �

Bemerkungen 8.96

1) Die Bedingung (8.127) ist eine Stabilitätsbedingung. Sie besagt, dass das explizite Eu-ler-Verfahren nur für hinreichend kleine Schrittweiten Δt eine Lösung hat, deren Verhal-ten qualitativ dem der Lösung der Differentialgleichung entspricht, unabhängig von An-fordernissen der genauen Approximation.

Page 124: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

898 8 Einige Anwendungen der Linearen Algebra

2) Ist wie in Beispiel 3(12) M = h21 und der Diffusionskoeffizient c konstant gewählt,1c A durch (MM.11) definiert, was einem Diffusionsproblem mit Diffusionskoeffizienten1 und Dirichlet-Randbedingungen entspricht, so sind die Eigenwerte λi von A durch(MM.82) gegeben, also

λi ∈ (0, 4c],

wobei sich für m→ ∞ die λi immer mehr den Intervallgrenzen nähern. Analog bei A nach(MM.15), d. h. bei Fluss-Randbedingungen

λi ∈ [0, 4c],

so dass dann die Stabilitätsbedingung

cΔt ≤ 12

h2 bzw. cΔt <12

h2 (8.130)

lautet.

3) In der Situation von Beispiel 3(12) liegt, falls Dirichlet-Randbedingungen an we-nigstens einem Randpunkt gegeben sind, Konvergenz gegen die eindeutige Gleichge-wichtslösung x∗ von

Ax∗ = f

vor, bei Fluss-Randbedingung konvergiert x(k) bei beiden Verfahren (falls die Stabilitätsbe-dingung erfüllt ist) gegen die Gleichgewichtslösung mit der „Masse“ der Anfangsvorgabe(siehe (MM.116)). �Abschließend betrachten wir die Approximation der diskreten Wellengleichung nach(MM.96) durch eine Differenzengleichung. Gegeben sind demnach M, A ∈ K(m,m), M >0, A > 0, f ∈ C ([t0,∞),Km), x0, x′0 ∈ Km. Gesucht ist x : [t0,∞)→ Km, so dass

M x(t) + Ax(t) = f (t) für t ≥ t0und x(t0) = x0, x(t0) = x′0. (8.131)

Eine Approximation für x(tn) erhält man durch Hintereinanderausführung eines rückwärtsund eines vorwärts genommenen Differenzenquotienten, was zur Differenzengleichung

M1

(Δt)2

(x(k+1) − 2x(k) + x(k−1)

)+ Ax(k) = f (tn) für k ∈ N

mit den Anfangsvorgaben

x(0) = x0,1Δt

(x(1) − x(0)

)= x′0

führt. (Tatsächlich wird für die zweite Anfangsvorgabe meist eine andere genauere Appro-ximation benutzt, was hier nicht weiter verfolgt werden soll.) Mit

Page 125: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 899

A := (Δt)2M−1A

lautet nun die Differenzengleichung 2. Ordnung

x(k+1) − 2x(k) + x(k−1) + Ax(k) = f(k)

(8.132)

mit x(0) = x0, x(1) = x′0,

wobei f(n)

:= (Δt)2 f (tn). Hier handelt es sich um ein explizites Verfahren, da zur Berech-nung von x(k+1) aus x(k) und x(k−1) kein LGS gelöst werden muss. Statt von 2. Ordnungspricht man vom Zweischrittverfahren. Analog zu Beispiel 4.57 kann (8.132) in eine Dif-ferenzengleichung 1. Ordnung im K2n transformiert werden. Mit dem Ansatz

u(k) =

(x(k−1)

x(k)

)für k ∈ N

ist (8.132) äquivalent zu

u(k+1) =

(0 1

−1 21 − A

)u(k) +

⎛⎜⎜⎜⎜⎝ 0

f(k)

⎞⎟⎟⎟⎟⎠ .Anwendung der entwickelten Theorie darauf liefert:

Satz 8.97: Stabilität zeitdiskrete Wellengleichung

Seien M > 0, A > 0, λ1, . . . , λm die Eigenwerte von M−1A. Dann ist das Zweisch-rittverfahren (8.132) stabil, d. h. die Nulllösung ist stabil für f

(k)= 0, genau dann,

wenn

(Δt)2λi < 4 für alle i = 1, . . . , m

gilt. Das Verfahren ist nie asymptotisch stabil (im analogen Sinn).

Beweis: Es sind folglich die Eigenwerte μi, i = 1, . . . , 2m, von

B :=(

0 1

−1 21 − A

)in Abhängigkeit von den λi zu bestimmen:

0 = det(−μ1 1

−1 (2 − μ)1 − A

)= det

((μ − 2)μ1 + μA + 1

)gilt nach Aufgabe 2.36. Also ist notwendigerweise μi � 0 und damit lautet die Gleichungfür die μi

Page 126: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

900 8 Einige Anwendungen der Linearen Algebra

0 = μm det(A − μ(2 − μ) − 1

μ1

)und somit gilt:μ ist Eigenwert von B genau dann, wenn

λ =(2 − μ)μ − 1

μist Eigenwert von A.

Die Beziehung zwischen μ und λ lautet daher

μ2 + (λ − 2)μ + 1 = 0 bzw. μ(1),(2) =2 − λ ± (λ(λ − 4))

12

2.

Dies zeigt:Für λ ∈ (0, 4) sind die μ(1),(2) komplex-konjugiert und |μ(i)| = 1.Für λ = 4 ist μ(1) = μ(2) = −1.Für λ > 4 sind die μ(1),(2) reell und verschieden, zudem gilt für einen Wert |μ(i)| > 1.Der Eigenwert μ = −1 ist nicht halbeinfach, denn wegen

B(uw

)= −

(uw

)genau dann, wenn w = −u, Aw = 4w,

hat der Eigenraum von B zu μ = −1 nur genau die Dimension des Eigenraums von A zuλ = 4. Andererseits ist die algebraische Vielfachheit von μ = −1 für B doppelt so groß wiedie von λ = 4 bei A. Damit folgt die Behauptung aus Hauptsatz 8.81 und Theorem 8.87.�

Bemerkungen 8.98

1) Analog zu Bemerkungen 8.96,2) lautet für konkrete schwingende Massenketten beikonstanter Federkonstante c und Masse m (A nach (MM.11) oder (MM.12)) die Stabili-tätsbedingung

cm

(Δth

)2

< 1. (8.133)

Gibt man h vor und betrachtet die entstehende Restriktion für die Zeitschrittweite Δt, istsie deutlich schwächer als (8.130).

2) Ist A nur positiv semidefinit, so hat B den Eigenwert μ = 1, der nicht halbeinfach ist.

B(uw

)=

(uw

)genau dann, wenn w = u, Au = 0, d. h. der Eigenraum von B zu μ = 1 hat nur die Dimension

des Eigenraums von A zu λ = 0.

Die Massenkette ohne Einspannung (A z. B. nach (MM.15)) liefert ein immer instabi-les Differenzenverfahren, analog zum Verhalten der Differentialgleichung (siehe Bemer-kung 8.83). �

Page 127: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 901

8.6.4 Ausblick: Vom räumlich diskreten zum räumlich verteilten

kontinuierlichen Modell

Die in Beispiel 2 und 3 betrachteten Prozesse waren entweder stationär oder zeitabhängig,in ihrem räumlichen Aspekt aber immer diskret. Die diskreten räumlichen „Elemente“,d. h. die Federn bei der Massenkette oder Compartments beim Diffusionsproblem (Bei-spiel 3) bzw. die Widerstände und Quellen beim elektrischen Netzwerk (Beispiel 2) sinddabei entweder in einer „Linie“ angeordnet oder komplizierter zweidimensional. Wir be-trachten hier nur die Fälle aus Beispiel 3.Die für die Massenkette erhaltenen Modelle werden formal identisch mit denen des Diffu-sionsproblems, wenn die Auslenkungen x in u umbenannt werden und mit der Zerlegung

Δ : x0 < x1 < . . . < xn−1 < xn

die festen Ortspositionen der Endpunkte der Federn bezeichnet werden. Die Federn ent-sprechen dann (bei beidseitiger Einspannung)

Ei := [xi−1, xi), i = 1, . . . , n − 1, En = [xn−1, xn], jeweils mit Länge hi .

Das konstitutive Gesetz ist hier das Hookesche Gesetz, bisher geschrieben als

y = Ce .

Tatsächlich ist die Dehnung aber das relative Maß der Längenänderung in Bezug auf eineReferenzlänge. Solange diese wie bisher konstant waren, spielte dies keine Rolle, da sie indie Federkonstanten inkorporiert werden können. Im Folgenden soll die Anzahl der Federnunbeschränkt wachsen und damit ihre Länge gegen 0 gehen. Daher ist e zu ersetzen durch

ei := (ui − ui−1)/hi , i = 1, . . . , n , (8.134)

was gerade (MM.110) entspricht.Analog ist die Kräftebilanzgleichung zu ersetzen durch

yi − yi+1 = fihi , i = 1, . . . , n − 1 (8.135)

mit hi nach (MM.107), wenn fi als eine Kraftdichte interpretiert wird. Dies entsprichtgerade (MM.108). Wird u identifiziert mit der Interpolierenden in S 1(Δ) bzw. y mit derInterpolierenden in S 1(Δ) (Δ sei die durch die Fi gegebene sekundäre Zerlegung), dannlassen sich (8.134), (8.135) auch schreiben als

ei = (∂xu)(xi−1/2) , i = 1, . . . , n, und − (∂xy)(xi) = fi , i = 1, . . . , n − 1 .

Dabei bezeichnet ∂x die partielle Ableitung einer Funktion nach x. Zusammen mit

Ce = y

legt dies im Grenzfall n→ ∞, d. h. h := max{hi : i = 1, . . . , n} → 0, die Gleichungen nahe

Page 128: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

902 8 Einige Anwendungen der Linearen Algebra

−∂x(c(x)∂xu(x)

)= f (x) (8.136)

im stationären bzw.

m(x)∂ttu(x, t) − ∂x(c(x)∂xu(u, t)

)= f (x, t) (8.137)

im zeitabhängigen Fall mit einer Massenverteilung m.

Für das Diffusionsproblem erhielte man ebenso (8.136) und für den zeitabhängigenFall

∂tu(x, t) − ∂x(c(x)∂xu(x, t)

)= f (x, t) . (8.138)

Man beachte, dass der Grenzübergang nur formal ist: Die Elemente in S 1(Δ) sind nichteinmal überall differenzierbar. Unabhängig von den diskreten Modellen lassen sich aber(8.136) - (8.138) mit den ensprechenden Randbedingungen mit gleichen Prinzipien herlei-ten. Hier wird [x0, xn] als elastischer Körper interpretiert mit Auslenkung u = u(x) [u(x, t)]oder als „Behältnis“ eines Stoffes mit Konzentration u.

Die konstitutiven Gesetze sind dann:

Hooke : y(x, t) = c(x)e(x, t)e(x, t) = (∂xu)(x, t) ,

Fick : q(x, t) = c(x)g(x, t)g(x, t) = −(∂xu)(x, t) .

Die Impuls- bzw. Massenerhaltung in einem „Kontrollvolumen“ lautet (in der zweitenNotation):

Für jedes [α, β] ⊂ [x0, xn] : q(β) − q(α) =∫ β

α

f (x, t)dx

mit der Quelldichte f bzw.

∫ β

α∂xq(x, t) − f (x.t)dx = 0

und nach Einsetzen des Fickschen Gesetzes∫ β

α

−∂x(c(x)(∂xu)

)(x, t) − f (x, t)dx = 0 .

Geht man davon aus, dass als Kontrollvolumen beliebige Teilintervalle von [x0, xn] ge-wählt werden können, und sind die beteiligten Funktionen als genügend glatt angenom-

Page 129: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 903

men, so muss die Beziehung für alle x ∈ (x0, xn) (und t ∈ (t0, T ]) gelten, d. h. (8.136) bzw.im zeitabhängigen Fall nach Hinzukommen des Quelldichteterms

−∫ β

α

m(x)∂ttu(x, t)dx bzw. −∫ β

α

∂tu(x, t)dx

müssen die Gleichungen (8.137) bzw. (8.138) gelten. Die Randbedingungen übertragensich entsprechend:

Definition 8.99

Gegeben seien c : [a, b] → R, c(x) ≥ c0 > 0 (der Diffusionskoeffizient), f : QT →R (die Quelldichte), QT := (a, b) × (t0, T ], u0, u′0 : [a, b] → R, ua, ub ∈ R bzw.qa, qb ∈ R.Gesucht ist u : [a, b] × [t0, T ]→ R, so dass die Gleichungen

∂tu(x, t) − ∂x(c(x)∂xu(x, t)

)= f (x, t) für (x, t) ∈ QT (8.139)

u(x, t0) = u0(x) für x ∈ (a, b) (8.140)

und entweder Dirichlet-Randbedingungen

u(a, t) = ua, u(b, t) = ub, t ∈ (t0, T ] ,

oder Fluss-Randbedingungen

−q(a, t) = qa, q(b, t) = qb, t ∈ (t0, T ] ,

wobei

q(x, t) := −c(x)∂xu(x, t) ,

oder einer Kombination aus beiden gelten.Man spricht von der eindimensionalen (instationären) Diffusionsgleichung samt derentsprechenden Randbedingungen.Ist u von t unabhängig, d. h. fällt in (8.139) ∂tu(x, t) weg und auch (8.140), so sprichtman von der stationären Diffusionsgleichung. Wird (8.139) verändert zu

m(x)∂ttu(x, t) − ∂x(c(x)∂xu(x, t)

)= f (x, t) für (x, t) ∈ QT (8.141)

und die Anfangsbedingung (8.140) ergänzt um

∂tu(x, t0) = u0′(x) für x ∈ (a, b) , (8.142)

so spricht man von der eindimensionalen (instationären) Wellengleichung mit denentsprechenden Randbedingungen. Dabei ist m : [a, b] → R, m(x) > m0 > 0 (dieMassendichte des Mediums).

Page 130: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

904 8 Einige Anwendungen der Linearen Algebra

Bemerkungen 8.100

1) Die Randbedingungen können auch wie in Abschnitt 8.6.3 zeitabhängig betrachtet wer-den.

2) Bei den stationären Problemen liegen nun auch gewöhnliche Differentialgleichungenvor, allerdings Randwertaufgaben. Bei den instationären Problemen liegen die unabhän-gigen Variablen x und t vor, d. h. partielle Differentialgleichungen, und für diese eineAnfangs-Randwertaufgabe. Der nächste Schritt bestünde darin, das physikalische Mediumnicht eindimensional, sondern durch ein Ω ⊂ RN(N = 2, 3) zu modellieren.

3) Analog zu (8.94) ff. spricht man von inhomogenen Problemen im allgemeinen Fall undvon homogenen Problemen, wenn Quelldichte und Randwertvorgaben verschwinden.

4) Es liegen auch hier lineare Probleme vor, in den Daten u0, f , ua, ub (oder qa, qb) bzw.u0, u′0, f und den Randvorgaben. Wenn aber auch alle Daten bis auf eines als fest an-gesehen werden (z. B. homogen), ist der Datenraum z. B. C([a, b],R) und damit unend-lichdimensional. Die Untersuchung solcher Probleme verlässt somit die Lineare Algebraendlichdimensonaler Vektorräume.

5) Es ist zu erwarten, dass die räumlich diskreten Modelle aus Beispiel 3 für h→ 0eine Approximation für die Gleichungen aus Definition 8.99 erzeugen. Das ist tatsäch-lich der Fall: Die Herleitungsweise in Beispiel 3(12) entspricht einer Diskretisierung, dieknotenorientierte Finite-Volumen-Methode heißt. In Beispiele 1.108, 4) wurde schon ge-zeigt, dass die Anwendung der (konformen) Finite-Element-Methode mit dem Ansatz-raum S 1(Δ) für die stationäre Diffusionsgleichung mit c = 1 und homogener Dirich-let-Randbedingung auf A aus (MM.11) führt (bei äquidistanter Zerlegung). Die Stabilitätund Konvergenz(güte) solcher Approximationen zu untersuchen ist Aufgabe der Nume-rik partieller Differentialgleichungen. Wendet man solch eine räumliche Diskretisierung(in jedem Zeitpunkt) auf ein instationäres Problem an, so entsteht ein System gewöhnli-cher Differentialgleichungen vom Typ (MM.106) oder (8.131). Um dieses approximativzu lösen, bieten sich die in Abschnitt 8.6.3 untersuchten Differenzenverfahren an. Bei derBewertung der dortigen Aussagen ist aber zu berücksichtigen, dass die Matrizen A (undM) in Dimension und Eigenschaften von der räumlichen Diskretisierung abhängen. In denkonkreten Stabilitätsbedingungen (8.130) bzw. (8.133) wird dies ersichtlich. Auch ist zubeachten, dass für h→ 0 die Kondition von A unbeschränkt wächst (siehe Beispiel 3(10)),was bei klassischen Iterationsverfahren wie in den Abschnitten 8.2.2 und 8.2.3 besprochen,für die Lösung der LGS (innerhalb impliziter Differenzenverfahren) Probleme bereitet.

6) Neben der „primalen“ Formulierung in der Variablen x, d. h. der Auslenkung (siehe(MM.41)), war auf diskreter (und stationärer) Ebene auch die (natürliche) gemischte For-mulierung (MM.40) (in Auslenkung x und Kraft y) möglich. Die analoge gemischte For-mulierung z. B. für die Diffusionsgleichung ist

∂tu + ∂xq = f

q = −c∂xuin QT (8.143)

Page 131: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 905

bzw. unter Wegfall von ∂tu für den stationären Fall.Hier steht also (formal gesehen) der Operator ∂x bzw. −∂x für B bzw.Bt in der diskretenFormulierung. In Bemerkungen 7.57 wurde angedeutet, dass sich ∂x und −∂x auch alsOperator und dualer Operator entsprechen. Dort wird dies in N Raumdimensionen für ∇und − div angedeutet. Tatsächlich ist die entsprechende Variante von (8.143) für Ω ⊂ RN :

∂tu + div q = f

q = −c∇uin QT (8.144)

und von (8.139)

∂tu − div(c∇u) = f in QT . �

Neben räumlichen und zeitlichen Diskretisierungen gibt es einen klassischen Weg, eineNäherung etwa der Diffusionsgleichung (8.139) zu bestimmen. Zur Vereinfachung wirddieses nur mit homogenen Dirichlet-Randbedingungen betrachtet. Bei gewöhnlichenDifferentialgleichungen führte ein Weg zur Lösungsdarstellung über die Eigenwerte des„räumlichen“ Anteils Ax. Analog kann man hier nach den Eigenwerten und -funktionendes Differentialoperators −∂x(c∂x) fragen:

Definition 8.101

v ∈ C([a, b],R)∩C2((a, b),R)

heißt Eigenfunktion zum Eigenwert λ ∈ R zur statio-nären Diffusionsgleichung mit Dirichlet-Randbedingungen, wenn gilt: v ist nichtdie Nullfunktion und

−∂x(c(x)∂xv(x)

)= λv(x) für x ∈ (a, b)

v(a) = v(b) = 0 .

Völlig analog zu (4.85) ist

u(x, t) := exp( − λ(t − t0)

)v(x)

für Eigenfunktion v und -wert λ eine Lösung von (8.139) mit homogenen Dirichlet-Randbedingungen zur Anfangsvorgabe v. Wegen der Linearität des Problems ist eine Li-nearkombination solcher Lösungen wieder eine Lösung. Es kommt deswegen darauf an,die Anfangsvorgabe u0 möglichst gut in der linearen Hülle der Eigenfunktionen zu appro-ximieren. Asymptotische Stabilität der instationären Diffusionsgleichung würde dann dieGüte der Näherungslösung

u(x, t) :=k∑

i=1

αi exp(−λi(t − t0))vi(x)

sichern.

Page 132: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

906 8 Einige Anwendungen der Linearen Algebra

Für c(x) = c können die Eigenfunktionen explizit angegeben werden. Durch Verschie-ben kann statt [a, b] auch [0, l] betrachtet werden. Direktes Nachrechnen zeigt, dass

vi(x) :=1

l1/2 sin( iπ

lx)

für i ∈ N

Eigenfunktionen sind zu λi = c(

iπl

)2. Zusammen mit

wi(x) =1

l1/2 cos( iπ

lx)

, i ∈ N, w0(x) =1

(2l)1/2

bilden sie nach Satz 7.74 eine SONB von L2([−l, l],R). Setzt man die Anfangsvorgabe u0,

die demnach nur in L2([0, l],R) zu sein braucht, ungerade, d. h. durch u0(x) := −u0(x) zueinem u0 ∈ L2([−l, l],R

)fort, dann gilt für die Fourier-Koeffizienten βi zu wi : βi =

0, i ∈ N0, folglich

u0 =

∞∑i=1

αivi (in L2([−l, l],R)) und αi =

∫ l

−lu0vi(x)dx .

Damit ist durch

u(x, t) :=k∑

i=1

αi exp (−λi(t − t0)) vi(x)

eine Näherungslösung der Diffusionsgleichung gegeben, der man den exponentiellen Ab-fall zur Nulllösung als Gleichgewichtslösung direkt ansieht.

8.6.5 Stochastische Matrizen

Im Folgenden soll – bei naiver Benutzung von (undefinierten) Begriffen aus der Wahr-scheinlichkeitsrechnung – ein einfacher stochastischer Prozess betrachtet werden, der dieendlich vielen Zustände 1, . . . , n annehmen kann. Zu diskreten Zeitpunkten k ∈ N findenÜbergänge statt. Ist der Prozess „gedächtnislos“, d. h. hängt die aus einer Wahrschein-lichkeitsverteilung x ∈ Rn (x ≥ 0,

∑ni=1 xi = 1) hervorgehende Verteilung y nur von x,

nicht aber z. B. von k ab, so spricht man von der Markov23-Kette (1. Ordnung). Ord-net man die bedingten Wahrscheinlichkeiten pi, j in einer stochastischen ÜbergangsmatrixP = (pi, j) ∈ R(n,n) an (manchmal wird auch Pt statt P betrachtet), so dass bei Vorlage desZustandes j Zustand i eintritt, dann gilt

pi, j ≥ 0 für alle i, j = 1, . . . , n ,

n∑k=1

pk, j = 1 , und y = Px ,

23 Andrei Andrejewitsch Markov ∗14. Juni 1856 in Rjasan †20. Juli 1922 in Petrograd

Page 133: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 907

und damit ist die nach k Zeitschritten erzielte Verteilung Pk x.Beispiele für solche Markov-Ketten finden sich in einer Vielzahl von Bereichen, von

den Wirtschaftswissenschaften (Warteschlangentheorie) über die Bioinformatik (Gense-quenzierung) zu den Ingenieurwissenschaften (Qualitätsmanagement).

Definition 8.102

Sei A ∈ R(n,n), A � 0.

1) A heißt stochastisch, wenn alle Spaltensummen gleich 1 sind.2) A heißt doppelt stochastisch , wenn alle Spalten- und Zeilensummen gleich 1

sind.

Mit 1 = (1, . . . , 1)t ∈ Rn lässt sich die Bedingung kurz als At1 = 1 bzw. A1 = 1

schreiben.

Bemerkungen 8.103

1) Da die Bedingungen, stochastische Matrix zu sein:

ai, j ≥ 0,n∑

k=1

ak, j = 1 für alle i, j = 1, . . . , n ,

in R(n,n) ein Polyeder definieren, ist die Menge der stochastischen Matrizen abgeschlossenund konvex (siehe Satz 6.13). Analoges gilt für doppelt stochastische Matrizen.

2) Permutationsmatrizen sind doppelt stochastisch.

3) Sind A, B ∈ R(n,n) (doppelt) stochastisch, so ist auch AB (doppelt) stochastisch.Sind A, B � 0, so gilt auch AB � 0 und aus At1 = 1, Bt1 = 1 folgt (AB)t1 = Bt1 = 1 und analog fürAB1 = 1.

4) Für stochastische Matrizen ist ρ(A) = 1 und λ = 1 ist halbeinfacher Eigenwert.Es ist At1 = 1, d. h. λ = 1 ist Eigenwert von At und damit von A (es könnte auch mit Hauptsatz 8.51argumentiert werden) und daher ρ(A) ≥ 1. Wegen ρ(A) ≤ ‖A‖1 = 1 (nach Theorem 7.32) gilt ρ(A) = 1.

5) Eine doppelt stochastische Matrix entsteht beim Mischen von m Spielkarten.Beschreibt man eine Kartenlage durch ein Element von Σm, d. h. n = m! für die Dimension, so wird derÜbergang von τ ∈ Σm nach σ ∈ Σm gerade durch σ ◦ τ−1 beschrieben.Sei p eine Wahrscheinlichkeitsverteilung auf Σm, d. h. p(π) ≥ 0 für π ∈ Σm und Σπ∈Σm p(π) = 1, dann ist diestochastische Übergangsmatrix P = (Pσ,τ) durch

Pσ,τ := p(σ ◦ τ−1

)gegeben. Es ist

Σσ∈Σm Pσ,τ = Σσ∈Σm p(σ ◦ τ−1

)= Σπ∈Σm p(π) = 1 ,

aber genauso

Page 134: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

908 8 Einige Anwendungen der Linearen Algebra

Στ∈Σm Pσ,τ = Σπ∈Σm p(π) = 1 .

�Stochastische Matrizen gehören nach Bemerkung 7.35 gerade zu den Grenzfällen, bei de-nen die Konvergenz von Ak für k → ∞ noch möglich ist.

Satz 8.104

Sei A ∈ R(n,n) stochastisch.

1) Existiert P := limk→∞ Ak, dann ist B stochastisch.

2) Genau dann, wenn λ = 1 der einzige Eigenwert von A mit |λ| = 1 ist, existiertlimk→∞ Ak.

3) Gilt ai,i > 0 für alle i = 1, . . . , n, dann existiert limk→∞ Ak.

4) Gibt es ein m ∈ N, so dass Am � 0, dann existiert limk→∞ Ak.

Beweis: Zu 1): Folgt aus Bemerkungen 8.103, 1) und 3).Zu 2): Folgt aus Theorem 8.92 und Bemerkungen 8.103, 4).Zu 3): Nach Aufgabe 8.6 gilt für einen Eigenwert λ von A für ein j ∈ {1, . . . , n}:

|λ − a j, j| ≤n∑

i=1i� j

|a j,i| = 1 − a j, j .

Dieser Kreis (in C) ist im Kreis |λ| ≤ 1 enthalten und berührt ihn nur im Punkt λ = 1. Nach2) existiert daher limk→∞ Ak.Zu 4): Siehe Satz 8.114. �

Bemerkungen 8.105

1) Nach Lemma 8.45 ist die Bedingung bei 4) hinreichend für Irreduzibilität und bei ai,i >0 für alle i = 1, . . . , n nach Theorem 8.46 äquivalent dazu.

2) Wegen ‖Ak‖1 = 1 für alle k ∈ N ist (Ak) immer beschränkt. Das Beispiel A =(

0 11 0

)mit

den Eigenwerten λ = ±1 zeigt, dass ohne die Bedingung in Satz 8.104, 2) oszillierendesVerhalten möglich ist, auch für irreduzible Matrizen. �

Satz 8.106

Sei A ∈ R(n,n) stochastisch und λ = 1 sei der einzige Eigenwert mit |λ| = 1. SeiRn = E ⊕ H, wobei E den Eigenraum zu λ = 1 bezeichnet und H die Summe derHaupträume der anderen Eigenwerte. Sei P bezüglich dieser Zerlegung die Projekti-

Page 135: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 909

on auf E. Dann gilt für x ∈ Rn

limk→∞

Ak x = Px

Beweis: Siehe Theorem 8.92, Bemerkung 8.93. �

Zur Interpretation einer stochastischen Matrix als Übergangsmatrix in einem stochasti-schen Prozess passt:

Definition 8.107

Ein Vektor x ∈ Rn heißt Wahrscheinlichkeitsvektor, wenn x ≥ 0 und∑n

i=1 xi = 1.

Ein Wahrscheinlichkeitsvektor beschreibt in seiner i-Komponente die Wahrscheinlichkeit,dass ein System, das die Zustände 1, . . . , n annehmen kann, sich im Zustand i befindet.Daher ist für einen durch die stochastische Matrix A ∈ R(n,n) beschriebenen stochastischenProzess Ax der Wahrscheinlichkeitsvektor nach einmaligem Eintreten und Ak x nach k-maligem Eintreten des Prozesses.

Bemerkungen 8.108 Sei A ∈ R(n,n) stochastisch.

1) Ist x ∈ Rn ein Wahrscheinlichkeitsvektor, dann ist auch Ax ein Wahrscheinlichkeits-vektor.Denn Ax ≥ 0 und 〈Ax . 1〉 = ⟨

x . At1⟩= 〈x . 1〉 = 1.

2) Die Menge der Wahrscheinlichkeitsvektoren ist ein Polyeder in Rn, also konvex undabgeschlossen.

3) Ist x ein Wahrscheinlichkeitsvektor, dann auch Akx für k ∈ N und bei Existenz auchlimk→∞ Ak x.Dies folgt aus 1) und 2).

Satz 8.109

Sei A ∈ R(n,n) stochastisch und λ = 1 sei einziger Eigenwert mit |λ| = 1 und einfach.Sei x ∈ Rn ein Wahrscheinlichkeitsvektor.

1) Dann gilt

limk→∞

Ak x = x

und x ist der eindeutige Wahrscheinlichkeitsvektor der Ax = x erfüllt. x heißtGleichgewichtsvektor.

2) P := limk→∞ Ak hat die Gestalt

Page 136: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

910 8 Einige Anwendungen der Linearen Algebra

P = (x, . . . , x) . (8.145)

3) Ist A doppelt stochastisch, so ist

x =1n

1 .

Beweis: Zu 1): Nach Bemerkungen 8.108, 3) ist x ein Wahrscheinlichkeitsvektor, undund als solcher eindeutig im eindimensionalen Eigenraum.

Zu 2): Für jeden Wahrscheinlichkeitsvektor x gilt

Px = x ,

insbesondere für die Einheitsvektoren.Zu 3): Auch P ist doppelt stochastisch, dadurch 1 = P1 = nx. �

Der Startwahrscheinlichkeitsvektor x hat deswegen keinen Einfluss auf limk→∞ Ak x. DasSystem „vergisst“ den Anfangszustand.

Bemerkungen 8.110

1) Für die Eindimensionalität des Eigenraums von A zu λ = 1 reicht nach Haupt-satz 8.51, 4), dass A irreduzibel ist. Irreduzibilität allein reicht aber nicht für die Kon-vergenz, wie das Beispiel in Bemerkungen 8.105, 2) zeigt.

2) Bei einer doppelt stochastischen Matrix sind also unter den Voraussetzungen vonSatz 8.109 im Grenzwert alle Zustände gleich wahrscheinlich. Mann nennt so einen sto-chastischen Prozess auch fair , etwa beim Beispiel des Kartenmischens. �Wir wollen zeigen: Das Kriterium in Satz 8.104, 4) charakterisiert gerade die irreduziblenstochastischen Matrizen, für die limk→∞ Ak existiert. Nach Theorem 8.92 geht es folglichdarum, zu charakterisieren, wann λ = 1 der einzige Eigenwert von A mit |λ| = 1 = ρ(A)ist. Dazu ist hilfreich:

Satz 8.111: Satz von Frobenius

Sei A ∈ R(n,n), A � 0 und irreduzibel, λ0, . . . , λk−1 ∈ C seien die paarweise verschie-denen Eigenwerte von A mit |λ j| = ρ(A). Dann gilt eventuell nach Umnummerierung

λ j = exp(

2πi jk

)ρ(A), j = 0, . . . , k − 1

und alle λ j sind einfach.

Beweis: siehe Huppert 1990, S. 363, Satz IV.1.11. �

Page 137: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

8.6 Kontinuierliche und dynamische Systeme 911

Die k Eigenwerte sind demnach bei ρ(A) beginnend mit gleichem Winkelabstand über denKreis um 0 mit Radius ρ(A) verteilt, Drehung um 2π/k führt diese Eigenwerte ineinanderüber. Dann gilt zumindest für k

λkj = e2πi j (ρ(A))k = (ρ(A))k .

Lemma 8.112

Sei A ∈ R(n,n), A � 0, irreduzibel und es gelte: Ist λ ein Eigenwert von A mit |λ| =ρ(A), so ist λ = ρ(A) =: ρ. Dann existiert

P := limk→∞

ρ−kAk ,

und P = u ⊗ u, wobei u, u ∈ Rn, u > 0, u > 0 Eigenvektoren von A bzw. At sind, sodass (u . u) = 1.

Beweis: Als erstes ist ρ > 0 zu zeigen. Hierfür mache man sich klar, dass wegen A � 0und der Irreduzibilität von A für jedes x ≥ 0 mit mindestens einem j = 1, . . . , n so, dassx j > 0, gilt: Ax ≥ 0 und es existiert ein k = 1, . . . , n, so dass (Ax)k > 0. Andernfalls besäßeA eine Nullspalte. Demnach ist A nicht nilpotent und daher ρ > 0.Nach Hauptsatz 8.51, 4) ist der Eigenraum E von A zu ρ von der Form E = span(u) undu > 0. Da mit A auch At irreduzibel ist (Bemerkungen 8.44, 4)) und die Eigenwerte genaudie von A sind, ist auch hier Hauptsatz 8.51, 4) anwendbar und liefert für den EigenraumF von A zu ρ die Form F = span(u) mit u > 0, wobei analog zu Bemerkungen 4.35, 2)(u . u) = 1 erreicht werden kann.

Sei A := ρ−1A, d. h. ρ(A) = 1 und λ = 1 ist der einzige Eigenwert mit |λ| = 1. NachBemerkung 7.36 existiert also

P := limk→∞

(A)k = limk→∞

ρ−kAk.

Um diesen Grenzwert zu berechnen sei C ∈ R(n,n) aus einer Basis von Rn gebildet, mit uals erstem Vektor: C = (u, . . .). Dann gilt

C−1AC =(

1 0t

0 E

)und E hat genau die von 1 verschiedenen Eigenwerte von A, also ρ(E) < 1. Daher folgtmit Satz 4.75 und Hauptsatz 7.34

C−1BC = limk→∞

(C−1AC

)k= lim

k→∞

(1 0t

0 Ek

)=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝1 0t

0 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Page 138: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

912 8 Einige Anwendungen der Linearen Algebra

Analog zu Bemerkungen 4.35, 2) (beachte die vertauschte Bedeutung von C und A) siehtman aus

Ct(A)tC−t =

(1 0t

0 Et

),

dass die erste Zeile von C−1 ein Eigenvektor von At zu λ = 1 ist, der wegen (u . u) = 1gleich u ist. Demzufolge

C−1 =

⎛⎜⎜⎜⎜⎜⎜⎝ ut...⎞⎟⎟⎟⎟⎟⎟⎠

und damit

P = C

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝1 0t

0 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠C−1 = u ⊗ u .

Bemerkung 8.113 Sei A ∈ R(n,n) zusätzlich zu den Voraussetzungen im Lemma 8.112auch stochastisch. Wegen At1 = 1 und ρ(A) = 1 ist dann

limk→∞

Ak = u ⊗ 1 = (u, . . . , u)

wobei∑n

i=1 ui = 1, was Satz 8.109, 2) reproduziert. �

Satz 8.114

Sei A ∈ R(n,n), A � 0. Dann sind äquivalent:

(i) Es gibt ein m0 ∈ N, so dass Am � 0 für m ≥ m0.

(ii) Es gibt ein m ∈ N, so dass Am � 0.

(iii) A ist irreduzibel und ρ(A) ist der einzig mögliche Eigenwert λ von A mit|λ| = ρ(A).

Beweis: (i)⇒ (ii): Ist klar.(ii)⇒ (i): Gilt ebenso, da aus (ii) die Irreduzibilität von A nach Lemma 8.45, 1) folgt unddamit aus Am � 0 auch Am+1 � 0, da sonst A eine Nullzeile haben müsste.Bei (ii) ⇒ (iii) ist folglich nur die Eigenwertaussage zu verifizieren. Seien λ0, . . . , λk−1alle paarweise verschiedene Eigenwerte von A mit |λ| = ρ(A), wobei λ0 = ρ(A). Seien uiEigenvektoren dazu, also dim span(u0, . . . , uk−1) = k. Nach Satz 8.111 ist

Akui = ρ(A)kui

und damit für l ∈ NAlkui = ρ(A)lkui .

Page 139: [Springer-Lehrbuch] Lineare Algebra || Einige Anwendungen der Linearen Algebra

Aufgaben 913

Wählt man l so, dass lk ≥ m, so ist Alk � 0 und damit irreduzibel, so dass nach Haupt-satz 8.51, 4) ρ(A)lk = ρ(Alk) ein einfacher Eigenwert von Alk ist und damit k = 1 geltenmuss.(iii)⇒ (i): Nach Lemma 8.112 existiert

P = limk→∞

ρ−kAk

und es ist P = u ⊗ u � 0. Somit gibt es ein m0 ∈ N, so dass ρ−mAm � 0 und damit auchAm � 0 für alle m ≥ m0 gilt. �

Wesentlich weitergehende Informationen findet man z. B. in Tutte 2001 oder Newman2010.

Aufgaben

Aufgabe 8.22 Versehen Sie in der Entwicklung des Diffusionsmodells in Beispiel 3(12)jede Größe mit einer konsistenten (SI-)Einheit.

Aufgabe 8.23 Wird in Beispiel 3(12) (bei äquidistanter Zerlegung) u nicht als stückweisekonstant auf den Fi, sondern als Interpolierende durch (xi, ui), i = 0, . . . , n in S 1(Δ) aufge-fasst, ist in (8.118) h2(u(t)) zu ersetzen durch M(u(t)) für ein M ∈ R(m,m). Bestimmen Siedie Matrix M explizit.

Aufgabe 8.24 Analog zu Beispiel 3(12) leite man die diskrete stationäre und instatio-näre Wärmeleitungsgleichung her, indem folgende Ersetzungen vorgenommen werden:Konzentration – Temperatur T , Ficksches Gesetz – Fouriersches Gesetz, Massenfluss– Wärmestromdichte, Diffusionskoeffizient – Wärmeleitfähigkeit, Erhaltung der Masse –Erhaltung der Energie E, was ein weiteres konstruktives Gesetz E = E(T ) braucht, linearauszudrücken mittels Dichte und spezifischer Wärmekapazität.

Aufgabe 8.25 Sei Ak ∈ K(n,n) und A = limk→∞ Ak existiere. Dann existiert auch P :=limk→∞ 1

k∑k−1

i=0 Ai.

Aufgabe 8.26 Zwei sich verneinende Nachrichten der Form N1 :=„Der alte Holzmichllebt“ bzw. N2 :=„Der alte Holzmichl ist tot“ werden mündlich weitergegeben und zwarmit folgender stochastischer Übergangsmatrix

A =(

1 − p qp 1 − q

), wobei 0 < p, q < 1 .

Zeigen Sie

limk→∞

Ak =1

p + q

(q qp p

),

d. h. ein Gerücht wird langfristig gleich wahrscheinlich mit der Wahrheit (bei p = q = 12 ).

Man untersuche auch die Grenzfälle p ∈ {0, 1} oder q ∈ {0, 1}.


Recommended