+ All Categories
Home > Documents > [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

[Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

Date post: 08-Dec-2016
Category:
Upload: wolf
View: 222 times
Download: 3 times
Share this document with a friend
173

Click here to load reader

Transcript
Page 1: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

Kapitel 2

Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen

2.1.1 Allgemeine lineare Abbildungen

Das Studium der Beispiele 2 und 3 hat gezeigt, dass der jetzige Kenntnisstand über Ma-trizen nicht ausreichend ist: Bei gegebenem A ∈ R(m,n) muss nicht nur y := Ax ∈ Rm fürfestes x ∈ Rn betrachtet werden, sondern auch die Aktion, die beliebige x ∈ Rn in gewissey ∈ Rm überführt, d. h. die durch A vermittelte Abbildung.

Wir betrachten also hier Abbildungen Φ : Rn → Rm und allgemeiner Φ : V → W,wobei V, W zwei R-Vektorräume sind. Eine derartige Abbildung ordnet jedem Vektor x ∈V einen Bildvektor Φ(x) ∈ W zu.

Im Folgenden werden die Begriffe Abbildung, injektiv, surjektiv, bijektiv, Umkehrab-bildung, Komposition von Abbildungen und einige elementare Eigenschaften vorausge-setzt. Wir erinnern daran in Anhang A.4. Besonders wichtig werden hier lineare Abbil-dungen:

Definition 2.1

Seien V, W zwei R-Vektorräume. Eine Abbildung Φ : V → W heißt linear, wenn

Φ(c1x1 + c2x2) = c1Φ(x1) + c2Φ(x2) für alle c1, c2 ∈ R, x1, x2 ∈ V . (2.1)

Wenn keine Mehrdeutigkeit entsteht, wird die Argumentklammer weggelassen, d. h.Φx statt Φ(x) geschrieben.

Statt linearer Abbildung spricht man auch von einem linearen Operator.Analog zu vorigen Überlegungen ist (2.1) äquivalent einerseits zu

145P. Knabner, W. Barth, Lineare Algebra, Springer-Lehrbuch, DOI 10.1007/978-3-642-32186-3_2, © Springer-Verlag Berlin Heidelberg 2013

Page 2: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

146 2 Matrizen und lineare Abbildungen

Φ(cx) = cΦ(x) für x ∈ V, c ∈ R (Homogenität),Φ(x + y) = Φ(x) +Φ(y) für x, y ∈ V (Additivität)

und andererseits zu

Φ

⎛⎜⎜⎜⎜⎜⎝ n∑1

cνuν

⎞⎟⎟⎟⎟⎟⎠ = n∑1

cνΦuν (2.2)

für jede endliche Wahl von cν ∈ R, uν ∈ V . Aus (2.2) sieht man auch, dass für einenlinearen Unterraum U von V das Bild Φ(U) (siehe Anhang A, Definition A.11) ein linearerUnterraum von W ist. Außerdem folgt sofort für jede lineare Abbildung:

Φ0 = 0 , (2.3)

denn Φ({0}) ist ein einelementiger linearer Unterraum von W, der somit nur der trivialeUnterraum sein kann. Damit folgt auch für beliebiges x ∈ V:

−Φ(x) = Φ(−x) ,

denn Φ(x) +Φ(−x) = Φ(x + (−x)) = Φ(0) = 0.

Eine weitere unmittelbare Eigenschaft ist:

Seien U, V, W drei R-Vektorräume, Φ : V → W, Ψ : U → V linear, dann ist auch

Φ ◦ Ψ linear. (2.4)

Nach Theorem 1.46 1), 2) definiert eine Matrix A ∈ R(m,n) eine lineare Abbildung von Rn

nach Rm:

Φ : Rn → Rm, x �→ Ax , (2.5)

d. h. durch das Matrix-Vektor-Produkt. Später werden wir sehen, dass alle linearen Abbil-dungen von Rn nach Rm diese Gestalt haben.

Bei einem LGS

Ax = b

sucht man demnach (alle) Urbilder unter der Abbildung Φ nach (2.5) zu b. Für eine nach(2.5) gegebene lineare Abbildung gilt

Φei = a(i), i = 1, . . . , n ,

wobei a(i) die Spalten von A sind:

Page 3: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen 147

Φx = Ax =n∑

i=1

xiΦei für x ∈ Rn .

Damit ist Φ schon durch die Vorgabe der Bilder der Einheitsvektoren festgelegt.Mit den neuen Begriffsbildungen lässt sich Hauptsatz 1.85 wie folgt erweitern:

Hauptsatz 1.85I Lösbarkeit und Eindeutigkeit bei LGS

Es seien m, n ∈ N, A ∈ R(m,n), b ∈ Rn und Φ die durch (2.5) definierte lineareAbbildung. Wir betrachten das LGS

Ax = b .

Dann sind die folgenden Aussagen äquivalent:

(a) Φ ist surjektiv.

(i) Bei jeder Wahl der b1, . . . , bn auf der rechten Seite ist das Gleichungssystemlösbar (universelle Existenz).

(ii) Der Zeilenrang der Koeffizientenmatrix ist voll, d. h. gleich m.

Auch folgende Aussagen sind äquivalent:

(b) Φ ist injektiv.

(iii) Bei jeder Wahl der b1, . . . , bn auf der rechten Seite gibt es höchstens eineLösung des Systems (Eindeutigkeit).

(iv) Das zugehörige homogene System

Ax = 0

hat nur die Null-Lösung (Eindeutigkeit im homogenen Fall).

(v) Der Spaltenrang der Koeffizientenmatrix ist voll, d. h. gleich n.

Im Fall m = n, d. h. eines quadratischen LGS mit genauso vielen Gleichungen wieUnbekannten sind alle Aussagen (i) − (v), (a), (b) miteinander äquivalent und zu-sätzlich mit

(c) Φ ist bijektiv.

(vi) Durch elementare Zeilenumformungen kann A auf die Form einer oberenDreiecksmatrix mit nichtverschwindenden Diagonalelementen (bzw. = 1)gebracht werden:

Page 4: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

148 2 Matrizen und lineare Abbildungen⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 ∗. . .

. . .

. . .

0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

Für jeden endlichdimensionalen Vektorraum V ergibt sich nach Festlegung einer BasisB = {u1, . . . , un} eine natürliche lineare Abbildung,

die Koordinatenabbildung

ΨB : V → Rn

u =n∑

i=1αiui �→ (α1, . . . , αn)t .

Die Tatsache, dass B eine Basis ist, sichert die Wohldefinition dieser Abbildung, die dannauch bijektiv ist. Wir hätten auch mit

der Umkehrabbildung, dem linearen

ΨB : Rn → V

(α1, . . . , αn)t �→ u =n∑

i=1

αiui

beginnen können. Die Abbildung ΨB ist immer wohldefiniert und zudem injektiv, wenn Blinear unabhängig ist bzw. surjektiv, wenn span(B) = V ist.

Ist V unendlichdimensional, hat aber eine abzählbare Basis, kann entsprechend definiertwerden. Dabei wird Rn durch den Vektorraum RN

f ersetzt, wobei (siehe (1.31)):

RNf := {(an)n ∈ RN : an � 0 für höchstens endlich viele n ∈ N} .

Für darüberhinausgehende unendlichdimensionale Vektorräume wird der Basis- und Ko-ordinatenbegriff so unhandlich, dass er i. Allg. nicht benutzt wird.

Für V = Rn und B = {e1, . . . , en} ist ΨB = id ,

d. h. Koordinaten und Komponenten sind identisch.Eigenschaften linearer Abbildungen lassen sich daher schon aus ihrem Wirken auf Ba-

sen ablesen. So gilt:

Page 5: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen 149

Satz 2.2: injektive/surjektive lineare Abbildung

Es sei Φ : V → W eine lineare Abbildung zwischen R-Vektorräumen V, W. Weitersei B ⊂ V ein System von Vektoren.

1) Φ ist genau dann injektiv, wenn für jedes System von Vektoren B ⊂ V gilt: Sinddie Vektoren ui ∈ B linear unabhängig, so sind auch die Bildvektoren Φui ∈ Φ(B)linear unabhängig.

2) Spannt B den Raum V auf, dann spannt Φ(B) den Raum Bild Φ auf.

3) Φ ist genau dann surjektiv, wenn für jedes System von Vektoren B ⊂ V gilt:Spannen die Vektoren ui ∈ B den Raum V auf, so spannen ihre Bilder Φui ∈ Φ(B)den Raum W auf.

Für die Rückrichtung bei 1) oder 3) reicht, dass die Voraussetzung für eine Basiserfüllt ist.

Beweis: Übung. Dabei ist (siehe Definition A.9) Bild Φ := Φ(V) für ein Φ : V → W. �

Satz 2.3: Bild-Satz

Seien V, W zwei R-Vektorräume. Sei Φ : V → W linear und U ⊂ V ein linearerUnterraum. Dann gilt für den linearen Unterraum Φ(U) :

dim Φ(U) ≤ dim U .

Ist Φ injektiv, dann gilt sogar dim Φ(U) = dim U.

Beweis: Sei dim U = k < ∞, da sonst die Aussage trivial ist. Ist u1, . . . , uk eine Basisvon U, so spannen die Vektoren Φu1, . . . , Φuk ∈ W den linearen Unterraum Φ(U) auf.Nach dem Basisauswahlsatz (Satz 1.71) ist deswegen dim Φ(U) ≤ dim U. Ist Φ injektivund dim U = ∞, dann hat auch Φ(U) nach Satz 2.2, 1) beliebig viele linear unabhängigeElemente, also dim Φ(U) = ∞. Im endlichdimensionalen Fall sei u1, . . . , uk eine Basis vonU. Dann gilt nach Satz 2.2, 1) dim Φ(U) ≥ k = dim U. �

Im Folgenden seien V und W allgemeine R-Vektorräume. Wir stellen einige einfache Ei-genschaften von linearen Abbildungen zusammen.

Definition 2.4

Sei Φ : V → W eine lineare Abbildung. Alle linearen Φ : V → W werden zurMenge Hom(V, W) zusammengefasst und heißen auch Homomorphismus. Für V =W spricht man auch von Endomorphismen. Ist Φ surjektiv bzw. injektiv, heißt Φ auch

Page 6: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

150 2 Matrizen und lineare Abbildungen

Epimorphismus bzw. Monomorphismus, ist Φ bijektiv, dann heißt Φ Isomorphismus.Ist V = W und Φ bijektiv, so heißt Φ auch Automorphismus.Gibt es zwischen V und W einen Isomorphismus, heißen V und W isomorph, inZeichen: V � W und ein Isomorphismus wird durch V ∼→W gekennzeichnet. Weitersei

Bild Φ := {w ∈ W : w = Φu für ein u ∈ V}und

Kern Φ := {u ∈ V : Φu = 0} .

Satz 2.5: injektiv↔ Kern trivial

Sei Φ ∈ Hom(V, W).

1) Bild Φ ist ein linearer Unterraum von W und Kern Φ ein linearer Unterraum vonV .

2) Φ ist injektiv genau dann, wenn

Kern Φ = {0} .

3) Ist Φ ein Isomorphismus von V nach W, so ist Φ−1 ein Isomorphismus von Wnach V .

Beweis: Zu 1): Dies ist ein Spezialfall (U = V) der schon nach (2.2) erwähnten Aussage.Nochmal:Es ist Φu1 + Φu2 = Φ(u1 + u2) ∈ Bild Φ, γΦu1 = Φ(γu1) ∈ Bild Φ, und damit die Abge-schlossenheit gemäß Definition 1.36 gesichert. Für Kern Φ (für Φ nach (2.5)) argumentiertman ähnlich, wie dies schon bei (1.41) geschehen ist.Zu 2): Wie schon oben mehrfach verwendet, gilt wegen der Linearität

Φu1 = Φu2 ⇔ Φ(u1 − u2) = 0⇔ u1 − u2 ∈ KernΦ ,

woraus „⇐“ folgt. Für „⇒“ beachte man wegen (2.3):

u ∈ Kern Φ⇔ Φu = 0 = Φ0⇔ u = 0 .

Zu 3): Es bleibt zu zeigen, dass Φ−1 linear ist. Seien w1,w2 ∈ W und dazu u1, u2 ∈ Veindeutig bestimmt durch

wi = Φui für i = 1, 2 .

Dann ist

Page 7: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen 151

Φ−1(w1 + w2) =Φ−1(Φu1 +Φu2) = Φ−1(Φ(u1 + u2))= u1 + u2 = Φ−1w1 +Φ−1w2 ,

und analog für das skalare Vielfache. �

Bemerkungen 2.6

1) Beide Aussagen aus Satz 2.5, 2) sind äquivalent mit:Es gelte für ein z ∈ Bild Φ, d. h. z = Φx: Aus Φx = Φy folgt x = y.Dies kann man wie folgt einsehen: Die Zusatzaussage ist eine Abschwächung der Injektivität, andererseitsfolgt aus ihr

Kern Φ = {0} .Denn ist a ∈ Kern Φ, d. h. Φa = 0, dann auch Φx = Φx +Φa = Φ(x + a), also

x = x + a und damit a = 0 .

2) Für V = Rn, W = Rm und Φx = Ax mit A ∈ R(m,n) ist folglich nach Satz 2.2, 2)

Bild Φ = span(a(1), . . . , a(n)) ,

wobei a(1), . . . , a(n) die Spalten von A sind, und damitdim Bild Φ = Rang A .

Entsprechend ist

KernΦ = U ,

der Lösungsraum des homogenen LGS mit Matrix A.

3) Für einen R-Vektorraum V mit dim V = n und gegebener Basis ist die Koordinatenab-bildung ein Isomorphismus von V nach Rn.

4) Die Isomorphiebeziehung definiert eine Äquivalenzrelation auf der „Menge“ der R-Vektorräume1. Diese ist nämlich reflexiv, da id : V → V gewählt werden kann, symme-trisch nach Satz 2.5, 3) und transitiv, da die Komposition bijektiver Abbildungen bijektiv(siehe Anhang Satz A.16) und die linearer linear ist (siehe (2.4)). Ihre Äquivalenzklassen,d. h. die zueinander isomorphen Vektorräume werden in Abschnitt 2.2.2 untersucht.

5) Für allgemeine lineare Abbildungen ist nach Satz 2.5 und 1) die Eindeutigkeit derLösung für die Gleichung

Φu = w (2.6)

mit w ∈ W gegeben, u ∈ V gesucht

– entweder für alle w ∈ W bzw. nach 1) für ein w ∈ Bild Φ –

äquivalent mit der Eindeutigkeit für die homogene Gleichung

1 Genauer handelt es sich um eine etwas andere Konstruktion, nämlich eine „Kategorie“

Page 8: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

152 2 Matrizen und lineare Abbildungen

Φu = 0 ,

was wir schon für LGS wissen. Genau wie dort gilt allgemein auch hier für die Lösungs-menge U von (2.6) und Kern Φ bei Existenz eines u ∈ U:

U = u + Kern Φ .

allg. Lösung inhomogen = spezielle Lösung inhomogen + allg. Lösung homogen.

�Bemerkung 2.7 In der Situation von Hauptsatz 1.102 ist die orthogonale Projektion PU

auf einem linearen r-dimensionalen Unterraum linear:Sind x1, x2 ∈ V und A ∈ R(r,r) nach (1.74), sowie βk := (xk . ui)i und αk ∈ Rr für k = 1, 2 die eindeutigeLösung von Aαk = βk, so dass

PU (xk) =r∑

i=1

αki ui .

Dann ist also

A(α1 + α2) = β1 + β2 =: β = (x1 + x2 . ui)i

und diese Lösung ist eindeutig, somit

PU (x1 + x2) =r∑

i=1

(α1

i + α2i

)ui = PU (x1) + PU (x2).

Analog zeigt man

PU (λx) = λPU (x) für λ ∈ R .

Anstelle eines solchen „koordinatenbezogenen“ Beweises ist auch ein „koordinatenfreier“ Beweis mög-lich:

u := PU (x1) + PU (x2) ∈ U und (x1 + x2 − (PU (x1) + PU (x2)) . u) = 0 für alle u ∈ U ,

somit erfüllt u die die Orthogonalprojektion charakterisierende Fehlerorthogonalität für x1 + x2, d. h.

PU (x1 + x2) = u = PU (x1) + PU (x2)

und analog für das skalare Vielfache.

Die Alternative zwischen einem „koordinatenbezogenen“ und einem „koordinatenfreien“Beweis wird im Folgenden regelmäßig entstehen. �Bemerkungen 2.8 Seien U, V, W drei R-Vektorräume.

1) Sind Φ : V → W und Ψ : V → U linear, dann ist auch

Φ × Ψ : V → W × U, definiert durch v �→ (Φv, Ψv),

linear.

Page 9: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen 153

*2) Nach 1) ist also insbesondere für jedes Φ ∈ Hom(V, W) auch id×Φ ∈ Hom(V, V ×W),die Graphen-Abbildung, linear.Ist dim V = n und u1, . . . , un eine Basis von V , dann ist auch (ui, Φui), i = 1, . . . , n, eineBasis von Bild(id×Φ):

Ist u =n∑

i=1αiui, dann auch (u, Φu) =

n∑i=1

αi(ui, Φui), folglich ist die angegebene Menge ein Erzeugendensys-

tem von Bild(id×Φ) und damit ist nach Satz 1.71 schon dim Bild(id×Φ) ≤ n = dim V . Sie ist auch linearunabhängig, da sogar ihre „Verkürzung“ ui, i = 1, . . . , n, linear unabhängig ist:

n∑i=1

αi(ui, Φui) = 0⇒n∑

i=1

αiui = 0⇒ α1 = . . . = αn = 0 .

Insbesondere ist somit

dim Bild(id×Φ) = dim V .

*3) Sei U ⊂ Rn ein linearer Unterraum der Dimension k.Nach Korollar 1.83 lässt sich U durch eine durch Matrix A ∈ R(r,n) gegebene lineare Abbildung schreibenals

U = Kern(A) , (2.7)

wobei r = Rang(A) = n − k, d. h. codim(U) = n − k. Durch elementare Zeilenumformungen und Spalten-vertauschungen kann A umgeformt werden zu

A→ A′=

(−A|1

),

wobei A ∈ R(r,n−r) , so dass bis auf Umordnung von Komponenten gilt

Kern(A) = Kern(A′)

(siehe Beweis von Theorem 1.82).Sei nun x =

(x′

x′′

)∈ Rn mit x′ ∈ Rn−r und x′′ ∈ Rr . Wegen

x ∈ Kern(A′) ⇔ Ax

′= x

′′d. h. x ∈ Kern(A

′)⇔ x =

(x′

Ax′

)folgt daher

Kern(A′) = Bild(id×A) ,

wobei wegen n − r = k

id : Rk → Rk, A : Rk → Rr und k + r = n .

Damit wurde gezeigt:

Nach eventueller Umordnung von Komponenten lässt sich U mit der Identität id : Rk →Rk schreiben als

U = Bild(id×A) , A ∈ R(n−k,k) . (2.8)

Page 10: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

154 2 Matrizen und lineare Abbildungen

Es ist also (2.7) die implizite Darstellung von U als Lösung eines homogenen LGS und(2.8) eine explizite Darstellung. Eine Gerade in R2 durch 0 (d. h. n = 2, k = 1) ist infol-gedessen ein eindimensionaler Unterraum und in impliziter Darstellung die Lösung einerGleichung (n − k = 1) in zwei Variablen bzw. in expliziter Darstellung der Graph einerlinearen Abbildung von R nach R (n − k = k = 1), gegeben durch ein a ∈ R = R(1,1). �Lineare Abbildungen treten auch in der Geometrie auf:

2.1.2 Bewegungen und orthogonale Transformationen

Sei V ein R-Vektorraum mit SKP ( . ) und erzeugter Norm ‖ . ‖.

Definition 2.9

Eine Bewegung in V ist eine Abbildung Φ : V → V , die den Abstand erhält, d. h.eine Abbildung mit der Eigenschaft

‖Φ(x) −Φ(y)‖ = ‖x − y‖ für alle x, y ∈ V .

Eine Bewegung (insbesondere für V = R2) wird auch Kongruenz(abbildung) genannt.Fasst man V als affinen Raum über sich selbst auf, erhält eine Bewegung daher die Längeder Verbindungsvektoren.

Wenn man einen „starren Körper“ bewegt, ändern sich die Abstände von Punkten inseinem Inneren nicht. Bei einer Bewegung des Rn im eben definierten Sinn stellt man sichvor, den ganzen Rn so zu bewegen wie einen starren Körper.

Beispiele 2.10

1) Die Translation um einen festen Vektor a

T : x �→ x + a

ist eine Bewegung wegen

‖T (x) − T (y)‖ = ‖x + a − (y + a)‖ = ‖x − y‖ .

2) Die Punktspiegelung am Ursprung

Φ : x �→ −x

ist eine Bewegung, weil

‖Φ(x) −Φ(y)‖ = ‖ − x + y‖ = ‖x − y‖ .

Page 11: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen 155

3) Es sei a � 0 gegeben. Wir betrachten die erzeugte Hyperebene

a⊥ = {x ∈ Rn : (a . x) = 0} .Dabei können wir a als normiert annehmen: ‖a‖ = 1. In diesem Fall hat die Abbildung

Φ1 : x �→ x − (x . a) a

die Eigenschaften

Φ1(x) ∈ a⊥ , (Φ1(x) − x) ⊥ a⊥ ,

d. h. Φ1 ist die Orthogonalprojektion auf a⊥. Wenn wir von x nicht nur einmal (x . a) aabziehen, sondern zweimal, so ist dies die Spiegelung an der Hyperebene a⊥:

Φ : x �→ x − 2 (x . a) a . (2.9)

Auch diese Abbildung ist eine Bewegung.

0

����������

a⊥

���

a

�����

x

− (x . a) a

Φ1(x)�����Φ(x)

− (x . a) a

Abb. 2.1: Orthogonalprojektion und Spiegelung bezüglich einer Hyperebene.

Φ1 und auch Φ sind linear, also gilt

‖Φ(x) −Φ(y)‖ = ‖Φ(x − y)‖ ,und es genügt somit, zu zeigen ‖Φ(x)‖ = ‖x‖. Aber dies folgt aus

‖Φ(x)‖2 = (x − 2 (x . a) a . x − 2 (x . a) a) = ‖x‖2 − 4 (x . a) (a . x) + 4 (x . a)2 = ‖x‖2 .

4) Sind Φ1 und Φ2 Bewegungen, so ist auch Φ1 ◦Φ2 eine Bewegung,

denn ‖Φ1(Φ2(x)) −Φ1(Φ2(y))‖ = ‖Φ2(x) −Φ2(y)‖ = ‖x − y‖ . ◦

Sei Φ eine beliebige Bewegung in V und a := Φ(0) ∈ V . Sei T die Translation x �→ x − a.Dann ist auch T ◦Φ eine Bewegung (Beispiele 1) und 4)), und sie hat die Eigenschaft

Page 12: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

156 2 Matrizen und lineare Abbildungen

(T ◦Φ)(0) = T (Φ(0)) = T (a) = a − a = 0 .

Zu jeder Bewegung Φ gibt es darum eine Translation T mit (T ◦Φ)(0) = 0.

Definition 2.11

Eine Bewegung in V , die den Nullvektor fest lässt, heißt orthogonale Transformation.

Satz 2.12

Jede Bewegung Φ in V ist ein Produkt Φ = T ◦ Ψ einer Translation T mit einerorthogonalen Transformation Ψ .

Beweis: Sei die Bewegung Φ gegeben. Ist T irgendeine Translation, so ist Ψ := T−1 ◦ Φorthogonal genau dann, wenn Ψ (0) = 0, d. h. T (0) = Φ(0). Wir definieren also ganzeinfach T : x �→ x + Φ(0). Dann ist Ψ := T−1 ◦ Φ eine orthogonale Transformation mitΦ = T ◦ Ψ. �

Orthogonale Transformationen Φ haben folgende Eigenschaften:

• Φ(0) = 0 (nach Definition),• ‖Φ(x) −Φ(y)‖ = ‖x − y‖ (nach Definition einer Bewegung),• ‖Φ(x)‖ = ‖x‖ (vorige Eigenschaft mit y = 0).

Satz 2.13: SKP-Erhaltung

Eine orthogonale Transformation erhält das Skalarprodukt zweier Vektoren, d. h. füralle x, y ∈ V gilt

(Φ(x) . Φ(y)) = (x . y) .

Beweis: Es ist

‖Φ(x) −Φ(y)‖2 = (Φ(x) −Φ(y) . Φ(x) −Φ(y)) = ‖Φ(x)‖2 + ‖Φ(y)‖2 − 2 (Φ(x) . Φ(y)) .

Mit ‖Φ(x)‖ = ‖x‖, ‖Φ(y)‖ = ‖y‖ und ‖Φ(x) −Φ(y)‖ = ‖x − y‖ folgt

Page 13: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen 157

(Φ(x) . Φ(y)) = −12

(‖Φ(x) −Φ(y)‖2 − ‖Φ(x)‖2 − ‖Φ(y)‖2)

= −12

(‖x − y‖2 − ‖x‖2 − ‖y‖2)

= (x . y) .

Definition 2.14

Sei Φ = T ◦ Ψ eine Bewegung, wobei T eine Translation, Ψ eine orthogona-le Transformation sei. Der (nichtorientierte) Winkel zwischen Φ(x2) − Φ(x1) undΦ(y2) − Φ(y1) sofern x � 0 � y für x := x2 − x1, y := y2 − y1 wird definiert durchdas eindeutig existierende α ∈ [0, π], für das

cos(α) =(Ψ (x) . Ψ (y)

)‖Ψ (x)‖ ‖Ψ (y)‖ .

Bemerkungen 2.15

1) Unter Translationen bleiben Skalarprodukte nicht erhalten und daher auch nicht unterBewegungen. Sei Φ = T ◦Ψ die Zerlegung einer Bewegung in eine orthogonale Transfor-mation Ψ und eine Translation T (x) = x + a, dann ist

Φ(x) −Φ(y) = Ψ (x) + a − (Ψ (y) + a) = Ψ (x − y) .

Daher gilt: Eine Bewegung erhält die Skalarprodukte von Vektordifferenzen, d. h. wennman V als affinen Raum über sich selbst auffasst, von Verbindungsvektoren.

2) Sei V endlichdimensional, so dass eine ONB u1, . . . , un ∈ V existiert. Deren Bilderu1 := Φ(u1), . . . , un := Φ(un) unter einer orthogonalen Transformation Φ haben wegenSatz 2.13 dieselben Skalarprodukte:

(uk . ul) = (uk . ul) ={

1 falls k = l,0 falls k � l .

Daraus folgt nach Bemerkungen 1.110, 2), dass die Vektoren u1, . . . , un linear unabhängigsind und außerdem:

Das Bild der ONB u1, . . . , uk unter einer orthogonalenTransformation ist wieder eine ONB. (2.10)

Wir haben Bewegungen und damit orthogonale Abbildungen durch die Eigenschaft derLängentreue definiert. Satz 2.13 sagt, dass aus der Längentreue die Winkeltreue folgt,wobei hier Winkel als Winkel zwischen den Verbindungsvektoren verstanden wird.

Page 14: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

158 2 Matrizen und lineare Abbildungen

3) Das Bild Φ(z) eines Vektors z ist Φ(z) =n∑

ν=1dνuν, wobei nach Bemerkungen 1.110, 1)

dν = (Φ(z) . uν) = (Φ(z) . Φ(uν)) = (z . uν) ,

und diese Koeffizienten sind eindeutig. Also gilt für x, y ∈ V , c1, c2 ∈ R:

c1Φ(x) + c2Φ(y) =n∑

ν=1

(c1 (x . uν) + c2 (y . uν))uν =n∑

ν=1

(c1x + c2y . uν) uν

= Φ(c1x + c2y) .

Eine orthogonale Abbildung Φ ist somit linear. (2.11)

Die Linearität von Φ aus Beispiele 2.10, 3) ist also kein Zufall. �Diese Eigenschaft der Linearität einer Abbildung hat der Linearen Algebra ihren Namengegeben. Die fundamentalen Beziehungen in der Linearen Algebra werden durch lineareAbbildungen vermittelt.

Satz 2.16

Sei V endlichdimensional und Φ : V → V eine Bewegung. Dann ist Φ bijektiv.

Beweis: Wegen Satz 2.12 reicht es orthogonale Transformationen Φ zu betrachten. Wegenx = 0⇔ ‖x‖ = 0⇔ ‖Φ(x)‖ = 0⇔ Φ(x) = 0 und Satz 2.5, 2) ist Φ injektiv.

Seien u1, . . . , ur ∈ V , so dass span(u1, . . . , ur) = V und daraus (bei gleicher Be-zeichnung) eine Basis ausgewählt. Nach Theorem 1.112 gibt es eine ONB u1, . . . , ur,so dass span(u1, . . . , ur) = V und damit sind die uk jeweils Linearkombinationen deru1, . . . , ur. Damit sind auch die Φ(uk) Linearkombinationen der Φ(u1), . . . , Φ(ur). Da dieΦ(u1), . . . , Φ(ur) als ONB den Raum V aufspannen, tun dies auch die Φ(u1), . . . , Φ(ur).Nach Satz 2.2, 3) ist demnach Φ surjektiv.

In Abschnitt 2.3.5 werden wir sehen, dass allgemein für lineare Φ : V → V bei endlich-dimensionalem V aus der Injektivität schon Surjektivität folgt (was im Spezialfall schonaus Hauptsatz 1.85I ersichtlich ist). �

Theorem 2.17: orthogonal↔ ONB auf ONB

Sei V endlichdimensional, dim V = n. Eine Abbildung Φ : V → V ist orthogonalgenau dann, wenn sie folgende beiden Eigenschaften hat:

1) Φ ist linear.

Page 15: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen 159

2) Es gibt eine ONB u1, . . . , un ∈ V , welche unter Φ wieder auf eine ONBΦ(u1), . . . , Φ(un) abgebildet wird.

Beweis: „⇒“: Nach (2.10) bildet eine orthogonale Abbildung jede (nicht nur eine ein-zige) ONB auf eine ONB ab. Dass die Linearität eine Konsequenz der Orthogonalität ist,haben wir soeben in (2.11) gesehen.„⇐“: Aus der Linearität folgt ‖Φ(x) − Φ(y)‖ = ‖Φ(x − y)‖ für alle Vektoren x, y ∈ V.Es genügt deswegen ‖Φ(x)‖ = ‖x‖ für jeden Vektor x ∈ V zu zeigen. Wir schreiben denVektor x in unserer ONB als x =

∑n1 cνuν. Aus der Linearität folgt Φ(x) =

∑n1 cνΦ(uν).

Und da sowohl die uν als auch ihre Bilder Φ(uν) eine ONB bilden, ist nach Pythagoras(Satz 1.96)

‖Φ(x)‖2 =n∑

ν=1

c2ν = ‖x‖2 . �

Bemerkung 2.18 Sei V ein endlichdimensionaler R-Vektorraum mit SKP, sowie B ⊂ Veine ONB und ΨB : V → Rn die Koordinatenabbildung. Da die Elemente von B auf dieStandardbasis abgebildet werden, ist ΨB nach Theorem 2.17 eine orthogonale Transfor-mation. Also gilt mit Satz 2.13

(u .w) = (ΨBu . ΨBw) für u,w ∈ V ,

wobei das rechte SKP das euklidische SKP auf Rn darstellt. Insbesondere ist damit für diejeweils erzeugte Norm

‖u‖ = ‖ΨBu‖ ,wie schon in (1.89) gesehen. �Beispiel 2.19 Drehung (Rotation) im R2 um einen Winkel ϕ. Rotiert man die beiden Vek-toren e1 = (1, 0) und e2 = (0, 1) der Standardbasis des R2 um einen Winkel ϕ, so erhältman die ONB

Φ(e1) =(

cos(ϕ)sin(ϕ)

), Φ(e2) =

(− sin(ϕ)cos(ϕ)

)des R2. Es gibt deswegen eine einzige lineare (und dann auch orthogonale) AbbildungΦ : R2 → R2, welche diese Drehung der Basisvektoren bewirkt, nämlich

Φ :(

x1x2

)�→ x1

(cos(ϕ)sin(ϕ)

)+ x2

(− sin(ϕ)cos(ϕ)

)=

(cos(ϕ) − sin(ϕ)sin(ϕ) cos(ϕ)

) (x1x2

)Die Orthogonalität dieser linearen Abbildung ist auch leicht direkt nachzurechnen:

Page 16: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

160 2 Matrizen und lineare Abbildungen

�e1

�e2

�����

��

���

(cossin

)(− sincos

)

Abb. 2.2: Drehung in der Ebene.

(x1 cos(ϕ) − x2 sin(ϕ))2 + (x1 sin(ϕ) + x2 cos(ϕ))2

= x21 cos(ϕ)2 + x2

2 sin(ϕ)2 + x21 sin(ϕ)2 + x2

2 cos(ϕ)2

= x21 + x2

2.

◦Bei allen vergangenen Überlegungen hätte V als Bildraum durch einen anderen Vektor-raum W mit SKP ( . )′ und erzeugter Norm ‖ . ‖′ ersetzt werden können. Nur für Transla-tionen muss (W, ( . )′) = (V, ( . )) gewählt werden. Wählt man als Bildraum (auf dem dannauch die Translationen definiert sind) W = V und

(x . y)′ := α−2 (x . y) für ein festes α > 0 ,

so ergibt sich eine die Bewegung verallgemeinernde geometrische Operation:

Definition 2.20

Eine Ähnlichkeit auf V ist eine Abbildung Φ : V → V , die Abstände mit einemfesten Faktor α > 0 streckt bzw. staucht, d. h.

‖Φ(x) − Φ(y)‖ = α‖x − y‖ für alle x, y ∈ V ,

und einem festen α ∈ R, α > 0.

Nach den obigen Überlegungen gilt:

Theorem 2.21: Gruppe 2der Ähnlichkeiten

1) Die Komposition von Ähnlichkeiten ist eine Ähnlichkeit.

Page 17: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.1 Lineare Abbildungen 161

2) Jede Ähnlichkeit lässt sich als Komposition einer Ähnlichkeit, die 0 fest lässt,und einer Translation schreiben.

3) Sei Φ eine Ähnlichkeit mit Φ(0) = 0 und mit dem Streckungsfaktor α, dann giltfür alle x, y ∈ V:

(Φ(x) . Φ(y)) = α2 (x . y) .

4) Eine Ähnlichkeit erhält Winkel (definiert analog zu Definition 2.14).

Sei V endlichdimensional.

5) Es sind äquivalent:

(i) Φ : V → V ist ähnlich und Φ(0) = 0

mit

(ii1) Φ ist linear.

(ii2) Es gibt eine ONB u1, . . . , un ∈ V , so dass die Φ(ui) paarweise orthogonal sindund ‖Φ(ui)‖ = α für alle i = 1, . . . , n und ein α ∈ R, α > 0

mit

(iii) Φ hat die Darstellung

Φ(x) = αΨ (x) für alle x ∈ V ,

wobei α > 0 und Ψ eine orthogonale Transformation ist.

6) Eine Ähnlichkeit Φ ist bijektiv und Φ−1 ist ähnlich.

Beweis: 1) entspricht Beispiele 2.10, 4) bzw. folgt direkt aus der Definition. 2) entsprichtSatz 2.12 und 3) entspricht Satz 2.13. Bei 4) beachte man nach 3)

(Φ(x) . Φ(y)) /(‖Φ(x)‖ ‖Φ(y)‖) = α2 (x . y) /(α‖x‖α‖y‖)

für eine Ähnlichkeit Φ mit Φ(0) = 0. Bei 5) entspricht (i)⇔(ii) Theorem 2.17, (ii)⇔(iii)ist direkt die Anwendung von Theorem 2.17 auf Ψ (x) := α−1Φ(x). Schließlich entspricht6) Satz 2.16. �

Die aus Beispiele 2.10, 3) hervorgehende Ähnlichkeit heißt auch Klappstreckung, die ausBeispiel 2.19 Drehstreckung.

2 Für die Grundbegriffe siehe Definition B.7 ff. und Definition 3.1 ff.

Page 18: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

162 2 Matrizen und lineare Abbildungen

Abb. 2.3: Drei Bewegungen, eine Ähnlichkeit.

Beispiel 2.22 Die zentrische Streckung x �→ λx für λ > 0 ist insbesondere eine Ähnlich-keit. Wie schon in Abb 1.4 auf Seite 35 dargestellt, entspricht ihre Linearität gerade dem1. Strahlensatz:

Man beachte die „Strahlen“ s1 : x = αa, α ≥ 0 und s2 : x = α(a + b), α ≥ 0 für linearunabhängige a, b. Dann sind die Geraden a + Rb und λa + Rb für festes λ > 0 parallelund die „Streckenabschnitte“ a, λa b, λb und a + b, λ(a + b) stehen jeweils im Verhältnisλ. Dabei liegen a, λa auf s1, a + b und λ(a + b) (wegen λ(a + b) = λa + λb) auf s2. ◦

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Lineare Abbildung• Koordinatenabbildung• Bild und Kern einer linearen Abbildung• Bewegung, orthogonale Transformation• Ähnlichkeit

Zusammenhänge:

• Bild-Satz (Satz 2.3)• Bewegung – orthogonale Transformation (Satz 2.12)

Page 19: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

Aufgaben 163

• Orthogonale Transformationen erhalten SKP (Satz 2.13)• Orthogonale Transformationen bilden ONB auf ONB ab (Theorem 2.17)• Eigenschaften der Ähnlichkeiten (Theorem 2.21)

Beispiele:

• Drehung, Spiegelung (für orthogonale Transformation)• Orthogonale Projektion (für lineare Abbildung)

Aufgaben

Aufgabe 2.1 (T) Beweisen oder widerlegen Sie: Für alle Mengen A, B,C und Abbildun-gen f : A→ B, g : B→ C gilt:

a) Sind f und g injektiv, so auch g ◦ f .b) Sind f und g surjektiv, so auch g ◦ f .c) Ist f injektiv und g surjektiv, so ist g ◦ f bijektiv.d) Ist g ◦ f bijektiv, so ist g surjektiv und f injektiv.e) Ist g ◦ f bijektiv, so ist g injektiv und f surjektiv.

Aufgabe 2.2 (T) Zeigen Sie Satz 2.2.

Aufgabe 2.3 (T) Sei V ein R-Vektorraum mit Skalarprodukt. Es seien U, W ⊂ V end-lichdimensionale Untervektorräume und Φ : V → V eine orthogonale Abbildung mitΦ(U) = W. Beweisen Sie, dass Φ das orthogonale Komplement von U auf das orthogona-le Komplement von W abbildet.

Aufgabe 2.4 (G) Es seien a und b ∈ R2 zwei Einheitsvektoren und S a, bzw. S b die Spie-gelung an der Geraden senkrecht zu a bzw. b.

a) Leiten Sie Formeln für S a ◦ S b und S b ◦ S a her.b) Zeigen Sie: Es ist S a ◦ S b = S b ◦ S a genau dann, wenn

a = ±b oder (a . b) = 0 .

Aufgabe 2.5 (G) Es seien g und h zwei Geraden im euklidischen R2, welche sich unterdem Winkel α mit 0 < α ≤ π

2 schneiden. Seien sg und sh die Spiegelungen an g bzw. h.

a) Für welche α gibt es eine natürliche Zahl n mit (sg ◦ sh)n = id?b) Für welche α ist sg ◦ sh = sh ◦ sg?

Page 20: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

164 2 Matrizen und lineare Abbildungen

2.2 Lineare Abbildungen und ihre Matrizendarstellung

2.2.1 Darstellungsmatrizen

Wenn nicht anders erwähnt, seien im Folgenden V und W allgemeine, auch unendlichdi-mensionale R-Vektorräume. Bei der Beschreibung der Drehung im letzten Abschnitt ha-ben wir von folgendem Prinzip Gebrauch gemacht: Ist Φ : V → W eine lineare Abbildungund V endlichdimensional, und sind u1 = Φe1, . . . , un = Φen, die Bilder der Basis-Vektorene1, . . . , en, bekannt, so ist das Bild eines jeden Vektors x =

∑n1 xνeν bereits festgelegt durch

Φx = Φ

⎛⎜⎜⎜⎜⎜⎝ n∑1

xνeν

⎞⎟⎟⎟⎟⎟⎠ = n∑1

xνΦeν =

n∑1

xνuν . (2.12)

(siehe Satz 2.2, 2))

Umgekehrt kann man Vektoren u1, . . . , un ∈ W beliebig vorgeben, durch (2.12) wird danneine lineare Abbildung Φ : V → W definiert mit Φe1 = u1, . . . , Φen = un. Daraus folgtetwas allgemeiner:

Hauptsatz 2.23: Prinzip der linearen Ausdehnung

Sei [ui : i ∈ I] bzw. [w j : j ∈ I] ein System von Vektoren in V bzw. W. Weiter seiB1 := [ui : i ∈ I] eine Basis.

1) Zu beliebig vorgegebenen w′i ∈ W gibt es genau ein Φ ∈ Hom(V, W) mit Φui =w′i für alle i ∈ I.

2) Seien m, n ∈ N, dim V = n, dim W = m und

a) Sei A = (aμ,ν) ∈ R(m,n) gegeben. Dann gibt es genau ein Φ ∈ Hom(V, W) mit

Φuμ =m∑

ν=1

aν,μwν für μ = 1, . . . , n . (2.13)

b) Sei Φ ∈ Hom(V, W) gegeben. Weiter sei B2 := {w1, . . . ,wm} eine Basis vonW. Dann gibt es genau ein A = (aμ,ν) ∈ R(m,n), so dass (2.13) gilt.

A heißt die zu Φ (bei gegebenen Basen B1 und B2) gehörige Darstellungsmatrix.

Beweis: Zu 1): Sei u ∈ V , d. h. u =∑i∈I′

xiui für eine endliche Teilmenge I′ von I. Dabei

sind die Koeffizienten xi eindeutig festgelegt und I′ höchstens durch Hinzunahme vonx j = 0 erweiterbar. Durch (siehe (2.12))

Page 21: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.2 Lineare Abbildungen und ihre Matrizendarstellung 165

Φu :=∑i∈I′

xiw′i (2.14)

wird daher eine Abbildung von V nach W definiert. Diese ist linear, da etwa für λ ∈ R gilt

λu =∑i∈I′

λxiui

und damit

Φ(λu) =∑i∈I′

λxiw′i = λΦu

und analog für die Summe. Φ erfüllt Φui = w′i für alle i ∈ I, woraus für ein lineares Φwieder notwendig (2.14) folgt.

Zu 2) a): Folgt direkt aus 1) mit w′μ =m∑

ν=1aν,μwν.

Zu 2) b): Die μ-te Spalte von A ist eindeutig festgelegt als die Koeffizienten von Φuμbezüglich der Basis w1, . . . ,wm. �

Bei V = R reicht also für die Kenntnis einer linearen Abbildung Φ die Kenntnis von Φvfür ein v � 0, d. h. einer Basis von R: Für x ∈ R gilt dann wegen x = x

vv

Φx =xvΦv =

Φv

vx ,

womit wir das Prinzip des Dreisatzes wiederentdeckt haben.

Sei wie bei Theorem 2.23, 2) dim V = n, dim W = m. Bei festgelegten Basen B1 =

{u1, . . . , un} von V und B2 = {w1, . . . ,wm} von W wird folglich durch (2.13) eine bijek-tive Abbildung zwischen Hom(V, W) und R(m,n) definiert. So wie R(m,n) durch die kom-ponentenweise Addition und Skalarmultiplikation eine Vektorraumstruktur besitzt, so hatauch Hom(V, W) eine solche, etwa analog zu Abb (V,R) (siehe Definition 1.31 und Auf-gabe 1.13).

Für Φ,Ψ ∈ Hom(V, W), λ ∈ R wird daher definiert (auch für unendlichdimensionaleV und W)

(Φ + Ψ )u = Φu + Ψu(λΦ)u = λΦu für u ∈ V. (2.15)

Es ergibt sich sofort, dass Φ + Ψ bzw. λΦ zu Hom(V, W) gehören und Hom(V, W)mit den so definierten Verknüpfungen ein R-Vektorraum ist (Übung).

Hinsichtlich der in der linearen Algebra betrachteten Strukturen ist für endlichdimensio-nale V und W mit dim V = n und dim W = m der Vektorraum Hom(V, W) mit R(m,n)

„identifizierbar“, da:

Page 22: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

166 2 Matrizen und lineare Abbildungen

Theorem 2.24: Homomorphismen �Matrizen im Endlichdimensionalen

Sei dim V = n, dim W = m für n, m ∈ N. Durch (2.13) wird (bei festen Basen B1bzw. B2) ein Isomorphismus [ . ] von Hom(V, W) nach R(m,n) definiert, insbesonderealso

Hom(V, W) � R(m,n) .

Die Darstellungsmatrix zu Φ bezeichnen wir mit A = [Φ].

Beweis: Es fehlt, noch die Linearität der Abbildung zu zeigen. Wir zeigen dies äquivalent(siehe Satz 2.5) für die Umkehrabbildung: Seien A, B ∈ R(m,n) und Φ bzw. Ψ die durch(2.13) definierten Elemente von Hom(V, W). Dann gilt

(Φ + Ψ )uμ =m∑

ν=1

(aν,μ + bν,μ)wν ,

und damit ist A + B die eindeutige Darstellungsmatrix zu Φ + Ψ . Für das Vielfache argu-mentiert man analog. �

Bemerkungen 2.25

1) Für festgelegte Basen

B1 = {u1, . . . , un} von V bzw. B2 = {w1, . . . ,wm} von W

erfüllen die Darstellungsmatrix A ∈ R(m,n) und Φ ∈ Hom(V, W):

Zwischen Homomorphismus Φ und Darstellungsmatrix A besteht folgende Bezie-hung:

Genau dann ist Φu = w mit

u =n∑

i=1xiui, w =

m∑j=1

y jw j ,

wenn Ax = y für x = (xi), y = (yi) .

Denn aus (2.13) folgt

Φu = Φn∑

i=1

xiui =n∑

i=1

xiΦui =n∑

i=1

m∑j=1

xia j,iw j =

m∑j=1

⎛⎜⎜⎜⎜⎜⎝ n∑i=1

aj,i xi

⎞⎟⎟⎟⎟⎟⎠w j =

m∑j=1

(Ax) jw j ,

bzw. in Abbildungen ausgedrückt

ΞB2 ◦Φ = A ◦ ΨB1 , (2.16)

wobei ΨB1 bzw. ΞB2 die Koordinatenabbildungen von V bzw. W sind.

Page 23: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.2 Lineare Abbildungen und ihre Matrizendarstellung 167

Zu (2.16) ist die Identität

Φ = Ξ−1B2◦ A ◦ ΨB1

äquivalent. Die Gleichung (2.16) besagt, dass in dem Diagramm aus Abbildung 2.4 beidePfade (oben-rechts bzw. links-unten) das gleiche Ergebnis liefern. Man sagt auch: Das

V WΦ

Rn Rm

A

ΞB2ΨB1

Abb. 2.4: Lineare Abbildung und Matrixdarstellung: kommutatives Diagramm.

Diagramm ist kommutativ. Insbesondere ist

dim Bild Φ = dim(Ξ−1B2◦ A ◦ ΨB2

)(V) = dim

(Ξ−1B2◦ A

)(Rn) = dim A(Rn) ,

d. h.

dim Bild Φ = Rang(A) . (2.17)

2) Die in (2.13) definierte Darstellungsmatrix A ∈ R(m,n) für Φ ∈ Hom(V, W) ist eindeutignach Wahl der Basen B1 in V bzw. B2 in W, aber abhängig von dieser Wahl. Um das zubetonen, schreiben wir auch

A = B2 [Φ]B1 .

3) Ist W = Rm und B2 = {e1, . . . , em}, also die Koordinatenabbildung auf W die Identität,dann ist bei A =

(a(1), . . . , a(n)

)(Spaltendarstellung von A = [Φ]) gerade

Φuμ = a(μ), μ = 1, . . . , n ,

d. h. die Spalten von A sind gerade die Bilder der Basisvektoren aus B1. Somit ist

Φu = Ax für u =n∑

i=1

xiui . (2.18)

Ist auch V = Rn und B1 = {e1, . . . , en}, also auch die Koordinatenabbildung auf V dieIdentität, dann ist

Page 24: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

168 2 Matrizen und lineare Abbildungen

Φx = Ax , (2.19)

was (2.5) entspricht. Zumindest für V = Rn, W = Rm bei Wahl der Standardbasen wirddemnach jede lineare Abbildung durch Matrix-Vektormultiplikation vermittelt, ansons-ten kommt noch der Darstellungswechsel durch die Koordinatenabbildung dazu. LGSsind daher allgemeine Gleichungen, sofern nur lineare Abbildungen betrachtet werden.Φ ∈ Hom(Rn,Rm) werden somit durch ihre Darstellungsmatrix A ∈ R(m,n) (bezüglich derStandardbasen) angegeben.

4) Sei Φ ∈ Hom(V, V) und für eine festgelegte Basis von V sei A = (ai, j) ∈ R(n,n) dieDarstellungsmatrix. Dann hat Φ2 := Φ ◦Φ die Darstellungsmatrix A2.Das kann man wie folgt einsehen: Sei u1, . . . , un die gewählte Basis von V, demnach

Φu j =

n∑i=1

ai, jui

und damit

Φ2u j =

n∑i=1

ai, jΦui =n∑

i=1

ai, j

n∑k=1

ak,iuk =n∑

k=1

⎛⎜⎜⎜⎜⎜⎝ n∑i=1

ak,iai, j

⎞⎟⎟⎟⎟⎟⎠ uk = n∑k=1

(A2

)k, juk .

Daraus folgt für Φk := Φk−1 ◦Φ :

Φk hat die Darstellungsmatrix Ak. (2.20)

5) Man beachte immer die Abhängigkeit der Darstellungsmatrix von den gewählten Ba-sen: Ist bei Φ ∈ Hom(V, W) W mit einem SKP( . ) und einer ONB {w1, . . . ,wm} versehenund V mit der Basis {u1, . . . , un} ergibt sich die explizite Darstellung für die Darstellungs-matrix A ∈ R(m,n)

ai, j =(Φu j .wi

), (2.21)

da Φu j =∑m

i=1 ai, jwi =∑m

i=1

(Φu j .wi

)wi nach Bemerkungen 1.106, 1).

Dies ergibt erneut bei V = Rn, W = Rm, Φx = Ax die Identität von Φ und die Darstel-lungsmatrix bei Wahl der Einheitsbasen, da diese in Rm eine ONB darstellt.Wählt man stattdessen auf Rn die Einheitsbasis, auf Rm aber die gewichtete Basis

ei := αiei, i = 1, . . . , m

mit αi > 0, so ist die Darstellungsmatrix dann

A := diag(α−1

i

)A . �

Page 25: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.2 Lineare Abbildungen und ihre Matrizendarstellung 169

Beispiele 2.26 Hier bestimmen wir Darstellungsmatrizen zu linearen Abbildungen Rn →Rn bezüglich der Standardbasis (B1 = B2 = {e1, . . . , en}). Nach (2.19) und Haupt-satz 2.23, 2) sind die Spalten der Darstellungsmatrix die Bilder der Einheitsvektoren.

1) Die Identität

id : Rn → Rn, x �→ x

bildet jeden Vektor auf sich selbst ab, also auch die Standardbasis auf die Standardbasis.Ihre Matrix ist die Einheitsmatrix

1n =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 0 · · · · · · · · · 0

0 1 0...

... 0 1. . .

......

. . .. . .

. . ....

.... . . 1 0

0 · · · · · · · · · 0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠= (δμ,ν)μ,ν=1,...,n . (2.22)

2) Es sei c ∈ R. Die Streckung

Φ : Rn → Rn, x �→ c · xbildet jeden Vektor eν auf c · eν ab. Ihre Matrix ist deswegen⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

c 0 · · · · · · · · · 0

0 c 0...

... 0 c. . .

......

. . .. . .

. . ....

.... . . c 0

0 · · · · · · · · · 0 c

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠= (c · δμ,ν)μ,ν=1,...,n = c1n .

Spezialfälle sind die Identität (c = 1), die Punktspiegelung am Nullpunkt (c = −1) unddie Nullabbildung (c = 0).Diagonalmatrizen diag(ci) mit individuellen Streckungsfaktoren ci, i = 1, . . . , n, für jedeKomponente, wurden schon in Bemerkung 1.47 eingeführt.

3) Die Matrix (λ 10 λ

)für λ ∈ R beschreibt eine Streckscherung auf R2.

Page 26: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

170 2 Matrizen und lineare Abbildungen

4)

Die Matrix zu einer Rotation in der Ebene um den Winkel ϕ ist eine Drehmatrix(c −ss c

),

wobei c := cos(ϕ), s := sin(ϕ) (vgl. Abbildung 2.2).

Eine Verallgemeinerung als (n, n)-Matrix ist

G(ϕ, i, j) :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1. . .

1c −s

1. . .

1s c

1. . .

1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

, (2.23)

wobei die Einträge c,−s, s, c auf den Positionen (i, i), (i, j), ( j, i) und ( j, j) stehen. G heißtGivens3-Rotation und beschreibt die Rotation von span(ei, e j) um den Winkel ϕ.

5) Für jeden Einheitsvektor a, ‖a‖ = 1, haben wir gesehen, dass die Spiegelung an derHyperebene a⊥ durch x �→ x − 2 (x . a) a gegeben wird. Dabei wird der Vektor eν auf

eν − 2 (eν . a) a = eν − 2aνa = (δμ,ν − 2aνaμ)μ=1,...,n (2.24)

abgebildet. Die zugehörige Matrix ist also H := (δμ,ν − 2aμaν)μ,ν=1,...,n . Sie heißt auchHouseholder4-Matrix.

6) Auch eine reine Vertauschung (als spezielle Permutation) von Basisvektoren definierteine lineare Abbildung. So gehört z. B. zu der Vertauschung e1 ↔ e2 die Matrix

3 James Wallace Jr. Givens ∗14. Dezember 1910 in Alberene bei Charlottesville †5. März 19934 Alston Scott Householder ∗5. Mai 1904 in Rockford †4. Juli 1993 in Malibu

Page 27: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.2 Lineare Abbildungen und ihre Matrizendarstellung 171⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 1 0 · · · · · · 01 0 0 · · · · · · 0

0 0 1. . .

......

. . .. . .

. . ....

.... . . 1 0

0 · · · · · · · · · 0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

7) Es sei U ⊂ Rn ein m-dimensionaler Unterraum, der von einer ONB u1, . . . , um aufge-spannt wird. Die Orthogonalprojektion Φ auf diesen Unterraum ist nach Hauptsatz 1.102und (1.88) gegeben durch

PU(x) =m∑

μ=1

(x . uμ

)uμ .

Sie bildet eν aufm∑

μ=1vμ,νuμ ab (wobei uμ = (vμ,ν)ν) und ihre Matrix ist

⎛⎜⎜⎜⎜⎜⎜⎝ m∑μ=1

vμ,kvμ,l

⎞⎟⎟⎟⎟⎟⎟⎠k,l=1,...,n

. (2.25)

◦Bemerkung 2.27 In V = R2 mit dem euklidischen SKP lassen sich orthogonale Trans-formationen und damit Bewegungen vollständig charakterisieren:

Nach den Beispielen in Abschnitt 2.1.2 sind Drehungen um einen Winkel ϕ (siehe auchBeispiele 2.26, 4) )bzw. Spiegelungen an einer Geraden (aufgefasst als Hyperebene) durchden Nullpunkt (siehe auch Beispiele 2.26, 5)) orthogonale Transformationen. Dies sindaber auch die einzigen.Das kann man folgendermaßen einsehen: Sei A =

(a(1), a(2)

)∈ R(2,2) die Darstellungsmatrix (bezüglich

der Standardbasis) einer orthogonalen Transformation. Dann sind a(1) = Ae(1) und a(2) = Ae(2) orthogonalund haben euklidische Länge 1. Setzen wir suggestiv

a(1) =

(cs

)für gewisse c, s, ∈ R mit s2 + c2 = 1 ,

dann ist

a(2) ∈ a(1)⊥ = span(−s

c

),

da dim a(1)⊥ = 2 − 1 = 1. Wegen ‖a(2)‖ = 1 verbleiben nur die Möglichkeiten

a(2) = λ

(−sc

)für λ = ±1 ,

also

Page 28: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

172 2 Matrizen und lineare Abbildungen

Fall 1: A =(

c −ss c

)

Fall 2: A =(

c ss −c

). (2.26)

Wegen s2 + c2 = 1 gibt es ein ϕ ∈ [0, 2π], so dass

s = sin(ϕ), s = cos(ϕ) .

Fall 1 beschreibt demnach die Drehungen (und schließt für ϕ = π die Punktspiegelung mit ein), Fall 2beschreibt die Spiegelungen an einer Geraden:Darstellungsmatrizen von Spiegelungen sind vom Typ (2.26), denn nach (2.24) ist ihre Matrix

H =(

1 − 2a12 −2a1a2

−2a1a2 1 − 2a22

). (2.27)

Durch direktes Nachrechnen bei Beachtung von a12 + a2

2 = 1 sieht man

1 − 2a12 = −(1 − 2a2

2) , (1 − 2a12)2 + (2a1a2)2 = 1 .

Ist andererseits A vom Typ (2.26), so wählt man die (Spiegelungs-)Gerade als

span((

cos(ϕ/2), sin(ϕ/2))t),

folglich als a⊥ mit

a =⎛⎜⎜⎜⎜⎜⎝ cos

( 12 (ϕ + π)

)sin

( 12 (ϕ + π)

) ⎞⎟⎟⎟⎟⎟⎠ .

Die Gültigkeit von (2.27) folgt aus den trigonometrischen Identitäten für den Halbwinkel und aus

sin(ϕ) = −2 cos(

12

(ϕ + π))

sin(

12

(ϕ + π))

(Übung).

2.2.2 Dimension und Isomorphie

Theorem 2.28: Isomorphie = gleiche Dimension

Seien V und W zwei R-Vektorräume und dim V = n < ∞. Dann sind äquivalent:

(i) dim W = n

(ii) V � W.

Page 29: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.2 Lineare Abbildungen und ihre Matrizendarstellung 173

Beweis: Sei B = {u1, . . . , un} eine Basis von V .

„(i)⇒ (ii)“: Es ist ein Isomorphismus Φ : V → W anzugeben. Seien w1, . . . ,wn eineBasis von W. Nach Hauptsatz 2.23 wird durch

Φui = wi für i = 1, . . . , n

eindeutig eine lineare Abbildung Φ : V → W definiert. Diese ist injektiv, denn für u =n∑

i=1λiui ∈ V gilt

Φu = 0 ⇔n∑

i=1

λiΦui =n∑

i=1

λiwi = 0 ⇔ λ1 = . . . λn = 0 ,

da Φ(B) linear unabhängig ist. Φ ist surjektiv, denn V wird von B aufgespannt und

W = span(w1, . . . ,wn) = span(Φu1, . . . , Φun) = Φ(span(u1, . . . , un)) = Φ(V) .

„(ii)⇒ (i)“: Sei Φ ein Isomorphismus von V nach W, dann ist Φ(B) nach Satz 2.2 eineBasis von W und enthält n Elemente. �

Bemerkung 2.29 Für endlichdimensionale R-Vektorräume V und W gilt also

dim V = dim W ⇔ V � W .

Allgemein ist dies falsch, es bleibt nur die Richtung „⇐“ gültig.Ist nämlich einer der beiden Räume V, W endlichdimensional, dann wegen der Isomorphie auch der An-dere.

�Ein Isomorphismus überträgt Basen und damit auch die Dimension, d. h. insbesondere istin der Situation von Theorem 2.24

dim Hom(V, W) = m n .

Andererseits impliziert gleiche (endliche) Dimension auch die Existenz eines Isomorphis-mus, in diesem Sinn also Identifizierbarkeit. Insbesondere ist deswegen

Rn � R(1,n) � R(n,1) .

So ist die bisher schon benutzte Identifikation (Bemerkungen 1.35, 1), 2)) zu verstehen,insbesondere ist t als Abbildung von R(1,n) nach R(n,1) ein Isomorphismus.

Etwas allgemeiner folgt für einen n-dimensionalen R-Vektorraum V:

Page 30: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

174 2 Matrizen und lineare Abbildungen

Sei

V∗ := Hom(V,R)

der Raum der Linearformen auf V ,

dann gilt

dim V∗ = dim V · 1 = dim V

und damit

V � V∗ .

Linearformen werden später genauer betrachtet. Eine erste Anwendung liefert:

*Bemerkung 2.30 (näherungsweise Integration) Eine Näherungsformel (Quadraturfor-mel) zur Bestimmung eines Integrals auf dem Intervall [a, b]:

I( f ) :=

b∫a

f (t)dt

hat die Gestalt

In( f ) :=n∑

i=1

mi f (ti)

für fest gewählte Stützstellen a ≤ t1 < t2 < . . . < tn ≤ b, wobei die Quadraturgewichtemi ∈ R, i = 1, . . . , n, so gewählt werden sollten, dass die Formel möglichst genau ist. EinKriterium ist die Forderung

I( f ) = In( f ) für alle f ∈ Rn−1[x] . (2.28)

Es gibt eindeutig bestimmte Quadraturgewichte, so dass (2.28) gilt.Das kann man wie folgt einsehen: Man setzt V := Rn−1[x] und

Φi : V → R, f �→ f (ti) .

Dann sind I, Φi ∈ V∗, und (2.28) lautet

I =n∑

i=1

miΦi , (2.29)

so dass es wegen dim V∗ = dim V = n reicht nachzuweisen, dass Φ1, . . . , Φn linear unabhängig in V∗ unddamit eine Basis von V∗ sind:

n∑j=1

α jΦ j = 0⇔n∑

j=1

α jΦ j( f ) = 0⇔n∑

j=1

α j f (t j) = 0 für alle f ∈ V . (2.30)

Page 31: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.2 Lineare Abbildungen und ihre Matrizendarstellung 175

Betrachten wir speziell für f die Lagrange5schen Basispolynome

fi(t) :=n∏

k=1k�i

t − tk

ti − tk, i = 1, . . . , n (2.31)

die also gerade die Eigenschaft

fi(t j) = δi, j für i = 1, . . . , n

haben, so impliziert sukzessives Einsetzen in (2.30) α1 = α2 . . . = αn = 0.

Insbesondere sind die Lagrange-Basispolynome in Rn−1[x], definiert nach (2.31), linearunabhängig und damit eine Basis von Rn−1[x], alternativ zur Monombasis nach (1.33). Siehaben allerdings den Nachteil, dass sie von den Stützstellen abhängig sind.Ihre lineare Unabhängigkeit lässt sich sofort einsehen:

n∑j=1

α j f j = 0 ⇒ αi =

⎛⎜⎜⎜⎜⎜⎜⎝ n∑j=1

α j f j

⎞⎟⎟⎟⎟⎟⎟⎠ (ti) = 0 für alle i = 1, . . . , n .

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1.0

1.2

0.0 0.5 1.0 1.5 2.0 2.5 3.0 3.5 4.0

Abb. 2.5: Lagrangesche Basispolynome für die Stützstellen ti = i, i = 0, . . . , 4.

Mit den Lagrangeschen Basispolynomen lassen sich die Gewichte mi auch berechnen,da nach Hauptsatz 2.23 die Identität (2.29) genau dann gilt, wenn

I( f j) =n∑

i=1

miΦi( f j), j = 1, . . . , n

für eine Basis { f1, . . . , fn}, was speziell für (2.31) bedeutet:

5 Joseph-Louis de Lagrange ∗25. Januar 1736 in Turin †10. April 1813 in Paris

Page 32: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

176 2 Matrizen und lineare Abbildungen

m j = I( f j) für alle j = 1, . . . , n .

�In Erweiterung von Hauptsatz 1.85 folgt bei gleicher Dimension:

Hauptsatz 2.31: injektiv = surjektiv bei gleicher endlicher Dimension

Seien V und W zwei R-Vektorräume mit dim V = dim W = n < ∞. Sei Φ ∈Hom(V, W). Dann sind äquivalent:

(i) Φ ist Isomorphismus.

(ii) Φ ist injektiv.

(iii) Φ ist surjektiv.

Beweis: Sei B = {u1, . . . , un} eine Basis von V .

„(ii)⇒ (i)“: Nach Satz 2.2 ist Φ[B] linear unabhängig. Da Φ[B] aus n Vektoren besteht,ist es nach Aufgabe 1.20 auch Basis von W, d. h. Φ ist ein Isomorphismus, wieder mitSatz 2.2.„(iii)⇒ (i)“: Nach Satz 2.2 erzeugt Φ[B] den Raum W. Wieder nach Aufgabe 1.20 istΦ[B] auch Basis von W und damit folgt die Behauptung wieder mit Satz 2.2 . �

Hauptsatz 2.31 hätte auch dadurch gezeigt werden können, dass auf die schon bewieseneAussage für Matrizen (Hauptsatz 1.85I) mit Hilfe einer Darstellungsmatrix von Φ zurück-gegriffen worden wäre. Allgemein können so gewisse Aussagen, die sich nur auf Dimen-sionen von Matrizen beziehen, auf allgemeine Homomorphismen zwischen (endlichdi-mensionalen) Vektorräumen übertragen werden. Als Beispiel diene die DimensionsformelI (Theorem 1.82):

Theorem 2.32: Dimensionsformel I

Seien V, W endlichdimensionale R-Vektorräume und Φ ∈ Hom(V, W). Dann gilt

dim V = dim KernΦ + dim Bild Φ .

Beweis: Sei dim V = n mit einer fixierten Basis B1 und analog dim W = m mit einer BasisB2. Dann erfüllt die zugehörige Darstellungsmatrix A ∈ R(m,n) nach (2.16)

Φ = Ξ−1B2◦ A ◦ ΨB1 ,

wobei ΨB1 : V → Rn, ΞB2 : W → Rm die jeweiligen Koordinatenabbildungen sind, alsoIsomorphismen. Damit ist

Page 33: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.2 Lineare Abbildungen und ihre Matrizendarstellung 177

u ∈ Kern Φ⇔ ΨB1u ∈ Kern A bzw. ΨB1 (KernΦ) = Kern A .

Deswegen ist

dim Kern Φ = dim Kern A

nach Theorem 2.28, da auch ΨB1 |KernΦ : Kern Φ→ Kern A ein Isomorphismus ist.Analog gilt

w ∈ Bild Φ⇔ ΞB2w ∈ Bild A bzw. ΞB2 (Bild Φ) = Bild A ,

und damit mit analoger Begründung

dim Bild Φ = dim Bild A .

Nach Theorem 1.82 (und Hauptsatz 1.80) gilt

n = dim Kern A + dim Bild A

und damit die Behauptung. �

*Bemerkungen 2.33

1) Theorem 2.32 gilt auch für unendlichdimensionale Vektorräume und reduziert sich dortauf∞ = ∞.Wir greifen auf Aussagen aus Abschnitt 3.4 (die unabhängig von dieser Aussage sind) vor. Ist dim V = ∞,ist nur der Fall dim Bild Φ < ∞ und dim Kern Φ < ∞ auszuschließen. Nach Theorem 3.37 wäre dann auchV/ Kern Φ endlichdimensional und nach Satz 3.41 auch V.

2) Hauptsatz 2.31 folgt sofort aus Theorem 2.32:„(ii)⇒ (i)“: dim W = dim V = dim Bild Φ⇒ Bild Φ = W.„(iii)⇒ (i)“: dim V = dim Kern Φ + dim W ⇒ dim Kern Φ = 0⇒ KernΦ = {0}. �

*Bemerkung 2.34 Bei einem linearen (Gleichungs-)Problem mit gleicher Anzahl vonUnbekannten und Bedingungen ist somit nach Hauptsatz 2.31 Existenz und Eindeutig-keit einer Lösung äquivalent. Das hat vielfältige Anwendungen, z. B.(Polynom-)Interpolation: Sei V ein n-dimensionaler linearer Vektorraum reellwertiger ste-tiger Funktionen auf [a, b], seien

Δ : a ≤ t1 < t2 < . . . < tn ≤ b

fest vorgegebene Interpolationsstellen und dazu Werte y = (yi)i ∈ Rn. Gesucht ist einf ∈ V , so dass

f (ti) = yi für alle i = 1, . . . , n . (2.32)

f heißt dann eine Interpolierende zu den Daten (ti, yi), i = 1, . . . , n bzw. zum Datenvektory auf der Zerlegung Δ. Sei Φ : V → Rn definiert durch

Page 34: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

178 2 Matrizen und lineare Abbildungen

f �→ ( f (ti))i ,

dann ist Φ offensichtlich linear und es sind äquivalent zueinander:

a) Existenz einer Lösung von (2.32) für alle y ∈ Rn , bzw. Surjektivität von Φ ,b) Eindeutigkeit einer Lösung von (2.32) , bzw. Injektivität von Φ ,

bzw. f = 0 ist die einzige Lösung zu y = 0 .

Damit reicht der Nachweis von a) oder b), um die eindeutige und universelle Lösbarkeitvon (2.32) zu sichern.

Bei V = Rn−1[x] (Polynominterpolation) ist daher zum Beispiel für f ∈ Rn−1[x] zuzeigen

f (ti) = 0 für i = 1, . . . , n⇒ f = 0 .

Das folgt aus dem Nullstellensatz für Polynome (siehe Satz B.21, 3)). Damit ist für gege-benes y ∈ Rn die Lösung f ∈ V noch nicht angegeben. Die Gleichung

Φ( f ) = y

wird nach (2.18) durch Festlegung einer Basis f1, . . . , fn von V zu einem LGS

Ax = y ,

wobei sich die Spalten von A ergeben als

a(i) = Φ( fi) = ( fi(t j)) j (2.33)

mit x als Koeffizientenvektor, d. h.

f =n∑

i=1

xi fi .

Wenn f1, . . . , fn so gewählt werden, dass A = 1n (siehe (2.22)) gilt, ist natürlich x = y. Bei(2.33) bedeutet dies

fi(t j) = δi, j für i, j = 1, . . . , n . (2.34)

Bei der Polynominterpolation sind dies gerade die Lagrangeschen Basispolynome nach(2.31).

Mit den Lagrangeschen Basispolynomen fi, i = 1, . . . , n lässt sich also die eindeuti-ge Interpolierende f angeben durch

f (t) =n∑

i=1

yi fi(t), t ∈ [a, b] (2.35)

Im Raum S 1(Δ) (siehe (1.30)) erfüllen die Hutfunktionen (siehe (1.36)-(1.38)) auch (2.34).Die Interpolierende hat eine Darstellung analog zu (2.35), nur dass hier die Interpolations-

Page 35: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

Aufgaben 179

stellen und Basisfunktionen von 0 bis n indiziert sind. Auf diese Weise ist die (universelle)Existenz einer Lösung von (2.32) geklärt und damit auch die eindeutige Existenz. �

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• Darstellungsmatrix

Zusammenhänge

• Prinzip der linearen Ausdehnung (Hauptsatz 2.23)• Homomorphismen =Matrizen im Endlichdimensionalen (Theorem 2.24)• Isomorphie = gleiche endliche Dimension (Theorem 2.28)• injektiv = surjektiv bei gleicher endlicher Dimension (Hauptsatz 2.31)• Dimensionsformel I (Theorem 2.32)

Beispiele

• Darstellungsmatrix von Drehung, Spiegelung, Orthogonalprojektion• Raum der Linearformen V∗

Aufgaben

Aufgabe 2.6 (T) Seien V, W zwei R-Vektorräume. Zeigen Sie, dass auf Hom(V, W) durch(2.15) Verknüpfungen definiert werden und Hom(V, W) mit diesen Verknüpfungen einR-Vektorraum ist.

Aufgabe 2.7 (T) Man verallgemeinere die Suche nach einer Quadraturformel aus Bemer-kung 2.30 auf die Forderung (Notation wie dort)

I( f ) = In( f ) für alle f ∈ Vn .

Dabei ist Vn ein n-dimensionaler Funktionenraum mit Basis f1, ..., fn.

a) Schreiben Sie diese Forderung als äquivalentes LGS für die Gewichte m1, ..., mn.b) Die Stützstellen seien

ti = a + (i − 1)h , h := (b − a)/(n − 1) , i = 1, ..., n . (2.36)

Formulieren Sie diese LGS für die Fälle:

(i) Vn = Rn−1(x) mit lagrangeschen Basispolynomen,(ii) Vn = Rn−1(x) mit Monombasis,

(iii) Vn−1 = S 0(Δ) mit Basis nach (1.34) – Δ entspricht den Stützstellen –,(iv) Vn = S 1(Δ) mit Basis nach (1.36) - (1.37).

Page 36: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

180 2 Matrizen und lineare Abbildungen

Was können Sie über die eindeutige Lösbarkeit der LGS aussagen und wo könnenSie die Lösung angeben (bei (i) reicht n = 3: Kepler6sche Fassregel)?

c) Bei V3 = R2(x) ergibt sich ein spezielles Phänomen: Berechnen Sie für f (t) = t3

I( f ) − I3( f ) .

Was folgern Sie hieraus?Hinweis:

(i) Für Integrale gilt:

b∫a

f (t) dt = (b − a)

1∫0

f((b − a)s + a

)ds .

(ii) Sind fi die Lagrange-Basispolynome auf [a, b] zu ti nach (2.36), dann sindgi(s) := fi

((b − a)s + a

)die Lagrange-Basispolynome auf [0, 1] zu si :=

(i − 1)/(n − 1), i = 1, ..., n. (Begründung?)

Aufgabe 2.8 (K) Es sei V = R2[x] der R-Vektorraum der Polynome vom Grad ≤ 2.Bestimmen Sie eine Matrix zur linearen Abbildung Φ : V → V, f → d f

dx , bezüglicha) der Basis 1, x, x2 ∈ V ,b) der Basis (x − 1)2, x2, (x + 1)2 ∈ V .

Aufgabe 2.9 (K) Es sei V der Vektorraum der reellen, symmetrischen zweireihigen Ma-trizen und

A =(

a bb c

)∈ V .

Der Homomorphismus ϕ : V → V sei definiert durch ϕ(S ) := AtS A. Man berechne dieDarstellungsmatrix von ϕ bezüglich der Basis

S 1 =

(1 00 0

), S 2 =

(0 11 0

), S 3 =

(0 00 1

)von V .

6 Johannes Kepler ∗27. Dezember 1571 in Weil der Stadt †15. November 1630 in Regensburg

Page 37: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 181

2.3 Matrizenrechnung

2.3.1 Matrizenmultiplikation

Seien U, V, W drei R-Vektorräume, Φ ∈ Hom(U, V) und Ψ ∈ Hom(V, W). Dann ist Ψ ◦Φnicht nur eine Abbildung von U nach W, sondern wie schon in (2.4) erwähnt auch linear:

(Ψ ◦Φ)(c1u1 + c2u2) = Ψ (Φ(c1u1 + c2u2)) = Ψ (c1Φ(u1) + c2Φ(u2))= c1Ψ ◦Φ(u1) + c2Ψ ◦Φ(u2) .

Also:

Ψ ◦Φ ∈ Hom(U, W) .

Diese Verknüpfung von Homomorphismen führt zu einer Verknüpfung der Darstellungs-matrizen:

Theorem 2.35: Darstellungsmatrix von Kompositionen

Seien U, V, W drei R-Vektorräume mit Basen B1 = {u1, . . . , un}, B2 = {u1, . . . , um}und B3 = {w1, . . . ,wl} für n, m, l ∈ N. Hat Φ ∈ Hom(U, V) (nach (2.13)) die Dar-stellungsmatrix

B = B2 [Φ]B1 = (bμ,ν) ∈ R(m,n),

Ψ ∈ Hom(V, W) die Darstellungsmatrix

A = B3[Ψ ]B2 = (aλ,μ) ∈ R(l,m),

dann hat Ψ ◦Φ die Darstellungsmatrix

C = B3[Ψ ◦Φ]B1 = (cλ,ν) ∈ R(l,n), wobei cλ,ν =m∑

μ=1aλ,μbμ,ν . (2.37)

Beweis: Es ist

Φ(uν) =m∑

μ=1

bμ,νuμ , Ψ (uμ) =l∑

λ=1

aλ,μwλ

und somit

Page 38: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

182 2 Matrizen und lineare Abbildungen

(Ψ ◦Φ)(uν) = Ψ

⎛⎜⎜⎜⎜⎜⎜⎝ m∑μ=1

bμ,νuμ

⎞⎟⎟⎟⎟⎟⎟⎠ = l∑λ=1

m∑μ=1

aλ,μbμ,νwλ =

l∑λ=1

cλ,νwλ .7

Durch (2.37) wird also insbesondere einem A ∈ R(l,m) und einem B ∈ R(m,n) ein C ∈ R(l,n)

zugeordnet. Diese Verknüpfung führt zu:

Definition 2.36

Seien n, m, l ∈ N und A ∈ R(l,m), B ∈ R(m,n) gegeben. Das Matrixprodukt AB ∈ R(l,n)

wird definiert als

AB = C = (cλ,ν)λ,ν

mit cλ,ν =

m∑μ=1

aλ,μbμ,ν.

Für B = (b) ∈ R(m,1) � Rm ist das gerade das Matrix-Vektor-Produkt Ab. Hat B dieSpaltendarstellung B = (b(1), . . . , b(n)), dann

AB =(Ab(1), . . . , Ab(n)

),

so dass die Berechnung von AB durch n Matrix-Vektor-Produkte geschieht. Man berechnetalso entweder

• n Linearkombinationen von m Vektoren im Rl (spaltenweise Sicht)

oder

• n-mal l Skalarprodukte in Rm (zeilenweise Sicht).

Die zweite Sichtweise bedeutet somit die Spaltendarstellung

AB =((

a(ν) . b(1))ν, . . . ,

(a(ν) . b(n)

),

wobei a(1), . . . , a(l) die Zeilen von A bezeichnet und damit die Zeilendarstellung

7 Zu dieser Umformung siehe Anhang (B.5).

Page 39: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 183

AB =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝at

(1)B...

at(l)B

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ . (2.38)

Dies entspricht der Handrechenregel „Zeile·Spalte“: Der Eintrag cλ,ν wird dadurcherhalten, dass die λ-te Zeile von A, d. h. a(λ) und die ν-te Spalte von B, d. h. b(ν)

„aufeinandergelegt, komponentenweise multipliziert und dann addiert werden“:

cλ,ν =(a(λ) . b(ν)

). (2.39)

Für Darstellungsmatrizen entspricht das Matrixprodukt nach Theorem 2.24 der Kompo-sition der Homomorphismen. Ist daher speziell U = Rn, V = Rm, W = Rl und werdenimmer Standardbasen betrachtet, d. h.

Φ : Rn → Rm gegeben durch Φx = Bx ,

Ψ : Rm → Rl gegeben durch Ψy = Ay ,

dann gilt für die Komposition Ψ ◦Φ : Rn → Rl

(Ψ ◦Φ)x = ABx .

Bemerkungen 2.37

1) Mit der Matrixmultiplikation lassen sich auch Zeilen und Spalten einer Matrix darstel-len: Sei A ∈ R(m,n), A = (a(1), . . . , a(n)) die Spaltendarstellung und A = (a(1), . . . , a(m)) dieZeilendarstellung. Dann ist schon direkt aus Definition 1.45 klar, dass

a( j) = Ae j für j = 1, . . . , n

und aus (2.39) folgt mit 1m an Stelle von A, A an Stelle von B

at(i) = et

iA für i = 1, . . . , m .

und damit gilt insbesondere

A = A1n = 1mA ,

d. h. die Einheitsmatrix ist neutrales Element bezüglich der Multiplikation.

2) In Fortführung von (1.42) lässt sich bei einer verträglichen Partitionierung von A ∈R(l,m), B ∈ R(m,n)

Page 40: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

184 2 Matrizen und lineare Abbildungen

A =(

A1,1 A1,2A2,1 A2,2

), B =

(B1,1 B1,2B2,1 B2,2

)Die Berechnung von AB auf das Rechnen mit (2, 2) Matrizen mit Matrizen-Einträgen zu-rückführen:

AB =(

A1,1B1,1 + A1,2B2,1 A1,1B1,2 + A1,2B2,2

A2,1B1,1 + A2,2B2,1 A2,1B1,2 + A2,2B2,2

). (2.40)

Eigenschaften der Komposition von Homomorphismen übertragen sich also sofort auf dasMatrixprodukt.Es seien Ξ ∈ Hom(T, U), Φ ∈ Hom(U, V), Ψ ∈ Hom(V, W), für R-Vektorräume V, W, Tund U und es seien A ∈ R(l,m), B ∈ R(m,n), C ∈ R(n,p) für l, m, n, p ∈ N (und analog fürindizierte Größen). Dann gilt allgemein (ohne Linearität)

Ψ ◦ (Φ ◦ Ξ) = (Ψ ◦Φ) ◦ Ξund damit

A(BC) = (AB)C (Assoziativität). (2.41)

Insbesondere ist

A(Bx) = (AB)x für x ∈ Rn,

was sich auch direkt aus der Definition der Komposition ergibt. �

Bemerkung 2.38 Für A ∈ R(n,n) kann daher die k-te Potenz definiert werden durch

A0 := 1, Ak := AAk−1 für k ∈ N . (2.42)

Aus (2.41) ergeben sich dann die Rechenregeln

AkAl = Ak+l, (Ak)l = Akl für k, l ∈ N .

Insbesondere kann ausgehend von einem Polynom p ∈ Rk[x] ,p(x) =k∑

ν=0aνxν mit aν ∈ R,

ν = 0, . . . , k und A ∈ R(n,n) das Matrixpolynom

p(A) :=k∑

ν=0

aνAν ∈ R(n,n)

gebildet werden. Dies wird in Kapitel 4 weiter untersucht werden. �Die Addition und die Skalarmultiplikation machen aus Hom(V, W) bzw. R(m,n) einen R-Vektorraum. Diese Operationen sind mit Komposition bzw. Matrixmultiplikation verträg-lich: Es gilt (auch ohne Linearität der Abbildungen)

Page 41: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 185

(Ψ1 + Ψ2) ◦Φ = Ψ1 ◦Φ + Ψ2 ◦Φund (wegen der Linearität von Ψ )

Ψ ◦ (Φ1 +Φ2) = Ψ ◦Φ1 + Ψ ◦Φ2 .

Damit ist

(A1 + A2)B = A1B + A2BA(B1 + B2) = AB1 + AB2

(Distributivität) (2.43)

und schließlich für λ ∈ R:

(λΨ ) ◦Φ = λ(Ψ ◦Φ) = Ψ ◦ (λΦ)

und damit

(λA)B = λAB = A(λB) . (2.44)

Ein Skalar kann folglich beliebig durch ein Matrixprodukt wandern. Außerdem haben wirschon gesehen, dass das Matrixprodukt das Matrix-Vektor-Produkt und dieses wieder dasSkalarprodukt als Spezialfall enthält. Man beachte aber, dass das Skalarprodukt kommu-tativ ist,

(a . b) = (b . a) ,

was für das allgemeine Matrixprodukt, auch für l = m = n, wenn beide AB ∈ R(n,n) undBA ∈ R(n,n) im gleichen Raum existieren, nicht gilt:

Im Allgemeinen ist AB � BA .

Wir berechnen dafür als Beispiel(a1 a0 a2

) (b1 b0 b2

)=

(a1b1 a1b + ab2

0 a2b2

),(

b1 b0 b2

) (a1 a0 a2

)=

(b1a1 b1a + ba2

0 b2a2

).

Im Allgemeinen (z. B. wenn a = b = 1 und a1 + b2 � a2 + b1) unterscheiden sich diebeiden Dreiecksmatrizen durch ihren Eintrag rechts oben.

Die Räume Hom(V, V) für einen R-Vektorraum V bzw. R(n,n) haben somit bezüglichAddition und Skalarmultiplikation eine R-Vektorraumstruktur, und erfüllen auch bezüg-lich Addition und Matrizenmultiplikation:

(1) Für die Addition:Kommutativität, Assoziativität, Existenz eines neutralen und von inversen Elemen-

Page 42: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

186 2 Matrizen und lineare Abbildungen

ten. Später werden wir dies ausdrücken durch:

(Hom(V, V),+) bzw.(R(n,n),+

)ist eine abelsche Gruppe8.

(2) Für die Komposition bzw. (Matrix-) Multiplikation:Gilt (davon nur) die Assoziativität:

(Hom(V, V), ◦) bzw.(R(n,n), ·

)ist eine Halbgruppe.

(3a) Es gibt ein neutrales Element bezüglich der Komposition/Multiplikation, nämlichdie Identität bzw. die Einheitsmatrix.

(3b) Es gelten die Distributivgesetze (2.43).Insgesamt:

(Hom(V, V),+, ◦) bzw.(R(n,n),+, ·

)bildet einen (nicht kommutativen) Ring.

Liegt also wie hier sowohl Vektorraumstruktur und Ringstruktur vor und sind die Ring-Multiplikation und die Skalarmultiplikation verträglich im Sinn von (2.44), so spricht manvon einer R-Algebra (siehe Definition 3.17).

Vergleicht man mit den algebraischen Eigenschaften etwa von (R,+, ·), so fehlt dieExistenz von (multiplikativ) inversen Elementen für Elemente ungleich 0. Als Ring istalso (Hom(V, V),+, ·) eher vergleichbar mit den ganzen Zahlen (Z,+, ·).Beispiele 2.39 (Beispiele für Matrizenmultiplikation)

1) Ist 1m die m × m-Einheitsmatrix und A ∈ R(m,n), so ist wegen Φ ◦ id = id ◦Φ = Φ, wieschon in Bemerkungen 2.37, 1) gesehen,

1mA = A1n = A .

2) Sind G(α) und G(β) die Drehmatrizen⎛⎜⎜⎜⎜⎜⎝ cos(α) − sin(α)

sin(α) cos(α)

⎞⎟⎟⎟⎟⎟⎠ , ⎛⎜⎜⎜⎜⎜⎝ cos(β) − sin(β)

sin(β) cos(β)

⎞⎟⎟⎟⎟⎟⎠ ,so ist das Produkt

8 siehe Definition B.7 ff. und Definition 3.1 ff.

Page 43: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 187

G(α)G(β) =

⎛⎜⎜⎜⎜⎜⎝ cos(α) cos(β) − sin(α) sin(β) − cos(α) sin(β) − sin(α) cos(β)

sin(α) cos(β) + cos(α) sin(β) − sin(α) sin(β) + cos(α) cos(β)

⎞⎟⎟⎟⎟⎟⎠=

⎛⎜⎜⎜⎜⎜⎝ cos(α + β) − sin(α + β)

sin(α + β) cos(α + β)

⎞⎟⎟⎟⎟⎟⎠ = G(α + β) (2.45)

die Drehmatrix zum Winkel α + β. Dieses Ergebnis ist eine direkte Konsequenz der Addi-tionstheoreme für die Winkelfunktionen. Für feste i, j gilt für G(α, i, j),G(β, i, j) ∈ R(n,n)

eine analoge Aussage. Für Drehmatrizen ist demnach die Multiplikation kommutativ.

3) Das Produkt unterer (oberer) Dreiecksmatrizen ist eine untere (obere) Dreiecksmatrix.Die Diagonalelemente des Produkts sind die Produkte der Diagonalelemente. Sind dieMatrizen normiert, d. h. die Diagonaleinträge alle 1, so ist also auch das Produkt normiert.Das kann man wie folgt einsehen (siehe auch das obige Beispiel für Nichtkommutativität der Produktbil-dung): Es genügt, etwa untere Dreiecksmatrizen zu betrachten.Seien A, B ∈ R(n,n) mit ai, j = 0 für j > i, bj,k = 0 für k > j. Dann ist

(AB)i,k =

n∑j=1

ai, jb j,k =

i∑j=k

ai, jb j,k (2.46)

und damit (AB)i,k = 0 für k > i, d. h. AB ist untere Dreiecksmatrix.Insbesondere (AB)i,i = ai,ibi,i und aus ai,i = bi,i = 1 folgt

(AB)i,i = 1 .

4) Für eine quadratische Diagonalmatrix D = diag(λi) ∈ R(n,n) gilt D2 = diag(λ2i ) und

damit

Dk = diag(λki ) . (2.47)

Aus der Analysis ist bekannt:

Für |λ| < 1 konvergiert λk gegen 0 für k → ∞ ,Für λ > 1 konvergiert λk gegen ∞ für k → ∞ ,Für λ < −1 konvergiert |λ|k gegen ∞ für k → ∞ und λk oszilliert.

Somit gilt für x ∈ Rn

|(Dkx)i| ist „klein“ für |λi| < 1 und „große“ k ,|(Dkx)i| ist „groß“ für |λi| > 1 und „große“ k .

Stellen wir uns die Folge

x, Dx, D2x, . . . , Dk x

Page 44: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

188 2 Matrizen und lineare Abbildungen

als das Ergebnis eines zeitdiskreten Prozesses vor, klingt der Einfluss von xi für |λi| < 1mit der Zeit ab und einen Grenzwert in einer Komponente i gibt es nur für −1 < λi ≤ 1.Für λi = −1 oszilliert die Komponente.In Kapitel 4 wird untersucht werden, welche Abbildungen durch gleichen Basiswechselin Ausgangs- und Zielraum auf Diagonalgestalt gebracht werden können. Die in der Dia-gonalmatrix auftretenden Eigenwerte der Matrix beschreiben sodann im obigen Sinn dasLangzeitverhalten der iterierten Abbildung. ◦

2.3.2 Tensorprodukt von Vektoren und Projektionen

Mit den obigen Eigenschaften der Matrizenmultiplikation können wir die Darstellungsma-trix der Spiegelung aus (2.24) schreiben als

A = 1n − 2aat , (2.48)

denn für x ∈ Rn gilt:

x − 2 (x . a) a = x − 2a (a . x) = x − 2a(at x) =(1n − 2aat

)x .

Sind allgemeiner a ∈ Rm, b ∈ Rn und damit auch a ∈ R(m,1), bt ∈ R(1,n), so ist dasMatrixprodukt abt ∈ R(m,n) (nicht mit Skalarprodukt verwechseln!) definiert:

Definition 2.40

Seien a ∈ Rm, b ∈ Rn. Dann wird das dyadische Produkt oder Tensorprodukt a ⊗ bvon a und b definiert als a ⊗ b := abt ∈ R(m,n), somitbei a = (aμ), b = (bν)

a ⊗ b = (aμbν)μν .

Für A = a ⊗ b gilt:Ist a = 0 oder b = 0, dann ist

A = 0 (die Nullmatrix).

Andererseits ist der

Zeilenraum von A = Rb für a � 0 ,Spaltenraum von A = Ra für b � 0 ,

(2.49)

also insbesondere ist Rang(A) = 1 für a � 0 und b � 0.

Page 45: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 189

Ist andererseits A ∈ R(m,n) mit Rang(A) = 1, dann gibt es a ∈ Rm und b ∈ Rn,a � 0, b � 0,so dass

A = a ⊗ b ,

Denn wegen Spaltenrang = 1 sind alle Spalten a( j), j = 1, . . . , n Vielfache von einer Spaltea := a(k) � 0 für ein k ∈ {1, . . . , n} sind, also ist a( j) = b ja und bk = 1. Solche Matrizenheißen daher auch Rang-1-Matrizen .

Weiter gilt für Kern A nach (1.70) wegen (2.49) bei a � 0:

Kern A = b⊥ . (2.50)

Mit dem Tensorprodukt lässt sich auch die Orthogonalprojektion auf einen UnterraumU ⊂ Rn mit der ONB u1, . . . , ur ausdrücken (siehe (1.88) bzw. (2.25)) als

PU(x) =

⎛⎜⎜⎜⎜⎜⎜⎝ r∑μ=1

uμ ⊗ uμ⎞⎟⎟⎟⎟⎟⎟⎠ x

bzw. die Darstellungsmatrix als

A =r∑

μ=1uμ ⊗ uμ = VVt , (2.51)

wobei V := (u1, . . . , ur) ∈ R(n,r) aus den ui als Spalten zusammengesetzt wird.Insbesondere ist daher für u ∈ Rn, ‖u‖ = 1 ,

A = u ⊗ udie Orthogonalprojektion auf die Gerade Ru und aus solchen Projektionen setzt sich imFall einer ONB die Orthogonalprojektion additiv zusammen.

Beispiel 2.41 (Geometrie) Betrachten wir genauer orthogonale Projektionen auf GeradenU = Rb (d. h. durch 0) mit ‖b‖ = 1 und dazu U⊥ = b⊥, d. h. eine allgemeine Hyperebene(durch 0). Dann ist

PU(x) = b ⊗ b x , somit PU⊥ (x) = (1 − b ⊗ b) x . (2.52)

Entsprechend tauschen sich die Rollen von U und U⊥ für eine Hyperebene U (durch 0).Ist A = a + U für ein a ∈ Rn und U = Rb mit ‖b‖ = 1, d. h. eine allgemeine Gerade,

dann ist

PA(x) = PU(x) + PU⊥ (a)= b ⊗ b x + (1 − b ⊗ b)a .

Page 46: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

190 2 Matrizen und lineare Abbildungen

Der Lotvektor von x auf die Gerade A, d. h. von x zum Lotfußpunkt PA(x) ist daher nach(1.78)

PA(x) − x = PU⊥ (a − x) = (1 − b ⊗ b)(a − x) ,

und damit wird

d(x, A) = ‖(1 − b ⊗ b)(x − a)‖ = (‖x − a‖2 − | (x − a . b) |2)1/2 .

Entsprechend ist eine allgemeine Hyperebene in Hessescher Normalform gegeben durch

A = a + b⊥ = {y ∈ Rn : (y . b) = α} mit α := (a . b)

und dann gilt

PA(x) = (1 − b ⊗ b)x + b ⊗ b a= (1 − b ⊗ b)x + α b .

(2.53)

Der Lotvektor von x auf die Hyperebene A ist also nach (1.78)

PA(x) − x = PU⊥ (a − x) = (b ⊗ b)(a − x) = (− (x . b) + α)b ,

und damit wird

d(x, A) = | (x . b) − α| .

Das Vorzeichen von (x . b) − α gibt an, in welchem der beiden Halbräume (vgl. Definiti-on 6.10)

H1 := {x ∈ Rn : (x . b) ≤ α}, H2 := {x ∈ Rn : (x . b) ≥ α}x liegt. ◦Über die orthogonale Projektion hinaus können auch andere Projektionen auf U bzw. A (li-near für einen linearen Unterraum, affin-linear (gemäß Definition 2.136) für einen affinenUnterraum) definiert werden, wobei:

Definition 2.42

Seien U ⊂ V zwei R-Vektorräume. P ∈ Hom(V, V) heißt Projektion auf U, wenn

U = Bild P und P(u) = u für alle u ∈ U

Page 47: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 191

bzw. äquivalent P ◦ P = P und U = Bild P gilt. Eine Projektionsmatrix A ∈ R(n,n)

wird auch idempotente Matrix genannt. Entsprechend heißt ein F = a+Φ Projektionauf B = a + U, wenn U = Bild Φ und

F ◦ F = F .

Für eine Projektion auf einen linearen Unterraum U gilt:

id−P ist eine Projektion ,

da (id−P) ◦ (id−P) = id−P − P + P ◦ P = id−P

und

Kern P = Bild(id−P) ,

da P(x − Px) = Px − P ◦ Px = 0 für x ∈ V und y ∈ Kern P impliziert y = y − Py.

Also: Ist P eine Projektion auf Bild P, dann ist

id−P eine Projektion auf Kern P .

Eine Projektion P1 hat also eine Projektion P2 zur Folge, so dass

P1 + P2 = id

V = U1 ⊕ U2 , (2.54)

wobei U1 = Bild P1 = Kern P2, U2 = Bild P2 = Kern P1.

Denn V = U1 + U2 folgt aus P1 + P2 = id. Sei P := Pi, i = 1, 2. Diese Zerlegung ist direkt, da fürw = Pu ∈ Kern P ∩ Bild P gilt:

0 = Pw = P ◦ Pu = Pu = w .

Es hätte auch mit Theorem 2.32 argumentiert werden können.

Andererseits erzeugt jede direkte Zerlegung

V = U1 ⊕ U2

ein solches Paar von Projektionen, indem für x = x1 + x2 ∈ V mit xi ∈ Ui wegen derEindeutigkeit der Darstellung definiert werden kann:

Pix := xi . (2.55)

Page 48: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

192 2 Matrizen und lineare Abbildungen

Pi erfüllt offensichtlich Pi ◦Pi = Pi und ist auch linear, denn seien x = x1+ x2, y = y1+y2 die eindeutigenZerlegungen, d. h.

Pi x := xi , Piy := yi ,

so ist (x1 + y1) + (x2 + y2) die eindeutige Zerlegung von x + y, damit

Pi(x + y) = xi + yi = Pi x + Piy

und analog für die Skalarmultiplikation.

Wegen der Fehlerbeziehung

x − P1y ∈ U2

nennt man P1 auch eine Projektion auf U1 längs U2 und analog für P2.

Sei V ein R-Vektorraum mit SKP. Eine orthogonale Projektion auf U ist somit durch

Kern P = Bild(1 − P) ⊂ U⊥

gekennzeichnet. Dann folgt auch

Kern P = U⊥ , (2.56)

da für u ∈ U⊥ gilt: u − 0 ⊥ U und deswegen Pu = 0.

Ein Tensorprodukt a⊗a für ‖a‖ = 1 ist nach (2.52) die Matrix der orthogonalen Projektionauf Ra. Allgemein beschreibt die Matrix

A = a ⊗ b eine Projektion auf Bild A = Ra , falls (a . b) = 1 .

Denn: a ⊗ b a ⊗ b = abt abt = (a . b) a ⊗ b.

Für beliebige a ∈ Rn, b ∈ Rn mit (a . b) � 0 ist demnach

P :=1

(a . b)a ⊗ b (2.57)

die Matrix einer Projektion auf Ra und daher ist

Pa := 1 − 1(a . b)

a ⊗ b (2.58)

die Projektionsmatrix auf Kern P = b⊥ (nach (2.50)). Sie hat die Eigenschaft

Pax − x ∈ Bild P = Ra ,

beschreibt also die Projektion auf die Hyperebene b⊥ in Richtung von a (siehe Ab-bildung 2.6).

Page 49: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 193

��

���������������������

��

�������������

��

��������������

��

��

a

b xPa x

b⊥

Abb. 2.6: Nichtorthogonale Projektion.

Im Sinn von (2.55) sind infolgedessen P1 := P und P2 := Pa die Projektionen der Zerle-gung

Rn = Ra ⊕ b⊥ .

Die Summe ist direkt wegen der Forderung (a . b) � 0, denn aus λa ∈ b⊥ folgt 0 = λ (a . b), also λ = 0.Nach der Dimensionsformel II (Satz 1.86) und (1.71) muss deswegen der Unterraum Ra ⊕ b⊥ der ganzeRn sein.

Andererseits lässt sich nach Korollar 1.83 jeder (n−1)-dimensionale Unterraum vonRn alsein u⊥ darstellen, so dass (2.57) die Darstellung für eine allgemeine Projektion auf eineneindimensionalen Unterraum ist.

Ist P eine Projektion auf einen linearen Unterraum U, dann ist

F := P + a − Pa

(vgl. (1.77)) eine Projektion auf den affinen Raum a + U.

Page 50: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

194 2 Matrizen und lineare Abbildungen

Speziell ist somit die Projektion auf die Hyperebene

H := {x ∈ Rn : (x . b) = α}mit α ∈ R und u ∈ Rn, so dass (u . b) = α, und somit H = u + b⊥, in Richtung von agegeben durch

F := Pa + u − Pau

(a . b)a + 1 − 1

(a . b)a ⊗ b (2.59)

mit (2.53) als Spezialfall.

1

1

1

1

0,50,5 π4

Abb. 2.7: Kavalierperspektive des Einheitswürfels: Schiefe Parallelprojektion mit u =0, b = e2, a =

(1/23/2,−1, 1/23/2

)t.

Beispiel 2.43 (Geometrie) In Ergänzung zu Beispiel 1.103 spricht man bei (2.59) (undn = 3) von schiefer Parallelprojektion. Auf jeder Hyperebene parallel zu H, d. h. H =w + b⊥ bzw. (u . b) = β für u ∈ H, wirkt F wie eine Translation

F(u) = u +1

(a . b)(α − β)a

und erhält daher für die Hyperebene Längen und Winkel. Allgemein werden Rechteckewie bei jeder affin-linearen Abbildung auf (eventuell degenerierte) Parallelogramme ab-gebildet. In der Darstellenden Geometrie spricht man z. B. von Schrägriss als einer dereinfachsten Darstellungsformen, wenn in R3 als Projektionsebene die xz-Ebene, d. h.u + b⊥ = e⊥2 gewählt wird, so dass bei einem an den Koordinatenachsen ausgerichteten(Einheits-) Würfel die „vordere“ bzw. „hintere“ Seitenfläche nur verschoben wird. DieAbbildung, d. h. der Vektor a, wird dadurch festgelegt, indem man für den Einheitsvektor

Page 51: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 195

in y-Richtung, e2, festlegt, mit welchem Winkel α und zu welcher Länge l er verzerrt wird,d. h.

e2 �→⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ cos(α)l

0sin(α)l

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Wählt man a2 = −1, so entspricht dies

a1 = cos(α)l, a2 = sin(α)l .

Bei der Kavalierperspektive (siehe Abbildung 2.7) wird α = π/4 und l = 0, 5 gewählt. ◦Der enge Zusammenhang zwischen Projektionen und direkten Zerlegungen, sei zusam-mengefasst in:

Hauptsatz 2.44: Projektion und Zerlegung

Sei V ein R-Vektorraum.

1) Ist P Projektion von V nach V , dann

V = Bild P ⊕ Kern P .

2) Ist U ⊕W = V eine direkte Zerlegung, dann gibt es genau eine Projektion P vonV nach V mit

Bild P = U, Kern P = W .

3) Sei V endlichdimensional, B1 eine Basis von Bild P und B2 eine Basis vonKern P, P eine Projektion von V nach V . Dann ist B = B1 ∪ B2 eine Basis vonV und die Darstellungsmatrix von P bezüglich B ist:

B[P]B =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1. . .

10

. . .

0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

}|B1|-mal

}|B2|-mal

.

Beweis: Die Aussagen 1) und 2) sind alle schon bewiesen mit Ausnahme der Eindeutig-keit bei 2):Sei P eine Projektion mit Bild P = U, Kern P = W und U ⊕ W = V . Sei u ∈ V . Dannergeben u1 := Pu ∈ U und u2 := (id−P)u ∈ Kern P = W die eindeutige Zerlegung

Page 52: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

196 2 Matrizen und lineare Abbildungen

u = u1 + u2 ,

d. h. P entspricht der Definition (2.55).

Zu 3): Folgt sofort aus 1), da

für u ∈ B1 : Pu = 1 · u ,für u ∈ B2 : Pu = 0 .

Der Begriff der direkten Summe lässt sich auch auf endlich viele Unterräume Vi, i =1, . . . , m ausdehnen. Wenn weiterhin die Darstellung für u ∈ V als

u = u1 + . . . + um

eindeutig sein soll, reicht nicht, dass paarweise die Vi nur den Nullraum als Schnitt haben,sondern man muss verstärkt fordern:

Definition 2.45

Sei V ein R-Vektorraum, seien Vi, i = 1, . . . , m, lineare Unterräume.Wenn

(V1 + . . . + V j) ∩ V j+1 = {0} für j = 1, . . . , m − 1 ,

dann wird die Summe rekursiv definiert durch

V1 + . . . + Vk := (V1 + . . . + Vk−1) + Vk für k = 1, . . . , m .

V1 + . . . + Vm heißt direkt, geschrieben als

V1 ⊕ . . . ⊕ Vm bzw.m⊕

i=1

Vi .

Eine Verallgemeinerung von Hauptsatz 2.44 ist:

Satz 2.46: Projektionen und Zerlegung allgemein

1) Sei V = V1 ⊕ . . . ⊕ Vm ein R-Vektorraum. Durch

Pi

⎛⎜⎜⎜⎜⎜⎜⎝ m∑j=1

v j

⎞⎟⎟⎟⎟⎟⎟⎠ = vi für v j ∈ V j

werden Abbildungen Pi ∈ Hom(V, V) definiert, i = 1, . . . , m. Für sie gilt:

Page 53: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 197

Pi ◦ Pi = Pi, Pi ◦ P j = 0 für j � i (2.60)

und

P1 + . . . + Pm = id . (2.61)

Dabei ist V j = Bild P j.Andererseits erzeugen Pi ∈ Hom(V, V), i = 1, . . . , m mit (2.60), (2.61) eine direkteZerlegung von V durch ihre Bildräume.

2) Sei V = V1 + . . . + Vm. Dann sind äquivalent:

(i) V =⊕m

i=1 Vi .

(ii) Beliebige ui ∈ Vi, vi � 0, i = 1, . . . , m bilden eine linear unabhängige Menge.

3) Ist V =⊕m

i=1 Vi und sind Bi ⊂ V Basen von Vi für i = 1, . . . , m, dann ist

B :=⋃m

i=1 Bi eine Basis von V . Insbesondere gilt dim V =m∑

i=1dim Vi.

Beweis: Zu 1): Übung.Zu 2): Nach 1) ist insbesondere die Darstellung

u = u1 + . . . + um, ui ∈ Vi, i = 1, . . . , m

für u ∈m⊕

i=1Vi eindeutig wegen ui = Pi(u).

„(i) ⇒ (ii)“: Seien ui ∈ Vi, ui � 0 für alle i = 1, . . . , m undm∑

i=1αiui = 0 für αi ∈ R. Für

u′i := αiui ∈ Vi ist dann

m∑i=1

u′i = 0 und damit wegen Eindeutigkeit der Darstellung

u′i = 0, d. h. αi = 0 für alle i = 1, . . . , m.

„(ii)⇒ (i)“: Sei j = 0, . . . , m−1, ui ∈ Vi, i = 1, . . . , j+1 und u1 + . . .+ u j = u j+1. Sind alleu1, . . . , u j, u j+1 � 0, so steht dies im Widerspruch zur Voraussetzung. Also folgt entwederdirekt u j+1 = 0 oder ui = 0 für ein i = 1, . . . , m, so dass wiederholte Anwendung diesesSchlusses auf u1 = . . . = u j+1 = 0 führt.Zu 3): Durch vollständige Induktion über m:m = 2 : Nach Satz 1.86 bzw. Bemerkungen 1.87.m→ m + 1: Nach Definition ist⊕m+1

i=1 Vi =(⊕m

i=1 Vi

)⊕ Vm+1, damit nach der obigen Überlegung

Page 54: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

198 2 Matrizen und lineare Abbildungen

dimm+1⊕i=1

Vi = dimm⊕

i=1

Vi + dim Vm+1

und daraus folgt nach Induktionsvoraussetzung die Behauptung. Zudem ist B offensicht-lich ein Erzeugendensystem von V , das nach den Vorüberlegungen dim V Elemente hat.�

*Bemerkungen 2.47

1) Die Bedingung 2) (ii) aus Satz 2.46 kann auch äquivalent geschrieben werden als:

Seien ui ∈ Vi, i = 1, . . . , m, dann giltm∑

i=1

ui = 0 ⇒ ui = 0 für alle i = 1, . . . , m .

2) Das Kriterium für eine orthogonale Projektion aus (2.56) lässt sich verallgemeinern. Inder Situation von Satz 2.46 gilt für i = 1, . . . , m:

Pi ist eine orthogonale Projektion ⇔m⊕

j=1j�i

V j ⊂ U⊥i ⇔m⊕

j=1j�i

V j = U⊥i .

Dies kann man folgendermaßen einsehen:

Es istm⊕

j=1j�i

V j = Kern Pi , (2.62)

denn wegen Pi ◦ Pj = 0 für j � i gilt Vj = Bild Pj ⊂ Kern Pi und damit gilt W1 :=⊕m

j=1j�i

V j ⊂Kern Pi =: W2 . Also ergibt sich für U := Bild Pi die Situation V = U

⊕W1 und V = U

⊕W2 (nach

(2.54)), W1 ⊂ W2 . Dies ist nur für W1 = W2 möglich, denn sei w2 ∈ W2 , dann hat w2 ∈ V die Zerlegungw2 = u + w1 mit u ∈ U , w1 ∈ W1 , aber auch w2 = 0 + w2 . Wegen der Eindeutigkeit der Zerlegung in Uund W2 muss demnach w2 = w1 ∈ W1 (und u = 0) sein.Somit ergibt sich die Äquivalenz der 1. und 2. Aussage direkt mit (2.62) und die Äquivalenz der 2. und 3.Aussage entspricht (2.56).

2.3.3 Invertierbare Matrizen

Wir wollen nun die Matrix zur Umkehrabbildung Φ−1 bestimmen, wenn diese existiert.Dazu sei Φ : Rm → Rn linear und bijektiv. Die Umkehrabbildung

Page 55: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 199

Φ−1 :{Rn → Rm

y �→ x falls Φ(x) = y

kann wegen Theorem 2.28 nur dann existieren, wenn m = n.Sei nun Φ : Rn → Rn linear und invertierbar mit zugehöriger Darstellungsmatrix A

bezüglich der Standardbasis. Die zu Φ−1 gehörige Matrix sei B. Da Φ−1 ◦Φ = Φ ◦Φ−1 =

id, und da dem Hintereinanderausführen linearer Abbildungen die Matrizenmultiplikationentspricht, folgern wir

AB = BA = 1n .

Definition 2.48

Eine Matrix A ∈ R(n,n) heißt invertierbar oder nichtsingulär, wenn es eine MatrixB ∈ R(n,n) gibt mit AB = 1n oder BA = 1n.

Die weitere Beziehung in Definition 2.48 folgt automatisch, da z. B. aus BA = 1n folgt,dass die lineare Abbildung mit Matrix B die Umkehrabbildung zur linearen Abbildung mitMatrix A ist (unter Betrachtung von Hauptsatz 2.31 oder Hauptsatz 1.85) und damit auchAB = 1n folgt. Entsprechendes gilt bei Rollentausch von A und B.

Die Matrix B mit dieser Eigenschaft ist durch A also eindeutig bestimmt. Wir nennenB die inverse Matrix zu A:

B := A−1 .

Sei A ∈ R(n,n) invertierbar und man betrachte für b ∈ Rn das LGS

Ax = b .

Da Kern A = {0}, ist nach Hauptsatz 1.85 das LGS für alle b eindeutig lösbar und dieLösung ist (wie Einsetzen zeigt)

x = A−1b =n∑

i=1

bic(i) , (2.63)

wenn A−1 die Spaltendarstellung

A−1 =(c(1), . . . , c(n)

)hat. In die Äquivalenzliste der Aussagen von Hauptsatz 1.85 bzw. 1.85I kann damit nochaufgenommen werden:

Page 56: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

200 2 Matrizen und lineare Abbildungen

Hauptsatz 1.85II Lösbarkeit und Eindeutigkeit bei LGS

Die Äquivalenzliste in Hauptsatz 1.85 (1.85I) kann bei m = n ergänzt werden mit:

(vii) A ist invertierbar.

Eine invertierbare Matrix A ∈ R(n,n) hat also insbesondere maximalen Spalten- und Zeilen-rang (= n), d. h. maximalen Rang . Die elementaren Zeilentransformationen des Gauss-Verfahrens führen auf eine obere Dreiecksmatrix der Form

R :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝rii ∗

. . .

0 rnn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ (2.64)

mit rii � 0 für i = 1, . . . , n oder auch gleich 1.Da für Isomorphismen Φ,Ψ ∈ Hom(V, V) eines R-Vektorraums V gilt

Φ ◦ Ψ ist Isomorphismus und (Φ ◦ Ψ )−1 = Ψ−1 ◦Φ−1 ,

überträgt sich dies auf Matrizen in der Form:

Sind A, B ∈ R(n,n) invertierbar, dann ist auch AB invertierbar und(AB)−1 = B−1A−1 .

Sei

GL(V) := {Φ ∈ Hom(V, V) : Φ ist Isomorphismus}und entsprechend

GL(n,R) := {A ∈ R(n,n) : A ist invertierbar} , (2.65)

dann ist also diese Menge bezüglich ◦ bzw. · (der Matrixmultiplikation) abgeschlossen,die Operation ist assoziativ, es gibt ein neutrales Element und inverse Elemente, aber dieVerknüpfung ist nicht kommutativ für n ≥ 2. Dementsprechend

(GL(V), ◦) bzw. (GL(n,R), ·) ist eine (nicht kommutative) Gruppe .

Man beachte aber, dass die Nullabbildung offensichtlich nicht zu GL(V) gehört und GL(V)ist dann bezüglich + nicht abgeschlossen.

*Bemerkung 2.49 Invertierbarkeit von A ∈ R(m,n) bedeutet daher m = n und die Existenzeiner Linksinversen AL ∈ R(n,m), d. h.

ALA = 1n

und die Existenz einer Rechtsinversen AR ∈ R(n,m), d. h.

Page 57: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 201

AAR = 1m ,

die dann gleich sind.Allgemeiner sind für A ∈ R(n,m) jeweils äquivalent:

a1) A ist injektiv.

a2) Es gibt eine Linksinverse.

Und

b1) A ist surjektiv.

b2) Es gibt eine Rechtsinverse.

Das kann man folgendermaßen einsehen:„a2)⇒ a1)“ folgt aus Ax = 0⇒ x = ALAx = 0 ,für „a1)⇒ a2)“ definiere man auf Bild A

ALy := x, falls y = Ax .

Die Linearität von AL folgt wie im Beweis von Satz 2.5, 3). Auf (Bild A)⊥ kann AL beliebig linear definiertwerden.„b2)⇒ b1)“ gilt, da

AARy = y für beliebige y ∈ Rm

y ∈ Bild A impliziert.Für „b1)⇒ b2)“ kann AR folgendermaßen als Abbildung definiert werden:

AR(y) ∈ A−1{y}, d. h. AAR(y) = y und AR(y) ∈ (Kern A)⊥ .

Auf diese Weise wird aus der Lösungsmenge von Az = y ein eindeutiges Element ausgewählt (siehe(2.109)ff).Das so definierte AR : Rm → Rn ist linear, d. h. durch AR ∈ R(n,m) darstellbar, da etwa für y1, y2 ∈ Rm

gilt:

A(AR(y1) + AR(y2)) = y1 + y2 ,

aber auch

AR(y1) + AR(y2) ∈ (Kern A)⊥

und damit

AR(y1 + y2) = AR(y1) + AR(y2) .

Dies wird allgemeiner bei der Definition der Pseudoinversen aufgegriffen werden (siehe Theorem 2.77und (2.112) und auch Bemerkungen 2.82, 3)).

�Bemerkungen 2.50

1) Sei D := diag(di) := (diδi, j)i j ∈ R(n,n) eine Diagonalmatrix mit Diagonaleinträgen di.

Page 58: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

202 2 Matrizen und lineare Abbildungen

Die Matrix D ist genau dann invertierbar, wenn

di � 0 für alle i = 1, . . . , n und dann D−1 = diag(

1di

)

(vgl. die „vorgezogene Benutzung“ in (MM.43)).

2) In Erweiterung gilt: Eine obere Dreiecksmatrix R = (ri, j)i j ∈ R(n,n) ist genau danninvertierbar, wenn

ri,i � 0 für alle i = 1, . . . , n

und R−1 ist eine obere Dreiecksmatrix mit

(R−1)i,i =1

di,ifür alle i = 1, . . . , n .

Ist also R normiert, so ist auch R−1 normiert.Dies kann aus nachfolgenden Überlegungen zur Berechnung von A−1 in Verbindung mit der Rückwärts-substitution geschlossen werden (Übung).

Die analoge Aussage gilt für untere Dreiecksmatrizen.

3) Aus (2.45) folgt für Drehmatrizen

G(α)G(−α) = G(0) = 1

und damit

G(α)−1 = G(−α) (2.66)

und analog für Givens-Rotationen G(α, i, j) bei festen i, j.

4) Die Menge der oberen (unteren) Dreiecksmatrizen mit nichtverschwindenden Dia-gonalelementen ist somit bezüglich der Matrizenmultiplikation abgeschlossen und da-mit auch eine nichtkommutative Gruppe (nach 2) und (2.46), d. h. eine Untergruppe vonGL(n,R). Analoges gilt für Drehmatrizen bzw. für Givens-Rotationen G(α, i, j) bei fes-tem i, j. �Beispiel 2.51 Wann ist eine 2 × 2-Matrix

A =(

a bc d

)invertierbar? Es ist dann der Fall, wenn wir A auf eine Stufenform(

1 ∗0 1

)

Page 59: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 203

bringen können. Falls a � 0 ist, dividieren wir erst die erste Zeile durch a und subtrahierendann c-mal die neue erste Zeile von der zweiten. Wir erhalten die Stufenform(

1 ba

0 d − bca

).

In diesem Fall ist

a · d − b · c � 0 (2.67)

die Charakterisierung dafür, dass A invertierbar ist.

Falls a = 0 und c � 0 ist, vertauschen wir erste und zweite Zeile und kommen zur selbenBedingung. Wenn aber a = c = 0 ist, ist die Dreiecksform nie zu erreichen. Es folgt:Unsere Bedingung ad − bc � 0 ist notwendig und hinreichend dafür, dass A invertierbarist. Wenn A invertierbar ist, so wollen wir A−1 auch ermitteln. Wir wenden das Gauss-Jordan-Verfahren an. Wir diskutieren nur den Fall a � 0:

umgeformtes A umgeformte Einheitsmatrix(a bc d

) (1 00 1

)

(1 b/ac d

) (1/a 0

0 1

)(

1 b/a0 d − bc/a

) (1/a 0−c/a 1

)(

1 b/a0 1

) (1/a 0

−c/(ad − bc) a/(ad − bc)

)(

1 00 1

) (d/(ad − bc) −b/(ad − bc)−c/(ad − bc) a/(ad − bc)

)Hier haben wir in der rechten Spalte dieselben elementaren Zeilenumformungen auf dieEinheitsmatrix angewendet, wie auf die Matrix A. Also:

A−1 = 1ad−bc

(d −b−c a

). (2.68)

Die Vorgehensweise wird dadurch begründet, dass die Spalten c(1), c(2) von A−1 das LGSAc(i) = e(i) lösen. Am Anfang des nächsten Abschnitts wird dies nochmal ausführlichdiskutiert. ◦

Page 60: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

204 2 Matrizen und lineare Abbildungen

*Bemerkung 2.52 Wird eine Matrix nur in einer Spalte oder Zeile geändert, kann diesdurch Addition einer Rang-1-Matrix (siehe (2.49)) ausgedrückt werden.

b ⊗ ei bzw. e j ⊗ c für b, e j ∈ Rm und c, ei ∈ Rn

sind die (m, n)-Matrizen, in denen die i-te Spalte bzw. j-te Zeile mit b bzw. c überein-stimmen, und sonst alle Einträge Null sind. Die Änderung z. B. einer Spalte a(i) zu a(i) inA ∈ R(m,n) kann somit durch das Rang-1-Update

A = A + (a(i) − a(i)) ⊗ ei (2.69)

ausgedrückt werden und analog für Zeilenänderungen. Das beinhaltet auch die Änderun-gen von nur einem Eintrag. Für Matrizen der Form (2.69) lässt sich bei Kenntnis von A−1

eine Darstellung von A−1 geben, die Sherman-Morrison910-Formel:

Sei A ∈ R(n,n) invertierbar, u, u ∈ Rn und 1 +(A−1u . u

)� 0. Dann ist auch A + u ⊗ u

invertierbar und es gilt:

(A + u ⊗ u)−1 = A−1 − αA−1uutA−1 mit α := 1/(1 +

(A−1u . u

)). (2.70)

Der Nachweis erfolgt in Aufgabe 3.11.Unter Benutzung der Transponierten (siehe Definition 1.48 bzw. (2.79)) kann die For-

mel auch geschrieben werden als

(A + u ⊗ u)−1 = A−1 − αA−1u ⊗ A−tu .

Liegt A−1 also nicht explizit vor, muss zur Anwendung von (A + u ⊗ u)−1 auf einen Vektorz neben der Berechnung von A−1 z ein LGS mit A (Ax = u) und eines mit At (Aty = u)gelöst werden, um das Update durch das SKP (x . u) (für α) und die Anwendung x ⊗ yz,folglich ein weiteres SKP, zu erhalten.

Der Vorteil dieser Vorgehensweise wird erst ersichtlich, wenn das Gauss-Verfahrenals Verfahren zur Erzeugung einer LR-Zerlegung interpretiert wird (Abschnitt 2.4.3). DasLösen eines LGS mit Matrix A wird dann zur Vorwärts- und Rückwärtssubstitution, vomAufwand her demnach zu untergeordneten Operationen (siehe Bemerkungen 1.51).

Solche Rang-1-Updates spielen eine Rolle in der Optimierung, insbesondere auch beimSimplex-Verfahren (siehe Kapitel 6) und in der Statistik. �Bis auf solche sehr einfachen Fälle gilt aber generell die goldene Regel:

Inverse Matrizen werden nicht explizit berechnet, sondern die zugehörigen LGS wer-den (mit dem Gauss-Verfahren) gelöst.

9 Jack Sherman10 Winifred J. Morrison

Page 61: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 205

2.3.4 Das Gauss-Verfahren vom Matrizenstandpunkt

Sei A ∈ R(n,n) eine invertierbare Matrix.Die Darstellung (2.63) könnte dazu verführen, zur Lösung eines solchen LGS A−1 zu

bestimmen und dann das Matrix-Vektor-Produkt zu bilden. Davon ist aus Aufwandsgrün-den dringend abzuraten, wie die nachfolgenden Überlegungen zeigen. Sie zeigen aberauch, dass in Erweiterung der Anwendung des Gauss-Verfahrens dieses nicht nur zurLösung eines LGS, sondern auch zur Bestimmung von A−1 genutzt werden kann (wie diesschon für (2.68) geschehen ist).

Sei A−1 =(c(1), . . . , c(n)

)die (unbekannte) Spaltendarstellung, dann gilt wegen

A A−1 = 1n :

Ac(i) = ei für i = 1, . . . , n .

Die i-te Spalte von A−1 kann sodann durch Lösen eines LGS (mittels Gaussscher Elimi-nation) für die rechte Seite ei bestimmt werden. Da die Matrix bei allen n LGS gleich ist,kann dabei folgendermaßen vorgegangen werden: A wird nicht um eine, sondern um allen rechte Seiten, d. h. um 1n erweitert.

Ausgangspunkt der Umformungen ist demnach

(A,1n) ∈ R(n,2n) .

Die elementaren Zeilenumformungen des Gauss-Verfahrens führen zu der Form

(R, B) ∈ R(n,2n) (2.71)

mit R wie in (2.64). Durch n Rückwärtssubstitutionen zu(R, b(i)

), wobei b(i) die i-te Spalte

von B ist, erhält man die Spalten c(i) als Lösungen.Insbesondere ist daher auch R invertierbar und

c(i) = R−1b(i) ,

wobei dieses Produkt ohne explizite Kenntnis von R−1 über Rückwärtssubstitution be-stimmt wird. Alternativ kann bei (2.71) die Umformung wie in Satz 1.6 fortgeführt werden(Gauss-Jordan-Verfahren) zur Erreichung der Form

(1n,C) ∈ R(n,2n) , (2.72)

woraus sich folgend die i-te Spalte von A−1 als i-te Spalte von C ergibt, d. h.

A−1 = C .

Auf diese Weise müssen also n Rückwärtssubstitutionen (und die zusätzliche Matrix-Vektormultiplikation A−1b) statt einer wie bei der direkten Anwendung des Eliminati-onsverfahrens auf Ax = b durchgeführt werden, was aber in beiden Fällen insgesamtimmer noch O(n3) Operationen sind. Einen Vorteil in der direkten Bestimmung von A−1

Page 62: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

206 2 Matrizen und lineare Abbildungen

könnte man darin sehen, dass auch für weitere rechte Seiten b′ das LGS leicht (durch dieMatrix-Vektormultiplikation A−1b′) gelöst werden kann. In Abschnitt 2.4.3 werden wiraber sehen, dass bei richtig durchgeführter Gauss-Elimination danach jedes LGS mit ei-ner Vorwärtssubstitution und einer Rückwärtssubstitution (Auflösung von Rx = b′), d. h.insgesamt mit O(n2) Operationen, aufgelöst werden kann.

Sei A ∈ R(m,n). Die im Gauss-Verfahren benutzten elementaren Umformungen sindlineare Abbildungen (auf Rn für Zeilenumformungen bzw. auf Rm für Spaltenumformun-gen) und lassen sich für die Zeilenumformungen durch folgende Elementarmatrizen dar-stellen:

Vertauschen zweier Zeilen l und k (Elementarmatrix vom Typ I), wobei o. B. d. A. 1 ≤ k <l ≤ m:

Hierbei deuten Einträge * die Zahl 1 an, nicht gekennzeichnete Einträge die Zahl 0.

E1 :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗

10 · · · · · · · · · 1... 1

...... ∗ ...... 1

...1 · · · · · · · · · 0

1∗

1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠↑

k-te↑

l-te Spalte

= 1 − ek ⊗ ek − el ⊗ el + ek ⊗ el + el ⊗ ek

= 1 + ek ⊗ (el − ek) + el ⊗ (ek − el) .(2.73)

Multiplikation einer Zeile j mit c ∈ R (Elementarmatrix vom Typ II):

E2 :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗

1c

1∗

1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠=

m∑i=1i� j

ei ⊗ ei + ce j ⊗ e j

= 1 + (c − 1)e j ⊗ e j .

(2.74)

↑ j-te Spalte

Page 63: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 207

Addieren des c-fachen einer Zeile k zu einer anderen Zeile j, j � k (Elementarmatrix vomTyp III):

E3 :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗

1... ∗c · · · 1

∗1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠j-te Zeile

= 1 + ce j ⊗ ek , (2.75)

↑ k-te Spalte (hier für k < j dargestellt)

Wir verifizieren, dass Linksmultiplikation der Matrix

A =(a(1), . . . , a(m)

)t

(Zeilendarstellung) mit Ei die Zeilenumformungen des entsprechenden Typs bewirkt. Da-bei benutzen wir, dass die Matrix

(1 + ek ⊗ el)A = A + ek ⊗ a(l)

aus A entsteht, indem die l-te Zeile at(l) zur k-ten Zeile addiert wird.

Typ I: E1A = A + ek ⊗ (a(l) − a(k)) + el ⊗ (a(k) − a(l)) entsteht aus A, indem bei der k-tenZeile diese Zeile subtrahiert und die l-te Zeile addiert wird.

Typ II: E2A = A+ (c− 1)e j ⊗ a( j), zur j-ten Zeile wird deren c− 1-faches addiert, d.h., siewird durch ihr c-faches ersetzt.

Typ III: E3A = A + ce j ⊗ a(k) entsteht aus A durch Addition der k-ten Zeile zur j-ten.

Alle Elementarmatrizen sind invertierbar, da die Elementarumformungen durch solchegleichen Typs umgekehrt werden können, d. h. die Inversen der Elementarmatrizen sind:

E−13 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗

1 · · · c

∗ ...1∗

1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

−1

=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗

1 · · · −c

∗ ...1∗

1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠= 1 − ce j ⊗ ek

Page 64: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

208 2 Matrizen und lineare Abbildungen

E−12 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗

1c

1∗

1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

−1

=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗

11/c

1∗

1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠= 1 +

(1c− 1

)e j ⊗ e j ,

E−11 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗

10 · · · · · · · · · 1... 1

...... ∗ ...... 1

...1 · · · · · · · · · 0

1∗

1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

−1

=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗

10 · · · · · · · · · 1... 1

...... ∗ ...... 1

...1 · · · · · · · · · 0

1∗

1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

= E1

(hier für k > j dargestellt).

Mit diesen Kenntnissen lässt sich Hauptsatz 1.80 alternativ beweisen:Wie dort bleibt zu zeigen, dass sich bei elementaren Zeilenumformungen auch der Spaltenrang nicht än-dert. Nun wissen wir, dass jede elementare Zeilenumformung in der Matrix A bewirkt werden kann alsLinks-Multiplikation EA mit einer Elementarmatrix E. Die Spaltenvektoren Ea1, . . . , Ean von EA sinddie Bilder der Spaltenvektoren a1, . . . , an von A unter der linearen Abbildung x �→ Ex und E ist invertier-bar. Daher überträgt E eine Basis des Spaltenraums von A auf eine Basis des Spaltenraums von EA undverändert daher nicht den Spaltenrang.

Die Äquivalenzliste der Sätze 1.85, 1.85I, 1.85II kann ergänzt werden um:

Hauptsatz 1.85III Lösbarkeit und Eindeutigkeit bei LGS

Die Äquivalenzliste in Hauptsatz 1.85 (1.85I, 1.85II) kann bei m = n ergänzt werdenmit:

(viii) A lässt sich als Produkt von Elementarmatrizen schreiben.

Beweis: Da jede Elementarmatrix invertierbar ist, ist auch ein Produkt aus Element-armatrizen invertierbar. Andererseits kann eine invertierbare Matrix durch das Gauss-Jordan-Verfahren in die Einheitsmatrix überführt werden und die Inverse ergibt sich alsProdukt der Elementarmatrizen zu den durchgeführten Umformungsschritten:

EkEk−1 . . . E1A = 1 ,

Page 65: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 209

somit auch

A = E−11 E−1

2 . . . E−1k . �

Betrachten wir als Beispiel im Detail die Eliminationsschritte für die erste Spalte, wobeivorerst vorausgesetzt sei, dass keine Zeilenvertauschungen nötig sind. Die Faktoren in denUmformungen vom Typ III sind dann −ci, wobei

ci :=ai,1

a11für i = 2, . . . , m .

Das Produkt der zugehörigen Elementarmatrizen vom Typ III lässt sich dann schreiben alsE := EmEm−1 . . . E2 = 1 − u ⊗ e1 , wobei

u := (0, c2, . . . , cm) , (2.76)

da etwa

E3E2 = (1 − c3e3 ⊗ e1)(1 − c2e2 ⊗ e1) = 1 − c2e2 ⊗ e1 − c3e3 ⊗ e1 + c2c3e3 ⊗ e1e2 ⊗ e1

= 1 − (0, c2, c3, 0, . . . , 0)te1 .

Bemerkung 2.53 Die Gauss-Umformungen für eine (2,2)-Matrix (siehe (2.68)) lassensich auch auf eine (2,2)-Blockmatrix übertragen (unter Beachtung, dass die (Matrizen-)Multiplikation nicht kommutativ ist).

Hat das LGS etwa für A ∈ R(n,n), B ∈ R(n,m),C ∈ R(m,n), D ∈ R(m,m) die Form(A BC D

) (yx

)=

(bf

)(2.77)

(vergleiche (1.91)) mit invertierbarem A, dann ist dies äquivalent zu der gestaffelten Form(1 A−1B0 D −CA−1B

) (yx

)=

(A−1b−CA−1b + f

), (2.78)

was für C = Bt, D = 0, f = 0 gerade (MM.51) entspricht. Eine solche Schur-Komplement-Form kann dann sinnvoll sein, wenn das der Operation A−1 z entsprechende LGS mit un-tergeordnetem Aufwand gelöst werden kann. Außerdem sieht man aus der Äquivalenz von(2.77) und (2.78) für beliebige rechte Seiten b ∈ Rn, f ∈ Rm:(

A BC D

)ist invertierbar⇔ D −CA−1B ist invertierbar. �

Page 66: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

210 2 Matrizen und lineare Abbildungen

2.3.5 Transponierte, orthogonale und symmetrische Matrix

Sei

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a1,1 · · · a1,n...

...am,1 · · · am,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ∈ R(m,n)

eine m × n-Matrix. Wie schon in Definition 1.48 eingeführt, heißt die n × m-Matrix

At =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a1,1 · · · am,1...

...a1,n · · · am,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ∈ R(n,m) (2.79)

die transponierte Matrix zu A. Dies verallgemeinert das Transponieren von Vektoren x ∈R(n,1) bzw. x ∈ R(1,n) (siehe Seite 30).

Einige Eigenschaften der Transposition sind für A, B ∈ R(m,n), λ ∈ R

(2.80)Att = A ,(A + B)t = At + Bt ,

(λA)t = λAt .(2.81)(2.82)

Die Abbildung A �→ At definiert demnach ein Φ ∈ Hom(R(n,m),R(m,n)

)mit identisch

definierter Inversen.Weiter ist

(AB)t = BtAt für A ∈ R(l,m), B ∈ R(m,n) . (2.83)

Dies kann komponentenweise nachgerechnet werden bzw. ergibt sich dies unten aus(2.94). Insbesondere ist also für A ∈ R(m,n), x ∈ Rn

(Ax)t = xtAt . (2.84)

Daraus folgt, dass im euklidischen Skalarprodukt A als At „auf die andere Seite wandernkann“:

(Ax . y) =(x . Aty

), (2.85)

da (Ax . y) = (Ax)ty = xtAty =(x . Aty

).

Eine Umformulierung von Hauptsatz 1.80 ist nun

Page 67: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 211

Satz 2.54: Zeilenrang = Spaltenrang

Der Rang einer Matrix stimmt mit dem Rang ihrer transponierten Matrix überein:

Rang A = Rang At .

Die Matrix A ∈ R(n,n) ist invertierbar, genau dann wenn At invertierbar ist und dann gilt

(At)−1 = (A−1)t , (2.86)

so dass dafür auch die Kurzschreibweise A−t verwendet wird.

Nach (2.83) ist nämlich:

(A−1)tAt = (A A−1)t = 1t = 1 .

Beispiel 3(4) – Massenkette Im Fall der einseitig eingespannten Massenkette, d. h. dem LGS mit A ∈R(m,m) aus (MM.12), gilt wegen (MM.39) mit B ∈ R(m,m) aus (MM.34)

A = BtB . (MM.52)

Die Inverse von B lässt sich nach (2.71), (2.72) durch simultane Gauss-Jordan-Elimination bestimmen,die sich hier wegen der Dreiecksgestalt auf die Rückwärtssubstitutionschritte beschränkt, d. h.

(B,1) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

−1 1 1 0. . .

. . .. . .

. . . 1. . .

−1 0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠→

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 0 −1 · · · · · · −1. . .

. . ....

. . .. . .

...0 1 0 −1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠,

folglich

B−1 = −

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 · · · 1

. . ....

0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠und damit

A−1 = B−1B−t =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 · · · 1

. . ....

0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 0...

. . .

1 · · · 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

n n − 1 n − 2 · · · 1n − 1 n − 1 n − 2 · · · 1n − 2 n − 2 n − 2 · · · 1

......

1 · · · · · · · · · 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠. (MM.53)

Page 68: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

212 2 Matrizen und lineare Abbildungen

Insbesondere ist also die Inverse der Tridiagonalmatrix A vollbesetzt, was auch bei ihrer Verfügbarkeit diedirekte Operation damit nicht ratsam erscheinen lässt.

Die Systemmatrix der beidseitig eingespannten Massenkette, d. h. A nach (MM.11), unterscheidet sichvom obigen Fall (A nach (MM.12)) nur um 1 im Eintrag (1,1), d. h.

A = A + e1 ⊗ e1 .

Damit kann A−1 nach der Sherman-Morrison-Formel (2.70) bestimmt werden als

A−1 = A−1 − αA−1e1 ⊗ A−te1 , α =1(

1 +(A−1e1 . e1

)) = 11 + n

.

Es folgt

A−1 = A−1 −C mit C :=1

n + 1((n − i + 1) (n − j + 1))i, j . (MM.54)

Zum Beispiel für n = 3 ist

A−1 =14

⎛⎜⎜⎜⎜⎜⎜⎜⎝ 3 2 12 4 21 2 3

⎞⎟⎟⎟⎟⎟⎟⎟⎠ .

Beispiel 4(3) – Input-Output-Analyse Wir betrachten wieder das Input-Output-Modell in seiner Men-genform (MM.7) bzw. in der Preisform (MM.26).

Das Input-Output-Modell sei zulässig. Dann folgt nach Beispiel 4(2) die universelle Lösbarkeit von

(1 − A)x = f .

Nach Hauptsatz 1.85III ist dies äquivalent mit der Invertierbarkeit von 1 − A. Für diese Inverse gilt

(1 − A)−1 ≥ 0 ,

wobei für B = (bi, j) ∈ R(m,n) definiert wird:

B ≥ 0⇔ bi, j ≥ 0 für alle i = 1, . . . , m, j = 1, . . . , n .

Dies kann man folgendermaßen einsehen: Für den i-ten Einheitsvektor ei existiert wegen ei ≥ 0 undZulässigkeit ein x(i) ∈ Rn , x(i) ≥ 0, so dass

(1 − A)x(i) = ei .

x(i) ist aber gerade die i-te Spalte von (1 − A)−1. Die damit als notwendig verifizierte Bedingung

1 − A ist invertierbar, (1 − A)−1 ≥ 0 (MM.55)

ist aber auch hinreichend für Zulässigkeit, denn zu f ∈ Rn, f ≥ 0 ist

x := (1 − A)−1 f ≥ 0

die eindeutige Lösung von (MM.7).Mit der gleichen Argumentation ergibt sich als äquivalente Bedingung für Profitabilität:

1 − At ist invertierbar, (1 − At)−1 ≥ 0 . (MM.56)

Wegen 1 − At = (1 − A)t und (2.86) sind die Bedingungen (MM.55) und (MM.56) äquivalent.

Page 69: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 213

Damit haben wir bewiesen:

Satz 2.55

Sei A ∈ R(n,n). Dann gilt für das durch (MM.7) bzw. (MM.25) definierte Input-Output-Modell dieÄquivalenz der folgenden Aussagen:

(i) Das Input-Output-Modell ist zulässig.

(ii) 1 − A ist invertierbar, (1 − A)−1 ≥ 0.

(iii) 1 − At ist invertierbar, (1 − At)−1 ≥ 0.

(iv) Das Input-Output-Modell ist profitabel.

Sei C ∈ R(n,n) eine invertierbare Matrix. Die Bedingung

C−1 ≥ 0 (MM.57)

ist äquivalent mit der Eigenschaft

Cx ≥ 0⇒ x ≥ 0 für alle x ∈ Rn . (MM.58)

Dass (MM.58) aus (MM.57) folgt, ist klar. Die Rückrichtung sieht man so ein: Es gilt die BedingungHauptsatz 1.85III , (b)(iv)

Cx = 0⇒ x = 0 ,

denn

Cx = 0 ≥ 0⇒ x ≥ 0 und Cx = 0 ≤ 0⇒ x ≤ 0

zeigt x = 0.Deshalb ist nach Hauptsatz 1.85III auch C invertierbar und mit der Argumentation von oben

Cx(i) = e(i) ≥ 0⇒ x(i) ≥ 0 .

Dies zeigt, dass die Spalten von C−1 nichtnegativ sind.Eine Matrix, die (MM.57) erfüllt, heißt daher auch invers-monoton.Die Matrix B = 1 − A hat nun die spezielle Eigenschaft

bi, j ≤ 0 für i � j, i, j = 1, . . . , n

und es kann auch

bi,i > 0

angenommen werden. Invers-monotone Matrizen mit diesen Zusatzeigenschaften heißen auch nichtsingu-läre M-Matrizen. Kriterien für (nichtsinguläre) M-Matrizen werden in Abschnitt 8.5 entwickelt werden.Ein Beispiel für solche Matrizen B sind die Beispiele nach (MM.12) und nach (MM.11), wie in Beispiel3(4) durch die explizite Berechnung der Inversen gezeigt wurde. �

Die in Abschnitt 2.1.2 eingeführten orthogonalen Transformationen sind gerade die linea-ren Abbildungen, deren Darstellungsmatrix orthogonal ist in folgendem Sinn:

Page 70: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

214 2 Matrizen und lineare Abbildungen

Definition 2.56

Eine Matrix A ∈ R(n,n) heißt orthogonal, wenn sie invertierbar ist, und

A−1 = At ,

d. h. AtA = A At = 1 gilt .

Orthogonalität von A ist also äquivalent mit:

Die Spalten (Zeilen) von A bilden eine ONB . (2.87)

Sei O(n,R) die Menge aller orthogonalen A ∈ R(n,n).

Unmittelbare Folgerungen sind:

Ist A orthogonal, dann auch A−1 und At.Sind A, B ∈ R(n,n) orthogonal, dann ist auch AB orthogonal.

O(n,R) ist bezüglich der Matrixmultiplikation eine nichtkommutative Gruppe, dieorthogonale Gruppe .

Der behauptete Zusammenhang mit orthogonalen Transformationen wird in Satz 2.63 be-wiesen.

Bemerkungen 2.57

1) O(2,R) besteht nach Bemerkung 2.27 genau aus den Drehungen und den Spiegelungenan einer Gerade. Man fasst darin die Drehungen zu einer Menge SO(2,R) zusammen.

SO(2,R) ist abgeschlossen bezüglich der Matrizenmultiplikation nach (2.45) und(2.66) und damit auch eine Gruppe, die nach (2.45) sogar kommutativ ist.

2) Für A ∈ R(n,n) reicht eine der Beziehungen

AtA = 1 oder AAt = 1

bzw. die Orthonormalität der Spalten von A oder die Orthonormalität der Zeilen von A,um jeweils die andere zu implizieren, denn beide sind äquivalent mit At = A−1.

Für A ∈ R(m,n) sind die Bedingungen:

a) AtA = 1 bzw. die Orthonormalität der Spalten von A,

b) AAt = 1 bzw. die Orthonormalität der Zeilen von A

Page 71: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 215

unabhängig voneinander.Aber auch hier folgt aus a) weiterhin Längenerhaltung:

‖Ax‖ = ‖x‖in der jeweiligen euklidischen Norm (siehe (2.95)).

3) Sei A ∈ R(m,n), dann gelten:

a) Kern A = Kern(AtA) ,

b) Bild(AAt) = Bild A .Das kann man wie folgt einsehen:Für a) ist Kern(AtA) ⊂ Kern A zu zeigen, was aus

AtAx = 0⇒ 0 =(AtAx . x

)= (Ax . Ax)⇒ Ax = 0

folgt.Für b) beachte man als Folge von a)

Kern At = Kern(AAt) ,

so dass aus Theorem 1.82 folgt:

dim Bild(AAt) = m − dim Kern At = dim Bild At = dim Bild A

und damit wegen Bild(AAt) ⊂ Bild A die Behauptung.

Definition 2.58

A = (ai, j) ∈ R(n,n) heißt symmetrisch, wenn gilt:

A = At ,

d. h.

ai, j = a j,i für i, j = 1, . . . , n .

Für die bisher betrachteten Beispiele gilt

(a ⊗ b)t = (abt)t = bat = b ⊗ a ,

so dass das dyadische Produkt nur symmetrisch ist, wenn a ein Vielfaches von b ist. Alsosind die Darstellungsmatrizen symmetrisch von:

• der Spiegelung aus (2.9) (siehe (2.48)),• der orthogonalen Projektion auf eine Gerade (durch 0) oder eine Hyperebene

(durch 0) (siehe (2.52)),

Page 72: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

216 2 Matrizen und lineare Abbildungen

• der orthogonalen Projektion auf einen Unterraum (dargestellt bezüglich einerONB).

Auch Spiegelungen gehören aus diesem Grund zu O(n,R). Man beachte aber, dass fürn = 2 das Produkt von zwei Spiegelungen eine Drehung ist, genauer:

*Bemerkungen 2.59 (Geometrie)

1) Sei

G(ϕ) =(

cos(ϕ) − sin(ϕ)sin(ϕ) cos(ϕ)

)∈ SO(2,R) ,

H(ϕ) =(

cos(ϕ) sin(ϕ)sin(ϕ) − cos(ϕ)

)∈ O(2,R)\ SO(2,R) .

Symmetrische orthogonale Matrizen sind somit gerade die Spiegelungen oder Drehungenmit ϕ = 0 oder ϕ = π. Für sie gilt

HH = 1 .

Eine Drehung ist schiefsymmetrisch genau dann, wenn ϕ = π2 oder ϕ = 3π

2 (siehe Definiti-on 4.38).Es gelten folgende Kompositionsregeln, woraus insbesondere die Nichtabgeschlossenheitder Menge der Spiegelungen bezüglich der Multiplikation folgt:

a) G(ϕ) G(ψ) = G(ϕ + ψ) (nach (2.45)),b) G(ϕ) H(ψ) = H(ϕ + ψ) ,

c) H(ψ) G(ϕ) = H(ψ − ϕ) , (2.88)d) H(ϕ) H(ψ) = G(ϕ − ψ) .

Diese Beziehungen lassen sich leicht beweisen auf der Basis des Spezialfalls

H(0)G(ϕ) =(1 00 −1

) (cos(ϕ) − sin(ϕ)sin(ϕ) cos(ϕ)

)=

(cos(ϕ) − sin(ϕ)− sin(ϕ) − cos(ϕ)

)= H(−ϕ) = H(0 − ϕ) . (2.89)

Mittels (2.89) folgt c) durch

H(ψ − ϕ) = H(0)G(−ψ + ϕ) = H(0)G(−ψ)G(ϕ) = H(ψ)G(ϕ) ,

dann d) durch

H(ϕ)G(ϕ − ψ) = H(ψ) wegen H(ϕ)−1 = H(ψ)

und b) durch

Page 73: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 217

H(ϕ + ψ)H(ψ) = G(ϕ) .

2) Beschränkt man sich auf ϕnk = 2πk/n, k = 0, . . . , n − 1, so erhält man eine endliche

Untergruppe von SO(2,R), nämlich die zyklische Gruppe

Cn :={G

(ϕn

k

): k = 0, . . . , n − 1

},

für die offensichtlich

G(ϕn

k

)= G

(ϕn

1

). . .G

(ϕn

1

)(k-mal)

gilt.Es handelt sich dabei um eine Symmetriegruppe , d. h. die Gesamtheit der linearen Opera-tionen, die eine ebene Figur wieder auf sich abbilden. Mögliche Figuren für n = 3 heißenTriskele, für n = 4 Swastika. In diesem Sinn ist die ganze O(2,R) die Symmetriegruppeeines Kreises (siehe Abbildung 2.8).

Abb. 2.8: Triskele, Swastika und reguläre Polygone n = 6, 8.

3) Auch wenn die Spiegelungen keine Gruppe bilden, können wegen (2.88) gewisse mitCn in einer Gruppe zusammengefasst werden, nämlich der Diedergruppe (mit 2n Elemen-ten)

Dn := Cn ∪{H

(ϕn

k

): k = 0, . . . , n − 1

}.

Hier handelt es sich für n = 2 um die Symmetriegruppe eines nicht-quadratischen Recht-ecks und für n ≥ 3 um die Symmetriegruppe eines ebenen regulären Polygons, d. h. einerdurch n Geradenstücke begrenzten Figur, bei der alle Geradenstücke und Innenwinkel je-weils gleich sind. Sie ist in einem Kreis enthalten, auf dem alle ihre Ecken liegen (sieheAbbildung 2.8). �Trotz ähnlicher Benennung darf folgender Unterschied nicht übersehen werden:

• (Symmetrische) orthogonale Projektion (wie etwa die orthogonale Projektion aufa⊥): Es gilt:

A A = A und i. Allg. Bild A � Rn,

d. h. A ist nicht invertierbar.

Page 74: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

218 2 Matrizen und lineare Abbildungen

• (Symmetrische) orthogonale Transformation (wie etwa die Spiegelung an a⊥):

A A = 1 und A ist invertierbar .

Im ersten Fall bezieht sich „orthogonal“ auf die Fehlerorthogonalität, im zweiten dar-auf, dass orthogonale Vektoren unter der Abbildung orthogonal bleiben. Um einzusehen,dass orthogonale Projektionen immer symmetrische Darstellungsmatrizen haben, müssenwir den Begriff der Transponierten auf Homomorphismen übertragen. Dies braucht R-Vektorräume mit Skalarprodukt. Später wird mit der Adjungierten ein verwandter Begriffallgemein definiert werden.

Definition 2.60

Seien V und W endlichdimensionale R-Vektorräume mit SKP (die nicht in derSchreibweise unterschieden werden) und Φ ∈ Hom(V, W). Die Transponierte Φt ∈Hom(W, V) zu Φ wird definiert durch

(Φu .w) =(u . Φtw

)für alle u ∈ V, w ∈ W . (2.90)

Es ist zu klären, ob ein eindeutiges Φt ∈ Hom(W, V) existiert, das (2.90) erfüllt.

Sei dazu {u1, . . . un} eine ONB von V und {w1, . . .wm} eine Basis von W. Ein Φt ∈ Hom(W, V) wird eindeu-tig durch die Angabe der Φt(w j) für j = 1, . . . , m festgelegt (nach Hauptsatz 2.23) und erfüllt dann wegender Linearität von Φ und Φt die Beziehung (2.90) genau dann, wenn(

Φui .w j

)=

(ui . Φ

tw j

)für alle i = 1, . . . , n, j = 1, . . . , m . (2.91)

Erfüllt ein Φt ∈ Hom(W, V) (2.91), so gilt notwendigerweise

Φt(w j) =n∑

i=1

(Φtw j . ui

)ui =

n∑i=1

(w j . Φui

)ui für j = 1, . . . , m , (2.92)

nach Bemerkungen 1.110, 1). Dann ist Φt eindeutig und kann andererseits gemäß (2.92) definiert werden.

Hat man demnach speziell V = Rn und W = Rm mit dem euklidischen SKP und beideMal die Standardbasis gewählt, dann ist(

Φei . e j

)=

(ei . Φ

t(e j)), (2.93)

d. h. der (i, j)-te Eintrag der Darstellungsmatrix A von Φ ist der ( j, i)-te Eintrag der Dar-stellungsmatrix von Φt, so dass diese also gerade At ist.

Damit kann (2.83) ohne Indexrechnung bewiesen werden: Für alle u,w ist

(Ψ ◦Φu .w) = (Ψ (Φu) .w) =(Φu . Ψ tw

)=

(u . Φt(Ψ tw)

),

folglich:

Page 75: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 219

(Ψ ◦Φ)t = Φt ◦ Ψ t . (2.94)

Analog zu Matrizen gelte:

Definition 2.61

Sei V ein R-Vektorraum mit SKP.

1) Φ ∈ Hom(V, V) heißt orthogonal, wenn Φ ein Isomorphismus ist, Φt existiertund

Φ−1 = Φt .

2) Φ ∈ Hom(V, V) heißt symmetrisch, wenn Φt existiert und

Φ = Φt .

Symmetrische Matrizen bzw. Homomorphismen können also durch das Skalarprodukt„hindurchgezogen“ werden.

Bemerkung 2.62 Man beachte, dass Φt und die darauf aufbauenden Begriffe von derWahl des (der) SKP und die Darstellungsmatrix von der Basis abhängt. Werden aber beidemiteinander verknüpft, indem sowohl in V eine ONB {u1, . . . , un} als auch in W eine ONB{w1, . . . ,wm} gewählt wird, so gilt:

Ist A die Darstellungsmatrix von Φ, so ist At die Darstellungsmatrix von Φt.

Dies gilt also insbesondere für V = Rn bzw. W = Rm mit den Einheitsbasen, d. h. indiesem Sinn ist die transponierte Abbildung von x �→ Ax die Abbildung

y �→ Aty .

Sei A die Darstellungsmatrix von Φ, B die von Φt, dann (siehe (2.21))

Φu j =

m∑i=1

ai, jwi =

m∑i=1

(Φu j .wi

)wi ,

also ai, j =(Φu j .wi

)=

(u j . Φ

twi

)und Φtwi =

n∑j=1

bj,iu j =n∑

j=1

(Φtwi . u j

)u j (siehe (2.92)), also

bj,i =(Φtwi . u j

)= ai, j .

Page 76: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

220 2 Matrizen und lineare Abbildungen

Sei O(V) die Menge der orthogonalen Abbildungen von V nach V , dann ist diesmithin eine nichtkommutative Gruppe (und O(V) ⊂ GL(V)).

Dies ist nicht im Konflikt zu den in Abschnitt 2.1.2 rein geometrisch definierten Begriffender orthogonalen Transformation:

Satz 2.63: Orthogonale Transformation = orthogonale Abbildung

Sei V ein R-Vektorraum mit SKP ( . ) und erzeugter Norm ‖ . ‖.Dann sind äquivalent:

(i) Φ ist orthogonale Transformation.

(ii) Φ ist orthogonal (im Sinn von Definition 2.61, 1)).

Beweis: „(i)⇒ (ii)“: Aus der Längenerhaltung folgt die Skalarprodukterhaltung (sie-he Satz 2.13):

(Φu . Φy) = (u . y) für alle u, y ∈ V .

Sei w ∈ V beliebig und y := Φ−1w, also

(Φu .w) = (u, y) =(u . Φ−1w

).

Daher existiert Φt und es gilt Φt = Φ−1.„(ii)⇒ (i)“:

‖Φu‖2 = (Φu . Φu) =(x . ΦtΦu

)= (u . u) = ‖u‖2 . (2.95)

Mit dem Begriff der transponierten Matrix bzw. Abbildung lassen sich die Äquivalenzlis-ten in Hauptsatz 1.85 ergänzen zu:

Hauptsatz 1.85IV Lösbarkeit und Eindeutigkeit bei LGS

Seien m, n ∈ N, A ∈ R(m,n), b ∈ Rn . Betrachte das LGS

Ax = b .

Sei Φ die durch x �→ Ax definierte lineare Abbildung.Dann sind die folgenden Aussagen äquivalent:

(a) Φ ist surjektiv.

Page 77: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 221

(i) Bei jeder Wahl der b1, . . . , bn auf der rechten Seite ist das Gleichungssystemlösbar (universelle Existenz).

(ii) Der Zeilenrang der Koeffizientenmatrix ist voll, d. h. gleich m.

(a’) Φt ist injektiv.

Auch folgende Aussagen sind äquivalent:

(b) Φ ist injektiv.

(iii) Bei jeder Wahl der b1, . . . , bn auf der rechten Seite gibt es höchstens eineLösung des Systems (Eindeutigkeit).

(iv) Das zugehörige homogene System

Ax = 0

hat nur die Null-Lösung (Eindeutigkeit im homogenen Fall).

(v) Der Spaltenrang der Koeffizientenmatrix ist voll, d. h. gleich n.

(b’) Φt ist surjektiv.

Im Fall m = n, d. h. eines quadratischen LGS mit genauso vielen Gleichungen wieUnbekannten sind alle Aussagen (i)–(v),(a)–(b’) miteinander äquivalent und zusätz-lich mit

(c) Φ ist bijektiv.

(vi) Durch elementare Zeilenumformungen kann A auf die Form einer oberenDreiecksmatrix mit nichtverschwindenden Diagonalelementen (bzw. = 1)gebracht werden: ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 ∗. . .

. . .

. . .

0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

(vii) A ist invertierbar.

(viii) A lässt sich als Produkt von Elementarmatrizen schreiben.

Beweis: Dies ergibt sich sofort aus den schon bewiesenen Äquivalenzen, da At die Dar-stellungsmatrix von Φt zu den Einheitsbasen ist und etwa der Zeilenrang von A der Spal-tenrang von At ist. �

In der Sprache von LGS bedeuten somit die neuen Äquivalenzen:

Page 78: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

222 2 Matrizen und lineare Abbildungen

(i) Ax = b ist für jede rechte Seite b lösbar (universelle Lösbarkeit).

(ii) At x = c hat höchstens eine Lösung (Eindeutigkeit).

In Theorem 2.70 wird diese Aussage verallgemeinert werden.

Satz 2.64: Projektion orthogonal↔ symmetrisch

Sei V ein R-Vektorraum mit SKP ( . ). Sei P : V → V eine Projektion für die Pt

existiere. P ist genau dann eine orthogonale Projektion, wenn P symmetrisch ist.

Beweis: „⇒“: Dafür ist

(Pu .w) = (u . Pw) für alle u,w ∈ V

zu zeigen. Wegen u − Pu ∈ U⊥ für U := Bild P gilt also insbesondere

(Pu − u . Pw) = 0, (Pw − w . Pu) = 0 für alle u,w ∈ V .

Daher gilt

(Pu .w) = (w . Pu) = (Pw . Pu) = (Pu . Pw) = (u . Pw) .

„⇐“: Hier ist

(Pu − u . Pw) = 0 für alle u,w ∈ V

zu zeigen. Es ist aber

(Pu − u . Pw) =(u . PtPw

)− (u . Pw)

= (u . Pw) − (u . Pw) = 0 . �

*Bemerkung 2.65 Die explizite Darstellung einer Projektion auf einen eindimensionalenUnterraum nach (2.57) gilt in verallgemeinerter Form für jede Projektion auf Rn:Sei wie in Hauptsatz 2.44

Rn = U1 ⊕ U2

und P die durch

Bild P = U1 , Kern P = U2

festgelegte Projektion.Sei {u1, . . . , uk} eine Basis von U1, {uk+1, . . . , un} eine Basis von U2, die sich nach Be-merkung 1.87 zu einer Basis von Rn ergänzen. Zu x ∈ Rn sei y ∈ Rn der eindeutige

Page 79: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 223

Koordinatenvektor zu dieser Basis, d. h.:

x = Uy ,

wobei U ∈ R(n,n) gerade die Spalten vi habe, folglich invertierbar ist. Partitioniert mannach den ersten k Spalten

U =(U (1) U (2)

)und analog die Zeilen von U−1, daher äquivalent

U−t =(V (1) V (2)

),

so gilt für die Projektion P

Px = U (1)y(1)

und y =(y(1)

y(2)

)ist die analoge Partitionierung. Wegen

y = U−1x

folgt y(i) =(V (i)

)tx und so

Px = U (1)(V (1)

)tx (2.96)

und analog für P2 := 1 − P.

Der Spezialfall einer Projektion nach (2.57) ordnet sich hier ein: Es ist

u1 = a

und für die erste Spalte w1 von U−t gilt (wegen UU−1 = 1)

(a .w1) = 1 ,

(ui .w1) = 0 für i = 2, . . . , n,

also w1 ∈ (Kern P)⊥ = b⊥⊥ = Rb und so

w1 =1

(a . b)b .

Deshalb reduziert sich (2.96) auf (2.57).Eine orthogonale Projektion ergibt sich genau dann, wenn U1 und U2 orthogonal sind,

d. h.:

Page 80: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

224 2 Matrizen und lineare Abbildungen

U2 = U⊥1 .

Dann können die Basen in U1 und U2 orthonormal gewählt werden (was immer möglichist), ergänzen sich aber zusätzlich zu einer ONB, so dass gilt(

V (1) V (2))= U−t = U =

(U (1) U (2)

),

und damit vereinfacht sich die Darstellung zu

Px =

⎛⎜⎜⎜⎜⎜⎜⎝ k∑i=1

ui ⊗ ui⎞⎟⎟⎟⎟⎟⎟⎠ x = U (1)U (1)t x ,

womit sich ein alternativer Beweis für (2.51) ergeben hat. �*Bemerkung 2.66 In der Statistik ist man daran interessiert, einen (Daten-)Vektor x ∈ Rn

auch

y := x − x1 , wobei x :=1n

n∑i=1

xi =1n

(1 . x) ,

zuzuordnen, d. h. einen Vektor mit arithmetischem Mittel Null:

y = 0 .

Dabei ist 1 ∈ Rn der Vektor, dessen Komponenten alle 1 sind. Diese Abbildung lässt sichwegen nx1 = 1 (1 . x) = 1 ⊗ 1 x durch folgende Matrix beschreiben:

A := 1 − 1n

1 ⊗ 1 .

Hierbei ist 1 ⊗ 1 ∈ R(n,n) die Matrix, deren Einträge alle gleich 1 sind. Dann gilt:

A ist eine orthogonale Projektion,

wobei

Bild A = {y ∈ Rn : y = 0}, Kern A = span(1) . (2.97)

Das lässt sich wie folgt einsehen: Die Beziehung

A2 = A

rechnet sich sofort unter Beachtung von 1 ⊗ 1 · 1 ⊗ 1 = n1 ⊗ 1 in R(n,n) nach. A ist symmetrisch, so dassmit Satz 2.64 A orthogonale Projektion ist. (2.97) folgt sofort.

Man nennt A auch eine zentrierende Matrix.Es gilt demnach insbesondere

A1 = 0 , 1tA = 0 ,

Page 81: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 225

d. h. die Zeilen- und Spaltensummen von A sind sämtlich Null.Mittels A lässt sich die mittlere quadratische Abweichung

d2x :=

1n

n∑i=1

(xi − x)2

und damit die (Stichproben-)Varianz

s2x :=

1n − 1

n∑i=1

(xi − x)2

ausdrücken durch

d2x =

1n

xtAx

und analog für s2x, denn

nd2x = (x − x1)t(x − x1) = (Ax)tAx = xtAtAx = xtAx ,

da A symmetrisch und idempotent ist. �Wir nehmen folgende Diskussion wieder auf:

Beispiel 2(3) – Elektrisches Netzwerk Wir betrachten wieder wie in Beispiel 2(2) ein elektrisches Netz-werk, wollen aber als Bauelemente neben Ohmschen Widerständen auch Kondensatoren und Spulen zu-lassen (siehe z. B. Eck, Garcke und Knabner 2011, Abschnitt 2.1). Ein Kondensator kann elektrischeLadungen speichern. Die Menge der gespeicherten Ladung ist proportional zur angelegten Spannung. BeiSpannungsänderungen kann ein Kondensator daher Ströme aufnehmen oder abgeben. Dies wird beschrie-ben durch die Relation

I(t) = C U(t) , (MM.59)

wobei C die Kapazität des Kondensators ist.Dabei bezeichnet f die Ableitung einer Funktion f = f (t). Es ist also i. Allg. nicht mehr möglich, die

Fließverhältnisse in einem solchen elektrischen Netzwerk stationär zu betrachten, d. h. durch Vektoren xoder y, sondern es ist eine dynamische Beschreibung (durch zeitabhängige Funktionen y(t) nötig). Analoggilt: Eine stromdurchflossene Spule erzeugt ein Magnetfeld, dessen Stärke proportional zur Stromstärkeist. Im Magnetfeld ist Energie gespeichert, diese muss beim Aufbau des Magnetfeldes aus dem Stromder Spule entnommen werden. Dies führt zu einem Spannungsabfall an der Spule, der proportional zurÄnderung der Stromstärke ist,

U(t) = L I(t) , (MM.60)

wobei L die Induktivität der Spule ist. Statt auf die potentialbasierte Formulierung (MM.50) bauen wirauf das Spannungsgesetz in der Form von (MM.47) auf und gehen ohne Nachweis davon aus, dass wirzwischen beiden Formulierungen äquivalent hin und her gehen können.

Gesucht sind also Funktionen y : [t0, T ] → Rn, die Ströme für ein vorgegebenes Zeitintervall [t0, T ]und analog die Spannungen e = e(t). Ebenfalls möglicherweise zeitabhängig ist der Vektor der Quellstär-ken b = b(t), um etwa einen Wechselstromkreis zu beschreiben. Weiterhin gültig bleibt das Stromgesetz

Bty(t) = 0 (MM.61)

Page 82: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

226 2 Matrizen und lineare Abbildungen

und das Spannungsgesetz in der Form

De(t) = 0 , (MM.62)

wobei bisher

e(t) = eW (t) − b(t) , (MM.63)

wenn man mit

eW (t) = Ay(t)

mit A = diag(R1, . . . , Rn) den Spannungsabfall an den Ohmschen Widerständen beschreibt. Kommen jetztSpulen und Kondensatoren hinzu, ist eW in (MM.63) zu ersetzen durch

e(t) = DWeW (t) + DS eS (t) + DCeC(t) − b(t) . (MM.64)

Dabei ist DW = diag(δW

i

)und δW

i = 1 falls an der Kante i ein Widerstand liegt und 0 sonst. DS bzw. DCbeschreiben analog das (Nicht-)Vorhandensein von Spulen bzw. Kondensatoren an der jeweiligen Kante.Dass sich die Spannungsabfälle wie postuliert addieren, ist eine Folge des Spannungsgesetzes. Auch kanno. B. d. A. angenommen werden, dass an jeder Kante genau ein Bauteil vorliegt. Aus (MM.62), (MM.64)folgt also

D (DW eW + DS eS + DC eC) (t) = Db(t) .

Dabei sind die Ableitungen komponentenweise zu verstehen, d. h. f (t) = ( f1(t), . . . , fn(t))t . Also ergibtsich zusammen mit (MM.59), (MM.60)

D(DW Ay(t) + DS Ly(t) + DCCy(t)) = Db(t) . (MM.65)

Dabei ist L = diag(L1 , . . . , Ln) bzw. C = diag(1/C1 , . . . , 1/Cn) mit den jeweiligen Induktivitäten Li bzw.Kapazitäten Ci zur Kante i. Bei Fehlen des Bauelements auf Kante i kann Li bzw. 1/Ci beliebig gesetztwerden. Wird in dem Fall Ri = 0, Li = 0 bzw. 1/Ci = 0 vereinbart, sind die Matrizen DW , DS , DCentbehrlich.

Es sind also Lösungen von (MM.65) zusammen mit (MM.61) gesucht. Es handelt sich um ein Systemgewöhnlicher Differentialgleichungen 2. Ordnung mit algebraischen Nebenbedingungen. GewöhnlicheDifferentialgleichungen 1. und 2. Ordnung werden ab Abschnitt 7.2 behandelt. Einer der einfachsten Fälleentsteht wenn je eines der verschiedenen Bauteile mit einer Spannungsquelle in der Schleife verbundenwird (siehe Abbildung 2.9). In diesem Fall ist n = m = 3, d. h. es gibt eine Schleifengleichung

Ry1(t) + Ly2(t) +1C

y3(t) = b(t)

und die Gleichungen aus dem Stromgesetz

y1 − y2 = 0, y2 − y3 = 0, d. h. y1 = y2 = y3

und damit die gewöhnliche Differentialgleichung 2. Ordnung

y(t) +RLy(t) +

1LC

y(t) =1L

b(t) für t ∈ [t0, T ] , (MM.66)

zu versehen mit Anfangsbedingungen

y(t0) = y0, y(t0) = y′0 .

Page 83: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.3 Matrizenrechnung 227

R

C L

1

2

3

Ohmscher Widerstand R , Spule , Kondensator .

Abb. 2.9: Elektrischer Schwingkreis mit Ohmschem Widerstand, Spule und Kondensator.

Die Lösung von (MM.66) kann wegen der Linearität des Problems (siehe allgemeiner Abschnitt 8.6.1)zerlegt werden in eine Lösung yp zur rechten Seite und irgendeiner Anfangsvorgabe y0, y

′0 und eine Lösung

ya zur rechten Seite gleich 0 und den Anfangsvorgaben y0 − y0, y′0 − y′0. yp beschreibt das erzwungene

Langzeitverhalten, ya den Einschwingvorgang. �

Beispiel 2(4) – Elektrisches Netzwerk In (MM.51) wurde ein LGS in Spannung y und Potential x her-geleitet, aus dem sich aber y eliminieren lässt. Auflösen des oberen Teilsystems nach y, d. h.

y = −A−1Bx + A−1 b (MM.67)

und Einsetzen in das untere ergibt

BtA−1Bx = BtA−1 b . (MM.68)

Dabei ist hier A nicht nur invertierbar, sondern sogar diagonal, so dass C = A−1 explizit (und diagonal)vorliegt. Wir erwarten, dass der Kern von BtA−1B mindestens span(1) umfasst.

Es gilt:

Satz 2.67

Sei C ∈ R(n,n) Diagonalmatrix mit positiven Einträgen, B ∈ R(n,m).Dann gilt für M := BtCB:

1) Kern M = Kern B .

2) Das LGS Mx = Bt c hat für jedes c ∈ Rn eine Lösung.

3) Ist das Netzwerk zusammenhängend, so hat das LGS aus 2) mit B nach (MM.43) nach Fixierungeiner Komponente von x eine eindeutige Lösung.

Beweis: Zu 1): Kern B ⊂ Kern M ist klar und für x ∈ Kern M gilt:

0 =(x . BtCBx

)= (Bx .CBx) ,

woraus Bx = 0 folgt, da (x .Cy) nach (1.63) ein SKP auf Rn darstellt.

Page 84: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

228 2 Matrizen und lineare Abbildungen

Zu 2): Zu zeigen ist

Bt c ∈ Bild M = (Kern Mt)⊥ = (Kern M)⊥ ,

da M symmetrisch ist. Sei x ∈ Kern M = Kern B, dann(x . Bt c

)= (Bx . c) = 0 .

Zu 3): Nach Satz 1.114 ist Kern M = Kern B = span(1), woraus sich die Behauptung ergibt. �

Bemerkung 2.68 Die Matrix C darf auch allgemeiner sein:

1) C muss symmetrisch sein (damit auch M symmetrisch ist).

2) (x .Cy) muss ein SKP definieren, d. h. es muss (x .Cx) > 0 für alle x ∈ Rn, x � 0 gelten: sieheAbschnitt 4.7.1. �Anwendung von (MM.68) auf das Beispiel (aus Abbildung 1.1) ergibt das LGS(

RG −RG−RG RG

) (x1x2

)=

⎛⎜⎜⎜⎜⎜⎜⎝ UR1

− UR1

⎞⎟⎟⎟⎟⎟⎟⎠ ,

wobei

RG :=1

R1+

1R2+

1R3

.

Nach Fixierung von x2 = 0 ergibt sich also

x1 =U

R1RG=

R2R3URS

mit RS := R1R2 + R1R3 + R2R3 und daraus nach (MM.67)

y1 = − x1

R1+

UR1

, y2 =x1

R2=

R3URS

, y3 =x1

R3=

R2URS

.

Das ist nach leichter Umformung die Lösung aus Beispiel 2(1). �

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• Matrizenmultiplikation, Matrixpotenzen• Tensorprodukt von Vektoren, Rang-1-Matrizen• Projektion• Invertierbare Matrix• Elementarmatrizen• Orthogonale Matrix und Abbildung, O(n,R)• Transponierte, symmetrische Matrix und Abbildung

Zusammenhänge

Page 85: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

Aufgaben 229

• Darstellungsmatrix von Kompositionen (Theorem 2.35)• (R(m,n),+, ·) als (nicht kommutativer) Ring (Überlegung nach (2.44))• Projektionen und direkte Zerlegung (Hauptsatz 2.44, 2.46)• Gauss-Umformung als Multiplikation mit Elementarmatrizen ((2.73)ff.)• Projektion orthogonal⇔ symmetrisch (Satz 2.64)

Beispiele

• Produkte von

– Drehmatizen– Diagonalmatrizen

• Darstellungsmatrizen der Orthogonalprojektion auf Unterraum, insbesondere Ge-rade und Hyperebene

• (GL(n,R), ·) als (nicht kommutative) Gruppe

Aufgaben

Aufgabe 2.10 (K) Verifizieren Sie Bemerkung 2.27 unter Benutzung der trigonometri-schen Additionstheoreme.

Aufgabe 2.11 (K) Verifizieren Sie (2.40).

Aufgabe 2.12 (T) Zeigen Sie Satz 2.46, 1).

Aufgabe 2.13 (T) Arbeiten Sie Bemerkung 2.49 aus.

Aufgabe 2.14 (K) Zeigen Sie die Aussagen aus Bemerkungen 2.50, 2) über invertierbare(obere) Dreiecksmatrizen.

Aufgabe 2.15 (T) Zeigen Sie, dass für alle A ∈ R(p,n) der Rang von A mit dem Rang vonAAt und von AtA übereinstimmt.

Aufgabe 2.16 (T) Seien A ∈ R(m,n), B ∈ R(n,p) beliebig. Zeigen Sie:Rang(AB) ≤ min

(Rang A, Rang B

).

Aufgabe 2.17 (T) Es sei C ∈ R(m,n) eine Matrix von Rang k. Man beweise: Es gibt Matri-zen A ∈ R(m,k) und B ∈ R(k,n) mit C = AB.

Aufgabe 2.18 (K) Es sei A eine reelle n × n-Matrix, 1 die Einheitsmatrix, es sei (A − 1)invertierbar, und es sei B := (A + 1)(A − 1)−1. Man beweise:

a) (A + 1)(A − 1)−1 = (A − 1)−1(A + 1) durch Betrachtung von

(A − 1 + 21)(A − 1)−1 − (A − 1)−1(A − 1 + 21).

b) (B − 1) ist invertierbar, indem man B − (A − 1)(A − 1)−1 = 2(A − 1)−1 zeigt.c) (B + 1)(B − 1)−1 = A.

Page 86: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

230 2 Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme

2.4.1 Lineare Gleichungssysteme und ihre Unterräume II

Mit den bisherigen Überlegungen können die für eine Matrix A ∈ R(m,n) (und dem von ihrdefinierten LGS) wesentlichen linearen Unterräume, nämlich

Kern A (= Lösungsraum von Ax = 0) ,Bild A (= Spaltenraum von A) ,Kern At (= Lösungsraum von At x = 0 bzw. von xtA = 0) ,Bild At (= Zeilenraum von A)

genauer in Beziehung gesetzt werden. Nämlich:

Spaltenrang = dim Bild A ,Zeilenrang = dim Bild At ,

und somit nach Hauptsatz 1.80:

dim Bild A = dim Bild At .

In Theorem 1.82 haben wir gesehen:

dim Kern A + dim Bild At = n (2.98)

und somit auch

dim Kern A + dim Bild A = n (2.99)

und entsprechend

dim Kern At + dim Bild A = m , (2.100)dim Kern At + dim Bild At = m . (2.101)

In (1.70) haben wir sogar folgendes gesehen, dass

Hauptsatz 2.69: Kern-Bild-Orthogonalität

Sei A ∈ R(m,n). Dann gilt bezüglich des euklidischen SKP:

(Kern A)⊥ = Bild At bzw. Kern A = (Bild At)⊥

und (Kern At)⊥ = Bild A bzw. Kern At = (Bild A)⊥

und insbesondere die Dimensionsbeziehungen (2.98)–(2.101).

Page 87: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 231

Damit ergibt sich insbesondere folgendes Lösbarkeitskriterium für LGS:

Theorem 2.70: Lösbarkeit eines LGS

Sei A ∈ R(m,n), b ∈ Rm.Das LGS Ax = b ist lösbar, genau dann wenn

b ∈ (Kern At)⊥ ,

d. h.

(b . x) = 0 für alle x ∈ Rm mit At x = 0 .

Beispiel 3(5) – Massenkette Mit Theorem 2.70 ist es möglich, das Lösbarkeitskriterium (MM.16) füreine Matrix der Form (MM.15) und darüber hinaus ohne explizite Gauss-Elimination zu verifizieren.Wegen

n∑i=1

bi = 0⇔ (b . 1) = 0

für b = (bi)i ∈ Rn ist somit

Kern At = span(1) (MM.69)

nachzuweisen. Wegen A = At folgt die Teilmengenbeziehung „⊃“ analog zu Satz 1.114, 1) sofort daraus,dass die Zeilensummen (bzw. allgemein die Spaltensummen) verschwinden. Wegen der Gestalt A = BtBnach (MM.52) mit B nach (MM.36) ist auch hier Satz 1.114, 1) gültig und liefert mit Satz 2.67, 1) dieBehauptung. Ein alternativer Weg ohne Rückgriff auf B benötigt weitere Eigenschaften von A, etwa dieIrreduzibilität. Dieser Begriff wird in Abschnitt 8.4 genauer untersucht (siehe Satz 8.43):

Definition 2.71

Sei A ∈ R(n,n). A heißt irreduzibel , wenn zu i, j ∈ {1, . . . , n} ein r ∈ {1, . . . , n} und Indizes i1 =

i, i2, . . . , ir−1, ir = j existieren, so dass

aik ,ik+1 � 0 für alle k = 1, . . . , r − 1 .

A heißt reduzibel , wenn A nicht irreduzibel ist.

Irreduzibilität bedeutet gerade für ein zugehöriges LGS, dass es nicht möglich ist, einen Teil der Unbe-kannten unabhängig von den anderen zu bestimmen (siehe Bem. 8.44, 2)). Bezeichnen wir für i ∈ {1, . . . , n}mit

Ni = { j ∈ {1, . . . , n}\{i} : ai, j � 0}die Nachbarn des Index i, so ist es bei Irreduzibilität demnach möglich, beliebige Indizes über Nachbar-schaftsbeziehungen zu verbinden. Der folgende Satz enthält insbesondere die Aussage (MM.69):

Page 88: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

232 2 Matrizen und lineare Abbildungen

Satz 2.72

Sei A = (ai, j)i, j ∈ R(n,n) mit folgenden Eigenschaften:

1) A ist irreduzibel.

2)n∑

j=1ai, j = 0 für alle i = 1, . . . , n .

3) ai, j ≤ 0 für i, j = 1, . . . , n, i � j .

Dann gilt:

Kern A = span(1) .

Beweis: Die Bedingung 2) lässt sich wegen 3) auch schreiben als

ai,i = −n∑

j=1j�i

ai, j =

n∑j=1j�i

|ai, j | (MM.70)

und damit ai,i ≥ 0 . Da wegen 1) für i ∈ {1, . . . , n} mindestens ein ai, j � 0 für ein j � i, d. h. Ni � ∅ gilt, istsogar

ai,i > 0 für alle i = 1, . . . , n .

Sei x = (xi)i ∈ Kern A und k ∈ {1, . . . , n} so gewählt, dass

xk = max{xi : i ∈ {1, . . . , n}} .Dann folgt mit 3) und (MM.70)

ak,k xk =

n∑j=1j�k

|ak, j |xj =∑j∈Nk

|ak, j |xj ≤∑j∈Nk

|ak, j |xk = ak,k xk .

Damit muss obige Ungleichung als Gleichung gelten und da die Abschätzung für die Summanden einzelngilt, auch:

|ak, j |xj = |ak, j |xk für j ∈ Nk

und damit

xj = xk für j ∈ Nk .

Diese Gleichheit kann auf die Nachbarn der j ∈ Nk usw. übertragen werden. Wegen i) wird dadurchschließlich die ganze Indexmenge erfasst. �

Dieser Satz impliziert noch einmal die Aussage (2.97) für die zentrierende Matrix

A = 1 − 1n

1 ⊗ 1 . �

Page 89: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 233

2.4.2 Ausgleichsrechnung und Pseudoinverse

Sei A ∈ R(m,n), b ∈ Rm und man betrachte das LGS

Ax = b .

Dies möge nicht lösbar sein, was typischerweise im Fall m > n (Überbestimmung durchzu viele widersprüchliche Gleichungen) auftritt. Dann ist es naheliegend, das LGS durchfolgendes Ersatzproblem (lineares Ausgleichsproblem) zu approximieren:

Gesucht ist x ∈ Rn, so dass

‖Ax − b‖ = min{‖Ay − b‖ : y ∈ Rn} . (2.102)

Dabei ist ‖.‖ die euklidische Norm. Also ist Ax die orthogonale Projektion in Rm von bauf Bild A und damit eindeutig existent (siehe Definition 1.101 und Hauptsatz 1.102).

Ax ist dadurch charakterisiert, dass

Ax − b ∈ (Bild A)⊥ = Kern At

nach Hauptsatz 1.102 und Hauptsatz 2.69,

folglich ist Ax bestimmt durch das LGS

AtAx = At b , (2.103)

die Normalgleichungen.

Damit nicht nur Ax, sondern auch x ∈ Rn eindeutig ist, müssen die Spalten von A linearunabhängig sein, d. h.:

Hauptsatz 2.73: Ausgleichsproblem lösbar

Sei A ∈ R(m,n), b ∈ Rm. Dann ist das lineare Ausgleichsproblem (2.102) immerlösbar und die Lösungen erfüllen die Normalgleichungen (2.103).Genau dann, wenn Rang A = n, ist die Lösung eindeutig.

Rang A = n bedeutet auch Rang(AtA) = n (siehe Bemerkungen 2.57, 3) und damit dieRegularität von AtA ∈ R(n,n): Die Lösung von (2.102) ist daher in diesem Fall

x := (AtA)−1At b , (2.104)

wird aber nicht so berechnet. Dafür gibt es diese Möglichkeiten:

Page 90: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

234 2 Matrizen und lineare Abbildungen

• Lösung der Normalgleichungen:Zwar ist AtA symmetrisch und hier auch positiv definit (siehe Definition 4.133),was die algorithmische Lösung von (2.103) erleichtert (siehe Abschnitt 8.2.3), dieStabilität dieses LGS kann aber schlecht sein (siehe Abschnitt 8.1.1). Eine Mög-lichkeit, dies zu verbessern, ist das LGS als LGS doppelter Dimension zu schreibendurch Einführung des Defekts

y := Ax − b

als weitere Unbekannte. Dann ist (2.103) äquivalent zum symmetrischen LGS(0 At

A −1) (

xy

)=

(0

b

).

Dies ist mithin ein LGS vom Typ (1.91) mit folgender Notationsänderung: StattA, B, b, f steht hier 1,−A,−b, 0.

• Direkte Lösung von (2.102): Dies wird in Abschnitt 4.8 behandelt.

Beispiel 2.74 (Datenanpassung) Lineare Ausgleichsprobleme entstehen, wenn („viele“)Daten (ti, yi), i = 1, . . . , m, ti, yi ∈ R, durch eine Funktion aus einem (niedrigdimensiona-len) Funktionenraum U mit gegebener Basis ϕ0, . . . , ϕn, etwa Rn[x] mit der Monombasis,(wobei n < m) „möglichst gut“ wiedergegeben werden sollen:

Es werden also x0, . . . , xn ∈ R gesucht, so dass

( n∑j=0

x jϕ j

)(ti) ≈ yi ,

was sich durch die Forderung

m∑i=1

(( n∑j=0

x jϕ j

)(ti) − yi

)2→ minimal

(Methode der kleinsten Quadrate), präzisieren lässt. Setzt man A = (ai, j)i j ∈ R(m,n+1),b = (bi) ∈ Rm durch

ai, j := ϕ j(ti), bi := yi, i = 1, . . . , m, j = 0, . . . , n ,

so handelt es sich um das lineare Ausgleichsproblem zu Ax = b.Die exakte Lösung von Ax = b, d. h. von⎛⎜⎜⎜⎜⎜⎜⎝ n∑

j=0

x jϕ j

⎞⎟⎟⎟⎟⎟⎟⎠ (ti) = yi für i = 1, . . . , m,

ist gerade das Interpolationsproblem in V := span(ϕ0, . . . , ϕn).In Bemerkung 2.34 wurde für V = Rn[x] oder auch S 1(Δ) gezeigt, dass für m = n + 1

die Interpolationsaufgabe eindeutig lösbar ist. Für m > n + 1 ist deswegen, bis auf „spe-

Page 91: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 235

zielle“ Daten yi die Interpolationsaufgabe nicht lösbar und daher das Ausgleichsproblemangemessen. ◦Beispiel 2.75 (Polynomiale Regression) Spezialfälle sind die polynomiale Regression,d. h. die Anpassung eines Polynoms n-ten Grades an Datenpunkte, für U = Rn[X],ϕi(x) := xi, und davon wieder die lineare Regression für n = 1. Für n = 1 lässt sichdie Lösung explizit angeben.

Wegen

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 t1...

...1 tm

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ist

AtA =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝m

m∑i=1

tim∑

i=1ti

m∑i=1

t2i

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠und

At b =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝m∑

i=1yi

m∑i=1

tiyi

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Mit den arithmetischen Mitteln als Abkürzungen, d. h.

t :=1m

m∑i=1

ti , t2 :=1m

m∑i=1

t2i ,

und analog y und ty lässt sich infolgedessen nach (2.68) die Lösung der Normalgleichungdarstellen als(

x0

x1

)=

(AtA

)−1Atb =

1m2d

(mt2 −mt−mt m

) (mymty

), wobei d :=

(t2 − (t)2

),

demnach ergibt sich für den Achsenabschnittsparameter der Ausgleichsgeraden

x0 =1d

(t2y − t ty

)(2.105)

und für den Steigungsparameter

x1 =1d

(ty − ty

).

Durch Einsetzen verifiziert man, dass

Page 92: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

236 2 Matrizen und lineare Abbildungen

x0 + x1t = y ,

d. h. (t, y) liegt exakt auf der Ausgleichsgeraden. Damit lässt sich z. B. die Gleichung(2.105) ersetzen durch

x0 = y − x1t .

◦Sei A ∈ R(m,n) und Rang A = n. Nach (2.103) wird durch

A+ := (AtA)−1At (2.106)

eine Verallgemeinerung der inversen Matrix definiert, insofern für n = m und A invertier-bar gilt

A+ = A−1 .

A+ heißt die Pseudoinverse von A.Im Folgenden soll die Definition von A+ auch für den Fall Rang A < n erweitert wer-

den, indem aus der Lösungsmenge für das Ausgleichsproblem eine spezielle Lösung aus-gewählt wird. Dafür sollen die im Fall Rang A = n geltenden Eigenschaften zusammenge-stellt werden. Wegen der eindeutigen Lösbarkeit des Ausgleichsproblems gilt:

A+Ax = x für alle x ∈ Rn, d. h. A+A = 1n , (2.107)

da A+ die Lösung des Ausgleichsproblems zuordnet und dieses für b = Ax natürlich x ist.Weiter ist

P := A(AtA)−1At = AA+

die orthogonale Projektion auf Bild A, da Pb−b = Ax−b, wobei Ax gerade durch Ax−b ∈(Bild A)⊥ gekennzeichnet ist.

Da Rang A = n⇔ Kern A = {0}, gilt zusammenfassend in diesem Fall:

• AA+ ist die orthogonale Projektion auf Bild A,• A+A(= 1) ist die orthogonale Projektion auf (Kern A)⊥(= Rn).

Im Folgenden bezeichne, wie bisher auch, PU die orthogonale Projektion auf den linearenbzw. affinen Unterraum U.

A+b zu bestimmen bzw. das Ausgleichsproblem zu b zu lösen bedeutet daher beiRang A = n:

1) Zerlege b in b = PBild Ab + b − PBild Ab.2) Löse Ax = PBild Ab (die Lösung existiert eindeutig).3) A+b := x.

Im allgemeinen Fall (d. h. auch Rang A < n) ist für U = Bild A und b ∈ Rm zwar PU beindeutig, nicht aber x ∈ Rn, so dass

Page 93: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 237

Ax = PU b . (2.108)

Bei der Lösungsmenge von (2.108) handelt es sich vielmehr um einen affinen Raum derForm

Wb := x′ + Kern A , (2.109)

wobei x′ eine spezielle Lösung von (2.108) ist. Ein Element aus Wb kann daher eindeutigdurch die folgende Minimierungsaufgabe ausgewählt werden:

Gesucht ist x ∈ Wb, so dass

‖x‖ = min{‖y‖ : y ∈ Wb} (2.110)

mit der euklidischen Norm ‖ . ‖. Da es sich hierbei um die orthogonale Projektion von 0

auf Wb handelt, ist die Lösung x von (2.110) eindeutig bestimmt und

x = PWb 0 (2.111)

und nach (1.78) (siehe auch (2.166))

x = PKern A(0) + P(Kern A)⊥(x′) = P(Kern A)⊥ (x′) .

Damit ist die Lösung x von (2.111) charakterisiert durch

x ∈ (Kern A)⊥ (2.112)

und

x − x′ ∈ Kern A⇔ Ax = Ax′ = PU b .

Aus diesem Grund:

Definition 2.76

Sei A ∈ R(m,n), b ∈ Rn. Die (Moore-Penrose11-) Pseudoinverse A+ wird durchihre Anwendung auf b definiert durch:A+b ist die normminimale Lösung des Ausgleichsproblems, d. h. von (2.110), und istcharakterisiert durch

A+b ∈ (Kern A)⊥ und A(A+b) = PBild Ab .

Mit dem folgenden (ersten) Isomorphiesatz (siehe auch Theorem A.23) lässt sich die Pseu-doinverse alternativ darstellen:

11 Eliakim Hastings Moore ∗28. Januar 1862 in Marietta †30. Dezember 1932 in ChicagoRoger Penrose ∗8. August 1931 in Colchester

Page 94: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

238 2 Matrizen und lineare Abbildungen

Theorem 2.77: Zerlegung in surjektive und injektive lineare Abbildung

Seien V, W R-Vektorräume, V endlichdimensional und mit SKP, Φ : V → W einelineare Abbildung. Dann gilt

Φ = Φ|(Kern Φ)⊥ ◦ P(Kern Φ)⊥ ,

d. h. das folgende Diagramm ist kommutativ:

V WΦ

(Kern Φ)⊥

P(Kern Φ)⊥Φ|(Kern Φ)⊥

Dabei ist P(Kern Φ)⊥ surjektiv, Φ|(Kern Φ)⊥ injektiv und insbesondere

Ψ : (KernΦ)⊥ → Bild Φ,

x �→ Φx

ein Isomorphismus.

Beweis: Sei x ∈ V , dann gilt nach Hauptsatz 1.102

x = P(Kern Φ)⊥x + x − P(Kern Φ)⊥x

und

x − P(Kern Φ)⊥x ∈ (KernΦ)⊥⊥ = KernΦ

und so

Φx =(Φ ◦ P(Kern Φ)⊥

)x =

(Φ|(Kern Φ)⊥ ◦ P(KernΦ)⊥

)x .

Eine Projektion ist immer surjektiv und die Injektivität von Φ|(KernΦ)⊥ folgt aus

Φ|(Kern Φ)⊥ x = 0⇒ x ∈ KernΦ ∩ (KernΦ)⊥ = {0} . �

Bemerkung 2.78 Tatsächlich wird in Theorem 2.77 nur die Endlichdimensionalität von(KernΦ)⊥ (für (KernΦ)⊥⊥ = KernΦ) gebraucht. �

Page 95: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 239

Hauptsatz 2.79: Eigenschaften Pseudoinverse

Sei A ∈ R(m,n).

1) Die Pseudoinverse erfüllt die Identität

A+ = Ψ−1 ◦ PBild A (2.113)

mit Ψ nach Theorem 2.77. Es entsprechen sich also folgende Zerlegungen von Abzw. A+:

A : RnP(Kern A)⊥−−−−−−→ (Kern A)⊥

Ψ−→ Bild A ⊂ Rm

Rn ⊃ (Kern A)⊥Ψ−1

←−−− Bild APBild A←−−−− Rm : A+ .

Insbesondere ist A+ eine lineare Abbildung, die (bezüglich der Einheitsbasis) dar-stellende Matrix wird identisch mit A+ ∈ R(n,m) bezeichnet, d. h.

A+ = (A+e1, . . . , A+en) .

2) Bild A+ = (Kern A)⊥ .

3) A+A ist die orthogonale Projektion auf (Kern A)⊥,

A+A = P(Kern A)⊥ , (2.114)

d. h.

A A+Ax = Ax für x ∈ Rn (2.115)und (A+A)t = A+A . (2.116)

Weiter gilt:

A+A A+y = A+y für y ∈ Rm . (2.117)

4) AA+ ist die orthogonale Projektion auf Bild A, d. h. AA+ = PBild A ,und damit auch

(AA+)t = AA+ . (2.118)

5) Ist Rang A = n, d. h. das Ausgleichsproblem eindeutig lösbar, dann ist

A+ = (AtA)−1At

und (2.114) wird zu (2.107), d. h. A+ ist eine Linksinverse.

Page 96: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

240 2 Matrizen und lineare Abbildungen

Beweis: Zu 1): Die Darstellung entspricht der Charakterisierung (2.112). Da Ψ ausTheorem 2.77 ein Isomorphismus ist, gilt dies auch für Ψ−1 nach Satz 2.5, 3).Zu 2): Folgt sofort aus (2.113).Zu 3): Nach Theorem 2.77 gilt P(Kern A)⊥ = Ψ−1 ◦ A und damit

A+A = Ψ−1 ◦ PBild A ◦ A = Ψ−1 ◦ A = P(Kern A)⊥ .

Wir schreiben kurz P für P(Kern A)⊥ . Auch die Identität (2.115) gilt, da

Px − x ∈ Kern A = (Kern A)⊥⊥, also A(Px − x) = 0 .

Als orthogonale Projektion ist A+A symmetrisch (nach Satz 2.64), d. h. (2.116) gilt. DieBeziehung (2.117) gilt, da sie P = 1 auf Bild A+ = (Kern A)⊥ bedeutet.Zu 4): Aus (2.113) folgt

AA+ = AΨ−1PBild A = PBild A

und damit auch (2.118).Zu 5): Folgt aus Hauptsatz 2.73 und (2.106)). �

Es ergibt sich daher das folgende Diagramm (i bezeichnet jeweils die Einbettung (Identi-tät)):

RnA−→←−

A+Rm

P = A+A⏐⏐⏐⏐⏐;<⏐⏐⏐⏐⏐ i i

<⏐⏐⏐⏐⏐⏐⏐⏐⏐⏐; P = AA+

Bild A+ = (Kern A)⊥ � Bild A .

In Verallgemeinerung der Situation mit Rang A = n gilt also:

A+b bedeutet:

1) Zerlege b in b = PBild A b + b − PBild Ab .2) Der Lösungsraum von

Ax = PBild Ab

ergibt sich als

x = x′ + xp

– mit x′ ∈ Kern A beliebig– und xp als spezielle Lösung des LGS.

Page 97: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 241

Andererseits gilt für x ∈ Rn die eindeutige Darstellung

x = xk + xz mit xk ∈ Kern A , xz ∈ (Kern A)⊥ = Bild At .

Die spezielle Lösung wird so gewählt, dass

xp ∈ (Kern A)⊥,

dann

A+b := xp .

Im Fall b ∈ Bild A wird also ein Element (das mit der kleinsten Norm) aus A−1({b})ausgewählt. Im Fall Rang A = n ist die Lösung von

Ax = PBild Ab

eindeutig. Durch die Eigenschaften (2.115)-(2.118) wird A+ schon charakterisiert:

Satz 2.80: Charakterisierung Pseudoinverse

Die Pseudoinverse A+ ∈ R(n,m) zu A ∈ R(m,n) ist charakterisiert durch

1) (A+A)t = A+A ,

2) (AA+)t = AA+ ,

3) A+AA+ = A+ ,

4) AA+A = A .

Beweis: Wir haben bereits in Hauptsatz 2.79 gesehen, dass A+ 1)–4) erfüllt.Zum Beweis der Eindeutigkeit von A+ aus 1)–4) nehmen wir an, für B ∈ R(n,m) gelte

1)–4). Wir definieren P := BA, P := AB, dann gilt:

Pt 1)= P, P2 = (BAB)A

3)= BA = P ,

nach Satz 2.64 ist P deshalb orthogonale Projektion auf Bild P, analog für P.Weiter gilt:

x ∈ Kern P⇒ Ax 4)= ABAx = APx = 0

x ∈ Kern A⇒ Px = BAx = 0

⎫⎪⎪⎬⎪⎪⎭ ⇒ Kern A = Kern P .

Hieraus folgert man Bild P = (Kern P)⊥ = (Kern A)⊥, also ist P die von B unabhängigeorthogonale Projektion auf (Kern A)⊥. Mit

Page 98: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

242 2 Matrizen und lineare Abbildungen

Bild P = N := {y ∈ Rm : Py = y} (2.119)

schließen wir in ähnlicher Weise

y ∈ N ⇒ ABy = y ⇒ y ∈ Bild Ay ∈ Bild A, y = Axfür ein x ∈ Rn ⇒ Py = ABAx = Ax = y ⇒ y ∈ Bild P

⎫⎪⎪⎪⎪⎬⎪⎪⎪⎪⎭ ⇒ Bild P = N= Bild A ,

d. h. P ist die von B unabhängige orthogonale Projektion auf Bild A. Erfüllen also B1, B2

die Eigenschaften 1)–4), dann gilt: AB1 = AB2 und B1A = B2A, d. h.

B1 = B1AB1 = B2AB1 = B2AB2 = B2 . �

Satz 2.81

Sei A ∈ R(m,n), dann gilt:

1) A++ = A,

2) (At)+ = (A+)t.

Beweis: Zu 1): Die Bedingungen 1)–4) in Satz 2.80 sind symmetrisch in A und A+.Zu 2): Durch Transponieren der Bedingungen 1)–4) in Satz 2.80 erhält man(

At(A+)t)t= At(A+)t(

(A+)tAt)t= (A+)tAt

(A+)tAt(A+)t = (A+)t

At(A+)tAt = At .

Damit folgt die Behauptung nach Satz 2.80. �

Bemerkungen 2.82

1) Ein B ∈ R(m,n), das die Bedingungen 1)–4) von Satz 2.80 erfüllt, hat demgemäß dieEigenschaften

a) AB ist die orthogonale Projektion auf Bild A.

b) BA ist die orthogonale Projektion auf (Kern A)⊥.

c) Bild B = (Kern A)⊥.

Für c) beachte man, dass wegen b) und (iii) gilt:

(Kern A)⊥ = Bild(BA) = Bild B .

Andererseits folgen aus a), b), c) für ein B ∈ R(m,n) die Eigenschaften 1)–4) aus Satz 2.80.

Page 99: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 243

2) Zur Erinnerung: Ist Rang A = n, dann gilt

A+A = 1n und A+ = (AtA)−1At , (2.120)

A+ ist somit Linksinverse.

3)

Ist Rang A = m, dann gilt

AA+ = 1m und A+ = At(AAt)−1 . (2.121)

Hier ist also A+ Rechtsinverse.

Hierbei folgt die erste Eigenschaft sofort aus Hauptsatz 2.79, 4). Für die zweite betrachte man At, dasvollen Spaltenrang hat, so dass nach (2.106) folgt: (At)+ = (AAt)−1A und daraus mit Satz 2.81, 2) dieBehauptung.

4) Über die Charakterisierungen 1)–4) in Satz 2.80 lassen sich für viele Beispiele diePseudoinversen verifizieren. Es gilt:

a) Sei A ∈ R(m,n) die Nullmatrix, dann gilt A+ = 0.

b) Sei A ∈ R(n,n) orthogonale Projektion, dann A+ = A .

c) Sei a ∈ Rn = R(n,1), a � 0, dann gilt a+ = 1/(at a)at und damit insbesondere fürλ ∈ R = R(1,1), λ � 0 : λ+ = 1/λ .

– Dies folgt alternativ auch aus (2.106), da A = a vollen Spaltenrang hat. –

Die Abbildung a+ ordnet also den Faktor λ zu, so dass λa die orthogonale Projek-tion auf Ra ist.

d) Seien a ∈ Rm, b ∈ Rn, a � 0, b � 0, dann gilt für A := a ⊗ b:

A+ = αb ⊗ a, wobei α := 1/(at abt b) .

5)

Sei A ∈ R(m,n), Q eine orthogonale (m, m) - bzw. (n, n) - Matrix. Dann gilt

a) (QA)+ = A+Q−1 = A+Qt

bzw. (2.122)

b) (AQ)+ = Q−1A+ = QtA+ .

Page 100: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

244 2 Matrizen und lineare Abbildungen

Dies kann entweder über die Bedingungen 1)–4) aus Satz 2.80 verifiziert werden, alternativ kann auchdirekt die Definition überprüft werden, da die orthogonale Transformation Q die Längen nicht verändert.So folgt a) etwa direkt daraus, dass die Aufgabe

‖Ax − Qt b‖2 = ‖QAx − b‖2 → minimal, so dass x ∈ (Kern A)⊥ = (Kern(QA))⊥

von x = A+Qt b gelöst wird.

Für beliebige Matrizen gilt aber die Beziehung

(AB)+ = B+A+

i. Allg. nicht, auch nicht wenn einer der Faktoren invertierbar ist.

Ein mögliches Gegenbeispiel ist

A =(

2 00 0

), also A+ =

(12 00 0

)(siehe 6)),

B =(

1 10 2

), also B+ = B−1 = 1

2

(2 −10 1

).

Und damit AB =(

2 20 0

), also mit leichter Rechnung aus der Definition (AB)+ = 1

4

(1 01 0

), aber

B+A+ =12

(1 00 0

).

6) Sei D ∈ R(m,n) eine Diagonalmatrix (in dem allgemeinen Sinn von Bemerkung 1.47)und seien di := di,i, i = 1, . . . , min(m, n) die Diagonalelemente.

Dann ist D+ ∈ R(m,n) auch eine Diagonalmatrix mit den Diagonaleinträgen

di =

⎧⎪⎪⎨⎪⎪⎩1/di , falls di � 00 , falls di = 0 .

Dies kann über die Bedingungen 1)–4) aus Satz 2.80 verifiziert werden oder direkt überdie Definition.

7) Sei A ∈ R(m,n), b ∈ Bild A, dann kann der Lösungsraum von Ax = b ausgedrücktwerden durch

x = A+b + (1 − A+A)z für alle z ∈ Rn .

Dabei sind die beiden Summanden orthogonal zueinander.Dies gilt, da in der Zerlegung einer allgemeinen Lösung in eine spezielle und ein Element aus Kern A fürdie spezielle Lösung A+b gewählt werden kann und 1 − A+A die orthogonale Projektion auf Kern A ist.

Page 101: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 245

Es fehlt bisher eine „explizite“ Formel für A+.Man beachte aber, dass (2.120) oder (2.121) mit der Inversenanwendung von AtA bzw.

AAt auch die Lösung eines LGS bedeutet. Da dies numerisch ungünstig sein kann (sie-he Abschnitt 8.1.2), sind direkte algorithmische Zugänge, die auf die direkte Lösung desAusgleichsproblems aufbauen, vorzuziehen (siehe Abschnitt 4.8). Mit der Kenntnis derSingulärwertzerlegung einer Matrix wird auch explizit die Pseudoinverse gegeben (sieheAbschnitt 4.6). Dies ist mittlerweile der übliche Zugang. Die Pseudoinverse lässt sich aberauch durch ein endliches, rekursives Verfahren bestimmen, den Algorithmus von Gre-ville12:

Sei A = (a(1), . . . , a(n)) ∈ R(m,n) und für k = 1, . . . , n ,

Ak = (a(1), . . . , a(k)) ∈ R(m,k) ,

d. h. die Teilmatrix aus den ersten k Spalten von A. Für k = 1 ist A+k aus Bemerkungen 2.82,4c) bekannt.

Für k > 1 ergibt sich A+k aus A+k−1 durch folgende Vorschrift:

dk := A+k−1a(k) ,

ck := a(k) − Ak−1dk ,

bk :=(c+k

)tfalls ck � 0 ,

bk :=(1 + dt

k dk

)−1 (A+k−1

)tdk falls ck = 0 ,

A+k :=

⎛⎜⎜⎜⎜⎜⎝ A+k−1 − dk ⊗ bk

btk

⎞⎟⎟⎟⎟⎟⎠ .

Auf die Verifikation dieses Verfahrens wird hier verzichtet (siehe z. B. Ben-Israel undGreville 2003, Seite 263). Es ist mit einem Aufwand von O(n2m) Operationen nichtaufwändiger als eine Inversenbestimmung mit dem Gauss-Verfahren.

Bemerkung 2.83 Besitzt A ∈ R(m,n) mit Rang A = r eine Voll-Rang-Faktorisierung, d. h.existieren B ∈ R(m,r),C ∈ R(r,n), jeweils mit Rang r, so dass

A = BC . Dann gilt A+ = Ct(BtACt)−1Bt

in Verallgemeinerung von (2.120) und (2.121). Es gilt nämlich

BtACt = (BtB)(CCt) ,

d. h. nach Bemerkungen 2.57, 3) oder Aufgabe 2.15 ein Produkt invertierbarer Matrizenund damit auch invertierbar. Somit wird die folgende Matrix als Pseudoinverse von Abehauptet:

F := Ct(CCt)−1(BtB)−1Bt ,

12 Thomas Nall Eden Greville ∗27. Dezember 1910 in New York †16. Februar 1998 in Charlottesville

Page 102: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

246 2 Matrizen und lineare Abbildungen

was durch Überprüfung von 1)–4) in Satz 2.80 verifiziert werden kann. �

2.4.3 Gauss-Verfahren und LR-Zerlegung I

Hier wollen wir noch einmal das Gauss-Verfahren betrachten, aber vorerst nur für denSpezialfall A ∈ R(n,n), A invertierbar, so dass die Lösung von Ax = b für jedes b ∈ Rn

eindeutig existiert. Das Gauss-Verfahren transformiert demnach A auf eine obere Drei-ecksmatrix R mit nichtverschwindenden Diagonalelementen. Zusätzlich soll (vorläufig)vorausgesetzt werden, dass das Gauss-Verfahren ohne Zeilenvertauschung durchgeführtwerden kann.

Zur „Bereinigung“ der ersten Spalte von A sind daher (wegen a1,1 � 0) n − 1 ele-mentare Zeilenumformungen vom Typ III nötig, die nach (2.75) als Multiplikationen mitElementarmatrizen ausgedrückt werden können. Ausmultiplizieren dieser Elementarma-trizen, d. h. sukzessives Anwenden der elementaren Zeilenumformungen, liefert als erstenZwischenschritt des Gauss-Verfahrens wie schon in (2.76) gesehen:(

A(2), b(2))

:= L(1)(A(1), b(1)

),

wobei (A(1), b(1)

):= (A, b) ,

L(1) := 1 − m(1) ⊗ e1

und

m(1) :=(0,

a2,1

a1,1, . . . ,

an,1

a1,1

)t

.

Die obige Voraussetzung bedeutet, dass a(2)2,2 � 0.

Der zweite Teilschritt zur Bereinigung der zweiten Spalte unter der Diagonale lässt sichdann ausdrücken durch (

A(3), b(3))

:= L(2)(A(2), b(2))

mit L(2) := 1 − m(2) ⊗ e2 ,

wobei m(2) :=

⎛⎜⎜⎜⎜⎜⎜⎝0, 0,a(2)

3,2

a(2)2,2

, · · · , a(2)n,2

a(2)2,2

⎞⎟⎟⎟⎟⎟⎟⎠t

,

denn

L(2)A(2)e1 = L(2)a11e1 = a11(1 − m(2)et2)e1 = a11e1 ,

Page 103: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 247

d. h. die erste Spalte von A(2) bleibt unverändert, für A(2) =(A(2), b(2)

)und für i = 1, 2

etiL

(2)A(2) = eti(1 − m(2)et

2)A(2) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝eti − et

i m(2)︸︷︷︸

=0

et2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ A(2) = eti A

(2) ,

d. h. die erste und zweite Zeile von A(2) bleibt unverändert.Weiter gilt:

eiL(2)A(2)e2 = 0 für i = 3, . . . , n ,

wie im nachfolgenden Beweis in (2.126) allgemein für k + 1 statt 2 gezeigt wird.Allgemein gilt:

Theorem 2.84: Gauss-Verfahren und Frobenius-Matrizen

Betrachte Ax = b mit invertierbarem A ∈ R(n,n). Ist der Gauss-Algorithmus oh-ne Zeilenvertauschung möglich, d. h. sind a(i)

i,i � 0 (definiert in (2.124)) für allei = 1, . . . , n − 1 (diagonale Pivotwahl), dann formt der Gauss-Algorithmus durchfolgende Schritte in ein äquivalentes Gleichungssystem mit oberer Dreiecksmatrixum:

A(1) :=(a(1)

i, j

):= A, b(1) := b .

Für i = 1, . . . , n − 1 :

m(i) :=

⎛⎜⎜⎜⎜⎜⎜⎝0, . . . , 0,a(i)

i+1,i

a(i)i,i

, . . . ,a(i)

n,i

a(i)i,i

⎞⎟⎟⎟⎟⎟⎟⎠t

,

L(i) := 1 − m(i) ⊗ ei , (2.123)(A(i+1), b(i+1)

):= L(i)

(A(i), b(i)

). (2.124)

Dabei heißt eine Matrix vom Typ L(i) bzw. L(i)−1, die nur in einer Spalte von derEinheitsmatrix abweicht, Frobenius-Matrix.

Beweis: Es genügt, durch Induktion über k für k ≥ 2 zu zeigen, dass die A(k) erfüllen:Die ersten k − 1 Zeilen und k − 2 Spalten von A(k) stimmen mit A(k−1) überein und

zusätzlich sind alle Einträge bis zur (k − 1)-ten Spalte unter dem Diagonalelement Null,d. h. insbesondere

etiA

(k)e j = 0 für 2 ≤ k ≤ n, 1 ≤ j < k, j < i ≤ n . (2.125)

Page 104: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

248 2 Matrizen und lineare Abbildungen

Für k = 2 ist (2.125) schon in (2.76) gezeigt. Es gelte (2.125) für k < n. Zu zeigen ist dann,dass (2.125) auch für k + 1 gilt. Seien i, j ∈ {1, . . . , n} mit 1 ≤ j < k + 1:

etiA

(k+1)e j = etiL

(k)A(k)e j = eti

(1 − m(k) ⊗ ek

)A(k)e j (2.126)

= etiA

(k)e j − eti m

(k)(etkA(k)e j) .

Da der letzte Faktor dann verschwindet, stimmen die ersten k − 1 Spalten von A(k+1) mitdenen von A(k) überein, insbesondere folgt et

iA(k+1)e j = 0 nach Induktionsannahme fürj < k, i > j. Für j = k, i > j ist

eitA(k+1)e j = ei

tA(k)ek − eitA(k)ek

ektA(k)ek

ektA(k)ek = 0

wegen

eit m(k) =

a(k)i,k

a(k)k,k

=ei

tA(k)ek

ektA(k)ek

.

Für die ersten k Zeilen von A(k+1) gilt

etiA

(k+1) = eti(1 − m(k)et

k)A(k) = etiA

(k) , da eti m

(k) = 0 für i = 1, . . . , k . �

Die folgende Routine realisiert die Gauss-Elimination, wobei das Eingabeargument Aeine quadratische Matrix mit den oben angenommenen Eigenschaften und das Ausgabear-gument L bzw. R eine untere bzw. obere Dreiecksmatrix ist. Hierbei werden die Multiplika-toren, d. h. die Einträge von m(i) auf den jeweils frei werdenden Plätzen von A in der i-tenSpalte ab Zeile i + 1 abgespeichert und als normierte untere Dreiecksmatrix ausgegeben.

Algorithmus 1 (Gauss-Elimination ohne Pivotisierung13)

function [L, R] = gausszerlegung(A)

n = length(A);for k = 1 : n - 1d = 1/A(k, k);for i = k + 1 : nA(i, k) = A(i, k)*d;for j = k + 1 : nA(i, j) = A(i, j) - A(i, k)*A(k, j);

endend

endL = eye(n) + tril(A, -1); % nach 2.129R = triu(A);

end

13 Algorithmen werden in einem an MATLAB-orientierten Pseudocode angegeben.

Page 105: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 249

Das obige Vorgehen erfordert 13 (n3 − n)+ 1

2 (n2 − n) Multiplikationen bzw. Divisionen (beii. Allg. n2 Einträgen in A). Der eigentliche Grund für die Speicherung der Multiplikatorenergibt sich im Folgenden:

Ist das Eliminationsverfahren von Gauss durchführbar, dann ist

R := A(n) = L(n−1)L(n−2) · · · L(1)A

eine obere Dreiecksmatrix, also A = LR mit

L := L(1)−1L(2)−1 · · · L(n−1)−1

.

Wegen Bemerkungen 2.50, 2) ist L eine untere Dreiecksmatrix, der Gauss-Algorithmusrealisiert folglich eine sogenannte Dreiecks- oder LR-Zerlegung von A (in der englischenLiteratur LU-decomposition genannt, von Lower und Upper).

Es zeigt sich, dass wir die Matrix L schon explizit mitberechnet (und gespeichert) ha-ben. Dazu zeigen wir:

Lemma 2.85

Sei x ∈ Rn mit xi = 0; dann ist

(1 − x ⊗ ei)−1 = 1 + x ⊗ ei ,

insbesondere also:

L(i)−1=

(1 − m(i) ⊗ ei

)−1= 1 + m(i) ⊗ ei .

Beweis: (1 + xei

t) (1 − xei

t)= 1 + xei

t − xeit − x

(ei

t x)︸︷︷︸

=0

eit = 1 .

Bemerkung 2.86 Die Inverse von 1 + x ⊗ ei lässt sich auch angeben für xi � −1:Sei xi := 1 + xi � 0, dann:

Page 106: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

250 2 Matrizen und lineare Abbildungen

(1 + x ⊗ ei)−1 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 −x1/xi

. . ....

1 −xi−1/xi

1/xi

−xi+1/xi 1...

. . .

−xn/xi 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

. (2.127)

Es ist unter Beachtung von (2.74)

(1 + x ⊗ ei) = (1 + x ⊗ ei) diag(1, . . . , 1, xi, 1 . . . , 1) ,

wobei xi an der i-ten Position steht, x := 1xi

(x1, . . . , xi−1, 0, xi+1, . . . , xn)t und damit

(1 + x ⊗ ei)−1 = diag(1, . . . , 1,1xi

, 1, . . . , 1) · (1 + x ⊗ ei)−1

= diag(1, . . . , 1,1xi

, 1, . . . , 1)(1 − x ⊗ ei)

nach Lemma 2.85. Mit (2.74) ergibt sich die Behauptung.

�Eine normierte untere Dreiecksmatrix ist als das Produkt aus den mit ihren Spalten gebil-deten Frobenius-Matrizen darstellbar:

Satz 2.87: Untere Dreiecksmatrix und Frobenius-Matrizen

Seien x( j) ∈ Rn, j = 1, . . . , m ≤ n−1, mit x( j)i = 0 für alle i = 1, . . . , j gegeben. Dann

gilt für

L :=(1 − x(m) ⊗ em

) (1 − x(m−1) ⊗ em−1

)· · ·

(1 − x(1) ⊗ e1

):

L−1 = (1 + x(1) ⊗ e1)(1 + x(2) ⊗ e2) . . . (1 + x(m) ⊗ em)

= 1 +

m∑j=1

x( j) ⊗ e j . (2.128)

Beweis: Die erste Identität folgt sofort aus Lemma 2.85. Die zweite folgt durch vollstän-dige Induktion über m:m = 1 ist klar.m→ m + 1 :

Page 107: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 251

m+1∏i=1

(1 + x(i) ⊗ ei) =

⎛⎜⎜⎜⎜⎜⎝1 + m∑i=1

x(i)eit

⎞⎟⎟⎟⎟⎟⎠ (1 + x(m+1)em+1

t)

= 1 +

m+1∑i=1

x(i)eit +

m∑i=1

x(i)(ei

t x(m+1))︸������︷︷������︸

=0

em+1t . �

Bemerkung 2.88 Offenbar darf in der Summendarstellung (2.128) beliebig umgeordnetwerden. Dies ist aber für die Produktdarstellung von L−1 in Satz 2.87 nicht der Fall. DieIdentität gilt nur bei der angegebenen Reihenfolge der Faktoren, eine andere Reihenfolgeergibt im Allgemeinen eine andere normierte untere Dreiecksmatrix. Insbesondere gilti. Allg. nicht

L = 1 −m∑

j=1

x( j) ⊗ e j . �

Aus (2.128) folgt:

Hauptsatz 2.89: Gauss liefert LR-Zerlegung (ohne Zeilenvertauschung)

Der Gauss-Algorithmus ohne Zeilenvertauschung liefert, wenn durchführbar, eineLR-Zerlegung von A,

A = LR ,

mit der oberen Dreiecksmatrix R = A(n) und der normierten unteren Dreiecksmatrix

L = 1 +

n−1∑i=1

m(i) ⊗ ei . (2.129)

Die Einträge von L unter der Diagonalen sind also spaltenweise gerade die Multipli-katoren, die in Algorithmus 1 an genau den richtigen Plätzen gespeichert wurden.

Auf die Transformation von b kann verzichtet werden, da sich

x = A−1b aus A = LR durch Auflösung der beiden gestaffelten Gleichungssysteme

Ly = b, Rx = y (2.130)

durch eine Vorwärts- und eine Rückwärtssubstitution

mit O(n2) Operationen berechnen lässt.

Page 108: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

252 2 Matrizen und lineare Abbildungen

Lemma 2.90: Eindeutigkeit LR-Zerlegung

Die LR-Zerlegung einer invertierbaren Matrix A ∈ R(n,n) mit normiertem L ist ein-deutig.

Beweis: Sei L1R1 = L2R2, wobei Li normierte untere Dreiecksmatrizen bzw. Ri obereDreiecksmatrizen seien. Dann ist

L−12 L1 = R2R−1

1 .

Die linke Seite ist untere normierte Dreiecksmatrix nach Bemerkungen 2.50, 2). Die rechteSeite ist obere Dreiecksmatrix nach Bemerkungen 2.50, 2), somit:

L−12 L1 = 1 = R2R−1

1 . �

Sei nun allgemeiner A ∈ R(m,n), aber das Gauss-Verfahren sei weiter ohne Zeilenvertau-schung durchführbar. Dann lassen sich die obigen Überlegungen mit folgenden Modifika-tionen übertragen: Es ergibt sich eine obere Dreiecksmatrix R ∈ R(m,n), L(i) und damit Lgehört zu R(m,m), und es sind gerade die Spalten unter der Diagonalen mit Multiplikatoren� 0 besetzt, wo die in A(i) zu bereinigende Spalte nicht schon von vornherein nur Nullenunter dem Diagonalelement besitzt, demnach

L =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1∗ 1

∗ 0. . .

...... ∗ . . .

......

.... . .

∗ 0 ∗ 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

���

���

Multiplikatoren

– Dabei setzt „. . .“ den Diagonaleintrag gleichartig fort, „∗“ deutet i. Allg. von Null

verschiedene Einträge an. –

In der Notation von Abschnitt 1.1 sind folglich die Spalten j(1) < j(2) < . . . < j(r) mitMultiplikatoren unter der Diagonalen besetzt, ansonsten stehen dort Nullen. Die Matrix Rhat die Zeilenstufenform (1.12).

*Bemerkung 2.91 Es ist auch möglich im Sinn des Gauss-Jordan-Verfahrens wei-ter fortzufahren und die Spalten von R, die Pivotelemente enthalten, d. h. die Spaltenj(1) < j(2) < . . . < j(r) so zu transformieren, dass oberhalb des Diagonalelements nurNullen stehen. Da die zugehörigen Elementarmatrizen Frobenius-Matrizen mit Einträ-gen oberhalb der Diagonalen sind, ist deren Komposition eine normierte obere Dreiecks-

Page 109: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.4 Lösbare und nichtlösbare lineare Gleichungssysteme 253

matrix und damit auch deren Inverse. Die Normierung der Pivoteinträge auf 1 entsprichtder Anwendung einer Diagonalmatrix von links. Es ergibt sich infolgedessen eine Zerle-gung der Form

A = LRDR (2.131)

mit normierten unteren bzw. oberen Dreiecksmatrizen L und R, Diagonalmatrix D und derreduzierten Zeilenstufenform R. Dies wird in allgemeiner Form in Abschnitt 2.5.2 wiederaufgegriffen. �Einige Spezialfälle sind also:m < n, Rang A = m :

L =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1

∗ . . .

.... . .

. . .

∗ · · · ∗ 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠, R =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

# ∗ · · · · · · · · · · · · ∗0

. . ....

.... . .

. . . ∗ ...

0 · · · 0 # ∗ · · · ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

m > n, Rang A = n :

L =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1. . .

∗ . . .

... ∗ . . .

...... ∗ . . .

∗ ∗ ∗ 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠, R =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

# ∗ · · · ∗0

. . .. . .

......

. . .. . . ∗

.... . . #

... 0

0 · · · · · · 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

n Multiplikatorenspalten

– Dabei ist „#“ ein immer von Null verschiedener Eintrag. –

Die untere Dreiecksmatrix L ist also immer invertierbar, die ganze Frage der Lösbarkeitund Dimension des Lösungsraums „steckt“ in der Zeilenstufenform R:

Page 110: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

254 2 Matrizen und lineare Abbildungen

Wird das LGS Ax = b betrachtet, so ist wegen

LRx = b⇔ Ly = b und Rx = y

das Gauss-Verfahren zur Bestimmung des Lösungsraums äquivalent zu:

1) Löse (durch Vorwärtssubstitution)

Ly = b .

2) a) Prüfe Rx = y auf Lösbarkeit:(⇔ y′′ = 0 für y =

(y′

y′′

)und y′ ∈ Rr, y′′ ∈ Rm−r

),

wobei r := Rang(A) die Stufenzahl bei R ist.b) Bei Lösbarkeit bestimme den affinen Raum der Lösungen durch Rück-

wärtssubstitution aus

Rx = y

mit den Parametern x j, j ∈ {1, . . . , n}\{ j(1), . . . , j(r)} .

Eine Implementierung der Vorwärtssubstitution und Rückwärtssubstitution zur Lösung ei-nes LGS Ax = b, A = LR findet man in Algorithmus 3. Dort ist aufgrund des bishervorliegenden Falls P gleich der Einheitsmatrix zu setzen.

Obwohl mit der (reduzierten) Zeilenstufenform alle Information über den Lösungsraumvorliegt, ist sie doch nicht geeignet, eine einfache Darstellung der Pseudoinversen zu lie-fern. Zwar lässt sich R+ leicht angeben (siehe Abschnitt 2.5.2), doch wegen der fehlendenGültigkeit von (AB)+ = B+A+, können keine weiteren Schlüsse aus A = LR bzw (2.131)gezogen werden.

Anders würde sich wegen (2.122) die Situation darstellen, wenn die Transformationenorthogonal wären.

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• Ausgleichsrechnung, Normalgleichung• Pseudoinverse• Gauss-Verfahren mit Speicherung der Multiplikatoren• Frobenius-Matrizen

Page 111: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

Aufgaben 255

Zusammenhänge

• Orthogonalität von Kern At und Bild A (Hauptsatz 2.69)• Charakterisierung der Lösbarkeit eines LGS (Theorem 2.70)• Ausgleichsproblem lösbar, Normalgleichung (Hauptsatz 2.73)• Erster Isomorphiesatz (Theorem 2.77)• Charakterisierung Pseudoinverse (Hauptsatz 2.79, Satz 2.80)• Gauss durch Frobenius-Matrizen beschreibbar (Theorem 2.84)• Gauss liefert LR-Zerlegung (ohne Zeilenvertauschung) (Hauptsatz 2.89)

Beispiele

• Lineare Regression• Pseudoinverse und orthogonale Matrix• Pseudoinverse einer Diagonalmatrix

Aufgaben

Aufgabe 2.19 (K) Bestimmen Sie die Normalgleichungen für quadratische Regression.

Aufgabe 2.20 (K) Verifizieren Sie die Angaben von Bemerkungen 2.82, 4).

Aufgabe 2.21 (T) Zeigen Sie, dass eine LDR-Zerlegung, d. h. eine Darstellung von A ∈R(n,n) als

A = LDR ,

wobei L und R normierte untere bzw. obere Dreiecksmatrizen sind und D eine Diagonal-matrix ist, eindeutig ist, falls A nichtsingulär ist.

Aufgabe 2.22 (T) Arbeiten Sie die Gültigkeit von (2.131) aus.

Aufgabe 2.23 (K) Gegeben sei die Matrix

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 0 0 01 1 0 01 1 1 01 1 1 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .a) Stellen Sie die Matrix A als Produkt von Frobenius-Matrizen dar.b) Invertieren Sie die Matrix A.

Aufgabe 2.24 (K) Gegeben seien eine Matrix A = (a(1), a(2), a(3), a(4)) ∈ R(3,4) und einVektor u ∈ R3 gemäß

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝1 2 1 20 1 −1 21 −2 5 −6

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ , u =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝−141

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Page 112: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

256 2 Matrizen und lineare Abbildungen

a) Berechnen Sie den Kern von At.b) Bestimmen Sie dim Kern A. Welcher Zusammenhang muss zwischen den Kompo-

nenten des Vektors b = (b1, b2, b3)t ∈ R3 bestehen, damit das lineare Gleichungs-system Ax = b lösbar ist? Ist die Lösung im Existenzfall eindeutig?

c) Berechnen Sie den Rang von A unter Beachtung von a(1) ⊥ a(2) und bestimmenSie eine ONB von Bild A.

d) Bestimmen Sie alle x ∈ R4 mit

‖Ax − u‖ = min{‖Ay − u‖ : y ∈ R4}und geben Sie A+u an.

Aufgabe 2.25 (K) Zu den Messwerten

ti −1 0 1 2yi 2 1 2 3

sollen Polynome pn(t) =∑n

k=0 aktk, n = 1, 2, 3, so bestimmt werden, dass der mittlerequadratische Fehler

F(pn) :=14

4∑i=1

(pn(ti) − yi)2

minimal wird. Berechnen Sie jeweils F(pn) und skizzieren Sie die Funktionen pn.

Page 113: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix 257

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix

2.5.1 Permutationen und Permutationsmatrizen

Definition 2.92

Eine Permutation von n Elementen, z. B. der Zahlen 1, 2, . . . , n, ist eine bijektiveAbbildung

σ : {1, . . . , n} → {1, . . . , n}.Eine solche Permutation schreiben wir auch

σ =

(1 . . . n

σ(1) . . . σ(n)

).

Die Menge aller Permutationen von n Elementen bezeichnen wir mit Σn. Jedes σ ∈Σn besitzt eine Umkehrabbildung σ−1 ∈ Σn.

Beispiele 2.93

n = 1 : Σ1 = {id} ,

n = 2 : Σ2 =

{id, σ1,2 =

(1 22 1

) },

n = 3 : Σ3 =

⎧⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎩id, σ1,2 =

(1 2 32 1 3

), σ1,3 =

(1 2 33 2 1

), σ2,3 =

(1 2 31 3 2

),(

1 2 32 3 1

),

(1 2 33 1 2

)⎫⎪⎪⎪⎪⎪⎪⎬⎪⎪⎪⎪⎪⎪⎭ .

◦Hier haben wir die Bezeichnung σk,l für die Vertauschung (Transposition)(

1 . . . k . . . l . . . n1 . . . l . . . k . . . n

)verwendet. Mit je zwei Permutationen σ, τ ∈ Σn gehört auch die Hintereinanderausführung(oder das Produkt)

σ ◦ τ : ν �→ σ(τ(ν))

wieder zu Σn. Es ist zu beachten, dass (wie immer)

(σ ◦ τ)−1 = τ−1 ◦ σ−1.

Page 114: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

258 2 Matrizen und lineare Abbildungen

Die Menge Σn ist daher bezüglich ◦ abgeschlossen und die Verknüpfung ◦ ist assoziativ,hat ein neutrales Element (= id) und es gibt jeweils inverse Elemente, also ist (

∑n, ◦) eine

(nichtabelsche) Gruppe, die symmetrische Gruppe .

Satz 2.94: Symmetrische Gruppe

Die symmetrische Gruppe Σn der Permutationen von n Zahlen enthält

n! := 1 · 2 · 3 · . . . · nElemente. Für fest gewähltes σ ∈ Σn ist die Abbildung

Σn ! τ �→ τ ◦ σ ∈ Σn

bijektiv.

Beweis: Die Anzahlformel wird durch vollständige Induktion gezeigt: Die Anzahl derElemente in Σ1 ist 1 = 1! (Induktionsanfang). Nehmen wir nun n ≥ 2 an und dass Σn−1aus (n − 1)! Elementen bestünde. Daraus schließen wir die Behauptung für Σn: Jede Per-mutation σ ∈ Σn ist bestimmt durch ihren Wert s := σ(n) (dafür gibt es n Möglichkeiten)und eine bijektive Abbildung {1, . . . , n − 1} → {1, . . . , n} \ {s}. Solche Abbildungen gibtes genauso viele, wie Σn−1 Elemente enthält, nach Induktionsannahme folglich (n − 1)!.Deswegen enthält die Menge Σn insgesamt

n · (n − 1)! = n!

Elemente.Die angegebene Abbildung τ �→ τ ◦ σ ist bijektiv, weil τ �→ τ ◦ σ−1 deren Umkehrab-

bildung ist. �

Jede Permutation σ ∈ Σn bestimmt eine Permutationsmatrix

Eσ =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝eσ−1(1)

t

eσ−1(2)t

...eσ−1(n)

t

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Diese Matrix ist aus der Einheitsmatrix durch Vertauschen von Zeilen entstanden, deswe-gen steht in jeder Zeile und in jeder Spalte dieser Matrix genau eine Eins. Zum Beispielhaben wir

Page 115: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix 259

σ = σ1,2, Eσ =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 1 0 · · · 01 0 0 · · · 00 0 1 · · · 0...

....... . .

...0 0 0 · · · 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠,

σ =

(1 2 3 · · · nn 1 2 · · · n − 1

), Eσ =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 1 0 · · · 00 0 1 · · · 0...

....... . . 0

0 0 0 · · · 11 0 0 · · · 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

Wie auch an diesen Beispielen ersichtlich, ist damit Eσ die Matrix, die durch Positionie-rung von et

i in der Zeile σ(i) entsteht. Die lineare Abbildung, die durch die Permutations-matrix Eσ beschrieben wird, erfüllt

ek �→ Eσek =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝(eσ−1(1) . ek

)...(

eσ−1(n) . ek

)⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ = el mit σ−1(l) = k bzw. l = σ(k) .

In Spaltendarstellung gilt somit

Eσ = (eσ(1), . . . , eσ(n)) .

Zur Permutationsmatrix Eτ◦σ gehört deswegen die lineare Abbildung

ek �→ e(τ◦σ)(k) = eτ(σ(k)) = Eτ(Eσ(ek)) ,

d. h.

Eτ◦σ = EτEσ .

Damit ist die Zuordnung σ �→ Eσ von Σn nach GL(n,R) also verträglich mit der jeweiligenGruppenstruktur durch ◦ bzw. · . Insbesondere ist die Matrix Eσk,l Eσ, die aus Eσ durchVertauschen der k-ten mit der l-ten Zeile hervorgeht, gerade Eσk,l◦σ und:

Eid = 1 bzw. Eσ−1 = (Eσ)−1 .

Darüber hinaus ist Eσ auch orthogonal, da

eitEσ

tEσe j = (Eσei)tEσe j =(eσ(i) . eσ( j)

)= δσ(i),σ( j) = δi, j für i, j = 1, . . . , n, also

Eσ−1 = (Eσ)−1 = Eσt ,

Page 116: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

260 2 Matrizen und lineare Abbildungen

d. h. σ �→ Eσ bildet verträglich von Σn nach O(n,R) ab.Transponieren (vertauschen von Zeilen und Spalten) bedeutet mithin für eine Permuta-

tionsmatrix den Übergang zur inversen Permutation.Für Transpositionen σ = σk,l gilt daher (beachte σk,l = σ−1

k,l )

Eσ = Eσt = Eσ−1 . (2.132)

Permutationen lassen sich leichter erfassen mit dem folgenden Begriff:

Definition 2.95

Unter der zyklischen Permutation (i1, i2, . . . , ik), bzw. unter dem Zyklus der Länge k(i1, i2, . . . , ik), versteht man diejenige Permutation, welche

i1 �→ i2 �→ . . . �→ ik−1 �→ ik �→ i1

abbildet und alle anderen i � i1, . . . , ik fest lässt. Hierbei müssen die k Zahleni1, . . . , ik alle voneinander verschieden sein.Zwei Zyklen

σ = (i1, i2, . . . , ik) und τ = ( j1, j2, . . . , jl)

heißen elementfremd, wenn kein iκ mit einem jλ übereinstimmt.

Dieser Begriff des Zyklus für Permutationen ist viel eleganter als unsere bisherige Schreib-weise. Hierzu Beispiele:

Zyklus bisherige Schreibweise(k, l) σk,l

(1, 2, 3)(

1 2 32 3 1

)(1, 3, 2)

(1 2 33 1 2

)(1, 2, 3, . . . , n)

(1 2 3 . . . n2 3 4 . . . 1

)Ein Zyklus σ′ von σ ist also durch ein Element a daraus und seine Länge k gegeben,da σ′ = (a, σ(a), . . . , σk−1(a)). Das Rechnen mit Permutationen in Zyklenschreibweiseist auch deswegen vorteilhaft, weil Zyklen sehr einfach zu multiplizieren sind. Statt derallgemeinen Aussage hierzu ein Beispiel: Wir berechnen das Produkt σ := σ1 ◦σ2, wobei

σ1 = (1, 2, 3) und σ2 = (2, 3, 4)

ist. Wir berechnen das Bild von 1: Wegen σ2(1) = 1 ist

σ(1) = σ1(1) = 2.

Page 117: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix 261

Wir berechnen das Bild von 2:

σ(2) = σ1(σ2(2)) = σ1(3) = 1,

deswegen enthält σ den Zyklus (1, 2). Wir berechnen das Bild von 3:

σ(3) = σ1(σ2(3)) = σ1(4) = 4,

und das Bild von 4:

σ(4) = σ1(σ2(4)) = σ1(2) = 3.

Das Ergebnis ist:

(1, 2, 3) ◦ (2, 3, 4) = (1, 2) ◦ (3, 4).

Allerdings ist die Schreibweise einer Permutation als Zyklus nicht eindeutig: Es ist ja zumBeispiel

(i1, i2, i3, . . . , ik) = (i2, i3, . . . , ik, i1).

Jede Permutationsmatrix kann durch elementare Zeilenumformungen vom Typ I (Zeilen-vertauschungen) in Zeilenstufenform gebracht werden. Dabei ändert sich die Zahl n derMatrixeinträge gleich 1 nicht. Die Zeilenstufenform von E ist deswegen die Einheitsma-trix 1. Zeilenvertauschungen entsprechen der Anwendung von Permutationsmatrizen zuTranspositionen. Damit lässt sich also jede Permutationsmatrix als Produkt von Elementar-matrizen zu Transpositionen schreiben (siehe auch Hauptsatz 1.85III, (viii)). Daraus folgt:

Satz 2.96: Permutation aus Vertauschungen oder Zyklen aufgebaut

1) Jede Permutationsmatrix Eσ ist ein Produkt Ekm,lm . . . Ek1,l1 von Elementarmatri-zen Ek,l = Eσk,l , die zu Vertauschungen gehören.

2) Jede Permutation σ ist ein Produkt σkm,lm ◦ . . . ◦ σk1,l1 von Vertauschungen.

3) Jede Permutation σ ist ein Zyklus oder ein Produkt von paarweise elementfrem-den Zyklen:

σ =(a1, σ(a1), . . . , σz1−1(a1)

). . . . . .

(ar, σ(ar), . . . , σzr−1(ar)

)mit n =

r∑j=1

z j und {1, . . . , n} ist die disjunkte Vereinigung der {a j, . . . , σz j−1(a j)}.

Beweis: 1) und damit 2) sind klar.3): Sind σ = σl.k und τ = τm,p zwei elementfremde Vertauschungen, d. h.

Page 118: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

262 2 Matrizen und lineare Abbildungen

{l, k} ∩ {m, p} = ∅ ,

dann gilt

σ ◦ τ = τ ◦ σ .

In der durch 1) gegebenen Darstellung eines allgemeinen σ ∈ Σn

σ = σkm,lm ◦ . . . σk1,l1

kann daher zuerst wegen (2.132) ki < li für i = 1, . . . , m gewählt werden und dann in derKomposition so umgeordnet werden, dass am Ende ein Term der Art

(ar, σ(ar), . . . , σzr−1(ar))

entsteht (mit ar = km).Ist nämlich die Transposition σkm−1 ,lm−1 elementfremd mit σkm ,lm , dann kann σkm−1,lm−1 mit

σkm,lm getauscht werden und so weiter, bis entweder eine dazu nicht elementfremde Trans-position σki ,li gefunden wird oder alle als elementfremd ihren Platz mit σkm,lm tauschenund diese zum ersten Zyklus (der Länge 2) wird. Im anderen Fall bilden σkm ,lm ◦σki ,li einenZyklus der Länge 3, σkm ,lm ◦ σki,li = ( j1, j2, j3) und auch damit sind die elementfremdenTranspositionen vertauschbar, da sie mit den einzelnen Transpositionen vertauschbar sind.Für eine nicht elementfremde Transposition (i1, i2) ist notwendig {i1, i2} ∩ { j1, j3} � ∅, sodass sie den Zyklus der Länge 3 zu einem der Länge 4 ergänzt.

In beiden Fällen ergibt sich also schließlich

σ = σ′ ◦ (ar, σ(ar), . . . , σzr−1(ar)

)und σ′ besteht aus zum Zyklus elementfremden Transpositionen. Fortsetzen des Prozessesmit σ′ liefert die Behauptung. �

Insbesondere ist auch die Reihenfolge der elementfremden Zyklen beliebig:

Satz 2.97: elementfremd = vertauschbar

Es seien σ, τ zwei elementfremde Zyklen. Dann ist

σ ◦ τ = τ ◦ σ .

Beweis: Weil die Zyklen elementfremd sind, lässt σ alle jλ fest und τ alle iκ in der Nota-tion von Definition 2.95. Ob wir nun zuerst die iκ zyklisch vertauschen, und danach die jλoder umgekehrt, ergibt jeweils die gleiche Permutation.Oder: σ und τ lässt sich als Komposition von Transpositionen σi bzw. τ j schreiben, wobeidie σi und τ j jeweils elementfremd, also vertauschbar, sind. �

Unser nächstes Ziel ist die Konstruktion der sogenannten Signum-Funktion.

Page 119: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix 263

Satz 2.98: Existenz des Signums

Es gibt eine Abbildung sign : Σn → {±1} mit den Eigenschaften

1) sign(σk,l) = −1 für jede Vertauschung σk,l.

2) sign(σ ◦ τ) = sign(σ) · sign(τ) für alle σ, τ ∈ Σn.

Beweis: Nur für diesen Beweis führen wir folgende Bezeichnung ein: Ein Fehlstand in derPermutation σ ∈ Σn ist ein Paar (i, j), 1 ≤ i < j ≤ n, mitσ(i) > σ( j). Eine Vertauschungσk,l zum Beispiel hat die Bilder

(σ(1), . . . , σ(n)) = (1, . . . , k − 1, l, k + 1, . . . , l − 1︸������������︷︷������������︸l−k−1

, k, l + 1, . . . , n).

Sie hat damit 2(l − k − 1) + 1 = 2(l − k) − 1 Fehlstände, da (k, l) einen Fehlstand darstelltund weitere durch l bzw. k mit jedem j ∈ {k + 1, . . . , l − 1} entstehen. Wir definieren dieSignum-Funktion durch

sign(σ) := (−1) f , f = Anzahl der Fehlstände in σ .

Beweis von 1): Die Anzahl der Fehlstände in σk,l ist, wie soeben bemerkt, ungerade.Beweis von 2): Wir wissen, dass jede Permutation σ ein Produkt von Vertauschungen∏σkμ,lμ ist. Wenn wir 2) für den Fall beweisen können, dass σ = σk,l eine Vertauschung

ist, folgt deshalb

sign(σ ◦ τ) = sign(σkm,lm ◦ . . . ◦ σk1,l1 ◦ τ) = sign(σkm,lm ) · . . . · sign(σk1,l1 ) · sign(τ)= sign(σ) · sign(τ) ,

d. h. der allgemeine Fall. Somit genügt es, die Behauptung nur für σ = σk,l zu beweisen.Wenn l > k + 1, dann ist

σk,l = σk,k+1σk+1,k+2 . . . σl−2,l−1σl−1,lσl−1,l−2 . . . σk+2,k+1σk+1,k

demnach das Produkt von einer ungeraden Anzahl von (2(l−k)−1) „benachbarten“ Trans-positionen σk,k+1. Deswegen genügt es, die Behauptung für Vertauschungen der Art σk,k+1

zu beweisen. Wir zählen die Fehlstände von σk,k+1 ◦ τ :

• Wenn τ−1(k) < τ−1(k + 1), dann ist (τ−1(k), τ−1(k + 1)) kein Fehlstand von τ, wohlaber von σk,k+1 ◦ τ.

• Wenn τ−1(k) > τ−1(k + 1), dann ist (τ−1(k), τ−1(k + 1)) ein Fehlstand von τ, abernicht von σk,k+1 ◦ τ.

Alle anderen Fehlstände von τ und σk,k+1 ◦ τ stimmen überein. Ist daher f die Anzahl derFehlstände von τ, dann ist f ± 1 die Anzahl der Fehlstände von σk,k+1 ◦ τ. Es folgt mit derDefinition der Signum-Funktion

Page 120: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

264 2 Matrizen und lineare Abbildungen

sign(σk,k+1 ◦ τ) = − sign(τ) = sign(σk,k+1) sign(τ),

und damit ist die Behauptung bewiesen. �

In Σ3 beispielsweise gibt es die drei Vertauschungen σ1,2, σ1,3 und σ2,3 mit sign = −1und die drei Permutationen

σ Anzahl der Vertauschungen signid 0 +1(

1 2 32 3 1

)= σ1,3 ◦ σ1,2 2 +1(

1 2 33 1 2

)= σ1,2 ◦ σ1,3 2 +1

mit sign = +1.

Bemerkung 2.99 Sei σ ∈ Σn.

sign(σ−1

)= 1/ sign(σ) = sign(σ) .

Dabei folgt die erste Gleichheit allgemein aus Satz 2.98, 2): sign(σ−1

)sign(σ) = sign(id) = 1 und die

zweite Gleichung, da sign(σ) ∈ {−1, 1}.

2.5.2 Gauss-Verfahren und LR-Zerlegung II

Wir kehren noch einmal zum Gauss-Verfahren zurück mit dem Ziel der Interpretationals eine Matrixzerlegung, aber ohne wie in Abschnitt 2.4.3 die Zeilenvertauschung auszu-schließen. Wir beginnen mit einem invertierbaren A ∈ R(n,n), b ∈ Rn. Setzen wir wie inTheorem 2.84 (

A(1), b(1))

:= (A, b) ,

dann lässt sich analog zu (2.124) der i-te Teilschritt, i = 1, . . . , n − 1, beschreiben als(A(i+1), b(i+1)

):= L(i)Pτi

(A(i), b(i)

).

Dabei ist L(i) wie in (2.124) definiert und Pτi die Permutationsmatrix zur Transposition τi,die der Zeilenvertauschung entspricht (bzw. zur Identität, falls keine Zeilenvertauschungstattfindet.) Es gilt nämlich:

Eine Zeilenpermutation, bei der die k-te Zeile auf die Position π−1(k) kommt für einπ ∈ Σn, lässt sich schreiben als

Pπ−1 A(= PtπA) , (2.133)

Page 121: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix 265

denn die Zeilen von Pπ−1 A sind die Spalten von

(Pπ−1 A)t = At (Pπ−1 )t = AtPπ

und AtPπ hat die Spalten

AtPπei = Ateπ(i) = a(π(i)) ,

wenn a(1), . . . , a(n) die Zeilen von A sind.

Analog wird eine Spaltenpermutation, bei der die k-te Spalte auf die Position π−1(k)kommt für ein π ∈ Σn, beschrieben durch

A Pπ . (2.134)

Man kann die Zeilenvertauschung durch reales Umspeichern vornehmen (direkte Pivo-tisierung) oder nur die Vertauschungen der Zeilen in einem Vektor (p1, . . . , pn), pi ∈{1, . . . , n} notieren, der die realen Zeilenindizes enthält (indirekte Pivotisierung). Das er-spart das Umspeichern, führt aber zu nichtsequentiellen Speicherzugriffen. Bei exaktemRechnen in R kann jedes von Null verschiedene Spaltenelement als Pivotelement genom-men werden. Beim numerischen Rechnen empfiehlt es sich ein betragsmäßig größtes Ele-ment zu wählen. Diese Strategie wird Spaltenpivotsuche genannt und wird von folgenderRoutine realisiert, die indirekte Pivotisierung verwendet und als Eingabeargument eineinvertierbare quadratische Matrix A erwartet.

Algorithmus 2 (Gauss-Elimination mit Spaltenpivotsuche)

function [L, R, P] = gausszerlegungpivot(A)

n = length(A);p = 1 : n; % Initialisierung von p = (1,...,n) als Identitaetfor k = 1 : n - 1m = k;for i = k + 1 : nif abs(A(p(i), k)) > abs(A(p(m), k))m = i;

endendh = p(m); p(m) = p(k); p(k) = h;d = 1/A(p(k), k);for i = k + 1 : nA(p(i), k) = A(p(i), k)*d;for j = k + 1 : nA(p(i), j) = A(p(i), j) - A(p(i), k)*A(p(k), j);

endend

endL = eye(n) + tril(A(p, :), -1); % vgl. Algorithmus 1,R = triu(A(p, :)); % Zugriff auf Zeilenindex via pP = zeros(n); for k = 1 : n, P(k, p(k)) = 1; endend

Page 122: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

266 2 Matrizen und lineare Abbildungen

Zu logischem Zeilenindex i ist p(i) der physikalische Zeilenindex. Also: i ist der permu-tierte Zeilenindex zum Ausgangszeilenindex p(i) und damit

p(i) = π−1(i) ,

wenn π die insgesamt durchzuführende Permutation beschreibt.Die Folgen der Spaltenpivotsuche (und der kompakten Speicherung) für die LR-

Zerlegung lassen sich mit Permutationsmatrizen beschreiben.

Theorem 2.100: LR-Zerlegung durch Gauss von PA

Sei A ∈ R(n,n) nichtsingulär. Dann existiert eine Permutationsmatrix P, so dass eineDreieckszerlegung von PA, d. h.

PA = LR ,

möglich ist. P, L, R sind durch Algorithmus 2 bestimmbar.Dabei ist P = Pπ mit π = τn−1 ◦ . . . ◦ τ1, wobei τk die Transposition ist, die dieZeilenvertauschung in A(k) beschreibt, d. h. mit dem Vektor p aus Algorithmus 2gilt (P)i, j = δp(i), j und nach Durchführung von Algorithmus 2 gilt:

L = (li, j) mit l j, j = 1, li, j = ap(i), j für j = 1, . . . , n , i = j + 1, . . . , n,

R = (ri, j) mit ri, j = ap(i), j für i = 1, . . . , n , j = i, . . . , n .

Wird das Pivotelement als betragsmäßiges Spaltenmaximum bestimmt, dann gilt:|li, j| ≤ 1 für alle i, j.Dabei sind die ai, j die Einträge von A(n), d. h. des Speicherfeldes A nach Durchfüh-rung von Algorithmus 2.

Beweis: Analog zu (2.124) schreiben wir

A(k+1) = L(k)Pτk A(k) für k = 1, . . . , n − 1 (2.135)

mit

L(k) = 1 − m(k) ⊗ ek, m(k) = (0, . . . , 0, lk+1,k, . . . , ln,k)t .

Wiederholte Anwendung von (2.135) liefert schließlich

R = A(n) = L(n−1)Pτn−1 L(n−2)Pτn−2 . . . L(1)Pτ1 A . (2.136)

Aus (2.136) wird durch Einschieben von P−1σk

Pσk mit geeigneten σk:

Page 123: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix 267

R = L(n−1) Pτn−1 L(n−2)P−1τn−1︸������������︷︷������������︸

L(n−2)

Pτn−1 Pτn−2 L(n−3)(Pτn−1◦τn−2 )−1︸������������������������������︷︷������������������������������︸L(n−3)

Pτn−1◦τn−2 Pτn−3 . . . A

= L(n−1) L(n−2) . . . L(1)Pπ0 A ,

wobei

L(k) := Pπk L(k)P−1πk

,

und πk für k = 0, . . . , n − 1 durch

πn−1 := id, πk := τn−1 ◦ . . . ◦ τk+1 für k = 0, . . . , n − 2

definiert ist, somit insbesondere π0 = π nach obiger Definition. Nach Definition besteht

πk = τn−1 ◦ . . . ◦ τk+1

aus den in den Teilschritten k+1, . . . , n−1 nachfolgenden Transpositionen, für die π(i) = ifür alle i = 1, . . . , k gilt. Daher folgt:

L(k) = Pπk L(k)P−1πk= Pπk

(1 − m(k)ek

t)

P−1πk= 1 − Pπk m(k)

(P−t

πkek

)t

= 1 − Pπk m(k) (Pπk ek)t= 1 − Pπk m(k)ek

t (da πk(i) = i für alle i = 1, . . . , k)

=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1. . .

1−lπ−1

k (k+1),k...

. . .

−lπ−1k (n),k 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠= 1 − m(k) ⊗ ek , (2.137)

wobei

m(k) =(0, . . . , 0, lπ−1

k (k+1),k, . . . , lπ−1k (n),k

)t,

da nach (2.133) durch A→ Pπk A eine Zeilenpermutation mit π−1k bewirkt wird.

Wir betrachten eine Spalte (lk+1,k, . . . , ln,k)t und die in Algorithmus 2 darauf wirkendenTranspositionen τk+1, . . . , τn−1.

Allgemein gilt für einen Vektor x : Nach Anwendung der Permutation σ1 ist xi aufPosition σ1(i) und xσ−1

1 (i) auf Position i, bzw. xσ−11 (σ−1

2 (i)) auf Position σ−12 (i) für eine weitere

Permutation σ2. Nach zusätzlicher Anwendung der Permutation σ2 ist demnach xσ−11 (σ−1

2 (i))auf Position i.

Betrachte eine Position j ∈ {1, . . . , n}: Nach Anwendung von σ2 ◦ σ1 steht folglich aufPosition j der Eintrag

Page 124: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

268 2 Matrizen und lineare Abbildungen

xσ−11 (σ−1

2 ( j)) = x(σ2◦σ1)−1( j) .

Die Gestalt von m ist somit genau eine Konsequenz der Zeilenvertauschungen durchτk+1, . . . , τn−1. Also folgt aus (2.137) mit Lemma 2.85 und Satz 2.87

Pπ0 A = LR mit L := L(1)−1· · · L(n−1)−1= 1 +

n−1∑k=1

m(k) ⊗ ek .

Damit folgt die Behauptung. Pπ0 hat also die gemäß π0 = p−1 permutierten Einheitsvekto-ren als Zeilen, d. h.

(Pπ0

)i, j =

(δp(i), j

). �

Für das LGS Ax = b ergibt sich PAx = Pb und damit ist es durchfolgende zwei Schritte lösbar:

1) Ly = Pb = b′ durch Vorwärtssubstitution, wobei mithin b′ =(bπ−1(i)

)i=

(bp(i)

)i.

2) Rx = y durch Rückwärtssubstitution.

(2.138)

Der folgende Algorithmus realisiert die Lösung eines LGS Ax = b, PA = LR mit-tels (2.138):

Algorithmus 3 (Vorwärts- und Rückwärtssubstitution)

function x = vorwrueckwsubs(L, R, P, b)

n = length(b);% Vorwaertssubstitutiony = zeros(n, 1);b = P*b; % Permutation der rechten Seitefor i = 1 : ny(i) = b(i);for j = 1 : i - 1y(i) = y(i) - L(i, j)*y(j);

endy(i) = y(i)/L(i, i);

end% Rueckwaertssubstitutionx = zeros(n, 1);for i = n : -1 : 1x(i) = y(i);for j = i + 1 : nx(i) = x(i) - R(i, j)*x(j);

endx(i) = x(i)/R(i, i);

endend

Page 125: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix 269

Es verbleibt, die Transformation auf Zeilenstufenform R für allgemeines A ∈ R(m,n) zubetrachten. Der Beweis von Theorem 2.100 zeigt, dass Eigenschaften von A keine Rollegespielt haben bei der Umformung zu der Gestalt

PA = LR . (2.139)

(2.139) gilt also auch allgemein, mit P = Pπ wie in Theorem 2.100, R ∈ R(m,n) inZeilenstufenform und L ∈ R(m,m) wie bei (2.129) als normierte untere Dreiecksmatrixmit den Multiplikatoren in den Spalten der Stufenindizes j(1), . . . , j(r). Auch dieBestimmung des Lösungsraums eines LGS von (2.130) gilt hier, wenn man b durchPb ersetzt.

*Bemerkungen 2.101

1) Wie schon in Abschnitt 1.1 angedeutet, ist es manchmal nützlich, R weiter zu verein-fachen. Durch Spaltenvertauschungen, wobei die zugehörige Permutation π durch

π−1 = σ j(r),r ◦ . . . ◦ σ j(1),1 ,

d. h. π = σ j(1),1 ◦ . . . ◦ σ j(r),r

definiert ist, kann R in die Staffelform R übergeführt werden, d. h.

R =⎛⎜⎜⎜⎜⎝ ≈R C

0 0

⎞⎟⎟⎟⎟⎠ (2.140)

mit≈R ∈ R(r,r) als invertierbare obere Dreiecksmatrix und C ∈ R(r,n−r). Bezeichnet man P

aus (2.139) mit PZ(Z =Zeilen) und hier die Permutationsmatrix mit PS , gilt damit nach(2.134)

PZAPS = LRPS = LR .

2) Wie in Abschnitt 1.1 beschrieben, ist es möglich durch weitere Zeilenumformungenvom Typ III jeweils von Zeile r bis Zeile 1, bei Spalte r beginnend bis Spalte 1, zu erreichen(Gauss-Jordan-Verfahren), dass R übergeht in

R =(

D C0 0

). (2.141)

Dabei ist D = diag(d1, . . . , dr) eine Diagonalmatrix in R(r,r) mit nichtverschwindendenDiagonalelementen.Nach (2.124) gilt

Page 126: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

270 2 Matrizen und lineare Abbildungen

R = E1 . . . ErR, wobei

Ei : = 1m − m(i) ⊗ ei mit

m(i) =(r1,i/ri,i, . . . , ri−1,i/ri,i, 0, . . . , 0

)t .

Also folgt

R = (E1 . . . Er)−1R =: RR

und

R = E−1r . . . E−1

1 =(1 + m(r) ⊗ er

). . .

(1 + m(1) ⊗ e1

)nach Lemma 2.85, da immer m(i)

i = 0 ist.Hier gilt die analoge Aussage zu Satz 2.87 (Formulierung und Beweis: Übung), so dassschließlich

R = 1 +

r∑i=1

m(i) ⊗ ei .

R ist deswegen die normierte obere Dreiecksmatrix mit den Multiplikatoren aus den rEliminationsschritten oberhalb der Diagonale in den Spalten 1, . . . , r, daher

PZAPS = LRR . (2.142)

Wenn gewünscht, können die ersten r Diagonalelemente von R auch als 1 gewählt werden,d. h. D als 1r. Diese Transformation wird mit einer Diagonalmatrix D als zusätzlichemFaktor beschrieben:

PZAPS = LRDR .

Dabei sind PZ , PS , L, R invertierbar, so dass Lösbarkeit und Dimension des Lösungsraumsaus der reduzierten Zeilenstufenform R abgelesen werden können, wobei mit der Form(2.142) fortgefahren wird. Genauer:Das LGS Ax = b ist äquivalent mit

PZAPS z = PZ b ,

wobei

z := P−1S x .

Folglich

LRRz = PZ b

Page 127: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.5 Permutationsmatrizen und die LR-Zerlegung einer Matrix 271

und damit:

1) Löse Ly = PZ b(eindeutige Lösung durch Vorwärtssubstitution).

2) Löse Rw = y(eindeutige Lösung durch Rückwärtssubstitution).

3a) Prüfe Rz = w auf Lösbarkeit(lösbar ⇔ w′′ = 0, wennw =

(w′w′′

), z =

(z′z′′

), w′, z′ ∈ Rr, w′′ ∈ Rm−r, z′′ ∈ Rn−r).

3b) Bei Lösbarkeit bestimme den Lösungsraum U,z′′ ∈ Rn−r sind freie Parameter, z′ := D−1(w′ − Cz′′),bzw. U = z + Kern R,

z =(

D−1w′0

), Kern R = span(z1, . . . , zn−r) und zi =

(z′iz′′i

), z′′i := ei,

z′i := −D−1Cz′′i .4) x := PS z .

3) Alternativ lässt sich durch elementare Spaltenumformungen von Typ III beginnend mitSpalte 1 bis Spalte r sogar die Form

R =(

D 00 0

)erreichen. Da dies Zeilenumformungen für die transponierte Matrix entspricht, gilt sodann

Rt = Er . . . E1Rt ,

wobei die Frobenius-Matrizen Ei ∈ R(n,n) die Gestalt (2.123) haben mit Multiplikato-renvektoren m(i), so dass

(m(i)

)j= 0 für j < i + 1, also

R = R(Er . . . E1)−t =: RR .

Daher

R = E−tr . . . E−t

1 ,

wobei nach Lemma 2.85 E−1i der Matrix Ei entspricht nach Weglassen des Minuszeichens

bei den Multiplikatoren, und Satz 2.87 (angewendet auf die Transponierten) folgendesliefert:

R = 1n +

r∑i=1

ei ⊗ m(i) ,

Page 128: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

272 2 Matrizen und lineare Abbildungen

also eine normierte obere Dreiecksmatrix mit den Multiplikatoren in den ersten r Zeilen.Hier ergibt sich also die alternative Darstellung

PZAPS = LRR . (2.143)

(Man beachte den Platztausch von R und R und R ∈ R(n,n).)

Im Lösungsschema sind 2) und 3) zu ersetzen durch:2)’a) Prüfe Rw = y auf Lösbarkeit (lösbar⇔ y′′ ∈ Rm−r = 0).2)’b) Bei Lösbarkeit bestimme den Lösungsraum

w =

(D−1y′

w′′

),w′′ ∈ Rn−r beliebig.

3)’ Löse Rz = w (eindeutige Lösung durch Rückwärtssubstitution).

Schließlich kann bei (2.143) noch, wenn dies aus „ästhetischen“ Gründen gewünscht wird,durch zusätzliche Umformungen vom Typ II erreicht werden, dass R die Gestalt

R =(1r 00 0

)(2.144)

annimmt.Da die Umformungen sowohl als Zeilen- als auch als Spaltenumformungen aufgefasstwerden können, können sie sowohl bei L oder R (bzw. bei R oder „rechts“ von R) alsFaktoren auftreten. �Obwohl durch die (reduzierte) Zeilenstufenform Lösbarkeit und Lösungsraum klar ge-geben sind, ist diese Umformung nicht geeignet zur Darstellung der Pseudoinversen A+.Zwar kann für R nach (2.140) oder R nach (2.141) die Pseudoinverse angegeben werden,dann kann damit allerdings nicht die Pseudoinverse insgesamt bestimmt werden (siehe Be-merkungen 2.82, 5)). Dazu müssten wie die Permuationsmatrizen auch die Matrizen L (in(2.139)) bzw. L, R (in (2.142)) orthogonal sein. In Abschnitt 4.8 wird daher als Alternativezur LR-Zerlegung die QR-Zerlegung mit einer orthogonalen Matrix Q besprochen.

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• Permutation, symmetrische Gruppe• Permutationsmatrix• Transposition, Zyklus• Signumsfunktion

Page 129: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

Aufgaben 273

• Multiplikatoren

Zusammenhänge

• Jede Permutation lässt sich als ein Produkt von Transpositionen bzw. elementfrem-den Zyklen schreiben (Satz 2.96).

• Gauss-Elimination erzeugt Zerlegung PA = LR, L wird durch (Mit-)Permutationerzeugt (Theorem 2.100).

Aufgaben

Aufgabe 2.26 (K) Stellen Sie alle Permutationen σ ∈ Σ4 als Zyklus oder als Produktzyklischer Permutationen dar.

Aufgabe 2.27 (T) Zeigen Sie für die zyklische Permutation σ = (i1, i2, . . . , ik)

sign(σ) = (−1)k+1.

Aufgabe 2.28 (T) Formulieren und zeigen Sie die nach (2.141) benutzte analoge Aussagezu Satz 2.87.

Aufgabe 2.29 (T) Arbeiten Sie die Einzelheiten zum Erhalt der Darstellungen (2.142) und(2.143) aus.

Aufgabe 2.30 (T) Bestimmen Sie die Pseudoinverse einer Matrix in (reduzierter) Zeilen-stufenform.

Page 130: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

274 2 Matrizen und lineare Abbildungen

2.6 Die Determinante

2.6.1 Motivation und Existenz

In (2.67) wurde für die Matrix

A =(

a bc d

)die Zahl

δ := ad − bc

definiert und festgestellt, dass

A invertierbar ⇔ δ � 0 . (2.145)

δ = δ(A) ist ein nichtlinearer Ausdruck in A, da offensichtlich nicht

δ(A + B) = δ(A) + δ(B)

gilt, und

δ(λA) = λ2δ(A) statt δ(λA) = λδ(A) .

Allerdings ist δ(A) linear bei Veränderung von A in einer Zeile (Spalte) bei festgehaltenerweiterer Zeile (Spalte). Ziel ist es für eine beliebige Matrix A ∈ R(n,n) einen (nichtlinearen)Ausdruck δ = δ(A) zu definieren, der (2.145) erfüllt. Man kann sich dem auch geometrischnähern:

Wir betrachten eine n × n-Matrix

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a1

t

...an

t

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ =⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1,1 · · · a1,n...

...an,1 · · · an,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠mit den Zeilenvektoren a1, . . . , an. – In diesem Abschnitt werden Zeilen mit Indizes ohneKlammern bezeichnet. – Diese Zeilenvektoren spannen einen Spat , bzw. ein Parallelotop,festgemacht an a0,

P(a1, . . . , an) = {x ∈ Rn : x = a0 +

n∑1

ck ak, c1, . . . , cn ∈ R, 0 ≤ ck ≤ 1}

auf. Wir möchten das Volumen vol(A) dieses Spats berechnen. Der elementare Volumen-begriff in R2 oder R3 und seine anstehende Verallgemeinerung ist translationsinvariant, sodass im Folgenden a0 = 0 gesetzt werden kann.

Page 131: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 275

�����

�������

������

��������

α

(a, b)

(c, d)

n = 2

���������

�����

��������

����

����

�������

����������

����

����

n = 3

Abb. 2.10: Parallelotope im Rn, festgemacht bei a0 = 0.

Beispiel 2.102 (Geometrie) Der Fall n = 2 ist aus der Elementargeometrie bekannt: DieFläche des Parallelogramms ist das Produkt der Seitenlängen mal sin(α) (siehe Abbil-dung 2.10 wegen der Notation: Zur Vereinfachung der Schreibweise werden hier Vektorenausnahmsweise als Zeilen geschrieben):

vol((

a bc d

))= ‖(a, b)‖ · ‖(c, d)‖ · sin(α)

= ‖(a, b)‖ · ‖(c, d)‖ ·√

1 − cos2(α)

= ‖(a, b)‖ · ‖(c, d)‖ ·√

1 − ( (a, b) . (c, d) )2

‖(a, b)‖2 · ‖(c, d)‖2

=√‖(a, b)‖2 · ‖(c, d)‖2 − ( (a, b) . (c, d) )2

=√

(a2 + b2)(c2 + d2) − (ac + bd)2

=√

a2d2 + b2c2 − 2 · abcd

=√

(ad − bc)2

= |ad − bc| = |δ| . (2.146)

Page 132: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

276 2 Matrizen und lineare Abbildungen

Es ist ziemlich einsichtig, dass das Volumen vol(A) des Spats P(a1, . . . , an) folgendeEigenschaften haben sollte:

(I) Beim Vertauschen zweier Zeilen in der Matrix A ändert sich das Volumenvol(A) nicht.

(II) Streckt man einen Zeilenvektor mit einem Faktor t ∈ R, so ändert sich vol(A)mit dem Faktor |t| (siehe auch Abbildung 2.11), d. h. in Formeln

vol(a1, . . . , ak−1, t · ak, ak+1, . . . , an) = |t| · vol(a1, . . . , an) für t ∈ R.

(III) vol(a1, . . . , ak, . . . , al + tak, . . . , an) = vol(a1, . . . , ak, . . . , al, . . . , an) für alle1 ≤ k � l ≤ n und t ∈ R (siehe Abbildung 2.12).

(0) Für die Einheitsmatrix 1 (d. h. den Einheitswürfel) ist

vol(1) = 1 .

������

�����

����

ak t · ak

vol(A) |t| · vol(A)

Abb. 2.11: Volumenveränderung bei Streckung des Vektors ak.

������

����

�������

������

al

ak tak

al + tak

Abb. 2.12: Volumeninvarianz bei Zeilenaddition.

Die Eigenschaften (I)-(III) beschreiben die Änderung des Volumens vonP(a1, . . . , an), wenn man die Vektoren elementaren Zeilentransformationen vom Typ (I)-(III) unterwirft. Wir wollen ein vorzeichenbehaftetes Volumen (für Parallelotope) einfüh-ren, indem wir eine Funktion

det : R(n,n) → R ,

die Determinante der Matrix A, konstruieren, deren Absolutbetrag das Volumen vol(A) ist:vol(A) = | det(A)|. Von der Funktion det verlangen wir die folgenden Eigenschaften, ausdenen die obigen (I)-(III), (0) folgen:

Page 133: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 277

(I) Vertauscht man in der Matrix A ∈ R(n,n) zwei Zeilen, so ändert sich das Vor-zeichen von det(A).

(II) det(a1, . . . , ak−1, t · ak, ak+1, . . . , an) = t · det(a1, . . . , an) für alle t ∈ R.(III) det(a1, . . . , ak, . . . , al + tak, . . . , an) = det(a1, . . . , ak, . . . , al, . . . , an) für alle

1 ≤ k � l ≤ n und t ∈ R.(0) (Normierung) Für die Einheitsmatrix 1 gilt

det(1) = 1 .

Äquivalent können wir somit det auffassen als Abbildung

det : Rn × . . . ×Rn︸�����������︷︷�����������︸n−mal

→ R ,

wobei A ∈ R(n,n) und a1, . . . , an sich dadurch entsprechen, dass die ait die Zeilen von A

sind.

Beispiel 2.103 Die Funktion

det(

a bc d

):= ad − bc

hat die Eigenschaften (0),(I),(II),(III). Hiervon sind (0), (I), und (II) unmittelbar einsichtig.Zum Beweis von (III) betrachten wir nur den Fall k = 1 und l = 2 auf den mit (I) derverbleibende zurückgeführt werden kann. Dann ist

det(

a bc + ta d + tb

)= a(d + tb) − b(c + ta) = ad − bc + t(ab − ba) = det

(a bc d

).

Satz 2.104: Eindeutigkeit der Determinante

Wenn eine Funktion det : R(n,n) → R mit den Eigenschaften (0) bis (III) existiert,dann ist sie durch diese Eigenschaften eindeutig festgelegt und für A mit Rang A < ngilt notwendigerweise

det(A) = 0 .

Beweis: Wir wissen, dass man A durch elementare Zeilenumformungen auf Zeilenstufen-form bringen kann, bzw. umgekehrt, dass A durch elementare Zeilenumformungen auseiner Matrix Z in Zeilenstufenform hervorgeht. Da die Eigenschaften (I),(II),(III) festle-gen, wie sich die Determinante bei einer elementaren Zeilenumformung ändert, und zwar

Page 134: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

278 2 Matrizen und lineare Abbildungen

höchstens um einen Faktor ungleich Null, genügt es, die Eindeutigkeit für Matrizen Z inZeilenstufenform (mit Pivotelementen 1) zu beweisen. Dazu unterscheiden wir die Fälle:Rang A < n. In diesem Fall ist der letzte Zeilenvektor zn in Z ein Nullvektor. Dann ist0 · zn = zn, und aus (II) folgt

det(Z) = det(z1, . . . , zn) = det(z1, . . . , zn−1, 0 · zn) = 0 · det(z1, . . . , zn) = 0 .

Rang A = n. Nun ist Z eine Dreiecksmatrix und der letzte Zeilenvektor ist zn = en. DurchAddition geeigneter Vielfacher dieses Vektors zu den vorhergehenden Zeilen (Umformungvom Typ (III)) können wir erreichen, dass der letzte Eintrag in den ersten n−1 Zeilen 0 ist.Jetzt ist der vorletzte Zeilenvektor zn−1 = en−1, und durch elementare Zeilenumformungenvom Typ III können wir erreichen, dass auch der vorletzte Eintrag in den ersten n−2 Zeilen0 ist. Mit endlich vielen elementaren Zeilenumformungen vom Typ III, können wir daherZ in die Einheitsmatrix1 überführen (Gauss-Jordan-Verfahren, siehe auch (1.16)). AusEigenschaft (III) und (0) folgt

det(Z) = det(1) = 1 . �

Ein ganz anderes Problem ist es, nachzuweisen, dass eine Funktion det mit den Ei-genschaften (0),. . .,(III) tatsächlich existiert. Im Wesentlichen läuft dies auf die Existenzdes Signums (Satz 2.98) hinaus, denn wenn eine Determinantenfunktion det(A) mit denEigenschaften (0) und (I) existiert, dann gilt wegen Satz 2.98 und Satz 2.96) für jede Per-mutationsmatrix Eσ

det(Eσ) = sign(σ) . (2.147)

Ist nämlich

Eσ = Ekm,lm . . . Ek1,l1 ,

so führen die Vertauschungen σkm ,lm , . . . , σk1,l1 sukzessive Eσ in 1 mit det(1) = 1 überund erzeugen nach (I) jeweils den Faktor sign(σki ,li), insgesamt also sign(σ). Dies ist einZusammenhang zwischen Determinante und signum-Funktion. Wir benutzen die signum-Funktion nun für unsere Definition der Determinante:

Definition 2.105

Es sei A = (ak,l)k,l=1,...,n ∈ R(n,n) eine n × n-Matrix. Die Zahl

det(A) :=∑

σ∈Σnsign(σ) · a1,σ(1) · . . . · an,σ(n)

heißt Determinante der Matrix A. (Diese Formel für die Determinante stammt vonGottfried Wilhelm Leibniz14und ist nach ihm benannt.)

Page 135: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 279

Dass diese Determinante tatsächlich die Eigenschaften (0),. . .,(III) besitzt, weisen wir imnächsten Abschnitt nach. Zuerst einige einfache Beispiele, die zeigen sollen, was dieseFormel bedeutet.

n = 1: Im Fall n = 1 ist det(a) = a.n = 2: Für n = 2 ist

det(

a1,1 a1,2a2,1 a2,2

)= sign(id) · a1,1a2,2︸���������������︷︷���������������︸

σ=id

+ sign(σ1,2)a1,2a2,1︸���������������︷︷���������������︸σ=σ1,2

= a1,1a2,2 − a1,2a2,1 .

Wenn wir die Matrix(

a1,1 a1,2

a2,1 a2,2

)=

(a bc d

)schreiben, dann wird dies zu

det(

a bc d

)= ad − bc .

n = 3: Für n = 3 haben wir

det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ a1,1 a1,2 a1,3a2,1 a2,2 a2,3

a3,1 a3,2 a3,3

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ = a1,1a2,2a3,3 für σ = id

+ a1,2a2,3a3,1 für σ =

(1 2 32 3 1

)= σ1,3 ◦ σ1,2 = (1, 2, 3)

+ a1,3a2,1a3,2 für σ =

(1 2 33 1 2

)= σ1,2 ◦ σ1,3 = (1, 3, 2)

− a1,3a2,2a3,1 für σ =

(1 2 33 2 1

)= σ1,3 = (1, 3)

− a1,1a2,3a3,2 für σ =

(1 2 31 3 2

)= σ2,3 = (2, 3)

− a1,2a2,1a3,3 für σ =

(1 2 32 1 3

)= σ1,2 = (1, 2) .

Dies ist die klassische „Regel von Sarrus15“:

a3,1 a3,2 a3,3 a3,1 a3,2

a2,1 a2,2 a2,3 a2,1 a2,2

a1,1 a1,2 a1,3 a1,1 a1,2

a3,1 a3,2 a3,3 a3,1 a3,2

a2,1 a2,2 a2,3 a2,1 a2,2

a1,1 a1,2 a1,3 a1,1 a1,2

������

������

������

.

Dabei ist nunmehr über die eingezeichneten „Diagonalen“ und „Gegendiagonalen“ derdurch Wiederholung der Spalten 1 und 2 erweiterten Matrix zu multiplizieren und dieProdukte zu addieren bzw. zu subtrahieren.14 Gottfried Wilhelm Leibniz ∗1. Juli 1646 in Leipzig †14. November 1716 in Hannover15 Pierre Frédéric Sarrus ∗10. März 1798 in Saint-Affrique †20. November 1861 in Saint-Affrique

Page 136: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

280 2 Matrizen und lineare Abbildungen

2.6.2 Eigenschaften

Wir wollen jetzt einige wichtige Eigenschaften der Determinante angeben. Insbesonderesuchen wir nach praktischen Möglichkeiten, die Determinante einer gegebenen Matrix zuberechnen, da die Leibnizsche Formel hierfür bei großen n ungeeignet ist, da schon alleinn! Summanden zu addieren wären.

Theorem 2.106: Fundamentaleigenschaften der Determinante

Die Funktion

det : R(n,n) → R, A �→ det(A) ,

hat folgende Eigenschaften: 1) Linearität in Bezug auf jede Zeile:

det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1...

ak−1sak + ta′k

ak+1...

an

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠= s · det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1...

ak−1ak

ak+1...

an

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠+ t · det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1...

ak−1ak′

ak+1...

an

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

2) Schiefsymmetrie in Bezug auf je zwei Zeilen (also (I)):

det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1...

ak−1ak

ak+1...

al−1

al

al+1...

an

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

= − det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1...

ak−1al

ak+1...

al−1

ak

al+1...

an

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

.

3) Normierung (also (0)): det(1n) = 1.

Beweis: Zu 1): Wir werten die Determinante auf der linken Seite der Gleichung mit derLeibniz-Formel aus:

Page 137: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 281∑σ∈Σn

sign(σ) · a1,σ(1) · . . . · (s · ak,σ(k) + t · a′k,σ(k)) · . . . · an,σ(n)

=s ·∑σ∈Σn

sign(σ) · a1,σ(1) · . . . · ak,σ(k) · . . . · an,σ(n) +

+ t ·∑σ∈Σn

sign(σ) · a1,σ(1) · . . . · a′k,σ(k) · . . . · an,σ(n).

Zu 2): Wieder mit der Leibniz-Formel und mit Satz 2.98 ist die Determinante auf derrechten Seite der Gleichung∑

σ∈Σn

sign(σ) · · ·a1,σ(1) · . . . · al,σ(k) · . . . · ak,σ(l) · . . . · an,σ(n)

=∑σ∈Σn

sign(σ ◦ σk,l) · a1,σσk,l(1) · . . . · al,σσk,l(k) · . . . · ak,σσk,l(l) · . . . · an,σσk,l(n)

= −∑σ∈Σn

sign(σ) · a1,σσk,l(1) · . . . · al,σσk,l(k) · . . . · ak,σσk,l(l) · . . . · an,σσk,l(n)

= −∑σ∈Σn

sign(σ) · a1,σ(1) · . . . · al,σ(l) · . . . · ak,σ(k) · . . . · an,σ(n) .

Dazu wurde benutzt, dass bei beliebiger, fester Vertauschung σk,l wegen

σ = σ ◦ σk,l ◦ σk,l

mit allgemeinen σ ∈ Σn auch durch σ ◦ σk,l alle Permutationen erfasst werden und dannsign(σ ◦ σk,l) = sign(σ) sign(σk,l) = − sign(σ) gilt.Zu 3): Es ist

det(1n) =∑σ

sign(σ) · δ1,σ(1) · . . . · δn,σ(n) ,

und der Summand ist nur dann ungleich 0, wenn alle Kronecker-Deltas gleich 1 sind,d. h. wenn k = σ(k) für alle k = 1, . . . , n. Somit bleibt nur der Summand für σ = id übrigund die Determinante wird gleich 1.

Die Abbildung det : Rn × . . . ×Rn → R ist demnach multilinear in dem Sinn, dass

fi : Rn → R, fi(x) := det(a1, . . . , ai−1, x, ai+1, . . . , an)

für fest gewählte a j ∈ Rn linear ist. Dagegen ist

det : R(n,n) → R

i. Allg. nicht linear. Vielmehr folgt aus der Multilinearität für A ∈ R(n,n), λ ∈ Rdet(λA) = λn det(A)

Page 138: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

282 2 Matrizen und lineare Abbildungen

und für det(A + B) gibt es keine einfache Beziehung zu det(A) und det(B).

Lemma 2.107

Hat die n × n-Matrix A zwei gleiche Zeilen, so ist det(A) = 0.

Beweis: Sind die Zeilenvektoren ak und al gleich, so ändert sich A und damit det(A) nicht,wenn wir beide Zeilen vertauschen. Andererseits ändert sich dabei wegen der Schiefsym-metrie das Vorzeichen von det(A). Es folgt:

det(A) = − det(A), 2 · det(A) = 0, det(A) =12

(2 · det(A)) = 0 .

Bemerkung 2.108 In obigem Beweis wird zum ersten Mal wirklich eine andere reelleZahl als 0 und 1, nämlich 1

2 gebraucht. Gäbe es diese Zahl nicht, wäre das Argumentunrichtig. Dies ist der Fall, wenn wir nur in der Zahlenmenge {0, 1} „rechnen“ mit derRegel 1 + 1 = 0. Ein alternativer Beweis wird daher noch in Bemerkung 2.119 gegeben.�

Satz 2.109: Leibniz-Formel ist Determinante

Die mit der Leibniz-Formel definierte Determinante hat die Eigenschaften(0),(I),(II),(III) aus Abschnitt 2.6.1.

Beweis: Normierung (0) und Schiefsymmetrie beim Vertauschen von Zeilen (I) sind dieEigenschaften 3) und 2) von Theorem 2.106. Eigenschaft (II) ist Teil der Linearität derDeterminante und Eigenschaft (III) folgt aus der Linearität mit Hilfe von Lemma 2.107.�

Bemerkungen 2.110

1) Führt man verallgemeinernd eine abstrakte Volumenfunktion (mit Vorzeichen) VS :R(n,n) → R als eine Abbildung ein, die die Eigenschaften (I)-(III) (ohne (0)) erfüllt, sozeigen der Beweis von Satz 2.104 und Satz 2.109:Die abstrakten Volumenfunktionen (mit Vorzeichen) VS sind gerade die Abbildungen c·detfür c ∈ R (und notwendigerweise ist c = VS (1)).

2) Alternative Formen für die Bedingungen (I)-(III) sind diese Bedingungen:

(I)’ Hat A ∈ R(n,n) zwei gleiche Zeilen, so ist det(A) = 0 (siehe Lemma 2.107).

(II)’ det als Funktion der Zeilen von A ist multilinear (siehe Theorem 2.106, 1)).

Page 139: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 283

Theorem 2.111: Determinanten-Multiplikation-Satz

1) Für A, B ∈ R(n,n) gilt: det(AB) = det(A) · det(B) .

2) Für A ∈ R(n,n) gilt: det(A) = 0⇔ Rang A < n .

3) det(At) = det(A).

Beweis: Zu 1): Wir beweisen die Aussage zunächst für den Fall, dass A = E eine Ele-mentarmatrix ist.

Eine Elementarmatrix E vom Typ (I) entsteht aus der Einheitsmatrix durch Vertauschenzweier Zeilen. Also ist det(E) = − det(1) = −1. Die Matrix EB entsteht aus B ebenfallsdurch Vertauschen zweier Zeilen. Und deswegen ist det(EB) = − det(B) = det(E) · det(B).

Eine Elementarmatrix E vom Typ (II) multipliziert in B eine Zeile mit einem Faktorc ∈ R. Für E gilt det(E) = c (da nach Eigenschaft (II) det(E) = c det(1) = c) und mitgleicher Begründung ist det(EB) = c · det(B).

Eine Elementarmatrix E vom Typ (III) entsteht aus der Einheitsmatrix, indem man einVielfaches einer Zeile zu einer anderen addiert. Wegen Eigenschaft (III) der Determinanteist daher det(E) = 1. Da weiter wieder wegen Eigenschaft (III) det(EB) = det(B) ist, folgtdie Behauptung auch in diesem Fall.

Wenn Rang A < n ist, ist auch Rang(AB) < n, da dies die Dimension eines linearenUnterraums ist. Mit Satz 2.104 folgt det(A) = 0 und det(AB) = 0 und damit auch det(AB) =det(A) · det(B). Wenn Rang A = n ist, gibt es nach 1.85III Elementarmatrizen E1, . . . , Ek,so dass A = E1 . . . Ek. Es folgt nach der Vorüberlegung

det(AB) = det(E1 . . . EkB) = det(E1) · . . . · det(Ek) · det(B) = det(A) · det(B) . (2.148)

Zu 2): „⇐“: folgt schon aus Satz 2.104.„⇒“: Angenommen Rang A = n. Nach (2.148) ist dann

det(A) = det(E1) · . . . · det(Ek) � 0

und damit ist die Kontraposition der Behauptung gezeigt.Zu 3): Mit der Leibniz-Formel und sign(σ) = sign(σ−1) ist

det(At) =∑σ∈Σn

sign(σ) · aσ(1),1 · . . . · aσ(n),n =∑σ∈Σn

sign(σ) · a1,σ−1(1) · . . . · an,σ−1(n)

=∑

τ=σ−1∈Σn

sign(τ) · a1,τ(1) · . . . · an,τ(n) = det(A) .

Eigenschaft 3) bedeutet, dass alles, was für die Zeilen einer Determinante gilt, auch fürSpalten stimmt. Insbesondere ist also det(A) auch linear in Bezug auf jede Spalte undändert beim Vertauschen zweier Spalten das Vorzeichen.

Page 140: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

284 2 Matrizen und lineare Abbildungen

Bemerkungen 2.112

1) Nach Theorem 2.111, 2) kann folglich die Äquivalenzliste in Hauptsatz 1.85 bei m = nergänzt werden um

(ix) det(A) � 0 .

– Dabei ist aber zu beachten, dass | det(A)| kein Maß für die „Stärke“ derNichtsingularität ist. –

2) det : Rn × . . .×Rn → R kann deshalb auch als Abbildung der Spalten a(i) einer MatrixA aufgefasst werden, weiterhin mit den Eigenschaften der Multilinearität und Schiefsym-metrie.

3) Aus Theorem 2.111, 1) folgt insbesondere für invertierbares A ∈ R(n,n):

det(A−1) = 1/ det(A) .

4) Die geometrische Bedeutung von det wird jetzt klar:Der Einheitswürfel P(e1, . . . , en) = [0, 1]n wird durch A ∈ R(n,n) abgebildet auf das Par-allelotop P

(a(1), . . . , a(n)

), wenn a(i) die Spalten von A sind. | det(A)| ist also gerade der

Faktor der Volumenvergrößerung/-verkleinerung.det(A), oder allgemeiner eine abstrakte Volumenfunktion, ist aber zusätzlich vorzeichenbe-haftet. Dies kann dahingehend verstanden werden, dass bei det(A) > 0 die Orientierung derBasisvektoren e1, . . . , en beim Übergang zu a(1), . . . , a(n) beibehalten bzw. bei det(A) < 0geändert wird (siehe Abschnitt 2.6.3).

5) Bei der Polynominterpolation (siehe Bemerkung 2.34) ist bei Zugrundelegung der Mo-nombasis von Rn−1[x] ein LGS auf Eindeutigkeit oder Lösbarkeit zu überprüfen, das diefolgende Systemmatrix hat (siehe (2.33)):

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 t1 t2

1 · · · tn−11

......

......

1 tn t2n · · · tn−1

n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ (2.149)

für die Stützstellen a ≤ t1 < t2 < . . . tn ≤ b, die Vandermonde16sche Matrix. Alternativzu den Überlegungen in Bemerkung 2.34 kann die Invertierbarkeit von A geprüft werdenund zwar dadurch, dass det(A) � 0 gezeigt wird. Diese Vandermondesche Dertermi-nante lässt sich explizit angeben:

16 Alexandre-Théophile Vandermonde ∗28. Februar 1735 in Paris †1. Januar 1796 in Paris

Page 141: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 285

det(A) =n∏

i, j=1i< j

(t j − ti

)(2.150)

(Übungsaufgabe), d. h. insbesondere det(A) � 0.

6) Permutiert man in (2.149) die Stützstellen mit δ ∈ Σn und betrachtet nachfolgend

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 tδ(1) · · · tn−1

δ(1)...

......

1 tδ(n) · · · tn−1δ(n)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ,

dann gilt nach (2.133)

A = Pδ−1 A

und damit nach (2.150) sowie (2.147)

n∏i, j=1i< j

(tδ( j) − tδ(i)) = det(A) = det(Pδ−1 ) det(A) = sign(δ) det(A) = sign(δ)n∏

i, j=1i< j

(t j − ti) .

sign (δ) ∈ {−1, 1} hätte somit auch als der mögliche Vorzeichenwechsel definiert werdenkönnen, den

n∏i, j=1i< j

(t j − ti)

bei Permutation der Stützstellen erfährt. Die Eigenschaften von Satz 2.98 ergeben sichdaraus direkt. �

Beispiel 2.113 (Geometrie) Betrachtet wird in der Ebene ein Dreieck � mit den Ecken0, x, y ∈ R2. Da

F := | det(x, y)|die Fläche des von x und y aufgespannten Parallelogramms ist, ist

vol(�) :=| det(x, y)|

2

die Fläche des Dreiecks. ◦

Page 142: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

286 2 Matrizen und lineare Abbildungen

Für orthogonale Matrizen, d. h. längen- (und SKP-) erhaltende Transformation gilt insbe-sondere:

1 = det(1) = det(A At) = det(A)2 ,

also

det(A) = ±1 .

Bis auf einen eventuellen Orientierungswechsel sind also orthogonale Matrizen auchvolumenerhaltend.

Diejenigen mit det(A) = 1 sind bezüglich der Matrizenmultiplikation abgeschlossen undwerden zusammengefasst zu

SL(n,R) := {A ∈ GL(n,R) : det(A) = 1} (2.151)

bzw.

SO(n,R) := SL(n,R) ∩ O(n,R) . (2.152)

SL(n,R) heißt die spezielle lineare Gruppe , SO(n,R) die spezielle orthogonaleGruppe .

Für n = 2 stellen SO(2,R) gerade die Drehungen dar und O(2,R) \ SO(2,R) die Spiege-lungen, in Übereinstimmung mit der Setzung in Bemerkungen 2.57, 1).

Wir wollen noch zwei häufig anwendbare Methoden zur Berechnung von Determinan-ten entwickeln. Dazu betrachten wir eine Partitionierung von A ∈ R(m,n) etwa in der Form

A =(

A1,1 A1,2

A2,1 A2,2

)mit

A1,1 ∈ R(r,s), A1,2 ∈ R(r,n−s), A2,1 ∈ R(m−r,s), A2,2 ∈ R(m−r,n−s) .

Für eine 2 × 2 Matrix in Dreiecksform

A =(

a1,1 a1,2

0 a2,2

)gilt

det(A) = a1,1 · a2,2 .

Dies überträgt sich auf 2 × 2 Blockmatrizen:

Page 143: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 287

Hauptsatz 2.114: Kästchenregel

1) Die n × n-Matrix A habe 2 × 2 Blockdreiecksgestalt, d. h.

A =(

A1 ∗0 A2

)oder

(A1 0∗ A2

),

wo A1 eine r × r-Matrix und A2 eine (n − r) × (n − r)-Matrix ist. Dann gilt

det(A) = det(A1) · det(A2) .

2) Insbesondere folgt somit für eine Dreiecksmatrix A = (ai, j) ∈ R(n,n)

det(A) = a1,1 · a2,2 . . . . . . · an,n . (2.153)

Beweis: Zu 1) Wegen det(A) = det(At) reicht es, den ersten Fall zu betrachten. In derLeibniz-Formel

det(A) =∑σ∈Σn

sign(σ) · a1,σ(1) · . . . · ar,σ(r) · ar+1,σ(r+1) · . . . · an,σ(n)

sind alle Produkte a1,σ(1) · . . . · ar,σ(r) =0, wo die Permutation σ eine Zahl k, r + 1 ≤ k ≤ nauf eine Zahl σ(k) ≤ r abbildet. Die Summe ist demgemäß nur über solche Permutationenzu erstrecken, welche die Teilmengen

{1, . . . , r} und {r + 1, . . . , n}in sich abbilden. Diese Permutationen bestehen also aus zwei Permutationen

σ1 : {1, . . . , r} → {1, . . . , r} ∈ Σr, σ2 : {r + 1, . . . , n} → {r + 1, . . . , n} ∈ Σn−r .

Schreiben wir dies in die Leibniz-Formel, dann wird

det(A) =∑

σ1∈Σr ,σ2∈Σn−r

sign(σ1σ2) · (a1,σ1(1) · . . . · ar,σ1(r)) · (ar+1,σ2(r+1) · . . . · an,σ2(n)

)=

⎛⎜⎜⎜⎜⎜⎜⎝ ∑σ1∈Σr

sign(σ1) · a1,σ1(1) · . . . · ar,σ1(r)

⎞⎟⎟⎟⎟⎟⎟⎠ ··⎛⎜⎜⎜⎜⎜⎜⎝ ∑σ2∈Σn−r

sign(σ2) · ar+1,σ2(r+1) · . . . · an,σ2(n)

⎞⎟⎟⎟⎟⎟⎟⎠= det(A1) · det(A2) .

Zu 2) folgt durch sukzessives Anwenden von 1). �

Page 144: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

288 2 Matrizen und lineare Abbildungen

Beispiel 2.115 (zu Beispiel 3(2) – Massenkette) Sei A nach (MM.12) gegeben, ergibtsich also aus Hauptsatz 2.114, 2) und Theorem 2.111

det(A) = 1

und analog für A nach (MM.11) (siehe (MM.13) und Hauptsatz 2.89)

det(A) = det(L) det(R) = m + 1 .

◦Berechnung der Determinante allgemein. Es ergibt sich damit eine Berechnungsmög-lichkeit für det(A), die im Wesentlichen das Gausssche Eliminationsverfahren bedeutetund damit mit einer Größenordnung von n3 Operationen sehr vorteilhaft gegenüber derDefinition ist:

Nach (2.139) liefert Gauss für ein invertierbares A ∈ R(n,n)

PA = LR ,

wobei P die durch die Zeilenvertauschungen entstehende Permutationsmatrix, L eine nor-mierte untere und R = (ri, j) eine obere Dreiecksmatrix ist, folglich nach Theorem 2.111, 1)

det(P) det(A) = det(L) det(R) ,

det(P) = (−1)l ,

wobei l die Anzahl der Zeilenvertauschungen ist und nach (2.153) gilt

det(R) = r1,1 · . . . · rn,n

det(L) = 1 · . . . · 1 .RLGS

Also:

det(A) = (−1)lr1,1 · . . . · rn,n . (2.154)

Bis auf das Vorzeichen ist det(A) damit das Produkt der Pivotelemente aus dem Gauss-Verfahren.Tatsächlich hat sich dieses Resultat schon aus dem Beweis von Satz 2.104 ergeben. Dort wurde mit

det(A) = f det(Z)

argumentiert, wobei f die Folge von elementaren Zeilenumformungen auf eine normierte obere Dreiecks-matrix Z ist. Jede Vertauschung trägt zu f den Faktor (−1) bei, die jeweilige Normierung des Pivotele-ments auf 1 den Faktor ai,i

(i) (Notation wie Theorem 2.100), der eigentliche Eleminationsschritt verändertdie Determinante nicht, daher

f = (−1)la1,1(1) . . .an,n

(n)

= (−1)lr1,1 . . . rn,n ,

d. h. mit det(Z) = 1 gilt wieder (2.154).

Page 145: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 289

Anstelle von n! Produkten aus n Faktoren in der Leibniz-Formel muss nun nur ein sol-ches Produkt berechnet werden, wobei die Faktoren zwar nicht gegeben, aber mit einemAufwand von O(n3) berechnet werden können.

Entwicklung nach Spalten oder Zeilen. Wir schreiben den ersten Zeilenvektor a1unserer Matrix A als

(a1,1, . . . , a1,k, . . . , a1,n) == (a1,1, 0, . . . , 0) + . . . + (0, . . . , 0, a1,k, 0, . . . , 0) + . . . + (0, . . . , 0, a1,n)

und wenden die Linearität der Determinante auf die erste Zeile an:

det(A) = det

⎛⎜⎜⎜⎜⎜⎜⎝ a1,1 0 · · · 0... A1,1

⎞⎟⎟⎟⎟⎟⎟⎠...

+ det

⎛⎜⎜⎜⎜⎜⎜⎝0 · · · 0 a1,k 0 · · · 0

A′1,k... A′′1,k

⎞⎟⎟⎟⎟⎟⎟⎠...

+ det

⎛⎜⎜⎜⎜⎜⎜⎝0 · · · 0 a1,n

A1,n...

⎞⎟⎟⎟⎟⎟⎟⎠ .Hier bezeichnen wir mit Ak,l die Streichungsmatrix von A zur Stelle (k, l), d. h. die (n −1) × (n − 1)-Matrix, welche aus der n × n-Matrix A entsteht, indem man die k-te Zeile unddie l-te Spalte streicht (nicht zu verwechseln mit der Bezeichnung von Partitionierungen).Die Matrix der ersten Determinante auf der rechten Seite hat Blockdreiecksgestalt, daher:

det(

a1,1 0∗ A1,1

)= a1,1 · det(A1,1).

Die anderen Matrizen können auch auf diese Blockdreiecksgestalt gebracht werden. Undzwar müssen wir dazu die k-te Spalte mit der (k − 1)-ten Spalte vertauschen, dann mit der(k − 2)-ten usw. Insgesamt ergeben sich dabei k − 1 Änderungen des Vorzeichens:

det(

0 a1,k 0A′1,k . A′′1,k

)= (−1)1+k det

(a1,k 0. A1,k

)= (−1)1+ka1,k · det(A1,k) .

Damit haben wir die Entwicklung von det(A) nach der ersten Zeile:

det(A) =n∑

k=1

(−1)1+k · a1,k · det(A1,k) .

Ebenso kann man nach einer anderen (etwa der l-ten) Zeile entwickeln, wenn man die-se erst durch l − 1 Vertauschungen nach oben bringt. Und genauso, wie man nach einer

Page 146: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

290 2 Matrizen und lineare Abbildungen

Zeile entwickeln kann, kann man die Determinante nach einer Spalte entwickeln wegenTheorem 2.111, 3). Das bedeutet:

Satz 2.116: Entwicklung nach Zeile oder Spalte

Sei A ∈ R(n,n), Ak,l bezeichne die Streichungsmatrix von A zur Stelle (k, l). Danngilt:

Entwicklung nach der l-ten Zeile: det(A) =n∑

k=1

(−1)k+l · al,k · det(Al,k) .

Entwicklung nach der k-ten Spalte: det(A) =n∑

l=1

(−1)k+l · al,k · det(Al,k) .

Man beachte, dass diese Formeln in speziell strukturierten Fällen (wenn die Entwicklungs-zeile/-spalte möglichst viele Nullen enthält) sehr nützlich sind, im Allgemeinen aber keinewirkliche Aufwandsverbesserung gegenüber der Leibniz-Formel darstellen, im Gegen-satz zu (2.154).

Bemerkungen 2.117

1) In Verallgemeinerung der Streichungsmatrizen Ak,l kann man Matrizen A′ ∈ R(k,k)

betrachten, die durch Streichung der restlichen Zeilen und Spalten entstehen (auch beiA ∈ R(m,n), dann Streichung von m − k Zeilen und n − k Spalten). Bei det(A′) spricht manvon einem k-reihigen Minor . Sei speziell für A ∈ R(n,n)

Ak ∈ R(k,k)

die Matrix, die durch Streichen der letzten n − k Zeilen bzw. Spalten entsteht, d. h.

A1 = (a1,1), A2 =

(a1,1 a1,2a2,1 a2,2

)usw.

Die det Ak, k = 1, ..., n heißen die Hauptminoren von A.

2) Sei A ∈ R(n,n) invertierbar. Dann lässt sich A mit dem gauss-Verfahren auf Dreiecks-form mit n Pivotelementen transformieren, i. Allg. aber nur mit Zeilenvertauschungen, d. h.es gibt eine LR-Zerlegung in der Form

PA = LR ,

wobei P Permutationsmatrix und L bzw. R invertierbare normierte untere bzw. (nicht nor-mierte) obere Dreiecksmatrizen sind.

Page 147: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 291

Das gauss-Verfahren kann genau dann ohne Zeilenvertauschungen durchgeführtwerden, wenn eine LR-Zerlegung der Gestalt

A = LR (2.155)

existiert.Dies kann folgendermaßen charakterisiert werden:

Es gilt (2.155)⇔ det(Ak) � 0 für alle k = 1, ..., n. (2.156)

Das kann man wie folgt einsehen:„⇐“: Wir zeigen durch vollständige Induktion:Es gibt invertierbare normierte untere bzw. (nicht normierte) obere Dreiecksmatrizen Lk bzw. Rk ∈ R(k,k),so dass

Ak = LkRk .

k = 1 : A1 = (a1,1) = (1)(a1,1) = L1R1 und a1,1 � 0.k → k + 1 :Sei Ak+1 partioniert als

Ak+1 =

(Ak bat c

)mit a, b ∈ Rk, c ∈ R. Wir machen den Ansatz

Lk+1 =

(Lk 0

mt 1

), Rk+1

(Rk s0 u

)mit m, s ∈ Rk, u ∈ R.Lk+1 bzw. Rk+1 sind normierte untere bzw. (unnormierte) obere Dreiecksmatrizen, da dies für Lk bzw. Rkgilt. Weiter:

Ak+1 = Lk+1Rk+1 ⇔ Ak = LkRk, b = Lk s, at = mtRk, c = mt s + u . (2.157)

Dabei gilt die erste Beziehung nach Induktionsvoraussetzung und s und m sind über die nachfolgendenLGS eindeutig definiert, da Lk und Rk invertierbar sind; u ergibt sich schließlich aus der letzten Beziehung.Wegen 0 � det(Ak+1) = det(Lk+1) det(Rk+1) muss det(Lk+1), det(Rk+1) � 0 gelten (nach der Kästchenregelu � 0), somit sind Lk+1, Rk+1 invertierbar.„⇒“: Die Beziehung (2.157) zeigt, dass mit A = An auch An−1 eine LR-Zerlegung besitzt mit

0 � det(Ln) = det(Ln−1) ,

0 � det(Rn) = det(Rn−1)u , also

det(Ln−1) � 0, det(Rn−1) � 0 und

damit

det(An−1) = det(Ln−1) det(Rn−1) � 0 .

Fortführung der Argumentation führt zu

det(Ak) � 0 für alle k = 1, ..., n .

Page 148: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

292 2 Matrizen und lineare Abbildungen

Das Kriterium (2.156) ist als theoretisches Hilfsmittel zu sehen. Seine numerische Über-prüfung ist mindestens so aufwändig wie die Umformung von A auf Zeilenstufenform.

3) Der Aufbau der Theorie hätte auch ohne die Postulierung der Leibniz-Formel erfolgenkönnen. Die Tatsache, dass eine Abbildung det : Rn×. . .×Rn → R, die (I)’ und (II)’ erfüllt(siehe Bemerkungen 2.110, 2)) und die Normierung (0) notwendigerweise die Leibniz-Formel aus Definition 2.105 erfüllt (bzw. die Abbildung det / det(1) ohne Forderung (0)),kann man wie folgt einsehen:

Wegen a1 =n∑

i=1a1,iei folgt aus (I)’

det(a1, a2, . . . , an) =n∑

i=1

a1,i det(ei, a2, . . . , an) .

Fortführung dieses Prozesses für alle Zeilen führt zu

det(a1, a2, . . . , an) =n∑

i1=1

. . .

n∑in=1

a1,i1 . . .an,in det(ei1 , . . . , ein )

bzw.

det(a1, a2, . . . , an) =∑

f∈Abb({1,...,n},{1,...,n})a1, f (1) . . .an, f (n) det(e f (1), . . . , e f (n)) .

Ist f : {1, . . . , n} → {1, . . . , n} nicht bijektiv, dann ist es auch nicht injektiv, d. h. es gibt i, j ∈ {1, . . . , n}mit i � j und f (i) = f ( j). Nach (II)’ ist daher dann det(e f (1), . . . , e f (n)) = 0, es muss folglich nur über allePermutationen summiert werden:

det(a1, . . . , an) =∑σ∈∑n

a1,σ(1) . . . anσ(n) det(eσ(1), . . . , eσ(n)) .

Einsetzen von (2.147) unter Beachtung von Bemerkung 2.99 schließt den Beweis ab.

�Adjunkte und die inverse Matrix. Mit Hilfe der Determinante lassen sich „explizite“Darstellungen von A−1 und A−1b angeben, die für theoretische Zwecke, nicht aber zurBerechnung nützlich sind:

Die Streichungsdeterminanten det(Al,k) kann man zu einer n× n-Matrix zusammenfas-sen. Transponiert und mit Vorzeichen versehen heißen diese Determinanten die Adjunktenvon A, und die Matrix

Aad j = ((−1)l+k det(Al,k))t

heißt die Matrix der Adjunkten .

Diese Matrix wurde transponiert, damit das Produkt

Page 149: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 293

AAad j = (aμ,ν)μ:Zeileν:Spalte

·((−1)k+ν det(Ak,ν)

)ν:Zeilek:Spalte

=

⎛⎜⎜⎜⎜⎜⎝ n∑ν=1

aμ,ν(−1)k+ν det(Ak,ν)

⎞⎟⎟⎟⎟⎟⎠μ,k

leicht auszurechnen ist. Die Entwicklung nach Zeilen hat zur Folge, dass alle Diagonaleinträge

(AAad j

)l,l=

n∑ν=1

(−1)ν+l · al,ν · det(Al,ν) = det(A)

sind. Und die Nicht-Diagonaleinträge (l1 � l2)

n∑ν=1

(−1)ν+l2 al1 ,ν det(Al2 ,ν)

kann man interpretieren als Entwicklung nach der l2-ten Zeile für die Determinante derjenigen Matrix,welche aus A entsteht, indem die l2-te Zeile durch die l1-te Zeile ersetzt worden ist. Diese Matrix hat zweigleiche Zeilen, ihre Determinante ist gleich 0, und damit insgesamt(

AAad j)

l1 ,l2= det(A) · δl1,l2 .

Damit haben wir:

Satz 2.118: Inversendarstellung

AAad j = det(A) · 1n .

Wenn det(A) � 0 ist, dann: A−1 = (det(A))−1Aad j.

Cramersche Regel.17 Ist die Matrix A eine n × n-Matrix und ist A invertierbar, so istdie Lösung des Gleichungssystems Ax = b von der Gestalt x = A−1b . Die Lösung wirdalso nach Satz 2.118 gegeben durch

x =1

det(A)· Aad jb .

Die k-te Komponente des Lösungsvektors x ist dann

xk =1

det(A)·

n∑l=1

(Aad j)k,l · bl =1

det(A)·

n∑l=1

(−1)k+l · det(Al,k) · bl .

Die Summe kann interpretiert werden als die Entwicklung der modifizierten Koeffizien-tenmatrix

A(k) :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a1,1 · · · a1,k−1 b1 a1,k+1 · · · a1,n...

......

......

an,1 · · · an,k−1 bn an,k+1 · · · an,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ,17 Gabriel Cramer ∗31. Juli 1704 in Genf †4. Januar 1752 in Bagnols-sur-Cèze

Page 150: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

294 2 Matrizen und lineare Abbildungen

nach der k-ten Spalte, wobei diese in A durch die rechte Seite b ersetzt worden ist. Mitdieser Matrix A(k) erhält man sodann die Lösung x = (x1, . . . , xn)t in der Form

xk = (det(A))−1 det(A(k)

). (2.158)

Dies ist die Cramersche Regel zur Darstellung der Lösung linearer Gleichungs-systeme mit quadratischer und invertierbarer Koeffizientenmatrix.

Bemerkung 2.119 Ab Kapitel 3 werden wir überall versuchen, R durch eine allgemeineZahlmenge K (einen Körper) zu ersetzen, wozu dann auch F2 := {0, 1} gehört mit einerAddition und Multiplikation, in der 2 := 1 + 1 = 0 gilt, die Argumentation in Beweis vonLemma 2.107 somit nicht statthaft ist. Daher:

Beweis (alternativer Beweis von Lemma 2.107): Es seien die Zeile i und j gleich: ai = a j.Sei F : Σn → Σn definiert durch τ �→ τ ◦ σi, j, dann ist F bijektiv (und F−1 = F). F(τ) = τist nicht möglich, da dann τ(i) = τ( j) sein müsste. Durch {{τ, F(τ)} : τ ∈ Σn} wird also einedisjunkte Zerlegung von Σn in n!/2 Teilmengen definiert (beachte n ≥ 2). Betrachten wirzu einer solchen zweielementigen Menge die Summanden in der Leibniz-Formel, somit

s1 = sign(τ)a1,τ(1) . . .ai,τ(i) . . . ai,τ( j) . . . an,τ(n)

s2 = sign(τ ◦ σi, j)a1,τ(1) . . . ai,τ( j) . . . a j,τ(i) . . . an,τ(n) .

Wegen sign(τ ◦ σi, j) = − sign(τ) gilt deshalb s1 = −s2 und insgesamt det(A) = 0 . �

2.6.3 Orientierung und Determinante

Der uns umgebende Raum hat eine Orientierung. Wie jeder weiß wird die im Spiegelgeändert (das ist richtig), weil der Spiegel die rechte und die linke Hand vertauscht (dasweiß jeder, es ist aber falsch). Trotzdem: Es gibt zwei Orientierungen im Raum, die beimSpiegeln an einer Ebene vertauscht werden aber bei Drehungen nicht. Nur, was ist das:Eine Orientierung? Erinnern wir uns an Drehungen und Spiegelungen in der Ebene R2:

Drehung um Spiegelung an0◦ 180◦ α x-Achse y-Achse Achse

(cos

(α2

), sin

(α2

))(1 00 1

) (−1 00 −1

) (cos(α) − sin(α)sin(α) cos(α)

) (1 00 −1

) (−1 00 1

) (cos(α) sin(α)sin(α) − cos(α)

)det 1 1 1 −1 −1 −1

Die zugehörigen Matrizen unterscheiden sich um das Vorzeichen ihrer Determinante. Na-türlich haben nur invertierbare Matrizen eine Determinante ungleich 0 und damit eine

Page 151: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 295

Determinante mit Vorzeichen. In Verallgemeinerung der Spiegelungen in der Ebene defi-nieren wir daher: Eine lineare Abbildung Φ : Rn → Rn ändert die Orientierung des RaumsRn, wenn ihre Determinante negativ ist. Damit wissen wir, wann sich die Orientierung än-dert. In Übereinstimmung damit definieren wir:

Definition 2.120

Zwei Basen a1, ..., an und b1, ..., bn des Rn definieren die gleiche Orientierung, wennbeide n × n-Matrizen

(a1, ..., an) und (b1, ..., bn)

Determinanten mit dem gleichen Vorzeichen haben. Dies definiert eine Äquivalenz-relation „gleiche Orientierung“ auf der Menge der Basen des Rn mit zwei Äquiva-lenzklassen.

Hat die n × n-Matrix A eine Determinante det(A) > 0, so definiert die Basis a1, ..., an diegleiche Orientierung des Rn wie die Basis Aa1, ..., Aan. Wenn det(A) < 0 ist, so definiertsie die andere Orientierung. Also:

Definition 2.121

Eine Orientierung des Rn ist eine Äquivalenzklasse der Relation „gleiche Orientie-rung“, d. h. eine Menge von Basen a1, ..., an des Rn, und zwar die Menge aller Basenmit demselben Vorzeichen von det(a1, ..., an).

Es gibt infolgedessen genau zwei Orientierungen des Rn, weil Determinanten invertier-barer Matrizen zwei Vorzeichen haben können: Die Äquivalenzklasse der Basen a1, ..., an

mit det(a1, ..., an) > 0 und die der Basen mit det(a1, ..., an) < 0.

Beispiele 2.122

1) (n = 1): Die zwei Orientierungen der Geraden R1 sind genau die beiden Richtungen,in der man sie durchlaufen kann.

2) (n = 2): Im R2 gibt es die mathematisch positive Orientierung, definiert durch die Basise1, e2 und die mathematisch negative Orientierung, definiert durch die Basis e1,−e2. Dieseunterscheiden sich nur dadurch, ob man von oben oder von unten auf das Papier schaut(Letzteres ist schwieriger). Dass Peter Henlein18 seine Taschenuhr in die mathematischnegative Richtung laufen ließ, liegt wahrscheinlich daran, dass er sich am „Zeigerverlauf“einer auf dem Boden stehenden Sonnenuhr orientierte. Den Vektor e2 in der Zeichenebenenach oben anzutragen und nicht nach unten, ist auch nicht zwingend.

18 Peter Henlein ∗1479/1480 in Nürnberg †August 1542 in Nürnberg

Page 152: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

296 2 Matrizen und lineare Abbildungen

3) (n = 3): Die beiden Orientierungen des R3 kann man an den Fingern ablesen. Zeigtder Daumen der rechten Hand nach rechts, der Zeigefinger nach vorne, so zeigt der Mittel-finger nach oben. Das ist näherungsweise die Position der Vektoren e1, e2, e3 ∈ R3 (wennman sie sich konventionell vorstellt). Dies definiert die positive Orientierung des R3 undwird unter Rechte-Hand-Regel verstanden. Zeigt der Daumen der linken Hand nach rechts,deren Zeigefinger nach vorne, so zeigt ihr Mittelfinger nach unten. Das definiert die andereOrientierung. ◦Eine Orientierung eines endlichdimensionalenR-Vektorraums kann man genauso als eineÄquivalenzklasse von Basen definieren.

Definition 2.123

Sei V ein n-dimensionaler R-Vektorraum. Zwei Basen a1, . . . , an, b1, . . . , bn definie-ren die gleiche Orientierung, wenn die Darstellungsmatrix C =

(cν,μ

)∈ R(n,n) des

durch Φai = bi, i = 1, . . . , n auf V definierten Isomorphismus bezüglich der Basen{a1, . . . , an} und {a1, . . . , an}, d. h. die durch

bμ =

n∑ν=1

cν,μaν für μ = 1, . . . , n (2.159)

definierte invertierbare Matrix, erfüllt:

det(C) > 0 .

Analog zu Definition 2.121 werden dadurch zwei Orientierungen auf V definiert.Für V = Rn fällt die neue Definition mit der alten zusammen, da (2.159) bedeutet:

B = AC ,

wobei A und B gerade aus den ai bzw. bi als Spalten gebildet werden. Nach Theo-rem 2.111, 1) folgt damit

det(B) = det(A) det(C)

und damit

det(C) > 0 ⇔ det(A) · det(B) > 0 .

Eine Orientierung des Rn hat keinerlei Einfluss auf die Orientierung eines Untervektor-raums. Ist eine Orientierung der Ebene R2 gewählt, so kann man eine Gerade in dieserEbene in jeder ihrer beiden Richtungen durchlaufen. Psychologisch schwierig ist das nurbei den Koordinatenachsen. Da muss sich sodann in Erinnerung gerufen werden, dass diegleiche Orientierung des R2 auch durch jede Basis definiert ist, welche nicht aus den Ein-heitsvektoren besteht. Anders ist dies bei Hyperebenen, wenn die Orientierung in Bezugzu der des Gesamtraums stehen soll. Eine Hyperebene H ⊂ Rn ist ein Untervektorraum der

Page 153: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.6 Die Determinante 297

Dimension n − 1. Eine Orientierung von H wird definiert durch eine Basis a1, ..., an−1 vonH. Durch jeden Vektor an ∈ Rn, an � H kann man sie zu einer Basis des Rn ergänzen. Isteine Orientierung des Rn vorgegeben, so kann die Basis a1, ..., an−1, an diese Orientierungrepräsentieren oder auch nicht. Im letzteren Fall ist a1, ..., an−1,−an eine Basis mit

det(a1, ..., an−1,−an) = − det(a1, ..., an−1, an),

welche die vorgegebene Orientierung des Rn definiert. Wir sehen: Es sei V ein endlichdi-mensionaler R-Vektorraum und H ⊂ V eine Hyperebene. Ist eine Orientierung von V undein Vektor u ∈ V, u � H gegeben, so wird dadurch eine Orientierung von H gegeben. Undzwar ist diese Orientierung von H definiert durch jede Basis a1, ..., an−1 von H derart, dassdie Basis a1, ..., an−1, u die vorgegebene Orientierung von V repräsentiert. Man würde jetztdie Definition von orientierungstreuen Homomorphismen erwarten. Für V = R2 liegt beiBetrachtung von Drehungen (det G > 0) und Spiegelungen (det H < 0) nahe, dies über dieDeterminante der Darstellungsmatrix zu tun. Da diese aber von der gewählten Basis ab-hängig ist, ist sicherzustellen, dass Basiswechsel die Determinante der Darstellungsmatrixnicht ändert. Dies wird erst in Abschnitt 4.1 geschehen. Dort wird gezeigt, dass Basis-wechsel von B zu B′ in V für Φ ∈ Hom(V, V) und die Darstellungsmatrix A = BAB dieExistenz eines C ∈ GL(n,R) bedeutet mit

A′ = C−1AC ,

wobei A′ = B′AB′ die Darstellungsmatrix bezüglich der neuen Basis darstellt. Daher:

det(A′) = (det(C))−1 det(A) det(C) = det(A) .

Im Vorgriff auf diese Ergebnisse definieren wir:

Definition 2.124

Sei V ein n-dimensionaler R-Vektorraum mit fest gewählter Basis B := {u1, . . . , un}.Für Φ ∈ GL(V) sei A ∈ R(n,n) die Darstellungsmatrix bezüglich B. Φ heißt orientie-rungstreu, wenn gilt

det(A) > 0 .

Bemerkung 2.125 A ∈ SO(n,R) ist folglich orientierungstreu, insbesondere die Drehun-gen für n = 2. Spiegelungen (für n = 2) sind nicht orientierungstreu. �Beispiel 2.126 (Geometrie) Der orientierte Winkel zwischen zwei GeradenL : a + Ru und M : b + Rw, also der Winkel mit Vorzeichen, ist eindeutig festgelegt,sobald eine Orientierung der Ebene festgelegt ist, welche beide Geraden aufspannen. ImR2 wird die kanonische Basis e1, e2 als positiv orientiert aufgefasst. Seien u,w ∈ R2 undlinear unabhängig, dann ist die Ebene span(u,w) genau dann positiv orientiert, wenn

Page 154: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

298 2 Matrizen und lineare Abbildungen

[u.w] := det(u,w) = v1w2 − v2w1 > 0. (2.160)

Demnach definiert [u.w] das Vorzeichen des Winkels zwischen u und w. Dann kann derorientierte Winkel zwischen L und M definiert werden als das eindeutige β ∈

[− π

2 ,π2

), so

dass

sin β =[u.w]‖u‖ · ‖w‖ . (2.161)

Wegen

[u.w]2 + (u.w)2 = (v1w2 − v2w1)2 + (v1w1 + v2w2)2

= (v1w2)2 + (v2w1)2 + (v1w1)2 + (v2w2)2

= ‖u‖2 · ‖w‖2

ist insbesondere

[u.w]‖u‖ · ‖w‖ ∈ [−1, 1]

und dann

cos2 α + sin2 β = 1

mit dem nicht orientierten Winkel α ∈ [0, π]. ◦

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• Volumenfunktion• Determinante, Leibniz-Formel• Orientierung

Zusammenhänge

• Determinantenfunktion ist multilinear und schiefsymmetrisch in zwei Zeilen (Theo-rem 2.106)

• Determinanten-Multiplikation-Satz (Theorem 2.111)• Kästchenregel (Hauptsatz 2.114)• Entwicklung nach Spalten und Zeilen (Satz 2.116)• Cramersche Regel (2.158)

Page 155: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

Aufgaben 299

Aufgaben

Aufgabe 2.31 (K) (Vandermondesche Determinante)

Betrachte An ∈ R(n,n) definiert nach (2.149) . Sei gn (t1, . . . , tn) := det(An).

a) Zeigen Sie

gn (t1, . . . , tn) = (t2 − t1) . . . (tn − t1) gn−1 (t2, . . . , tn) .

Hinweis: Durch geeignete Spaltenumformungen kann die erste Zeile von An auf et1

transformiert und dann die Kästchenregel angewendet werden.b) Zeigen Sie

det(An) =n∏

i, j=1i< j

(t j − ti

).

Aufgabe 2.32 (K) Berechnen Sie die Determinante der Matrix⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝0 1 1 1 12 0 2 2 23 3 0 3 34 4 4 0 45 5 5 5 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Aufgabe 2.33 (T) Für A ∈ R(n,n) zeige man:

det(A) = 0 ⇐⇒ Es gibt B ∈ R(n,n) \ {0} mit AB = 0 .

Aufgabe 2.34 (T) In Rn seien die k Vektoren x1, . . . , xk gegeben. Sei A = (ai, j)i, j,i, j = 1, . . . , k, die Matrix mit ai, j =

(x j . xi

). Beweisen Sie: Genau dann sind die Vektoren

x1, . . . , xk linear unabhängig, wenn det(A) � 0 ist.

Aufgabe 2.35 (K) Es sei A = (ai, j)i, j ∈ R(n,n) mit ai, j = (−1)i · i für i + j > n und ai, j = 0sonst, also z. B.

A1 = (−1), A2 =

(0 −12 2

), A3 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 0 0 −10 2 2−3 −3 −3

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ , A4 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝0 0 0 −10 0 2 20 −3 −3 −34 4 4 4

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .Man berechne det(An) für beliebiges n.

Aufgabe 2.36 (T) Seien A, B,C, D reelle n × n-Matrizen und X =(

A BC D

)die durch sie

in Blockschreibweise gegebene 2n × 2n-Matrix. Es gelte AC = CA. Man zeige: det(X) =det(AD − CB), wenn det(A) � 0.

Page 156: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

300 2 Matrizen und lineare Abbildungen

2.7 Das Vektorprodukt

Im Folgenden definieren wir speziell auf R3 (oder dem dreidimensionalen Anschauungs-raum) das Vektorprodukt, d. h. die Zuordnung eines Vektors, was für geometrische odermechanische Betrachtungen sehr nützlich ist.

Für beliebige, fest gewählte a, b ∈ R3 wird durch

x �→ det(a, b, x)

eine Linearform auf R3 definiert. Diese lässt sich (was auch allgemein gilt: Theorem 3.48)eindeutig durch ein c ∈ R3 darstellen.

Satz 2.127

Seien a, b ∈ R3. Sei c ∈ R3 definiert durch

c1 := a2b3 − a3b2

c2 := a3b1 − a1b3

c3 := a1b2 − a2b1 .

(2.162)

Dann ist c der eindeutige Vektor, der erfüllt:

det(a, b, x) = (c . x) für alle x ∈ R3 . (2.163)

Die identischen Ausdrücke in (2.163) werden auch Spatprodukt von a, b, x genanntund stellen dadurch das vorzeichenbehaftete Volumen von P(a, b, x) dar.

Beweis: Sei c ∈ R3 ein Vektor, der (2.163) erfüllt, dann folgt notwendigerweise für x =e1, e2, e3: direkt aus der Sarrusschen Regel oder etwa durch Entwicklung nach der drittenSpalte:

(c . e1) = c1 = det(a, b, e1) = a2b3 − a3b2

(c . e2) = c2 = det(a, b, e2) = a3b1 − a1b3

(c . e3) = c3 = det(a, b, e3) = a1b2 − a2b1

für a = (ai), b = (bi) ∈ R3.

Der so definierte Vektor c erfüllt aber (2.163) nicht nur für die Einheitsvektoren, sondernwegen der Linearitätseigenschaften von Skalarprodukt und Determinante auch für belie-bige x ∈ R3 (Hauptsatz 2.23). Noch einmal konkret durchgeführt:

det

⎛⎜⎜⎜⎜⎜⎜⎝a, b,3∑

i=1

xiei

⎞⎟⎟⎟⎟⎟⎟⎠ = 3∑i=1

xi det(a, b, ei) =3∑

i=1

xi (c . ei) =

⎛⎜⎜⎜⎜⎜⎜⎝c .3∑

i=1

xiei

⎞⎟⎟⎟⎟⎟⎟⎠ , also (2.163) .

Page 157: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.7 Das Vektorprodukt 301

Definition 2.128

Seien a, b ∈ R3. c ∈ R3 definiert nach (2.162) heißt das Vektorprodukt oder Kreuz-produkt von a und b, geschrieben als a × b.

Eine Merkregel dafür erhält man, indem man formal (!) nach Sarrus die „Determinante“

det

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ e1 e2 e3

a1 a2 a3b1 b2 b3

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠bestimmt. Es ist aber sinnvoller, sich bei den folgenden Überlegungen auf die Definitionzu beziehen.

Beispiel 2.129 Wir berechnen das Vektorprodukt der ersten beiden kanonischen Basis-vektoren

e1 × e2 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝100

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ ×⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 0

10

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ =⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 0

01

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ = e3 ,

denn det(e1, e2, ei) = 0 für i = 1, 2 und det(e1, e2, e3) = 1 . Durch zyklisches Vertauschenfindet man ohne weitere Rechnung

e2 × e3 = e1, e3 × e1 = e2.

◦Eine andere Sichtweise ist: Die 2-reihigen Minoren der 3× 2-Matrix (a, b) sind die Kom-ponenten des Vektors a × b:

(a × b)1 = det2,3(a, b)(a × b)2 = det3,1(a, b)(a × b)3 = det1,2(a, b)

Hauptsatz 2.130: Eigenschaften Vektorprodukt

Das Vektorprodukt hat folgende Eigenschaften:

1) Schiefsymmetrie: a × b = −b × a,

2) Linearität in beiden Argumenten (Bilinearität),

3) a × b ist orthogonal zu a und b,

4) a × b = 0⇔ a, b sind linear abhängig.

Page 158: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

302 2 Matrizen und lineare Abbildungen

Beweis: 1), 2) sind Eigenschaften der Determinante.3) gilt wegen (a × b . a) = det(a, b, a) = 0 und analog für b.4) „⇐“ ist eine Eigenschaft der Determinante.4) „⇒“ bedeutet:

det(a, b, x) = 0 für alle x ∈ R3.

Sind a, b linear unabhängig, kann man sie im Widerspruch dazu mit einem x ∈ R3 zueiner Basis ergänzen. �

Es gilt:

det(a, b, a × b) = ‖a × b‖2 > 0

für linear unabhängige a, b entsprechend zu

det(e1, e2, e3) = 1 > 0.

In diesem Sinn haben (a, b, a × b) und (e1, e2, e3) die gleiche Orientierung bzw. hat, wennman die letztere als positiv bezeichnet, (a, b, a × b) positive Orientierung.

Nicht gleichermaßen unmittelbar ergeben sich folgende Aussagen:

Satz 2.131: Eigenschaften Vektorprodukt

Seien a, b, c ∈ R3.

1) Grassmann19-Entwicklung: a × (b × c) = b (a . c) − c (a . b) .

2) Lagrange-Identität: (a × b . c × d) = (a . c) (b . d) − (a . d) (b . c) .

3) ‖a × b‖ =(‖a‖2‖b‖2 − (a . b)2

)1/2.

Beweis: 1): Wegen der Bilinearität der Ausdrücke in b, c für festgehaltenes a ∈ R3 reichtes, die Identität für b, c ∈ {e1, e2, e3} nachzuprüfen, d. h. a ∈ R3, b = e j, c = ek fürj, k ∈ {1, 2, 3}. Wenn j = k ist, ist die Formel richtig, weil beide Seiten gleich 0 sind.Wenn j � k ist, können wir wegen der Schiefsymmetrie beider Seiten in Bezug auf b undc annehmen, dass j < k ist. Dann gibt es die drei Möglichkeiten

j = 1, k = 2 : a × (e1 × e2) = a × e3 = (a2,−a1, 0)t = (a . e2) e1 − (a . e1) e2 ,j = 1, k = 3 : a × (e1 × e3) = −a × e2 = (a3, 0,−a1)t = (a . e3) e1 − (a . e1) e3 ,j = 2, k = 3 : a × (e2 × e3) = a × e1 = (0, a3,−a2)t = (a . e3) e2 − (a . e2) e3 .

(2.164)

2): Mit Satz 2.127 und der bereits gezeigten Grassmann-Entwicklung finden wir

19 Hermann Günther Graßmann ∗15. April 1809 in Stettin †26. September 1877 in Stettin

Page 159: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.7 Das Vektorprodukt 303

(a × b . c × d) = det(a, b, c × d) = det(c × d, a, b) = ((c × d) × a . b)

= − (a × (c × d) . b) = − ((a . d) c − (a . c) d . b)= (a . c) (b . d) − (a . d) (b . c) .

3): Folgt sofort aus 2) für c = a, d = b. �

Bei 1) sind die Skalare rechts ungewöhnlicherweise hinter den Vektoren geschrieben, umdie folgende Merkregel zu gestatten: bac − cab, Klammern hinten.

3) bedeutet nach den Eingangsüberlegungen von Abschnitt 2.6 (siehe (2.146)), dass‖a × b‖ gerade die Fläche des von a, b erzeugten Parallelogramms darstellt.

Das Kreuzprodukt a × b hat deswegen folgende Eigenschaften:

1) a × b ⊥ Ra +Rb .

2) ‖a × b‖ = ‖a‖ ‖b‖ sin α, wobei α ∈ [0, π] der (nichtorientierte) Winkel zwischena und b ist.

3) (a, b, a × b) haben die gleiche Orientierung wie e1, e2, e3, erkenntlich an derRechte-Hand-Regel:Zeigt an der rechten Hand der Daumen in Richtung a, der dazu senkrechte Zeigefin-ger in Richtung b, so zeigt der dazu senkrechte Mittelfinger in Richtung a × b.

Durch die Bedingungen 1)–3) ist a × b auch festgelegt, (2.165)

da durch 1) ein eindimensionaler Unterraum, durch 2) daraus 2 Vektoren und durch3) dann einer ausgewählt wird.

Die Bilinearität (Hauptsatz 2.130, 2)) bedeutet insbesondere, dass für festes a ∈ R3 dieAbbildung

a × − : x �→ a × x, R3 → R3,

linear ist. Mit den Vektorprodukten a × ei berechnet man ihre darstellende Matrix(siehe (2.164))

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 0 −a3 a2

a3 0 −a1−a2 a1 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Die Matrix erfüllt A = −At, sie ist also schiefsymmetrisch (siehe Definition 4.38). Wenna � 0 ist, dann gilt Rang A = 2 und damit allgemein det(A) = 0. Es gilt nämlich

Rang A = 2⇔ dim Kern At = 3 − 2 = 1

und nach Hauptsatz 2.130, 4) haben wir

Page 160: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

304 2 Matrizen und lineare Abbildungen

x ∈ Kern A ⇔ a × x = 0 ⇔ a, x sind linear abhängig ⇔ x ∈ span(a)

und damit auch: Bild A = a⊥ .

Satz 2.132: Vektorproduktabbildung

Für a � 0 ist die Abbildung

a × _ : R3 → a⊥ ⊂ R3

surjektiv. Das Urbild eines jeden Vektors c ∈ a⊥ ist eine affine Gerade mit Rich-tungsvektor a.

Beweis: Sei Φ := a × _. Bild Φ ⊂ a⊥ ist klar, sei andererseits z ∈ a⊥ und y ∈ R3, ‖y‖ = 1eine Ergänzung von a, z, so dass a, y, z eine orthogonale Basis von R3 darstellt mit

det(a, y, z) > 0

Für y := ‖z‖/‖a‖ y gilt auch:

‖z‖ = ‖a‖ ‖y‖und damit nach (2.165) z = Φy. Das Urbild eines jeden Vektors c ∈ a⊥ ist ein affinerUnterraum der Dimension 1, folglich eine Gerade Lc, da dim Kern A = 1. Mit a× x = c istauch a × (x + λa) = c für alle λ ∈ R. Somit hat jede Gerade Lc den Richtungsvektor a. �

Problematisch am Vektorprodukt ist, dass es sich anders transformiert als andere Vektoren.

Satz 2.133: Transformation Vektorprodukt

Es sei M eine invertierbare 3 × 3-Matrix. Für alle a, b ∈ R3 gilt dann

(Ma) × (Mb) = det(M)(M−1)t(a × b).

Beweis: Nach Satz 2.127 ist für alle x ∈ R3

((Ma) × (Mb) . x) = det(Ma, Mb, x) = det(M) det(a, b, M−1 x) =

= det(M)(a × b . M−1x

)= det(M)

((M−1)t(a × b) . x

).

Daraus folgt die behauptete Gleichung. �

Page 161: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.7 Das Vektorprodukt 305

Im Allgemeinen unterscheidet sich das Transformationsverhalten (unter linearen Abbil-dungen) des Vektors a × b sehr vom Transformationsverhalten seiner Faktoren a und b.Nur wenn M orthogonal ist, haben wir (M−1)t = M.

Sei M ∈ O(3,R), dann gilt:

(Ma) × (Mb) = M(a × b) falls M ∈ SO(3,R),(Ma) × (Mb) = −M(a × b) falls M � SO(3,R).

Das Vektorprodukt im R3 hat direkte Anwendungen.

Bemerkungen 2.134

1) Betrachtet werde ein einfaches, aber häufig vorkommendes homogenes LGS mit dreiUnbekannten und zwei Gleichungen

a1x1 + a2x2 + a3x3 = 0 ,

b1x1 + b2x2 + b3x3 = 0 ,

wobei die Zeilenvektoren a = (a1, a2, a3)t und b = (b1, b2, b3)t linear unabhängig sind.Sein Lösungsraum L hat die Dimension 1 und besteht aus allen Vektoren, welche gleich-zeitig auf a und b senkrecht stehen. Er wird erzeugt von a × b.

*2) In der Mechanik:

2a) Ein Vektorfeld auf R3 ist eine Abbildung F : R3 → R3. Das zugehörige Momenten-feld ist

G : R3 → R3, x �→ x × F(x).

Beschreibt etwa F ein Kraftfeld, so heißt G das Drehmoment, beschreibt F ein Geschwin-digkeitsfeld von Teilchen der Masse m, so heißt mG der Drehimpuls.

2b) Infinitesimale Beschreibung einer Rotation: Wir betrachten die Matrix

Re3 (ωt) :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ cos(ωt) − sin(ωt) 0sin(ωt) cos(ωt) 0

0 0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ , t ∈ R.

Sie beschreibt eine gleichförmige Rotation um die e3-Achse in mathematisch positiverRichtung in Abhängigkeit von der Zeit t. Dabei ist die Winkelgeschwindigkeit ω = 2π/T ,wo T die Dauer einer Rotation um den Winkel 2π ist. Die Geschwindigkeit eines gedrehtenPunktes x ∈ R3 zur Zeit t = 0 ist

ddt

Re3 (t)x∣∣∣t=0 =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 0 −ω 0ω 0 00 0 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ x1

x2

x3

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ = ω

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝−x2x1

0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ = ωe3 × x.

Wir wollen ähnlich die infinitesimale Drehung Ra(t) um eine beliebige Achse Ra be-schreiben. Dabei sei ‖a‖ = 1, und bei Blickrichtung in Richtung von a soll die Drehung

Page 162: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

306 2 Matrizen und lineare Abbildungen

im Uhrzeigersinn erfolgen. Wir wählen eine Matrix U ∈ SO(3) mit Ua = e3. Dann istnämlich – wie in Theorem 4.4 bewiesen wird –

Ra(t) = U−1Re3 (t)U

und die Geschwindigkeit u in x zum Zeitpunkt t = 0

u :=ddt

Ra(t)x∣∣∣∣∣t=0= U−1 d

dtRe3 (t)

∣∣∣∣∣t=0

Ux = U−1 (ωe3 × Ux) .

Mit der Transformationsformel (Satz 2.133) wird daraus

(U−1ωe3) × (U−1Ux) = ωa × x.

Hier können wir noch den Vektor ω = ωa der Winkelgeschwindigkeit einführen undfinden

u = ω × x.

Alternativ kann man diese Darstellung auch aus folgenden Forderungen herleiten:

1) u ⊥ x, a, also u = λa × x für ein λ ∈ R.

2) ‖u‖ = ωr, wobei r = ‖x − PRax‖ = ‖x‖ sin α, wenn α ∈ [0, π] der Winkel zwischen xund a ist. Also: λ = ±ω.(a, x, u) müssen positiv orientiert sein, daher wegen ω ≥ 0:

u = ωa × x . �

�����������

α

}r

x

a

·

u senkrecht in Zeichenebene hinein

Abb. 2.13: Drehung in R3 um Achse a.

Bemerkungen 2.135 (Geometrie)

1) Die Situation von Bemerkungen 2.134, 1) geometrisch beschrieben für L⊥ lautet: Be-trachtet werde eine Ebene E = u+Ra+Rb im R3. Weil a und b die Ebene aufspannen, sind

Page 163: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.7 Das Vektorprodukt 307

sie linear unabhängig, und es ist a × b � 0 ein Normalenvektor der Ebene. Die Gleichung

(a × b . x) = 0

beschreibt deswegen eine Ebene durch den Nullpunkt, welche von a und b aufgespanntwird. Eine Ebene E mit u ∈ E ist Lösungsmenge der inhomogenen Gleichung

(a × b . x) = (a × b . u) .

2) Sei P der von a, b, c ∈ R3 aufgespannte Spat, dann gilt für sein Volumen nach Ab-schnitt 2.6.2

vol(P) = | det(a, b, c)| = | (a × b . c) | .

3) Betrachtet werde eine Gerade a+Ru im R3 mit Aufhängevektor a und Richtungsvektoru. Der Vektor w := a× u heißt Momentenvektor dieser Gerade. Die sechs Koordinaten desVektors (u,w) ∈ R6 heißen Plücker20-Koordinaten der Gerade L. Der Richtungsvektor uist durch die Gerade L nur bis auf einen konstanten Faktor ungleich 0 eindeutig bestimmt.Deswegen sind die Plücker-Koordinaten von L auch nur bis auf einen solchen Faktoreindeutig bestimmt. Sind umgekehrt zwei Vektoren

u ⊥ w ∈ R3, u � 0

gegeben, so gibt es nach Satz 2.132 Vektoren a ∈ R3 mit a × u = w. Die Menge all dieserVektoren a ist eine affine Gerade im R3 mit Richtungsvektor u und Momentenvektor w. �

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• Vektorprodukt

Zusammenhänge

• Eigenschaften des Vektorprodukts (Hauptsatz 2.130, Satz 2.132)

Beispiele

• Ebenendarstellung mit Vektorprodukt• Winkelgeschwindigkeit

20 Julius Plücker ∗16. Juni 1801 in Elberfeld †22. Mai 1868 in Bonn

Page 164: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

308 2 Matrizen und lineare Abbildungen

Aufgaben

Aufgabe 2.37 (G) Zeigen Sie: Der Punkt x ∈ R3 hat von der Ebene w + Ra + Rb denAbstand

| (w − x . a × b) |‖a × b‖

und deuten Sie diesen Quotienten als

Höhe =Volumen

Grundfläche

eines Parallelotops.

Aufgabe 2.38 (Jacobi (T)) Zeigen Sie für alle a, b, c ∈ R3

a × (b × c) + b × (c × a) + c × (a × b) = 0.

Aufgabe 2.39 (K) Finden Sie eine Parametrisierung der Geraden

L1 mit den Plücker-Koordinaten (1, 0, 0, 0, 1, 0),L2 mit den Plücker-Koordinaten (1,−1, 0, 1, 1, 1).

Aufgabe 2.40 (T) Es sei L ⊂ R3 eine Gerade mit Richtungsvektor u. Zeigen Sie:

a) Sei x ∈ L ein beliebiger Punkt und m := x × u. Zeigen Sie: m hängt nicht davonab, welchen Punkt x ∈ L man wählt, ist also der Momentenvektor.

b) (u . m) = 0.c) Die Gerade L ist durch ihren Richtungsvektor und ihren Momentenvektor eindeutig

bestimmt.d) Zu je zwei Vektoren 0 � u ∈ R3 und m ∈ R3 mit (u . m) = 0 gibt es eine eindeutig

bestimmte Gerade L ⊂ R3, welche u als Richtungsvektor und m als Momenten-vektor besitzt.

Page 165: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.8 Affine Räume II 309

2.8 Affine Räume II

Wir greifen die Diskussion aus Abschnitt 1.7 wieder auf. Die mit der affinen Strukturverträglichen Abbildungen sind:

Definition 2.136

Seien A, A′ affine Räume zu den R-Vektorräumen V, V ′, T : A → A′ heißt affin-linear, wenn gilt:

Seien a, b ∈ A, t, s ∈ R und t + s = 1, dann

T (ta + sb) = tT (a) + sT (b) .

T heißt Affinität, wenn es zusätzlich auch bijektiv ist.

Bemerkungen 2.137

1) T : A → A′ ist affin-linear genau dann, wenn das Bild jeder Affinkombination dieAffinkombination der Bilder ist. (Übung).

2) Aus 1) folgt:Begriffe des Abschnitts 1.7, wie

• Affinkombination,• affiner Unterraum,• aufgespannter affiner Unterraum,

bleiben unter affin-linearen Abbildungen erhalten.Ist T eine Affinität, dann bleiben auch erhalten:

• Affine Unabhängigkeit,• Dimension eines affinen Unterraums.

3) Die Komposition affin-linearer Abbildungen ist affin-linear. Eine Translation a �→ a+ ufür a ∈ V und einen festen Vektor u ∈ V ist affin-linear.

4)

Sei T : A → A′ eine Affinität, dann ist auch T−1 affin-linear. A und A′ heißen dannisomorph.

5) Die Abbildung Ψ aus (1.92) ist affin-linear und somit ist Ψ [A] ⊂ Rn+1 ein affinerUnterraum, der isomorph zu A ist. �

Page 166: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

310 2 Matrizen und lineare Abbildungen

Speziell für A = V gilt:

Satz 2.138: affin = linear + konstant

Seien V, W R-Vektorräume.F : V → W ist genau dann affin(-linear), wenn es sich als Komposition einer linearenAbbildung Φ von V nach W und einer Translation T auf W, F = T ◦ Φ, schreibenlässt, d. h.

F(x) = Φ(x) + a für alle x ∈ V

für ein a ∈ W.

Beweis: Es ist nur „⇒“ zu der Äquivalenz zu zeigen: Wie in Satz 2.12 lässt sich T unterBeachtung von Bemerkungen 2.137, 3) als Kompostion einer affin-linearen Abbildung Φmit Φ(0) = 0 und einer Translation schreiben, d. h. T (x) = Φ(x) + a. Φ ist verträglich mitder Skalarmultiplikation, da

Φ(λx) = Φ(λx + (1 − λ)0) = λΦ(x) + (1 − λ)Φ(0) = λΦ(x)

für λ ∈ R, x ∈ V und daher auch mit der Addition

Φ(λx + μy) =Φ((λ + μ)

λ + μx +

μ

λ + μy

))=(λ + μ)

λ + μΦ(x) +

μ

λ + μΦ(y)

)für λ, μ ∈ R, x, y ∈ V .

Hierbei kann o. B. d. A. λ + μ � 0 angenommen werden, da der verbleibende Fall schonoben erfasst ist. �

Bemerkungen 2.139

1) Mit etwas mehr Aufwand lässt sich allgemein folgende Charakterisierung für T : A→A′ zeigen, wobei A, A′ affine Räume zu R-Vektorräumen V, V ′ seien:

T ist affin-linear genau dann wenn:Es gibt ein lineares Φ : V → V ′, so dass für alle a, b ∈ A gilt

Φ(−→ab) =

−−−−−−−→T (a)T (b) .

2) Eine affin-lineare Abbildung T ist somit genau dann eine Translation, wenn

−→ab =

−−−−−−−→T (a)T (b) für a, b ∈ A .

3) Aus 1) oder Satz 2.138 folgt für eine affin-lineare Abbildung T : Sind a0, a1, a2 Punkteauf einer Geraden, d. h.−−−→a0a1 und−−−→a0a2 sind linear abhängig, so liegen auch T (a0), T (a1), T (a2)

Page 167: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.8 Affine Räume II 311

auf einer Gerade: T ist daher eine Kollineation, die Geraden auf Geraden oder Punkte(wenn Φ(−−−→a0a1) = 0) abbildet. Eine Affinität bildet Geraden auf Geraden ab. Sind zweiGeraden g1 : a+Ru und g1 : b+Rw parallel, d. h. o. B. d. A. u = w � 0, so sind die Bilderentweder Punkte (wenn Φ(u) = 0) oder parallele Geraden.

4) Sei V ein R-Vektorraum des affinen Raum über sich selbst betrachtet. AffinitätenT (x) = Φx + a können nach ihren Fixpunkten klassifiziert werden, d. h. der x ∈ V , sodass

Φx + a = x bzw. (id−Φ)x = a .

Sei V n-dimensional. In einer Koordinatendarstellung handelt es sich um die Lösungsmen-ge eines (inhomogenen) LGS, so dass für

F : {x ∈ V : x ist Fixpunkt von T }gilt:T ist leer oder T ist ein k-dimensionaler affiner Unterraum von V , 0 ≤ k ≤ n.Wir betrachten folgende Fälle weiter:

(1) F = ∅,(2) dim F = 0: T hat genau einen Fixpunkt, hier spricht man von einer radialen Affi-

nität,

(3) dim F = n − 1: F bildet eine affine Hyperebene, hier spricht man von einer per-spektiven Affinität.

Für n = 2 sind alle Fälle (außer dem Trivialfall Φ = id, a = 0) erfasst.Zu (1) gehören z. B. die Translationen, (2) ist durch Rang(1−A) = n charakterisiert, wennA eine Darstellungsmatrix von Φ bezeichnet. Bei (3) kommt neben Rang(1 − A) = n − 1bzw. dim Kern(1 − A) = 1 noch die Lösbarkeitsbedingung a ∈ Bild(1 − Φ) hinzu. �

Bemerkung 2.140 Sei dim A = n und für einen affinen Unterraum B = a +−→B , dim B = k.

Dann gibt es linear unabhängige Linearformen hi ∈ V∗, i = 1, . . . , l, wobei l = n − k, sodass gilt:

B = {b ∈ A : hi(−→ab) = 0, i = 1, . . . , l} .

Insbesondere hat also eine affine Hyperebene die Darstellung

B = {b ∈ A : h(−→ab) = 0}

für ein h ∈ V∗, h � 0. Ist A = V affiner Raum zu sich selbst, gilt äquivalent

B = {b ∈ A : hi(b) = ci, i = 1, . . . , l} ,wobei ci := hi(a), i = 1, . . . , l.

Page 168: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

312 2 Matrizen und lineare Abbildungen

Das kann man wie folgt einsehen: Wir können dies nur für A = An, V = Rn beweisen. Nach Korollar 1.83lässt sich

−→B schreiben als

−→B = {x ∈ Rn : Ax = 0} ,

wobei A ∈ R(l,n) vollen Zeilenrang l hat. a(1), . . . , a(l) ∈ Rn seien die Zeilen von A, dann sind hi(x) := at(i) x

die gesuchten Linearformen, also

B = {b ∈ Rn : Ab = c} ,wobei c := Aa.

�Beispiel 2.141 Für die orthogonale Projektion auf einen affinen Raum A = a+U gilt nach(1.77)

PA(x) = PU(x − a) + a= PU(x) + a − PU(a)= PU(x) + PU⊥ (a) . (2.166)

Folglich ist PA affin-linear.Die aus der Fehlerorthogonalität (siehe Hauptsatz 1.102) folgende Charakterisierung

von PA(x) ist für x ∈ V, u ∈ U:

u + a = PA(x)⇔ u + a − x ∈ U⊥ , (2.167)

d. h. wieder eine Fehlerorthogonalität.Zur Begründung beachte man:

u + a = PA(x) = PU (x) + PU⊥ (a) ⇔u + a − PU⊥ (a) − x ∈ U⊥ ⇔u + a − x ∈ U⊥ + PU⊥ (a) = U⊥ .

Die Abbildung 2.14 verdeutlicht die Situation für V = R2 und U = Ru.

Beispiel 2.142 (Geometrie) Sei V ein R-Vektorraum mit SKP ( . ) und erzeugter Norm‖ ‖. Seien g1 : a + Rp und g2 : b + Rq windschiefe Geraden, dann gibt es nach Bei-spiel 1.107 eindeutige x ∈ g1, y ∈ g2, sodass

‖x − y‖ = d(g1, g2) .

Für n := x − y gilt:

1) n steht orthogonal auf p und auf q, ist also ein Gemeinlot.

2) d(g1, g2) = (a − b . n), wobei n := n/‖n‖.3) Im Fall V = R3 mit dem euklidischen SKP ( . ) gilt:

Page 169: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.8 Affine Räume II 313

�����������������������

�����������������

������

������������

����������

���������

��������������

��

��

������������

������������������

U⊥

PU⊥ (a)

a

x

PA(x)

PU (x)

v

Ua + U

Abb. 2.14: Orthogonalprojektion auf linearen und affinen Unterraum.

d(g1, g2) =1

‖p× q‖ |(a − b . p× q)| .

Nach Beispiel 1.107 gibt es eindeutig bestimmte Punkte

x := a + λp ∈ g1 und y = b + μq ∈ g2

mit

‖x − y‖ = d(g1 , g2) und μq − λp = Pspan(p,q)(a − b) .

Insbesondere ist

n := x − y = a − b − (μq − λp)

der Fehler bei dieser orthogonalen Projektion und damit orthogonal zu p und q. Für n := n/‖n‖ berechnetsich

d(g1 , g2) = ‖n‖ = (n . n) = (a − b . n)

und damit gelten 1) und 2).Unter den Zusatzvoraussetzungen von 3) lässt sich n und damit n explizit angeben, nämlich

n = ± 1‖p× q‖ p× q

Page 170: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

314 2 Matrizen und lineare Abbildungen

(siehe Hauptsatz 2.130, 3)) und damit

d(g1 , g2) =1

‖p× q‖ | (a − b . p× q)| .

◦Sei B = {a0, . . . , am} eine affine Basis von B ⊂ A, d. h. nach Satz 1.124:Jedes a ∈ B lässt sich eindeutig als Affinkombination aus a0, . . . , am darstellenEs gibt ein eindeutiges (t0, . . . , tm)t ∈ Rm+1, so dass

• ∑mi=0 ti = 1 ,

• a =∑m

i=0 tiai .

Auf diese Weise wird eine bijektive Abbildung

ΦB : B→⎧⎪⎪⎨⎪⎪⎩t ∈ Rm+1 :

m∑i=0

ti = 1

⎫⎪⎪⎬⎪⎪⎭ , (2.168)

d. h. zwischen affinen Räumen, definiert. Analog zum Beweis von Satz 1.121, 2) sieht man,dass ΦB und damit auch Φ−1

Baffin-linear sind. Dies entspricht daher der Koordinatendar-

stellung für einen linearen Unterraum.

Definition 2.143

Sei A ein affiner Raum zum R-Vektorraum V , dim A = m, und B = {a0, . . . , am}eine festgewählte affine Basis von A. Der zu a ∈ A nach (2.168) eindeutige Vektor(t0, . . . , tm)t ∈ Rm+1 heißt Vektor der baryzentrischen Koordinaten, bzw. die ti, i =0, . . . , m heißen die baryzentrischen Koordinaten von a (zur Basis B).

RLGS Für A = Am werden die baryzentrischen Koordinaten (t0, . . . , tm)t von x =(x1, . . . , xm)t zur Basis ai = (a j,i) j, i = 0, . . . , m durch das folgende LGS definiert:

m∑j=0

ai, jt j = xi, i = 1, . . . , m,

m∑i=0

ti = 1 .

Die baryzentrischen Koordinaten lassen sich also „explizit“ mit der Cramerschen Regelangeben (siehe (2.158)):

ti := det(

a0 · · · x · · · am

1 · · · 1 · · · 1

) /det

(a0 · · · am

1 · · · 1

)(2.169)

= det (a1 − a0 · · · x − a0 · · · am − a0)/

det (a1 − a0 · · · am − a0) für i = 1, . . . , m

Page 171: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

2.8 Affine Räume II 315

durch Subtraktion der ersten Spalten von den folgenden und Entwicklung nach den letztenZeilen (siehe Satz 2.116). Nach (2.169) ist also ti der Quotient aus den vorzeichenbehafte-ten Volumina der von

−−−→a0a1, . . . ,−−→a0x, . . . ,−−−→a0am und von −−−→a0a1, . . . ,

−−−→a0am

aufgespannten Parallelotopen. Man spricht daher auch von Volumenkoordinaten.Speziell für m = 2, d. h. die affine Ebene A2 ist

t1 = det(−−→a0x,−−−→a0a2)/ det(−−−→a0a1,−−−−→a0, a2)

t2 = det(−−−→a0a1,−−→a0x)/ det(−−−→a0a1,

−−−−→a0, a2)t0 = 1 − t1 − t2 .

Da hier die (vorzeichenbehafteten) Flächen der Parallelotope, d. h. der Parallelogramme,dem Doppelten der aufgespannten Dreiecke entsprechen, gilt somit:Bezeichnet V(−→u ,−→v ) die vorzeichenbehafteten Flächen des von −→u ,−→v ∈ A2 mit Eckpunkta0 aufgespannten Dreiecks Δ(−→u ,−→v ), d. h.

Δ(−→u ,−→v ) := {a ∈ A2 : a = a0 + s−→u + t−→v , 0 ≤ s, t ≤ 1, s + t = 1}V(−→u ,−→v ) := det(−→u ,−→v )/2 ,

dann ist

t1 = V(−−→a0x,−−−→a0a2)/V(−−−→a0a1,−−−→a0a2)

t2 = V(−−−→a0a1,−−→a0x)/V(−−−→a0a1,

−−−→a0a2)

t0 = V(−−→a1x,−−→a2x)/V(−−−→a0a1,−−−→a0a2) .

Siehe hierzu auch Abbildung 2.15.

Bemerkung 2.144 Sei A ein affiner Raum zum R-Vektorraum V . Die Punkte a, b, c stehenim Teilverhältnis λ ∈ R, wenn gilt:

−→ac = λ−→cb .

Seien a � b und g := spana(a, b) die aufgespannte Gerade. Dann haben genau alle c ∈g \ {b} ein Teilverhältnis. Sei c in baryzentrischen Koordinaten gegeben durch

c = ta + (1 − t)b, t ∈ R, t � 0 ,

so gilt

λ =1 − t

tbzw. t =

1λ + 1

.

Es ist nämlich

−→ac = (1 − t)−→ab = (1 − t)(−→ac +

−→cb) .

Page 172: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

316 2 Matrizen und lineare Abbildungen

a) x ∈ Δ(−→u ,−→v ):

x

a0

a1

a2

−→u−→v

V(−−−→a0a1,−−→a0x) > 0

V(−−→a0 x,−−−→a0a2) > 0

V(−−→a1 x,−−→a2 x) > 0

b) x � Δ(−→u ,−→v ):

x

a0

a1

a2

−→u−→v

V(−−−→a0a1,−−→a0x) > 0

V(−−→a0 x,−−−→a0a2) > 0

V(−−→a1 x,−−→a2 x) < 0

Abb. 2.15: Baryzentrische Koordinaten in A2.

Da für die Bilder einer affin-linearen Abbildung T gilt

T (c) = tT (a) + (1 − t)T (b)

sind also bei einem Teilverhältnis λ für a, b, c alle Punkte T (a), T (b), T (c) identisch oderstehen auch im Teilverhältnis λ. Das Teilverhältnis ist demnach neben Kollinearität undParallelität eine weitere Invariante affin-linearer Abbildungen. �

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Affin-lineare Abbildung, Affinität• Baryzentrische Koordinaten

Zusammenhänge:

Page 173: [Springer-Lehrbuch] Lineare Algebra || Matrizen und lineare Abbildungen

Aufgaben 317

• Affin-linear = linear + konstant (Satz 2.138)• Baryzentrische Koordinaten = Volumenkoordinaten (siehe (2.169))

Aufgaben

Aufgabe 2.41 (T) Zeigen Sie Bemerkungen 2.137, 1).

Aufgabe 2.42 (T) Beweisen Sie Bemerkungen 2.139, 1).


Recommended