+ All Categories
Home > Documents > [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

[Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

Date post: 08-Dec-2016
Category:
Upload: wolf
View: 215 times
Download: 0 times
Share this document with a friend
144
Kapitel 1 Der Zahlenraum R n und der Begrides reellen Vektorraums 1.1 Lineare Gleichungssysteme 1.1.1 Beispiele und Spezialfälle Lineare Gleichungssysteme sind die einzige Art von Gleichungen in der Mathematik, wel- che wirklich exakt lösbar sind. Wir beginnen mit einem Beispiel, wie es schon aus der Antike überliefert ist. Beispiel 1(1) – Historische Probleme In einem Käfig seien Hasen und Hühner. Die Anzahl der Köpfe sei insgesamt 4, die Anzahl der Beine sei insgesamt 10. Frage: Wieviele Hasen und wieviele Hühner sind es? Lösung: Es sei x die Anzahl der Hasen und y die Anzahl der Hühner. Dann gilt also x + y = 4 , 4x + 2y = 10 . Dies ist ein System aus zwei linearen Gleichungen in zwei Unbekannten x und y. Wir können mittels der ersten Gleichung x = 4 y eliminieren, in die zweite einsetzen und die folgenden äquivalenten Umfor- mungen machen: 4(4 y) + 2y = 10 , 16 2y = 10 , 2y = 6, y = 3. Durch Einsetzen von y in eine der beiden Gleichungen erhält man schließlich x = 1. Beispiel 1 ist eines von vier Beispielen, welche immer wieder aufgegrien werden. Dabei erscheinen die Nummern der Teile in nachgestellten Klammern. Beispiel 2(1) – Elektrisches Netzwerk Es sei ein elektrisches Netzwerk, wie in Abbildung 1.1 darge- stellt, gegeben. Dabei seien die angelegte Spannung U und die Widerstände R 1 , R 2 , R 3 1 gegeben, die Stromstärken I 1 , I 2 und I 3 an den Widerständen sind gesucht. Lösung: Nach den sogenannten Kirchhoff 2 schen Gesetzen der Physik hat man die Gleichungen 1 Hier und im Folgenden wird intensiv von der Indexschreibweise (siehe Anhang B.2) Gebrauch gemacht. 2 Gustav Robert Kirchhoff 12. März 1824 in Königsberg 17. Oktober 1887 in Berlin 1 P. Knabner, W. Barth, Lineare Algebra, Springer-Lehrbuch, DOI 10.1007/978-3-642-32186-3_1, © Springer-Verlag Berlin Heidelberg 2013
Transcript
Page 1: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

Kapitel 1

Der Zahlenraum Rn und der Begriff des reellen

Vektorraums

1.1 Lineare Gleichungssysteme

1.1.1 Beispiele und Spezialfälle

Lineare Gleichungssysteme sind die einzige Art von Gleichungen in der Mathematik, wel-che wirklich exakt lösbar sind. Wir beginnen mit einem Beispiel, wie es schon aus derAntike überliefert ist.

Beispiel 1(1) – Historische Probleme In einem Käfig seien Hasen und Hühner. Die Anzahl der Köpfesei insgesamt 4, die Anzahl der Beine sei insgesamt 10. Frage: Wieviele Hasen und wieviele Hühner sindes?

Lösung: Es sei x die Anzahl der Hasen und y die Anzahl der Hühner. Dann gilt also

x + y = 4 ,4x + 2y = 10 .

Dies ist ein System aus zwei linearen Gleichungen in zwei Unbekannten x und y. Wir können mittels derersten Gleichung x = 4 − y eliminieren, in die zweite einsetzen und die folgenden äquivalenten Umfor-mungen machen:

4(4 − y) + 2y = 10 ,16 − 2y = 10 ,−2y = −6 ,

y = 3 .

Durch Einsetzen von y in eine der beiden Gleichungen erhält man schließlich x = 1. �

Beispiel 1 ist eines von vier Beispielen, welche immer wieder aufgegriffen werden. Dabeierscheinen die Nummern der Teile in nachgestellten Klammern.

Beispiel 2(1) – Elektrisches Netzwerk Es sei ein elektrisches Netzwerk, wie in Abbildung 1.1 darge-stellt, gegeben. Dabei seien die angelegte Spannung U und die Widerstände R1, R2, R3

1 gegeben, dieStromstärken I1, I2 und I3 an den Widerständen sind gesucht.

Lösung: Nach den sogenannten Kirchhoff2schen Gesetzen der Physik hat man die Gleichungen

1 Hier und im Folgenden wird intensiv von der Indexschreibweise (siehe Anhang B.2) Gebrauch gemacht.2 Gustav Robert Kirchhoff ∗12. März 1824 in Königsberg †17. Oktober 1887 in Berlin

1P. Knabner, W. Barth, Lineare Algebra, Springer-Lehrbuch, DOI 10.1007/978-3-642-32186-3_1, © Springer-Verlag Berlin Heidelberg 2013

Page 2: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

2 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

I1 = I2 + I3 , R2I2 = R3I3 und R1I1 + R2I2 = U (MM.1)

(das ist die stattfindende mathematische Modellierung des betrachteten Problems, in Abschnitt 1.6 werdenwir dazu genauere Überlegungen anstellen). Wir schreiben sie als ein System aus drei linearen Gleichun-gen in den drei Unbekannten I1, I2 und I3.

Wir können hier etwa I1 = I2 + I3 eliminieren, um folgendes System aus zwei linearen Gleichungen in denUnbekannten I2 und I3 zu erhalten, nämlich die zum Ausgangssystem äquivalenten Gleichungen:

R2I2 − R3I3 = 0 ,(R1 + R2)I2 + R1I3 = U .

Hier eliminieren wir I2 =R3R2

I3 (da gemäß seiner Bedeutung im Modell R2 � 0!) und erhalten schließlicheine Gleichung, die sich wie nachfolgend äquivalent umschreiben lässt:

(R1 + R2)R3

R2I3 + R1I3 = U ,

(R1R2 + R1R3 + R2R3)I3 = R2U ,

I3 =R2U

R1R2 + R1R3 + R2R3

(Division erlaubt, siehe oben). Aus den Eliminationsgleichungen für I2 und I1 erhalten wir

I2 =R3U

R1R2 + R1R3 + R2R3, I1 =

(R2 + R3)UR1R2 + R1R3 + R2R3

.

Dieses Beispiel wird in weiteren Abschnitten immer wieder aufgegriffen werden. �

Beispiel 3(1) – Massenkette Als Nächstes beschreiben wir ein einfaches mechanisches Beispiel, eineMassenkette: Gegeben seien n − 1 Massen M1, . . . , Mn−1 (als Punkte aufgefasst, die im folgenden Knotenheißen), die durch Federn F2, . . . , Fn−1 miteinander verbunden sind. Die Feder Fi ist zwischen den MassenMi−1 und Mi eingespannt. Zusätzlich sind vorerst die Massen M1 und Mn−1 durch Federn F1 bzw. Fnmit einem festen Knoten M0 bzw. Mn verbunden. Man kann sich (muss aber nicht) die Massenkettenals senkrecht (d. h. in Gravitationsrichtung) eingespannt denken (siehe Abbildung 1.2). Ohne Einwirkungirgendwelcher Kräfte (also auch ohne Gravitationskraft) nehmen die Massen eine feste Position an, ausder sie durch an ihnen einwirkende Kräfte b1, . . . , bn−1 ausgelenkt werden. Um die Kräfte durch Zahlenbeschreiben zu können, nehmen wir an, dass alle Kräfte in eine ausgezeichnete Richtung wirken, etwa inGravitationsrichtung. Das Vorzeichen der Kraft bi gibt dann an, ob diese in die ausgezeichnete Richtung(bi > 0) oder entgegen wirkt (bi < 0). Das Gleiche gilt für die durch die Kraftwirkung erzeugte Auslenkung(oder Verschiebung) x0, . . . , xn der (Masse-)Punkte 0, . . . , n. Diese Auslenkungen sind zu bestimmen. Die

I II

R3

R1

R2

3

1

2

U

Abb. 1.1: Ein einfaches elektrisches Netzwerk.

Page 3: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 3

feste Einspannung von M0 und Mn bedeutet

x0 = xn = 0 .

Für x1, . . . , xn−1 ergibt sich ein System aus linearen Gleichungen aus zwei wesentlichen Bausteinen:

1) Kräftebilanz: Die in jedem Knoten wirkenden Kräfte (äußere: bi und innere) addieren sich zu 0.2) Hooke3sches Gesetz (als konstitutives Gesetz): Die innere Kraft einer Feder ist proportional zur

Dehnung (Proportionalitätsfaktor ci > 0).

Dies liefern die Bestimmungsgleichungen (siehe Abschnitt 1.6) für i = 1, . . . , n − 1 :

−ci xi−1 + (ci + ci+1)xi − ci+1 xi+1 = bi . (MM.2)

In der ersten und letzten Gleichung fallen x0 bzw. xn wegen der obigen Bedingung weg. Sind alle Feder-konstanten ci gleich (etwa c), so vereinfachen sich die Gleichungen zu

2x1 − x2 = b1/c ,

−xi−1 + 2xi − xi+1 = bi/c für i = 2, . . . , n − 2 , (MM.3)

−xn−2 + 2xn−1 = bn−1/c .

Variieren wir das Problem dadurch, dass Feder F1 entfernt wird (die Massenkette hängt „frei“), ändert sichdie erste Gleichung zu

c2 x1 − c2 x2 = b1

bzw. x1 − x2 = b1/c . (MM.4)

Da dieses Beispiel schon allgemein ist (n kann sehr groß sein), muss die obige Vorgehensweise systema-tisiert werden, um auch hier die Lösungen des linearen Gleichungssystems zu bestimmen. �

Beispiel 1 ist im Wesentlichen die einfachste Erscheinungsform eines linearen Gleichungs-sytems (im Folgenden immer kurz: LGS)4. Die Beispiele 2 bis 4 (siehe unten) geben abereinen ersten Eindruck davon, wie lineare Gleichungssysteme Fragen aus Naturwissen-schaften und Technik, aber auch aus der Ökonomie modellieren. Schon deswegen ist eswichtig, sie mathematisch zu untersuchen. Dabei stellen sich zwei wesentliche mathema-tische Fragen:

A) Das Existenzproblem: Hat ein vorgelegtes LGS (mindestens) eine Lösung? DieseFrage kann man positiv entscheiden durch:

a) Konkrete Angabe einer Lösung. Das geht allerdings nur bei einem konkreten Bei-spiel, und klärt i. Allg. nicht eine allgemeine Situation. Es bleibt dann auch dieFrage, woher eine solche Lösung kommt.

b) Abstrakte Argumentation, z. B. durch einen Widerspruchsbeweis. Aus der Annah-me, es gebe keine Lösung, folgert man logisch einen Widerspruch. Eine Lösungwird dadurch aber nicht bekannt.

c) Angabe, bzw. Herleitung eines Algorithmus (Rechenvorschrift) zur Bestimmungeiner Lösung. Wenn dieser nur endlich viele Rechenschritte erfordert, dann erhältman damit bei (exakter) Durchführung des Algorithmus eine (exakte) Lösung.

Die Sprechweise bei positiver Beantwortung der Frage ist somit:

4 Die Abkürzung LGS schließt alle Deklinationsformen des Substantivs mit ein. Das gilt auch für weitereAbkürzungen.

Page 4: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

4 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

. . . xn = 0

Mn−1

M2

M1

Fn

...

...

...

F2

F1

x0 = 0

xn−1

�→

x2

�→x1

�→

beidseitig eingespannt

. . . xn = 0

Mn−1

M2

M1

Fn

...

...

...

F2

xn−1

�→

x2

�→

x1

�→

einseitig eingespannt, frei hängend

Abb. 1.2: Zwei verschiedene Konfigurationen einer Massenkette.

Das LGS hat mindestens eine Lösung.

B) Das Eindeutigkeitsproblem: Ist die Lösung des vorgelegten LGS eindeutig bestimmt?Das heißt konkret: Wenn x und y Lösungen sind, gilt dann x = y? Dies ist nur durchabstrakte Argumentation zu klären. Die Sprechweise bei positiver Beantwortung der Frageist:

Das LGS hat höchstens eine Lösung.

Page 5: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 5

Die Fragen A) und B) sind i. Allg. unabhängig voneinander. Wenn beide positiv zu beant-worten sind, dann sagt man:

Es gibt genau eine Lösung.

Da LGS aus der Anwendung im Allgemeinen sehr groß sind (103 bis 108 Unbekanntebzw. Gleichungen), ist Handrechnen (wie oben) nicht mehr möglich und die Frage nach(effizienten) Algorithmen wird besonders wichtig. Wir wollen diese Frage, die dann inder Numerischen Mathematik vertieft wird, so weit wie möglich hier mitbehandeln. ImZentrum steht aber die Theorie von linearen Strukturen (was das ist, werden wir spätergenauer erklären). Die LGS sind dabei so wichtig, da sie der Anlass für die Entwicklungdieser Strukturen sind, mit denen wir mehr über LGS erfahren.

Eine solche Situation wird im Folgenden mit ALGS(Anwendung auf LGS) gekennzeichnet.

Darüber hinaus werden wir aber auch sehen, dass sich „abstraktere“ Fragestellungen aufsolche über LGS zurückführen lassen.

Eine solche Situation wird im Folgenden mit RLGS(Rückführung auf LGS) gekennzeichnet.

Das erste Ziel ist also ein Zugang zur Gesamtheit aller Lösungen eines allgemeinen LGS.Die gegebenen Faktoren (die Koeffizienten) und die Unbekannten sollen dabei reelle Zah-len sein. Die Menge der reellen Zahlen wird (wie immer) mit R bezeichnet und in derAnalysis detailliert eingeführt. Von den Eigenschaften, die R bezüglich

• Addition „+ “ : a + b ,• Multiplikation „ · “ : a · b bzw. kurz ab ,• Ordnung: a ≤ b ,• Abstandsmessung: |a − b| ,

wobei a, b ∈ R, hat, werden im Folgenden nur die bezüglich+ und · (siehe Anhang B.1 zurErinnerung) benötigt. Dies erlaubt später die folgenden Überlegungen zu verallgemeinern(zu LGS in Körpern).

Wir diskutieren jetzt den Allgemeinfall eines LGS, wobei wir besonders darauf achtenmüssen, welche Spezialfälle und Ausnahmen auftreten können:

Spezialfall 1: Eine Gleichung

Eine lineare Gleichung ist eine Gleichung der Art

a1x1 + a2x2 + . . . + anxn = b , (1.1)

wobei a1, a2, . . . , an, b gegebene reelle Zahlen sind, und die reellen Zahlen x1, x2, . . . , xn

unbekannt und gesucht sind. Die geometrische Interpretation als Gerade, Ebene, Raum,usw. werden wir später besprechen.

Page 6: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

6 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Wir müssen verschiedene Fälle unterscheiden:

A: Nicht alle Koeffizienten a1, . . . , an sind 0. Dann sei etwa am, 1 ≤ m ≤ n, der erstevon 0 verschiedene Koeffizient. Die Gleichung sieht so aus:

0x1 + . . . + 0xm−1 + amxm + am+1xm+1 + . . . + anxn = b .

Wir können also x1, . . . , xm−1 beliebig wählen, denn auf die Gültigkeit der Gleichung hatdies keinen Einfluss. Ebenso können wir xm+1, . . . , xn beliebig wählen. Anschließend set-zen wir

xm := (b − am+1xm+1 − . . . − anxn)/am .5 (1.2)

Damit haben wir für jede Wahl der x1, . . . , xm−1, xm+1, . . . , xn die Gleichung gelöst. Dies istauf diese Weise nur möglich, da am � 0. Wir sagen: Die Menge aller Lösungen von (1.1)hat n − 1 Freiheitsgrade (diesen Begriff werden wir später präzisieren).

B: Alle Koeffizienten a1, . . . , an sind 0, aber es ist b � 0. Das Gleichungssystem hat danndie merkwürdige Form

0x1 + . . . + 0xn = b. (1.3)

Egal, wie man auch die Unbekannten x1, . . . , xn wählt, ist diese Gleichung nie zu erfüllen.Sie ist unlösbar.

C: Alle Koeffizienten a1, . . . , an sind 0 und auch b = 0. In diesem reichlich uninteressan-ten Fall ist die Gleichung stets erfüllt, sie stellt keinerlei Bedingungen an die Unbekannten:

0x1 + . . . + 0xn = 0 . (1.4)

Ein lineares Gleichungssystem ist allgemein ein System

a1,1x1 + a1,2x2 + · · · + a1,nxn = b1a2,1x1 + a2,2x2 + · · · + a2,nxn = b2

......

......

am,1x1 + am,2x2 + · · · + am,nxn = bm

aus mehreren linearen Gleichungen. Hierbei sind die Koeffizienten a j,k ∈ R, j = 1, . . . , m,k = 1, . . . , n gegeben und die Unbekannten xk, k = 1, . . . , n gesucht. Ein solches Glei-chungssystem lässt sich kürzer schreiben als

aμ,1x1 + aμ,2x2 + . . . + aμ,nxn = bμ für alle μ = 1, . . . , m ,

(μ-te Zeile des Gleichungssystems) oder kürzer

5 Mit := wird keine Identität, die richtig oder falsch sein kann, bezeichnet, sondern eine Definition, insbe-sondere bei Einführung eines neuen Symbols (siehe Anhang A.1).

Page 7: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 7

aμ,1x1 + aμ,2x2 + . . . + aμ,nxn = bμ, μ = 1, . . . , m ,

und schließlich mit der Notation (siehe Anhang B.2)∑n

ν=1 cν = c1 + . . . + cn für cν ∈ R inKurzform:

n∑ν=1

aμ,νxν = bμ für alle μ = 1, . . . , m . (LG)

Genaueres zum Umgang mit indizierten (reellen) Größen, Summen (und Produkten) findetsich im Anhang B.2. Aus mnemotechnischen Gründen wird auch bei den Indizes im Fol-genden eine gewisse Einheitlichkeit gewahrt, mit regelmäßigen Wechseln, um die Inhaltenicht nur in einer Notation zu verstehen: „Laufindizes“ in Summen werden etwa mit i, j, koder alternativ mit kleinen griechischen Buchstaben wie μ, ν bezeichnet.

Definition 1.1

Das System (LG) heißt ein lineares Gleichungssystem (kurz: LGS) mit n Unbekann-ten xk und m Gleichungen. Die Elemente a j,k heißen die Koeffizienten, und dieElemente b j rechte Seiten. Das System heißt homogen, wenn b j = 0 für al-le j = 1, 2, . . . , m gilt; sonst heißt es inhomogen. Die stets existierende Lösungx1 = x2 = · · · = xn = 0 des homogenen Systems heißt triviale6 Lösung.

Die Zahlen x1, . . . , xn mit xk ∈ R, k = 1, . . . , n (etwa eine Lösung von (LG)), fassen wirzusammen zu

x :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝x1...

xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ = (xν)ν=1,...,n = (xν)ν (1.5)

und nennen x ein n-Tupel (über R) . Alle n-Tupel zusammen bilden den Zahlenraum Rn.xν ∈ R heißt ν-te Komponente von x. Es handelt sich dabei also um eine geordnete Menge(n = 2: Paare, n = 3: Tripel, . . .) von Elementen ausR×. . .×R (n-mal) (siehe Anhang A.4),statt in der Form (

x1, . . . , xn

), das heißt als Zeile

in der Form (1.5) (als Spalte) geschrieben.

6 „trivial“ bedeutet in der Mathematik im weitesten Sinn „einfach“, bei einer Aussage („Diese Aussageist trivial“) also durch einfache Überlegungen einsehbar. Da dies offensichtlich kontextabhängig ist, sollteman als ernsthafte(r) Leser(in) sich immer darüber Rechenschaft ablegen, dass man diese Überlegungennachvollzogen hat. Unter dem „Trivium“ verstand man im Mittelalter die ersten drei der sieben freienKünste (Grammatik, Rhetorik und Dialektik), im Gegensatz zum „Quadrivium“ (Arithmetik, Geometrie,Musik und Astronomie).

Page 8: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

8 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Wir haben zur besseren Unterscheidung von Zahlentupeln (egal ob als Zeilen oder Spalten)und Zahlen begonnen, die ersteren im Fettdruck darzustellen.

Wir suchen folglich alle x = (xν)ν ∈ Rn, die (LG) erfüllen. Dazu führen wir die folgendeformale Schreibweise ein:

Definition 1.2

Die Koeffizientenmatrix des Gleichungssystems ist das rechteckige Zahlenschema

A :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a1,1 a1,2 · · · a1,n

a2,1 a2,2 · · · a2,n...

......

am,1 am,2 · · · am,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ . (1.6)

Wenn wir hieran die rechten Seiten der Gleichungen anfügen

(A, b) :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a1,1 a1,2 · · · a1,n b1

a2,1 a2,2 · · · a2,n b2...

......

...am,1 am,2 · · · am,n bm

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ,

so nennen wir dies erweiterte Koeffizientenmatrix.aμ,1, . . . , aμ,n heißt die μ-te Zeile von A (μ = 1, . . . , m) und wird als n-Tupel mit

a(μ) abgekürzt.a1,ν, . . . , am,ν heißt die ν-te Spalte von A (ν = 1, . . . , n) und wird als m-Tupel mit

a(ν) abgekürzt.

Damit können wir das LGS – vorerst als rein symbolische Abkürzung – schreibenals:

Ax = b . (1.7)

Die μ-te Zeile von A gibt somit die Koeffizienten der μ-ten Gleichung an. Die ν-te Spaltegibt über alle Gleichungen die Koeffizienten der Unbekannten xν an. Analog kann manauch von den Zeilen und Spalten von (A, b) sprechen. Bei den Spalten kommt also nochals (n + 1)-te Spalte

b :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝b1...

bm

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ = (bμ)μ ,

also die rechte Seite des Gleichungssystems hinzu.

Beispiel 4(1) – Input-Output-Analyse In diesem Beispiel, das sich wie seine Vorgänger durch das ge-samte Buch ziehen wird, soll als Anwendung aus den Wirtschaftswissenschaften die Input-Output-Analyse

Page 9: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 9

angesprochen werden, für deren Entwicklung W. Leontief7 1973 der Nobelpreis für Wirtschaftswis-senschaften verliehen worden ist.

In der Terminologie orientieren wir uns im Folgenden an Schumann 1968. Wir beginnen, wie auch inden Beispielen 2 und 3, mit statischen Modellen, in denen die Zeit nicht explizit auftritt. Wir können unsdazu eine gewisse Wirtschaftsperiode vorstellen, in der sich die betrachteten Größen nicht ändern bzw.Mittelwerte darstellen. Eine Volkswirtschaft wird unterteilt in n Sektoren oder Industrien, die Güter her-stellen und damit eine exogene (äußere) Nachfrage befriedigen. Diese Endnachfrage kann durch privateHaushalte (für Konsum oder Investition), den Staat oder auch durch Exporte stattfinden und wird zunächstzu einer Größe F zusammengefasst. Es gibt auch eine endogene (innere) Nachfrage, insofern der Sektor izur Herstellung seines Produkts einen Teil selbst verbraucht (z. B. Energiewirtschaft) und Zulieferung ausanderen Sektoren braucht. Man spricht hier von laufenden Inputs. Im zuerst zu besprechenden (statischen)offenen Input-Output-Modell werden weitere Rückkopplungen der Endnachfragen wie der Zurverfügung-stellung von Arbeit und Kapital durch die privaten Haushalte nicht berücksichtigt (primäre Inputs).

Eine wesentliche erste Frage ist: Welchen Output müssen n Industrien produzieren, um eine vorge-gebene Nachfrage zu erfüllen? Ausgangspunkt dafür kann eine Bestandsaufnahme in Form einer Input-Output-Tabelle sein, wie sie in Tabelle 1.1 schematisch angegeben ist. Dabei sind alle Größen in (fiktiven)

belieferte Industrie Endnachfrage Summe1, . . . , j, . . . , n

liefernde Industrie1 X1,1 . . . Xi, j . . . X1,n F1 X1...i Xi,1 . . . Xi, j . . . Xi,n Fi Xi...n Xn,1 . . . Xn, j . . . Xn,n Fn Xn

Tabelle 1.1: Input-Output-Tabelle.

Mengeneinheiten zu verstehen. Xi bezeichnet die Gesamtproduktion des Sektors i, Fi die Endnachfragenach Produkten des Sektors i und Xi, j den Fluss von Produkten des Sektors i in den Sektor j als laufendenInput. Es gilt folglich für alle i = 1, . . . , n:

n∑j=1

Xi, j + Fi = Xi . (MM.5)

Alle Größen Xi, j, Fi, Xi, i, j = 1, . . . , n sind nicht negativ. Wesentlich für das Folgende ist die Grundan-nahme, dass unabhängig von den aktuellen Größen Xi, j und Xj eine Proportionalität zwischen ihnen in derForm

Xi, j = ai, jX j für i, j = 1, . . . , n (MM.6)

mit Proportionalitätsfaktoren ai, j ≥ 0, den Leontief-Koeffizienten, besteht. Ein Mehr an Output desSektors j braucht also ein Mehr in fester Proportion des jeweiligen laufenden Inputs, wobei eine Unab-hängigkeit in Form von ai, j = 0 zugelassen ist.

Schreibt man (MM.5) mittels (MM.6) zu

7 Wassily Leontief ∗5. August 1905 in München †5. Februar 1999 in New York

Page 10: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

10 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Xi −n∑

j=1

ai, jX j = Fi für i, j = 1, . . . , n

um, sieht man, dass es sich dabei um ein LGS

Bx = f

handelt, wobei

B :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 − a1,1 −a1,2 · · · · · · −a1,n

.... . .

...

... 1 − ai,i

...

.... . .

...

−an,1 · · · · · · · · · 1 − an,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

, x :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

X1

...

Xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠, f :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

F1

...

Fn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

Um die gegebenen Daten der Input-Output-Tabelle zu erfüllen, muss natürlich

ai, j = Xi, j/Xj

gelten. Die obige Grundannahme macht aber dieses ai, j allgemeingültig, d. h. auch für andere Endnachfra-gen f und sich dazu ergebende Outputs x. Die oben gestellte Frage lautet also: Was ist der Output x füreine gegebene beliebige Nachfrage f , so dass

Bx = f (MM.7)

erfüllt ist? Dabei ist f ∈ Rn , f ≥ 0 in dem Sinn

fi ≥ 0 für alle i = 1, . . . , n

und ebenso wird

x ≥ 0

erwartet. Wenn solche Lösungen immer existieren, heißt das Input-Output-Modell zulässig. Anders als inden Beispielen 2 und 3 wird also nicht nur zu beliebigen rechten Seiten eine Lösung gesucht, sondern zuf ≥ 0 eine Lösung x ≥ 0. Dies braucht spezielle Eigenschaften der Matrix B. Diese werden in vollerAllgemeinheit schließlich in Abschnitt 8.5 untersucht werden.

Augenfällige Eigenschaften von B sind:

bi, j ≤ 0 für i, j = 1, . . . , n, i � j . (MM.8)

Auch kann angenommen werden, dass

bi,i > 0 für i = 1, . . . , n , (MM.9)

denn sonst würde ein Sektor schon mindestens seine ganze Produktion als laufenden Input benötigen. Dassdiese Eigenschaften nicht für die Zulässigkeit reichen, zeigt das kleine Beispiel (Übung)

Page 11: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 11

B =(

1 −1−2 1

).

Wenn das Problem (MM.7) aus einer Input-Output-Tabelle herrührt, heißt das, dass für mindestens einf ≥ 0 eine Lösung x ≥ 0 existiert, von der wir

x > 0

annehmen können. Dabei bedeutet für x ∈ Rn:

x > 0⇔ xi > 0 für alle i = 1, . . . , n .

Später werden wir sehen (in Abschnitt 8.5), dass dies äquivalent zur Zulässigkeit des Input-Output-Modells ist, wenn noch eine Zusatzbedingung wie z. B. f > 0 gilt. Sei

A := (ai, j) ∈ R(n,n) ,

dann gibt also die j-te Spalte die für eine erzeugte Einheit des Sektors j nötigen laufenden Inputs derSektoren i, i = 1, . . . , n, an. Werden alle Sektoren in der gleichen (Mengen-)Einheit gemessen, bedeutetalso

n∑i=1

ai, j < 1 , (MM.10)

dass der Sektor j keinen „Verlust“ erleidet. Später werden wir sehen, dass die Gültigkeit von (MM.10)hinreichend für die Zulässigkeit des Input-Output-Modells ist. �

Wir kehren zurück zur Betrachtung von Spezialfällen eines allgemeinen LGS. Den Fallm = 1, n ∈ N (d. h. eine Gleichung) haben wir schon in (1.2)–(1.4) behandelt. Für belie-bige m gibt es einen Spezialfall, in welchem auch kein Gleichungssystem im eigentlichenSinn auftritt:

Spezialfall 2: Das Diagonalsystem

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1,1 0 · · · · · · · · · 0

0. . .

...... ar,r

...... 0

......

. . ....

0 · · · · · · · · · 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠. (1.8)

Also existieren ein r ∈ {1, . . . , min(m, n)}, so dass aμ,μ � 0 für μ = 1, . . . , r, aber alleanderen aμ,ν verschwinden (d. h. aμ,ν = 0 für μ = 1, . . . , m, ν = 1 . . . , n mit μ � ν oderμ = ν > r). Eine Koeffizientenmatrix wie (1.8), bei der höchstens aμ,ν � 0, wenn μ = ν,heißt Diagonalmatrix.

Immer wenn r < m gilt (also immer bei n < m) treten Nullzeilen in A auf (das sind Zeilena(μ) = (0, . . . , 0)). Nach (1.3), (1.4) ist das System unlösbar, falls bμ � 0 für eine solche

Page 12: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

12 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Nullzeile, sonst haben die Nullzeilen keine Aussage. Die Zeilen μ = 1, . . . , r legen xμ festdurch

xμ := bμ/aμ,μ , μ = 1, . . . , r .

Die weiteren xr+1, . . . , xn sind frei wählbar (falls nicht der unlösbare Fall vorliegt), d. h. esgibt n − r Freiheitsgrade in der Lösungsmenge. Da hier gar keine Kopplungen zwischenden Unbekannten vorliegen, handelt es sich um kein „richtiges“ System. Das ist ebensoder Fall bei folgendem Spezialfall, bei dem auch die Lösungsmenge explizit angegebenwerden kann und der den Spezialfall 2 verallgemeinert:

Spezialfall 3: Das Staffelsystem

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1,1 · · · · · · · · · a1,n

0. . .

...... ar,r · · · ar,n...

...0 · · · · · · · · · 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠. (1.9)

Also existiere ein r ∈ {1, . . .min(m, n)}, so dass

• aμ,μ � 0 für μ = 1, . . . r,• das untere Dreieck der Matrix verschwindet, d. h. aμ,ν = 0 für μ > ν, wobei

μ = 1, . . . , m, ν = 1, . . . , n,• ab der (r + 1)-ten Zeile (falls es sie gibt) verschwinden die ganzen Zeilen, d. h.

aμ,ν = 0 für μ = r + 1, . . . , m, ν = 1, . . . , n.

Eine Koeffizientenmatrix wie (1.9) ist eine spezielle obere Dreiecksmatrix .

Wieder entscheiden im Fall r < m die bμ für μ = r + 1, . . . , m darüber, ob das Systemlösbar ist oder nicht. Im lösbaren Fall sind die letzten m − r Zeilen aussagelos und, sofernr < n, die Lösungskomponenten xr+1, . . . , xn frei wählbar. Dann ist die r-te Zeile nach xr

auflösbar (da ar,r � 0):

xr =1

ar,r

⎛⎜⎜⎜⎜⎜⎝br −n∑

ν=r+1

ar,νxν

⎞⎟⎟⎟⎟⎟⎠ . (1.10)

Bei r = n reduziert sich die Beziehung auf

xr =1

ar,rbr .

Mit bekanntem xr kann dann xr−1 aus der (r − 1)-ten Zeile bestimmt werden etc. DiesenProzess nennt man Rückwärtssubstitution.

Page 13: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 13

xμ :=1

aμ,μ

⎛⎜⎜⎜⎜⎜⎜⎝bμ −n∑

ν=μ+1

aμ,ν · xν

⎞⎟⎟⎟⎟⎟⎟⎠ für μ = r, r − 1, . . . , 1 . (1.11)

Dabei ist

n∑ν=n+1

( ) := 0

(oder allgemeiner jede Summe über einem leeren Indexbereich). Dies tritt für r = n, d. h.den Fall ohne Freiheitsgrade, für μ = r auf. Bei einigen Unterfällen lässt sich Genaueresüber die Lösungsmenge sagen:

Spezialfall 3a: Wenn r = n (und notwendigerweise m ≥ n), sowie bμ = 0 ist für μ > n,dann ist das System lösbar. Aber keine der Unbekannten ist frei wählbar. Die Lösung isteindeutig bestimmt.

Spezialfall 3b: Wenn m > r ist und ein bμ � 0 für μ > r, so ist das System unlösbar.

Was nützen die besprochenen Fälle im Allgemeinen? Solange man dabei die Lösungsmen-ge nicht verändert, kann man versuchen, allgemeine LGS auf obige Formen umzuformen.Offensichtlich zulässig als Umformung ist die Vertauschung zweier Zeilen im Gleichungs-system. Dies entspricht der Vertauschung zweier Zeilen in der erweiterten Koeffizienten-matrix (A, b).

Es ist etwas umständlich, alle LGS zu beschreiben, die sich auf diese Weise auf (1.9)transformieren lassen. Dies muss auch nicht wirklich durchgeführt werden, es genügt,wenn die Nichtnullzeilen in der Reihenfolge, die entstehen würde, in (1.11) durchlaufenwerden.

Eine weitere Umformung ist die Umnummerierung der Komponenten der Lösungstu-pel (die am Schluss wieder rückgängig gemacht werden muss!). Diese entspricht der Ver-tauschung zweier Spalten der Koeffizientenmatrix A. Der folgende allgemeine Fall kanndurch Spaltenvertauschung auf den Fall (1.9) zurückgeführt werden.

Spezialfall 4: Die Zeilenstufenform

Die Koeffizientenmatrix hat eine Art zerpflückte Staffelform:

Page 14: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

14 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

n0︷��︸︸��︷ n1︷︸︸︷ nr︷︸︸︷⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 · · · 0 # ∗ · · · ∗ ∗ · · · ∗ ∗ · · · ∗... 0 0 · · · 0 # · · · ∗ ∗ · · · ∗

. . ....

...... 0 · · · 0 # ∗ · · · ∗

......

......

... 0 0 · · · 00 · · · 0 0 0 · · · 0 0 0 · · · 0 0 0 · · · 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

(1.12)

Dabei bezeichnet „ # “ Koeffizienten ungleich 0 und „ ∗ “ beliebige Koeffizienten. Die Stu-fenlängen n0, n1, . . . , nr können eventuell auch 0 sein, und r mit 1 ≤ r ≤ min(m, n), dieAnzahl der Stufen, kann mit der Gesamtzahl m aller Zeilen übereinstimmen, sodass alsokeine Nullzeilen am unteren Ende der Matrix auftreten.

Ein Staffelsystem nach (1.9) ist also der Spezialfall von (1.12), der sich für

n0 = n1 = . . . = nr−1 = 0 , nr = n − r

ergibt. Andererseits kann die Form (1.12) in die Form (1.9) gebracht werden, indem die(n0 + 1)-te Spalte, die (n0 + 1 + n1 + 1)-te Spalte usw., also die, in denen sich die mit „ # “gekennzeichneten, von Null verschiedenen Koeffizienten befinden, auf die erste, zweiteusw. Position getauscht werden. Für μ = 1, . . . , m definieren wir den Index j(μ) durch

j(μ) :={

min{ν ∈ {1, . . . , n} : aμ,ν � 0} , falls μ ≤ r ,n + 1 , falls μ > r .

Für μ = 1, . . . , r ist also

aμ,ν = 0 , wenn ν ≤ j(μ) − 1 , aμ, j(μ) � 0 sowie j(1) < j(2) < . . . < j(r) .

Die j(μ)-te Spalte wird auch (μ-te) Pivotspalte genannt. Sie ist also dadurch gekennzeich-net, dass auf der j(μ)-ten Position ein Element # steht, das sicher ungleich 0 ist, das Pivot-element, und auf den Positionen k > j(μ) nur Nullen. Die Stufenlängen sind

n0 = j(1) − 1 , ni = j(i + 1) − j(i) − 1 für i = 1, . . . , r .

Falls br+1 = . . . = bm = 0, ist das System lösbar, und auch hier lässt sich die Lösungsge-samtheit angeben: Wir beginnen in der letzten Zeile mit der letzten Unbekannten. Entspre-chend der Länge nr der letzten Stufe sind die nr Unbekannten xn, . . . , x j(r)+1 frei wählbar.Zur Verdeutlichung nennen wir diese frei wählbaren Komponenten des LösungsvektorsParameter und bezeichnen sie mit λν:

xn := λn... λν ∈ R .

x j(r)+1 := λ j(r)+1

Page 15: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 15

Es steht jedoch bei x j(r) ein Koeffizient #, der ungleich 0 ist. Deswegen ist diese Unbekann-te durch die r-te Zeile des Gleichungssystems und durch die bereits gewählten Parametereindeutig bestimmt. Weiter sind die Parameter

x j(r)−1 := λ j(r)−1... λν ∈ R

x j(r−1)+1 := λ j(r−1)+1

frei wählbar. Und x j(r−1) ist wieder durch die r− 1-te Zeile des Gleichungssystems und diebisher gewählten Parameter eindeutig bestimmt. Dieses Verfahren kann man iterieren, sodass man somit nach r Schritten eine Darstellung aller Lösungen mit Parametern

(λ1) , . . . , λ j(1)−1, λ j(1)+1, . . . , λ j(r)−1, λ j(r)+1, . . . , (λn) ,

also mit n = n − r vielen Parametern bekommt (Die Klammern deuten an, dass dieseElemente eventuell nicht zu den Parametern gehören). Daher gilt für den Spezialfall 4(und damit für alle):

Anzahl der Freiheitsgrade + Stufenanzahl = n .

Diese Formel (wobei r eine von der Darstellung (1.12) unabhängige Bedeutung gegebenwerden muss) wird später allgemein exakt nachgewiesen (siehe unten: Abschnitt 1.4.2).Kombiniert man Zeilen- und Spaltenvertauschungen, ergeben sich weitere Fälle. Als Bei-spiel sei der Fall der unteren Dreiecksmatrix genannt:

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a1,1 0 · · · · · · 0...

. . .. . .

......

. . .. . .

......

. . . 0an,1 · · · · · · · · · an,n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠mit aμ,μ � 0 für μ = 1, . . . , n. Hier wird aus der Rückwärts- eine Vorwärtssubstitution :

xμ :=1

aμ,μ

⎛⎜⎜⎜⎜⎜⎜⎝bμ −μ−1∑ν=1

aμ,νxν

⎞⎟⎟⎟⎟⎟⎟⎠ für μ = 1, . . . , n , (1.13)

wobei die Lösung eindeutig ist.

1.1.2 Die Eliminationsverfahren von Gauss und Gauss-Jordan

Schließlich kann man ein allgemeines LGS durch weitere Umformungen in die Form(1.12) bzw. (1.9) bringen. Diese sind:

Page 16: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

16 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.3

Unter einer elementaren Umformung (Gauss8-Schritt) eines linearen Gleichungs-systems mit erweiterter Koeffizientenmatrix (A, b) versteht man eine der folgendenOperationen:

Die Zeilenumformungen

(I) Zwei Zeilen von (A, b) werden vertauscht: Z j ↔ Zk .

(II) Multiplikation einer Zeile von (A, b) mit einer Zahl c � 0: c Z j → Zj .

Darunter versteht man die Multiplikation jeder Komponente mit c.(III) Zu einer Zeile von (A, b) wird das Vielfache einer anderen Zeile addiert:

Z j + c Zk → Z j für j � k .

Darunter versteht man die Multiplikation jeder Komponente von Zk mit c unddann die Addition zu der jeweiligen Komponente von Z j.

(IV) Zwei Spalten von (A) werden vertauscht. Dadurch ändert sich die Numme-rierung der Unbekannten.

Es ist dabei zu überprüfen, dass die Lösungsmenge dadurch nicht verändert wird. Es gilt:

Satz 1.4: LGS und Elementarumformung

Die Lösungsmenge eines linearen Gleichungssystems wird durch elementare Um-formungen (I)–(III) nicht verändert, bei (IV) werden die Lösungskomponenten um-nummeriert. Jede elementare Umformung kann durch eine solche gleichen Typs um-gekehrt werden.

Beweis: Dies ist klar bei Umformungen vom Typ (I) bzw. (IV) oder (II). (I) bzw. (IV) sindihre eigenen Umkehrungen. Bei (II) mit dem Faktor c erfolgt die Umkehrung durch (II)mit dem Faktor 1

c . Zu zeigen ist die Aussage für Gauss-Schritte vom Typ (III). Es gelteZl + c Zi → Zl . Ist (p1, p2, . . . , pn) eine Lösung von (LG) vor der Umformung, so gilt

insbesondere

n∑k=1

ai,k pk = bi ,n∑

k=1

al,k pk = bl . (1.14)

Daraus folgt mit den Rechenregeln in R (insbesondere Distributivgesetze):

8 Johann Carl Friedrich Gauß ∗30. April 1777 in Braunschweig †23. Februar 1855 in Göttingen

Page 17: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 17

n∑k=1

ai,k pk = bi ,

n∑k=1

(al,k + cai,k)pk = bl + cbi . (1.15)

Das heißt, (p1, p2, . . . , pn) ist auch eine Lösung des transformierten Systems. Sei nun um-gekehrt (p1, p2, . . . , pn) eine Lösung des transformierten Systems, so gelangt man durchden Schritt Zl − cZi → Zl mit demselben c wieder von (1.15) zurück zum Ausgangssy-stem (1.14). Man erkennt, dass (p1, p2, . . . , pn) auch eine Lösung des Ausgangssystemsist. �

Jedes LGS kann man mit einem Eliminationsverfahren behandeln, so, wie wir es an demobigen einfachen Beispiel 1(1) gesehen haben. Wir beschreiben diese Elimination jetzt ineiner etwas formaleren Weise, um die Übersicht nicht zu verlieren.

Wenn alle Koeffizienten a1,1, . . . , am,1 in der ersten Spalte 0 sind, stellt das System keineBedingung an die Unbekannte x1. Die Komponente x1 ∈ R kann also beliebig gewähltwerden und die Frage nach der Auflösung, d. h. der Lösbarkeit und der Lösungsmengedes LGS neu gestellt werden für das modifizierte LGS Ax = b, bestehend aus m Zeilenund n − 1 Spalten, wobei A aus A durch Streichen der ersten Spalte entsteht und x dieKomponenten x2, . . . , xn hat. Ist dieses LGS lösbar, so ergibt sich die Lösungsmenge desAusgangs-LGS, indem x1 ∈ R beliebig hinzugenommen wird. Ist es nicht lösbar, ist auchdas Ausgangssystem nicht lösbar.

Ist aber einer der Koeffizienten a1,1, . . . , am,1 aus der ersten Spalte ungleich 0, so seietwa ap,1 einer davon. Wir vertauschen die erste und die p-te Zeile (Umformung (I)).Dabei ändern sich die Lösungen des Systems nicht. Aber danach haben wir a1,1 � 0,das dann Pivotelement heißt. Deswegen können wir die erste Zeile durch a1,1 dividieren(Umformung (II)), wieder ändern sich die Lösungen nicht und das Pivotelement verändertsich zu 1. Eine Spalte, in der ein Pivotelement auftritt, heißt auch Pivotspalte. Dann siehtdie erste Zeile folgendermaßen aus:

x1 +a1,2

a1,1x2 + . . . +

a1,nxn

a1,1=

b1

a1,1.

Wir eliminieren nun x1, allerdings ohne die Eliminationsgleichung explizit hinzuzuschrei-ben, aus den restlichen Gleichungen, indem wir von der zweiten, . . . , m-ten Zeile a2,1-mal,. . . , am,1-mal die erste Zeile subtrahieren (Umformung (III)). Dadurch ändern sich auchhier die Lösungen nicht, und unser Gleichungssystem nimmt die Form

x1 + a′1,2x2 + · · · + a′1,nxn = b′1a′2,2x2 + · · · + a′2,nxn = b′2

......

...a′m,2x2 + · · · + a′m,nxn = b′m

an, mit neuen Koeffizienten a′1,2, . . . , a′m,n und neuen rechten Seiten b′1, . . . , b′m. Jetzt kommtes nur noch darauf an, die letzten m − 1 Gleichungen aufzulösen. Gelingt dies, so setzenwir deren Lösungen x2, . . . , xn in die erste Gleichung ein und berechnen daraus x1. DieLösung der letzten m − 1 Gleichungen geschieht dadurch, dass die obigen Überlegungenauf das reduzierte LGS Ax = b angewendet werden, bestehend aus m− 1 Zeilen und n− 1

Page 18: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

18 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Spalten, wobei a′j+1,k+1 der j, k-te Eintrag von A und b′j+1 der j-te Eintrag von b ist. Durchdiese sukzessive Wiederholung eines Gauss- oder Eliminationsschrittes können wir dasGleichungssystem mit Umformungen der Gleichungen, die genau den elementaren Zei-lenumformungen (I), (II), (III) aus Definition 1.3 entsprechen, auf den Spezialfall 4 bzw.wenn wir auch Umformungen (IV) anwenden, sogar auf den Spezialfall 3, zurückführen,wofür Lösbarkeit und Bestimmung der Lösungsmenge geklärt sind.

Anschaulich gesprochen können wir mit den elementaren Zeilenumformungen, linksbeginnend, eine Spalte nach der anderen ab einer gewissen Position eliminieren. Dabeibetrachten wir ein immer weiter reduziertes LGS, so dass sich aus dessen Lösungsmen-ge xk, . . . , xn direkt die weiteren Lösungskomponenten ergeben. Das aktuelle Restsystemwird wie folgt behandelt:

• Sind alle Koeffizienten in der Spalte 0, so ändern wir nichts, sondern reduzierendurch Streichen der ersten Spalte.

• Sind Koeffizienten in der Spalte ungleich 0, davon einer etwa in der p-ten Zeile(am „stabilsten“ ist es, den betragsgrößten als Pivotelement zu wählen), so vertau-schen wir diese p-te Zeile mit der ersten (Umformung vom Typ I). Anschließendmultiplizieren wir die erste Zeile, wenn wir wollen, mit dem Kehrwert dieses Ko-effizienten durch (Typ II), um zu erreichen, dass in dieser ersten Zeile der ersteKoeffizient 1 ist. Schließlich addieren wir ein geeignetes Vielfaches der ersten Zei-le zu jeder der folgenden Zeilen (Typ III), um dort den Koeffizienten aus der erstenSpalte zu beseitigen.

• Dann reduzieren wir das System durch Streichen der ersten Zeile und Spalte.

Das Verfahren heißt Gausssches Eliminationsverfahren (kurz: Gauss-Verfahren).

Dieses Verfahren lässt sich also elegant (aber nicht unbedingt effizient) als rekursive Pro-zedur formulieren (hier ohne Transformation der Pivotelemente auf 1). Dazu nutzen wir,dass eine Matrix mit ihren Zeilen geschrieben werden kann als

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a(1)...

a(m)

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠bzw. mit ihren Spalten als

A =(a(1), . . . , a(n)

).

Wenn wir aus einer Matrix (durch Streichen von Zeilen oder Spalten) eine neue Matrixerhalten, so hat diese ihre eigene, mit jeweils 1 beginnende Indizierung.

Die Prozedur hat als Eingabegrößen die Matrix A, die rechte Seite b, die Zeilenzahlm, die Spaltenanzahl n und als Ausgabegrößen die Matrix in Zeilenstufenform R und dieumgeformte rechte Seite d. Eine Spalte, die nur aus Komponenten 0 besteht, wird kurzauch mit 0 bezeichnet.

Page 19: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 19

[R, d] := gauss (A, b, m, n)

falls a(1) = 0 (falls erste Spalte von A nur Nulleinträge besitzt)

falls n = 1

R := A(= 0), d := breturn9

sonst

A := (a(2), . . . , a(n))[R, d

]:= gauss

(A, b, m, n − 1

)R :=

(0∣∣∣ R)

return

sonst

falls m = 1 (also A nur aus einer Zeile besteht)

R := A (= a(1)) , d := b (= b1)return

sonst

führe folgenden Eliminationsschritt aus:

(A, b) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a1,1 a1,2 . . . a1,n b1a2,1 a2,2 . . . a2,n b2...

......

am,1 am,2 . . . am,n bm

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ −→⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

a′1,1 a′1,2 . . . a′1,n b′10 a′2,2 . . . a′2,n b′2...

......

...0 a′m,2 . . . a′m,n b′m

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ =:

⎛⎜⎜⎜⎜⎜⎝ a′(1) b′10 A b

⎞⎟⎟⎟⎟⎟⎠10

falls n = 1 (also A nicht auftritt bzw. A nur aus einer Spalte besteht)

R :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a′1,10...0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ , d :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝b′1...

b′m

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠return

sonst[R, d

]:= gauss

(A, b, m − 1, n − 1

)R :=

⎛⎜⎜⎜⎜⎜⎝ a′(1)

0 R

⎞⎟⎟⎟⎟⎟⎠ , d :=

⎛⎜⎜⎜⎜⎜⎝ b′1d

⎞⎟⎟⎟⎟⎟⎠return

9 Mit „return“ wird symbolisch die Beendigung der Prozedur gekennzeichnet.10 Die hier intuitiv benutzte Partionierung einer Matrix wird in (1.32) ff. genauer betrachtet.

Page 20: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

20 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Gleichwertig lässt sich das Verfahren auch nicht-rekursiv auffassen, indem die jeweiligenelementaren Zeilenumformungen nicht auf ein Restsystem, sondern auf die volle erwei-terte Koeffizientenmatrix angewendet wird. Es ergibt sich die gleiche Zeilenstufenform,wenn die Umformungen die „weggelassenen“ Matrixanteile nicht verändern. Dies kannman wie folgt einsehen, wobei wir uns auf Skizzen der jeweiligen Situation beschränken:⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 · · · 0 0 ∗ · · · ∗...

......

......

... 0...

0 · · · 0 # ∗ · · · ∗...

... ∗ ......

......

...0 · · · 0 ∗ · · · · · · ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

−→(I)

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 · · · 0 # ∗ · · · ∗...

......

......

... 0...

0 · · · 0 0 ∗ · · · ∗...

... ∗ ......

......

...0 · · · 0 ∗ · · · · · · ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠für Vertauschungsschritt in der ersten Pivotspalte. Für die r-te Pivotspalte, r > 1, ist dieSituation analog, da die Zeilen 1 bis r − 1 unverändert bleiben.⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 · · · 0 # ∗ · · · ∗...

... ∗ ∗ · · · ∗...

......

......

0 · · · 0 ∗ ∗ · · · ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠−→(II)

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝0 · · · 0 1 ∗ · · · ∗...

... ∗ ∗ · · · ∗...

......

......

0 · · · 0 ∗ ∗ · · · ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 · · · 0 1 ∗ · · · ∗0 0 ∗ ∗ · · · ∗...

... ∗ ......

......

......

...0 · · · 0 ∗ ∗ · · · ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠−→(III)

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 · · · 0 1 ∗ · · · ∗0 · · · 0 0 ∗ · · · ∗...

... ∗ ......

......

......

...0 · · · 0 ∗ ∗ · · · ∗

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠und damit insgesamt für den Eliminationsschritt für die erste Pivotspalte. Für die r-te Pi-votspalte, r > 1, ist die Situation analog, da die Zeilen 1 bis r − 1 unverändert bleiben.

Fassen wir also die bisher gewonnenen Ergebnisse zusammen:

Hauptsatz 1.5: Gausssche Elimination zur Zeilenstufenform

Jede Matrix lässt sich durch das Gausssche Eliminationsverfahren mittels elemen-tarer Zeilenumformungen auf eine Zeilenstufenform (1.12) bringen. Bei Anwen-dung auf eine erweiterte Koeffizientenmatrix (A, b) liefert dies ein LGS in Zeilenstu-fenform mit gleicher Lösungsmenge. Es kann durch r weitere Schritte (II) erreichtwerden, dass die Pivotelemente alle 1 werden.

Page 21: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 21

Werden auch Spaltenvertauschungen zugelassen, so kann (bei Umnummerierungder Lösungskomponenten) auch das Staffelsystem (1.9) erreicht werden. Die Stu-fenanzahl r heißt auch Rang der Koeffizientenmatrix.

Kurz spricht man vom Gauss-Verfahren .

Wenn die Koeffizientenmatrix z. B. quadratisch ist, und die Zeilenstufenform so aussieht

Z =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 z1,2 · · · z1,n b′1

0 1. . .

......

.... . . zn−1,n b′n−1

0 0 1 b′n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠,

also eindeutige Lösbarkeit vorliegt, kann man die Umformungen noch etwas weiter trei-ben:

Vorletzte Zeile − zn−1,n-mal die letzte Zeile,(n − 2)-te Zeile − zn−2,n-mal die letzte Zeile,

...erste Zeile − z1,n-mal die letzte Zeile.

Damit hat man erreicht, dass in der letzten Spalte alle Einträge verschwinden, bis auf denEintrag 1 in der letzten Zeile. Mit einem analogen Verfahren kann man auch alle Einträgein der vorletzten Spalte auf 0 bringen, bis auf den vorletzten Eintrag, der 1 bleibt. Manmuss dazu von jeder Zeile geeignete Vielfache der vorletzten Zeile abziehen. Wenn mandies von rechts nach links mit allen Spalten macht, hat die erweiterte Koeffizientenmatrixam Ende folgende Gestalt: ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 0 · · · 0 b′′1

0 1... b′′2

.... . .

. . ....

...

0 · · · 0 1 b′′n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

Damit ist das LGS auf Spezialfall 2 eines Diagonalsystems zurückgeführt worden mit derdirekt gegebenen Lösung

x1 = b′′1 , . . . , xn = b′′n .

Dieses Verfahren lässt sich auch auf die allgemeine Situation übertragen. Sei also eineMatrix A ∈ R(m,n) in Zeilenstufenform (1.12) und die dort mit # gekennzeichneten Pivot-elemente seien durch weitere elementare Umformungen vom Typ II auf 1 ohne Verände-rung der Matrixstruktur transformiert. Das oben beschriebene Vorgehen ist dann, bei derletzten Spalte beginnend, jeweils in einer Spalte mit Pivotelement möglich und führt dazu,

Page 22: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

22 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

dass in diesen Spalten über dem Pivotelement nur Nullen stehen. Man beachte dabei, dassdas Pivotelement der erste von Null verschiedene Eintrag seiner Zeile ist und so durch dieUmformung nur noch Spalten mit höherem Index betroffen sind und Nulleinträge in Pivot-spalten mit höherem Spaltenindex (oberhalb von Pivotelementen) nicht verändert werden.Auf diese Weise entsteht der:

Spezialfall 5: Die reduzierte Zeilenstufenform

n0︷�︸︸�︷ n1︷�︸︸�︷ nr︷�︸︸�︷⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

0 · · · 0 1 ∗ · · · ∗ 0 · · · 0 ∗ · · · ∗... 0 0 · · · 0 1 · · · 0...

...... 0

... 1 ∗ · · · ∗...

......

...... 0 0 · · · 0

0 · · · 0 0 0 · · · 0 0 0 · · · 0 0 0 · · · 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

(1.16)

Die Darstellung für die Lösungsmenge des LGS von Spezialfall 4 vereinfacht sich inso-fern, dass in den Darstellungen nach (1.11) für die nicht frei wählbaren Komponenten

x j(r), x j(r−1), . . . , x j(1)

(zur Notation siehe Spezialfall 4) nur freie Variablen auftreten:

x j(μ) = b j(μ) −n∑

ν= j(μ)+1ν� j(μ+1),..., j(r)

a j(μ),νλν für μ = 1, . . . , r (1.17)

bei frei gewählten λν. Hier spricht man vom Gauss-Jordan-Verfahren11.

Satz 1.6: Gauss-Jordan-Verfahren

Jede Matrix lässt sich mit dem Gauss-Jordan-Verfahren auf eine reduzierte Zei-lenstufenform (1.16) bringen. Bei Anwendung auf eine erweiterte Koeffizientenma-trix (A, b) liefert dies ein LGS mit gleicher Lösungsmenge.

Beispiel 3(2) – Massenkette Wir wenden das Gauss-Verfahren auf die beiden in (MM.3) bzw. (MM.4)entwickelten LGS (mit c = 1 zur Vereinfachung der Notation) an, d. h. auf

11 Wilhelm Jordan ∗1. März 1842 in Ellwangen †17. April 1899 in Hannover

Page 23: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 23

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

2 −1 0−1 2 −1. . .

. . .. . .

. . .. . . −10 −1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠(MM.11)

und auf

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 −1 0−1 2 −1. . .

. . .. . .

. . .. . . −10 −1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠. (MM.12)

In den Gleichungen vom zugehörigen LGS werden jeweils wenige, nämlich 2 bzw. 3 Unbekannte mitein-ander gekoppelt, unabhängig von der Zeilen- und Spaltenanzahl m = n − 1 (n bezeichnet hier also nichtdie Spaltenanzahl). In der Matrix ist das dadurch ersichtlich, dass nur auf der Diagonalen (Indizes μ = ν)und den beiden Nebendiagonalen (μ = ν + 1 bzw. μ = ν − 1) von Null verschiedene Einträge stehen: DieMatrix ist tridiagonal . Dennoch sind alle Unbekannten miteinander verknüpft: x1 über Gleichung 1 mitx2, das über Gleichung 2 mit x3 usw. bis zu xm (A ist irreduzibel : siehe Definition 2.71 und Abschnitt 8.4).Führt man das Gauss-Verfahren aus für (MM.11), so stellt man fest, dass keine Zeilenvertauschung nötigist, weil das erste Diagonalelement der jeweiligen Restmatrix immer ungleich 0 ist.

Es ergibt sich

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

2 −1 0−1

. . .. . .

. . .. . .

. . .

. . .. . . −10 −1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠−→

Typ (III)c = 1

2

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

2 −1 00 32 −1−1 2 −1

. . .. . .

. . .

. . .. . . −10 −1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠−→

Typ (III)c = 2

3

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

2 −1 00 3

2 −1

0 43 −1

−1 2 −1. . .

. . .. . .

. . .. . . −1

0 −1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

,

woraus sich erkennen lässt (Aufgabe 1.7), dass nach m − 1 Schritten die Matrix

Page 24: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

24 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

R =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

2 −1 032

. . .

43

. . .

. . .. . .

. . . −10 m+1m

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠(MM.13)

entsteht. Für spätere Verwendung notieren wir noch, dass die Multiplikatoren, d. h. die Faktoren mit denendie k-ten Zeilen multipliziert werden müssen, um die Einträge der (k + 1)-ten Zeilen in den k-ten Spaltenzu eliminieren (weitere gibt es nicht), folgende sind:

12,

23, . . . ,

m − 1m

. (MM.14)

Hier sind also alle Stufenlängen 0 und da Spalten- und Zeilenanzahl gleich sind, liegen LGS vor, die fürbeliebige rechte Seiten eindeutig lösbar sind. Dies kann als eine erste Verifikation einer korrekten Mo-dellierung der oben beschriebenen mechanischen Situation angesehen werden. Solche Matrizen werdenspäter nichtsingulär heißen (siehe unten: Abschnitt 2.3.3). Dass beim Gauss-Verfahren keine Zeilen-vertauschungen nötig sind, ist eine weitergehende Eigenschaft. In Abschnitt 2.6 wird sie charakterisiertwerden.

Betrachten wir die zweite Variante aus Beispiel 3(1), so ergibt sich noch einfacher

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 −1 0−1 2

. . .

. . .. . .

. . .

. . .. . . −10 −1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠−→

Typ (III)c = 1

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 −1 00 1 −1

−1 2. . .

. . .. . .

. . .

. . .. . . −10 −1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

−→Typ (III)

c = 1

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 −1 0. . .. . .

. . .. . .

. . . −10 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠=: R

mit den Multiplikatoren 1, 1, . . . , 1, so dass somit die obigen Bemerkungen unverändert gelten. Modifizie-ren wir A aber noch einmal zu

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 −1 0−1 2

. . .

. . .. . .

. . .

. . . 2 −10 −1 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠, (MM.15)

so entsteht bei der gleichen Umformung eine Nullzeile:

Page 25: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 25

R =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 −1 0. . .. . .

. . .. . .

1 −10 . . . . . . . . . . . 0

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

Das LGS ist folglich nur für solche rechte Seiten möglich, für die die n-te Komponente nach der Umfor-mung verschwindet (Kompatibilitätsbedingung). Wegen der speziellen Umformungen (nur Typ (III) mitc = 1) ist

b′ =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝b1

b1 + b2...∑m

k=1 bk

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠und damit lautet die Lösbarkeitsbedingung:

m∑k=1

bk = 0 . (MM.16)

Ist sie erfüllt, hat die Lösung einen Freiheitsgrad. Für die modellierte mechanische Situation bedeutet dies,dass sich die angreifenden Kräfte aufheben müssen (d. h. nicht nur Gravitationskräfte sein können). DieModifikation in (MM.15) bedeutet gerade, dass auch die Feder Fn entfernt wird, die Massenkette also „freischwebend“ wird. �

Wir schließen mit einigen einfachen allgemeinen Folgerungen aus der bisherigen Analyse.

Lemma 1.7: Mehr Unbekannte als Gleichungen

Das homogene lineare Gleichungssystem

n∑ν=1

aμ,νxν = 0 , μ = 1, . . . , m ,

habe n Unbekannte und m < n Zeilen. Dann können in den Lösungen (x1, . . . , xn)mindestens n − m Parameter frei gewählt werden.

Beweis: Die Anzahl der Stufen in einer Matrix mit n Spalten und m Zeilen ist höchstensm. Wegen n > m gibt es mindestens n − m Spalten, in denen kein Pivotelement steht, undin denen die Unbekannte beliebig gewählt werden kann. �

Theorem 1.8: Struktursatz

Ist eine spezielle Lösung (y1, . . . , yn) des inhomogenen Systems

Page 26: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

26 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

n∑ν=1

aμ,νxν = bμ , μ = 1, . . . , m

bekannt, so erhält man daraus alle Lösungen des inhomogenen Systems durch kom-ponentenweise Addition aller Lösungen des zugehörigen homogenen Systems.

Beweis: Nach Annahme ist für μ = 1, . . . , m

n∑ν=1

aμ,νyν = bμ .

Dann folgt für eine beliebige Lösung x wegen

n∑ν=1

aμ,νxν = bμ auchn∑

ν=1

aμ,ν(xν − yν) = 0 ,

d. h. h = (h1, . . . , hn) := (x1 − y1, . . . , xn − yn) ist eine Lösung des homogenen Systems.

Bei beliebig, fest gewählter Lösung y ∈ Rn des inhomogenen Systems (sofern eine exis-tiert!), kann somit jede Lösung x ∈ Rn geschrieben werden als

x = y + h (1.18)

und h ist eine Lösung des homogenen Systems (bei komponentenweiser Addition). Hatandererseits x ∈ Rn die Form (1.18), dann ist wegen

n∑ν=1

aμ,νyν = bμ ,

n∑μ=1

aμ,νhν = 0, μ = 1, . . . , m

und damit

n∑ν=1

aμ,ν(yν + hν) = bμ , μ = 1, . . . , m

auch x Lösung des inhomogenen Systems. �

Bemerkungen 1.9

1) Homogene Systeme werden durch elementare Umformungen in homogene Systemeüberführt. Der Spezialfall 3b kann also nicht auftreten und damit ist ein homogenes Systemimmer lösbar (auch direkt einsehbar: Es gibt immer die triviale Lösung x = 0 = (0, . . . , 0)).

2) Bei Systemen vom Spezialfall 3a (eindeutiger Typ) hat das homogene System nur dietriviale Lösung.

3) Ist (h1, h2, . . . , hn) eine Lösung des homogenen Systems (LG), so ist eine weitere Lö-sung gegeben durch c · (h1, h2, . . . , hn) := (ch1, ch2, . . . , chn) mit jeder Zahl c ∈ R. Das

Page 27: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.1 Lineare Gleichungssysteme 27

heißt, hat das homogene System (LG) eine nicht triviale Lösung, so hat es auch unend-lich viele Lösungen. Ist darüber hinaus das inhomogene System lösbar, so hat auch diesesunendlich viele Lösungen nach Theorem 1.8.

4) Die Stufenzahl r wurde in Hauptsatz 1.5 als Rang bezeichnet. Dies ist nur sinnvoll,wenn es sich ausschließlich um eine Eigenschaft der Matrix handelt, die nicht durch ver-schiedene Varianten im Gauss-Verfahren (verschiedene zum Tausch ausgewählte Zeilen)beeinflusst ist. Dass dies so ist, wird in Bemerkungen 1.79, 6) bewiesen werden. �Es ist noch unklar,

• wie der Begriff „Freiheitsgrad“ exakt zu fassen ist (als Dimension eines Vektor-raums),

• wie direkter die Anzahl der Freiheitsgrade abzulesen ist,• wie direkter die Frage der Lösbarkeit entschieden werden kann.

Dazu wird unter anderem die Lineare Algebra entwickelt.

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Lineares Gleichungssystem (LGS)• (Erweiterte) Koeffizienten(matrix), (in)homogenes LGS• Lösbarkeit (Existenz von Lösungen), Eindeutigkeit, eindeutige Existenz von Lö-

sungen (eines LGS)• Freiheitsgrad, Parameter• Diagonalsystem• Staffelsystem, Rückwärtssubstitution• Zeilenstufenform, Stufenanzahl, Pivotspalte• Elementare Umformung• Gausssches Eliminationsverfahren• Reduzierte Zeilenstufenform

Zusammenhänge:

• Lösungsdarstellung für Staffelsystem und (reduzierte) Zeilenstufenform((1.9), (1.12), (1.16))

• Elementare Umformungen verändern nicht die Lösungsmenge eines LGS(Satz 1.4)

• Gauss-Verfahren transformiert auf Zeilenstufenform (Staffelsystem)(Hauptsatz 1.5)

• Gauss-Jordan-Verfahren transformiert auf reduzierte Zeilenstufenform (Satz 1.6)• Struktursatz für LGS (Theorem 1.8)

Page 28: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

28 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Aufgaben

Aufgabe 1.1 (K) Wenn fünf Ochsen und zwei Schafe acht Taels Gold kosten, sowie zweiOchsen und acht Schafe auch acht Taels, was ist dann der Preis eines Tieres? (Chiu-ChangSuan-Chu, ∼300 n.Chr.)

Aufgabe 1.2 (T) Für ein LGS in zwei Variablen der Form

a1,1x1 + a1,2x2 = b1 , (1)a2,1x1 + a2,2x2 = 0 (2)

ist seit mindestens 3650 Jahren die Methode der falschen Annahme bekannt:Sei a2,2 � 0 und (1), (2) eindeutig lösbar.

Sei x(1)1 � 0 eine beliebige „Schätzung“ für x1. Aus (2) berechne man x(1)

2 , so dass(x(1)

1 , x(1)2

)die Gleichung (2) erfüllen. Die Gleichung (1) wird i. Allg. nicht richtig sein,

d. h.

a1,1x(1)1 + a1,2x(1)

2 =: b1 � b1 .

Korrigiere x(1)1 durch x(2)

1 := x(1)1 b1/b1 . Bestimme wieder x(2)

2 , so dass(x(2)

1 , x(2)2

)die Glei-

chung (2) erfüllen. Zeigen Sie: (x1, x2) =(x(2)

1 , x(2)2

).

Aufgabe 1.3 (K) Lösen Sie die folgenden Gleichungssysteme mit Hilfe des GaussschenEliminationsverfahrens:

a)

−2x1 + x2 + 3x3 − 4x4 = −12−4x1 + 3x2 + 6x3 − 5x4 = −21

− x2 + 2x3 + 2x4 = −2−6x1 + 6x2 + 13x3 + 10x4 = −22

b)

x1 + x2 + 2x3 = 32x1 + 2x2 + 5x3 = −45x1 + 5x2 + 11x3 = 6

c)

x1 + x2 = 0x2 + x3 = 0

...xn−1 + xn = 0

xn + x1 = 0

Page 29: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

Aufgaben 29

Aufgabe 1.4 (K)

a) Bestimmen Sie in Abhängigkeit von α, β ∈ R die Lösungsmenge aller x =(xν)ν=1,...,4 mit Ax = b, wobei

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 1 2 3 −11 3 0 12 4 α −2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ , b =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 59β

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

b) Bestimmen Sie weiterhin die Lösungsmenge des zugehörigen homogenen Glei-chungssystems Ax = 0.

Aufgabe 1.5 (T) Ein 9-Tupel (x1, . . . , x9) heiße magisches Quadrat der Ordnung 3, wenn

x1 + x2 + x3 = x4 + x5 + x6 = x7 + x8 + x9 = x1 + x4 + x7

= x2 + x5 + x8 = x3 + x6 + x9 = x1 + x5 + x9 = x3 + x5 + x7

gilt. Stellen Sie ein lineares Gleichungssystem auf, das zu diesen sieben Bedingungenäquivalent ist, und bestimmen Sie den Lösungsraum (mit reellen Komponenten). Wie siehtder Lösungsraum mit rationalen Komponenten aus? Was lässt sich über ganzzahlige Lö-sungen sagen? Gibt es auch eine Lösung, für die xi ∈ N, i = 1, . . . , 9? (siehe J. W. vonGoethe 12: Faust. Der Tragödie erster Teil, Hexenküche).

Aufgabe 1.6 (K) Bringen Sie die folgenden Matrizen durch elementare Zeilenumformun-gen auf Zeilenstufenform:

a) ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 2 2 31 0 −2 03 −1 1 −24 −3 0 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

b) ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝2 1 3 23 0 1 −21 −1 4 32 2 −1 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .

Aufgabe 1.7 (T) Zeigen Sie, dass die Elementarumformung (II) die Lösungsmenge einesLGS nicht verändert.

Aufgabe 1.8 (T) Zeigen Sie (durch vollständige Induktion) die Behauptungen (MM.13)und (MM.14).

12 Johann Wolfgang von Goethe ∗28. August 1749 in Frankfurt am Main †22. März 1832 in Weimar

Page 30: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

30 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums

1.2.1 Vektoren im Rn, Hyperebenen und Gleichungen

Unter einem Vektor verstehen wir vorerst ein n-Tupel

x =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝x1...

xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ (1.19)

reeller Zahlen x1, . . . , xn. Es ist üblich, sich Vektoren als derartige Spaltenvektoren vorzu-stellen, während es aus schreibtechnischen Gründen besser wäre, Zeilenvektoren

x = (x1, . . . , xn) (1.20)

zu benutzen. Der Übergang von Zeile zu Spalte (und umgekehrt) soll durch das hochge-stellte Symbol t (sprich: transponiert) gekennzeichnet werden, also für x nach (1.19) ist

xt = (x1, . . . , xn)

bzw. für x nach (1.20) ist

xt =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝x1...

xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠und allgemein gilt für Zeilen- und Spaltenvektoren

xtt = x .

Wir wollen Zahlenvektoren als Spalten auffassen, sie aber auch als transponierte Zeilen ausschreibtechnischen Gründen notieren. Zur Verdeutlichung werden wie gewohnt Elementedes Rn in Fettdruck dargestellt.

Das n-Tupel (x1, . . . , xn) ist etwas anderes als die Menge {x1, . . . , xn}, da es bei einemn-Tupel auf die Reihenfolge der Einträge ankommt und bei einer Menge nicht (siehe An-hang A.2). Mengentheoretisch genau aufgebaut auf R ist Rn das n-fache kartesische Pro-dukt von R mit sich (siehe Anhang A.4):

Rn := R × . . . ×R︸��������︷︷��������︸n-mal

.

Genaugenommen ist Rn also die Menge aller Abbildungen von {1, . . . , n} nach R (vgl.Definition 1.31):

Rn = Abb ({1, . . . , n}, R) .

Page 31: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 31

Definition 1.10

Der n-dimensionale Zahlenraum ist die Menge

Rn := {(x1, . . . , xn)t : x1, . . . , xn ∈ R} (1.21)

aller als Spalten geschriebenen n-Tupel oder Zahlenvektoren.

Beispiele 1.11 n = 1. R1 = R ist die Zahlengerade.

-2 -1 0 1 2 3

12 e π

n = 2. Seit R.Descartes13 ist es üblich, nach Wahl eines Koordinatensystems, diePunkte der Ebene durch Zahlenpaare (x1, x2) zu parametrisieren. Umgekehrt gibt die Ebe-ne eine Veranschaulichung der Zahlenpaare (x1, x2) und damit des Raums R2. Man „iden-tifiziert“ den Zahlenraum R2 mit der Ebene.

�x1

x2

���������

(x1, x2)

(-1,-1)�

(0,-1)�

(1,-1)

(-1,0)�

(0,0)�

(1,0)

(-1,1)�

(0,1)�

(1,1)

n = 3. Ebenso wie die Punkte der Ebene mit den Zahlenpaaren (x1, x2)t ∈ R2 identifiziertwerden können, können nach Wahl eines Koordinatensystems die Punkte des Anschau-ungsraums mit Zahlentripeln (x1, x2, x3)t ∈ R3 identifiziert werden.

13 René Descartes ∗31. März 1596 in La Haye en Touraine †11. Februar 1650 in Stockholm

Page 32: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

32 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

�x1

�x3

�����������x2

��������

(x1, x2, x3)

����

n = 4. Zu Beginn des 20. Jahrhunderts schlug A. Einstein14 den vierdimensionalenZahlenraum R4 in seiner speziellen Relativitätstheorie als geometrisches Modell für denuns umgebenden Raum vor, wobei die Zeit als vierte Koordinate interpretiert wird. Erstwenige Jahre vorher war es in der Mathematik üblich geworden, geometrische Betrachtun-gen auch in mehr als drei Dimensionen durchzuführen. Die italienischen Geometer hattendiese Zahlenräume höherer Dimension, welche sie zunächst „Hyperräume“ nannten, in dieMathematik eingeführt. ◦Bei einem LGS mit n Unbekannten und m Zeilen treten n-Tupel auf

• durch den Lösungvektor x = (x1, . . . , xn)t,• die Transponierten der m Zeilen der Koeffizientenmatrix a(μ) = (aμ,1, . . . , aμ,n)t,

μ = 1, . . . , m,

bzw. m-Tupel

• durch die rechte Seite b = (b1, . . . , bm)t,• durch die n Spalten a(ν) = (a1,ν, . . . , am,ν)t, ν = 1, . . . , n .

Für die Menge der Lösungsvektoren hat Theorem 1.8 gezeigt, dass eine komponentenwei-se definierte Addition sinnvoll ist. Wir wollen dieses und für eine Multiplikation mit λ ∈ Rallgemein tun.

Für die Vektoren des Zahlenraums Rn kann man die folgenden beiden Rechenoperationendefinieren:

Definition 1.12

1) Die Addition + : Rn ×Rn → Rn ist erklärt durch die Vorschrift

14 Albert Einstein ∗14. März 1879 in Ulm †18. April 1955 in Princeton

Page 33: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 33

x + y :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝x1

x2...

xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ +⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝y1

y2...yn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝x1 + y1

x2 + y2...

xn + yn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ für alle x, y ∈ Rn .

Der Vektor x + y heißt die Summe von x und y.2) Die Multiplikation mit Skalaren · : R × Rn → Rn, auch λ-Multiplikation

genannt, ist erklärt gemäß

λ · x := λ x := λ

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝x1

x2...

xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝λx1

λx2...

λxn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ für alle λ ∈ R und x ∈ Rn .

Der Vektor λ x heißt skalares Vielfaches von x.

Dabei bezeichnet Rn × Rn bzw. R × Rn das jeweilige kartesische Produkt (siehe An-hang A.4), bestehend aus geordneten Paaren aus der jeweiligen Menge.

Es werden also keine neuen Symbole (z. B. ⊕, �) für die neu definierten Operationeneingeführt, sondern die für R etablierten mit neuer (erweiterter) Bedeutung benutzt. Dieswird auch im Folgenden wenn möglich so gehandhabt. Den Programmierkundigen ist diesals Operator Overloading bekannt.

Bemerkungen 1.13

1) Die elementaren Umformungen (II) und (III) sind also eine Skalarmultiplikation derZeile bzw. eine solche kombiniert mit einer Addition zweier Zeilen (jeweils als Tupel inRn+1 aufgefasst).

2) Das Theorem 1.8 lässt sich sodann kurz so schreiben: Ist das LGS Ax = b lösbar, d. h.L := {x ∈ Rn : Ax = b} � ∅, sei y ∈ L, dann gilt:

L = {y + h : h ∈ Rn und Ah = 0} .

*3) Um im Folgenden Vorgehensweisen (z. B. das Gauss-Verfahren) bewerten zu kön-nen, ist es nützlich jeder Operation mit n-Tupeln (und später Matrizen) ein Aufwands-maß zuzuordnen. Hier soll dazu folgende Vorstellung zugrunde gelegt werden: Addition/-Subtraktion und Multiplikation/Division werden gleich als Elementaroperation gewertet,Datenzugriffe werden nicht berücksichtigt. Im Hinblick auf moderne Computer ist dieseVorstellung nicht sehr exakt, gibt aber eine erste Orientierung. In diesem Sinne benötigensowohl Addition als auch Skalarmultiplikation im Rn n Operationen. �Beide Rechenoperationen sind komponentenweise nichts anderes als das übliche Addierenund Multiplizieren reeller Zahlen. Deswegen gelten auch hier die wohlbekannten Rechen-regeln:

Page 34: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

34 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Wir setzen V := Rn. Dann gelten in (V,+, ·) die folgenden Rechengesetze:

(A) Für die Addition:

(A.V1) x + y = y + x, (Kommutativgesetz)

(A.V2) x + (y + z) = (x + y) + z, (Assoziativgesetz)

(A.V3) Es gibt genau ein 0 ∈ V , so dassx + 0 = x für alle x ∈ V (konkret: 0 := (0, . . . , 0)t). (neutrales Element)

(A.V4) Zu x ∈ V gibt es genau ein −x ∈ V, so dassx + −x = 0 (konkret: −x := (−x1, . . . ,−xn)t). (inverses Element)

(M) Für die Multiplikation mit Skalaren (λ-Multiplikation):

(M.V1) (λ + μ)x = λ x + μ x, (1. Distributivgesetz)

(M.V2) λ(x + y) = λ x + λ y, (2. Distributivgesetz)

(M.V3) (λ μ)x = λ(μ x), (Assoziativgesetz)(M.V4) 1 · x = x. (neutrales Element)jeweils für beliebige x, y, z ∈ V und λ, μ ∈ R.

Bemerkung 1.14 Die Eigenschaften (A.V3) und (A.V4) sind allgemein unter Vorausset-zung von (A.V1) und (A.V2) (d. h. unabhängig von Rn) hinreichend für

(A.V5) a + x = b besitzt für jede Vorgabe a, b ∈ V genau eine Lösung x ∈ V ,

(nämlich die Differenz von b und a , x := −a + b).

�Weiter folgt aus den obigen Eigenschaften:

0x = 0 ,

−x = (−1)x ,

λ0 = 0 ,

λx = 0 ⇔ 15 λ = 0 oder x = 0 .

(1.22)

Wir benutzen folgende Kurzschreibweise:

a − b := a + (−b) ,

d. h. konkret in Rn

a − b = (a1 − b1, . . . , an − bn)t

für die Lösung der Gleichung in (A.V5).

15 Für die (nur sparsam) verwendeten logischen Operationen konsultiere man Anhang A.1, Anhang A.3

Page 35: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 35

Definition 1.15

Mit den obigen Verknüpfungen + und · versehen, heißt Rn nach (1.21) n-dimensi-onaler Skalarenvektorraum über R. x = (x1, . . . , xn)t ∈ Rn heißt Vektor oder auchPunkt im Rn, xk, k = 1, . . . , n, k-te Komponente von x.

P

RQ

Q′

−−→PQ

−−→QR

−−→PR

Abb. 1.3: Kommutativität der Pfeiladdition: „Parallelogramm der Kräfte“.

���������

�����

������������

y1 x1 x1 + y1

x2

y2

x2 + y2

x

y

x + y

������������

x1 c · x1

x2

c · x2

x

c · x

Abb. 1.4: Veranschaulichung von Addition und Skalarmultiplikation in Rn.

Bemerkung 1.16 (Geometrie) Kennt man schon einen Vektorbegriff aus der Physik oderder Geometrie, wird man vielleicht stutzig, insbesondere durch die in Definition 1.15 vor-genommene Identifikation von Vektoren und Punkten. In der Physik ist ein Vektor eine

Page 36: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

36 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Größe in Ebene oder Raum, die Länge und Richtung hat, kurz eine gerichtete Größe wiezum Beispiel Kraft oder elektrische Stromstärke (siehe Beispiele 2 und 3: dort konntemit Zahlen modelliert werden, da nur eine Richtung möglich und diese festgelegt ist).Bezeichnet werden diese Vektoren durch Pfeile

−−→AB in Ebene oder Raum, wobei parallel-

verschobene Pfeile identifiziert werden. Man spricht daher manchmal auch von freien Vek-toren. Analoges gilt für die Geometrie. Addiert werden solche Pfeile durch Aneinanderle-gen (siehe Abbildung 1.3):

−−→PQ +

−−→QR =

−−→PR .

Das „Parallelogramm der Kräfte“ besagt, dass auch gilt

−−−→PQ′ +

−−−→Q′R =

−−→PR ,

wobei−−−→PQ′ gerade das parallel-verschobene

−−→QR mit „Anfangspunkt“ P ist und analog

−−−→Q′R

zu verstehen ist. Dies ist genau die Kommutativität der Addition, das Distributivgesetzfolgt zum Beispiel aus dem Strahlensatz. Insgesamt lassen sich Eigenschaften (A) und (M)für die Menge der „Pfeilklassen“ elementargeometrisch begründen. Der Zusammenhangzur Definition 1.15 für n = 2 oder 3 wird durch Wahl eines kartesischen Koordinaten-systems in Ebene oder Raum hergestellt. Versteht man den Rn als Punktraum, so ist esgeometrisch sinnlos, von der Addition von Punkten zu sprechen, da bei Definition 1.12 dieSumme vom Koordinatenursprung abhängt. Dagegen ist es geometrisch sinnvoll, von derDifferenz von Punkten (als einem neuen Objekt) zu sprechen, da

−−→PQ := Q − R (1.23)

unabhängig von einer Verschiebung des Ursprungs ist. Auf Rn können also die „freienVektoren“ gefasst werden, folglich eine Translation des Rn, d. h. eine bijektive Abbildung(siehe Definition A.14), die definiert ist durch

T := Rn → Rn, x �→ x + a

für ein fest vorgegebenes a ∈ Rn, das in diesem Sinn diesen „freien Vektor“−−→PQ darstellt:

a =−−→PQ. Eine Translation, d. h. das zugehörige a ∈ Rn, wird eindeutig festgelegt durch

Kenntnis eines Paares (x, T x) (hier: (P, T (P))), also ist−−→PQ der eindeutige „freie Vektor“,

der für die Punkte P, Q die Beziehung

P +−−→PQ = Q

erfüllt im Sinne von T (P) = Q. Eine solche Unterscheidung zwischen Punkten und Vek-toren wird im Begriff des affinen Raumes als Grundlage der affinen Geometrie vorgenom-men (siehe Abschnitt 1.7). Auf dem Vektorraum Rn (im Sinn von Definition 1.15) kannman einen affinen Raum aufbauen, wenn die x ∈ Rn die Rolle der „Punkte“ und die Diffe-renzen y − x die Rolle der „Vektoren“ spielen. Um also anschaulich Punkte und Vektorenidentifizieren zu können, müssen wir uns auf Ortsvektoren, im Koordinatenursprung O be-

Page 37: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 37

ginnende Pfeile, beschränken, d. h. wir identifizieren P mit−−→OP. In diesem Sinn, für n = 2

und 3 interpretiert als Ebene bzw. Anschauungsraum, entspricht die komponentenweiseAddition der Addition nach dem „Kräfteparallelogramm“, die Multiplikation stellt eineStreckung (|λ| > 1) bzw. Stauchung (|λ| < 1) mit Richtungsumkehr für λ < 0 dar. An-dererseits führen Operatoren mit dieser Interpretation, die die Rechengesetze (A) und (M)erfüllen, notwendigerweise auf die komponentenweise Definition. �Wir möchten im Folgenden an einem ganz einfachen Beispiel einen Wesenszug der Li-nearen Algebra demonstrieren, der darin besteht, Algebra auf geometrische Sachverhalteanzuwenden, bzw. umgekehrt, intuitive Methoden aus der Geometrie für algebraische An-wendung zu abstrahieren. Als Beispiel diskutieren wir Geraden (in der Ebene und allge-mein).

Eine Gerade L im Zahlenraum Rn wird gegeben durch einen Anfangsvektor u und einenRichtungsvektor 0 � w ∈ Rn (siehe Abbildung 1.5). Sie ist die Menge

L := {u + tw ∈ Rn : t ∈ R} =: u +Rw .

L

��������u + tw

0

u

�� w (verschoben)

Abb. 1.5: Gerade L mit Anfangsvektor u und Richtungsvektor w.

Lemma 1.17: Geradendarstellung

Die Gerade L stimmt mit einer zweiten Geraden L′ := {u′ + sw′ : s ∈ R} genau dannüberein, wenn u′ ∈ L und w′ = c · w mit 0 � c ∈ R.

Beweis: 16 „⇒“: Wenn die Mengen L = {u + tw : t ∈ R} und L′ = {u′ + sw′ : s ∈ R}übereinstimmen, dann ist insbesondere (für s = 0) der Vektor u′ ein Vektor aus L, also vonder Form u′ = u+ t0w. Ebenso ist (für s = 1) auch u′+w′ ∈ L, somit u+ t0w+w′ = u′+w′ =u + tw für ein t ∈ R. Daraus folgt w′ = cw mit c = t − t0. Wegen w′ � 0 muss auch c � 0sein.„⇐“: Sei u′ = u + t0w ∈ L und w′ = cw. Dann ist

Page 38: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

38 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

L′ = {u′ + sw′ : s ∈ R} = {u + (t0 + sc)w : s ∈ R} = {u + tw : t ∈ R} ,denn wegen c � 0 durchläuft mit s auch t = t0 + sc alle reellen Zahlen. �

Satz 1.18

Durch je zwei Vektoren x � y des Rn gibt es genau eine Gerade L.

Beweis: Existenz: Wir wählen u := x und w := y − x. Dann enthält die Gerade L, diegegeben ist duch L = {u + tw : t ∈ R} = {x+ t(y− x) : t ∈ R} beide Vektoren x (für t = 0)und y (für t = 1).Eindeutigkeit: Sei L′ = {u′+tw′ : t ∈ R} eine Gerade, welche die Vektoren x und y enthält.Wegen Lemma 1.17 können wir diese Gerade auch schreiben als L′ = {x + tw′ : t ∈ R}.Da y = x + t0w′ mit t0 � 0 (wegen x � y), ist der Richtungsvektor w′ = 1

t0(y − x) ein

Vielfaches des Richtungsvektors y − x von L. Nach Lemma 1.17 ist somit L′ = L. �

Die Gerade durch x und y lässt sich etwas anders schreiben:

L = {x + t(y − x) : t ∈ R} = {(1 − t)x + ty : t ∈ R} = {sx + ty : s, t ∈ R, s + t = 1} .Die Gerade durch x und y ist nicht dasselbe, wie die Strecke zwischen x und y, die definiertist als

S := {sx + ty : 0 ≤ s, t ≤ 1, s + t = 1} = {sx + (1 − s)y : 0 ≤ s ≤ 1} .

Für s = t = 12 erhält man den Mittelpunkt 1

2 (x + y) dieser Strecke.

Nach diesen einfachen Tatsachen, welche in jedem Zahlenraum Rn richtig sind, betrach-ten wir jetzt den Zusammenhang von Geraden im R2 mit linearen Gleichungen in zweiUnbekannten.

Satz 1.19

Für eine Teilmenge L ⊂ R2 sind folgende Eigenschaften äquivalent:

(i) L ist eine Gerade durch den Nullpunkt (0 ∈ L).

(ii) L ist Lösungsmenge einer homogenen linearen Gleichung

a1x1 + a2x2 = 0

mit Koeffizienten a1, a2, die nicht beide 0 sind, d. h. (a1, a2)t � 0 .

Beweis: „(i)⇒(ii)“: Als Anfangsvektor für L nehmen wir den Nullvektor und beschreibenunsere Gerade als

Page 39: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 39

L = {tw : t ∈ R} = {(tw1, tw2)t : t ∈ R}mit Koeffizienten w1, w2, die nicht beide 0 sind. Für unsere homogene Gleichung brauchenwir Koeffizienten a1, a2 mit der Eigenschaft a1w1 + a2w2 = 0. Die Zahlen

a1 := w2, a2 := −w1

haben diese Eigenschaft, d. h. wir behaupten, dass L übereinstimmt mit der Menge, diegegeben ist durch {(x1, x2)t ∈ R2 : w2x1 − w1x2 = 0}. Wegen w2 · tw1 − w1 · tw2 = 0ist klar, dass L in dieser Menge enthalten ist. Umgekehrt ist diese Menge aber, wie wirim nächsten Beweisschritt sehen werden, eine Gerade. Da sie 0 und w enthält, stimmt sienach Satz 1.18 mit L überein.„(ii)⇒(i)“: Falls a1 � 0, so erfüllt x = (x1, x2)t die Gleichung a1x1 + a2x2 = 0 genaudann, wenn x1 = − a2

a1x2, das heißt, wenn x = x2 · (− a2

a1, 1)t auf der Geraden durch 0 mit

dem Richtungsvektor w = (− a2a1, 1)t liegt. Wenn aber a1 = 0, so lautet die Gleichung

a2x2 = 0. Da nun nach Voraussetzung a2 � 0, ist dies äquivalent mit x2 = 0. Diese Mengeist die Gerade durch den Nullpunkt mit Richtungsvektor (1, 0)t. �

Bemerkung 1.20 Der Vektor a = (w2,−w1)t ist nicht die einzige Wahl. Genauso hättenwir a′ = (−w2, w1)t oder allgemeiner jedes Vielfache von a wählen können. Allen diesenVektoren ist gemein, dass sie senkrecht auf w stehen. Es ist spezifisch für die Ebene R2,dass es keine weiteren solche Vektoren gibt. Dies wird später präzisiert werden (sieheSkalarprodukt, orthogonal, Dimension, Dimensionsformel). �

Satz 1.21: Gerade in R2 = eine lineare Gleichung

Für eine Teilmenge L ⊂ R2, L � ∅ sind äquivalent:

(i) L ist eine Gerade nicht durch den Nullpunkt (nicht 0 ∈ L).

(ii) L ist Lösungsmenge einer inhomogenen linearen Gleichung a1x1 +a2x2 = b,wobei (a1, a2)t � 0 und b � 0.

Beweis: „(i)⇒(ii)“: Wir schreiben L = {u + tw : t ∈ R} mit u � 0 und betrachten dieGerade L0 := {tw : t ∈ R} mit demselben Richtungsvektor durch den Nullpunkt. NachSatz 1.19 ist L0 Lösungsmenge einer homogenen linearen Gleichung a1x1 + a2x2 = 0.Demnach ist

L = {u + x : x ∈ L0} = {u + x : a1x1 + a2x2 = 0} = {y ∈ R2 : a1y1 + a2y2 = a1v1 + a2v2} .Da L nicht durch den Nullpunkt geht, liegt u nicht auf L0, und es ist b := a1v1 + a2v2 � 0.„(ii)⇒(i)“: Sei nun

L = {x ∈ R2 : a1x1 + a2x2 = b} = {u + y ∈ R2 : a1y1 + a2y2 = 0} ,

Page 40: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

40 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

wobei u eine spezielle Lösung der inhomogenen linearen Gleichung a1v1 + a2v2 = b ist(man beachte L � ∅ und Theorem 1.8). Nach Satz 1.19 beschreibt die homogene lineareGleichung a1y1 + a2y2 = 0 eine Gerade L0 = {tw : t ∈ R} durch den Nullpunkt. Somit istL = {u + tw : t ∈ R} eine Gerade, die wegen b � 0 nicht durch den Nullpunkt verläuft. �

Beispiel 1.22 (Geometrie) Wir sahen, dass die Lösungsmenge einer linearen Gleichungin zwei Unbekannten, deren Koeffizienten nicht beide 0 sind, eine Gerade in der Zahlene-bene R2 ist. Die Lösungsmenge eines Systems von zwei derartigen linearen Gleichungen

a1,1x1 + a1,2x2 = b1 (Lösungsmenge L1) ,a2,1x1 + a2,2x2 = b2 (Lösungsmenge L2)

ist deswegen der Durchschnitt L1 ∩ L2 der beiden Geraden. Für diesen Durchschnitt gibtes folgende Möglichkeiten:

1) L1 = L2: L1 ∩ L2 ist die Gerade L1 = L2,2) L1 � L2, L1 ∩ L2 � ∅ : L1 ∩ L2 ist ein Punkt,3) L1 � L2, L1 und L2 parallel : L1 ∩ L2 ist leer .

Zu diesen drei Möglichkeiten gehören die folgenden drei Stufenformen der Koeffizienten-matrix:

1)(

1 ∗ ∗0 0 0

)oder

(0 1 ∗0 0 0

), 2)

(1 ∗ ∗0 1 ∗

), 3)

(1 ∗ ∗0 0 1

)oder

(0 1 ∗0 0 1

). ◦

Eine analoge Situation ergibt sich in R3: Eine Ebene wird beschrieben durch

Definition 1.23

Seien u,w1,w2 ∈ Rn, w1,w2 � 0 und es gebe kein c ∈ R, so dass w1 = cw2.

Dann heißt

E = {u + tw1 + sw2 : t, s ∈ R} =: u +Rw1 +Rw2

Ebene in Rn.

Analog zu Satz 1.19, 1.21 gilt:

Satz 1.24: Ebene in R3 = eine lineare Gleichung

Die Lösungsmenge einer linearen Gleichung

a1x1 + a2x2 + a3x3 = b

mit Koeffizientenvektor a = (a1, a2, a3)t � 0 sei nicht leer. Dann ist sie eine Ebenein R3. Dabei ist b = 0 genau dann, wenn 0 zur Ebene gehört.

Page 41: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 41

Beweis: Wegen Theorem 1.8 genügt es, den homogenen Fall b = 0 zu betrachten. Essei L0 ⊂ R3 Lösungsmenge obiger Gleichung. Wegen a � 0 gibt es ein ai � 0. NachVertauschung der Koordinaten können wir a1 � 0 annehmen. Dann ist die allgemeineLösung der Gleichung

x =(−a2

a1x2 − a3

a1x3, x2, x3

)t

= x2u1 + x3u2

mit x2, x3 ∈ R und

u1 =

(−a2

a1, 1, 0

)t

, u2 =

(−a3

a1, 0, 1

)t

.

Offensichtlich sind u1 und u2 keine Vielfachen voneinander, somit ist diese Menge eineEbene E0. Ist x ∈ E0, dann erfüllt es auch die lineare Gleichung, also L0 = E0. �

Beispiel 1.25 (Geometrie) Auch die Umkehrung, dass nämlich eine Ebene die Lösungs-menge einer solchen linearen Gleichung ist, gilt wie zu erwarten, ist aber mit unseremnoch geringem Kenntnisstand etwas schwerfällig zu beweisen (siehe Bemerkungen 1.27,3)). Bei Annahme der Gültigkeit der Entsprechung von Ebene und Gleichung in drei Un-bekannten ergibt sich folglich: Der Durchschnitt S = E1∩E2 zweier Ebenen Ei ⊂ R3 wirdinfolgedessen durch ein LGS mit drei Unbekannten und zwei Gleichungen beschrieben.Dabei gibt es die Möglichkeiten

SE1 = E2 EbeneE1 ∦ E2 GeradeE1 ‖ E2, E1 � E2 ∅

Dementsprechend wird der Durchschnitt von drei Ebenen durch ein LGS mit drei Unbe-kannten und drei Gleichungen beschrieben. Es gibt die weitere Möglichkeit

SEi ∦ E j; i, j = 1, 2, 3; i � j Punkt

In diesem Fall ist das Gleichungssystem eindeutig lösbar. Es ist eine Möglichkeit, dass Snur aus einem Punkt besteht, der Schnitt kann aber auch eine Gerade sein. ◦Ei‖E j bzw. Ei ∦ E j steht hier als Kurzschreibweise für Ei ist (nicht) parallel zu E j undappelliert vorerst an eine elementargeometrische Anschauung. Eine exakte Definition vonParallelität findet sich in Definition 1.117 (siehe auch Beispiel 1.67). Schließlich könnenwir in Rn allgemein definieren:

Definition 1.26

Sei a ∈ Rn, a � 0, b ∈ R.

H :=

⎧⎪⎪⎨⎪⎪⎩x ∈ Rn :n∑

ν=1

aνxν = b

⎫⎪⎪⎬⎪⎪⎭

Page 42: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

42 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

heißt Hyperebene in Rn.

Eine Hyperebene im Rn ist demnach die Lösungsmenge einer einzigen linearen Gleichungin n Unbekannten. Im Rn mit n = 2 bzw. = 3 ist eine Hyperebene eine Gerade bzw. Ebene.Jede Zeile eines LGS beschreibt eine Hyperebene. Die Lösungsmenge des LGS ist derDurchschnitt all dieser Hyperebenen. Das ist die zeilenweise Interpretation eines LGS. DieHyperebene H enthält genau dann den Nullvektor 0, wenn b = 0 ist. Deswegen enthält dieLösungsmenge eines LGS genau dann den Nullvektor, wenn das LGS homogen ist. Nocheinmal, weil es so wichtig ist:

Eine Zeile eines LGS definiert eine Hyperebene. Die Lösungsmenge des LGS ist derSchnitt aller dieser Hyperebenen.

Bemerkungen 1.27

1) Die Beschreibung L = {u+ tw : t ∈ R} = u + Rw heißt Parametrisierung oder expliziteBeschreibung der Geraden L. Die Beschreibung a1x1 + a2x2 = b heißt implizit.

2) Wenn c � 0, so ist ca1x1+ca2x2 = cb eine implizite Beschreibung der gleichen Geraden(Zeilenumformung vom Typ II). Wählt man, im Falle b � 0, a1 � 0 und a2 � 0, c = 1

b ,dann erhält man die Achsenabschnittsform

1p

x1 +1q

x2 = 1 ,

so dass also (p, 0)t und (0, q)t auf der Gerade liegen.

� x1

x2

�������

q

p

Abb. 1.6: Gerade in Achsenabschnittsform.

3) Auch in Satz 1.24 gilt analog zu Satz 1.19, 1.21 die Äquivalenz zwischen Ebene undLösungsmenge einer Gleichung mit Koeffizienten a � 0, d. h. es gilt zusätzlich:

a) Sei E = {tw1 + sw2 : s, t ∈ R} und wi � 0 ∈ R3, so dass nicht gilt w1 = cw2 für einc ∈ R, dann ist E die Lösungsmenge L einer Gleichung, wobei o. B. d. A.17 0 ∈ Eangenommen wird.

17 „ohne Beschränkung der Allgemeinheit“, abgekürzt „o. B. d. A.“ bedeutet, dass nur ein Spezialfallexplizit behandelt wird, da die verbleibenden Fälle auf den behandelten zurückgeführt oder anderwei-

Page 43: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 43

Das kann man wie folgt einsehen: Man betrachte das homogene LGS aus zwei Gleichungen indrei Variablen zu

A :=(wt

1wt

2

).

Nach Lemma 1.7 hat dieses mindestens eine Lösung a � 0. Also gilt

a1w1,1 + a2w1,2 + a3w1,3 = 0 ,a1w2,1 + a2w2,2 + a3w2,3 = 0 ,

wobei wi = (wi, j) j=1,2,3. Damit gilt auch für x = tw1 + sw2 nach Multiplikation der 1. bzw. 2.Gleichung mit t bzw. s und anschließender Addition

a1 x1 + a2 x2 + a3 x3 = 0 .

Demnach gibt es ein a ∈ R3, a � 0, so dass

x ∈ E ⇒3∑

i=1

ai xi = 0⇔: x ∈ L .

Es könnte immer noch sein, dass eine Ebene E nur echte Teilmenge der Lösungsmenge L einerlinearen Gleichung ist. Da aber immer die Beziehung gilt

E ⊂ L ⊂ E , wobei die letzte Beziehung aus Satz 1.24 für eine Ebene E

folgt, ergibt sich jeweils die Identität, da zusätzlich gilt:

b) Seien E1, E2 Ebenen (in Rn), so dass E1 ⊂ E2. Dann gilt E1 = E2.Zur Verdeutlichung der Gültigkeit dieser Aussage kann wieder o. B. d. A. angenommen werden,dass 0 ∈ E1 und 0 ∈ E2, d. h.

E1 = {tu1 + su2 : t, s ∈ R} ,E2 = {λw1 + μw2 : λ, μ ∈ R} .

Dabei sind u1, u2 � 0 so, dass es kein c ∈ R gibt mit u1 = cu2 und analog für w1,w2. Um E2 ⊂ E1zu zeigen, reicht w1,w2 ∈ E1, d. h. die Existenz von ti, si ∈ R, i = 1, 2, so dass

wi = tiu1 + siu2 für i = 1, 2 . (1.24)

Nach Voraussetzung ist ui ∈ E2, i = 1, 2, d. h. es gibt λi, μi ∈ R, so dass

u1 = λ1w1 + μ1w2 ,u2 = λ2w1 + μ2w2 .

Notwendigerweise ist

α := λ1μ2 − μ1λ2 � 0,

denn wäre α = 0, dann wäre

λ1u2 = λ1λ2w1 + λ1μ2w2= λ2(λ1w1 + μ1w2) = λ2u1 .

tig leicht untersucht werden können („trivial“ sind). Ein(e) ernsthafte(r) Leser(in) überprüft immer eino. B. d. A. durch Vervollständigung der Überlegung.

Page 44: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

44 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Da nach Voraussetzung u1, u2 nicht Vielfache voneinander sind, ist dieser Fall unmöglich.Setzt man

t1 := μ2/α, s1 := −μ1/α ,t2 := −λ2/α, s2 := λ1/α ,

so ergibt sich (1.24) durch direktes Nachrechnen.

Der Beweis ist hier recht schwerfällig geworden und bietet auch keine Verallgemei-nerungsmöglichkeiten. Wir werden bald über Instrumente verfügen, solche Fragen(auch in Rn) direkter bearbeiten zu können. �

1.2.2 Tupel-Vektorräume und der allgemeine R-Vektorraum

Wir haben verschiedene Stufen der Abstraktion kennengelernt:

• R2 bzw. R3 als Darstellung von Anschauungsebene und -raum,• Rn definiert durch Definition 1.10 und Definition 1.12 (und für n = 1, 2, 3 geome-

trisch vorstellbar) und dementsprechend,• Aussagen in R2 (Satz 1.19, 1.21) mit geometrischer Interpretation, aber hergeleitet

aus Definition 1.10 und Definition 1.12 (und darauf aufbauenden Aussagen),• Aussagen in Rn, hergeleitet aus Definition 1.10 und Definition 1.12.

In diesem Abschnitt verallgemeinern wir die Rechenstrukturen „+“ und „·“ vom Rn aufallgemeinere Räume. Dies tun wir in zwei Schritten: Zunächst betrachten wir Räume, diesich vom Zahlenraum Rn nur unwesentlich unterscheiden, d. h. nur in der Art, wie wir ihreElemente notieren.

Definition 1.28

Ein Polynom vom Grad ≤ n ist eine Funktion auf R der Form

f (x) =n∑

ν=0

aνxν, a0, . . . , an ∈ R.

Mit Rn[x] bezeichnen wir die Menge aller dieser Polynome vom Grad≤ n. Ist an � 0,so heißt f ein Polynom vom Grad n. Auch in diesem Raum sind Addition „+“ undMultiplikation „·“ mit Skalaren definiert:

1) Addition: Sind

f (x) =n∑

ν=0

aνxν und g(x) =n∑

ν=0

bνxν ∈ Rn[x]

solche Polynome, so ist ihre Summe für alle x aus dem Definitionsgebiet

Page 45: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 45

( f + g)(x) := f (x) + g(x) , (1.25)

also

( f + g)(x) =n∑

ν=0

aνxν +

n∑ν=0

bνxν =

n∑ν=0

(aν + bν)xν.

2) Skalarmultiplikation: Ist f (x) ∈ Rn[x] und c ∈ R, so ist deren Produkt

(c · f )(x) = c · f (x) für alle x aus dem Definitionsgebiet, (1.26)

also

(c · f )(x) =n∑

ν=0

c · aνxν.

Ein Polynom f (x) ∈ Rn[x] ist durch seinen Koeffizientenvektor (a0, . . . , an)t ∈ Rn+1 ein-deutig bestimmt. Und umgekehrt können wir von einem Polynom eindeutig auf diesenKoeffizientenvektor zurückschließen. Die so definierte Abbildung

Rn[x]→ Rn+1

ist bijektiv (siehe Anhang A.2). Den Beweis dafür werden wir später führen (Bemerkun-gen 1.63, 2)). Unter dieser Zuordung entspricht die Addition zweier Polynome der Addi-tion ihrer Koeffizientenvektoren, die Multiplikation eines Polynoms mit einem Skalar derMultiplikation seines Koeffizientenvektors mit diesem Skalar. Deswegen gelten in Rn[x]genau die gleichen Rechenregeln wie im Zahlenraum Rn+1.

Ein analoges Beispiel ist die Menge der (verallgemeinerten) Histogramme oder Treppen-funktionen:

Definition 1.29

Sei [a, b] ein abgeschlossenes Intervall in R und

Δ : a = x0 < x1 < . . . < xn−1 < xn = b

eine feste Zerlegung für ein festes n ∈ N (z. B. äquidistant: xi = a + ih mit Schritt-weite h := (b − a)/n). Seien f0, . . . , fn−1 ∈ R, dann ist ein Histogramm oder eineTreppenfunktion definiert durch

f (x) = fi für x ∈ [xi, xi+1) , i = 0, . . . , n − 2 ,

f (x) = fn−1 für x ∈ [xn−1, b] .(1.27)

Wir bezeichnen diese Menge mit S 0(Δ).

Page 46: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

46 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

f (x)

xAbb. 1.7: Histogramm (Treppenfunktion):� bedeutet Ausschluss des Randwertes.

Wieder wird die Funktion f durch das n-Tupel ( f0, . . . , fn−1)t beschrieben, d. h. die Abbil-dung von S 0(Δ)→ Rn, die durch

f �→ ( f0, . . . , fn−1)t

definiert wird, ist bijektiv und die durch (1.25) und (1.26) punktweise definierte Additionund Skalarmultiplikation entsprechen genau den Verknüpfungen in Rn.

Anscheinend haben bei den bisherigen Überlegungen nur die Rechenregeln für Addi-tion und Skalarmultiplikation eine Rolle gespielt (vgl. (A), (M)), so dass wir allgemeindefinieren:

Definition 1.30

Auf einer Menge V � ∅ sei eine innere Verknüpfung (Addition) +, d. h. eine Ab-bildung + : V × V → V und eine Verknüpfung mit Elementen aus R (Skalarmulti-plikation), d. h. eine Abbildung · : R × V → V gegeben, so dass die Eigenschaften(A.V1-A.V4) und (M.V1-M.V4) gelten. Dann heißt (V,+, ·) ein R-Vektorraum. DieElemente x ∈ V heißen Vektoren. Das neutrale Element wird mit 0 und das zu xinverse Element wird mit −x bezeichnet.

Zur Notation: Bei allgemeinen R-Vektorräumen behalten wir den Fettdruck zur Verdeut-lichung des Unterschiedes zwischen Vektor und Skalar bei. Bei konkreten Funktionen-räumen V (s.o.) verzichten wir darauf. Wichtig ist dann, zwischen Skalaren λ ∈ R undVektoren f ∈ V zu unterscheiden. Die Aussage (1.22) gilt auch allgemein in einem belie-bigen R-Vektorraum (V,+, ·). Seien λ ∈ R, x ∈ V beliebig:

Rechenregel Begründung0x = 0 0x = (0 + 0)x = 0x + 0x, also 0 = 0x + 0x + (−0x)−x = (−1)x x + (−1)x = 1 · x + (−1)x = (1 + (−1))x = 0x = 0

λ0 = 0 λ0 = λ(0 + 0) = λ0 + λ0

λx = 0⇔ λ = 0 oder x = 0 Es ist nur noch “⇒“ zu zeigen: Angenommen, es istλ � 0, dann: x = 1x = ( 1

λλ)x = 1

λ(λx) = 1

λ0 = 0 .

Page 47: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 47

Die Definition einer Gerade L = u + Rw und einer Ebene E = u + Rw1 + Rw2 in Defi-nition 1.23 (für w1,w2 � 0, so dass w1 � cw2 für alle c ∈ R) kann direkt für allgemeineR-Vektorräume (d. h. u,w1,w2 ∈ V) übertragen werden.

Beispiele für R-Vektorräume sind (neben (Rn,+, ·)) mit +, · definiert in Definition 1.28:

• (Rn[x],+, ·),• (S 0(Δ),+, ·).

Das neutrale Element 0 dieser Räume ist in beiden Fällen ein Element f , so dass

f (x) = 0 für alle x , (1.28)

d. h. es gilt für die Koeffizientenvektoren

(a0, . . . , an)t = (0, . . . , 0)t bzw. ( f0, . . . , fn−1)t = (0, . . . , 0)t .

Das inverse Element − f zu f ist

(− f )(x) := − f (x) für alle x aus dem Definitionsgebiet, (1.29)

d. h. z. B. für

f (x) =n∑

ν=0

aνxν ist (− f )(x) =n∑

ν=0

(−aν)xν für alle x .

Ein mit S 0(Δ) verwandtes Beispiel einesR-Vektorraums ist, mit ebenfalls nach (1.25)und (1.26) definierter Operation, der Raum

S 1(Δ) := { f : [a, b]→ R : f ist eine Gerade auf [xi, xi+1] für i = 0, . . . , n − 1und stetig an den Übergangsstellen xi, i = 1, . . . , n − 1} .

(1.30)

Dabei ist Δ : a = x0 < x1 < . . . < xn−1 < xn = b eine fest zugrunde gelegte Zerlegungvon [a, b]. Die Elemente von S 1(Δ) sind also die (stetigen) Polygonzüge auf Δ. Manspricht auch von linearen Splines. Die Beispiele aus Definition 1.28, Definition 1.29oder (1.30) lassen sich noch einmal verallgemeinern zu:

Definition 1.31

Sei M � ∅ eine Menge und

Abb(M,R) := { f : f ist Abbildung von M nach R}.Auf Abb(M, R) wird eine Addition und eine Multiplikation mit Zahlen aus R einge-führt durch (1.25) bzw. (1.26), d. h. punktweise

Page 48: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

48 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

( f + g)(x) := f (x) + g(x) für alle x ∈ M, für alle f , g ∈ Abb(M,R) ,

(c · f )(x) := c · f (x) für alle x ∈ M, für alle c ∈ R, f ∈ Abb(M,R) .

Satz 1.32

Sei M � ∅ eine Menge.(

Abb(M,R),+, ·) ist ein R-Vektorraum, mit dem neutralenElement nach (1.28) und den inversen Elementen nach (1.29) definiert.

Beweis: Anders als bei Definition 1.28 oder 1.29 kann hier nicht auf eine operationsver-trägliche Bijektion zu Rn zurückgegriffen werden. Vielmehr müssen alle Eigenschafteneines R-Vektorraums durch die punktweise Definition darauf zurückgeführt werden, dassR ein R-Vektorraum ist. Als Beispiel sei (A.V4) bewiesen:(

f + (− f ))(x) = f (x) + (− f )(x) = f (x) − f (x) = 0 = 0(x) für alle x ∈ M ,

wobei 0 wie üblich das neutrale Element bezeichnet. �

Zu diesen abstrakteren Beispielen gehört auch der Vektorraum

R[x] := { f : ist Polynom von Grad ≤ d für ein d ∈ N0} ,

dabei werden + und · wieder durch (1.25), (1.26) (bei Gültigkeit von (1.28), (1.29)) defi-niert. Es gilt:

Rn[x] ⊂ R[x] ⊂ Abb(R,R) für n ∈ N0 ,

wobei die beiden letzten Vektorräume „viel größer“ in dem Sinn sind, dass sie nicht durchm-Tupel egal für welches m ∈ N beschrieben werden können.

Für M = N wird Abb(M,R) zur Menge aller Folgen in R:

RN := Abb(N,R) (1.31)

und die punktweise definierten Verknüpfungen nehmen für (aν)ν∈N, (bν)ν∈N ∈ RN

bzw. kurz (aν), (bν) ∈ RN die Form

(aν) + (bν) = (aν + bν), c · (aν) = (caν) für c ∈ Ran.

Statt N kann zur Indizierung von Folgen auch eine andere Menge M gewählt werden, diesich als Bild einer injektiven Abbildung von N nach M ergibt. Die abkürzende Bezeich-nung ist dann RM , was manchmal auch allgemein für Abb(M,R) benutzt wird. Häufig istz. B. RN0 .

Page 49: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 49

Die Sätze 1.17, 1.18 gelten nicht nur in Rn, sondern in jedem R-Vektorraum. Somitmacht es Sinn, von Geraden bzw. Strecken im Vektorraum z. B. in Abb(R,R) zu sprechen.Damit sind dann folglich gewisse Mengen von Funktionen gemeint, i. Allg. nicht nur diespeziellen Funktionen der Form f (x) = ax + b.

Die in Definition 1.2 eingeführten Zahlenschemata, bisher nur Kurzschreibweise für(erweiterte) Koeffizientenmatrizen, kann man ebenso allgemein betrachten. Dann handeltes sich beispielsweise bei (1.6) nur um „seltsam aufgeschriebene“ Elemente des Rm·n.Insofern ist durch die komponentenweise Definition (siehe Definition 1.12) eine Additionund eine Skalarmultiplikation definiert, so dass diese Menge dadurch zum R-Vektorraumwird.

Definition 1.33

Seien n, m ∈ N. Ein rechteckiges Skalarenschema

A :=

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣a1,1 a1,2 · · · a1,n

a2,1 a2,2 · · · a2,n...

.... . .

...am,1 am,2 · · · am,n

⎤⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎥⎦mit Koeffizienten oder Einträgen a j,k ∈ R heißt eine m × n-Matrix über R. Dabeiheißt m die Zeilenzahl und n die Spaltenzahl. Matrizen A, B,C schreibt man häufigin Kurzform

A =(a j,k

)j=1,...,mk=1,...,n

= (a j,k), B = (b j,k), C = (c j,k).

Dabei heißt j der Zeilenindex und k der Spaltenindex, 1 ≤ j ≤ m, 1 ≤ k ≤ n. MitR(m,n) wird die Menge aller m × n–Matrizen über R bezeichnet.

Auf R(m,n) wird eine Addition und eine Skalarmultiplikation komponentenweise ein-geführt, d. h. für A, B ∈ R(m,n), A = (a j,k), B = (b j,k), λ ∈ R :

A + B : = C := (c j,k) ∈ R(m,n), wobeic j,k : = a j,k + b j,k für alle j = 1, . . . , m, k = 1, . . . , n

λA : = C := (c j,k) ∈ R(m,n), wobeic j,k : = λa j,k für alle j = 1, . . . , m, k = 1, . . . , n .

Hierbei ist das neutrale Element (bezüglich der Addition) definiert durch

0 ∈ R(m,n), 0 = (a j,k), a j,k := 0 für alle j = 1, . . . , m, k = 1, . . . , n ,

auch Nullmatrix genannt.

Das inverse Element (bezüglich Addition) zu A = (a j,k) ∈ R(m,n) ist definiert durch

Page 50: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

50 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

−A = (b j,k) ∈ R(m,n), b j,k := −a j,k für alle j = 1, . . . , m, k = 1, . . . , n .

Satz 1.34: Vektorraum der Matrizen

(R(m,n),+, ·

)nach Definition 1.33 bildet einen R-Vektorraum.

Beweis: Klar bzw. Bemerkungen 1.35, 2). �

Bemerkungen 1.35

1) a) R(n,1) entspricht Rn als Spalten aufgefasst.

b) R(1,n) entspricht Rn als Zeile aufgefasst.

c) R(1,1) entspricht R.

Der Terminus „entspricht“ wird später mit dem Isomorphiebegriff (Definition 2.4) genaugefasst.

2) R(m,n) kann aufgefasst werden als Abb({1, . . . , m}× {1, . . . , n},R), wobei die Abbildungf durch alle ihre Bilder f ( j, k) dargestellt wird und f ( j, k) in die j-te Zeile und k-te Spalteeiner Matrix geschrieben wird.

3) R(m,n) ist nach 2) somit hinsichtlich seiner Vektorraumstruktur nur eine neue Schreib-weise für Rm·n.

4) Seien (V,+, ·), (W,+, ·) R-Vektorräume, dann wird das Produkt V × W (siehe An-hang A.4) zu einem R-Vektorraum durch die Verknüpfungen

(u,w) + (u′,w′) := (u + u′,w + w′)λ(u,w) := (λu, λw)

für u, u′ ∈ V,w,w′ ∈ W, λ ∈ R. In diesem Sinn entspricht Rn dem fortgesetzten Produktdes R-Vektorraums R. �Manchmal ist es nützlich, Matrizen in kleinere Teilmatrizen zu zerlegen, auch partitionie-ren genannt, z. B. für A ∈ R(m,n), m = m1 + m2, n = n1 + n2 :

A =(

A1

A2

)mit A1 ∈ R(m1,n), A2 ∈ R(m2,n) (1.32)

oder

A =(

A1 A2

)mit A1 ∈ R(m,n1), A2 ∈ R(m,n2)

oder entsprechend fortgesetzt.

Page 51: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.2 Vektorrechnung im Rn und der Begriff des R-Vektorraums 51

Dabei treten i. Allg. nur „verträgliche“ Zerlegungen bzw. Partitionierungen auf wie

A =(

A1,1 A1,2A2,1 A2,2

)mit A1,1 ∈ R(m1,n1), A1,2 ∈ R(m1,n2), A2,1 ∈ R(m2,n1), A2,2 ∈ R(m2,n2).

Diese kann insbesondere auch auf Zahlenvektoren in Spalten- oder Zeilenform ange-wendet werden. In der rekursiven Beschreibung des Gauss-Verfahrens sind Zerlegungenschon benutzt worden.

Mit solchen Blockmatrizen kann gerechnet werden wie mit kleinen Matrizen, bei denendie Einträge Matrizen sind anstelle von Zahlen, also z. B. seien

A, B ∈ R(m,n) und A =(

A1

A2

), B =

(B1

B2

)miteinander verträglich zerlegt, d. h. die Zeilenzahlen von A1 und B1 sind gleich, dann

A + B =(

A1 + B1

A2 + B2

).

Mathematische Modellierung 1 Bei einer konkreten Anwendung können Zahlen bzw. Komponenteneins n-Tupels (oder die Einträge einer Matrix) verschiedenste Bedeutungen haben: Sie sind dimensionsbe-haftet. Aber nicht bei allen Größen ist es sinnvoll sie zu addieren. In einer technischen Anwendung könnenn Körper betrachtet werden mit Massen mi, Volumina Vi und Dichten ρi, i = 1, . . . , n. Zwar ist es sinnvoll,die Gesamtmasse m bzw. das Gesamtvolumen V zu bilden

m :=n∑

i=1

mi , V :=n∑

i=1

Vi ,

nicht aber die Summe der Dichten. Man spricht auch von extensiven gegenüber intensiven Größen. EinTupelraum aus Massen oder Volumina ist infolgedessen sinnvoll, jedoch nicht aus Dichten. Analog könnenin einer ökonomischen Anwendung n Produkte betrachtet werdem mit Erträgen ei, Stückzahlen S i undPreisen pi, i = 1, . . . , n. Analog sind hier Gesamterträge e und Gesamtstückzahlen S

e :=n∑

i=1

ei , S :=n∑

i=1

S i

sinnvoll, nicht aber die Summe der Preise; analog sind Tupelräume aus Erträgen oder Stückzahlen sinn-voll. �

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Tupelraum Rn, Addition und Skalarmultiplikation

Page 52: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

52 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

• Gerade, Ebene, Hyperebene• R-Vektorraum• Funktionenräume• Rechnen mit partitionierten Matrizen

Zusammenhänge:

• Geraden und Ebenen in Parameter- und Gleichungsdarstellung (Satz 1.19, 1.21, 1.24)• Hyperebenen und LGS• Funktionenräume als R-Vektorräume

Beispiele:

• Polynome (höchstens n-ten Grades) R(x) (bzw. Rn(x))• Treppenfunktionen S 0(Δ)• lineare Splines S 1(Δ)• Matrizenraum R(m,n)

Aufgaben

Aufgabe 1.9 (K) Zeigen Sie:

a) Die drei Geraden im R2

L1 :=(−7

0

)+R

(21

), L2 :=

(50

)+R

(−11

), L3 :=

(08

)+R

(−14

)schneiden sich in einem Punkt.

b) Die drei Punkte (10,−4)t, (4, 0)t und (−5, 6)t liegen auf einer Geraden.

Aufgabe 1.10 (K) Es sei L ⊂ R2 die Gerade durch die Punkte (−1, 3)t und (5,−2)t, sowieM ⊂ R2 die Gerade durch die Punkte (−2,−2)t und (1, 6)t. Berechnen Sie den Schnittpunktvon L und M.

Aufgabe 1.11 (K) Zeigen Sie, dass die drei Geraden im R2 mit den Gleichungen

x + 2y − 1 = 0, 3x + y + 2 = 0, −x + 3y − 4 = 0

durch einen Punkt verlaufen und berechnen Sie diesen Punkt.

Aufgabe 1.12 (G) Es seien L1, L2, L3 und L4 vier verschiedene Geraden in der Ebe-ne R2 derart, dass sich je zwei dieser Geraden in einem Punkt treffen. S i, j bezeichneden Schnittpunkt der Geraden S i und S j, (1 ≤ i < j ≤ 4). Die sechs SchnittpunkteS i, j, 1 ≤ i < j ≤ 4 seien alle verschieden. Beweisen Sie, dass die Mittelpunkte der dreiStrecken S 1,2S 3,4, S 1,3S 2,4 sowie S 1,4S 2,3 auf einer Geraden liegen.

Aufgabe 1.13 (T) Sei M � ∅ eine Menge, (W,+, ·) ein R-Vektorraum.Zeigen Sie: Auf Abb(M, W) wird durch + und ·wie in Definition 1.31 eine R-Vektorraum-struktur eingeführt.

Page 53: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 53

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt

1.3.1 Erzeugendensystem und lineare Hülle

Im Folgenden sei (V,+, ·) ein R-Vektorraum im Sinn von Definition 1.30.

Sei U eine Gerade oder Ebene durch 0 in Rn (nach Definition 1.23) oder einem allgemei-nen Vektorraum, etwa U = Ru + Rw. Seien xi = λiu + ξiw ∈ U, i = 1, 2 für λi, ξi ∈ R

beliebige Elemente in U, seien s, t ∈ R, dann gilt:

sx1 + tx2 = s(λ1u + ξ1w) + t(λ2u + ξ2w)= (sλ1 + tλ2)u + (sξ1 + tξ2)w ∈ U .

Es gilt also:

Aus x, y ∈ U , s, t ∈ R folgt sx + ty ∈ U (LIN) .

Diese Eigenschaft (LIN) kann auch in zwei Teilen geschrieben werden:

Additivität: Aus x, y ∈ U folgt x + y ∈ U (LIN, add) ,Homogenität: Aus x ∈ U, c ∈ R folgt cx ∈ U (LIN, mul) .

Sie ist für die Lineare Algebra so wichtig, dass wir sie durch eine Definition hervorhe-ben:

Definition 1.36

Eine nicht leere Teilmenge U ⊂ V heißt linearer Unterraum oder Untervektorraumvon V , wenn sie die Eigenschaft (LIN) besitzt.

Bevor wir weitere Beispiele angeben, notieren wir, dass jeder lineare Unterraum U denNullvektor enthält: Denn weil U nicht leer ist, enthält U mindestens einen Vektor x, unddann wegen (LIN, mul) auch den Nullvektor 0 = 0 · x.

Die Bezeichnung ist berechtigt, da die auf U×U bzw. R×U eingeschränkten Verknüp-fungen der Addition in V und der Skalarmultiplikation nach (LIN) wieder Verknüpfungen,d. h. Abbildungen nach U sind und (U,+, · ) ein R-Vektorraum ist (Übung).

Beispiele 1.37

1) Offensichtlich sind der Nullraum {0}, der nur den Nullvektor enthält, und der ganzeRaum V lineare Unterräume von V .

2) Sind U1, U2 ⊂ V zwei lineare Unterräume, so ist auch ihr Durchschnitt U1 ∩ U2 einlinearer Unterraum. Die Vereinigung U1 ∪ U2 ist i. Allg. kein linearer Unterraum. ◦

Page 54: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

54 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.38

Sei A ⊂ V eine beliebige (endliche oder unendliche) nicht leere Teilmenge. Jedeendliche Summe

x =k∑

ν=1

cνaν , k ∈ N, cν ∈ R, aν ∈ A, ν = 1, . . . , k

nennen wir eine Linearkombination von Vektoren aus A. Die Menge aller Linear-kombinationen von Vektoren aus A

span(A) :={∑k

ν=1 cνaν : k ∈ N, cν ∈ R, aν ∈ A, ν = 1, . . . , k}

heißt der von A aufgespannte Unterraum oder die lineare Hülle. A heißt auch Erzeu-gendensystem von span(A).

Für endliche Mengen A = {a1, . . . , ak} benutzen wir dabei immer die Abkürzung

span(a1, . . . , ak) := span({a1, . . . , ak}) .

Schließlich treffen wir noch eine Vereinbarung, die an dieser Stelle überperfektionistischerscheinen mag. Wenn die Menge A leer ist, so vereinbaren wir: span(A) soll der Nullraumsein, d. h. span(∅) := {0}.

Satz 1.39: Eigenschaften der linearen Hülle

1) span(A) ist der kleinste lineare Unterraum von V , der die Menge A enthält, d. h. :

a) span(A) ist ein linearer Unterraum,

b) jeder lineare Unterraum U ⊂ V , der A enthält, enthält auch span(A).

2) Sind A1 ⊂ A2 ⊂ V beliebige nicht leere Mengen, dann gilt: span(A1) ⊂ span(A2).

3) Seien A1, A2 ⊂ V beliebige nicht leere Mengen, so gilt:

span(A1 ∪ A2) = span(A1) + span(A2) ,

wobei für zwei Teilmengen U1, U2 von V definiert wird

U1 + U2 := {u1 + u2 : u1 ∈ U1, u2 ∈ U2} .

Insbesondere ist somit für lineare Teilräume U1, U2:

Page 55: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 55

U1 + U2 = span(U1 ∪ U2) .

Beweis: Zu 1): Beweis von a): Seien x =∑k

1 cμaμ und y =∑l

1 dνa′ν Elemente in span(A).Dann ist auch der Vektor sx + ty =

∑k1 scμaμ +

∑l1 tdνa′ν eine Linearkombination von

Vektoren aμ, a′ν ∈ A und gehört zu span(A). Beweis von b): Enthält der lineare UnterraumU ⊂ V die Menge A, so wegen wiederholter Anwendung von (LIN) auch jede endlicheLinearkombination von Vektoren aus A, und damit die Menge span(A) .Zu 2): Es ist A1 ⊂ A2 ⊂ span(A2) und span(A2) ein linearer Unterraum, demnach folgt dieBehauptung aus 1).Zu 3): Weil A1 ∪ A2 in dem linearen Unterraum span(A1) + span(A2) enthalten ist, folgtdie Inklusion span(A1 ∪ A2) ⊂ span(A1) + span(A2) aus 1). Wegen A1 ⊂ (A1 ∪ A2) istspan(A1) ⊂ span(A1 ∪ A2) nach 2). Analog gilt span(A2) ⊂ span(A1 ∪ A2). Weil span(A1 ∪A2) ⊂ V ein linearer Unterraum ist, ist dann auch jede Summe von Vektoren daraus indiesem Unterraum enthalten. Insbesondere gilt auch die Inklusion span(A1) + span(A2) ⊂span(A1 ∪ A2). Sind A1 = U1 und A2 = U2 lineare Unterräume, so ist span(U1) = U1 undspan(U2) = U2. Nach dem Bewiesenen ist folglich

span(U1 ∪ U2) = U1 + U2 . �

Wir betrachten Spezialfälle für derart aufgespannte lineare Unterräume.

Bemerkung 1.40 (Geometrie)

Eine Gerade Rw durch 0 ist span(w). Eine Ebene Rw1 + Rw2 durch 0 ist span(w1,w2).Sind w1,w2 ∈ V , so dass w1 = cw2 für ein c ∈ R, dann ist span(w1,w2) = span(w1), alsoeine Gerade und keine Ebene. �Bemerkungen 1.41

1) Mit eν ∈ Rn werden wir stets den Vektor bezeichnen, der an der ν-ten Stelle den Ein-trag 1 enthält und sonst lauter Nullen:

eν = ( 0, . . . , 0, 1, 0, . . . , 0 )t .↑ ↑ ↑1 ν n

Die eν heißen Einheitsvektoren von Rn.

Für k = 1, . . . , n ist dann

span(e1, . . . , ek) =

⎧⎪⎪⎨⎪⎪⎩x =k∑1

cνeν

⎫⎪⎪⎬⎪⎪⎭= {x = (c1, . . . , ck, 0, . . . , 0)}= {x ∈ Rn : xk+1 = . . . = xn = 0} .

2) Staffelsysteme nach (1.9) sind spezielle obere Dreiecksmatrizen in R(m,n), wobei:

Page 56: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

56 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

A = (a j,k) ∈ R(m,n) heißt obere Dreiecksmatrix, wenn

a j,k = 0 für j > k , j = 1, . . . , m , k = 1, . . . , n .

U := {A ∈ R(m,n) : A ist obere Dreiecksmatrix} ist ein Unterraum von R(m,n). Analoges giltfür die unteren Dreiecksmatrizen.

3) Betrachte in (R[x],+, ·) die Elemente fi, i = 0, . . . , n, definiert durch fi(x) = xi, dieMonome, dann ist

span( f0, . . . , fn) = Rn[x] . (1.33)

4) Betrachte in (R[x],+, ·) die Elemente fi, i = 0, 1, 2 wie in 4) und g(x) := (1 − x)2, dannist span( f0, f1, f2, g) = span( f0, f1, f2) = R2[x].

5) Betrachte in S 0(Δ) (siehe (1.27)) auf der Zerlegung Δ : a = x0 < x1 < . . . < xn−1 <xn = b,

fi(x) :=

⎧⎪⎪⎨⎪⎪⎩1 , x ∈ [xi, xi+1) ,

0 , sonst,für i = 0, . . . , n − 2 ,

fn−1(x) :=

⎧⎪⎪⎨⎪⎪⎩1 , x ∈ [xn−1, xn] ,

0 , sonst,

(1.34)

dann ist

span( f0, . . . , fn−1) = S 0(Δ) .

*6) Sei Δ eine Zerlegung von [a, b] und zur Abkürzung

hi := xi − xi−1 , Ii := [xi−1, xi] für i = 1, . . . , n , (1.35)

so wird S 1(Δ) (nach (1.30)) aufgespannt von:

Page 57: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 57

f0(x) :=

⎧⎪⎪⎨⎪⎪⎩(x1 − x)/h1 , x ∈ I1 ,

0 , sonst,(1.36)

fi(x) :=

⎧⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎩(x − xi−1)/hi , x ∈ Ii ,

(xi+1 − x)/hi+1 , x ∈ Ii+1 ,

0 . sonstfür i = 1, . . . , n − 1 , (1.37)

fn(x) :=

⎧⎪⎪⎨⎪⎪⎩(x − xn−1)/hn , x ∈ In ,

0 sonst.

Das Kronecker-Symbol18 sei folgende Abkürzung:

δi, j =

⎧⎪⎪⎨⎪⎪⎩1 für i = j0 für i � j .

(1.38)

Dabei durchlaufen i bzw. j je nach Zusammenhang eventuell auch verschiedene Teilmen-gen von N. Wegen

fi(x j) = δi, j für i, j = 0, . . . , n

gilt dann für f ∈ S 1(Δ):

f (x) =n∑

i=0

λi fi(x) für alle x ∈ [a, b] genau dann, wenn λi = f (xi), i = 0, . . . , n . (1.39)

Das kann man folgendermaßen einsehen:

„⇒“: Man wähle x = xj, j = 0, . . . , n, dann

n∑i=0

λi f (xj) =n∑

i=0

λiδi, j = λ j .

„⇐“ : Auf I j wird eine Gerade durch ihre Werte bei xj−1 und xj festgelegt, also für x ∈ I j

f (x) = f (xj−1)xj − x

hj+ f (xj)

x − xj−1

hj= f (xj−1) f j−1(x) + f (xj) f j(x)

=

n∑i=0

λi fi(x) , da fi|I j= 0 für i � j, i � j − 1 .

Die fi heißen wegen ihrer Gestalt auch Hutfunktionen (siehe Abbildung 1.8). �18 Leopold Kronecker ∗7. Dezember 1823 in Liegnitz †29. Dezember 1891 in Berlin

Page 58: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

58 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

f0

fi

xi−1 xi xi+1fn

Hutfunktionen

Polygonzug

Abb. 1.8: Hutfunktionen und Polygonzug.

Beispiel 1(2) – Historische Probleme Im Jahr 1202 formulierte Leonardo Da Pisa19, genannt Fi-bonacci, ein Modell für das Wachstum einer Kaninchenpopulation durch die folgende rekursiv definierteFolge, die Fibonacci-Folge :

f1 := 0, f2 := 1 (MM.17)

fn+2 := fn+1 + fn für n ∈ N . (MM.18)

Dadurch sind die fn ∈ N eindeutig bestimmt bzw. allgemeiner wird durch die Vorgabe von f1, f2 ∈ R

durch (MM.18) eindeutig eine Folge in RN festgelegt, die (MM.17) und (MM.18) erfüllt. Sei

V := {(an)n ∈ RN : (an) erfüllt (MM.18) } .

Dann ist V ein linearer Unterraum von RN. Das kann man wie folgt einsehen: Seien (an)n , (bn)n ∈ V, danngilt

an+2 + bn+2 = an+1 + an + bn+1 + bn = (an+1 + bn+1) + (an + bn)

und analog für das skalare Vielfache. Die Aussage gilt auch, wenn (MM.18) verallgemeinert wird zu

fn+2 := a(1) fn+1 + a(0) fn (MM.19)

für beliebige feste a(0), a(1) ∈ R, oder auch für m ∈ N bei Vorgabe von

f1, f2, . . . , fm ∈ R (MM.20)

und

19 Leonardo da Pisa (Fibonacci) ∗um 1180 in Pisa †nach 1241 in Pisa

Page 59: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 59

fn+m :=m−1∑i=0

a(i) fn+i für n ∈ N (MM.21)

für beliebige feste a(0), . . . , a(m−1) ∈ R. (MM.20), (MM.21) heißen auch (Anfangswertprobleme für) linea-re Differenzengleichungen m-ter Ordnung. Die Anfangswerte f1, f2 (bzw. f1, . . . , fm) sind anscheinend dieFreiheitsgrade der Elemente von V. Dies drückt sich aus durch:

Lemma 1.42

Sei V definiert durch (MM.21). Seien ai ∈ Rm, i = 1, . . . , m, so gewählt, dass span(a1, . . . , am) =Rm. Seien (ai

n)n ∈ RN die durch (MM.21) jeweils mit den Vorgaben ai1, . . .a

im ausgewählten Folgen

in V. Dann gilt:

V = span((a1n)n, . . . , (am

n )n) .

Beweis:Sei (cn)n ∈ V, dann gibt es γ1, . . . , γk ∈ R, sodass

(c1 , . . . , cm)t =

m∑i=1

γiai . (MM.22)

Betrachtet man die zu diesen γi gehörige Linearkombination der (ain) ∈ V, dann ist diese auch in V und

erfüllt die gleichen Anfangswerte wie (cn)n, also

(cn)n =

m∑i=1

γi(ain)n . (MM.23)

�. �

Satz 1.43: Direkte Summe↔ eindeutige Darstellung

Sei V ein R-Vektorraum, U1, U2 lineare Unterräume von V . Es sei U = U1 + U2.Dann gibt es zu jedem u ∈ U eine Darstellung

u = u1 + u2 mit u1 ∈ U1, u2 ∈ U2 .

Diese Darstellung ist für alle u ∈ U eindeutig genau dann, wenn U1 ∩ U2 = {0}.In diesem Fall heißt die Summe U1 + U2 bzw. die Zerlegung von U in U1 und U2

direkt, geschrieben

U = U1 ⊕ U2 .

Beweis: Sei die Darstellung eindeutig. Für jeden Vektor u ∈ U1∩U2 hat man sodann aberzwei Darstellungen

Page 60: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

60 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

u = u1 + 0 mit u1 = u ∈ U1

= 0 + u2 mit u2 = u ∈ U2 .

Aus der Eindeutigkeit der Darstellung folgt u = u1 = 0. Also ist U1 ∩ U2 der Nullraum.Sei umgekehrt U1 ∩U2 = {0}. Der Vektor u habe die Darstellungen

u = u1 + u2 = u′1 + u′2 mit u1, u′1 ∈ U1, u2, u′2 ∈ U2 .

Daraus folgt

u1 − u′1 = u′2 − u2 ∈ U1 ∩ U2 = {0} ,also u1 = u′1 und u2 = u′2. �

Ist U1 = Ru, U2 = Rw für u,w ∈ V und einen R-Vektorraum V , so bedeutet die Eindeu-tigkeit der Darstellung von x ∈ U = Ru +Rw, d. h. die Eindeutigkeit der Darstellung

x = cu + dw mit c, d ∈ R ,

dass gilt:

λu + μw = 0⇒ λ = μ = 0 für alle λ, μ ∈ R .

Im folgenden Abschnitt wird diese Eigenschaft von {u,w} als lineare Unabhängigkeit be-zeichnet werden. Sie sorgt dafür, dass U = Ru + Rw eine Ebene und keine Gerade ist(siehe Bemerkung 1.40).

1.3.2 Das Matrix-Vektor-Produkt

Mit dem Begriff des „aufgespannten Unterraums“ können wir die Lösbarkeitsbedingungfür ein lineares Gleichungssystem

n∑ν=1

aμ,νxν = bμ, μ = 1, . . . , m

anders formulieren. Wir bezeichnen mit a(ν) ∈ Rm die Spaltenvektoren der Koeffizienten-matrix und mit b den Vektor auf der rechten Seite des Gleichungssystems:

a(ν) =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝a1,ν...

am,ν

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ , b =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝b1...

bm

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .Mit diesen Vektoren kann man das Gleichungssystem in Vektorschreibweise als

Page 61: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 61

n∑ν=1

xνa(ν) = b

notieren. Man sieht:

Satz 1.44: Lösbarkeit LGS

Sei A =(a(1), . . . , a(n)

)∈ R(m,n), b ∈ Rm. Das Gleichungssystem Ax = b ist genau

dann ALGSlösbar, wenn die rechte Seite b eine Linearkombination der Spaltenvektorena(1), . . . , a(n) ist, d. h. , wenn

b ∈ span(a(1), . . . , a(n)

)bzw. span

(a(1), . . . , a(n)

)= span

(a(1), . . . , a(n), b

).

Demnach lautet die zeilenweise Sicht eines LGS mit n Unbekannten und m Gleichungen:

• Finde den Schnitt von m Hyperebenen in Rn ,

Entsprechend lautet die spaltenweise Sicht:

• Finde eine Linearkombination aus den n Spalten aus Rm, die die rechte Seite bdarstellt.

Andersherum gesehen RLGShaben wir ein Verfahren gefunden, um zu prüfen, ob ein b ∈ Rn Li-nearkombination von gegebenem a1, . . . ak ∈ Rn ist: Man definiere eineKoeffizientenma-trix A ∈ R(n,k) mit den aν als Spalten und prüfe mit dem Gaussschen Eliminationsverfah-ren das durch (A, b) gegebene LGS auf Lösbarkeit. Auf der Basis der obigen Beobachtungführen wir ein Produkt zwischen einer Matrix A ∈ R(m,n) und einem Zahlenvektor x ∈ Rn

ein:

Definition 1.45

Seien m, n ∈ N. Weiter sei A = (a(1), . . . , a(n)) ∈ R(m,n) eine Matrix mit den Spaltena(ν) ∈ Rm, ν = 1, . . . , n und es sei x = (xν)ν ∈ Rn. Dann wird das Matrix-Vektor-Produkt Ax ∈ Rm als Linearkombination der a(ν) mit den Skalaren xν definiert, d. h.

Ax :=n∑

ν=1

xνa(ν) .

Ein LGS mit Koeffizientenmatrix A ∈ R(m,n) und rechter Seite b ∈ Rm kann also kurzdurch die folgende Vektorgleichung bezeichnet werden:

Gesucht ist x ∈ Rn, so dass Ax = b .

Page 62: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

62 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Damit hat die nur abkürzende Schreibweise aus (1.7) eine Bedeutung erhalten. Analoghat span (a1, . . . , ak) für aν ∈ Rn, ν = 1, . . . , n, eine Darstellung als Matrix-Vektorproduktmit beliebigen x ∈ Rk. Dazu setzen wir A := (a1, . . . , ak) ∈ R(n,k) , d. h. A hat die aν alsSpalten. Dann gilt:

span (a1, . . . , ak) = {y = Ax : x ∈ Rk} . (1.40)

Hierfür gibt es folgende Rechenregeln:

Theorem 1.46: Linearität Matrix-Vektor-Produkt

Seien m, n ∈ N, A, B ∈ R(m,n), x, y ∈ Rn, λ ∈ R. Dann gilt:

1) A(x + y) = Ax + Ay ,

2) A(λx) = λAx ,

3) (A + B)x = Ax + Bx ,

4) (λA)x = λAx .

Die Eigenschaften 1) und 2) heißen auch die Linearität des Matrix-Vektor-Produktsbezüglich x.

Beweis: Sei A = (a(1), . . . , a(n)) die Spaltendarstellung von A, dann ist

A(x + y) =n∑

ν=1

(xν + yν)a(ν) =

n∑ν=1

xνa(ν) + yνa(ν)

=

n∑ν=1

xνa(ν) +

n∑ν=1

yνa(ν)=Ax + Ay ,

d. h. 1) gilt und 3) ergibt sich analog.

Weiterhin ist wegen λA = (λa(1), . . . , λa(n))

(λA)x =n∑

ν=1

xνλa(ν) = λ

n∑ν=1

xνa(ν).

Mithin haben wir 4), 2) ergibt sich analog. �

Betrachten wir speziell ein homogenes LGS mit n Unbekannten und m Gleichungen, dasbedeutet die Lösungsmenge

Page 63: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 63

U := {x ∈ Rn : Ax = 0} , (1.41)

dann zeigt Theorem 1.46 1), 2), dass U ein linearer Unterraum von Rn ist.

Ist A ∈ R(m,n) als Blockmatrix geschrieben und x verträglich partitioniert, so überträgt sichdies auf das Matrix-Vektor-Produkt. Sind z. B.

A =(

A1 A2

)mit A1 ∈ R(m,n1), A2 ∈ R(m,n2), x =

(x1

x2

)mit x1 ∈ Rn1 , x2 ∈ Rn2 ,

dann gilt

Ax = A1x1 + A2x2 , (1.42)

wie sich sofort aus der Definition als Linearkombination ergibt, und analog

A =(

A1

A2

): Ax =

(A1xA2x

),

A =(

A1,1 A1,2A2,1 A2,2

), x =

(x1

x2

): Ax =

(A1,1x1 + A1,2x2

A2,1x1 + A2,2x2

).

Solange dementsprechend die Teile in der Anzahl der Komponenten zusammenpassen,kann wie mit kleinen (hier (2, 2)-) Matrizen gerechnet werden.

Bemerkung 1.47 Zu den einfachsten Matrizen gehören die Diagonalmatrizen D ∈ R(m,n),die höchstens bei gleichem Zeilen- und Spaltenindex, d. h. auf der Diagonalen, einen Ein-trag haben:

D = (d j,k) j,k und d j,k = d jδ j,k für j = 1, . . . , m, k = 1, . . . , n .

Dabei sind d1, . . . , dmin(m,n) also die Diagonaleinträge, die formal mit 0 bis zum Indexmax(m, n) aufgefüllt werden. Als Kurzschreibweise verwenden wir

D = diag(d1, . . . , dmin(m,n)

).

Für das Matrix-Vektor-Produkt ist also für i = 1, . . . , m :

(Dx)i =

⎧⎪⎪⎨⎪⎪⎩dixi für i = 1, . . . , min(m, n) ,

0 , sonst .

Page 64: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

64 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

m < n m > n m = n

Abb. 1.9: Mögliche Diagonalmatrizen.

Ein Spezialfall einer Diagonalbasis für m = n ist die Einheitsmatrix 1n, bei der für dieDiagonaleinträge d1 = . . . = dn = 1 gilt:

1n := (δ j,k) j,k .

Ist die Zeilen- und Spaltenzahl klar, wird auch kurz 1 geschrieben.

1n hat gerade die Einheitsvektoren in Rn als Spalten (und auch als Zeilen):

1n = (e1, . . . , en) .

In Abschnitt 1.2.1, Seite 30 wurde die Operation .t zum Übergang von Zeile, d. h. vonx ∈ R(1,n), zu Spalte, d. h. zu y ∈ R(n,1), und umgekehrt definiert. Allgemein bedeutet dieseine Vertauschung von Spalten- und Zeilenpositionen:

Definition 1.48

Sei A = (ai, j) ∈ R(m,n). Die transponierte Matrix At ∈ R(n,m) ist somit definiert durch

At = (bk,l) und bk,l := al,k, k = 1, . . . , n, l = 1, . . . , m .

Ist speziell m = 1, also A ∈ R(1,n) eine Zeile, so ist für b ∈ Rn dann A b ∈ R1 eine reelleZahl. Sind daher a, b ∈ Rn, a = (aν)ν, b = (bν)ν, d. h. a, b ∈ R(n,1) und so at ∈ R(1,n), giltfür das Matrix-Vektor-Produkt

at b =n∑

ν=1

aνbν ∈ R .

Definition 1.49

Seien a, b ∈ Rn. Das (euklidische)20Skalarprodukt von a und b ist die reelle Zahl

Page 65: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 65

(a . b) := at b =n∑

ν=1

aνbν .

Beispiele 1.50 (Geometrie)

1) Das Skalarprodukt ist uns schon im Begriff der Hyperebene begegnet, die in Definiti-on 1.26 definiert wurde als

H = {x ∈ Rn : (a . x) = b} . (1.43)

Ist u ∈ H beliebig fest gewählt, so ist (1.43) äquivalent zu

H = {x ∈ Rn : (a . x − u) = 0} . (1.44)

Hierbei geht die Rechenregel

(a . λx + μy) = λ (a . x) + μ (a . y)

ein, die sofort aus Theorem 1.46, 1) und 2) folgt und analog für die erste Komponente ausTheorem 1.46, 3) und 4) ist. Insbesondere kann a in (1.44) auch durch jedes Vielfacheungleich 0 ersetzt werden. Die geometrische Bedeutung dieser Vektoren wird in Abschnitt1.5 untersucht.

2) Den möglichen Schnittpunkt einer Hyperebene H nach (1.43) und einer Gerade g ge-geben durch g : c+Rw kann man einfach durch Einsetzen der Geradengleichung in (1.43)gewinnen und erhält: Ist (a .w) = 0 und b � (a . c), so gibt es keinen Schnittpunkt, dieGerade ist „parallel“ zu H. Ist (a .w) = 0 und b = (a . c), so verläuft die Gerade ganz in H.Ist (a .w) � 0, ist der eindeutige Schnittpunkt

u = c + λw, λ = (b − (a . c)) / (a .w) .

Man beachte dazu

0 = (a . c + λw) − b = (a . c) + λ (a .w) − b ,

als zu erfüllende Gleichung für λ.

. ◦Will man ein Matrix-Vektor-Produkt von A = (aμ,ν)μ,ν ∈ R(m,n) und x = (xν)ν ∈ Rn perHand ausrechnen, also

(Ax)μ =n∑

ν=1

aμ,νxν

bilden, geht man meist folgendermaßen vor: Die Spalte x wird über die μ-te Zeile at(μ) von

A „gelegt“, komponentenweise multipliziert und dann aufaddiert, d. h. gerade

20 Euklid von Alexandria ∗um 360 v. Chr. vermutlich in Athen †ca. 280 v. Chr.

Page 66: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

66 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Ax =

⎡⎢⎢⎢⎢⎢⎢⎢⎢⎣(a(1) . x

)...(

a(m) . x)⎤⎥⎥⎥⎥⎥⎥⎥⎥⎦ (1.45)

(„Zeile mal Spalte“) gebildet.

Bei dieser zeilenweisen Sicht des Matrix-Vektor-Produkts (im Vergleich zur spaltenweisenDefinition) sind also m Skalarprodukte im Rn zu berechnen.

*Bemerkungen 1.51

1) Ein Skalarprodukt im Rn benötigt n + n − 1 = 2n − 1 Operationen. Interessant istdiese Aussage für große n, wobei die führende Potenz k in n (hier k = 1) die wesentlicheInformation darstellt (d. h. die niedrigen n-Potenzen, hier −1 = −1n0 und der Vorfaktor inder höchsten Potenz werden als Information vernachlässigt). Die Notation dafür ist

O(nk) (sprich: Groß O von nk) .

Ein Skalarprodukt in Rn benötigt demnach

O(n) Operationen.

Die Kombination aus Skalarmultiplikation und Addition ax + y, eine SAXPY-Operation,benötigt also auch

O(n) Operationen.

2) Da ein Matrix-Vektor-Produkt durch m Skalarprodukte in Rn bestimmt wird, bzw. essich um n SAXPY-Operationen in Rm handelt, benötigt es somit

O(nm) Operationen.

Im Folgenden betrachten wir solche A ∈ R(n,n), für die das Gauss-Verfahren nur Stufen-längen 0 erzeugt, dementsprechend den eindeutig lösbaren Fall.

3) Die Rückwärtssubstitution (für ein Staffelsystem nach (1.9) mit r = n = m) benötigt

O(n2) Operationen,

nämlich n Divisionen und∑n

ν=1(n − ν) = O(n2) Multiplikationen und analog O(n2) Addi-tionen.

4) Das Gauss-Verfahren, d. h. die Überführung einer Matrix in Staffelform (1.9), benötigt

O(n3) Operationen

(siehe Aufgabe 1.17). Die Lösung eines Staffelsystems ist damit demgegenüber vernach-lässigbar.

Page 67: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 67

5) Bei der obigen Überlegung wurde vorausgesetzt, dass die Einträge i. Allg. von Nullverschieden sind, die Matrix also vollbesetzt ist. Wenn andererseits klar ist, dass z. B. diebetrachteten Matrizen in jeder Zeile nur höchstens k (< n) Einträge haben (im Beispiel 3ist k = 3), benötigt das Matrix-Vektor-Produkt nur

O(km) Operationen. (1.46)

Ist k konstant (und klein) auch bei wachsenden n und m, reduziert sich (1.46) auf O(m)Operationen. �Mathematische Modellierung 2 Mit dem Skalarprodukt, und damit mit dem Matrix-Vektor-Produkt(wegen (1.45)), lassen sich Mittelungsprozesse ausdrücken: Anknüpfend an Mathematische Modellierung1 lassen sich also Gesamtmassen m und Gesamtvolumen V schreiben als

m = (1 . m) , V = (1 . V) ,

wobei m = (mi)i, V = (Vi)i und 1 = (1)i jeweils Elemente von Rn sind. Analog lässt sich auch m aus-drücken als

m = (ρ . V) ,

wobei ρ = (ρi)i aus den (Einzel-)Dichten gebildet wird. Ein ähnliches Vorgehen in einer ökonomischenAnwendung liefert die Darstellung für Gesamterträge und Gesamtstückzahl S , wie etwa

e = (p . s) , (MM.24)

wobei s = (si)i und p = (pi)i aus den (Einzel-)Stückzahlen und (Einzel-)Preisen gebildet wird. Die Zuord-nung von Einzelstückzahlen zu Gesamtstückzahl und Gesamtertrag ist von daher durch folgendes Matrix-Vektor-Produkt gegeben: (

Se

)=

(1 . . . 1p1 . . . pn

)s .

Beispiel 4(2) – Input-Output-Analyse Wir kehren zurück zur Input-Output-Analyse, mit einem Input-Output-Modell nach (MM.7), dem LGS

Bx = (1 − A)x = f . (MM.25)

Dabei bedeutet Zulässigkeit, dass zu jedem f ≥ 0 eine Lösung x ≥ 0 existiert. Notwendigerweise mussdann für jedes beliebige f ∈ Rn eine Lösung x ∈ Rn von (MM.25) existieren. Eine beliebige rechte Seitef kann nämlich zerlegt werden in

f = f+ − f− ,

wobei

f +i := max( fi, 0) ≥ 0 , f −i := max(− fi, 0) ≥ 0 für alle i = 1, . . . , n .

Aufgrund der Zulässigkeit existieren demnach Lösungen x+(≥ 0), x−(≥ 0) zu f+ bzw. f− und somit nachTheorem 1.46, 1) für x := x+ − x−

Bx = Bx+ − Bx− = f+ − f− = f .

Schreiben wir die Matrix A mit Hilfe ihrer Zeilen (a(i)), dann lässt sich (MM.25) formulieren als

Page 68: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

68 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

(eti − a(i)

t)x = fi für i = 1, . . . , n

bzw.

xi − (a(i) . x

)= fi .

Summation über i liefert die folgende Darstellung des Gesamterlöses:

n∑i=1

fi =

n∑i=1

xi −n∑

i=1

(a(i) . x

). (MM.26)

Ergänzen wir die Input-Output-Tabelle nach Tabelle 1.1 um die primären Inputs L1, . . . , Ln (etwa als (n+1)-te Zeile), so können die Kosten (in Mengeneinheiten) des Sektors j durch die Spaltensumme

n∑i=1

Xi, j + Lj

und damit der Gewinn Qj durch

Qj := Xj −n∑

i=1

Xi, j − Lj

ausgedrückt werden, also

n∑i=1

Xi, j + Lj + Qj = Xj , j = 1, . . . , n .

Unter Schattenpreisen versteht man Preise, die sich unter idealer Konkurrenz einstellen würden, definiertdadurch, dass kein Sektor Gewinn (oder Verlust) macht, folglich

Qj = 0 für alle j = 1, . . . , n .

Mit solchen Preisen P1, . . . , Pn für die Produkte der n Sektoren und P1, . . . , Pn für die primären Inputs giltdann

n∑i=1

Xi, jPi + Lj P j = XjPj , j = 1, . . . , n

und dadurch bei Annahme von Xj > 0 für alle j = 1, . . . , n:

n∑i=1

ai, jPi +LjP j

X j= Pj , j = 1, . . . , n .

Für p, g ∈ Rn, definiert durch pi := Pi und gi := Li PiXi

, gilt darum (1−At)p = g . Hiermit sind wir beim zumMengenmodell (MM.7) dualen Preismodell angelangt. Das Input-Output-Modell heißt profitabel, wenn zujedem g ∈ Rn , g ≥ 0 ein p ∈ Rn, p ≥ 0 existiert, so dass

(1 − At)p = g . (MM.27)

Die obigen Überlegungen zeigen, dass dafür (MM.27) notwendigerweise für jedes g ∈ Rn lösbar seinmuss. Seien f , g ∈ Rn , f , g ≥ 0 und x, p ∈ Rn zugehörige Lösungen von (MM.7) bzw. (MM.27). Dannist infolgedessen (siehe auch Mathematische Modellierung 2)

• das Volkseinkommen durch

Page 69: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 69

(g . x) ,

• die Nettowertschöpfung der Gesamtwirtschaft durch

(p . f )

ausdrückbar. Die Schattenpreise sind gerade derart, dass hier Gleichheit gilt, wie folgende Rechnung (unterVorwegnahme von (2.85)) zeigt:

(g . x) =((1 − At)p . x

)= (p . (1 − A)x) = (p . f ) .

Bisher wurde die Endnachfrage (etwa der Konsum der privaten Haushalte) und die primären Inputs (et-wa die Arbeitsleistung der privaten Haushalte) als nicht rückgekoppelte, exogene Größen betrachtet. Wirbeziehen nun diese als (n + 1)-ten Sektor mit ein und nehmen eine Proportionalität analog zu (MM.6) an,

Fi = ai,n+1Xn+1, i = 1, . . . , n ,

mit ai,n+1 > 0, wobei Xn+1 als ein Maß für Beschäftigung interpretiert werden kann, was einen proportio-nalen Konsum bewirkt. Mit den primären Inputs steht Xn+1 über

Xn+1 =

n+1∑i=1

Li

in Verbindung, wobei noch Ln+1 aufgenommen wurde und für den Sektor Arbeit die gleiche Rolle spieltwie Xi,i für den Sektor i. Bei erweiterter Annahme

Li = an+1,iXi , i = 1, . . . , n + 1

mit Proportionalitätsfaktoren an+1,i > 0 geht dann das offene in das geschlossene Input-Output-Modellüber, was – wenn wieder n statt n + 1 die Dimension bezeichnet – die Form annimmt:

Sei A ∈ Rn,n, A ≥ 0 .Gesucht ist x ∈ Rn, x ≥ 0, x � 0, so dass

Bx := (1 − A)x = 0 .(MM.28)

Die Eigenschaften (MM.8) und auch (MM.9) bleiben bei analogen Begründungen erhalten, und ähnlichzur Eigenschaft (MM.10) ist auch die etwaige Annahme

n∑i=1

ai, j ≤ 1 (MM.29)

zu rechtfertigen. Der wesentliche Unterschied liegt offensichtlich darin, dass hier das homogene Systemnicht triviale Lösungen haben muss.

Definition 1.52

Ein Vektor x ∈ Rn, so dass x > 0 und (MM.28) gilt, heißt ein Output-Gleichgewichtsvektor desgeschlossenen Input-Output-Modells.

Für ein x ∈ Rn, x ≥ 0 ist Ax der Vektor der laufenden Inputs. Eine notwendige Bedingung für die Existenzeines Output-Gleichgewichtsvektors ist also die Bedingung

Ax ≤ x für ein x ∈ Rn, x > 0 , (MM.30)

Page 70: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

70 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

die sicherstellt, dass das System überhaupt „operieren“ kann.

Definition 1.53

Ein x ∈ Rn mit (MM.30) heißt zulässige Outputlösung. Existiert eine solche, heißt das geschlosseneInput-Output-Modell zulässig.

Manchmal bezeichnet man auch Lösungsmengen inhomogener Gleichungssysteme alsUnterräume. Diese besitzen dann natürlich nicht die Eigenschaft (LIN). Es handelt sich umUnterräume im Sinn der affinen Geometrie, die hier im Vorfeld definiert werden.

Definition 1.54

Sei (V,+, ·) ein R-Vektorraum, U ⊂ V ein linearer Unterraum und u ∈ V . Dann heißt

A = {x = u + u : u ∈ U} =: u + U

affiner Unterraum von V .

� x1

x2

������ x3

������

v

���

��

U

���

��

A

Abb. 1.10: Linearer und affiner Unterraum.

Korollar 1.55

Die Lösungsmenge U eines LGS mit n Unbekannten ist im Fall der Lösbarkeit einaffiner Unterraum von Rn.

U ist ein linearer Unterraum genau dann, wenn das LGS homogen ist.

Beweis: Übung. �

Page 71: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.3 Lineare Unterräume und das Matrix-Vektor-Produkt 71

Seien A1 = u1 +U1, A2 = u2 +U2 affine Unterräume von Rn, wobei U1 = span(a1, . . . , ak),U2 = span(ak+1, . . . , am) für gewisse aν ∈ Rn, ν = 1, . . . , m. Für den Schnitt A = A1 ∩ A2

gilt dann:

u ∈ A ⇔ es gibt x1, . . . , xm ∈ R , so dass u1 +k∑

i=1

xi ai = u2 +m∑

i=k+1

xiai

⇔k∑

i=1

xiai +

m∑i=k+1

xi(−ai) = u2 − u1 .

Dies bedeutet, RLGSalle Lösungen x = (x1, . . . , xm)t des LGS mit rechter Seite b = u2 − u1und A = (a1, . . . , ak,−ak+1, . . . ,−am) ∈ R(n,m) zu bestimmen, was wieder mit demGaussschen Eliminationsverfahren möglich ist.

Lemma 1.56

1) Sei A = u + U ein affiner Unterraum, dann gilt für beliebige w ∈ A auchA = w + U.

2) Sind ebenso A1 = u1 + U1, A2 = u2 + U2 affine Unterräume, dann gilt fürA := A1 ∩ A2: Die Menge A ist leer oder der affine Unterraum

A = a + U1 ∩ U2

mit einem beliebigen a ∈ A.

Beweis: Übung. �

Es gibt lineare Unterräume verschiedener Größe:

{0} Gerade Ebene . . .0-dimensional 1-dimensional 2-dimensional . . .

Diese Größe nennt man „Dimension“ eines linearen Unterraums. Der folgende Abschnittdient u. a. der präzisen Definition des Dimensionsbegriffs.

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Linearer Unterraum• Linearkombination, lineare Hülle, Erzeugendensystem• Summe von linearen Unterräumen, direkte Summe• Matrix-Vektor-Produkt

Page 72: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

72 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

• Diagonalmatrizen, Einheitsmatrix• Transponierte Matrix• Euklidisches Skalarprodukt (SKP) in Rn

• Aufwand von Operationen*• Affiner Unterraum

Zusammenhänge:

• span und Matrix-Vektor-Produkt (1.40)• Linearität des Matrix-Vektor-Produkts (Theorem 1.46)• Lösungsmenge eines homogenen LGS als linearer Unterraum (1.41)• Lösungsmenge eines inhomogenen LGS als affiner Unterraum (Korollar 1.55)

Beispiele:

• Einheitsvektoren in Rn

• Erzeugendensystem in Rn(x), S 0(Δ), S 1(Δ) (Hutfunktionen)

Aufgaben

Aufgabe 1.14 (K) Betrachten Sie die acht Mengen von Vektoren x = (x1, x2)t ∈ R2 defi-niert durch die Bedingungen

a) x1 + x2 = 0,b) (x1)2 + (x2)2 = 0,c) (x1)2 − (x2)2 = 0,d) x1 − x2 = 1,e) (x1)2 + (x2)2 = 1,f) Es gibt ein t ∈ R mit x1 = t und x2 = t2,g) Es gibt ein t ∈ R mit x1 = t3 und x2 = t3,h) x1 ∈ Z.

Welche dieser Mengen sind lineare Unterräume?

Aufgabe 1.15 (K) Liegt der Vektor (3,−1, 0,−1)t ∈ R4 im Unterraum, der von den Vek-toren (2,−1, 3, 2)t, (−1, 1, 1,−3)t und (1, 1, 9,−5)t aufgespannt wird?

Aufgabe 1.16 (T) Es seien U1, U2 ⊂ V lineare Unterräume eines R-Vektorraums V . Zei-gen Sie: U1 ∪ U2 ist genau dann ein linearer Unterraum, wenn U1 ⊂ U2 oder U2 ⊂ U1.

Aufgabe 1.17 (K) Beweisen Sie Bemerkungen 1.51, indem Sie jeweils die genaue Anzahlvon Additionen und Multiplikationen bestimmen.

Aufgabe 1.18 (T) Beweisen Sie Korollar 1.55.

Aufgabe 1.19 (T) Beweisen Sie Lemma 1.56.

Page 73: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 73

1.4 Lineare (Un-)Abhängigkeit und Dimension

1.4.1 Lineare (Un-)Abhängigkeit und Dimension

Beispiel 1.57 Die beiden Vektoren e1 = (1, 0, 0)t und e2 = (0, 1, 0)t ∈ R3 spannen dieEbene {x ∈ R3 : x3 = 0} auf. Dieselbe Ebene wird aber auch von den drei Vektoren

e1, e2, e1 + e2 = (1, 1, 0)t ◦aufgespannt (vgl. Abbildung 1.11). Jeden dieser drei Vektoren könnte man weglassen, dierestlichen beiden spannen diese Ebene immer noch auf. Wir sagen: Diese drei Vektorensind linear abhängig.

���������

�e1

����

e2

��������� e1 + e2

Abb. 1.11: Verschiedene aufspannende Vektoren.

Definition 1.58

Eine Menge A ⊂ V heißt linear abhängig, wenn es eine echte Teilmenge A′, d. h.A′ ⊂ A, A′ � A gibt mit span(A′) = span(A). Sonst heißt A linear unabhängig.

Im Folgenden sei (V,+, ·) ein beliebiger R-Vektorraum.

Beispiele 1.59

1) Die oben betrachtete Menge A = {e1, e2, e1 + e2} ⊂ R3 ist linear abhängig, denn fürA′ = {e1, e2} ⊂ A gilt A′ � A und span(A′) = span(A).

2) Die Menge A = {e1, e2} enthält die folgenden echten Teilmengen:

A′ = {e1} mit span(e1) = Gerade Re1,

A′ = {e2} mit span(e2) = Gerade Re2,

A′ = ∅ mit span(∅) = Nullraum.

Für keine davon gilt span(A′) = span(A) = Ebene {x3 = 0}. Also ist A linear unabhängig.◦

Page 74: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

74 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Bemerkungen 1.60

1) Jede Menge in V , die den Nullvektor enthält, ist linear abhängig.Denn wenn 0 ∈ A und A′ = A \ {0}, dann ist A′ � A, aber span(A′) = span(A).

2) Enthält A ⊂ V einen Vektor a mit a ∈ span(A \ {a}), dann ist A linear abhängig.Denn für A′ := A \ {a} gilt A � A′, aber wegen a =

∑lj=1 dj a j, a j ∈ A′,

span(A) = {c0 a +∑k

m=1 cm bm : k ∈ N, c0, c1, . . . , ck ∈ R, bm ∈ A′}= {c0(

∑lj=1 dj a j) +

∑km=1 cm bm : a j, bm ∈ A′}

⊂ span(A′)

und damit span(A) = span(A′).

Es gilt auch die Umkehrung der Aussage: Ist A linear abhängig, d. h. es gibt eine echteTeilmenge A′ ⊂ A mit span(A) = span(A′), dann kann a ∈ A \ A′ gewählt werden unddamit gilt: a ∈ span(A′) ⊂ span(A \ {a}).3) a) Jede Obermenge einer linear abhängigen Menge ist linear abhängig.

b) Jede Teilmenge einer linear unabhängigen Menge ist linear unabhängig.Diese beiden Aussagen sind jeweils Kontrapositionen zueinander. 3)a) folgt sofort aus 2).

4) Wenn (voneinander verschiedene) Vektoren u1, . . . , uk ∈ A ⊂ V existieren und

Zahlen c1, . . . , ck ∈ R, so dass nicht c1 = . . . = ck = 0, mit∑km=1 cmum = 0 (nicht triviale lineare Relation),

dann ist A linear abhängig.Da nicht alle cm = 0 sind, können wir nach Vertauschen der Indizes c1 � 0 annehmen und nachfolgendschreiben

c1u1 = −∑km=2 cmum bzw. u1 =

∑km=2

(− cm

c1

)um ∈ span(A′) ,

wobei A′ := A \ {u1}, so dass die Aussage nach 2) folgt.

�Diese Beispiele sollten zunächst den Sachverhalt der linearen Abhängigkeit verdeutlichen.Das letzte Beispiel ist bereits typisch dafür, wie wir künftig lineare Un-/Abhängigkeitüberprüfen werden:

Lemma 1.61: Test auf lineare Abhängigkeit

Eine Teilmenge A ⊂ V ist genau dann linear abhängig, wenn es eine nicht trivialelineare Relation zwischen (voneinander verschiedenen) Vektoren aus A gibt.

Page 75: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 75

Hauptsatz 1.62: Test auf lineare Unabhängigkeit

Eine Teilmenge A ⊂ V ist genau dann linear unabhängig, wenn sie folgende Eigen-schaft besitzt:

Sind u1, . . . , uk endlich viele (voneinander paarweise verschiedene)Vektoren in A und c1, . . . , ck Zahlen in R mit∑k

m=1 cmum = 0 ,

dann ist c1 = . . . = ck = 0 .

Hauptsatz 1.62 ist nur eine Umformulierung von Lemma 1.61 durch Verneinung der äqui-valenten Aussagen. Deswegen genügt es, Lemma 1.61 zu beweisen.

Beweis (von Lemma 1.61): „⇐“ : Diese Beweisrichtung wurde oben schon als Bemer-kungen 1.60, 4) behandelt.„⇒“ : Sei A linear abhängig, d. h. es gibt eine Teilmenge A′ ⊂ A mit span(A′) = span(A)und A′ � A. Dann gibt es also einen Vektor u ∈ A, der nicht zur Teilmenge A′ gehört.Wegen u ∈ A ⊂ span(A) = span(A′) ist u eine Linearkombination u =

∑kν=1 cνuν von Vek-

toren uν ∈ A′. Insbesondere können u, ui, i = 1, . . . , k paarweise voneinander verschiedengewählt werden. So ist

1 · u −k∑

ν=1

cνuν = 0

eine nicht triviale (da u einen Koeffizienten verschieden von 0 hat) lineare Relation zwi-schen Vektoren aus A. �

Nach Hauptsatz 1.62 ist somit lineare Unabhängigkeit von A äquivalent mit:

Prinzip des Koeffizientenvergleichs

Seien u1, . . . , uk ∈ A paarweise verschieden, c1, . . . , ck ∈ R und d1, . . . , dk ∈ R, dann:

k∑m=1

cmum =k∑

m=1

dmum ⇔ cm = dm für alle m = 1, . . . , k . (1.47)

Weitere Beispiele:

Bemerkungen 1.60

5) Sei A ⊂ Rn eine Teilmenge, die mehr als n Vektoren enthält. Dann ist A linear abhängig.Das kann man sich folgendermaßen klarmachen: A enthält mindestens n + 1 paarweise verschiedene Vek-toren u1, . . . , un+1 mit u j = (vk, j)k . Das homogene lineare Gleichungssystem

Page 76: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

76 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

c1v1,1 + . . . + cn+1v1,n+1 = 0...

......

c1vn,1 + . . . + cn+1vn,n+1 = 0

RLGS aus n Gleichungen in den n + 1 Unbekannten c1, . . . , cn+1 hat nach Lemma 1.7 eine Lösung (c1 , . . . , cn+1)� (0, . . . , 0). Damit haben wir eine nicht triviale lineare Relation

∑n+1ν=1 cνuν = 0 zwischen u1, . . . , un+1.

Nach Lemma 1.61 ist A linear abhängig.

6) Es seien

z1 = (0, . . . , 0, 1, . . . . . . . . .)t ,z2 = (0, . . . , 0, 0, . . . , 0, 1, . . . . . .)t ,...

...zr = (0, . . . , 0, 0, . . . , 0, 0, . . . , 0, 1, . . .)t

die ersten r Zeilen aus einer Matrix in Zeilenstufenform (in Spaltenschreibweise), wobeir den Rang, d. h. die Anzahl der Zeilenstufen der Matrix darstellt. Diese Vektoren sindlinear unabhängig.Das lässt sich mit folgender Überlegung einsehen: Die Zeile zt

k habe ihren ersten Eintrag ungleich 0 in derμ(k)-ten Spalte, k = 1, . . . , r. Da die Matrix Zeilenstufenform hat, ist

1 ≤ μ(1) < μ(2) < . . . < μ(r) ≤ n.

Wir testen auf lineare Unabhängigkeit: Sei eine Linearkombination∑r

k=1 ck zk = 0 gegeben. Da nur dieerste Zeile zt

1 in der μ(1)-ten Spalte einen Eintrag ungleich 0 besitzt, folgt hieraus c1 = 0. Von den übrigenZeilen hat nur zt

2 einen Eintrag ungleich 0 in der μ(2)-ten Spalte, was c2 = 0 zur Folge hat, usw.

Die Aussage von 5) lässt sich auf beliebige R-Vektorräume V übertragen:

7) Sei V ein R-Vektorraum, der von u1, . . . , un ∈ V aufgespannt wird. Seien für ein k ∈ Nweitere Vektoren w1, . . . ,wn+k ∈ V gegeben. Dann sind w1, . . . ,wn+k linear abhängig.Dies kann man wie folgt einsehen: Die wi lassen sich mittels u1, . . . , un darstellen:

wi =∑n

j=1 aj,iu j für i = 1, . . . , n + k

für geeignete aj,i ∈ R (man beachte die vertauschten Indizes). Betrachte die (n, n + k)-Matrix

A := (aμ,ν) μ=1,...,nν=1,...,n+k

,

RLGS die so aus den Koeffizienten der wi bezüglich der u j als Spalten gebildet wird. Nach Lemma 1.7 (wie in5)) existiert ein c ∈ Rn+k, c � 0, so dass d := Ac = 0 ∈ Rn . Folglich ist auch∑n

j=1 dju j = 0 ,

weiterhin

0 =∑n

j=1

(∑n+ki=1 aj,ici

)u j =

∑n+ki=1 ci

∑nj=1 aj,iu j =

∑n+ki=1 ciwi

und damit folgt die Behauptung.

Page 77: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 77

Bemerkungen 1.60, 5) (und auch 7)) ist das erste Auftreten des Prinzips RLGS: Eine Aus-sage über allgemeine Vektorräume wird durch die Benutzung eines „Koordinatensystems“u1, . . . , un auf eine Aussage in Rn und infolgedessen für ein LGS zurückgeführt.

Allgemein haben wir in Erweiterung von Bemerkungen 1.60, 5) ein Prüfverfahren füreine endliche Teilmenge A = {u1, . . . , ul} in Rn auf lineare Unabhängigkeit: RLGSMan bildedie Matrix A = (u1, . . . , ul) ∈ R(n,l) mit den Elementen von A als Spalten und prüfe dashomogene LGS zu A mit dem Gaussschen Eliminationsverfahren auf Eindeutigkeit.

Über den Rn hinaus kennen wir schon folgende Beispiele:

Bemerkungen 1.63

1) Die in (1.27) definierten Funktionen f0, . . . , fn−1, die S 0(Δ) aufspannen, sind linearunabhängig.Denn sei

∑n−1i=0 ci fi = 0, d. h.

∑n−1i=0 ci fi(x) = 0 für alle x ∈ [a, b]. Sei also Δ die zugrunde gelegte Zerlegung

von [a, b]. Für x = x0 (zum Beispiel) folgt

0 =∑n−1

i=0 ci fi(x) = c0 · 1 = c0

und weiter für x = x1, dass c1 = 0 etc., bis für x = xn−1 auch cn−1 = 0 folgt.

Analog sind die Hutfunktionen f0, . . . , fn nach (1.37) linear unabhängig.Das ist gerade die Richtung „⇒“ der Aussage (1.39), angewandt auf f = 0.

2) Die Monome fi aus (1.29) für i = 0, . . . , n sind linear unabhängig in Rn[x].Es muss also gezeigt werden, dass ein Polynom f (x) =

∑ni=0 ci xi nur dann für alle x ∈ R verschwinden

kann, wenn c0 = . . . = cn = 0. Der Nachweis braucht Kenntnisse aus der Algebra oder Analysis. Entwedernutzt man, dass ein Polynom n-ten Grades (für das also cn � 0) höchstens n (reelle) Nullstellen hat (sieheAnhang B.3, Satz B.21) oder man berechnet sukzessive die Ableitungen von f , die auch alle verschwindenmüssen und erhält bei x = 0:

0 = f (0) = c0 ,0 = f ′(0) = c1 ,0 = f ′′(0) = 2c2 , etc.

Ein Polynom f (x) =∑n

i=0 ci xi wird sodann nicht nur eindeutig durch den Koeffizientenvektor (c0 , . . . , cn)t

festgelegt, sondern bestimmt auch diesen eindeutig. Damit ist die schon nach Definition 1.28 erwähnteBijektivität der Abbildung

Φ : Rn+1 → Rn[x] ,(a0 , . . . , an)t �→ f ,

wobei f (x) =∑n

ν=0 aνxν

bewiesen.

3) Sei A ∈ R(m,n) eine beliebige Matrix mit den Spalten a(1), . . . , a(n).

Page 78: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

78 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Dann sind äquivalent:

(i) a(1), . . . , a(n) sind linear unabhängig.

(ii) Das homogene LGS

Ax = 0

hat nur die triviale Lösung x = 0.

(iii) Das inhomogene LGS

Ax = b

hat für beliebige b ∈ Rn höchstens eine Lösung.

Das lässt sich so zeigen: (ii) ist nur die Matrixschreibweise von (i) in Form des Tests auf lineare Unabhän-gigkeit ∑n

i=1 ci a(i) = 0⇒ c1 = . . . = cn = 0 ,

daher „(i)⇔(ii)“. Aus dem Theorem 1.8 folgt „(ii)⇒(iii)“ und schließlich „(iii)⇔(ii)“ ergibt sich, da auchfür b = 0 die Lösung eindeutig ist.

�Gelegentlich haben wir es nicht mit einer Menge {u1, u2, . . .} von Vektoren zu tun, sondernmit einer Folge u1, u2, . . ., in der etwa Vektoren auch mehrmals vorkommen können. Einesolche (endliche oder unendliche) Folge werden wir auch System von Vektoren nennen.Für ein System schreiben wir auch [u1, u2, . . .] bzw. genauer:

[u1, . . . , un] für ein endliches bzw.[ui : i ∈ I] für ein unendliches System z. B. I = N, aber auch[ui : i ∈ I] für eine beliebige Indexmenge.

Die Zeilenvektoren einer Matrix sind z. B. so ein System. Die Definition 1.58 kann wört-lich auf Systeme übertragen werden (siehe Bemerkungen 1.60, 2)):

Definition 1.64

Ein System [ui : i ∈ I] in V heißt linear abhängig , wenn ein k ∈ I existiert, so dass

uk ∈ span {ui : i ∈ I\{k}} .

Alle obigen Überlegungen übertragen sich folglich auf Systeme, insbesondere ist der Testauf lineare Unabhängigkeit für ein System

Page 79: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 79

k∑1

cνuν = 0?⇒ c1 = . . . = ck = 0

für alle k ∈ N. Ein System, in dem derselbe Vektor mehrmals vorkommt, ist somit stetslinear abhängig.

Definition 1.65

Sei U ⊂ V ein linearer Unterraum. Eine Basis von U ist eine Menge B von Vektorenaus U mit

(i) U = span(B),(ii) B ist linear unabhängig.

Ist B = {u1, . . . , ur}, so heißt die Zahl r Länge der Basis.

Bemerkungen 1.66

1) Sei u ∈ V, u � 0. Für eine Gerade Ru bildet der Vektor u eine Basis.

2) Seien u,w ∈ V, u � 0, w � 0. Die Definition einer Ebene durch 0 aus Definition 1.23

E = Ru +Rw

setzt also die lineare Unabhängigkeit von u,w voraus. Damit bilden u,w eine Basis von E.Sind u,w linear abhängig, dann ist E = Ru = Rw eine Gerade.

3)

Die Vektoren e1, . . . , en, bilden eine Basis des Rn. Wir nennen sie die Standardbasis,die Vektoren nennen wir Koordinatenvektoren.

Weiter bilden e1, . . . , ek ∈ Rn für k = 1, . . . , n eine Basis von

{x ∈ Rn : x = (xi)i, xi = 0 für i = k + 1, . . . , n} .

4) Der Nullvektorraum {0} hat die leere Menge ∅ als Basis. �

Beispiel 1.67 (Geometrie) Mit den eingeführten Begriffen lassen sich elementargeome-trische Beziehungen beschreiben: Sei V ein R-Vektorraum, g1 : a +Rp und g2 : b +Rq,wobei p, q � 0, seien Geraden in V . g1 und g2 sind parallel , wenn p, q linear abhängigsind, d. h. o. B. d. A. p = q, aber a − b � span(p). Ohne die letzte Bedingung wären g1

und g2 identisch. g1 und g2 schneiden sich, wenn p, q linear unabhängig sind und λ, μ ∈ Rexistieren, so dass

Page 80: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

80 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

a + λp = b + μq d. h. genau dann wenn a − b ∈ span(p, q) . (1.48)

Der Schnittpunkt ist somit im Falle der Existenz eindeutig. Zwei nicht identische, nichtparallele Geraden heißen windschief, wenn sie sich nicht schneiden, d. h. genau in diesemFall: p, q sind linear unabhängig und

a − b � span(p, q) , d. h. genau dann wenn p, q, a − b linear unabhängig sind.

Sei g : a + Rp, p � 0 eine Gerade, E : b + span(q, r) eine Ebene, wobei q, r linearunabhängig sind. g und E schneiden sich, wenn

a − b ∈ span(p, q, r) . (1.49)

Sind also p, q, r linear unabhängig, dann ist der Schnittpunkt eindeutig. Ist zusätzlichdim V = 3, dann liegt dieser Fall immer vor. Ist dim V ≥ 4, ist es möglich dass p, q, rlinear unabhängig sind, ohne dass (1.49) gilt: g und E sind dann nicht parallel, ohne sichzu schneiden. Sind p, q, r linear abhängig und gilt (1.49), so ist g ⊂ E. Sind p, q, r linearabhängig und trifft (1.49) nicht zu, so sind g und E parallel, d. h. g ∩ E = ∅, aber für diejeweils in den Nullpunkt verschobene Gerade bzw. Ebene g0 : Rp und E0 : span(q, r) gilt:g0 ⊂ E0. ◦Beispiel 1(3) – Historische Probleme Wir setzen die Diskussion der Fibonacci-Folge fort, indem wirallgemein den Lösungsraum V der Differenzengleichung nach (MM.21) betrachten. Es gilt:

Satz 1.68

Unter den Voraussetzungen von Lemma 1.42 gilt:

1) Wenn zusätzlich a1, . . . , am linear unabhängig sind, d. h. eine Basis von Rm bilden, dann istauch

(a1n)n , . . . , (am

n )n

eine Basis von V.

2) Sind (a1n)n, . . . , (am

n )n eine Basis von V, dann sind auch a1, . . . , am eine Basis von Rm .

Beweis: Zu 1): Sei∑n

i=1 ci(ain)n = (0)n für ci ∈ R, i = 1, . . . , m, dann gilt also insbesondere (Einschrän-

kung auf die Indizes n = 1, . . . , m):

n∑i=1

ci ai = 0 und somit c1 = . . . = cm = 0 .

Diese Aussage gilt folglich allgemein für beliebige Folgen und ihre „Anfangs-“vektoren, bestehend auseiner festen Anzahl der ersten Folgenglieder.Zu 2): Sei

∑mi=1 ci ai = 0, dann gilt für (bn)n :=

∑mi=1 ci(ai

n)n ∈ V: b1 = . . . = bm = 0 und wegen derEindeutigkeit der (MM.20) und (MM.21) erfüllenden Folgen sind damit

m∑i=1

ci(ain)n = (0)n .

Page 81: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 81

Nach Voraussetzung an die (ain)n folgt also

c1 = . . . = cm = 0 . (MM.31)

Zusammen mit den Aussagen von Lemma 1.42 ergeben sich die jeweiligen Behauptungen. �

Konkretisieren wir die Betrachtung wieder auf (MM.17), (MM.18), kann eine Basis von V dadurch ange-geben werden, dass zwei Folgen mit linear unabhängigen Anfangsvektoren gewählt werden. Neben ( fn)nkönnte diese (gn)n ∈ V zu

g1 := 1 , g2 := 0

sein, wodurch eine Folge entsteht, für die

gn = fn−1 für n ∈ N , n ≥ 2

gilt. Insofern ist ( fn)n „typisch“ für V. Eine Basis von V, die explizit angegeben werden kann, ergibt sichdurch den Ansatz

an = ξn für ein ξ ∈ R . (MM.32)

Finden sich ξ1 � ξ2, sodass (MM.32), (MM.18) erfüllt sind, dann haben wir eine Basis von V, da(1, ξ1)t, (1, ξ2)t eine Basis von R2 darstellen. Einsetzen von (MM.32) in (MM.18) ergibt die äquivalen-te Umformung für ξ � 0:

ξn+2 = ξn+1 + ξn ⇔ ξ2 − ξ − 1 = 0 ⇔ ξ1,2 =1 ± √5

2,

d. h. ξ1 ist die Zahl des goldenen Schnitts. Wegen ξ1 > 1 und −1 < ξ2 < 0 ist sodann mit

a1n := ξn

1

eine monoton wachsende, unbeschränkte Lösung gefunden, wie ( fn)n, mit

a2n := ξn

2

einer oszillierenden Nullfolge. Für große n ist demnach in jeder Darstellung (a1n)n das beherrschende Ba-

siselement, auch für ( fn)n . Wegen (MM.22), (MM.23) ist folglich nur der Anfangsvektor der Fibonacci-Folge (0, 1)t als Linearkombination von (1, ξ1)t, (1, ξ2)t darzustellen. Die Lösung des LGS

c1 + c2 = 0

ξ1c1 + ξ2c2 = 1

ist c1 =1√5, c2 = − 1√

5, also ergibt sich die explizite Darstellung für die Fibonacci-Folge:

fn =1√5

⎡⎢⎢⎢⎢⎢⎣⎛⎜⎜⎜⎜⎝1 +√

52

⎞⎟⎟⎟⎟⎠n

−⎛⎜⎜⎜⎜⎝1 − √5

2

⎞⎟⎟⎟⎟⎠n⎤⎥⎥⎥⎥⎥⎦ .

Es ist erstaunlich, dass diese Kombination irrationaler Zahlen immer eine natürliche Zahl ergibt. Derbeherrschende Summand ist der erste, insofern sich der Quotient fn+1/ fn immer mehr ξ1 annähert(dagegen konvergiert). Die Fibonacci-Folge ist ein Beispiel exponentiellen Wachstums zur Basis ξ1.

Für die allgemeine Gleichung (MM.21) sind bei gleichem Ansatz (MM.32) die Nullstellen des Polynomsm-ten Grades

Page 82: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

82 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

p(x) := xm −m−1∑i=0

a(i) xi

zu untersuchen. Liegen m verschiedene reelle Nullstellen vor, so ist auch hier eine explizit dargestellteBasis von V gefunden. Der Fall mehrfacher Nullstellen (vgl. Anhang B.3) kann erst später behandeltwerden. �

Korollar 1.69: Basis-Satz

Jeder lineare R-Vektorraum, der endlich erzeugt ist, d. h. u1, . . . , ur ∈ V für ein r ∈ Nbesitzt, so dass V = span(u1, . . . , ur), hat eine endliche Basis.

Dies ist ein Spezialfall (W = {0}) des folgenden Satzes 1.70, so dass wir nur diesenSatz 1.70 zu beweisen brauchen.

Satz 1.70: Basis-Ergänzungs-Satz

Es seien W ⊂ U ⊂ V lineare Unterräume, U sei durch eine endliche Menge erzeugtund u1, . . . , ur sei eine Basis von W. Dann gibt es Vektoren u1, . . . , us ∈ U so, dassdas System u1, . . . , ur, u1, . . . , us eine Basis von U ist. Insbesondere gibt es also zumlinearen Teilraum W ⊂ U einen linearen Teilraum

W(= span(u1, . . . , us)), so dass W ⊕ W = U .

W heißt ein Komplement von W.

Beweis: U sei durch n Vektoren erzeugt. Wenn W = U ist, dann ist nichts zu beweisen(s = 0). Wenn W � U ist, dann existiert ein u ∈ U, das nicht ∈ W ist. Wir behaupten, dasSystem u1, . . . , ur, u ist linear unabhängig und verwenden den Test aus Hauptsatz 1.62. Seinun

r∑ν=1

cνuν + cu = 0

eine lineare Relation. Dann muss c = 0 gelten, denn sonst würde u = − 1c∑r

ν=1 cνuν zu Wgehören. Weil nun c = 0, so lautet die lineare Relation nur noch

r∑ν=1

cνuν = 0 .

Weil die u1, . . . , ur eine Basis von W bilden, sind sie insbesondere linear unabhängig. Des-wegen folgt jetzt auch c1 = . . . = cr = 0 und u1, . . . , ur, u sind linear unabhängig. Wirsetzen u1 := u und U1 := span(u1, . . . , ur, u1). Dann bilden die Vektoren u1, . . . , ur, u1 eineBasis von U1. Wenn U1 = U ist, dann sind wir fertig. Andernfalls wiederholen wir diese

Page 83: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 83

Konstruktion immer wieder. Wir erhalten dann für alle k ≥ 1 Untervektorräume Uk ⊂ Umit einer Basis u1, . . . , ur, u1, . . . , uk. Spätestens wenn r + k = n + 1 ist, können die n + 1Vektoren u1, . . . , ur, u1, . . . , uk nicht mehr linear unabhängig sein (Bemerkungen 1.60, 7)).Es muss daher vorher schon einmal ein k = s gegeben haben mit Us = U. Für den Zusatzbeachte man:

W + W = U

ist nur eine Umformulierung von

span(u1, . . . , ur, u1, . . . , us) = U .

Die Summe ist direkt, da u ∈ W ∩ W impliziert21

u =∑r

ν=1 cνuν =∑s

μ=1 dμuμ ⇒ ∑rν=1 cνuν −∑s

μ=1 dμuμ = 0

⇒ c1 = . . . = cr = 0 (d1 = . . .dμ = 0) ⇒ u = 0

wegen der linearen Unabhängigkeit von {u1, . . . , ur, u1, . . . , us}. �

Satz 1.71: Basis-Auswahl-Satz

Sei U = span(u1, . . . , uk) ⊂ V ein linearer Unterraum. Dann gibt es unter den Vekto-ren u1, . . . , uk eine Basis ui1 , . . . , uir für U.

Beweis: Wenn u1, . . . , uk linear unabhängig sind, dann bilden sie eine Basis von U undwir sind fertig. Andernfalls gibt es unter ihnen einen Vektor u j der eine Linearkombina-tion

∑i� j ciui der anderen Vektoren ist. Dann wird U auch schon von den k − 1 Vekto-

ren u1, . . . , u j−1, u j+1, . . . , uk aufgespannt. Spätestens nachdem wir diesen Schritt k − 1-malwiederholt haben, gelangen wir zu einem linear unabhängigen Teilsystem der u1, . . . , uk,welches U aufspannt. �

Satz 1.72: Invarianz der Basis-Länge

Die Länge einer Basis für einen linearen Unterraum U ⊂ V hängt nur von U ab undnicht von der gewählten Basis.

Beweis: Seien u1, . . . , ur und w1, . . . ,ws zwei Basen für U. Wir haben s ≤ r zu zeigen.Nach Bemerkungen 1.60, 7) bedeutet s > r, da die u1, . . . , ur U aufspannen, dassw1, . . . ,ws

21 Die in Anhang A.1, A.3 eingeführten Symbole der Aussagen- und Prädikatenlogik werden weitgehendvermieden und i. Allg. durch die äquivalenten sprachlichen Formulierungen ersetzt. An wenigen Stellenwird von ihnen als Kurzschreibweise Gebrauch gemacht.

Page 84: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

84 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

linear abhängig sind, im Widerspruch zur Annahme, so dass infolgedessen s ≤ r geltenmuss. Vertauschung der Rollen von r und s liefert r = s. �

Die Sätze 1.69 und 1.72 ermöglichen folgende Definition:

Definition 1.73

Die Dimension eines endlich erzeugten linearen Unterraums U – in Zeichen dim U –ist die Länge einer Basis für U. Für U = {0} setzt man dim U = 0. Statt dim U wirdauch, besonders bei zusammengesetzten Bezeichnungen, dim(U) benutzt.

Bemerkungen 1.74

1) Da e1, . . . , en ∈ Rn eine Basis bilden, ist

dim(Rn) = n .

2) Gerade und Ebene in V haben die Dimension 1 bzw. 2.

3) dim(R(m,n)) = m · n, da A(i, j) ∈ R(m,n), die gerade an der Position (i, j) den Eintrag 1,sonst aber nur 0 haben, eine Basis bilden.

4) Der Raum der Histogramme S 0(Δ) bei einer Zerlegung Δ : a = x0 < . . . < xn = bhat nach Bemerkungen 1.41, 5) und Bemerkungen 1.63, 1) die dort angegebene Basisf0, . . . , fn−1 und damit

dim(S 0(Δ)) = n .

Analog hat S 1(Δ) die Basis der Hutfunktionen f0, . . . , fn nach (1.37) (siehe (1.39)), so dass

dim(S 1(Δ)) = n + 1 .

5) Analog zu 4) gilt

dim(Rn[x]) = n + 1 .

6) Der Vektorraum aller PolynomeR[x] ist nicht endlich erzeugbar, da mit jeder endlichenTeilmenge nur ein Maximalgrad durch die Linearkombinationen möglich wäre, also hater auch keine endliche Basis. Es ist aber offensichtlich, dass die unendliche Menge derMonome (siehe (1.33)) { fi : i ∈ N0} eine Basis bilden.

7) Der Begriff der Anzahl der Freiheitsgrade bei einem homogenen LGS kann nunmehrals dim U für

U := {x ∈ Rn : Ax = 0}

Page 85: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 85

konkretisiert werden. �Für allgemeine, nicht endlich erzeugbare Vektorräume lassen wir die Frage nach derExistenz einer Basis unberührt. Wenn man das Auswahlaxiom, bzw. äquivalent dazu dasZorn22sche Lemma akzeptiert - wogegen nichts spricht (P.K.), wofür allerdings auchnichts (W.B.) - kann man für jeden Vektorraum die Existenz einer Basis beweisen. DieserBeweis ist allerdings nicht konstruktiv. Den Beweis kann man z. B. finden in Jech 1973,auf S. 12. Aber:

Dass die in Bemerkungen 1.74, 6) gegebene Basis von R[x] abzählbar ist (indizierbar miti ∈ N0), liegt daran, dass es sich immer noch um recht „spezielle“ Funktionen handelt.Schon bei

C([a, b],R) := { f : [a, b]→ R : f ist stetig} (1.50)

als linearem Unterraum von Abb([a, b],R) kann es eine abzählbare Basis nicht geben (oh-ne Beweis). Der Begriff der Basis wird für solche Räume unhandlich und durch einenanderen ersetzt, (später in Abschnitt 7.3.2). Daher definieren wir nur als Sprechweise:

Definition 1.75

Sei V ein nicht endlich erzeugbarer R-Vektorraum. Dann heißt V unendlichdimen-sional, kurz dim V = ∞.

Für die in Definition 1.54 eingeführten affinen Unterräume eines Vektorraums übertragenwir den Dimensionsbegriff in folgender Weise:

Definition 1.76

Sei V ein R-Vektorraum und U ein linearer Unterraum. Für den affinen UnterraumA = a + U, a ∈ V wird gesetzt:

dim A := dim U .

Dadurch sind Punkte 0-dimensional, Geraden eindimensional usw.

Bemerkungen 1.77 Seien U, V zwei R-Vektorräume.

1) U ⊂ V ⇒ dim U ≤ dim V .Für dim V = ∞ ist nichts zu zeigen, sonst folgt die Aussage sofort aus Satz 1.70.

2) U ⊂ V und dim U = dim V = n < ∞ ⇒ U = V .

22 Max August Zorn ∗6. Juni 1906 in Krefeld †9. März 1993 in Bloomington

Page 86: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

86 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Wäre nämlich U � V, d. h. gibt es ein u ∈ V mit u � U, dann ist

dim U +Ru = n + 1

genau wie beim Beweis von Satz 1.70, aber U +Ru ⊂ V im Widerspruch zu 1).

3) Die Aussage 2) ist falsch, wenn dim V = ∞.Betrachte zum Beispiel V = C(R,R) (analog zu (1.50)) und U = R[x] .

4) Der Begriff der Anzahl der Freiheitsgrade bei einem LGS kann jetzt somit als dim Lfür den affinen Raum

L := {x ∈ Rn : Ax = b}konkretisiert werden. �

1.4.2 Lineare Gleichungssysteme und ihre Unterräume I:

Dimensionsformeln

Mit einer Matrix A ∈ R(m,n) lassen sich zwei lineare Unterräume in Rm bzw. Rn verbinden:

span(a(1), a(2), . . . , a(n)

)⊂ Rm ,

der von den Spalten aufgespannte Unterraum S (A) (der Spaltenraum) und

span(at

(1), at(2), . . . , at

(m)

)⊂ Rn ,

der von den Zeilen aufgespannte Unterraum Z(A) (der Zeilenraum).

Definition 1.78

Sei A ∈ R(m,n) für m, n ∈ N.

1) Der Spaltenrang von A ist die Dimension des zugehörigen Spaltenraums in Rm,d. h. ∈ {0, . . . , m}. Ist der Spaltenrang n, hat die Matrix vollen (oder maximalen)Spaltenrang.

2) Der Zeilenrang von A ist die Dimension des zugehörigen Zeilenraums in Rn,d. h. ∈ {0, . . . , n}. Ist der Zeilenrang m, hat die Matrix vollen (oder maximalen) Zei-lenrang.

Page 87: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 87

Der Spalten- bzw. Zeilenrang ist also genau dann voll, wenn alle Spalten bzw. Zeilen linearunabhängig sind und meint i. Allg. nicht die Übereinstimmung von S (A) mit Rm bzw. Z(A)mit Rn). Über den Zeilenrang können wir schon etwas aussagen:

Bemerkungen 1.79

1) Der Zeilenraum von A ∈ R(m,n) ändert sich nicht bei elementaren Zeilenumformungenund damit auch nicht der Zeilenrang.Bei Umformungen vom Typ (I) und (II) ist dies klar. Bei Typ (III) sieht man es wie folgt ein: DieZeilenvektoren seien z1, . . . , zm und z′k := zk + c zl, k � l, sei eine derartige Zeilenumformung. SeiZ := span(zt

1, . . . , ztm) ⊂ Rn und Z′ := span(zt

1, . . . , ztk−1, z′tk , zt

k+1, . . . , ztm). Wegen z′k ∈ Z ist Z′ ⊂ Z.

Wegen zk = z′k − c zl ist auch Z ⊂ Z′. Es ist damit Z = Z′ und dim(Z) = dim(Z′).

Folglich ändert sich der Zeilenrang auch nicht, wenn wir eine Matrix durch elementareZeilenumformungen auf Zeilenstufenform bringen.

2) Bei einer Matrix in Zeilenstufenform ist der Zeilenrang nach Bemerkungen 1.60, 6)gerade die Anzahl der Stufen r. Wir könnten den Zeilenrang einer Matrix also auch defi-nieren als die Anzahl der Zeilen � 0 in ihrer Zeilenstufenform.

3) Der Spaltenrang einer Matrix A ∈ R(m,n) in Zeilenstufenform ist r, die Anzahl derStufen.Der Spaltenrang bleibt bei Spaltenvertauschungen gleich, so dass es reicht, ein Staffelsystem (1.9) zu be-trachten. Die ersten r Spalten a(1), . . . , a(r) sind linear unabhängig, da aus

∑ri=1 ci a(i) = 0 sukzessive aus der

ersten Komponente c1 = 0, aus der zweiten dann auch c2 = 0 usw. folgt. a(1), . . . , a(r) spannen aber auchden Unterraum U := {x ∈ Rm : xi = 0 für i = r + 1, . . . , m} auf, da das entsprechende LGS durch Rück-wärtssubstitution (eindeutig) lösbar ist (für ein reduziertes Staffelsystem reicht Bemerkungen 1.66, 3)), sodass alle weiteren Spalten durch sie linear kombinierbar werden.

4) Sei A ∈ R(m,n), U := {x ∈ Rn : Ax = 0} der Lösungsraum des homogenen LGS zu A,dann gelten:

a) Hat A vollen Zeilenrang, d. h. ist m = r, dann hat eine Zeilenstufenform A keineNullzeilen und das LGS der Form Ax = b ist immer lösbar.

b) Hat A vollen Spaltenrang, d. h. ist n = r, dann hat die allgemeine Lösung vonAx = b keine Freiheitsgrade bzw. dim U = 0 (wie schon aus Bemerkungen 1.63, 3)bekannt).

5) Für Matrizen in Zeilenstufenform gilt also

Zeilenrang = Spaltenrang = Stufenanzahl r.

6) Der Rang einer Matrix A ∈ R(m,n), definiert als Anzahl der Stufen r (nach Satz 1.4) istnur eine Eigenschaft von A, unabhängig vom Ablauf des Gauss-Verfahrens.Der Zeilenrang r von A überträgt sich nach 1) auch auf jede aus A nach dem Gauss-Verfahren entstehendeMatrix A′ oder A′′ in Zeilenstufenform. Also gilt für deren Stufenanzahl r′ bzw. r′′ nach 5):

r′ = r = r′′ .

Page 88: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

88 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Die letzte Aussage können wir auch als allgemein gültig nachweisen:

Hauptsatz 1.80: Zeilenrang = Spaltenrang

Sei A ∈ R(m,n) eine beliebige Matrix. Zeilenrang und Spaltenrang ändern sich nichtunter elementaren Zeilenumformungen. Für eine Matrix in Zeilenstufenform sindsie jeweils r, die Anzahl der Stufen. Insbesondere gilt somit immer:

Zeilenrang = Spaltenrang .

Beweis: Nach den Überlegungen von Bemerkungen 1.79 ist nun noch zu zeigen: Ele-mentare Zeilenumformungen verändern den Spaltenrang nicht. Das kann man wie folgteinsehen: Der Spaltenrang von A sei r. Nach Satz 1.71 (Basis-Auswahl-Satz) gibt es rlinear unabhängige Spalten b1 := aν1 , . . . , br = aνr der Matrix A. Weil die Spalten derdamit gebildeten m × r-Matrix B := (b1, . . . , br) linear unabhängig sind, hat das LGS mitdieser Matrix Bx = 0 nur die Null-Lösung. Die Matrix A werde durch eine elementareZeilenumformung in die Matrix A′ übergeführt. Dabei wird auch die Teilmatrix B vonA in eine Matrix B′ übergeführt. Bei dieser Zeilenumformung der Matrix B ändert sichder Lösungsraum des Gleichungssytems Bx = 0 nicht. Folglich hat auch das LGS derForm B′x = 0 nur die Null-Lösung. Deswegen sind die r Spalten der Matrix B′ linearunabhängig (nach Bemerkungen 1.63, 3)). Diese sind auch Spalten der Matrix A′. Alsogilt für den Spaltenrang r′ von A′, dass r′ ≥ r. Demnach kann der Spaltenrang durchelementare Zeilenumformungen höchstens wachsen. Weil man die durchgeführte Zeile-numformung durch eine Umformung vom gleichen Typ wieder rückgängig machen kann,gilt auch r ≥ r′. �

Definition 1.81

Der Rang einer Matrix A ist der gemeinsame Wert r ihres Zeilen- und Spaltenrangs.Wir setzen Rang(A) := r.

Außerdem haben wir ein allgemeines Bestimmungsverfahren für den Rang (=Zeilenrang)einer Matrix:RLGS Man transformiere mit dem Gaussschen Eliminationsverfahren (ohne Spal-tenvertauschung) auf Zeilenstufenform und lese die Anzahl der Stufen ab.

Analog gilt: Sei u1, . . . , uk ∈ Rn. Eine Basis für U := span(u1, . . . , uk) kann man wiefolgt bestimmen: Man betrachte die Matrix A ∈ R(k,n) mit ut1, . . . , u

tk als Zeilen und trans-

formiere mit Zeilenumformungen auf ZeilenstufenformRLGS A = (ut1, . . . , utk), was nach Be-

merkungen 1.79, 1) den aufgespannten Raum nicht ändert. Wie in Bemerkungen 1.60, 6)sehen wir, dass die ersten r Zeilen eine Basis von U darstellen: U = span(u1, . . . , ur).

Page 89: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 89

Weiter kann man ein W := span(wr+1, . . . ,wn) bestimmen, so dass RLGS

U ⊕W = Rn .

Man wähle nämlich aus dem Einheitsvektor ei ∈ Rn die i ∈ {1, . . . , n}\{ j(1), . . . , j(r)} aus,wobei die j(μ) die Zeilenstufenindizes in A sind.Dies kann man folgendermaßen einsehen: Ergänzt man A mit den Zeilen et

1, . . . , etn ∈ Rn zur Matrix

A ∈ R(k+n,n), so dass die Zeilen Rn aufspannen, und transformiert man A auf Zeilenstufenform, so siehtman: Ist die zu betrachtende Zeile eine der ut1, . . . , u

tk, und ist die aktuelle Diagonalposition ν ∈ {1, . . . , n}

ein Pivotelement, so eliminiert dies die Zeile, die durch etν gebildet wird. Ist es kein Pivotelement, so wird

mit etν getauscht. Daraus kann durch weitere Vertauschungen ein Einschieben von et

ν gemacht werden, sodass im nächsten Schritt wieder eine der ut1, . . . , u

tk zu betrachten ist. Insgesamt entsteht dadurch auf den

ersten n Zeilen eine Basis des Rn (die letzten k Zeilen sind Nullzeilen), in der die ut1, . . . , utk auftreten,

ergänzt um die eti für i ∈ {1, . . . , n}\{ j(1), . . . , j(r)}.

Bei der Betrachtung des zugehörigen LGS

Ax = b

sind zwei weitere lineare Unterräume von Bedeutung: Der Lösungsraum U des homoge-nen LGS

U = {x ∈ Rn : Ax = 0}und später

U := {y ∈ Rm :(y . a(i)

)= 0 für alle i = 1, . . . , n} .

Wir wenden unseren Dimensionsbegriff jetzt noch auf lineare Gleichungssysteme an:

Theorem 1.82: Dimensionsformel I

Seien m, n ∈ N, A ∈ R(m,n). Betrachtet werde das homogene LGS

Ax = 0 mit dem Lösungsraum U ⊂ Rn .

Für die Zahlen

d := Dimension des Lösungsraums U,

r := (Zeilen-) Rang von A

gilt dann die Beziehung

d + r = n .

Page 90: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

90 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Beweis: Bei elementaren Zeilenumformungen der Koeffizientenmatrix ändern sich wederU noch der Zeilenraum und damit auch nicht ihre Dimensionen d bzw. r. Wir könnendaher o. B. d. A. annehmen, die Koeffizientenmatrix habe Zeilenstufenform. Die Zahl derStufen ist dann r. Es gibt also n−r Spalten ohne Stufe in der Koeffizientenmatrix. An diesenn−r Stellen können die Unbekannten beliebig gewählt werden, die anderen r werden danndaraus berechnet, wie die Lösungsdarstellung (1.12) zeigt. Da auch Spaltenvertauschungendie Dimension von U und die Stufenanzahl nicht verändern, reicht es das Staffelsystem(1.9) mit seiner Lösungsdarstellung (1.11) zu betrachten. Gehen wir noch zur reduziertenZeilenstufenform (1.16) über, so erhält die Matrix die Gestalt

A =(1 A0 0

).

Dabei ist 1 ∈ R(r,r) die Einheitsmatrix, A ∈ R(r,n−r) und die Nullmatrizen haben eineentsprechende Dimensionierung. Für r = n reduziert sich U auf U = {0} und der Beweisist beendet. Für r < n denken wir uns ein x ∈ Rn zerlegt in ein x′ ∈ Rr und x′′ ∈ Rn−r :

x =(

x′

x′′

).

x′′ umfasst also die freien Parameter, x′ die dadurch festgelegten Komponenten. Wegen

Ax = 0⇔ x′ + Ax′′ = 0

hat der Lösungsraum mithin die Form

U :={

x ∈ Rn : x =(

x′

x′′

), x′ = −Ax′′

}.

Wir setzen ui =(u′iu′′i

)mit

(u′′i

)k := δi,k, u′i := −Au′′i

für k = 1, . . . , n − r und i = 1, . . . , n − r. Dann bilden die u1, . . . , un−r eine Basis vonU. Dabei ergibt sich die lineare Unabhängigkeit daraus, dass schon die u′′1 , . . . , u

′′n−r linear

unabhängig sind. Ein Erzeugendensystem liegt vor, denn für x ∈ U gilt offensichtlich

x′′ =n−r∑i=1

xi+ru′′i

und damit nach Theorem 1.46

x′ = −Ax′′ = −n−r∑i=1

xi+r Au′′i =n−r∑i=1

xi+ru′i ,

d. h. insgesamt x =∑n−r

i=1 xi+rui. Folglich ist d = n − r. �

Page 91: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 91

Korollar 1.83

Jeder lineare Unterraum U ⊂ Rn ist der Lösungsraum eines homogenen linearenGleichungssystems. Das LGS kann mit n − dim U Zeilen und vollem Zeilenranggewählt werden.

Beweis: Sei dim U = k und u1, . . . , uk ∈ U eine Basis. Sei

B =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝ut

1...

utk

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ∈ R(k,n) ,

d. h. die uti bilden die Zeilen von B. Damit ist der Zeilenrang von B gleich k. Sei W ⊂ Rn

der Lösungsraum von By = 0. Also gilt (siehe zeilenweise Sicht von „Matrix mal Vektor“)

a ∈ W ⇔ (ui . a) = 0 für alle i = 1, . . . , k .

Nach Theorem 1.82 ist dim W = n − k. Sei also a1, . . . , an−k ∈ Rn eine Basis von W und

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝at

1...

atn−k

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ ∈ R(n−k,n),

d. h. die ati bilden die Zeilen von A. Der Zeilenrang von A ist deswegen n − k. Sei U ⊂ Rn

der Lösungsraum von Au = 0, also

u ∈ U ⇔ (ai . u) = (u . ai) = 0 für alle i = 1, . . . , n − k ⇔ Au = 0 .

Daraus folgt U ⊂ U, und wegen

dim U = n − Rang A = n − (n − dim U) = dim U

auch U = U aus Bemerkungen 1.77, 2). �

Bemerkungen 1.84

1) Ein k-dimensionaler Unterraum U von Rn lässt sich somit durch n − k lineare Glei-chungen beschreiben. Sei allgemein V ein n-dimensionaler R-Vektorraum und U ⊂ V eink-dimensionaler linearer Unterraum. Man setzt dann

codim U := n − k (1.51)

und spricht von der Kodimension von U. Es ist dementsprechend

dim U + codim U = n .

Page 92: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

92 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

2) Jede Hyperebene durch 0 hat in einem n-dimensionalen Raum Dimension n − 1 unddamit Kodimension 1.

3) Sei U die Lösungsmenge eines homogenen LGS Ax = 0, dann ist nach Theorem 1.82die Anzahl der Freiheitsgrade n − r und damit

codim U = r ,

wobei r der (Zeilen-)rang von A ist. Die Kodimension ist also hier nach Korollar 1.83 all-gemein bei jeden Unterraum U von Rn die Anzahl der linear unabhängigen Gleichungen,die nötig sind, um U als Lösungsmenge eines homogen LGS zu beschreiben. �Der folgende Satz fasst das bisher erarbeitete strukturelle Wissen über LGS zusammen:

Hauptsatz 1.85: Lösbarkeit und Eindeutigkeit bei LGS

Seien m, n ∈ N, A ∈ R(m,n), b ∈ Rm . Wir betrachten das LGS

Ax = b .

Dann sind die folgenden Aussagen äquivalent:

(i) Bei jeder Wahl der b1, . . . , bm auf der rechten Seite ist das Gleichungssystemlösbar (universelle Existenz).

(ii) Der Zeilenrang der Koeffizientenmatrix ist voll, d. h. gleich m.

Auch folgende Aussagen sind äquivalent:

(iii) Bei jeder Wahl der b1, . . . , bm auf der rechten Seite gibt es höchstens eineLösung des Systems (Eindeutigkeit).

(iv) Das zugehörige homogene System

Ax = 0

hat nur die Null-Lösung (Eindeutigkeit im homogenen Fall).

(v) Der Spaltenrang der Koeffizientenmatrix ist voll, d. h. gleich n.

Im Fall m = n, eines quadratischen LGS mit genauso vielen Gleichungen wie Unbe-kannten sind alle Aussagen (i)-(v) miteinander und außerdem mit folgendem äqui-valent:

(vi) Durch elementare Zeilenumformungen kann A auf die Form einer oberenDreiecksmatrix mit nichtverschwindenden Diagonalelementen (bzw. = 1)gebracht werden:

Page 93: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.4 Lineare (Un-)Abhängigkeit und Dimension 93⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 ∗. . .

. . .

. . .

0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠. (1.52)

Beweis: Eindeutigkeit : (iii) ist äquivalent mit dem Prinzip des Koeffizientenvergleichs,d. h. mit der linearen Unabhängigkeit der n Spalten von A, d. h. mit (v). (iv) ist der Test auflineare Unabhängigkeit nach Hauptsatz 1.62, folglich äquivalent mit (iii).Existenz: Die Implikation „(ii)⇒(i)“ ist der Inhalt von Bemerkungen 1.79, 1), 4a). Dassauch „(i)⇒(ii)“ gilt, kann man folgendermaßen einsehen: Aus (i) folgt, dass die Spaltenvon A den ganzen Rm aufspannen, also ist nach Hauptsatz 1.80

m = Zeilenrang von A = Spaltenrang von A .

Sei nun n = m, dann gilt zusätzlich: Die Dimensionsformel I (Theorem 1.82) liefert

(ii)⇔ r = m = n⇔ d = 0⇔ (iv) .

Nach Bemerkungen 1.79, 1) ist (ii) damit äquivalent, dass für die Zeilenstufenform Avon A, die durch das Gauss-Verfahren ohne Spaltenvertauschung entsteht, der Zeilenrang(und nach Bemerkungen 1.79, 5) bzw. Hauptsatz 1.80 auch der Spaltenrang) gleich n ist.Dies ist für eine quadratische Matrix in Zeilenstufenform äquivalent zur Form (1.52), d. h.zu (vi) (siehe Bemerkungen 1.79, 2)). �

Im Allgemeinen sind die Eigenschaften

(i)⇔(ii) (universelle Existenz)

auf der einen Seite und

(iii)⇔(iv)⇔(v) (Eindeutigkeit)

unabhängig voneinander. Nur für die Lösungen eines quadratischen LGS gilt:

Universelle Existenz⇔ Eindeutigkeit⇔ eindeutige universelle Existenz.

Satz 1.86: Dimensionsformel II

Für je zwei endlichdimensionale lineare Unterräume U1, U2 ⊂ V gilt

dim(U1 ∩ U2) + dim(U1 + U2) = dim(U1) + dim(U2) .

Beweis: Sei u1, . . . , ud eine Basis von U1 ∩ U2. Wir ergänzen diese Basis zu einer Basisvon U1 durch u1, . . . , ud, u1, . . . , ur und zu einer Basis u1, . . . , ud,w1, . . . ,ws von U2. Wir

Page 94: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

94 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

testen das System von Vektoren u1, . . . , ud, u1, . . . , ur,w1, . . . ,ws auf lineare Unabhängig-keit. Sei etwa die lineare Relation

a1u1 + . . . + adud + b1u1 + . . . + brur︸������������������������������������������︷︷������������������������������������������︸∈U1

+ c1w1 + . . . + csws︸����������������︷︷����������������︸∈U2

= 0

zwischen diesen Vektoren vorgelegt. Dann ist

c1w1 + . . . + csws = −(a1u1 + . . . + adud + b1u1 + . . . + brur) ∈ U1 ∩ U2 ,

also

c1w1 + . . . + csws = α1u1 + . . . + αdud mit α1, . . . , αd ∈ R.

Da aber u1, . . . , ud,w1, . . . ,ws als Basis von U2 linear unabhängig waren, folgt hierausc1 = . . . = cs = 0. Ganz analog folgt b1 = . . . = br = 0, so dass die lineare Relationschließlich a1u1 + . . . + adud = 0 lautet. Hieraus folgt dann noch a1 = . . . = ad = 0. Dau1, . . . , ud, u1, . . . , ur,w1, . . . ,ws den Unterraum U1 +U2 aufspannen, haben wir bewiesen,dass sie eine Basis von U1 + U2 bilden. Somit ist

dim(U1) = d + r , dim(U2) = d + s ,dim(U1 ∩U2) = d , dim(U1 + U2) = d + r + s ,dim(U1) + dim(U2) = 2d + r + s , dim(U1 ∩U2) + dim(U1 + U2) = 2d + r + s .

Damit ist die Formel bewiesen. �

Bemerkung 1.87 Ist U = U1 ⊕ U2, so ist nach Satz 1.86 insbesondere

dim U = dim U1 + dim U2.

Ist die Summe direkt, ergänzen sich vor diesem Hintergrund die Basen von U1 und U2

zu einer Basis von U. Ihre Vereinigung bildet nämlich immer ein Erzeugendensystem undnach der Dimensionsformel ist die Anzahl in der Vereinigung genau dim U (siehe Aufga-be 1.20). Für ein Komplement U2 zu U1 ist daher dim U2(= dim U − dim U1) unabhängigvon der Wahl des Komplements (vgl. Satz 1.70). Wie aber schon V = R2 und U = R(1, 0)t

zeigt, gibt es i. Allg. unendlich viele Komplemente. �

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Linear (un-)abhängig• Basis• Dimension, unendliche Dimension

Zusammenhänge:

• Test auf lineare (Un-)Abhängigkeit (Lemma 1.61, Hauptsatz 1.62)

Page 95: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

Aufgaben 95

• Prinzip des Koeffizientenvergleichs (1.47)• Stufenanzahl= Zeilenrang= Spaltenrang bei Zeilenstufenform (Bemerkungen 1.60, 6),

Bemerkungen 1.79, 3)• Basis-Ergänzung-Satz (Satz 1.70)• Basis-Auswahl-Satz (Satz 1.71)• Zeilenrang = Spaltenrang allgemein (Hauptsatz 1.80)• Dimensionsformel I (Theorem 1.82)• Dimensionsformel II (Satz 1.86)• Charakterisierung von Eindeutigkeit und universeller Lösbarkeit bei LGS

(Hauptsatz 1.85)

Beispiele:

• Basen in S 0(Δ), S 1(Δ),Rn[x],R[x]• Standardbasis in Rn

Aufgaben

Aufgabe 1.20 (T) Es sei U ⊂ V ein k-dimensionaler Untervektorraum. Zeigen Sie, dassfür jede Teilmenge M ⊂ U die folgenden Eigenschaften äquivalent sind:

(i) M ist eine Basis von U,

(ii) M ist linear unabhängig und besteht aus k Vektoren,

(iii) M spannt U auf und besteht aus k Vektoren.

Aufgabe 1.21 (K) Berechnen Sie den Zeilenrang der Matrizen

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 3 6 103 6 10 156 10 15 21

10 15 21 28

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ , B =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 3 6 103 6 10 16 10 1 310 1 3 6

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ .Aufgabe 1.22 (K) Es seien

U := {x ∈ R4 : x1 + 2x2 = x3 + 2x4} , V := {x ∈ R4 : x1 = x2 + x3 + x4} .Bestimmen Sie Basen von U, V, U ∩ V und U + V .

Aufgabe 1.23 (T) Seien n, k ∈ N, seien u1, u2, . . . , un ∈ Rk Vektoren, und sei wi :=∑i

j=1 u j

für i = 1, . . . , n. Man zeige, dass das System (u1, u2, . . . , un) genau dann linear unabhängigist, wenn das System (w1,w2, . . . ,wn) linear unabhängig ist.

Aufgabe 1.24 (K) Im reellen Vektorraum R5 seien folgende Vektoren gegeben:

u1 = (−1, 4,−3, 0, 3)t, u2 = (2,−6, 5, 0,−2)t, u3 = (−2, 2,−3, 0, 6)t.

Page 96: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

96 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Sei U der von u1, u2, u3 aufgespannte Unterraum im R5. Bestimmen Sie ein reelles linea-res Gleichungssystem, dessen Lösungsraum genau U ist.

Aufgabe 1.25 (T) Für eine fest gegebene Zerlegung Δ von [a, b] definiere man

S −11 (Δ) := { f : f : [a, b]→ R ist eine Gerade auf [xi, xi+1), i = 0, . . . , n − 2

bzw. auf [xn−1, xn]} .

Gegenüber S 1(Δ) wird also der stetige Übergang bei xi, i = 1, . . . , n − 1 nicht gefordert.Man zeige: S −1

1 (Δ) mit den punktweise definierten Operationen ist ein R-Vektorraum undS 1(Δ) ein linearer Unterraum. Man gebe eine Basis von S −1

1 (Δ) an und verifiziere

dim S −11 (Δ) = 2n .

Aufgabe 1.26 (K) Welche der folgenden Systeme von Funktionen fν, ν ∈ N, sind linearunabhängig (als Vektoren im Vektorraum C(R,R))?

a) fν(x) = eνx,b) fν(x) = x2 + 2νx + ν2,c) fν(x) = 1

ν+x2 ,

jeweils für x ∈ R.

Page 97: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 97

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit

Skalarprodukt

1.5.1 Skalarprodukt, Norm und Winkel

In diesem Abschnitt sollen zwei Begriffe betrachtet werden, die über die Vektorraumstruk-tur hinausgehen und die eng zusammenhängen: Längenmessung und Winkelbestimmung.Wir erinnern zunächst an den elementargeometrischen Begriff der Länge in n = 1, 2 und 3Dimensionen:

n = 1: Für x ∈ R ist

|x| :=√

x2

der Betrag der Zahl x.

n = 2: Die Länge eines Vektors x = (x1, x2)t ∈ R2 ist

‖x‖ :=√

x21 + x2

2 .

Dies ist der Inhalt des elementargeometrischen Satzes von Pythagoras23, für x als Orts-vektor aufgefasst.

n = 3: Die Länge eines Vektors x = (x1, x2, x3)t ∈ R3 ist

‖x‖ :=√

x21 + x2

2 + x23 .

Dies ergibt sich nach zweimaligem Anwenden des Satzes von Pythagoras.

����������

x

x1

x2

‖x‖

�������

���

������

���

����������

x

‖x‖

x1

x2

x3

Abb. 1.12: Euklidische Länge in R2 und R3.

Es liegt nahe, wie dieser Längenbegriff für beliebige Dimension zu verallgemeinern ist:

23 Pythagoras von Samos ∗um 570 v. Chr. auf Samos †nach 510 v. Chr. in Metapont in derBasilicata

Page 98: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

98 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.88

Sei x = (x1, . . . , xn)t ∈ Rn. Dann heißt

‖x‖ :=√

x21 + x2

2 + . . . + x2n

die euklidische Länge oder Norm von x.

Mit dem in Definition 1.49 eingeführten (euklidischen) Skalarprodukt lässt sich die Normausdrücken durch:

‖x‖ = √(x . x) . (1.53)

Das Skalarprodukt (x . y) hat folgende offensichtliche Eigenschaften in V := Rn :

(i) Bilinearität:

(c1x1 + c2x2 . y) = c1 (x1 . y) + c2 (x2 . y) , x1, x2, y ∈ V, c1, c2 ∈ R ,(x . c1y1 + c2y2

)= c1

(x . y1

)+ c2

(x . y2

), x, y1, y2 ∈ V, c1, c2 ∈ R .

(1.54)

(ii) Symmetrie:

(x . y) = (y . x) , x, y ∈ V . (1.55)

(iii) Definitheit:

(x . x) ≥ 0 für alle x ∈ V ,(x . x) = 0 ⇔ x = 0 .

(1.56)

Eigenschaften der Norm, die nur aus (1.54)-(1.56) folgen, sind:(iv) Definitheit:

Es ist stets ‖x‖ ≥ 0 und ‖x‖ = 0 nur dann, wenn x = 0 . (1.57)

(v) Homogenität:Für c ∈ R und x ∈ V ist

‖cx‖ = |c| ‖x‖ . (1.58)

Den Zusammenhang zwischen Skalarprodukt und Norm beschreibt:(vi) Cauchy-Schwarz2425-Ungleichung (C.S.U.):

| (x . y) | ≤ ‖x‖ · ‖y‖ . (1.59)

24 Augustin Louis Cauchy ∗21. August 1789 in Paris †23. Mai 1857 in Sceaux25 Hermann Amandus Schwarz ∗25. Januar 1843 in Hermsdorf †30. November 1921 in Berlin

Page 99: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 99

Beweis aus (1.54) - (1.56): Für alle a, b ∈ R ist

0 ≤ ||ax − by||2 = (ax − by . ax − by) = a2‖x‖2 − 2ab (x . y) + b2‖y‖2,oder äquivalent damit

2ab (x . y) ≤ a2‖x‖2 + b2‖y‖2.Setzen wir a = ‖y‖ und b = ‖x‖, so erhalten wir

2‖x‖ · ‖y‖ (x . y) ≤ 2‖x‖2 · ‖y‖2.Da die Behauptung für x = 0 oder y = 0 richtig ist, können wir o. B. d. A. x � 0 � y annehmen.Dann dürfen wir in der letzten Gleichung wegen (1.57) kürzen und erhalten

(x . y) ≤ ‖x‖ · ‖y‖ .Für −x statt x gilt dieselbe Ungleichung, so dass also auch

− (x . y) = (−x . y) ≤ ‖x‖ · ‖y‖gilt. Daraus folgt schließlich

| (x . y) | = max{(x . y) ,− (x . y)} ≤ ‖x‖ · ‖y‖ .Aus der C.S.U. folgt eine weitere wichtige Eigenschaft der Norm:

(vii) Dreiecksungleichung:

‖x + y‖ ≤ ‖x‖ + ‖y‖ für x, y ∈ V. (1.60)

Beweis aus (1.54), (1.55), (1.60):

||x + y||2 = (x + y . x + y) = ‖x‖2 + 2 (x . y) + ‖y‖2≤ ‖x‖2 + 2‖x‖ · ‖y‖ + ‖y‖2= (‖x‖ + ‖y‖)2.

� x�����y

��������

x + y

Abb. 1.13: Elementargeometrische Interpretation der Dreiecksungleichung.

Die geometrische Bedeutung des Skalarprodukts in R2, und dann übertragen auf Rn, wer-den wir später untersuchen. Erst ist die Verallgemeinerbarkeit der Begriffe Skalarproduktund Norm zu untersuchen.

Die Eigenschaften (iv)–(vii) beruhen nur auf den Eigenschaften (i)-(iii) des Skalarproduktsund der Definition in (1.53). Das legt folgende Definition nahe:

Page 100: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

100 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Definition 1.89

Sei V ein R-Vektorraum. Eine Abbildung ( . ): V × V → R heißt Skalarprodukt(SKP) auf V , wenn sie bilinear, symmetrisch und definit ist (d. h. (1.54), (1.55), (1.56)erfüllt). Für das Bild von x, y ∈ V schreibt man (x . y). Der Raum

(V,+, ·, ( . )

)bzw.

kurz(V, ( . )

)heißt Vektorraum mit SKP.

Es ist nicht selbstverständlich, dass auf einem R-Vektorraum ein SKP existiert, wenn dannaber unendlich viele, da jedes positive Vielfache eines SKP wieder ein SKP ist.

Bemerkung 1.90 Auf dem Vektorraum C([a, b],R) (siehe (1.50)) kann ein SKP einge-führt werden durch

( f . g) :=∫ b

af (x) g(x) dx . (1.61)

Für die Eigenschaften der Bilinearität und Symmetrie wird auf Schulkenntnisse bzw. dieAnalysis verwiesen, in der auch die Definitheit bewiesen wird. Auf den linearen Unter-räumen S 1(Δ) bzw. Rn[x] ist damit auch ein SKP definiert, aber auch auf linearen Unter-räumen wie etwa S 0(Δ) kann mit der gleichen Definition ein SKP eingeführt werden. FürS 0(Δ) nimmt dies nachfolgend für die Zerlegung Δ : a = x0 < . . . < xn = b die folgendespezielle Form an:

Seien fi bzw. gi, i = 0, . . . , n − 1, die konstanten Werte von f , g ∈ S 0(Δ), dann ist

( f . g) =n−1∑i=0

(xi+1 − xi) fi gi .

Für eine äquidistante Zerlegung mit xi+1 − xi = h ergibt sich so

( f . g) = hn−1∑i=0

fi gi .

Bis auf den Faktor h ist das somit das euklidische SKP der darstellenden n-Tupel. �Die Eigenschaften (iv), (v), (vii) der euklidischen Norm erscheinen als wesentliche Eigen-schaften einer Längenmessung auf einem R-Vektorraum. Daher:

Definition 1.91

Sei (V,+, ·) ein R-Vektorraum. Eine Abbildung ‖ . ‖ : V → R heißt Norm aufV , wenn sie definit und homogen ist und die Dreiecksungleichung erfüllt (d. h.(1.57),(1.58),(1.60) gelten). Für das Bild von x ∈ V schreibt man ‖x‖. Dannheißt (V,+, ·, ‖ . ‖) bzw. kurz (V, ‖ . ‖) normierter (R-Vektor-)Raum.

Page 101: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 101

Da die obigen Beweise von (1.57), (1.58), (1.60) für V = Rn nur die SKP Eigenschaften(1.54)–(1.56) ausgenutzt haben, gilt demnach:

Satz 1.92

Sei (V, ( . )) ein R-Vektorraum mit SKP. Dann wird durch (1.53) eine Norm ‖ . ‖ de-finiert, die die Cauchy-Schwarz-Ungleichung (1.59) erfüllt. ‖ . ‖ heißt auch vomSKP ( . ) erzeugt.

Bemerkungen 1.93

1) Jede Norm ‖ . ‖ auf einem R-Vektorraum V definiert eine Abstandsmessung (Metrik)durch

d(x, y) := ‖x − y‖ für x, y ∈ V .

2)

Eine Norm, die durch ein SKP erzeugt wird, erfüllt die Parallelogrammgleichung:

‖x + y‖2 + ‖x − y‖2 = 2(‖x‖2 + ‖y‖2

)für x, y ∈ V . (1.62)

3) Auf dem Rn lassen sich auch andere SKP definieren. Sei r = (ri)i ∈ Rn und ri > 0 füralle i = 1, . . . , n, ein Vektor von Gewichten. Dann ist

(x . y)r :=n∑

i=1

ri xiyi (1.63)

ein SKP auf Rn.

4) Berücksichtigt man, dass der Matrizenraum R(m,n) nur ein „seltsam“ aufgeschriebenerRm·n ist, so liefert das euklidische SKP auf Rm·n ein SKP auf R(m,n):

A : B :=m∑

j=1

n∑k=1

a j,kb j,k für A = (a j,k), B = (b j,k) ∈ R(m,n)

mit der erzeugten (Frobenius-)Norm26

‖A‖F :=

⎛⎜⎜⎜⎜⎜⎜⎝ m∑j=1

n∑k=1

|a j,k|2⎞⎟⎟⎟⎟⎟⎟⎠

1/2

.

Page 102: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

102 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

5) Die von ( . ) nach (1.61) auf C([a, b],R) erzeugte Norm ist

‖ f ‖2 :=(∫ b

a| f (x)|2dx

)1/2

(1.64)

bzw. die Abstandsmessung

‖ f − g‖2 :=(∫ b

a| f (x) − g(x)|2dx

)1/2

für f , g ∈ C([a, b],R). Man spricht auch von Abstandsmessung im quadratischen Mittel.

6) Es gibt auf Rn eine Vielzahl von Normen, die nicht durch ein SKP erzeugt werden,z. B.

‖x‖1 : =n∑

i=1

|xi| oder (1.65)

‖x‖∞ : = max {|xi| : i = 1, . . . , n} , die Maximumsnorm . (1.66)

7) Auf C([a, b],R) lassen sich zu (1.65), (1.66) analoge Normen definieren durch

‖ f ‖1 : =∫ b

a| f (x)|dx , (1.67)

‖ f ‖∞ : = max {| f (x)| : x ∈ [a, b]} . (1.68)

Mathematische Modellierung 3 Auch in Anwendungen treten andere als das euklidische SKP auf: An-knüpfend an (MM.24) werde bei der Berechung des Gesamtertrags ein Rabatt ri berücksichtigt (wobei1 − ri ∈ [0, 1) der Rabattsatz sei). Dann ergibt sich der Gesamtertrag nach (MM.24) und (1.63) aus

e = (p . S)r . �

Wir kehren vorerst wieder zur Betrachtung des R2 zurück. Nicht nur die Norm eines Vek-tors, auch das Skalarprodukt zweier Vektoren hat eine geometrische Bedeutung. Dazu be-trachten wir zunächst zwei Einheitsvektoren (= Vektoren der Länge 1) im R2, die mit derx-Achse (gegen den Uhrzeigersinn) einen Winkel von α bzw. β einschließen. Dann giltnach der elementargeometrischen Definition (sin α = „Gegenkathete/Hypothenuse“ etc.)und wegen sin2 α + cos2 α = 1 für alle α:

x = (cos(α), sin(α))t ,

y = (cos(β), sin(β))t ,

(x . y) = cos(α) cos(β) + sin(α) sin(β)= cos(α − β)

26 Ferdinand Georg Frobenius ∗26. Oktober 1849 in Berlin †3. August 1917 in Charlottenburg

Page 103: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 103

aus dem Additionstheorem für die cos-Funktion. Es folgt also, dass das Skalarprodukt(x . y) zweier Einheitsvektoren der Cosinus des Winkels zwischen beiden Vektoren ist.Für zwei beliebige Vektoren x � 0 � y definieren wir zunächst die Einheitsvektoren

x :=1‖x‖ x , y :=

1‖y‖y

und erhalten in der Folge für den Cosinus des Winkels zwischen x und y

(x . y) =(x . y)‖x‖ ‖y‖ .

Aus der Cauchy-Schwarz-Ungleichung folgt

−1 ≤ (x . y)‖x‖ ‖y‖ ≤ 1 .

Da die Cosinus-Funktion das Intervall [0, π] bijektiv auf das Intervall [−1, 1] abbildet, gibtes genau ein α ∈ [0, π] mit

cos(α) =(x . y)‖x‖ ‖y‖ .

Dies nehmen wir zum Anlass für die entsprechende allgemeine Definition:

Definition 1.94

Sei(V, ( . )

)ein R-Vektorraum mit SKP. Seien x � 0 � yVektoren in V . Sei α ∈ [0, π]

der eindeutig existierende Wert, für den gilt

cos(α) =(x . y)‖x‖ ‖y‖ .

Wir nennen diesen Winkel α den Winkel zwischen den Vektoren x und y.

Dieser Winkel hat also kein Vorzeichen, d. h. er hängt nicht von der Reihenfolge der Vek-toren x und y ab.

Hier haben wir ziemlich großzügig Gebrauch von den Eigenschaften der Cosinus-Funktionaus der Analysis gemacht. Die Beziehung zwischen Skalarprodukt und Cosinus des Zwi-schenwinkels ist für das Verständnis und die Anwendungen (z. B. in der analytischen Geo-metrie) von großer Bedeutung. Im weiteren Aufbau der Linearen Algebra selbst werdenwir aber von dieser Tatsache keinen Gebrauch machen, sondern nur um den Bezug zurAnschauung aufrecht zu erhalten. In diesem Sinn sollte uns deswegen die Anleihe bei derAnalysis erlaubt sein.

Page 104: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

104 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

1.5.2 Orthogonalität und orthogonale Projektion

Definition 1.95

Sei (V, ( . )) ein R-Vektorraum mit SKP. Zwei Vektoren x, y ∈ V heißen orthogonaloder senkrecht aufeinander, in Zeichen x ⊥ y, wenn sie den Winkel π

2 einschließen,folglich wenn (x . y) = 0 ist. (Hier ist auch x = 0 oder y = 0 zugelassen.)

Satz 1.96: Abstrakter Satz von Pythagoras

Sei (V, ( . )) ein R-Vektorraum mit SKP. Es seien u1, . . . , ur ∈ V Vektoren, die paar-weise aufeinander senkrecht stehen:

(uk . ul) = 0 für alle k � l .

Dann gilt

‖u1 + u2 + . . . + ur‖2 = ‖u1‖2 + ‖u2‖2 + . . . + ‖ur‖2 .

Beweis: Aus der Voraussetzung folgt, dass die linke Seite gleich

(u1 + . . . + ur . u1 + . . . + ur) =r∑

k,l=1

(uk . ul) =r∑

k=1

(uk . uk)

ist. �

Definition 1.97

Sei (V, ( . )) ein R-Vektorraum mit SKP. Ist A ⊂ V eine beliebige Menge, so sei

A⊥ := {x ∈ V : (x . a) = 0 für alle a ∈ A}die Menge der Vektoren x, die auf allen Vektoren aus A senkrecht stehen. Ist ins-besondere A = U ⊂ V ein linearer Unterraum, so nennen wir U⊥ das orthogonaleKomplement zu U in V .

Für {a}⊥ schreiben wir kurz a⊥, falls a ∈ V .

Die a⊥ für a � 0 sind also (vorerst im Rn) die Hyperebenen durch 0.

Page 105: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 105

������

��

��

��

U

U⊥

Abb. 1.14: Unterraum und orthogonales Komplement.

Bemerkungen 1.98 Sei V ein R-Vektorraum mit SKP.

1) Für Teilmengen A bzw. Ai von V gilt:

A ∩ A⊥ ⊂ {0} ,U ∩ U⊥ = {0} , wenn U linearer Unterraum ist.A ⊂ (A⊥)⊥ ,A1 ⊂ A2 ⇒ A⊥2 ⊂ A⊥1 .

(1.69)

2) Sei A ⊂ V beliebig, dann ist A⊥ ein linearer Unterraum von V .

3) Sei A ⊂ V , dann gilt

A⊥ = span(A)⊥ .

4) Es seien a(1), . . . , a(m) ∈ Rn beliebig. Sei A ∈ R(m,n) durch die Vektoren als Zeilengegeben.

Man betrachte das homogene LGS Ax = 0 mit dem Lösungsraum U und dem Zei-lenraum Z(A) = span

(a(1), . . . , a(m)

), dann folgt

Z(A)⊥ ={a(1), . . . , a(m)

}⊥= U . (1.70)

Sei A = {a(1), . . . , a(m)} ⊂ Rn. Dann ist also nach 3)

x ∈ A⊥ ⇔ (a(1) . x

)= . . . =

(a(m) . x

)= 0

⇔n∑

ν=1

a1,νxν = . . . =n∑

ν=1

am,νxν = 0

⇔n∑

ν=1

aμ,ν xν = 0 für μ = 1, . . . , m .

Page 106: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

106 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Die Vektoren x ∈ {a(1), . . . , a(m)}⊥ sind somit genau die Lösungen des homogenenRLGS LGS, dessen Koeffizi-entenmatrix aus den Zeilenvektoren at

(1), . . . , at(m) zusammengesetzt ist.

Die at(1), . . . , at

(m) werden als Zeilen einer Matrix A eines homogenen LGS interpretiert.Damit gilt für beliebige a(1), . . . , a(m) ∈ Rn und U = span(a(1), . . . , a(m)):

dim U⊥ = n − dim U . (1.71)

Theorem 1.82 zeigt in dieser Situation:

dim {a(1), . . . , a(m)}⊥ = dim Z(A)⊥ = n − dim span(a(1), . . . , a(m)) .

Dies lässt vermuten, dass auch allgemein gilt: In einem endlichdimensionalen Vektor-raum V mit SKP und dim V = n, ist für einen linearen Unterraum U

dim U⊥ = n − dim U .

Infolgedessen sind dim U⊥ und die Kodimension von U nach Bemerkungen 1.84 1) gleich.Die Dimensionsformel legt damit nahe, dass

U ⊕ U⊥ = V

gilt. Das wird im Satz 1.105 bewiesen.

5) Ist U = span(u1, . . . , ur) ⊂ V in einem R-Vektorraum V mit SKP, dann gilt

x ∈ U⊥3)⇔ (x . ui) = 0 für i = 1, . . . , r .

Sei nun V endlichdimensional, d. h. V = span(u1, . . . , un). Ist also x =∑n

ν=1 ανuν ∈ U⊥,αν ∈ R gesucht, dann ist das äquivalent mit: Gesucht ist α = (α1, . . . , αn)t ∈ Rn, so dass

n∑ν=1

(uν . uμ

)αν = 0 für μ = 1, . . . , r .

Folglich erfüllt α ein homogenes LGS mit Koeffizientenmatrix

A =(uν . uμ

)μ,ν∈ R(r,n) .RLGS

6) Seien u1, . . . , uk ∈ V und u1, . . . , ul ∈ V gegeben, so dass(ui . u j

)= 0 für alle i = 1, . . . , k, j = 1, . . . , l, i � j . (1.72)

Dann heißen u1, . . . , uk und u1, . . . , ul biorthogonal . Die Vektoren u1, . . . , uk und u1, . . . , ulheißen orthogonal, wenn (1.72) auch für i = j erfüllt ist. Dann gilt: Seien U :=span(u1, . . . , uk) und W := span(w1, . . . ,wl) orthogonal, so ist

U ⊂ W⊥ und W ⊂ U⊥ .

Page 107: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 107

Ist dim V endlich und dim V = dim U + dim W, dann gilt sogar

U = W⊥ , W = U⊥ .

Das kann man folgendermaßen einsehen: Es ist U ⊂ w⊥j für alle j = 1, . . . , l und damit U ⊂ W⊥. Vertau-schen der Rollen liefert W ⊂ U⊥. Die Zusatzbehauptung wird in Bemerkungen 1.110, 3) bewiesen.

�Lineare Unabhängigkeit lässt sich auch durch die Eigenschaften einer mit dem SKP gebil-deten Matrix ausdrücken.

Definition 1.99

Sei V ein R-Vektorraum mit SKP ( . ) und u1, . . . , ur ∈ V . Dann heißt die r×r-Matrixdes Skalarproduktes

G(u1, . . .ur) :=((

ui . u j

))i, j=1,...,r

die Gram27sche Matrix der Vektoren u1, . . . , ur.

Satz 1.100

In der Situation von Definition 1.99 sind die Vektoren u1, . . . , ur genau dann linearunabhängig, wenn

Rang(G(u1, . . . , ur)

)= r.

Beweis: „⇒“: Es reicht, eine der äquivalenten Bedingungen aus Hauptsatz 1.85, etwa(iv), zu zeigen. Sei G := G(u1, . . . , ur), x ∈ Rr und Gx = 0. Es ist x = 0 zu zeigen.Ausgeschrieben lautet die Voraussetzung

r∑j=1

(u j . ui

)x j = 0 für i = 1, . . . , r

und damit für die erzeugte Norm ‖ . ‖:

‖r∑

i=1

xiui‖2 =⎛⎜⎜⎜⎜⎜⎜⎝ r∑

j=1

x ju j .∑i=1

xiui

⎞⎟⎟⎟⎟⎟⎟⎠ = r∑i=1

⎛⎜⎜⎜⎜⎜⎜⎝ r∑j=1

(u j . ui

)x j

⎞⎟⎟⎟⎟⎟⎟⎠ xi = 0 ,

27 Jørgen Pedersen Gram ∗27. Juni 1850 in Nustrup bei Haderslev †29. April 1916 in Kopenhagen

Page 108: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

108 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

alsor∑

j=1x ju j = 0 und damit auch x1 = . . . = xr = 0.

„⇐“: Seien xi ∈ R undr∑

j=1x ju j = 0. Also ist auch

0 =

⎛⎜⎜⎜⎜⎜⎜⎝ r∑j=1

x ju j . ui

⎞⎟⎟⎟⎟⎟⎟⎠ = (Gx)i für alle i = 1, . . . , n .

Nach Hauptsatz 1.85 („(v)⇒ (iv)“) folgt x1 = . . . = xr = 0. �

Sei V ein R-Vektorraum, der auch unendlichdimensional sein kann, mit SKP ( . ). Sei‖ . ‖ die davon erzeugte Norm. Sei U ⊂ V ein endlichdimensionaler Unterraum mit Basisu1, . . . , ur. Eine ubiquitäre Aufgabe besteht darin, beliebige Elemente aus V durch einElement

u ∈ U , u =r∑

i=1

αiui mit α = (α1, . . . , αr)t ∈ Rr

zu approximieren. Ein Beispiel ist die Approximation von allgemeinen Funktionen, z. B.durch stetige Polygonzüge oder Polynome festen Grades, also z. B. V = C([a, b],R) undU = S 1(Δ) oder U = Rn[x] (eingeschränkt auf [a, b]). Das führt zu:

Definition 1.101

Die Aufgabe, den Vektorraum V (mit SKP ( . ) und erzeugter Norm ‖ . ‖) durch einenlinearen Unterraum U zu approximieren, lautet:Sei x ∈ V . Finde u ∈ U, so dass für das Fehlerfunktional

ϕ(u) := ‖x − u‖ (u ∈ U)

gilt

ϕ(u) = min {ϕ(u) : u ∈ U} . (1.73)

Der Vektor u heißt orthogonale Projektion von x auf U.

Hauptsatz 1.102: Eindeutige Existenz der orthogonalen Projektion

Sei V ein R-Vektorraum mit SKP ( . ) , U ⊂ V ein linearer Unterraum. Für u ∈ Uund x ∈ V gilt:

1) Es sind äquivalent:

(i) u ist orthogonale Projektion von x auf U.

Page 109: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 109

(ii) x − u ∈ U⊥ (Fehlerorthogonalität)

Ist U endlichdimensional mit Basis u1, . . . , ur und α ∈ Rr der Koordinatenvektor

von u, d. h. u =r∑

i=1αiui, dann ist außerdem äquivalent:

(iii)

Aα = β, (1.74)

mit A =(u j . ui

)i, j∈ R(r,r), die Gramsche Matrix und β = (x . ui)i ∈ Rr.

2) Ist U endlichdimensional, so existiert die orthogonale Projektion u von x ∈ Veindeutig und wird mit PU(x) bezeichnet.

Beweis: Zu 1): Sei x ∈ V und u ∈ U, sei u ∈ U, u � 0 beliebig. Wir betrachten die reelleFunktion, die dadurch entsteht, dass das Fehlerfunktional nur auf der Geraden u + Ru inU betrachtet wird:

g(t) := ϕ(u + tu)2 = ‖x − (u + tu)‖2 = ‖x − u‖2 + 2 (x − u . u) t + ‖u‖2 t2

Also ist g die quadratische Funktion

g(t) = a + 2bt + ct2 (1.75)

mit

a = ‖x − u‖2 , b = (x − u. u) , c = ‖u‖2 > 0 .

Die Funktion g beschreibt demnach eine nach oben geöffnete Parabel. Es folgen: „(i)⇒(ii)“:Ist u eine orthogonale Projektion von x, also eine Minimalstelle von ϕ, dann hat g ein Mi-nimum bei t = 0 (das auch das einzige ist). Somit gilt

(x − u . u) = b = 0

für alle u ∈ V (der Fall u = 0 ist klar) und damit (ii).„(ii)⇒(i)“: Wegen b = 0 hat g die Form

g(t) = a + ct2 .

Wegen c > 0 ist

g(0) < g(t) für alle t ∈ R, t � 0.

Sei w ∈ V beliebig und u := w − u ∈ U, dann folgt für diese Wahl von u

ϕ(u)2 = g(0) < g(1) = ‖x − (u + w − u)‖2 = ϕ2(w) ,

Page 110: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

110 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

so dass also u eine (sogar eindeutige) Minimalstelle von ϕ ist.„(ii)⇔(iii)“: u − x ∈ U⊥ ⇔ Für u =

∑ri=1 αiui ∈ U gilt

(u − x . ui) = 0 ⇔(∑r

j=1 α ju j . ui

)= (x . ui) für alle i = 1, . . . , r

⇔ Aα = β

und damit die Behauptung (In die erste Äquivalenz gehen Bemerkungen 1.98, 3) ein).Zu 2): Dies folgt aus 1) (i)⇔ (iii) und der eindeutigen Lösbarkeit von (1.74) nach Haupt-satz 1.102 und Hauptsatz 1.85. �

Beispiel 1.103 (Geometrie) Sei V = Rn und Uk := {x = (xi)i ∈ Rn : xk = 0} fürk = 1, . . . , n. Dann gilt PUk (x) = (x1, . . . , xk−1, 0, xk, . . . , xn)t, da x−PUk (x) die Orthogona-litätsbedingung Hauptsatz 1.102, 1) erfüllt. Für n = 3 heißt PUk die Normalprojektion, fürk = 1 spricht man von Seitenansicht , für k = 2 von Vorderansicht , für k = 3 von Drauf-sicht . Es handelt sich um im Bauwesen oft verwendete Projektionen. Bei allgemeinem U(Projektionsebene) spricht man von orthogonaler Parallelprojektion. Man kann sich diesdurch ein „im Unendlichen“ befindliches Projektionszentrum (was approximativ auf dieSonne zutrifft) und durch parallele Projektionsstrahlen veranschaulichen. ◦Bemerkungen 1.104

1) Führt man den Beweis von Hauptsatz 1.102 für endlichdimensionales U im Koordina-tenvektor α durch, so erhält man

ϕ(u)2 = (x − u . x − u) =⎛⎜⎜⎜⎜⎜⎜⎝x −

r∑i=1

αi ui . x −r∑

j=1

α j u j

⎞⎟⎟⎟⎟⎟⎟⎠= (x . x) − 2

r∑i=1

αi (x . ui) +r∑

i, j=1

αi

(ui . u j

)α j

= ||x||2 − 2 (α . β) + (Aα .α) .

Die Minimalstellen von ϕ (d. h. die u, für die das Minimum in (1.73) angenommen wird),stimmen mit denen von 1

2(ϕ ( . )2 − ||x||2) überein, so dass wir äquivalent das folgende

Minimierungsproblem auf Rr betrachten können: Finde α ∈ Rr, so dass

f (α) = min{ f (α) : α ∈ Rr} mit f (α) :=12

(Aα .α) − (α . β) .

Im Beweis von Hauptsatz 1.102 wurde also wesentlich ausgenutzt, dass das Minimierungs-problem (1.73) für u =

∑ri=1 αiui äquivalent ist zum quadratischen Optimierungsproblem

auf Rr:

f (α) :=12

(Aα .α) − (α . β) −→ min

für A, β wie in (1.74). Das wird wiederum als äquivalent mit dem LGS (1.74) nachgewie-sen. Wir werden dies allgemeiner wieder aufgreifen in Abschnitt 4.7.2.

Page 111: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 111

Dabei hat die Gramsche Matrix A spezielle, durch das SKP und die lineare Unabhän-gigkeit der ui erzeugte, Eigenschaften. Der reellen Funktion g entspricht

g(t) := f (α + tγ) für t ∈ R ,

wobei α ∈ Rr und γ ∈ Rr,γ � 0, beliebig. Die Funktion g hat die folgende Gestalt

g(t) =12

(A(α + tγ) . α + tγ) − (α + tγ . β)

=12

(Aα . α) − (α . β) + (Aα − β .γ) t +12

(Aγ .γ) t2 .

Hierbei wurde die Linearität des Matrix-Vektor-Produkts, die Bilinearität und die Symme-trie des SKP ausgenutzt und auch, dass für die spezielle Matrix A gilt:

(Aγ . α) = (Aα .γ) . (1.76)

Wesentlich dabei ist (1.76). In Abschnitt 2.3.5 werden wir sehen, dass dies allgemein eineFolge von

At = A ,

der Symmetrie von A, ist. Die entscheidende Tatsache, dass die Parabel nach oben geöffnetist, die im Beweis der offensichtlichen Aussage c = ‖u‖2 > 0 entspricht, ist hier

c =12

(Aγ .γ) > 0 ,

wobei γ � 0 beliebig ist. Wegen der Definitheit des SKP gilt dies:

2c =

⎛⎜⎜⎜⎜⎜⎜⎜⎝⎛⎜⎜⎜⎜⎜⎜⎝ r∑

j=1

(u j . ui

)γ j

⎞⎟⎟⎟⎟⎟⎟⎠i

⎞⎟⎟⎟⎟⎟⎟⎟⎠ =⎛⎜⎜⎜⎜⎜⎜⎜⎝⎛⎜⎜⎜⎜⎜⎜⎝ r∑

j=1

γ ju j . ui

⎞⎟⎟⎟⎟⎟⎟⎠i

⎞⎟⎟⎟⎟⎟⎟⎟⎠ =⎛⎜⎜⎜⎜⎜⎜⎝ r∑

j=1

γ ju j .r∑

i=1

γiui

⎞⎟⎟⎟⎟⎟⎟⎠ > 0 .

2) Das Approximationsproblem aus Definition 1.101 kann auch allgemein betrachtet wer-den, wenn V nur mit einer Norm versehen wird. Da dann der Zusammenhang zur quadra-tischen Optimierung wegfällt, wird das Problem schwieriger. Beispiele sind V = Rn mit‖ .‖ = ‖ .‖1 oder ‖ .‖ = ‖ .‖∞ oder V = C([a, b], R) mit den analog bezeichneten Normen.

3) Für U = V ist PU = id, so dass aus diesem Grund für eine Basis u1, . . . , un von U gilt:

x =n∑

i=1

αiui ⇔ Aα = β ,

wobei A =((

u j . ui

))i, j

, β = ((x . ui))i, α = (α1, . . . , αn)t , was sich auch direkt durchSKP-Bildung von x mit u j ergibt.

Page 112: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

112 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

4) Die Beschränkung auf endlichdimensionales U ist nicht zwingend. In Hauptsatz 7.50erfolgt eine Verallgemeinerung. �

Satz 1.105: Orthogonale Zerlegung

Ist V ein R-Vektorraum mit SKP ( . ), dann gilt:

1) Sei V = U⊕

W eine orthogonale Zerlegung, d. h. die Unterräume U und Wseien orthogonal, dann gilt

W = U⊥.

Sei V n-dimensional, dann gilt weiter

2) U ⊕ U⊥ = V (gilt auch für dim V = ∞ und U endlichdimensional) unddim(U⊥) = n − dim U,

3) PU⊥ (x) = x − PU(x) für x ∈ V ,

4) (U⊥)⊥ = U.

Beweis: Zu 1): Es seien U und W orthogonal, d. h. (u.w) = 0 für alle u ∈ U,w ∈ W unddamit W ⊂ U⊥. Sei x ∈ U⊥ und x = u + w die (eindeutige) Zerlegung in u ∈ U,w ∈ W.Dann ist x − w ∈ U⊥ und andererseits u = x − w ∈ U, also u = 0 und damit x ∈ W.

Zu 2): Um die Existenz der orthogonalen Projektion zu benutzen, ist die Endlichdimen-sionalität von U vorausgesetzt. Dann folgt 2) allgemein wegen x = PU(x) + x − PU(x)sofort aus Hauptsatz 1.102, 1) und (1.69). Die Dimensionsformel folgt bei dim V = n ausBemerkung 1.87.

Zu 3): Auch PU⊥ (x) ist wohldefiniert, denn es gilt

x = PU(x) + x − PU(x), wobeix − PU(x) ∈ U⊥ und x − (x − PU(x)) = PU(x) ∈ U ⊂ U⊥⊥ .

Somit ist PU⊥ (x) = x − PU(x) für x ∈ V die Orthogonalprojektion von x auf U⊥.

Zu 4): Aus 2): U⊥⊕

U = V, U⊥ und U sind orthogonal, und aus 1) folgt U = (U⊥)⊥. �

Bemerkungen 1.106

1) Wir betrachten die Situation von Hauptsatz 1.102. Ist A = a+U ein affiner Unterraum,dann existiert auch eindeutig eine orthogonale Projektion PA auf A. Und zwar ist

PA(x) = PU(x − a) + a (1.77)

wegen ‖x − (a + u)‖ = ‖x − a − u‖ für x ∈ V, u ∈ U.

Page 113: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 113

PA(x) ist also der Lotfußpunkt des Lotvektors PA(x) − x von x nach PA(x). Es gilt nachSatz 1.105, 3)

PA(x) − x = PU(x − a) − (x − a)= PU⊥ (a − x) . (1.78)

Die Zahl d(x, A) := min{‖x−u‖ : u ∈ A}wird der Abstand von x zu A genannt. Daherist

d(x, A) = ‖x − PA(x)‖= ‖PU⊥ (x − a)‖ .

2) In der Situation von 1) gilt

y = PA(x)⇔ x − y ∈ U⊥ .

Nach 1) und Hauptsatz 1.102 ist y = PA(x) äquivalent mit

y − a = PU (x − a)⇔ x − a − (y − a) ∈ U⊥ .

3) Man sieht aus dem Beweis von Satz 1.105, 3): Ist der Unterraum U so, dass PU existiert,dann existiert auch PU⊥ und

PU⊥ (x) = x − PU(x) für x ∈ V .

4) Die Aussagen von Satz 1.105, 2) - 4) brauchen nur die Existenz von PU und werden inBemerkungen 7.51, 2) verallgemeinert. �

Beispiel 1.107 (Geometrie) Sei V ein R-Vektorraum mit SKP ( . ) und erzeugter Norm‖ . ‖. Weiter seien g1 : a+Rp und g2 : b+Rq windschiefe Geraden. Dann gibt es eindeutigx ∈ g1, y ∈ g2, so dass

‖x − y‖ = d(g1, g2) := inf { ‖x − y‖ : x ∈ g1, y ∈ g2} .

Und es ist x = a + λp, y = b + μq mit den Lösungen λ, μ von(− (p . p) (q . p)− (q . p) (q . q)

) (λμ

)=

((a − b . p)(a − b . q)

).

Wegen

d(g1 , g2) = inf{‖a + λp− b − μq‖ : λ, μ ∈ R}

existieren λ, μ, so dass dort das Infimum angenommen wird, nach Hauptsatz 1.102 eindeutig, denn es gilt

−λp+ μq = Pspan(p,q)(a − b)

Page 114: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

114 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

und damit folgt auch die Charakterisierung aus (1.74).

Beispiele 1.108 Bei 1) bis 3) wird V = C([a, b],R) mit dem SKP nach (1.61) zugrundegelegt. Es geht folglich darum, stetige Funktionen f im Sinne der Abweichung im qua-dratischen Mittel bestens durch spezielle Funktionen aus einem linearen Unterraum U zuapproximieren.

1) U = S 0(Δ):Hier muss das (formale) Problem geklärt werden, dass S 0(Δ) kein Unterraum von demRaum C([a, b],R) ist. Es ist darum ein größerer R-Vektorraum V als Grundraum nötig,der beide Räume umfasst. Dieser wird unten angegeben. Das LGS nach (1.74) (hier mitder Indizierung von 0 bis n−1) ist hier besonders einfach, da diagonal. Die Basisfunktionenf0, . . . , fn−1 nach (1.37) erfüllen nämlich

fi(x) f j(x) = 0 für i � j und x ∈ [a, b] .

Also

A = diag(ai,i)i=0,...,n−1

und

ai,i =

∫ b

a| fi(x)|2 dx =

∫ xi+1

xi

1 dx = xi+1 − xi ,

βi =

∫ b

af (x) fi(x) dx =

∫ xi+1

xi

f (x) dx

und damit

αi =1

(xi+1 − xi)

∫ xi+1

xi

f (x)dx für i = 0, . . . , n − 1 . (1.79)

Die Werte der approximierenden Treppenfunktion auf den Teilintervallen Ii+1 = [xi, xi+1)sind demnach die Mittelwerte der Funktion nach (1.79).

*2) U = S 1(Δ):Da die fi außerhalb der Teilintervalle Ii und Ii+1 verschwinden, sind die Produkte fi f j dannidentisch Null, wenn der Abstand von i und j mehr als 1 beträgt: |i − j| > 1. Die MatrixA nach (1.74) ist also tridiagonal. Die elementare Berechnung ihrer Einträge (Integrationvon Parabeln) liefert (Übung):

Page 115: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 115

A = (a j,k) j,k=0,...,n =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

13 h1

16 h1 0

16 h1

13 (h1+h2) 1

6 h2

. . .. . .

. . .

16 hi

13 (hi+hi+1) 1

6 hi+1

. . .. . .

. . .

0 16 hn

13 hn

16 hn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

. (1.80)

3) U = Rn[x]:Mit den Monomen fi, i = 0, . . . , n ergibt sich hier für A die vollbesetzte Matrix mit denEinträgen für j, k = 0, . . . , n:

a j,k =

∫ b

af j(x) fk(x) dx =

∫ b

ax jxk dx =

1j + k + 1

(b j+k+1 − a j+k+1) . (1.81)

Das in 1) angesprochene Problem eines größeren Grundraums V kann wie folgt gelöst werden: Da S 0(Δ)und C

([a, b],R

)lineare Unterräume von Abb

([a, b],R

)sind, kann

V := S 0(Δ) +C([a, b],R

) (in Abb

([a, b],R

))gewählt werden. Die Funktionen f in V sind gerade so, dass für eine (funktionsabhängige) Zerlegung Δdie Funktion f auf jedem abgeschlossenen Teilintervall von Δ stetig (fortsetzbar) ist, aber Sprünge in denxi, i = 1, . . . , n − 1, aufweisen kann, d. h. in diesem Sinn stückweise stetig ist. Mit f , g ∈ V gilt auchfg ∈ V und Funktionen aus V sind integrierbar, so dass auch auf V das Skalarprodukt (1.61) wohldefiniertist. Auch bei 2) und 3) könnte V als Grundraum gewählt werden.

*4) Hier handelt es sich um ein grundlegendes Approximationsverfahren (Finite-Element-Methode) für eine Funktion u : [a, b] → R, die durch eine Differentialgleichung mitRandbedingungen, eine Randwertaufgabe, (implizit) festgelegt ist. Als Beispiel diene

−u′′(x) = r(x), x ∈ [a, b]u(a) = u(b) = 0 (1.82)

für eine gegebene rechte Seite r(∈ C([a, b],R)). Die anschließenden Ausführungen sindals einführende Skizze zu verstehen:

Anstatt nach einer zweimal (stetig) differenzierbaren Funktion u mit (1.82) zu suchen,sucht man nach einer stetigen, stückweise differenzierbaren Funktion u, die auch die Rand-vorgaben erfüllt, und für die gilt(

u′ . v′)= (r . v) für v ∈ V . (1.83)

Hier ist ( . ) das SKP nach (1.61) und

Page 116: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

116 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

V := { f : f ∈ C([a, b],R) und es gibt eine Zerlegung Δ (abhängig von f )von [a, b], so dass f auf den abgeschlossenen Teilintervallendifferenzierbar ist und f (a) = f (b) = 0} .

(1.84)

f ∈ V hat also bis auf endlich viele xi ∈ [a, b], an denen die Funktion einen Knick habendarf, eine Ableitung f ′, die insbesondere integrierbar ist.

Ein Näherungsverfahren für (1.83) entsteht dadurch, dass ein uΔ ∈ S 1(Δ) mit uΔ(a) =uΔ(b) = 0 gesucht wird, das erfüllt:

(u′Δ · v′) = (r . v) für alle v ∈ S 1(Δ) mit v(a) = v(b) = 0 . (1.85)

Dies kann auch verstanden werden als die beste Approximation der Lösung u ∈ V von(1.83) (Existenz vorausgesetzt) mit einem Element aus

S 1(Δ) := { f : f ∈ S 1(Δ), f (a) = f (b) = 0} = span( f1, . . . , fn−1) ,

wobei die fi die Basisfunktionen von S 1(Δ) nach (1.36), (1.37) bezeichnen. Dabei wird Vaber mit folgendem SKP versehen (Gültigkeit der SKP-Bedingungen: Übung):

〈 f . g〉 :=∫ b

af ′(x)g′(x) dx für f , g ∈ V . (1.86)

Die Fehlerorthogonalität nach Hauptsatz 1.102, 1) ist äquivalent zu

〈uΔ . v〉 = 〈u . v〉 für v ∈ S 1(Δ) .

(1.83) schreibt sich als

〈u . v〉 = (r . v) für v ∈ S 1(Δ)

und damit

〈uΔ . v〉 = (r . v) für v ∈ S 1(Δ) ,

Folglich gilt (1.85). Zur Bestimmung der Koeffizienten αi, i = 1, . . . , n − 1 für

uΔ =

n−1∑i=1

αi fi

ist sodann das LGS nach (1.74) (in der Nummerierung 1, . . . , n − 1) zu lösen. Dabei istA = (a j,k) j,k=1,...,n−1 mit

a j,k =⟨

fk . f j

⟩=

∫ b

af ′j (x) f ′k (x)dx .

Page 117: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 117

Somit ist analog zu 2) die Matrix tridiagonal. Da nach (1.37) f ′i auf Ii (ohne Eckpunkte)den konstanten Wert 1/hi und auf Ii+1 (ohne Eckpunkte) den konstanten Wert −1/hi+1 hat,ergibt sich (Übung):

A =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

h−21 +h−2

2 −h−22 0

−h−22

. . .. . .

. . .. . .

. . .

−h−2i h−2

i +h−2i+1 −h−2

i+1

. . .. . .

. . .

. . .. . . −h−2

n−1

0 −h−2n−1 h−2

n−1+h−2n

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠

. (1.87)

Für eine äquidistante Zerlegung (hi = h = (b − a)/n) vereinfacht sich die Matrix zu

A =1h2

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

2 −1 0−1

. . .. . .

. . .. . .

. . .

. . .. . . −1

0 −1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠,

die schon in (MM.11) aufgetreten ist. Dieser Zusammenhang ist nicht zufällig und wird inAbschnitt 8.6.4 aufgegriffen werden. ◦Das LGS in (1.74) wird besonders einfach, wenn es ein Diagonalsystem ist, d. h. wenn diebetrachtete Basis u1, . . . , ur von U erfüllt:

(uk . ul) = 0 falls k � l (Orthogonalität) .

Definition 1.109

Sei V ein R-Vektorraum mit SKP ( . ).

1) Die Menge A ⊂ V heißt orthogonal, wenn ihre Elemente paarweise aufeinan-der senkrecht stehen, d. h. für u, u ∈ A, u � u, gilt

Page 118: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

118 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

(u . u) = 0 .

Eine Basis B heißt Orthogonalbasis, wenn B orthogonal ist.2) Gilt zusätzlich

‖u‖ = 1 für u ∈ B (Normalität) ,

dann heißt die Basis Orthonormalbasis (ONB) von V .

Bemerkungen 1.110

1) Der Unterraum U habe die Orthogonalbasis u1, . . . , ur. So gilt:

PU(x) =r∑

i=1

αiui mit αi =(x . ui)(ui . ui)

, i = 1, . . . , r . (1.88)

Die αi sind die sog. (verallgemeinerten) Fourier-Koeffizienten28von x.

Ist also dim V = n < ∞, so folgt speziell für U = V (siehe auch Bemerkungen 1.104, 3)wegen PU(x) = x:

x =n∑

i=1

αiui ⇔ αi =(x . ui)(ui . ui)

für i = 1, . . . , n .

Für die Länge von PU(x) gilt immer

‖PU(x)‖2 =r∑

i, j=1

αiα j

(ui . u j

)=

r∑i=1

α2i (ui . ui) =

r∑i=1

(x . ui)2

(ui . ui).

Speziell für U = V und x =∑n

i=1 αiui ist darum

‖x‖2 =n∑

i=1

α2i (ui . ui) .

Für eine ONB wird

‖x‖2 =n∑

i=1

α2i = ‖(α1, . . . , αn)t‖2 (1.89)

mit der euklidischen Norm auf Rn,

28 Jean-Baptiste-Joseph Fourier ∗21. März 1768 in Auxerre †16. Mai 1830 in Paris

Page 119: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 119

d. h. bei einer ONB sind Vektornorm und euklidische Norm des Koeffizientenvektorsgleich (siehe auch Mathematische Modellierung 4, S. 119).

2) Sei A ⊂ V orthogonal, 0 � A, dann ist A linear unabhängig.Das kann man sich folgendermaßen klarmachen: Seien u1, . . . , uk ∈ A mit

∑ki=1 αiui = 0. Dann ist auch

für alle j = 1, . . . , k

0 =

⎛⎜⎜⎜⎜⎜⎜⎝ k∑i=1

αiui . u j

⎞⎟⎟⎟⎟⎟⎟⎠ = k∑i=1

αi

(ui . u j

)= α j

(u j . u j

)und damit α j = 0.

3) Es seien V ein R-Vektorraum, U = span(u1, . . . , uk) und W := span(u1, . . . , ul) Unter-räume von V mit dim V = dim U + dim W. Sind u1, . . . , uk und u1, . . . , ul orthogonal, dannist

U = W⊥ und W = U⊥ ,

Dies folgt aus Satz 1.105, 1) .

4) Sei A ∈ R(m,n) mit den Zeilen a(1), . . . , a(m) ∈ Rn gegeben und u1, . . . , uk eine Basis desLösungsraums des homogenen LGS, d. h. von

U = {x ∈ Rn : Ax = 0} .Dann sind a(1), . . . , a(m) und u1, . . . , uk orthogonal und die Dimensionen von U und demZeilenraum ergänzen sich zu n, somit ist U das orthogonale Komplement des Zeilenraumsund umgekehrt (was schon aus (1.70) bekannt ist). �

Beispiel 1.111 (Geometrie) Sei V ein R-Vektorraum mit SKP ( . ) und g : a + Rw eineGerade in V . Da w := w/‖w‖ eine ONB von Rw darstellt, ist für x ∈ V:

Pg(x) = a +(x − a .w)‖w‖2 w

nach Bemerkungen 1.106, 1) und 1.110, 1). Deshalb gilt x ∈ g genau dann, wenn

x − a =(x − a .w)‖w‖2 w . ◦

Mathematische Modellierung 4 Das namensgebende klassische Beispiel für Bemerkungen 1.110, 1)ist die Fourier-Analyse einer Funktion in einer Variablen t: Sei V := C([−π, π],R) mit dem in(1.61) definierten SKP ( . ), sei f (t) := sin(kt), g(t) := cos(kt), k = 0, 1, . . . , n und U := Un :=span(g0 , f1, g1, . . . , fn, gn). Mit elementaren Integrationsregeln lässt sich nachweisen, dass

g0, f1, g1, . . . , fn, gn orthogonal bezüglich ( . ) sind

(genauer in Satz 7.74 ff.). Für eine beliebige Funktion f ∈ C([−π, π],R) ist demnach die orthogonaleProjektion Fn( f ) von f in Un definiert durch (1.88), konkret

Page 120: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

120 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Fn( f ) =( f . 1)

2π+

n∑k=1

( f . fk)( fk . fk)

fk +( f . gk)(gk . gk)

gk .

Also

Fn( f )(t) =1

∫ π

−πf (s) ds +

n∑k=1

∫ π

−π f (s) sin(ks) ds∫ π

−π sin(ks) sin(ks) dssin(kt) +

∫ π

−π f (s) cos(ks) ds∫ π

−π cos(ks) cos(ks) dscos(kt) .

In der Akustik beschreibt Un den Raum der durch Überlagerung der harmonischen Obertöne bis zur Fre-quenz 20 kHz entstehenden Schwingungen. Durch immer höherfrequente harmonische Obertöne kann einallgemeines, periodisches Signal schrittweise angenähert werden (vgl. Abbildung 1.15). �

−π−π

−π−π

00

00

ππ

ππ

2π2π

2π2π

3π3π

3π3π

−π−π

−π−π

00

00

ππ

ππ

Abb. 1.15: Sukzessive Approximation eines Sägezahnsignals. Die gestrichelten Graphenin der k-ten Grafik visualisieren den Summanden der von Fk−1 auf Fk hinzukommt.

Jeder endlichdimensionale Vektorraum V mit SKP ( . ) kann mit einer ONB versehen wer-den, z. B. mit Hilfe des im Folgenden beschriebenen Schmidt29schen Orthonormalisie-

29 Erhard Schmidt ∗13. Januar 1876 in Dorpat †6. Dezember 1959 in Berlin

Page 121: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.5 Das euklidische Skalarprodukt im Rn und Vektorräume mit Skalarprodukt 121

rungsverfahrens. Sei dazu u1, . . . , um eine Basis von V mit dadurch definierten ineinandergeschachtelten Unterräumen

Vi := span(u1, . . . , ui), i = 1, . . . , m .

Als Erstes normalisieren wir u1:

u1 :=1‖u1‖u1 .

Dann setzen wir U1 := span(u1) = V1, das also mit u1 eine ONB hat. Weiter ersetzen wiru2 durch

u′2 := u2 − (u1 . u2) u1 .

Folglich ist

u′2 = u2 − PU1 (u2) = PU⊥1 (u2) nach Bemerkungen 1.110, 1).

Somit erhalten wir (u1 . u′2

)= 0 .

Als Nächstes normieren wir u′2

u2 :=1‖u′2‖

u′2

und setzen U2 := span(u1, u2). So hat U2 mit u1, u2 eine ONB und wegen U2 ⊂ V2 unddim U2 = dim V2 ist

U2 = V2 .

Dieses Verfahren können wir mit jedem der Vektoren uk+1 wiederholen: Haben wir für eink ≤ m schon erreicht, dass(

u j . ul

)= 0 für j � l ≤ k und ‖u j‖ = 1 für j = 1, . . . , k ,

wobei u1, . . . , uk ∈ V Linearkombinationen der Vektoren u1, . . . , uk sind, d. h.

Uk := span(u1, . . . , uk) = Vk ,

so definieren wir

u′k+1 : = uk+1 − (u1 . uk+1) u1 − . . . − (uk . uk+1) uk = uk+1 − PUk (uk+1) = PU⊥k (uk+1) ,

uk+1 : =1

‖u′k+1‖u′k+1 .

Dann ist uk+1 orthogonal zu Uk, also hat

Page 122: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

122 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Uk+1 := Uk + span(uk+1) die ONB u1, . . . , uk+1 undUk+1 = Vk+1 .

Endlich viele derartige Schritte führen zu einer Orthonormalbasis für V . Damit gilt:

Theorem 1.112: Schmidtsche Orthonormalisierung

Sei V ein endlichdimensionaler R-Vektorraum mit SKP ( . ). Dann kann mit demSchmidtschen Orthonormalisierungsverfahren aus jeder Basis eine ONB erzeugtwerden.

Bemerkungen 1.113

1) Bei Beschränkung auf ein endlichdimensionales V(dim V = n) kann alternativ zumBeweis von Hauptsatz 1.102 auch

U ⊕ U⊥ = V (1.90)

als Ausgangspunkt genommen werden.Die Direktheit der Summe folgt aus Bemerkungen 1.98, 1), die Existenz der Zerlegung kann folgender-maßen eingesehen werden: Sei u1, . . . , ur eine ONB von U (siehe Theorem 1.112). Diese ergänze mitur+1, . . . , un zu einer Basis von V. Mit dem Schmidtschen Orthonormalisierungsverfahren wird dieseBasis von V zu einer ONB u1, . . . , ur, ur+1, . . . , un von V. Mit U := span(ur+1, . . . , un) ist

U + U = V und U ⊂ U⊥

und damit folgt die Behauptung. Mit (1.90) kann für x = u + u, u ∈ U, u ∈ U⊥ definiert werden

PU (x) = u

und somit gilt die Fehlerorthogonalität

x − u = u ∈ U⊥ .

Wir haben den Weg von Hauptsatz 1.102 gewählt, denn mit Kenntnissen der mehrdimen-sionalen Analysis verkürzt sich dieser erheblich und eröffnet dann wesentliche Verallge-meinerungsmöglichkeiten, die in Abschnitt 4.7.2 und 6.7 behandelt werden.

2) Das Schmidtsche Orthonormalisierungsverfahren ist als numerisches Verfahren nurbedingt tauglich, da es rundungsfehleranfällig ist. Alternativen ergeben sich durch andereFormen der QR-Zerlegung (siehe Abschnitt 4.8). �

Page 123: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

Aufgaben 123

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Euklidische Norm und Norm allgemein• Euklidisches Skalarprodukt (SKP) und SKP allgemein• Winkel zwischen Vektoren• Orthogonalität, orthogonales Komplement• orthogonale Projektion• Orthonormalbasis (ONB)• Schmidtsches Orthonormalisierungsverfahren (Theorem 1.112)• Fourier-Koeffizient

Zusammenhänge:

• SKP erzeugt Norm, aber nicht jede Norm wird von einem SKP erzeugt (Satz 1.92,Bemerkungen 1.93, 6), 7))

• Von SKP erzeugte Norm erfüllt Cauchy-Schwarz-Ungleichung(Satz 1.92)

• Satz von Pythagoras (Satz 1.96)• Eindeutige Existenz der orthogonalen Projektion auf endlichdimensionale (affine)

Unterräume, Charakterisierung durch Fehlerorthogonalität(Hauptsatz 1.102, Bemerkungen 1.106)

Beispiele:

• SKP auf C([a, b],R) oder S 0(Δ) nach (1.61)• SKP auf Rn nach (1.63)• Normen auf Rn nach (1.65), (1.66)• Normen auf C([a, b],R) nach (1.67), (1.68)• Orthogonale Projektion auf S 0(Δ) nach (1.79)• Orthogonale Projektion auf S 1(Δ) in verschiedenen SKP• Fourier-Analyse

Aufgaben

Aufgabe 1.27 (K)

Es sei U ⊂ R5 der von den Vektoren (1, 2, 0, 2, 1)t und (1, 1, 1, 1, 1)t aufgespannte Unter-raum. Bestimmen Sie eine Orthonormalbasis von U und von U⊥.

Aufgabe 1.28 (T) Es seien x, y, z ∈ V für einen R-Vektorraum V mit SKP und erzeugterNorm ‖ . ‖. Zeigen Sie:

a) | ‖x‖ − ‖y‖ | ≤ ‖x − y‖,b) ‖x‖ = ‖y‖ ⇔ (x − y) ⊥ (x + y),

Page 124: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

124 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

c) ist x � 0 und y � 0, so gilt ∥∥∥∥∥∥ x‖x‖2 −

y

‖y‖2∥∥∥∥∥∥ = ‖x − y‖‖x‖ · ‖y‖ ,

d) ‖x − y‖ · ‖z‖ ≤ ‖y − z‖ · ‖x‖ + ‖z − x‖ · ‖y‖.Interpretieren Sie b) geometrisch.

Aufgabe 1.29 (T) Zeigen Sie, dass 〈 . 〉 nach (1.86) ein SKP auf V ist nach (1.84), dassdies aber falsch ist, wenn die Bedingung

f (a) = f (b) = 0

gestrichen wird.

Aufgabe 1.30 (T) Man zeige: Eine zweimal stetig differenzierbare Funktion u, die (1.82)erfüllt (klassische Lösung der Randwertaufgabe), erfüllt auch (1.83) (schwache Lösungder Randwertaufgabe).Hinweis: Partielle Integration.

Aufgabe 1.31 (T) Sei V ein R-Vektorraum mit SKP ( . ) und Basis u1, . . . , un. Seien u =∑ni=1 αiui, u =

∑ni= βiui beliebige Elemente in V . Zeigen Sie

(u . u) =n∑

i, j=1

αi

(ui . u j

)β j .

Schreiben Sie die Definitheit von ( . ) als Bedingung an die Gramsche Matrix.

Page 125: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.6 Mathematische Modellierung: Diskrete lineare Probleme und ihre Herkunft 125

1.6 Mathematische Modellierung: Diskrete lineare Probleme und ihre

Herkunft

Wir greifen die Beispiele 2 und 3 wieder auf, um genauer die für die entstehenden LGSverantwortlichen Prinzipien kennenzulernen und erste Aussagen über ihre Lösungen zumachen.

Beispiel 3(3) – Massenkette Neben den knotenbezogenen Variablen x = (x1, . . . , xm)t der Auslenkung,wobei m = n − 1, gibt es auch federbezogene Variable, nämlich

• die Kräfte in den Federn y j, j = 1, . . . , n, zusammengefasst zum Kraftvektor y = (y1, . . . , yn)t ,• die Dehnung der Federn ej, j = 1, . . . , n, zusammengefasst zum Dehnungsvektor e = (e1, . . . , en)t,• die an den Federn von außen wirkenden Kräfte (z. B. die Gravitationskraft) f j, j = 1, . . . , n, zu-

sammengefasst zum Lastvektor f = ( f1, . . . , fn)t.

Das Hookesche Gesetz, d. h. die Annahme der Federn als linear elastisch, lautet damit

yi = ciei für i = 1, . . . , n

bzw.

y = Ce (MM.33)

mit der Diagonalmatrix

C :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝c1 0

. . .

0 cn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ = diag(c1 , . . . , cn) .

Die Dehnung an der Feder Fi ist

ei = xi − xi−1 ,

denn die Bewegungen von Mi und Mi−1 tragen in entgegengesetzter Weise zur Dehnung der Feder Fi bei.In Matrix-Vektorschreibweise bedeutet dies

e = Bx , (MM.34)

wobei B ∈ R(n,m) definiert ist durch

B =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

1 0

−1. . .

. . . 10 −1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠(MM.35)

im Fall der eingespannten Kette, bzw.

B =

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

−1 1. . .

. . . 0

. . .. . .

0. . . 1

−1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠∈ R(m,m) (MM.36)

Page 126: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

126 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

im frei hängenden Fall, da hier e = (e2, . . . , en)t durch den Wegfall der ersten Feder. Das Prinzip desKräftegleichgewichts, das gerade einer Erhaltung des Impulses entspricht, lautet:

In jedem Knoten ist die Summe der angreifenden Kräfte gleich Null.

Da die Kette mit einer Richtung versehen worden ist und die Federn Fi und Fi+1 den Knoten i als je-weils anderen Endpunkt haben, erzeugen ihre inneren Kräfte im Sinn des Newton30schen Gesetzes „Ac-tio=Reactio“ im Knoten jeweils eine (entgegengesetzte) Kraft, mit verschiedenen Vorzeichen. Mit deräußeren Kraft zusammen ergibt das

yi − yi+1 = fi für i = 1, . . . , n − 1 .

Im frei hängenden Fall ist die erste Gleichung zu modifizieren zu

−y2 = f1 ,

da sich auch der Kraftvektor verkürzt auf y = (y2, . . . , yn)t. In Matrix-Vektorschreibweise bedeutet das⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝1 −1 0

. . .. . .

0 1 −1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ y = f (MM.37)

bzw. ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

−1 0

1. . .

. . .. . .

0 1 −1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠y = f .

Die hier auftretenden Matrizen entstehen also dadurch, dass wir die Zeilen von B als Spalten einer neuenMatrix aus R(m,n) anordnen. Wir bezeichnen diese mit Bt (sprich: B transponiert), wie schon in Definiti-on 1.48. Sei B = (bi, j) ∈ R(n,m), dann wird Bt ∈ R(m,n) definiert durch

Bt = (cj,i) , cj,i = bi, j für j = 1, . . . , m, i = 1, . . . , n

und damit lautet die Kräftebilanz

Bty = f . (MM.38)

Zusammengefasst lautet demnach der Satz linearer Gleichungen

Bx = e , Ce = y , Bty = f . (MM.39)

Daraus lässt sich e eliminieren und mit der Diagonalmatrix

A = diag(

1c1

, . . . ,1cn

),

für die gilt

e = Ay ,

erhalten wir

30 Isaac Newton ∗4. Januar 1643 in Woolsthorpe-by-Colsterworth †31. März 1727 in Kensington

Page 127: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.6 Mathematische Modellierung: Diskrete lineare Probleme und ihre Herkunft 127

Ay − Bx = 0 ,Bty = f (MM.40)

als ein quadratisches LGS mit n + m Variablen. Alternativ lässt sich aber die Elimination noch weitertreiben und durch sukzessives Einsetzen der Vektorgleichungen (MM.39) ineinander erhalten wir

Bt(C(Bx)) = f .

In Abschnitt 2.3 werden wir sehen, dass wir dies auch mit einer neuen Matrix BtCB als LGS

BtCBx = f (MM.41)

nun nur in der Variablen x schreiben können. Das ist gerade das LGS (MM.6) bzw. (MM.7) mit denMatrizen nach (MM.11) und (MM.12) (bei gleichen Federkonstanten). �

Wir wenden uns nun wieder dem Beispiel elektrischer Netzwerke (mit Ohm31schen Wi-derstand und Spannungsquellen) zu, um zu sehen, aus welchen Prinzipien LGS mit wel-chen Strukturen entstehen und was über ihre Lösungen (sicher) ausgesagt werden kann.Es wird sich eine starke Analogie zu Beispiel 3 ergeben.

Beispiel 2(2) – Elektrisches Netzwerk (Weitergehende Ausführungen und Beispiele finden sich in Eck,Garcke und Knabner 2011, Abschnitt 2.1.) Orientiert am sehr einfachen Beispiel aus Abbildung 1.1sehen wir, dass ein (elektrisches) Netzwerk im Wesentlichen besteht aus

• Kanten (in Form von elektrischen Leitungen), im Allgemeinen n ∈ N (Beispiel: n = 3)• Knoten (Verbindungspunkte von zwei oder mehr Leitungen), im Allgemeinen m ∈ N (Beispiel:

m = 2).

Was soweit (unabhängig von der Elektrotechnikanwendung) beschrieben ist, ist mathematisch ein Graph.Die Kanten des Graphen sollen (beliebig) mit einer Richtung versehen werden (die Pfeile in Abbil-dung 1.1), wodurch eine Kante einen Ausgangs- und einen Zielknoten bekommt. Dieser gerichtete Graphwird dadurch zu einem elektrischen Netzwerk, indem die Kanten mit elektrischen Bauteilen „besetzt“werden. Wir beschränken uns auf einen Ohmschen Widerstand und eventuell eine Stromquelle. Die Rich-tung einer Kante gibt nicht an, in welche Richtung der (noch unbekannte) Strom fließt, sondern dass einin diese Richtung stattfindender Strom mit einer positiven, in der Gegenrichtung mit einer negativen Zahlbeschrieben wird. Die Physik fließender Ströme wird bestimmt durch:

• Das Kirchhoffsche Stromgesetz: Die Summe der Ströme in jedem Knoten ist Null. Dies ent-spricht einem Erhaltungsprinzip für die elektrische Ladung: Elektronen wandern durch das Netz-werk, werden aber in den Knoten nicht „erzeugt“ oder „vernichtet“.

• Das Kirchhoffsche Spannungsgesetz: Die Summe der Spannungen (genauer Spannungsabfäl-le) über jeder geschlossenen Leiterschleife ist Null.

• Das Ohmsche Gesetz: Der Spannungsabfall U am stromdurchflossenen Widerstand R mit Strom-stärke I ist U = RI.

Das Netzwerk habe eine festgelegte Nummerierung der Kanten (im Beispiel (1 , 2, 3)) und der Knoten (imBeispiel I, II). Es treten also folgende Kantenvariable auf:

• Die Ströme („I“) y j, j = 1, . . . , n, zusammengefasst zum Stromvektor y = (y1, . . . , yn)t ,• die Spannungen („U“), zusammengefasst zum Spannungsvektor e = (e1 , . . . , en)t .

Der Spannungsabfall in einem Leiterstück i ohne Spannungsquelle ist einfach ei, bei einer Spannungs-quelle kommt noch deren Stärke bi dazu. Ergänzen wir im ersten Fall bi = 0 und fassen diese Quellstärkenzum Vektor b zusammen, so lautet das Ohmsche Gesetz

Riyi = ei + bi für i = 1, . . . , n

31 Georg Simon Ohm ∗16. März 1789 in Erlangen †6. Juli 1854 in München

Page 128: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

128 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

bzw. mit der Diagonalmatrix A := diag(R1, . . . , Rn)

Ay = e + b , (MM.42)

oder alternativ mit der Matrix der Leitwerte

C := diag(1

R1, . . . ,

1Rn

) ,

y = C(e + b) . (MM.43)

Im Beispiel ist b = (U, 0, 0)t.

Zur Umsetzung der Kirchhoffschen Gesetze brauchen wir eine algebraische Beschreibung des Graphen.Dies soll durch eine Inzidenzmatrix B = (bi, j) ∈ R(n,m) erfolgen, in der folglich die Zeile i die Kante i überihren Ausgangs- und Zielknoten beschreibt:

bi, j =

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩1 , j ist die Nummer des Zielknotens−1 , j ist die Nummer des Ausgangsknotens

0 , sonst .

(MM.44)

Im Beispiel ist

B =

⎛⎜⎜⎜⎜⎜⎜⎜⎝ 1 −1−1 1−1 1

⎞⎟⎟⎟⎟⎟⎟⎟⎠ ,

was erneut die Einfachheit des Beispiels unterstreicht. Bt ist also die Matrix, in der die k-te Zeile für denKnoten k die „eingehenden“ Kanten mit 1, die „ausgehenden“ Kanten mit −1 und die restlichen mit 0vermerkt. Im Beispiel ist

Bt =

(1 −1 −1−1 1 1

).

Das Stromgesetz bedeutet gerade

Bty = 0 , (MM.45)

somit im Beispiel

y1 − y2 − y3 = 0 ,−y1 + y2 + y3 = 0 .

Das ist mithin nur eine lineare Gleichung, die als erste Gleichung in (MM.1) auftritt. Um das Spannungsge-setz analog zu (MM.45) umzusetzen, braucht man eine algebraische Beschreibung von „genügend vielen“Schleifen. Das Beispiel hat die Schleifen 1 und 2, 2 und 3, 1 und 3. Und das Spannungsgesetz dafür lautet

e1 + e2 = 0 , (MM.46)

e2 − e3 = 0 ,

e1 + e3 = 0 ,

wobei sich die dritte Gleichung aus den ersten beiden linear kombinieren lässt, da sich auch die dritteSchleife aus den ersten beiden „zusammensetzen“ lässt. Die ersten beiden Gleichungen zusammen mitdem Ohmschen Gesetz e = Ay − b ergeben die restlichen Gleichungen in (MM.1). Analog zu (MM.46)müssen also k Schleifen durch eine Matrix D ∈ R(k,m) beschrieben werden, so dass

Page 129: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.6 Mathematische Modellierung: Diskrete lineare Probleme und ihre Herkunft 129

|di, j | = 1⇔ Kante j gehört zu Schleife i und di, j = 0 sonst ,

und nach Festlegung einer Durchlaufrichtung ist

di, j = 1 , falls Kante j in Durchlaufrichtung ausgerichtet ist,di, j = −1 , falls Kante j gegen Durchlaufrichtung ausgerichtet ist.

Im Beispiel, bei Beschränkung auf die ersten beiden Schleifen (k = 2), ist also

D =(

1 1 00 1 −1

).

Das Spannungsgesetz hat dann deswegen die Form

De = 0

bzw. mit dem Ohmschen Gesetz

D(Ay − b) = 0⇔ D(Ay) = Db . (MM.47)

Bei (MM.47) handelt es sich wieder um lineare Gleichungen für y, tatsächlich kann das zweifache Matrix-Vektor-Produkt mit einer neuen Matrix DA als ein Matrix-Vektor-Produkt ausgedrückt werden (siehe Ab-schnitt 2.3.1). Ein allgemeiner Satz linearer Gleichungen zur Bestimmung der Ströme y könnte somitbestehen aus

Bty = 0 ,DAy = Db .

(MM.48)

Für das Beispiel wurde schon klar, dass aus Bty = 0 eine Gleichung wegen linearer Abhängigkeit von den(hier: der) anderen wegfällt. Das lässt sich für viele Netzwerke allgemein einsehen:

Satz 1.114

Der Graph des Netzwerkes sei zusammenhängend, d. h. je zwei Knoten können durch einen Wegaus Kanten verbunden werden. Dann gilt

1) U := {x ∈ Rm : Bx = 0} = span(1), wobei 1 = (1, . . . , 1)t ∈ Rm,

2) Bt hat m − 1 linear unabhängige Zeilen.

Beweis: Zu 1): Da die Zeilensummen von B immer Null sind, gilt

1 ∈ U und damit span(1) ⊂ U .

Sei andererseits x ∈ U sowie p ∈ {1, . . . , m}. Knoten 1 ist über einen Weg i1(= 1), i2, . . . , il−1, il(= p) mitKnoten p verbunden. Die Zeile von B, die der Kante i1i2 entspricht liefert also xi1 = xi2 und so weiter bisschließlich xp = x1. Alle Komponenten in x sind darum gleich, d. h. x ∈ span(1).Zu 2): Insbesondere ist damit dim U = 1. Nach Theorem 1.82 folgt

dim Z(B) = m − dim U = m − 1 .

Die Behauptung folgt schließlich mit Hauptsatz 1.80. Alternativ können wir auch direkt den Spaltenrangr von B betrachten, so dass m− r die Anzahl der Freiheitsgrade in der allgemeinen Lösung von Bx = 0 ist,nach 1) demnach

Page 130: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

130 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

m − r = 1, d. h. r = m − 1 . �

Um also in (MM.48) n linear unabhängige Gleichungen für die n Unbekannten in y zu erhalten, benötigenwir noch n − m + 1 Schleifen (in Beispiel: 2), die sich nicht „auseinander zusammensetzen“ lassen. Dawir dies hier nicht untersuchen können, wollen wir einen alternativen Weg in der Umsetzung des Span-nungsgesetzes beschreiten: Das Spannungsgesetz ist äquivalent mit der Existenz eines Potentials, d. h.einer knotenbezogenen Größe xj, j = 1, . . . , m, so dass sich die Spannung ei auf einer Kante i aus der Dif-ferenz des Potentials am Ausgangsknoten und des Potentials am Zielknoten ergibt. Ist x = (x1, . . . , xm)t

der Potentialvektor, so bedeutet dies in Matrix-Vektorschreibweise (siehe (MM.44)):

e = −Bx . (MM.49)

Die erwähnte Äquivalenz kann man folgendermaßen einsehen: Gibt es ein Potential, so ist die Summe vonSpannungen über eine Schleife eine Summe von Potentialwerten, die immer doppelt mit wechselndemVorzeichen auftreten. Andereseits kann an einem Knoten l der Wert von xl fixiert und dann (MM.49) zurDefinition der weiteren x-Komponenten benutzt werden. Das Spannungsgesetz sorgt gerade dafür, dassdurch verschiedene Kanten zu einem Knoten nicht Widersprüche entstehen: Im Beispiel ist

e1 = −x1 + x2 , e2 = x1 − x2 , e3 = x1 − x2 .

Nach Fixierung von x2 ist sodann

x1 = −e1 + x2 ,

aber auch x1 = e2 + x2 und x1 = e3 + x2. Die Schleifengleichungen (MM.46) zeigen gerade, dass alle Glei-chungen identisch sind. Die Kombination von (MM.49) mit dem Ohmschen Gesetz in der Form (MM.42)liefert

Ay + Bx = b , (MM.50)

so dass mit (MM.45) für m + n Unbekannte in y und x folgendes LGS vorliegt:

Ay + Bx = b , (MM.51)

Bty = 0 .

Man beachte die Analogie zu (MM.40). Das System (MM.51) ist zumindest ein quadratisches LGS, aberwir erwarten, dass x nicht eindeutig festgelegt ist, da nach (MM.49) und Satz 1.114 der Vektor x um einElement aus span(1) verändert werden kann. Dadurch kann ein xl = 0 gesetzt werden. Der Knoten xl wirdalso geerdet. Die Diskussion dieses Beispiels wird in Abschnitt 2.3.5 wieder aufgegriffen, wenn mehrMatrixtheorie zur Verfügung steht. �

Zusammenfassend für Beispiel 3 und Beispiel 2 können wir aber schon festhalten, dasswesentlich für die Beschreibung in Form eines LGS sind:

• Ein Erhaltungsgesetz als Aussage über „Flüsse“ (Kantenvariablen): siehe (MM.38)Kräftebilanz bzw. (MM.45) Kirchhoffsches Stromgesetz;

• ein konstitutives Gesetz, dass einen „Fluss“ (Kantenvariable) mit einem „Potential“(Knotenvariable) verknüpft: siehe (MM.33) und (MM.34), das Hookesche Gesetzmit Auslenkung-Dehnungsbeziehung bzw. siehe (MM.50), das Ohmsche Gesetzmit Kirchhoffschem Spannungsgesetz;

• ein „dualer“ Zusammenhang dazwischen (Auftreten von B und Bt).

Man beachte aber, dass in Beispiel 2 die äußere Einwirkung über das konstitutive Gesetz,in Beispiel 3 über das Erhaltungsgesetz erfolgt.

Page 131: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

Aufgaben 131

Ein LGS, das beides beinhaltet, kann also die Form haben

Ay + Bx = b ,Bty = f .

(1.91)

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Netzwerk, Graph• Kantenbezogene Variable• Knotenbezogene Variable• Konstitutives Gesetz• Erhaltungsgesetz

Zusammenhänge:

• Modelle der Form (MM.40) bzw. (MM.51) bzw. (1.91)• Modelle der Form (MM.41)

Aufgaben

Aufgabe 1.32 Bestimmen Sie Ströme und Spannungen in folgendem Netzwerk:

+

1V1V +

0.51

1

1

11

1

Aufgabe 1.33 Gegeben ist das folgende Netzwerk mit einer Spannungsquelle und einerStromquelle:

Page 132: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

132 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

1A

6V

1

1

1

+

1 +

a) Wie können Sie die Stromquelle in das Netzwerkmodell einbauen?b) Berechnen Sie die Spannungen und Ströme im Netzwerk.

Aufgabe 1.34 Gegeben ist ein Gleichstromnetzwerk mit Inzidenzmatrix A, Leitwertma-trix C, Vektoren x der Potentiale, y der Ströme, e der Spannungen und b der Spannungs-quellen.

a) Die an einem Widerstand dissipierte Leistung ist bekanntlich P = U I, wenn U derSpannungsabfall am Widerstand und I der Strom ist. Stellen Sie eine Formel fürdie gesamte im Netzwerk dissipierte Leistung auf.

b) Die von einer Spannungsquelle zur Verfügung gestellte Leistung ist ebenfalls P =U I, wobei U die Spannung der Quelle und I die Stärke des entnommenen Stromesist. Stellen Sie eine Formel für die von allen Spannungsquellen erbrachte Leistungauf.

c) Zeigen Sie, dass die Größen aus a) und b) identisch sind.

Page 133: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.7 Affine Räume I 133

1.7 Affine Räume I

Mit dem Begriff des Vektorraum allein sind wir, wie schon aus der Schule vertraut undin einigen Beispielen wieder angeklungen, in der Lage Geometrie zu betreiben. Die (ab-strakten) Vektoren des Vektorraums haben dabei eine Doppelfunktion von „Punkten“ und„Verbindungsvektoren“. Konkret in Rn bedeutet dies, analytische Geometrie zu betreiben.Dafür muss also für die Ebene oder den (Anschauungs-)Raum ein Koordinatensystem unddamit insbesondere ein Bezugspunkt (der Nullpunkt) festgelegt werden. Es scheint wün-schenswert, Geometrie auch „bezugspunktfrei“ betreiben zu können. Geeignete Strukturendafür sind affine Räume, die nach Definition 1.54 von der Form

A = a + U

sind, wobei a ∈ V und U ⊂ V ein linearer Unterraum ist in einem R-Vektorraum V . Siesind geeignet, die für geometrische Überlegungen nötige Unterscheidung zwischen „Punk-ten“ und „Vektoren“ vorzunehmen ohne einen fest gewählten Bezugspunkt (siehe (1.23)),und zwar werden die Elemente b ∈ a + U als Punkte aufgefasst (und daher in diesem Ab-schnitt nicht fett gedruckt); insbesondere ist folglich a ein Punkt, (Verbindungs-)Vektorensind die Elemente u ∈ U. Zu b ∈ a + U existiert eindeutig ein u ∈ U, so dass

b = a + u .

Dieses u wird hier suggestiv mit

−→ab

bezeichnet, also

b = a +−→ab ,

und damit ist auf der Basis von (V,+) eine Verknüpfung von Punkten und Vektoren defi-niert (wieder mit + geschrieben), die einen Punkt liefert. Aus den Rechenregeln von (V,+)(siehe S. 34) folgt:

−→aa = 0 für alle Punkte a ,

−→ab +

−→bc = −→ac für alle Punkte a, b, c ,

−→ab = −−→ba für alle Punkte a, b .

Weiter ist

U = {−→bc : b, c ∈ a + U} =:−−−−→a + U

und

Page 134: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

134 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

a + U = b + U für alle b ∈ a + U .

Dadurch werden Formulierungen unabhängig vom gewählten Anfangspunkt oder Ur-sprung a (siehe Lemma 1.56). Wird a als fest aufgefasst, liegt eine Bijektion zwischen

den Punkten b = a +−→ab und den Ortsvektoren

−→ab

vor. Der beschriebene Sachverhalt lässt sich formal durch folgende Definition fassen:

Definition 1.115

Sei A eine Menge, V ein R-Vektorraum, so dass eine Abbildung

+ : A × V → A, (a, u) �→ a + u

gegeben ist mit den Eigenschaften:

(1) a + 0 = a.(2) a + (u + u) = (a + u) + u für alle a ∈ A, u, u ∈ V .(3) Zu beliebigen a, b ∈ A gibt es genau ein u ∈ V , so dass a + u = b ist.−→

ab := u heißt der Verbindungsvektor von a und b.

A heißt affiner Raum zu V und

−→A := {−→ab : a, b ∈ A}

heißt der Verbindungsraum von A. Ist A � �0, so heißt

dim A := dim V

die Dimension von A.

Bemerkungen 1.116

1) Für A � ∅ ist−→A = V .

2) Ist dim A = 0, d. h. V = {0}, so können in A nach (3) in Definition 1.115 alle Punktemiteinander identifiziert werden und A heißt daher ein Punkt.

3) Sei dim A = 1, d. h. V = span(u). Seien a, b ∈ A, a � b, dann ist b = a + λu für einλ ∈ R, also A = a+RV , eine Gerade, die mit ab bezeichnet wird. Analog ist für dim A = 2

A = a +Ru +Ru

mit beliebigem a ∈ A und linear unabhängigen u, u ∈ V , d. h. A ist eine Ebene.

Page 135: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.7 Affine Räume I 135

4) Die obige Ausgangssituation erhält man für A = V und +, d. h. die Addition auf V .Dann ist

−→ab = b − a für a, b ∈ A = V . Insbesondere entsteht so aus dem R-Vektorraum Rn

der affine Koordinatenraum An.

5) Für A = V gibt es einerseits Punkte mit Koordinaten aus dem Koordinatenraum An

und andererseits Verbinungsvektoren aus dem Verbindungsraum Rn. Zur besseren Unter-scheidung zwischen Punkten und Vektoren kann eine 1 bzw. 0 als n + 1-te Komponentehinzugefügt werden, d. h.

Ψ : An → An :={(

a1

): a ∈ An

}⊂ Rn+1 ,

Φ : Rn → Rn :={(u0

): u ∈ Rn

}⊂ Rn+1 .

(1.92)

Ψ und Φ sind injektiv, d. h. Einbettungen, Φ ist offensichtlich linear. Dies gibt Hinweise,welche Operationen definiert sind, nämlich Punkt + Vektor, Vektor + Vektor, aber nichtPunkt + Punkt. �Der Begriff des affinen Unterraums (Definition 1.54) gilt wörtlich weiter.

Definition 1.117

Sei A ein affiner Raum zum R-Vektorraum V , B ⊂ A heißt affiner Unterraum, wennB die Gestalt B = a +

−→B für ein a ∈ A hat. Man setzt

dim B := dim−→B .

Ist dim V < ∞, so heißt

codim B := dim V − dim−→B

die Kodimension von B. Ist codim B = 1, so heißt B (affine) Hyperebene in A. SindBi = ai +

−→Bi affine Unterräume, so heißen sie parallel , B1 ‖ B2, wenn

−→B1 ⊂ −→B2 oder−→

B2 ⊂ −→B1.

Ein ein-dimensionaler affiner Unterraum (bei A = V) enthält außer einem Punkt a nocheinen Punkt b, sowie alle Vektoren

a + t−→ab = a + t · (b − a) = (1 − t)a + tb , t ∈ R .

Es handelt sich um eine Gerade, mit Anfangspunkt a und Richtungsvektor b − a. DieParametrisierung (1 − t)a + tb kann man etwas symmetrischer schreiben als

s · a + t · b mit s, t ∈ R, s + t = 1 .

Im allgemeinen Fall sind a, b ∈ A Punkte, für die durch

Page 136: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

136 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

c := s · a + t · b mit s, t ∈ R, s + t = 1

wieder ein Punkt und mit der Gesamtheit dieser Punkte eine Gerade definiert wird. Dabeiist demnach c durch den Vektor

−−→a0c := s−−→a0a + t−−→a0b

eindeutig festgelegt. Hier ist a0 ∈ A ein beliebiger Bezugspunkt, von dessen Wahl dieDefinition unabhängig ist. Im Fall A = V ist somit

−→ab = b − a = 1b + (−1)a ,

d. h. eine Linearkombination von Punkten mit verschwindenden Koeffizientensummen er-gibt einen Vektor.

Dies ist der einfachste nicht triviale Spezialfall in folgender Definition:

Definition 1.118

Sei V ein R-Vektorraum.

1) Es seien y1, . . . , yl ∈ V . Eine Affinkombination dieser Vektoren ist eine Line-arkombination

t1y1 + . . . + tlyl

mit t1, . . . , tl ∈ R und t1 + . . . + tl = 1.

Sei A ein affiner Raum zu V mit a1, . . . , an ∈ A.

2) Eine Affinkombination dieser Punkte ist

a :=n∑

i=1

tiai ∈ A mit ti ∈ R , i = 1, . . . , n ,

n∑i=1

ti = 1 ,

definiert durch

−−→a0a :=n∑

i=1

ti −−→a0ai (∈ V)

und a = a0 +−−→a0a, unabhängig von dem beliebig gewählten Bezugspunkt a0.

3) Eine Vektorkombination dieser Punkte ist

u :=n∑

i=1

tiai ∈ V mit ti ∈ R , i = 1, . . . , n ,

n∑i=1

ti = 0 ,

definiert durch

Page 137: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.7 Affine Räume I 137

u :=n∑

i=1

ti−−→a0ai (∈ V) ,

unabhängig von dem beliebig gewählten Bezugspunkt a0.

Satz 1.119: affiner Raum↔ Affinkombination

Sei A ein affiner Raum zum R-Vektorraum V . Für eine nicht leere Teilmenge B ⊂ Asind äquivalent:

(i) B ist ein affiner Unterraum;

(ii) mit endlich vielen Punkten a1, . . . , al ∈ B gehört auch jede Affinkombinationdieser Punkte zu B.

Beweis: „(i)⇒(ii)“: Sei B = a + U mit einem Untervektorraum U ⊂ V . Sei l ∈ N,

bi = a + ui mit ui ∈ U , i = 1, . . . , l

und ti ∈ R so, dassl∑

i=1ti = 1. Dann ist

l∑i=1

tibi = a +l∑

i=1

tiui ∈ B .

„(ii)⇒(i)“: Sei a ∈ B ein fester Punkt. Es genügt zu zeigen, dass die Menge

U := {u ∈ V : b := a + u ∈ B} ⊂ V

einen Untervektorraum bildet. Seien also u1, u2 ∈ U und s1, s2 ∈ R. Dann ist

(1 − s1 − s2)a + s1(a + u1) + s2(a + u2) =: c

eine Affinkombination der Punkte a, a + u1, a + u2 ∈ B und gehört nach Voraussetzungzu B. Es ist

a + s1u1 + s2u2 = c ∈ B ,

folglich liegt s1u1 + s2u2 in U. �

Definition 1.120

Sei A ein affiner Raum zumR-Vektorraum V und M ⊂ A eine beliebige Menge. Dannheißt die Menge B aller Affinkombinationen von endlich vielen Vektoren aus M der

Page 138: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

138 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

von M aufgespannte affine Unterraum oder die affine Hülle von M, geschrieben als

B = spana(M) .

Also

spana(M) :=

⎧⎪⎪⎨⎪⎪⎩a ∈ A : a =k∑

i=1

tiai , ai ∈ M , ti ∈ R ,

k∑i=1

ti = 1 für ein k ∈ N⎫⎪⎪⎬⎪⎪⎭ .

Das einfachste Beispiel für einen solchen aufgespannten affinen Unterraum ist die Gerade

a + t−→ab = (1 − t)a + tb , t ∈ R ,

die von zwei Punkten a � b ∈ A aufgespannt wird, d. h. ab = spana(a, b) für a, b ∈ A,a � b.

Satz 1.121: Eigenschaften der affinen Hülle

Sei A ein affiner Raum zum R-Vektorraum V , M ⊂ A. Dann gilt:

1) M ⊂ spana(M).

2) spana(M) ist der kleinste affine Unterraum von A, der M enthält, d. h.:

a) spana(A) ist ein affiner Unterraum.

b) Ist C ein affiner Unterraum und M ⊂ C, dann gilt auch spana(M) ⊂ C.

3) Für M1 ⊂ M2 ⊂ A gilt

spana(M1) ⊂ spana(M2) .

Beweis: Zu 1): Klar, da 1a eine Affinkombination für a ∈ A ist.Zu 2): spana(M) ist ein affiner Unterraum nach Satz 1.119, da eine Affinkombination ausAffinkombinationen wieder eine Affinkombination ist. Auch die zweite Aussage folgt ausSatz 1.119.Zu 3): spana(M2) ist ein affiner Unterraum der M2 ⊃ M1 enthält, also folgt die Aussageaus 2). �

Sei a ∈ A eine Affinkombination von a0, . . . , am, d. h.

a =m∑

i=0

tiai mitm∑

i=0

ti = 1 . (1.93)

Für jedes j ∈ {0, . . . , m} ist also

Page 139: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.7 Affine Räume I 139

a = a j +

m∑i=0i� j

ti−−→a jai mit ti ∈ R . (1.94)

Aus (1.94) folgt auch (1.93) mit t j = 1 − ∑mi=0i� j

ti, da eine für einen Bezugspunkt geltende

Beziehung auch für einen allgemeinen Bezugspunkt gilt. Darum kann jede Affinkombina-tion aus {a0, . . . , am} geschrieben werden als Summe aus einem fest gewählten Punkt a j aus{a0, . . . , am} und einer Linearkombination der Richtungen von a j zu ai, i ∈ {0, . . . , m}\{ j}.

Daher gilt

spana(a0, . . . , am) = a0 + span(−−−→a0a1, . . . ,−−−→a0am) . (1.95)

Definition 1.122

Sei V ein R-Vektorraum. M ⊂ V heißt affin unabhängig, wenn für eine beliebigeAnzahl m ∈ N und a0, . . . , am ∈ M die m Vektoren

u1 := a1 − a0 , . . . , um := am − a0

linear unabhängig sind. Sei A ein affiner Raum zum R-Vektorraum V , M ⊂ A heißtaffin unabhängig, wenn für eine beliebige Anzahl m ∈ N und Punkte a0, . . . , am ∈ Mdie m Vektoren −−−→a0a1, . . . ,

−−−→a0am linear unabhängig sind.

Die Punkte a0, . . . , am sind demnach genau dann affin unabhängig, wenn sie einen m-dimensionalen affinen Unterraum aufspannen. Deswegen spielt der Punkt a0 in dieser De-finition nur scheinbar eine Sonderrolle. Ist ai einer dieser affin unabhängigen Punkte, sosind auch die Differenzen −−→aia j, j � i, linear unabhängig (siehe Übung). Aus der Äquiva-lenz von (1.94) und(1.93) folgt also

a0, . . . , am ∈ A sind affin abhängig⇔

Es gibt ein j ∈ {1, . . . , m}, so dass −−−→a0a j =m∑

i=1i� j

ti−−→a0ai für gewisse ti ∈ R

⇔a j =

m∑i=0i� j

siai für gewisse si ∈ R mitm∑

i=0i� j

si = 1 .

(1.96)

Sind deshalb a0, . . . , am affin abhängig, ist ein a j eine Affinkombination der anderen ai

(und auch umgekehrt), bzw. äquivalent für lineare bzw. affine Unabhängigkeit formuliert:

Page 140: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

140 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

a0, . . . , am ∈ A sind affin unabhängig⇔( m∑

i=1

ti−−→a0ai = 0 ⇒ ti = 0 für alle i = 1, . . . , m)

⇔( m∑i=0

tiai = a0 undm∑

i=0

ti = 1 ⇒ t0 = 1 , ti = 0 , i = 1, . . . , m). (1.97)

In Übereinstimmung mit Bemerkungen 1.116, 5) sieht man also für A = Am

a0, . . . , am sind affin unabhängig in Am

⇔(a0

1

), . . . ,

(am

1

)sind linear unabhängig in Rm+1

⇔(a0 · · · am

1 · · · 1

)∈ Rm+1,m+1 ist invertierbar.

Beispiel 1.123 (Geometrie) Im An sind folglich zwei verschiedene Punkte immer affinunabhängig, drei Punkte aber genau dann, wenn sie nicht auf einer Gerade liegen, d. h.ein Dreieck bilden. Im A2 sind vier Punkte immer affin abhängig. Im A3 sind vier Punktegenau dann affin unabhängig, wenn sie nicht auf einer Ebene liegen, d. h. einen Tetra-eder bilden (Für die Begriffe Dreieck und Tetraeder siehe Beispiel 1.127). Bei n + 1 affinunabhänigen Punkten in An spricht man auch von allgemeiner Lage. ◦

Satz 1.124: affin unabhängig↔ Koeffizientenvergleich

Sei A ein affiner Raum zum R-Vektorraum V . Es seien a0, . . . , am ∈ A und B ⊂ Ader von diesen Punkten aufgespannte affine Unterraum. Dann sind äquivalent:

(i) Die Punkte a0, . . .am sind affin unabhängig;

(ii) jeder Punkt a ∈ B ist eine Affinkombination der a0, . . . , am, in der die Koeffi-zienten durch a eindeutig bestimmt sind.

Beweis: „(i)⇒(ii)“: Jeder Punkt a ∈ B ist eine Affinkombination

a = t0a0 + . . . + tmam , t0 + . . . + tm = 1 .

Wir beweisen die Aussage durch Widerspruch und nehmen an, die Koeffizienten ti seiendurch a nicht eindeutig bestimmt. Dann gibt es eine weitere Darstellung

Page 141: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

1.7 Affine Räume I 141

a = s0a0 + . . . + smam , s0 + . . . + sm = 1 ,

wobei nicht alle si = ti sind. Subtrahieren wir beide Darstellungen, erhalten wir die Vek-torkombination

(t0 − s0)a0 + . . . + (tm − sm)am = 0 .

Sei o. B. d. A. t0 � s0. Dann kann diese nach −−→qa0 aufgelöst werden bei Benutzung desbeliebigen Bezugspunktes q, was die folgende Affinkombination ergibt:

a0 =s1 − t1t0 − s0

a1 + . . . +sm − tmt0 − s0

am ,

denn

s1 − t1t0 − s0

+ . . . +sm − tmt0 − s0

=1

t0 − s0(s1 + . . . + sm − t1 − . . . − tm)

=1

t0 − s0(1 − s0 − 1 + t0) = 1 .

Der Punkt a0 ist eine Affinkombination der anderen m Punkte, und damit können die Punk-te nach (1.97) a0, . . . , am nicht affin unabhängig gewesen sein.„(ii)⇒(i)“(durch Kontraposition): Wenn die Punkte a0, . . . , am nicht affin unabhängigsind, ist nach (1.96) einer von ihnen eine Affinkombination der anderen. O. B. d. A. neh-men wir an, dies sei a0. Dann ist also

a0 = t1a1 + . . . + tmam , t1 + . . . + tm = 1 .

Dies ist eine weitere Affinkombination von a0 aus a0, . . . , am, zusätzlich zu a0 = 1 · a0, sodass diese Darstellung mithin nicht eindeutig ist. �

Definition 1.125

Sei A ein affiner Raum zum R-Vektorraum V , M ⊂ A heißt affine Basis von A, wenngilt:

1) M ist affin unabhängig.2) spana(M) = A.

Auch hier lassen sich die äquivalenten Formulierungen aus Abschnitt 1.4.1 übertragen(etwa Satz 1.71).

Bemerkung 1.126 Man beachte dabei aber: Ist M endlich, dann gilt

Anzahl der Elemente von M = dim A + 1 .

Genauer ist nämlich:

Page 142: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

142 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

a0, . . . , am ist eine affine Basis von A

⇔−−−→a0a1, . . . ,

−−−→a0am ist eine Basis von V .

Das kann man wie folgt einsehen:

a0, . . . , am affin unabhängig ⇔ −−−→a0ai, i = 1, . . . , m, linear unabhängig.

spana(M) = a0 + span(−→M) ,

wobei−→M :=

{−−−→a0ai : i = 1, . . . , m}

nach (1.95), also wegen A = a0 + V

A = spana(M)⇔ V = span(−→M) .

�Als Beispiel für einen „koordinatenfreien“ Beweis einer elementargeometrischen Aussagesei erwähnt:

Beispiel 1.127 (Geometrie)

Seien a1, a2 ∈ An affin unabhängig. Dann heißt

a1a2 := {a ∈ An : a = sa1 + (1 − s)a2 für s ∈ [0, 1]}die Strecke mit Eckpunkten a1, a2. Offensichtlich ist a1a2 ⊂ a1a2. Seien a1, a2, a3 ∈ An,n ≥ 2, affin unabhängig und

Δ :=

⎧⎪⎪⎨⎪⎪⎩a ∈ An : a =3∑

i=1

tiai , 0 ≤ ti ≤ 1 ,

3∑i=1

ti = 1

⎫⎪⎪⎬⎪⎪⎭das durch die Eckpunkte ai gegebene Dreieck . Offensichtlich ist Δ ⊂ spana(a1, a2, a3),die durch a1, a2, a3 gegebene Ebene. Die Seiten von Δ sind die Strecken S 1 := a1a2,S 2 := a2a3 und S 3 := a3a1 mit den Seitenmittelpunkten mi für S i, gegeben etwa durchm1 =

12 a1 +

12 a2. Der Schwerpunkt von Δ ist

s :=13

a1 +13

a2 +13

a3 .

Die Seitenhalbierenden sind die Strecken m1a3, m2a1 und m3a2. Es gilt der Schwerpunkt-satz, d. h. die Seitenhalbierenden eines Dreiecks schneiden sich im Schwerpunkt.Das kann man folgendermaßen einsehen: Zu zeigen ist, dass s zu allen Seitenhalbierenden gehört. Diesfolgt aber sofort aus

s =13

a3 +23

(12

a1 +12

a2

)=

13

a1 +23

(12

a2 +12

a3

)=

13

a2 +23

(12

a1 +12

a3

).

Page 143: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

Aufgaben 143

Analog wird in An, für n ≥ 3, ein Tetraeder durch die affin unabhängigen Punkte ai,i = 1, . . . , 4, definiert durch

Δ :=

⎧⎪⎪⎨⎪⎪⎩a ∈ An : a =4∑

i=1

tiai , 0 ≤ ti ≤ 1 ,4∑

i=1

ti = 1

⎫⎪⎪⎬⎪⎪⎭◦

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Affiner Raum, Verbindungsraum• Dimension, Kodimension affiner Räume• Affinkombination, affine Hülle• Affin unabhängig, affine Basis

Zusammenhänge:

• Affinkombination affin unabhängiger Punkte ist eindeutig (Satz 1.124).

Aufgaben

Aufgabe 1.35 (K, nach Fischer 1978, S. 27) Der affine Unterraum A ⊂ A3 sei gege-ben durch die Gleichung

2x1 + x2 − 3x3 = 1.

a) Geben Sie drei affin unabhängige Punkte a1, a2, a3 ∈ A an.b) Stellen Sie x = (x1, x2, x3)t ∈ A als Affinkombination von a1, a2 und a3 dar.

Aufgabe 1.36 (K, nach Fischer 1978, S. 27)

a) Zeigen Sie, dass die Punkte

p1 = (1, 0, 1)t , p2 = (0, 3, 1)t , p3 = (2, 1, 0)t ∈ A3

affin unabhängig sind.b) Stellen Sie jeden der Punkte

a1 = (2, 5,−1)t , a2 = (−2, 5, 2)t , a3 = (−5, 2, 5)t ∈ A3

als Affinkombination von p1, p2, p3 dar.

Page 144: [Springer-Lehrbuch] Lineare Algebra || Der Zahlenraum ℝ n und der Begriff des reellen Vektorraums

144 1 Der Zahlenraum Rn und der Begriff des reellen Vektorraums

Aufgabe 1.37 (K) Die Punkte

p = (p1, p2)t , q = (q1, q2)t , r = (r1, r2)t ∈ A2

seien affin unabhängig. Bestimmen Sie Gleichungen

α(x) = a1x1 + a2x2 + a = 0 der Seite pq

β(x) = b1x1 + b2x2 + b = 0 der Seite qr

γ(x) = c1x1 + c2x2 + c = 0 der Seite rp

im Dreieck � zu den Ecken p, q, r.

Aufgabe 1.38 (T) Sei A ein affiner Raum zum R-Vektorraum V , a0, . . . , am ∈ A, i ∈{1, . . . , m}. Dann gilt

−−−→a0a1, . . . ,−−−→a0am sind linear unabhängig

⇔−−→aia0, . . . ,−−−−→aiai−1,

−−−−→aiai+1, . . . ,−−−→aiam sind linear unabhängig.

Aufgabe 1.39 (G) Beweisen Sie, dass sich die drei Seitenhalbierenden eines Dreiecks ineinem Punkt treffen.

Aufgabe 1.40 (G)

a) Beweisen Sie, dass sich die drei Mittelsenkrechten eines Dreiecks in einem Punktschneiden.

b) Beweisen Sie, dass sich die drei Höhen eines Dreiecks in einem Punkt schneiden.

Aufgabe 1.41 (G) Beweisen Sie: Bei einem Tetraeder schneiden sich die Verbindungsge-raden der Mitten gegenüberliegender Kanten in einem Punkt.

Aufgabe 1.42 (G) Die Standardbasisvektoren e1 = (1, 0, 0)t, e2 = (0, 1, 0)t, e3 = (0, 0, 1)t

des R3 spannen ein Dreieck D auf. Finden Sie einen 2-dimensionalen Unterraum E desR3 und eine orthogonale Projektion π auf E, so dass π(D) ein gleichseitiges Dreieck ist.


Recommended