+ All Categories
Home > Documents > [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

[Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Date post: 08-Dec-2016
Category:
Upload: wolf
View: 217 times
Download: 3 times
Share this document with a friend
64
Kapitel 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen Für gewisse Anwendungen (z. B. Codierungstheorie) ist es nützlich andere „Zahlmengen“ als R (nämlich endliche) zugrunde zu legen. Andererseits werden manche Fragestellun- gen einfacher, wenn man sie in der Erweiterung der komplexen Zahlen C betrachtet. Wir wollen daher die Eigenschaften von R mit Addition und Multiplikation abstrakt fassen, die in die bisherigen Überlegungen eingegangen sind. Die Begrie sind schon kurz in Anhang B.1 angeklungen. 3.1 Gruppen und Körper Definition 3.1 Eine Gruppe ist nach Definition B.7 eine nicht leere Menge G zusammen mit ei- ner Verknüpfungsoperation · auf G, die assoziativ ist, ein (links-)neutrales Element e (eine Eins) besitzt und zu jedem Element g ein (links-)inverses g 1 G. Ist · kom- mutativ, heißt die Gruppe kommutativ oder abelsch. Es sei G eine Gruppe. Eine nicht leere Teilmenge U G heißt Untergruppe , wenn sie mit der Verknüpfungsoperation aus G selbst eine Gruppe ist. D. h. also: g, h U g · h U , g U g 1 U . Beispiele 3.2 Bevor wir aus diesen Eigenschaften Konsequenzen ziehen, beschreiben wir erst Beispiele von Gruppen, die wir schon kennen. 1) Die Menge R mit der Addition „+“ als Verknüpfung ist eine abelsche Gruppe. Es ist e = 0 und g 1 = g. Diese Gruppe enthält die Untergruppen (Q, +) der rationalen und (Z, +) der ganzen Zahlen. 319 P. Knabner, W. Barth, Lineare Algebra, Springer-Lehrbuch, DOI 10.1007/978-3-642-32186-3_3, © Springer-Verlag Berlin Heidelberg 2013
Transcript
Page 1: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Kapitel 3

Vom R-Vektorraum zum K-Vektorraum:

Algebraische Strukturen

Für gewisse Anwendungen (z. B. Codierungstheorie) ist es nützlich andere „Zahlmengen“als R (nämlich endliche) zugrunde zu legen. Andererseits werden manche Fragestellun-gen einfacher, wenn man sie in der Erweiterung der komplexen Zahlen C betrachtet. Wirwollen daher die Eigenschaften von R mit Addition und Multiplikation abstrakt fassen,die in die bisherigen Überlegungen eingegangen sind. Die Begriffe sind schon kurz inAnhang B.1 angeklungen.

3.1 Gruppen und Körper

Definition 3.1

Eine Gruppe ist nach Definition B.7 eine nicht leere Menge G zusammen mit ei-ner Verknüpfungsoperation · auf G, die assoziativ ist, ein (links-)neutrales Element e(eine Eins) besitzt und zu jedem Element g ein (links-)inverses g−1 ∈ G. Ist · kom-mutativ, heißt die Gruppe kommutativ oder abelsch.

Es sei G eine Gruppe. Eine nicht leere Teilmenge U ⊂ G heißt Untergruppe , wennsie mit der Verknüpfungsoperation aus G selbst eine Gruppe ist. D. h. also:

• g, h ∈ U ⇒ g · h ∈ U,• g ∈ U ⇒ g−1 ∈ U.

Beispiele 3.2 Bevor wir aus diesen Eigenschaften Konsequenzen ziehen, beschreiben wirerst Beispiele von Gruppen, die wir schon kennen.

1) Die Menge R mit der Addition „+“ als Verknüpfung ist eine abelsche Gruppe. Es iste = 0 und g−1 = −g. Diese Gruppe enthält die Untergruppen (Q,+) der rationalen und(Z,+) der ganzen Zahlen.

319P. Knabner, W. Barth, Lineare Algebra, Springer-Lehrbuch, DOI 10.1007/978-3-642-32186-3_3, © Springer-Verlag Berlin Heidelberg 2013

Page 2: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

320 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

2) Der Zahlenraum Rn mit der Addition „+“ als Verknüpfung ist ebenfalls eine abelscheGruppe. Es ist e = 0 der Nullvektor und x−1 = −x.

3) Die Menge R∗ := R \ {0} der rellen Zahlen � 0 ist eine abelsche Gruppe mit der Mul-tiplikation „·“ als Verknüpfung. Dabei ist e = 1 und g−1 = 1

g. Sie enthält die Untergruppe

Q∗ := R∗ ∩ Q. Auch die zwei-elementige Menge {±1} ist eine Untergruppe der GruppeR∗.

4) Mit Zn für n ∈ N, n ≥ 2, bezeichnen wir die endliche Menge {0, 1, . . . , n − 1}. DieAddition modulo n

g + h :={

g + hg + h − n

}, wenn

{g + h ≤ n − 1g + h ≥ n , (3.1)

definiert auf dieser Menge eine Verknüpfung, welche sie zu einer abelschen Gruppe macht.Es ist e = 0 und

g−1 =

{0 , wenn g = 0

n − g , wenn g > 0 .

5) Die symmetrische Gruppe Σn ist die Menge aller Permutationen der Zahlen 1, . . . , nmit der Hintereinanderausführung σ · τ = σ ◦ τ als Verknüpfung. Es ist e = id und σ−1 dieUmkehrabbildung. Diese Gruppe ist für n ≥ 3 nicht abelsch, da z. B.

(1, 2)(2, 3) = (1, 2, 3) � (1, 3, 2) = (2, 3)(1, 2) .

6) Die allgemeine lineare Gruppe ist die Menge GL(n,R) aller invertierbaren n × n-Matrizen mit der Matrizenmultiplikation als Verknüpfung. Das Einselement ist e = 1n,das Inverse ist die inverse Matrix. Für n = 1 ist dies die abelsche Gruppe R∗, für n ≥ 2 istGL(n,R) nicht abelsch. GL(n,R) enhält als Untergruppe die spezielle lineare Gruppe

SL(n,R) = {A ∈ R(n,n) : det(A) = 1} ,da die Abgeschlossenheit bezüglich · aus dem Determinanten-Multiplikations-Satz (Theo-rem 2.111, 1)) folgt.

7) Die reelle orthogonale Gruppe ist die Menge

O(n,R) = {A ∈ GL(n,R) : AtA = 1n} .Sie ist eine Untergruppe der GL(n,R), d. h. die Verknüpfung ist die Matrizenmultiplikati-on. O(n,R) enthält als Untergruppe die spezielle orthogonale Gruppe

SO(n,R) = {A ∈ O(n,R) : det(A) = 1} .Wir betrachten die zwei-dimensionale orthogonale Gruppe O(2,R) etwas genauer. NachBemerkung 2.27 und Bemerkungen 2.57 besteht O(2,R) aus den Drehmatrizen und denSpiegelungen an einer Geraden. Die Drehmatrizen in O(2,R) sind durch

Page 3: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.1 Gruppen und Körper 321

det(A) = 1

gekennzeichnet, während die Spiegelungen

det(A) = −1

erfüllen. Also besteht SO(2,R) gerade aus den Drehmatrizen, diese bilden demnach ei-ne Untergruppe von O(2,R). Nach (2.45) ist diese Gruppe abelsch. Dagegen bilden dieSpiegelungen

O(2,R)\ SO(2,R) = {A ∈ O(2,R) : det(A) = −1}keine Gruppe.

8)

Die konforme Gruppe C∗ ist die Menge{(a −bb a

): a, b ∈ R, (a, b) � (0, 0)

}.

Die Zeilen dieser Matrizen sind orthogonal und haben beide die Länge√

a2 + b2, und esist

det(

a −bb a

)= a2 + b2 .

Nach 7) ist somit (a2 + b2

)−1/2(

a −bb a

)∈ SO(2,R) ,

Ein Paar (a, b)t ∈ R2 kann gleichwertig als

a = r cos(ϕ) , b = r sin(ϕ) ,

mit r :=√

a2 + b2 > 0 und ϕ ∈ [0, 2π) dargestellt werden. Dies wird in der Analysisgezeigt. So ist

C∗ ={

r(

cos(ϕ) − sin(ϕ)sin(ϕ) cos(ϕ)

): r, ϕ ∈ R, r > 0

}= {r · A : 0 < r ∈ R, A Drehmatrix} .

Diese Matrizen beschreiben Drehstreckungen. Es handelt sich daher um eine Untergruppevon GL(2,R). Die Gruppe ist nach 7) abelsch.

9) Sei (V,+, . ) ein R-Vektorraum, dann ist insbesondere (V,+) eine abelsche Gruppe. ◦

Page 4: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

322 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beispiele 3.3 (Geometrie) In Abschnitt 2.1.2 haben wir schon die Gruppe der Bewegun-gen und die der Ähnlichkeiten, in Abschnitt 2.8 die Gruppe der Affinitäten kennengelernt.

1) Die affine Gruppe eines Vektorraums V besteht aus allen Abbildungen

F : V → V , u �→ Φ(u) + t,

wobei Φ eine bijektive lineare Abbildung von V in sich ist, und t ein Vektor aus V . DieMenge der affinen Transformationen ist eine Untergruppe von (G, ◦), wobei

G := { f ∈ Abb(V, V) : f ist bijektiv} ,unter Beachtung von Bemerkungen 2.137, 3) und 4).

2) Sei V ein euklidischerR-Vektorraum mit SKP. Die Bewegungsgruppe besteht aus allenAbbildungen

F : V → V , u �→ Φ(u) + t ,

wobei Φ ∈ O(V) und t ∈ V . Die Bewegungsgruppe ist eine Untergruppe der affinen Grup-pe nach Satz 2.16, Beispiele 2.10, 4) und Satz 2.63.

3) Sei V ein euklidischer R-Vektorraum mit SKP. Die Gruppe der Ähnlichkeiten bestehtaus allen Abbildungen F : V → V, u �→ cΦ(u) + t, wobei Φ ∈ O(V), t ∈ V, c ∈R, c > 0. Diese umfasst die Bewegungsgruppe und ist Untergruppe der affinen Gruppenach Theorem 2.21.

4) Nimmt man jeweils die Bedingung det(Φ) > 0 mit auf, erhält man die Untergruppender orientierungstreuen Bewegungen, Ähnlichkeiten bzw. Affinitäten. ◦

Beispiel 3.4 (Geometrie) Analytische Geometrie ist die Behandlung von Geometrie mitMethoden aus der Analysis. Seit René Descartes versteht man darunter wohl im We-sentlichen die Benutzung von Koordinatensystemen und von Funktionen dieser Koordi-naten. Felix Klein1 brachte 1872 in seinem „Erlanger Programm“ den Gesichtspunktins Gespräch, dass jede Art von Geometrie etwas mit einer Transformationsgruppe zu tunhabe. Die Geometrie ist die Gesamtheit der Eigenschaften, welche sich bei den Trans-formationen der Gruppe nicht ändern. Felix Klein war ganze drei Jahre in Erlangen:Herbst 1872 bis Herbst 1875. Im Dezember 1872 wurde er hier feierlich in die Fakultätund in den Senat aufgenommen. Damals war es Pflicht, dabei ein „Programm“ vorzulegen,worin man die Forschungsrichtung skizzierte, der man sich künftig widmen wollte. Kleinwählte für sein Programm den Titel „Vergleichende Betrachtungen über neuere geometri-sche Forschungen“. Abgedruckt ist es in den Mathematischen Annalen Band 43 (1893)und in seinen gesammelten Werken. Auf jeden Fall hat Klein durch dieses Programmden Namen Erlangens in Mathematikerkreisen unsterblich gemacht.

Der Ansatz von Klein besteht darin, Geometrie nach den Invarianten einer operieren-den Gruppe zu klassifizieren, d. h. nach Eigenschaften, die unter allen Operationen einerGruppe erhalten bleiben. In Abschnitt 2.1.2 haben wir kennen gelernt:

1 Felix Klein ∗25. April 1849 in Düsseldorf †22. Juni 1925 in Göttingen

Page 5: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.1 Gruppen und Körper 323

Euklidische Geometrie: Zu den Invarianten der Bewegungsgruppe gehören

• Länge,• Skalarprodukt,• (nicht orientierter) Winkel

(jeweils auf die Verbindungsvektoren bezogen). Eine typische Aussage ist:

• Der Schnittpunktsatz (Satz von Euler): Mittelsenkrechte, Seitenhalbierende undHöhen in einem Dreieck schneiden sich in je einem Punkt m, s, bzw. h und es gilt

s =13

h +23

m .

Ähnlichkeitsgeometrie: Zu den Invarianten der Ähnlichkeitsgruppe gehören

• Längenverhältnis,• (nicht orientierter) Winkel.

Eine typische Aussage ist:

• Der Strahlensatz (siehe Beispiel 2.22).

Affine Geometrie: In Abschnitt 2.8 haben wir gesehen,dass zu den Invarianten der affinen Gruppe gehören

• Kollinearität,• Parallelität,• Teilverhältnis.

Eine typische Aussage ist:

• Der Schwerpunktsatz (siehe Beispiel 1.127). ◦Wir stellen noch einige Konsequenzen aus den Gruppeneigenschaften zusammen. Diesverallgemeinert Überlegungen, wie sie schon zu Beginn von Abschnitt 2.3.3 beschriebenwurden.

Bemerkungen 3.5

1) Die Eins e ∈ G mit der Eigenschaft e · g = g („Linkseins“) ist auch eine „Rechtseins“,d. h. es gilt g · e = g für alle g ∈ G.

Das kann man wie folgt einsehen: Zu beliebigem g ∈ G gibt es das Inverse g−1 mit g−1 · g = e und dazuwieder ein Inverses g′ ∈ G mit g′ · g−1 = e. Daraus folgt

g = e · g = (g′ · g−1) · g = g′ · e = g′ · (e · e)

= (g′ · e) · e =(g′ · (g−1 · g)

)· e = (g′ · g−1) · g · e = g · e .

2) Das „Linksinverse“ g−1 zu g mit der Eigenschaft g−1 · g = e ist auch ein „Rechtsinver-ses“, d. h. es gilt g · g−1 = e.Mit der Notation des vorhergehenden Beweises ist g = g′ · e und wegen der Eigenschaft 1) ist dies g′.Demnach ist auch g · g−1 = g′ · g−1 = e.

Page 6: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

324 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3) Das Einselement e ist eindeutig bestimmt.Sei auch e′ ∈ G mit e′ · g = g für alle g ∈ G. Setzen wir g = e, so folgt daraus e′ · e = e. Da e aber aucheine Rechtseins ist, gilt e′ · e = e′.

4) Das Inverse g−1 ist durch g eindeutig bestimmt, insbesondere gilt(g−1

)−1= g.

Es sei g−1 · g = g′ · g = e. Wegen 2) ist dann

g−1 = e · g−1 = (g′ · g) · g−1 = g′ ·(g · g−1

)= g′ · e = g′ .

5) Kürzungsregel: Seien a, b, g ∈ G. Wenn g ·a = g ·b gilt, dann auch (Linksmutiplikationmit g−1) die Gleichung a = b. Aus a · g = b · g folgt (nach Rechtsmultiplikation mit g−1)die Gleichung a = b.

6) Lösbarkeit von Gleichungen: Zu beliebigen g, h ∈ G gibt es genau ein x ∈ G und einy ∈ G mit

g · x = h ( nämlich x := g−1 · h, ) ,y · g = h ( nämlich y := h · g−1) .

7) Sei U eine Untergruppe von (G, ·), e das neutrale Element in G. Dann ist e ∈ U unddamit auch das neutrale Element.Sei g ∈ U, dann g−1 ∈ U und auch e = g−1 · g ∈ U.

8) In einer Gruppe (G, ·, e) kann die Potenz (bei additiver Schreibweise (G,+, 0) das Viel-fache) eingeführt werden für g ∈ G:

g0 := e, gk+1 := gk · g für k ∈ N0 .

9) Sei (G, ·, e) eine Gruppe, e � g ∈ G. Dann gibt es entweder ein n ∈ N, so dass

gn = e

oder für alle n ∈ N ist gn � e. Im ersten Fall heißt das minimale n die Ordnung von g,n = ord(g) im zweiten Fall wird ord(g) = ∞ gesetzt. �

Definition 3.6

Es seien G, H Gruppen. Eine Abbildung ϕ : G → H heißt (Gruppen-) Homomor-phismus, wenn für alle g1, g2 ∈ G gilt

ϕ(g1 · g2) = ϕ(g1) · ϕ(g2) . (3.2)

Die Begriffe Isomorphismus und Automorphismus übertragen sich aus Definiti-on 2.4.

Page 7: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.1 Gruppen und Körper 325

Satz 3.7

Für jeden Gruppenhomomorphismus ϕ : G → H gilt:

1) Die Eins 1G ∈ G wird auf die Eins 1H ∈ H abgebildet: ϕ(1G) = 1H.

2) Das Inverse von g ∈ G wird auf ϕ(g)−1 abgebildet: ϕ(g−1

)= ϕ(g)−1.

3) Die Menge

Kern(ϕ) = {g ∈ G : ϕ(g) = 1H} ⊂ G

ist eine Untergruppe von G.

4) ϕ ist injektiv genau dann, wenn Kern(ϕ) = {1G}.

Beweis: Zu 1): Wir berechnen

ϕ(1G) = ϕ(1G · 1G) = ϕ(1G) · ϕ(1G)

und multiplizieren diese Gleichung in H (etwa von rechts) mit ϕ(1G)−1 um 1H = ϕ(1G) zuerhalten.Zu 2): Wegen

ϕ(g−1) · ϕ(g) = ϕ(g−1 · g) = ϕ(1G) = 1H

ist ϕ(g−1) das Inverse von ϕ(g) in H.Zu 3): Mit g1, g2 ∈ Kern(ϕ) gehört auch g1 · g2 zu Kern(ϕ) wegen

ϕ(g1 · g2) = ϕ(g1) · ϕ(g2) = 1H · 1H = 1H .

Mit g ∈ Kern(ϕ) gehört auch g−1 zu Kern(ϕ) wegen

ϕ(g−1) = ϕ(g)−1 = 1−1H = 1H .

Zu 4): Wörtlich wie bei Satz 2.5, 2). �

Dies verallgemeinert teilweise Satz 2.5, 1) und Überlegungen nach Definition 2.1.

Bemerkung 3.8

1) Wegen Satz 2.98 ist

sign : Σn → {±1}ein Gruppenhomomorphismus. Sein Kern ist die alternierende Gruppe An der Permutatio-nen σ mit sign(σ) = 1.

2) Aus dem Determinanten-Multiplikations-Satz (Theorem 2.111, 1)) folgt, dass die Ab-bildung

Page 8: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

326 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

det : GL(n,R)→ R∗

ein Gruppenhomomorphismus ist. Sein Kern ist die spezielle lineare Gruppe SL(n,R). �

Definition 3.9

Ein Schiefkörper ist eine nicht leere Menge K mit zwei Operationen „+“ und „·“.Für diese Operationen muss gelten:

a) K mit „+“ ist eine abelsche Gruppe. (Das neutrale Element wird mit 0 ∈ Kbezeichnet und das Inverse zu a ∈ K mit −a.)

b) K∗ := K \ {0} � ∅ , d. h. K hat mindestens zwei Elemente, und K∗ mit „·“ist eine Gruppe. (Das neutrale Element wird mit 1 ∈ K∗ bezeichnet und dasInverse zu 0 � a ∈ K mit 1

a .)c) Für alle a, b, c ∈ K gelten die Distributivgesetze

c · (a + b) = c · a + c · b(a + b) · c = a · c + b · c

Ist · auch kommutativ auf K, heißt K ein Körper.

Sei L ⊂ K eine nicht leere Teilmenge. L heißt Unterkörper von K, wenn (L,+, 0) und(L∗, ·, 1) jeweils Untergruppen bilden.

Seien K, L Körper, ϕ : K → L ein Gruppenhomomorphismus. Gilt zusätzlich auchfür die zweite Operation

ϕ(a · b) = ϕ(a) · ϕ(b) für a, b ∈ K ,

dann heißt ϕ (Körper-)Homomorphismus.Die Begriffe Isomorphismus und Automorphismus werden analog zu Definition 3.6bzw. Definition 2.4 benutzt.

Bemerkungen 3.10

1) Aus dem Distributivgesetz folgt sofort für alle x ∈ K

0 · x = (0 + 0) · x = 0 · x + 0 · x ,

also 0 = 0 · x + −(0 · x) = 0 · x + 0 · x + −(0 · x) = 0 · x .

Für alle x ∈ K gilt daher:0 · x = 0 .

Also kann 0 ∈ K kein Inverses bezüglich der Multiplikation in K besitzen.

Page 9: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.1 Gruppen und Körper 327

2) Sei K ein Körper und (K,+, 0) die zugrundeliegende additive Gruppe. Dann ist entwe-der ord(x) endlich für ein x ∈ K oder ord(x) = ∞ für alle x ∈ K. Im ersten Fall heißt dieminimale Ordnung p die Charakteristik von K, Char(K) = p, im zweiten Fall setzen wirChar(K) = 0. Zu diesem Fall gehören K = Q,R,C. �

Beispiele 3.11

1) Die reellen Zahlen R und die rationalen Zahlen Q mit den üblichen Rechenoperationenbilden einen Körper.

2) Der Körper C der komplexen Zahlen: Als Menge ist

C := R2 = {(a, b) : a, b ∈ R} ,deren Elemente hier als geordnetes Paar geschrieben werden. Statt (a, b) schreibt man aucha + b · i, erst einmal als formale Schreibweise ohne weitere Bedeutung für i. Die reellenZahlen sind durch

Φ : R→ C, x �→ (a, 0)

nach C eingebettet. Die Addition ist die übliche Vektoraddition des R2, daher mit derEinbettung Φ verträglich im Sinn von (3.2) für +:

(a1 + 0 · i) + (a2 + 0 · i) = a1 + a2 + 0 · i .Damit ist a) von Definition 3.9 erfüllt.C := C \ {0} wird bijektiv auf die konforme Gruppe

C∗ ={(

a −bb a

): (0, 0) � (a, b) ∈ R2

}durch

(a, b) �→(

a −bb a

)abgebildet, was mit der eingeführten Addition in R und der in R(2,2) verträglich ist. DieMultiplikation in C wird durch Rücktransformation der Multiplikation in C∗ definiert.D. h. wegen der Formel(

a −bb a

) (a′ −b′b′ a′

)=

(aa′ − bb′ −(ab′ + a′b)ab′ + a′b aa′ − bb′

)definiert man die Multiplikation in C somit durch

(a + b · i) · (a′ + b′ · i) := aa′ − bb′ + (ab′ + a′b) · i , (3.3)

Page 10: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

328 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

die auch im Fall (a, b) = (0, 0) oder (a′, b′) = (0, 0), d. h. in C∗ ∪{(

0 00 0

)}, anzuwenden

ist, und dann korrekterweise 0 + 0 · i ergibt. Wegen

(a1 + 0 · i) · (a2 + 0 · i) = (a1a2 + 0 · i)ist auch die Multiplikation mit Φ verträglich. Wenn man nun i = 0 + 1 · i = (0, 1) setzt, istinsbesondere i2 = i · i = −1 + 0 · i, d. h. wenn Φ ab jetzt mit der Identität gleich gesetztwird:

i2 = −1 .

i heißt imaginäre Einheit.

Für z = a+b · i wird a ∈ R als Realteil , a = Re z, und b ∈ R als Imaginärteil , b = Im z,bezeichnet. Oft wird auch die Schreibweise z = a+ ib bevorzugt.Rechnet man andererseitsmit „Zahlen a+ ib“ unter Benutzung der Körpereigenschaften und von i2 = −1, erhält mannotwendigerweise (3.3).Beweis von Definition 3.9 (b): Die so definierte Multiplikation in C ist assoziativ, weil dieMultiplikation von Matrizen assoziativ ist. Sie ist kommutativ, da (C∗, ·) abelsch ist. DasEinselement ist 1 = 1 + 0 · i, weil dieses Element zur Einheitsmatrix gehört (a = 1, b = 0).Die inverse Matrix ist (

a −bb a

)−1

=1

a2 + b2 ·(

a b−b a

).

Folglich ist für 0 � a + b · i ∈ C das Inverse

(a + b · i)−1 =1

a2 + b2 (a − b · i) .

Da die Addition sich auch als Matrixaddition in C∗ ∪{(

0 00 0

)}interpretieren lässt, folgt

schließlich die Eigenschaft (c) aus Definition 3.9 aus der Distributivität von Matrizenad-dition und -multiplikation.

Über die Einbettung Φ wird R zu einem Unterkörper von C. Mit Identifizierung Φ = idgilt somit für eine komplexe Zahl z

Page 11: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.1 Gruppen und Körper 329

z ∈ R⇔ Im z = 0 .

Entsprechend heißt z ∈ C rein imaginär, genau dann wenn Re z = 0. In diesem Sinnist a + b · i die eindeutige Darstellung in R2 bezüglich der Basis 1 = (1, 0) undi = (0, 1).

In C gibt es die Konjugation

z = a + b · i �→ z = a − b · i ,z heißt komplex-konjugiert zu z.

Man benutzt sie, um wegen z · z = a2 + b2 (im Sinne der Einbettung) den Betrag derkomplexen Zahl z (die Länge des Vektors (a, b))

|z| = √a2 + b2 =√

z · z und ihr Inverses1z=

1|z|2 z

kürzer zu beschreiben. Die Zahl z ∈ C ist reell genau dann, wenn z = z. Konjugationverträgt sich nicht nur mit der Addition komplexer Zahlen

z1 + z2 = z1 + z2 , (3.4)

da es sich um die lineare Abbildung von R2 nach R2, (a, b) �→ (a,−b), handelt, sondernauch mit der Multiplikation komplexer Zahlen:

z1z2 = (a1 + ib1)(a2 + ib2) = a1a2 − b1b2 + i(a1b2 + a2b1)= a1a2 − b1b2 − i(a1b2 + a2b1) = (a1 − ib1)(a2 − ib2) .

Demnach:

z1z2 = z1 · z2 . (3.5)

Außerdem gilt für z ∈ C:

Re z = 12 (z + z) , Im z = 1

2i (z − z) . (3.6)

Geometrisch ist daher die Addition in C die Addition in R2, eine Addition von „Ortsvek-toren“ nach dem „Kräfteparallelogramm“. Da die imaginäre Einheit i in C∗ der Matrix

Page 12: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

330 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen(0 −11 0

)=

(c −ss c

)mit c = cos

2

), s = sin

2

)entspricht, ist die Multiplikation eines z = x + y · i ∈ C mit i gleichbedeutend mit einerDrehung von (x, y)t ∈ R2 um ϕ = π/2. Allgemein ist die Multiplikation mit einem festenz = a + b · i eine Drehstreckung, wobei der Streckungsfaktor

r := (a2 + b2)1/2 = ‖(a, b)‖2ist und der Drehwinkel ϕ ∈ [0, 2π) definiert ist durch

cos(ϕ) =1r

a , sin(ϕ) =1r

b .

Die Konjugation ist die Spiegelung an der Imaginärteilachse. Insbesondere gibt es nebender kartesischen Darstellung a + b · i immer die Polardarstellung (s. Abbildung 3.1)

a + b · i = r(cos(ϕ) + (sin(ϕ)) · i) . (3.7)

Mit Hilfe der komplexen Exponentialfunktion kann dies auch als

a + bi = r exp(iϕ)

geschrieben werden.

3) Die endlichen Körper Fp (p Primzahl). Als Menge ist Fp die Teilmenge {0, 1, . . . , p −1} ⊂ Z. Die Operationen „+“ und „·“ sind die übliche Addition und Multiplikation, abermodulo p genommen (siehe (3.1)). Bezeichnen wir die Zahl m ∈ Z, 0 ≤ m < p, aufgefasstals Element in Fp, mit [m], so ist dementsprechend

[m1] + [m2] = [m1 + m2 modulo p] .

Fp mit der Addition ist eine abelsche Gruppe, die wir oben mit Zp bezeichneten. DieMultiplikation ist analog definiert durch

[m] · [n] = [r] , wenn r + k · p = m · n für ein k ∈ Z und 0 ≤ r < p.

Analog kann auch r ∈ {0, . . . , p − 1} mit [r] = [g] + [h] nach (3.1) als der Rest in derganzzahligen Division von g + h durch p interpretiert werden. Diese Multiplikation ist as-soziativ und kommutativ, da dies für die Multiplikation in Z gilt, und das neutrale Elementist [1] ∈ Fp. Auch die Distributivgesetze übertragen sich aus Z, so dass alle Eigenschaf-ten eines Körpers mit Ausnahme der Existenz des Inversen für die Multiplikation mit0 � [m] ∈ Fp klar sind, und zwar ohne dass p notwendigerweise prim ist. Für die fehlendeEigenschaft ist nachzuweisen, dass die Multiplikation

Fp → Fp , [n] �→ [m] · [n]

Page 13: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.1 Gruppen und Körper 331

surjektiv ist. Da Fp eine endliche Menge ist, genügt es nach Satz A.18 zu zeigen, dassdiese Abbildung injektiv ist (siehe Anhang A, Definition A.14), d. h.:

[n1], [n2] ∈ Fp mit [m] · [n1] = [m] · [n2] ⇒ [n1] = [n2] .

Wegen des Distributivgesetzes ist diese Abbildung ein Gruppenhomomorphismus, d. h.nach Satz 3.7, 4) genügt es für m, n ∈ {0, . . . , p − 1} zu zeigen, dass

[m] · [n] = 0 ⇒ [n] = 0 .

Nun bedeutet [m] · [n] = 0 ∈ Fp für die ganzen Zahlen m und n, dass mn durch p teilbarist. Dabei kann p nicht m teilen, weil 0 < m < p. Also muss der Primfaktor p die Zahl nteilen. Mit 0 ≤ n < p folgt daraus [n] = 0.Alternativ hätte auf Z auch die Äquivalenzrelation (siehe Anhang A, (A.19))

m ∼ n :⇔ m − n = kp für ein k ∈ Z

definiert werden können und Zp (bzw. Fp) als Menge der Äquivalenzklassen. Additionund Multiplikation sind dann die Operationen in Z auf die Repräsentanten der Äquiva-lenzklassen angewendet. Es ist dann die Wohldefinition zu überprüfen, die Eigenschaftder Körpereigenschaften außer der Existenz von multiplikativ Inversen folgt dann aus derentsprechenden von Z. Die fehlende Körpereigenschaft, falls p Primzahl ist, ist wie hiergesondert nachzuweisen. ◦

x

yx = const

y = const

ϕ = const

r = const

Abb. 3.1: Kartesische und Polarkoordinaten.

Für die Theorie sind die komplexen Zahlen vor allem wegen des Fundamentalsatzes derAlgebra wichtig (siehe Satz B.21 und Hauptsatz B.33). Jedes reelle Polynom ist natürlichauch ein komplexes Polynom. Der Fundamentalsatz der Algebra lehrt, dass jedes reellePolynom zumindest komplexe Nullstellen hat.

Beispiel 3.12 Das reelle Polynom p(x) = 1 + x2 hat keine reellen Nullstellen, wohl aberdie komplexen Nullstellen ±i.

Genau wie man von Z zu Q übergehen muss, wenn man Gleichungen wie

Page 14: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

332 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

a · x = b

für a � 0 immer lösen will, oder von Q zu R, wenn man Gleichungen wie

x2 = a

für a > 0 immer lösen will, ist die Körpererweiterung C von R nötig, um die Existenz vonNullstellen eines beliebigen Polynoms p (das nicht konstant ist) sicherzustellen.

In Kapitel 4 werden daher reelle Matrizen insbesondere als komplexe Matrizen betrach-tet werden, um wenigstens die Existenz komplexer Eigenwerte sicherzustellen. ◦

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• Gruppe, Untergruppe• Gruppenhomomorphismus, Kern• Körper

Zusammenhänge

• Fundamentalsatz der Algebra (Satz B.21)

Beispiele

• Zn,Fp

• C∗,C, Konjugation

Aufgaben

Aufgabe 3.1 (K)

a) Bestimmen Sie det(A), A2 und A−1 für die komplexe 2 × 2-Matrix

A =(

1 + i −ii 1 − i

).

b) Lösen Sie das lineare Gleichungssystem

x + iy = iy + iz = i

ix + + z = i .

Aufgabe 3.2 (K)

a) Bestimmen Sie den Rang der Matrix

Page 15: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Aufgaben 333⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 1 1 00 1 11 0 1

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠über dem Körper F2 und über dem Körper F5.

b) Lösen Sie das lineare Gleichungssytem

x + y = 1y + z = 0

x + + z = 1

über F2 und über F5.

Aufgabe 3.3 (T) Welche der folgenden Teilmengen von R(n,n) bilden eine Gruppe bezüg-lich der Matrizenmultiplikation?

a) Die Menge aller oberen Dreiecksmatrizen,b) die Menge aller oberen Dreiecksmatrizen mit Determinante ungleich 0,c) die Menge aller normierten oberen Dreiecksmatrizen,d) für festes B ∈ GL(n,R) die Menge {A ∈ GL(n,R) : ABAt = B}.

Aufgabe 3.4 (K) Zeigen Sie, dass die folgende Menge unter der Matrizenmultiplikationeine Gruppe ist:

Sp(2n) :=

⎧⎪⎪⎪⎨⎪⎪⎪⎩(

A BC D

)∈ R(2n,2n) :

A, B,C, D ∈ R(n,n),ABt = BAt, CDt = DCt,ADt − BCt = 1n

⎫⎪⎪⎪⎬⎪⎪⎪⎭ .

Page 16: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

334 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.2 Vektorräume über allgemeinen Körpern

Mit Elementen aus einem beliebigen Körper kann man genauso wie mit reellen Zahlenrechnen, wenn man nichts anderes als die genannten Körpereigenschaften benutzt. Also:Alles, was wir zu linearen Gleichungssystemen, Matrizenmultiplikation, Determinantengesehen haben, gilt deswegen über beliebigen Körpern. Für die einzige Ausnahme, demBeweis von Lemma 2.107, der die in F2 nicht existierende multiplikative Inverse von 2benutzt, wurde eine allgemein gültige Alternative in Bemerkung 2.119 angegeben. Mankann somit in der Definition eines R-Vektorraums R durch einen Körper K ersetzen undkommt zu:

Definition 3.13

Ein Vektorraum über dem Körper K (oder kürzer ausgedrückt: ein K-Vektorraum) isteine abelsche Gruppe V (Gruppenoperation „+“ geschrieben, mit neutralem Element0 ∈ V) zusammen mit einer Operation

K × V → V , (c, u) �→ c · uvon K auf V , für die gilt:

a) c1 · (c2 · u) = (c1c2) · u (Assoziativität),für alle c1, c2 ∈ K, u ∈ V,

b) (c1 + c2) · u = c1 · u + c2 · u (Distributivität),c · (u1 + u2) = c · u1 + c · u2 (Distributivität),für alle c1, c2, c ∈ K, u, u1, u2 ∈ V ,

c) 1 · u = u für alle u ∈ V .

Wie bisher auch wird der Operator · der Skalarmultiplikation i. Allg. weggelassen. Ausden Distributivgesetzen folgt für alle u ∈ V (wie schon für R-Vektorräume gezeigt):

0 · u = (0 + 0) · u = 0 · u + 0 · u ⇒ 0 · u = 0 ∈ V ,u + (−1) · u = (1 − 1) · u = 0 · u = 0 ⇒ (−1) · u = −u .Alles, was bisher für R-Vektorräume an Begriffen und Aussagen (ohne weitere Voraus-setzungen, wie ein Skalarprodukt) entwickelt wurde, gilt auch in K-Vektorräumen. In denDefinitionen ist überall die Skalarenmenge R durch den zugrunde gelegten Körper K zuersetzen, z. B.:

Definition 3.14

Eine Abbildung Φ : V1 → V2 des K-Vektorraums V1 in den K-Vektorraum V2 heißtlinear (genauer K-linear), wenn

Page 17: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.2 Vektorräume über allgemeinen Körpern 335

Φ(s · x + t · y) = s ·Φ(x) + t ·Φ(y)

für alle x, y ∈ V1, s, t ∈ K gilt.

Wenn der Körper K betont werden soll, benutzen wir

HomK(V, W) := {Φ : V → W : Φ ist K-linear} für K-Vektorräume V, W.

Manchmal erzwingt die Menge der Vektoren nicht automatisch den zulässigen Skala-renkörper. So kann z. B. V = Cn als Vektorraum über C oder auch über R betrachtet wer-den. Ist allgemeiner K ein Körper und K′ ⊂ K ein Unterkörper, so kann ein K-Vektorraumauch als K′-Vektorraum betrachtet werden. Das hat Einfluss auf die Aussagen.

So ist zum Beispiel die Konjugationsabbildung von C nach C nicht C-linear (wenn nun-mehr C als C-Vektorraum betrachtet wird), wohl aber R-linear (wenn C als R-Vektorraumbetrachtet wird).

Analog wird bei der Dimension verfahren:

dimK(V) bezeichnet die Dimension des K-Vektorraums V .

Auch hier ist die Wahl des Skalarkörpers von Bedeutung:

dimC(Cn) = n (Cn als C-Vektorraum) ,dimR(Cn) = 2n (Cn als R-Vektorraum) ,

da {e1, . . . , en, ie1, . . . , ien}mit den reellen Einheitsvektoren e j eine Basis bilden von Cn alsR-Vektorraum (dabei ist also i die imaginäre Einheit, kein Index!).

Allgemein gilt für einen K-Vektorraum V aufgefasst als K′-Vektorraum:

dimK′ V = dimK′ K · dimK V ,

da auch K ein K′-Vektorraum ist (Übung). Demnach:

Alle Aussagen aus den Kapiteln 1 und 2für allgemeine R-Vektorräume gelten auch

für allgemeine K-Vektorräume.

Davon sind die Beispiele 1–4 ausgenommen, die von ihrem Anwendungsbezug nur inR sinnvoll sind. Eine Ausnahme bildet das Beispiel 2: Es wird sich herausstellen, dassauch komplexe „Leitwerte“ sinnvoll sein können, so dass entsprechende Aussagen überdas LGS (MM.43) auch dann gelten sollten (Beispiel 2(5)). Insbesondere ist dabei dieSignumsfunktion zu interpretieren als Abbildung

sign : V → {−1, 1} ⊂ K .

Den schon bekannten Beispielen können weitere hinzugefügt werden.

Page 18: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

336 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beispiele 3.15

1) Der Zahlenraum Rn ist ein Vektorraum über dem Körper R. Ebenso ist für einen belie-bigen Körper K der Raum

Kn = K × ... × K︸�������︷︷�������︸n mal

= {(x1, . . . , xn)t : x1, . . . , xn ∈ K} (3.8)

ein Vektorraum über K, wobei wir die Elemente von Kn weiter als Spalte auffassen. Analogsetzen wir für die Menge der m × n Matrizen über K:

K(m,n) := {(ai, j)i=1,...,mj=1,...,n

: ai, j ∈ K} .

Dies ist mit komponentenweiser Addition und Skalarmultiplikation ein K-Vektorraum.Analog zu (2.65) bzw. (2.151) können auch die Matrixgruppen

GL(n, K) bzw. SL(n, K)

definiert werden. Aus Definition 1.48 zum Beispiel überträgt sich die Zuordnung der trans-ponierten Matrix

·t : K(m,n) → K(n,m)

A �→ At .

Kn ist also (isomorph zu) K(n,1) zu verstehen und der Raum der n-komponentigen Zeilenals (isomorph zu) K(1,n) und diese im Sinn von (3.8) als isomorph zueinander. In (1.31)wurde schon der R-Vektorraum der unendlichen reellen Folgen RN eingeführt. Genausolässt sich KN für einen Körper K definieren.

2) Die Menge

l2(R) = {(aν) ∈ RN :∑

a2ν konvergent }

der quadratsummierbaren reellen Folgen ist ein linearer Unterraum von RN.

Es muss nun gezeigt werden, dass c · (aν) und (aν) + (a′ν) wieder zu l2(R) gehören: Dazu benutzen wir diewegen ∑

a2ν =

∑|aν |2

aus der Charakterisierung von absoluter Reihenkonvergenz (siehe Analysis) folgende Charakterisierung

l2(R) = {(aν) : es existiert ein M ∈ R so, dass für alle N ∈ N gilt:N∑1

a2ν ≤ M} .

Page 19: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.2 Vektorräume über allgemeinen Körpern 337

Wenn also für alle N ∈ N gilt∑N

1 a2ν ≤ M, dann ist

∑N1 (caν)2 ≤ c2 M für alle N. Wenn für alle N ∈ N gilt,

dass∑N

1 a2ν ≤ M und

∑N1 (a′ν)2 ≤ M′, dann zeigt die Cauchy-Schwarz-Ungleichung, dass

N∑1

aνa′ν ≤√√√ N∑

1

a2ν ·

√√√ N∑1

(a′ν)2 ≤ √M · M′ .

Daraus erhalten wir

N∑1

(aν + a′ν)2 =

N∑1

a2ν + 2

N∑1

aνa′ν +N∑1

(a′ν)2 ≤ M + 2√

M · M′ + M′

für alle N ∈ N.

Analog ist der Raum

l2(C) = {(aν) : aν ∈ C,∞∑1

|aν|2 konvergent }

der quadratsummierbaren Folgen komplexer Zahlen ein Vektorraum über C.

3) Oft kann man Aussagen für R und für C als Skalarkörper analog formulieren.

Zur Vereinheitlichung benutzen wir dann die Bezeichnung K, dh.

K ∈ {R,C} .

In Verallgemeinerung von (1.50) definieren wir also

C([a, b],K) := { f : [a, b]→ K : f ist stetig} . (3.9)

Direkter als in 2) ergibt sich etwa, dass

l1(K) := {(aν) ∈ KN :∑ |aν| konvergent}

und

l∞(K) := {(aν) ∈ KN : (|aν|)ν ist beschränkt}

lineare Unterräume von KN sind (Übung).

4) Auch Funktionen können Vektorräume bilden, wie schon gesehen. Bekannt ist bereits

C0[a, b] := C([a, b],R

), d. h. der Raum der stetigen reellwertigen Funktionen auf

[a, b] ⊂ R,

Page 20: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

338 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

als R-Vektorraum. Genauso lässt sich für q ∈ N

Cq(a, b), d. h. der Raum der auf [a, b] ⊂ R stetigen und auf (a, b) q-mal stetigdifferenzierbaren reellwertigen Funktionen ,

als R-Vektorraum bilden oder allgemeiner für q ∈ N0

Cq((a, b),K)

(3.10)

als entsprechender K-Vektorraum. Schließlich sind (siehe Anhang B.3, Definition B.16)

K[x], d. h. der Raum der Polynome∑n

0 aνxν, n ∈ N, aν ∈ K,

Kn[x], d. h. der Raum der Polynome∑d

0 aνxν, aν ∈ K, vom Grad ≤ n,

Vektorräume über K für einen beliebigen Körper K. Bei endlichem K ist hier Bemer-kungen B.18, 2) zu beachten.

5) Sind V1 und V2 Vektorräume über K, so ist auch ihr kartesisches Produkt

V1 × V2 = {(u1, u2) : u1 ∈ V1, u2 ∈ V2}mit komponentenweiser Definition der Vektoroperationen

(u1, u2) + (u′1, u′2) = (u1 + u′1, u2 + u

′2)

c · (u1, u2) = (c · u1, c · u2)

ein K-Vektorraum.

6) Wie schon am Beispiel R undC bzw.Rn undCn gesehen, kann allgemein aus einemR-Vektorraum VR ein C-Vektorraum VC gebildet werden, der – als R-Vektorraum aufgefasst– VR als linearen Unterraum enthält. Diese Komplexifizierung geschieht durch folgendeBildung:

VC := VR × VR .

Auf VC wird die komponentenweise Addition

(x1, y1) + (x2, y2) := (x1 + x2, y1 + y2) , xi, yi ∈ VR, i = 1, 2

mit der VC zur kommutativen Gruppe wird, und die Skalarmultiplikation

(a + ib)(x, y) = (ax − by, ay + bx) , a, b ∈ R, x, y ∈ VR (3.11)

definiert. Folglich ist (VC,+, · ) ein C-Vektorraum, und dimC VC = dimR VR (Übung).

Die C-Vektorräume aus obigen Beispielen 3.15, 2) und 3) sind Komplexifizierungen derreellen Varianten. Allgemein gilt

Page 21: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.2 Vektorräume über allgemeinen Körpern 339

VR ⊂ VC

(über die Einbettung x ∈ VR �→ (x, 0) ∈ VC) und VR ist ein linearer Unterraum von VC,als R-Vektorraum betrachtet. Insbesondere in Kapitel 4 werden wir die Elemente einesR-Vektorraums auch als Elemente seiner Komplexifizierung betrachten, etwa A ∈ R(m,n)

als A ∈ C(m,n). ◦Hinsichtlich des Tupelraumes Kn und des entsprechenden Matrizenraumes K(m,n) ist Fol-gendes zu beachten: Wurde für die Begriffe und Aussagen nicht das (euklidische) Ska-larprodukt zugrunde gelegt, so übertragen sie sich auf den allgemeinen Fall. Inbesonderebleiben alle Aussagen zur Transformation einer Matrix auf (reduzierte) Zeilenstufenform(Gauss-(Jordan-) Verfahren), zur LR-Zerlegung, zur Darstellung von linearen Abbil-dungen auf endlichdimensionalen K-Vektorräumen durch Matrizen über K usw. gültig.Alles, was ein Skalarprodukt erfordert (Orthogonalität, ONB, Schmidtsche Orthonor-malisierung, . . .) braucht neue Überlegungen.

Beispiel 2(5) – Elektrisches Netzwerk Ziel ist es, für (MM.66) und dann allgemein für (MM.61) so-wie (MM.65) für periodische Quellstärken partikuläre Lösungen yp anzugeben. Die linearen Gleichungen(MM.66) (bzw. auch (MM.61), (MM.65)) können auch im Komplexen betrachtet werden. Wegen der R-Linearität von Re : C→ R und der Verträglichkeit mit der Ableitung

Re(y) = ( ˙Re y)

ist der Realanteil einer komplexen Lösung eine reelle Lösung. Betrachten wir einen Wechselstromkreis,d. h.

b(t) = b0 cos(ωt)

mit einer Frequenz ω > 0. Gäbe es nur den Ohmschen Widerstand, so wäre durch

y(t) = b0/R cos(ωt)

eine Lösung gegeben, die anderen Bauteile erzeugen aber eine Phasenverschiebung. Der komplexe Ansatz

y(t) = y0 exp(iωt) , y0 ∈ Cfür die rechte Seite

b(t) = b0 exp(iωt) , b0 ∈ Rliefert (

−ω2 +RL

iω +1

RC

)y0 exp(iωt) = b0 exp(iωt) ,

also für y0 eine echt komplexe Lösung:

y0 = a + ib

und damit die Lösung

y(t) = a exp(iωt) + ib exp(iωt) ,

d. h. auch

Page 22: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

340 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Re y(t) = a cos(ωt) − b sin(ωt) .

Für (MM.64), (MM.65) und eine Quellstärke

b(t) = b0 cos(ωt)

lässt sich diese Überlegung wiederholen. Dabei kann b0 ∈ Rn sein, wenn die Quellen alle „in Phase“sind, oder auch b0 ∈ Cn, um unterschiedliche Phasen zu berücksichtigen. Wichtig ist nur die einheitlicheFrequenz ω.

Einsetzen des Ansatzes

y(t) = y exp(iωt) , y ∈ Cn

liefert das LGS für y

D(DW A + DS Liω + DCC

−iω

)y = Db

Bty = 0 .

Vergleicht man das mit (MM.48), sieht man, dass die Beschreibung formal die gleiche ist wie in einemNetzwerk nur mit Ohmschen Widerständen, wenn das LGS im Komplexen betrachet wird und wie denOhmschen Widerständen der Widerstand R, an einer Spule die Impedanz iωL (als komplexer „Wider-stand“) und an einem Kondesator die Impedanz − i

ωC zugeordnet wird. Geht man von der Äquivalenz derBeschreibungen (MM.51) und (MM.48) aus, kann also y ∈ Cn dadurch bestimmt werden, dass auch in Cn

das LGS

Ay + Bx = b0

Bty = 0

für

A =(DW diag(Ri) + DS iω diag(Li) + DC

(− iω

)diag(1/Ci)

)bzw. mit C := A−1

BtCBx = BtCb0

und dann

y := C(b0 − Bx) . �

Bemerkungen 3.16 Trotz einer in weiten Teilen einheitlichen Theorie weisen K-Vektor-räume gegenüber R-Vektorräumen Besonderheiten auf, insbesondere wenn K endlich de-finiert ist.

1) Offensichtlich ist: Sei V ein n-dimensionaler K-Vektorraum, wobei #(K) = p ∈ N –hierbei wird mit #(M) für eine endliche Menge M die Anzahl der Elemente bezeichnet, –dann ist auch V endlich und

#(V) = pn (3.12)

(Übung).

Page 23: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.2 Vektorräume über allgemeinen Körpern 341

2) Sei K = Fp, p eine Primzahl. Dann sind die Vektorräume (V,+, · ) über K gerade diekommutativen Gruppen (V,+), in denen

u + . . . + u︸������︷︷������︸p-mal

= 0 (3.13)

gilt.Das kann man wie folgt einsehen:Sei (V,+, · ) ein K-Vektorraum, dann ist für α = [k] ∈ K, u ∈ V wegen 1 = [1]:

αu = (α · 1)u = ([1] + . . . + [1]︸�����������︷︷�����������︸k-mal

)u = u + . . . + u︸������︷︷������︸k-mal

. (3.14)

Damit kann Skalarmultiplikation durch die Addition ausgedrückt werden und wegen

u + . . . + u︸������︷︷������︸p-mal

= [p]u = 0u = 0

gilt (3.13). Ist andererseits (V,+) eine kommutative Gruppe mit (3.13), so definiert (3.14) eine Skalarmul-tiplikation, so dass (V,+, · ) ein K-Vektorraum ist.

3) Sei K = F2, (V,+) eine Untergruppe von Kn. Dann gilt immer (3.13). Die Untergruppensind folglich genau die linearen Unterräume. Diese Unterräume spielen in der Codierungs-theorie eine Rolle.Für n = 8 erhält man mit Kn z. B. den Vektorraum der Bytes. Damit wird etwa der ASCII-Zeichensatz realisiert, der mit 7 Komponenten, hier Bits genannt, 128 Zeichen codiert unddie achte Komponente als Kontrollbit benutzt. Wird dieses so gewählt, dass die Anzahlder Einsen gerade ist, kann das Auftreten eines Fehlers in einem Bit erkannt (aber nichtkorrigiert) werden.Allgemeiner versteht man unter jeder Untergruppe (linearem Unterraum) von Kn einenlinearen binären Block-Code der Länge n. Ein Problem ist (durch Redundanz wie oben)Codes zu konstruieren, die bis zu k fehlerhafte Bits erkennen oder sogar korrigieren kön-nen.

4) In V = (F2)7 sei

U := span((1000110)t, (0100011)t, (0010111)t, (0001101)t

).

Da das Erzeugendensystem linear unabhängig ist (Übung), ist dim U = 4 und damitgibt es nach (3.12) 16 Code-Wörter, d. h. Elemente in U. U ist ein „optimaler“ 1-fehlerkorrigierender Code, der Hamming-Code der Länge 7 über F2. �Ab Abschnitt 7.2.1 werden K-Vektorräume allgemein untersucht, die zusätzlich eine mitder Vektorraumstruktur verträgliche innere Verknüpfung haben.

Definition 3.17

Sei K ein Körper, (V,+, λ·) ein K-Vektorraum. V heißt K-Algebra, wenn eine weitereinnere Verknüpfung ◦, d. h. eine Abbildung ◦ : V × V → V definiert ist, so dass gilt:

Page 24: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

342 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

(u + u) ◦ w = u ◦ w + u ◦ wu ◦ (u + w) = u ◦ u + u ◦ w

für alle u, u,w ∈ V (Distributivgesetze)

λ · (u ◦ u) = (λ · u) ◦ u = u ◦ (λu)

für alle u, u ∈ V, λ ∈ K .

Beispiel 3.18 Beispiele für K-Algebren sind HomK(V, V), wobei V ein K-Vektorraum istund ◦ durch die Komposition der Abbildungen definiert ist, oder K(n,n), wobei ◦ durch dieMatrixmultiplikation definiert ist. Man beachte, dass in beiden Fällen ◦ bis auf Trivialfällenicht kommutativ ist. ◦

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe

• K-Vektorraum• K-lineare Abbildung• K-Algebra

Beispiele

• C-Vektorräume als R-Vektorräume• Komplexifizierung von R-Vektorräumen ((3.11))• Unterräume von (F2)n, lineare Codes (Bemerkungen 3.16)

Aufgaben

Aufgabe 3.5 (K)

a) Ist V ein n-dimensionaler K-Vektorraum, wobei #(K) = p ∈ N, dann ist auch Vendlich und

#(V) = pn .

b) In V = (F2)7 sei

U := span((1000110)t, (0100011)t, (0010111)t, (0001101)t

).

Zeigen Sie, dass das Erzeugendensystem linear unabhängig ist und berechnen Sie#(U).

Aufgabe 3.6 Es sei K ein Körper mit p Elementen. Zeigen Sie:

Page 25: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Aufgaben 343

a) Die Anzahl der Elemente in der Gruppe GL(n, K) ist

# (GL(n, K)) :=n−1∏ν=0

(pn − pν) .

b) Die Anzahl der Elemente in der Gruppe SL(n, K) ist

1p − 1

· # (GL(n, K)) .

Aufgabe 3.7 (T) Bekanntlich trägt Cn die Struktur eines Vektorraumes über dem KörperC, aber auch über dem Körper R.

a) Ergänzen Sie die Vektoren b1 = (1, 0, 1)t und b2 = (1,−1, 0)t zu einer Basis desC-Vektorraums C3 und zu einer Basis des R-Vektorraums C3.

b) Die Abbildung h : Cn → Rm sei eine lineare Abbildung der R-Vektorräume Cn

und Rm. Zeigen Sie, dass

f : Cn → Cm, f (x) = h(x) − ih(ix)

eine lineare Abbildung der C-Vektorräume Cn und Cm ist.c) Sei nun f : Cn → Cm eine lineare Abbildung der C-Vektorräume Cn und Cm.

Zeigen Sie, dass es eine lineare Abbildung h : Cn → Rm der R-Vektorräume Cn

und Rm gibt, so dass f (x) = h(x) − ih(ix) für alle x ∈ Cn.

Page 26: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

344 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.3 Euklidische und unitäre Vektorräume

Im C-Vektorraum V := Cn ist eine Längenmessung (d. h. eine Norm) definiert durch

‖x‖ :=

⎛⎜⎜⎜⎜⎜⎝ n∑i=1

|xi|2⎞⎟⎟⎟⎟⎟⎠1/2

=

⎛⎜⎜⎜⎜⎜⎝ n∑i=1

xixi

⎞⎟⎟⎟⎟⎟⎠1/2

∈ R für x = (xi) ∈ Cn .

Analog zum reellen Fall gibt es eine Abbildung

〈 . 〉 : Cn × Cn → C ,

so dass

‖x‖ = √〈x . x〉 ,nämlich

〈x . y〉 :=n∑

i=1

xiyi für x = (xi), y = (yi) ∈ Cn . (3.15)

Die Form 〈 . 〉 hat folgende Eigenschaften:(i) Linearität im ersten Argument:

〈c1x1 + c2 x2 . y〉 = c1 〈x1 . y〉 + c2 〈x2 . y〉 x1, x2, y ∈ V, c1, c2 ∈ C . (3.16)

(ii) Hermite2-Symmetrie:

〈x . y〉 = 〈y . x〉 , x, y ∈ V . (3.17)

(iii) (Positiv-)Definitheit :

〈x . x〉 ∈ R (wegen (3.17))und 〈x . x〉 ≥ 0 für alle x ∈ V, 〈x . x〉 = 0⇔ x = 0 . (3.18)

Aus (i) und (ii) folgt:(i)’ Antilinearität im zweiten Argument:⟨

x . c1y1 + c2y2⟩= c1

⟨x . y1

⟩+ c2

⟨x . y2

⟩, x, y1, y2 ∈ V, c1, c2 ∈ C .

Um im Folgenden R und C als Skalarenkörper einheitlich behandeln zu können, benutzenwir die schon eingeführte Schreibweise K, d. h.

K ∈ {R,C} .In Erweiterung von Definition 1.89 definieren wir:

2 Charles Hermite ∗24. Dezember 1822 in Dieuze †14. Januar 1901 in Paris

Page 27: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.3 Euklidische und unitäre Vektorräume 345

Definition 3.19

Sei V ein K-Vektorraum. Eine Abbildung 〈 . 〉 : V × V → K heißt inneres Produktauf V , wenn sie linear im ersten Argument, Hermite-symmetrisch und definit ist(d. h. (3.16), (3.17), (3.18) erfüllt). Für das Bild von x, y ∈ V schreibt man 〈x . y〉.(V,+, ·, 〈 . 〉) heißt euklidischer Vektorraum für K = R bzw. unitärer Vektorraum fürK = C.

Für K = R sind die Begriffe Skalarprodukt (SKP) und inneres Produkt identisch. In Ab-schnitt 1.5 ist ausgehend vom Beispiel V = Rn, aber in der Argumentation allgemeinfestgestellt worden, dass in jedem euklidischen Raum (V, 〈 . 〉) durch

‖x‖ :=√〈x . x〉 für x ∈ V (3.19)

eine Norm auf V definiert wird, die mit dem inneren Produkt über die Cauchy-Schwarz-Ungleichung (1.59) zusammenhängt. Dies gilt genauso für unitäre Vektorräume. Wegen(3.18) ist (3.19) wohldefiniert. Um die genannten Eigenschaften nachzuvollziehen, be-trachten wir als Erstes die Beziehung zwischen einem allgemeinen unitären und einemdavon abgeleiteten euklidischen Raum.

Es sei V ein unitärer C-Vektorraum mit dem inneren Produkt 〈 . 〉. V ist insbesondereauch ein R-Vektorraum. Darauf ist Re(〈 . 〉) eine R-lineare reelle Funktion beider Argu-mente. Aus der Hermite-Symmetrie folgt die Symmetrie dieser reellen Funktion unddie Definitheit ist ohnehin klar. Also ist ( . ) := Re 〈 . 〉 ein inneres Produkt auf dem R-Vektorraum V , ein SKP. Umgekehrt ist 〈 . 〉 durch das reelle innere Produkt ( . ) festgelegtvermöge

〈x . y〉 = Re(〈x . y〉) + i Im(〈x . y〉) = (x . y) + i Re(−i 〈x . y〉) = (x . y) + i Re(〈x . iy〉) .

Folglich:

〈x . y〉 = (x . y) + i (x . iy) . (3.20)

Satz 3.20: Inneres Produkt und C.S.U.

Ein inneres Produkt 〈 . 〉 auf dem K-Vektorraum V definiert eine Norm

‖u‖ :=√〈u . u〉

auf V . Es gilt die Cauchy-Schwarz-Ungleichung

| 〈x . y〉 | ≤ ‖x‖ ‖y‖ für alle x, y ∈ V .

Page 28: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

346 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beweis: Nur für den komplexen Fall ist die Aussage neu. Sei deswegen V mit dem innerenProdukt 〈 . 〉 ein unitärer Raum. Wenn wir für den Moment die Norm des komplexeninneren Produkts mit

‖x‖C =√〈x . x〉

abkürzen und die Norm des zugehörigen reellen inneren Produkts Re 〈 . 〉 mit ‖x‖R, so ist

‖x‖C = ‖x‖R ,

weil 〈x . x〉 reell ist. Beide Normen sind demnach gleich. Somit gelten alle Normeigen-schaften mit eventueller Ausnahme der Homogenität, aber: Für alle c ∈ C gilt wegen derAntilinearität im zweiten Argument

‖c · u‖ = √〈c · u . c · u〉 =√

cc · 〈u . u〉 = |c| · ‖u‖ .Cauchy-Schwarz-Ungleichung: Für das innere Produkt Re(〈 . 〉) auf demR-VektorraumV gilt die reelle Cauchy-Schwarz-Ungleichung

|Re(〈x . y〉)| = | (x . y) | ≤ ‖x‖ · ‖y‖ , x, y ∈ V .

Sei c := 〈x . y〉. Dann ist

〈cx . y〉 = c · creell. Mit der reellen Cauchy-Schwarz-Ungleichung finden wir deswegen

|c| · | 〈x . y〉 | = | 〈cx . y〉 | = | (cx . y) | ≤ ‖cx‖R · ‖y‖R = ‖cx‖C‖y‖C = |c| · ‖x‖ · ‖y‖ .Für c = 0 ist die Ungleichung trivial. Falls c � 0 ist, können wir |c| kürzen und erhaltendie Aussage. �

Definition 1.91 und Satz 1.92 übertragen sich nun wörtlich auf C-Vektorräume, wobei eineNorm weiterhin (nichtnegative) reelle Werte annimmt (als Längenmessung), im Gegensatzzum inneren Produkt. Ebenfalls überträgt sich nun die nachfolgende Definition 1.95 (nichtaber Definition 1.94), und ab Satz 1.96 der gesamte restliche Abschnitt 1.5.

Analog wie beim Übergang vom euklidischen SKP des Rn zum inneren Produkt vonCn übertragen sich die anderen Definitionen von SKPs auf die jeweiligen Komplexifizie-rungen. Es sei dann hervorgehoben:

Bemerkungen 3.21

1) Auf C([a, b],K) (oder auf dem Raum der K-wertigen Riemann3-integrierbaren Funk-tionen auf [a, b]) wird ein inneres Produkt definiert durch

3 Georg Friedrich Bernhard Riemann ∗17. September 1826 in Breselenz bei Dannenberg †20. Juli 1866in Selasca bei Verbania

Page 29: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.3 Euklidische und unitäre Vektorräume 347

〈 f . g〉 :=

b∫a

f (x)g(x)dx (3.21)

(man vergleiche Bemerkung 1.90) mit der erzeugten Norm

‖ f ‖2 :=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝b∫

a

| f (x)|2dx

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠1/2

.

2) Auf K(m,n) wird ein inneres Produkt definiert durch

A : B :=m∑

j=1

n∑k=1

a j,kb j,k (3.22)

(man vergleiche Bemerkungen 1.93, 4) mit der erzeugten Norm

‖A‖F :=

⎛⎜⎜⎜⎜⎜⎜⎝ m∑j=1

n∑k=1

|a j,k|2⎞⎟⎟⎟⎟⎟⎟⎠

1/2

. �

Wir heben einige Kernbegriffe ein weiteres Mal explizit hervor:

Definition 1.95I

Sei (V, 〈 . 〉) ein K-Vektorraum mit innerem Produkt. Zwei Vektoren x, y ∈ V heißenorthogonal, x ⊥ y, wenn

〈x . y〉 = 0 .

Definition 1.97I

Sei (V, 〈 . 〉) ein K-Vektorraum mit innerem Produkt. Ist A ⊂ V , so sei

A⊥ := {x ∈ V : 〈x . a〉 = 0 für alle a ∈ A} .Ist A = U ⊂ V ein linearer Unterraum, so heißt U⊥ das orthogonale Komplement zuU in V .

Page 30: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

348 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Für das reelle innere Produkt gilt die Polarisationsformel

‖x + y‖2 = ‖x‖2 + 2 (x . y) + ‖y‖2 .

Sie zeigt, dass die Abstände das innere Produkt bestimmen. Für das komplexe innereProdukt lautet diese Formel

‖x + y‖2 = ‖x‖2 + 2 Re(〈x . y〉) + ‖y‖2 . (3.23)

Damit ist das abgeleitete (reelle) SKP, und nach (3.20) auch das innere Produkt, durchdie Norm bestimmt, so dass auch für K = C aus Längentreue Erhaltung des innerenProdukts folgt (von Winkeln kann nicht allgemein geredet werden) (Übung). Es gilt sodann(Übung):

Satz 3.22: SKP-Erhaltung

Seien V, W unitäre bzw. euklidische Räume, Φ ∈ Hom(V, W), ‖ . ‖ die jeweils vonden inneren Produkten erzeugte Norm. Dann gilt:

‖Φx‖ = ‖x‖ für alle x ∈ V ⇔ 〈Φx . Φy〉 = 〈x . y〉 für alle x, y ∈ V .

Für K = C gibt es neben dem durch Definition 1.97I definierten C-Unterraum A⊥ =:A⊥C

auch den R-Vektorraum A⊥R

, wenn V als R-Vektorraum mit den SKP ( . ) = Re 〈 . 〉aufgefasst wird. Der Zusammenhang dazwischen ist:

Lemma 3.23

Sei V ein C-Vektorraum mit innerem Produkt 〈 . 〉 und A ⊂ V . Dann gilt:

1) A⊥C⊂ A⊥

R.

2) A⊥C= A⊥

R, falls A = U ein C-Unterraum ist.

Beweis: Zu 1): Aus 〈x . a〉 = 0 folgt Re〈x . a〉 = 0.Zu 2): Sei also x ∈ U⊥

R, d. h. Re(〈x . u〉) = 0 für alle u ∈ U. Weil U ein komplexer

Untervektorraum ist, ist mit u ∈ U auch iu ∈ U. Dadurch folgt mit (3.20)

〈x . u〉 = Re 〈x . u〉 + i Re(〈x . iu〉) = 0 . �

Damit ist auch die Orthogonalprojektion bezüglich des komplexen und des zugehörigenreellen inneren Produkts identisch, denn (x−u) ⊥ U bedeutet in beiden Fällen das Gleiche.Man kann hier auch mit dem minimalen Abstand argumentieren: Weil reelle und komplexeNorm identisch sind, sind auch die Abstände ‖x − u‖ in beiden Fällen dasselbe. Aus derreellen Theorie folgt:

Page 31: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.3 Euklidische und unitäre Vektorräume 349

Hauptsatz 1.102I Eindeutige Existenz der orthogonalen Projektion

Sei V ein K-Vektorraum mit innerem Produkt 〈 . 〉 und U ⊂ V ein linearer Unter-raum. Sei u ∈ U, x ∈ V , dann gilt:

1) Es sind äquivalent:

(i) u ist orthogonale Projektion von x auf U.

(ii) x − u ∈ U⊥ (Fehlerorthogonalität).

Ist U endlichdimensional mit Basis u1, . . . , ur und α ∈ Kr der Koordinatenvektorvon u, d. h. u =

∑ri=1 αiui, dann ist weiterhin äquivalent:

(iii)

Aα = β, wobei (3.24)

A ∈ K(r,r) , β ∈ Kr definiert sind durchA =

⟨u j . ui

⟩i, j

, β = 〈x . ui〉i .A heißt auch Gramsche Matrix.

Es gilt für α = (α1, . . . , αr)t und das Fehlerfunktional ϕ wie in Definition 1.101:

ϕ(u)2 = 〈Aα .α〉 − 2 Re 〈α . β〉 + ‖x‖2 ,

d. h. in α ist das quadratische Optimierungsproblem

f (α) =12〈Aα .α〉 − Re 〈α . β〉 → min

zu lösen.

2) Ist U endlichdimensional, so existiert die orthogonale Projektion u von x ∈ Veindeutig und wird mit PU(x) bezeichnet.

Beweis: Aus der reellen Theorie folgt die eindeutige Existenz von PU(x) und mit Lem-ma 3.23 die Fehlerorthogonalität als Charakterisierung (d. h. 1) (i)⇔(ii), 2)). Die Fehler-orthogonalität ist aber im endlichdimensionalen Fall äquivalent zum LGS (3.24) mit derGramschen Matrix:

〈u − x . ui〉 = 0 für alle i = 1, . . . , r

⇔⟨ r∑

j=1

α ju j . ui

⟩= 〈x . ui〉 für alle i = 1, . . . , r ⇔ Aα = β .

Der Zusatz in 1) folgt mit dem Fehlerfunktional ϕ wie in Definition 1.101 über

Page 32: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

350 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

ϕ(u)2 = 〈x . x〉 −r∑

i=1

αi 〈ui . x〉 + αi 〈x . ui〉 +r∑

i, j=1

αi

⟨ui . u j

⟩α j

= ‖x‖2 − 2r∑

i=1

Re(αi〈x . ui〉) +r∑

j=1

(Aα) jα j = ‖x‖2 − 2 Re 〈α . β〉 + 〈Aα .α〉 .

(Man beachte, dass hier - wie schon im reellen Fall - 〈 . 〉 sowohl für das komplexe innereProdukt in V als auch für das euklidische Produkt in Cn verwendet wird.)

Zudem wurde in Bemerkungen 1.104, 1) bereits erwähnt, dass die Minimalstellen von ϕ(d. h. die u, für die das Minimum in (1.73) angenommen wird) mit denen von f : Cr → R,definiert als

f (α) :=12(ϕ 〈α .α〉2 − ||x||2) = 1

2〈Aα .α〉 − Re 〈α . β〉 ,

übereinstimmen. �

Betrachten wir die weitere Entwicklung der Theorie in Kapitel 2, so gelten die allgemei-nen Überlegungen von Abschnitt 2.1.2 für allgemeine K-Vektorräume und die Überlegun-gen für Bewegungen und die Orthogonalprojektion gelten auch für unitäre Räume. BeiSatz 2.13 ist zu beachten, dass die Argumentation hier nur

Re 〈Φx . Φy〉 = Re 〈x . y〉 (3.25)

zeigt, was aber unter Beachtung von (3.20) und Anwendung von (3.25) auf iy statt y auch

〈Φx . Φy〉 = 〈x . y〉liefert. Alternativ kann ebenso auf die Darstellung der inneren Produkte durch die identi-schen Normen zurückgegriffen werden (Übung).

Abschnitt 2.2 gilt für allgemeine K-Vektorräume, wenn man unter „Skalarprodukt“ inKn nur das Berechnungsschema

∑i xiyi meint.

Abschnitt 2.3 gilt bis (2.44) und (2.47) für allgemeine K-Vektorräume. Ab (2.48) wird eineuklidischer bzw. unitärer K-Vektorraum gebraucht, wobei die Definition des Tensorpro-dukts aber erweitert werden sollte zu

a ⊗ b = abt

für a ∈ Km, b ∈ Kn , (3.26)

mit b = (bi) für b = (bi)i ∈ Kn

in Übereinstimmung mit Definition 2.40 für K = R. Dann bleiben die nachfolgendenÜberlegungen alle auch im komplexen Fall gültig, zusätzlich kann ab Definition 2.42 mitdem Begriff der Projektion wieder ein allgemeiner K-Vektorraum zugrunde gelegt wer-den für die allgemeinen Überlegungen bis zu Satz 2.54. Ausgenommen werden muss hierdie spezielle Konstruktion einer Rechtsinversen in Bemerkung 2.49, b), die eine unitäre

Page 33: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.3 Euklidische und unitäre Vektorräume 351

Struktur braucht. Für Bemerkung 2.52 ist die modifizierte Definition des Tensorproduktszu beachten, so dass die Sherman-Morrison-Formel (2.70) die Form

(A + u ⊗ u)−1 = A−1 − αA−1uutA−1 mit α := 1/(1 +

⟨A−1u . u

⟩ )annimmt und ihre Umformung

(A + u ⊗ u)−1 = A−1 − αA−1u ⊗(A)−tu .

Neben der transponierten Matrix At mit ihren Eigenschaften (2.80)–(2.84) allgemein (Kör-per K) ist im komplexen Fall auch der Begriff der Adjungierten wichtig.

Definition 3.24

Sei A = (ai, j)i, j ∈ K(m,n). Dann heißt

A := (ai, j)i, j ∈ K(m,n) ,

die zu A komplex-konjugierte Matrix und

A† := At=

(A)t ∈ K(n,m)

die Adjungierte zu A. Für K = R gilt daher A† = At.

Dann bleiben (2.80), (2.81) für A† gültig, (2.82) wird modifiziert zu

(γA)† = γA† für A ∈ Kn, γ ∈ K .

(2.83) gilt weiterhin für A† und somit auch (2.85):

〈Ax . y〉 =⟨x . A†y

⟩für A ∈ K(n,n), x, y ∈ Kn ,

da

〈Ax . y〉 = (Ax)ty = xtAty = xtAty = xtA

ty =

⟨x . A†y

⟩unter Benutzung von A = A.

Satz 2.54 gilt nun nicht nur allgemein für Körper K, sondern auch in der Form:

Satz 3.25

Für A ∈ K(m,n) gilt:

Page 34: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

352 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

1) Rang(A) = Rang(A) ,

2) Rang(A) = Rang(A†) .

Beweis: Es ist nur 1) zu zeigen. Sei dazu {u1, . . . , uk} ⊂ Kn linear unabhängig, dann istauch {u1, . . . , uk} linear unabhängig, denn:

0 =

k∑i=1

αivi =

k∑i=1

αiui =k∑

i=1

αiui

⇒k∑

i=1

αiui = 0⇒ α1 = . . . = αk = 0

⇒ α1 = . . . , αk = 0 für α1, . . . = αk ∈ K .

Somit folgt

Rang(A) = dim span(a(1), . . . a(n)

)≤ dim span

(a(1), . . . , a(n)

)= Rang

(A)

≤ dim span(a

(1), . . . , a

(n))= Rang(A). �

Definition 2.56 ist im Komplexen zu erweitern zu:

Definition 3.26

A ∈ K(n,n) heißt unitär, wenn A invertierbar ist und

A−1 = A† , d. h. A†A = A A† = 1 .

Damit gelten im Komplexen alle ab (2.87) folgenden Aussagen nach Ersatz von At durchA† und „orthogonale Matrix“ durch „unitäre Matrix“. Insbesondere sind demzufolge dieunitären Matrizen diejenigen, deren Spalten und auch Zeilen eine ONB bezüglich deskomplexen inneren Produkts 〈 . 〉 bilden.

Die Menge der unitären Matrizen, bezeichnet als O(n,C), bildet eine Untergruppevon GL(n,C), die unitäre Gruppe.

Definition 2.58 ist im Komplexen zu erweitern zu:

Definition 3.27

A ∈ C(n,n) heißt hermitesch, wenn gilt

Page 35: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.3 Euklidische und unitäre Vektorräume 353

A = A† .

Statt „symmetrisch“ bzw. „hermitesch“ für A ∈ R(n,n) bzw. A ∈ C(n,n) benutzt manauch einheitlich den Begriff selbstadjungiert.

Man beachte, dass hermitesch für die Diagonalelemente ai,i ∈ R bedeutet. Mit dieserModifikation gelten die nachfolgenden Überlegungen und Definition 2.60 ist zu erweiternzu:

Definition 3.28

Seien V und W endlichdimensionale unitäre bzw. euklidische Räume. Sei Φ ∈Hom(V, W). Die Adjungierte zu Φ,Φ† wird definiert durch

〈Φu .w〉 =⟨u . Φ†w

⟩.

Und analog zu Definition 2.61:

Definition 3.29

Sei V ein endlichdimensionaler euklidischer bzw. unitärer Raum.

1) Φ ∈ Hom(V, V) heißt unitär, wenn Φ ein Isomorphismus ist und

Φ−1 = Φ† .

2) Φ ∈ Hom(V, V) heißt hermitesch, wenn

Φ = Φ† .

Statt „symmetrisch“ bzw. „hermitesch“ benutzt man auch einheitlich selbstadjun-giert.

Dann gilt Satz 2.64 auch im Komplexen nach Ersatz von „symmetrisch“ durch „hermi-tesch“.

Genau wie im Reellen ein Operator Φ als Φt durch das SKP „gezogen“ wird, wird imKomplexen ein Operator Φ als Φ† durch das innere Produkt gezogen. Insofern übertragensich auch die diesbezüglichen Sätze. Als Beispiel sei dazu explizit die komplexe Variantevon Satz 2.63 erwähnt:

Satz 3.30: unitär = längenerhaltend

Seien V und W endlichdimensionale euklidische bzw. unitäre Räume, sei Φ ∈Hom(V, W), dann gilt:

Page 36: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

354 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Φ ist unitär ⇔ Φ ist längenerhaltend.

Beweis: „⇒“ ‖Φx‖2 = 〈Φx . Φx〉 =⟨x . Φ†Φx

⟩= 〈x . x〉 = ‖x‖2

„⇐“ Φ erfüllt nach Satz 3.22

〈Φx . Φy〉 = 〈x . y〉und damit ⟨

Φ†Φx − x . y⟩= 0 für alle x, y ∈ V ,

also Φ†Φx = x für alle x ∈ V

wegen der Definitheit von 〈 . 〉. �

Die Überlegungen vor Hauptsatz 2.69 (bis (2.101) ) gelten für allgemeine K-Vektorräume.Ausgenommen ist hier Bemerkung 2.66 und Beispiel 2(3). Hauptsatz 2.69 braucht dannK als Körper wegen der verwendeten Orthogonalität. Demnach:

Hauptsatz 2.69I Kern-Bild-Orthogonalität

Sei A ∈ K(m,n). Dann gilt:

(Kern A)⊥ = Bild A† bzw. Kern A = (Bild A†)⊥

und

(Kern A†)⊥ = Bild A bzw. Kern A† = Bild A⊥ .

Beweis: Es reicht, etwa die zweite Identität zu zeigen. Die Erste folgt dann durch Anwen-dung von ⊥ und Beachtung von U⊥⊥ = U für endlichdimensionale lineare Unterräume U.Die Vierte und damit die Dritte ergibt sich durch Anwendung der gezeigten Aussagen aufA†.A habe die Zeilen a(1), . . . , a(m), d. h. Bild A† = span(a(1), . . . , am).Wiederholung der Argumentation von Bemerkungen 1.98, 4) ergibt:

x ∈ (Bild A†

)⊥ ⇔ ⟨x . a(i)

⟩= 0 für i = 1, . . . , m

⇔ n∑j=1

ai, jx j =n∑

j=1x j

(a(i)

)j = 0 für i = 1, . . . , m ⇔ x ∈ Kern A .

Analog ist in Theorem 2.70 At durch A† zu ersetzen. Beispiel 3(5) wird ausgenommen, daSatz 2.72 schon zu seiner Formulierung die Ordnung (von R) braucht.

In Abschnitt 2.4.2 nehmen die Normalgleichungen die Gestalt

Page 37: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.3 Euklidische und unitäre Vektorräume 355

A†Ax = A†b

an und mit dieser durchgehenden Modifikation von At zu A† übertragen sich alle Überle-gungen zu Ausgleichsrechnung und Pseudoinversen. Dabei gilt der Isomorphiesatz 2.77allgemein für K-Vektorräume, sofern V unitär ist. Die dann folgende Darstellung desGauss-Verfahrens als Erzeugung einer LR-Zerlegung gilt in allgmeinen K-Vektorräumen,wenn man das bei der Darstellung der Elementarmatrizen verwendete dyadische Produktdurch das entsprechende Matrix-Vektor-Produkt ersetzt, d. h. (nur in diesem Zusammen-hang!) für a ∈ Kn, b ∈ Km setzt

a ⊗ b := abt .

Zudem braucht Theorem 1.112 und die vorangehenden Ausführen über das SchmidtscheOrthonormalisierungsverfahren wieder K = K.

Im Zusammenhang mit „Orthogonalität“ gilt somit folgende Übersetzungstabelle zwi-schen reellen und komplexen Vektorräumen:

reell (K = R) komplex (K = C)

a) 〈x . y〉 = (x . y) =∑i

xiyi 〈x . y〉 = ∑i

xiyi

Symmetrisch und Hermite-symmetrisch undlinear im zweiten Argument antilinear im zweiten Argument

‖x‖2 = ∑i

x2i ‖x‖2 = ∑

i|xi|2

b) Skalarprodukt (SKP), inneres Produkt inneres Produkteuklidischer Raum unitärer Raum

〈x ± y . x ± y〉 = ‖x‖2 + ‖y‖2 ± 2 〈x . y〉 〈x ± y . x ± y〉 = ‖x‖2 + ‖y‖2 ± 2 Re 〈x . y〉

c) a ⊗ b = abt für a ∈ Rm, b ∈ Rn a ⊗ b = abt

für a ∈ Cm, b ∈ Cn

d) A = (ai, j) ∈ K(m,n)

At := (a j,i)i, j At : (a j,i)i, j

Transponierte=Adjungierte TransponierteA† := A

t

Adjungierte〈Ax . y〉 = ⟨

x . Aty⟩ 〈Ax . y〉 =

⟨x . A†y

⟩orthogonal: A−1 = At unitär: A−1 = A†symmetrisch: A = At hermitesch: A = A†

e) wie d) für Φ ∈ HomR(V, W) e) wie d) für Φ ∈ HomC(V, W)

Page 38: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

356 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Inneres Produkt auf einem K-Vektorraum• Adjungierte A†• Unitäre K-Matrix, hermitesche K-Matrix

Zusammenhänge:

• Polarisationsformel ((3.23))

Aufgaben

Aufgabe 3.8 (T) Zeigen Sie: Die Normen ‖ . ‖1 und ‖ . ‖∞ auf Kn bzw. C([a, b],K) werdennicht durch ein inneres Produkt erzeugt.Hinweis: Gültigkeit der Parallelogrammgleichung.

Aufgabe 3.9 (K) Sei V ein K-Vektorraum mit innerem Produkt 〈 . 〉, ‖ . ‖ die erzeugteNorm. Zeigen Sie, dass 〈 . 〉 wie folgt durch die Norm ‖ . ‖ ausgedrückt werden kann:

a) 〈x . y〉 = 14 (‖x + y‖2 − ‖x − y‖2) für K = R,

b) 〈x . y〉 = 14 (‖x + y‖2 − ‖x − y‖2 + i‖x + iy‖2 − i‖x − iy‖2) für K = C.

Aufgabe 3.10 (T) Zeigen Sie Satz 3.22.

Aufgabe 3.11 (T) Zeigen Sie die komplexe Version der Sherman-Morrison-Formel

(A + u ⊗ u)−1 = A−1 − αu ⊗ A−†u .

Page 39: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.4 Der Quotientenvektorraum 357

3.4 Der Quotientenvektorraum

Oft liegen Objekte in Bezug auf eine spezifische Eigenschaft nicht eindeutig vor, so dassman zusammenfassend die entstehende Menge als neues Objekt auffassen möchte. Be-trachte man etwa ein lösbares LGS

Ax = b

mit Kern A � {0} und x als einer speziellen Lösung, so soll die Lösungsmenge

x + Kern A

ein solches Objekt in einem neuen Vektorraum sein.Andererseits beinhalten Vektoren oft mehr Informationen als die, an denen man inter-

essiert ist. Ein einfaches Beispiel könnte sein:

Beispiel 3.31 (Informationsreduzierung) Sei V = Rn und I ⊂ {1, . . . , n}. Zur Vereinfa-chung der Notation wird I = {1, . . . , k} für ein 1 < k ≤ n angenommen. Infolgedessen giltfür x ∈ V

x =(

x′

x′′

)mit x′ ∈ Rk, x′′ ∈ Rn−k .

Ist man nun an x′ interessiert, treten zwei Unterräume natürlich auf:

U := {x ∈ Rn : x′ = 0} , W := {x ∈ Rn : x′′ = 0} ,

wobei W = U⊥ bezüglich des euklidischen SKP gilt. Hier ist W der Raum der interessie-renden Informationen. Der Raum U kann dagegen zur Konstruktion eines W entsprechen-den (d. h. hier isomorphen) Raums genutzt werden. Dieser Raum ist zwar weniger „kon-kret“ als das obige W, die Konstruktion ist aber allgemein anwendbar. Der neue Raumlautet hier

V/U = {x + U : x ∈ V} ,dessen Elemente somit Mengen sind. Ein x + U ist demnach durch

y, y ∈ x + U ⇔ yi = yi für alle i ∈ I

gekennzeichnet, es werden also alle Vektoren mit gleicher „relevanter“ (und verschiedener„irrelevanter“) Information zusammengefasst. ◦Diese Konstruktion lässt sich für einen beliebigen Unterraum U durchführen:

Definition 3.32

Es sei U ⊂ V ein Untervektorraum des K-Vektorraums V . Wir definieren eine Rela-tion ’∼’ auf V durch

Page 40: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

358 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

x ∼ y ⇔ x − y ∈ U .

Der Begriff der Relation und die nachfolgend betrachteten Eigenschaften sind in Anhang A(Definition A.20) eingeführt worden.

Beispiel 3.33 Es sei U = R · (1, 1)t ⊂ R2. Dann haben wir(x1

x2

)∼

(y1

y2

)⇔

(x1 − y1

x2 − y2

)= c ·

(11

), c ∈ R

⇔ x1 − y1 = x2 − y2

⇔ x1 − x2 = y1 − y2 .

U V = R2

y

x

1

1

Abb. 3.2: Geraden mit fester Steigung als Äquivalenzklassen.

Die oben definierte Relation ’∼’ ist eine Äquivalenzrelation, d. h., sie hat die Eigenschaften

Reflexivität: x ∼ x für alle x ∈ V .Symmetrie: x ∼ y⇒ y ∼ x für alle x, y ∈ V .Transitivität: x ∼ y und y ∼ z⇒ x ∼ z für alle x, y, z ∈ V .

Beweis dieser drei Eigenschaften: Wegen x − x = 0 ∈ U ist die Reflexivität erfüllt. Wennx ∼ y, dann ist x−y ∈ U und auch y− x = −(x−y) ∈ U. Das beweist die Symmetrie. Undaus x ∼ y, y ∼ z folgt x − y ∈ U, sowie y − z ∈ U, folglich x − z = (x − y) + (y − z) ∈ U.Dies ist die Transitivität.

Jeder Vektor x ∈ V definiert seine Äquivalenzklasse

[x] := {u ∈ V : u ∼ x} = {u ∈ V : u − x ∈ U} = x + U .

Page 41: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.4 Der Quotientenvektorraum 359

Das ist der affine Unterraum x + U ⊂ V . Diese Äquivalenzklassen sind also Teilmengenvon V . Der Vektor x ∈ x + U heißt ein Repräsentant seiner Äquivalenzklasse x + U. InAnhang A (Lemma A.21) wird gezeigt, dass jedes y ∈ [x] die gleiche Äquivalenzklassehat: [y] = [x], d. h. alle Elemente von [x] sind auch seine Repräsentanten. In diesemkonkreten Fall folgt dies auch aus Lemma 1.56, 1).

Die Äquivalenzklassen [x] für die Relation nach Definition 3.32 werden auch Rest-klassen (zu x) genannt. Die Menge aller Restklassen [x], x ∈ V, bezeichnen wir mitV/U und nennen sie Quotientenraum oder Faktorraum (von V nach U).

Satz 3.34

Sei V ein K-Vektorraum, U ein Unterraum.

1) Die Vereinigung aller Äquivalenzklassen ist der gesamte Vektorraum V .

2) Der Durchschnitt zweier verschiedener Äquivalenklassen ist leer.

– Diese Aussagen gelten für beliebige Äquivalenzklassen. –

3) Auf der Menge V/U aller Restklassen kann man die Struktur eines K-Vektorraums definieren durch:

Addition: [x] + [y] = (x + U) + (y + U):= [x + y] = (x + y) + U für x, y ∈ V.

Multiplikation: c[x] = c · (x + U):= [cx] = (c · x) + U für x ∈ V, c ∈ K.

Insbesondere ist [0] das neutrale Element und [−x] das inverse Element zu [x].

Beweis: Der Beweis von 1) und 2) erfolgt in Anhang A, Satz A.22.3) Addition (und Multiplikation) der Restklassen sind repräsentantenweise definiert. Es

ist zuerst zu zeigen, dass die Definition von der Wahl des Repräsentanten in der Restklasseunabhängig ist, und damit überhaupt erst sinnvoll. Seien also x′ ∈ x + U und y′ ∈ y + Uweitere Repräsentanten. Dann ist x′ = x + u1, y′ = y + u2 mit u1, u2 ∈ U. Daraus folgt

(x′ + y′) + U = (x + u1 + y + u2) + U = (x + y) + (u1 + u2 + U) = (x + y) + U.

Das zeigt, dass die Addition nur von der Restklasse und nicht vom Repräsentanten ab-hängt. Der Beweis bei der Multiplikation geht analog. Jetzt müssten eigentlich für die sodefinierte Addition und Multiplikation auf der Menge V/U die Vektorraum-Eigenschaftennachgewiesen werden. Aber aus ihrer Gültigkeit für die Repräsentanten von Restklassenfolgen sie auch für die Restklassen. �

Page 42: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

360 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Satz 3.35

Die Restklassenabbildung

Ψ : V → V/U, x �→ x + U

ist K-linear und surjektiv. Ihr Kern ist der Unterraum U.

Beweis: Dass die Abbildung K-linear ist, ist nur eine Umformulierung dessen, dass dieVektorraum-Operationen auf V/U repräsentantenweise definiert sind. Der Nullvektor imQuotientenraum V/U ist die Restklasse 0 + U = U. Der Kern der Restklassenabbildungist deswegen die Menge aller x ∈ V mit x + U = U, d. h. x ∈ U. Die Surjektivität istoffensichtlich. �

Theorem 3.36: Dimensionsformel III

Ist V endlichdimensional, so hat der Quotientenraum die Dimension

dim V/U = dim V − dim U .

Beweis: Weil die Restklassen-Abbildung surjektiv ist, folgt dies aus der Dimensionsfor-mel I Theorem 2.32. �

Theorem 3.37: Homomorphiesatz II

V und W seien K-Vektorräume und Φ : V → W sei K-linear. Dann ist die Abbildung

X : V/ KernΦ→ W , x + Kern Φ �→ Φ(x)

wohldefiniert, linear und injektiv, also gibt es einen „kanonischen“ Isomorphismus

V/ KernΦ→ Bild Φ , x + Kern Φ �→ Φ(x).

Beweis: Die AbbildungX ist schon in Anhang A (Theorem A.23) definiert für eine allge-meine Abbildung f , da hier im linearen Fall

x1 ∼ x2 ⇔ Φx1 = Φx2 ⇔ x1 − x2 ∈ Kern Φ .

Es ist nun nur noch die Linearität von X zu prüfen:

X([x] + [y]) = X([x + y]) = Φ(x + y) = Φx + Φy = X([x]) +X([y])

Page 43: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.4 Der Quotientenvektorraum 361

und analog X(λ[x]) = λX[x]

KernX = {0} : [x] ∈ KernX ⇔ Φx = 0 ⇔ x ∈ KernΦ ⇔ [x] = 0 . �

Den Isomorphismus aus Theorem 3.37 kann man in die lineare Abbildung Φ „einschie-ben“, man sagt auch Φ faktorisiert vermöge Φ = X ◦ Ψ , d. h.

Φ : V → V/ KernΦ ∼→ Bild Φ ⊂ W.

Mit anderen Worten: Das DiagrammV W

Φ

V/U

X injektivΨ surjektiv

ist kommutativ.

Bemerkungen 3.38

1) Aus Theorem 3.36 und Theorem 3.37 ergibt sich die in Theorem 2.32 anders hergelei-tete Dimensionsformel I:

dim Kern Φ + dim Bild Φ = dim V

für Φ ∈ HomK(V, W) und endlichdimensionales V , denn

dim Bild Φ = dim V/ KernΦ = dim V − dim Kern Φ .

In diesem Sinn sind die beiden Dimensionsformeln I und III äquivalent.

2) Für endlichdimensionale Vektorräume V gibt es bei einem Unterraum U eine Analogiezwischen V/U und der Ergänzung von U (durch Ergänzung einer Basis von U zu einerBasis von V) mit einem Unterraum W, so dass

U ⊕W = V .

In beiden Fällen gilt die Dimensionsformel

dim U + dim V/U = dim V bzw. dim U + dim W = dim V .

3) Wenn V ein endlichdimensionalerR-Vektorraum mit SKP ist, dann gilt: Die AbbildungΦ : V → W definiert durch Einschränkung einen Isomorphismus

ϕ = Φ|(KernΦ)⊥ : (KernΦ)⊥ → Bild Φ.

Die Restklassenabbildung Ψ : V → V/ KernΦ definiert durch Einschränkung eine lineareAbbildung

Page 44: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

362 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

(KernΦ)⊥ → V/ KernΦ.

Wegen (KernΦ)⊥ ∩ Kern Φ = {0} ist diese injektiv. Weil beide Räume nach 2) dieselbeDimension haben, ist sie auch surjektiv, sie ist also ein Isomorphismus. Man kann sich inÜbereinstimmung mit 2) den Unterraum (KernΦ)⊥ ⊂ V als eine andere Realisierung desQuotientenraums V/ KernΦ vorstellen.Für das Beispiel 3.31 (Informationsreduzierung) erhalten wir daher

dim V/U = n − dim U = n − (n − k) = k = dim W

und damit sind tatsächlich V/U und W isomorph. �Das folgende Beispiel ist nur das Beispiel 3.31 (Informationsreduzierung) in anderem Ge-wande:

Beispiel 3.39 (Unterbestimmte Polynominterpolation) Sei V = Rn−1[x], d. h. die Men-ge der Polynome maximal (n − 1)-ten Grades auf R, und es seien Stützstellen

t1 < t2 < . . . < tn−k

für k ∈ −N ∪ {0, . . . , n − 1} gegeben. Ist k = 0, ist die Interpolationsaufgabe (siehe Be-merkung 2.34) an den Stützstellen eindeutig lösbar. Ist k < 0, wird im Allgemeinen keineLösung vorliegen und man wird daher zum Ausgleichsproblem übergehen müssen (sieheBeispiel 2.75 und Beispiel 2.74). Für k > 0, d. h. der unterbestimmten Interpolationsauf-gabe, liegt keine eindeutige Lösung vor.

Um die Lösungen zu Restklassen zusammenzufassen, definieren wir den Unterraum Uvon V durch

U := {g ∈ V : g(ti) = 0 für i = 1, . . . , n − k} .Dann gilt für [ f ] ∈ V/U

f ∈ [ f ] ⇔ f (ti) = f (ti) für i = 1, . . . , n − k ,

d. h. [ f ] ist gerade die Lösungsmenge zu den Werten f (t1), . . . , f (tn−k).Um dim U zu bestimmen ergänzen wir die Stützstellen beliebig um tn−k+1, . . . , tn, so

dass alle Stützstellen paarweise verschieden sind. Eine Basis von U ist dann durch

gn−k+1, . . . , gn ∈ U

gegeben, die als eindeutige Lösung der Interpolationsaufgabe

gi(t j) = 0 für j = 1, . . . , n − k,gi(t j) = δi j für j = n − k + 1, . . . , n

definiert werden. Dann gilt nämlich wegen der eindeutigen Lösbarkeit der Interpolations-aufgabe in Rn−1[x] zu den Stützstellen t1, . . . , tn (siehe Bemerkung 2.34) für g ∈ U:

Page 45: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.4 Der Quotientenvektorraum 363

g =n∑

i=n−k+1αigi ⇔ g(t j) =

(n∑

i=n−k+1αigi

)(t j) für alle j = 1, . . . , n

⇔ g(t j) = α j für alle j = n − k + 1, . . . , n ,

d. h. {gn−k+1, . . . , gn} ist eine Basis von U. Nach Theorem 3.36 gilt also

dim V/U = dim V − dim U = n − k . ◦Oft ist es notwendig, auch unendlichdimensionale Vektorräume zu betrachten, insbeson-dere in der Analysis:

*Beispiele 3.40

1) Als Beispiel betrachten wir den R-Vektorraum V der auf einem Intervall [a, b] ⊂ R

Riemann-integrierbaren Funktionen. Für je zwei Funktionen f , g ∈ V ist auch ihr Produktf · g auf [a, b] Riemann-integrierbar (z. B. Forster 2008, §18, Satz 6c). Deswegen istfür f , g ∈ V

( f . g) :=∫ b

af (x)g(x)dx

wohldefiniert. In Bemerkung 1.90 wurde diese Form auf dem Raum der stetigen Funktio-nen C([a, b],R) als SKP eingeführt. In dem hier betrachteten größeren Funktionenraumgelten weiterhin Symmetrie und Bilinearität, aber es fehlt die Definitheit: Aus

( f . f ) =∫ b

af (x)2dx = 0

folgt nicht f ≡ 0. Deswegen ist

‖ f ‖ :=

√∫ b

af (x)2dx

auch keine Norm auf V , sondern eine sogenannte Halbnorm.

2) Es sei f ∈ V mit ‖ f ‖ = 0. Dann ist ( f . g) = 0 für alle g ∈ V .Wir betrachten die reelle Funktion

q(c) := ( f + cg . f + cg) = ( f . f ) + 2c ( f . g) + c2 (g . g) , c ∈ R .

Es ist q(c) ≥ 0 und q(0) = ( f . f ) = 0. Daher nimmt das quadratische Polynom q in c = 0 ein Minimum anund es gilt

ddc

q(c)∣∣∣∣∣c=0= 2 · ( f . g) = 0 .

3) Die Menge aller Funktionen f ∈ V mit ‖ f ‖ = 0 bildet einen Untervektorraum U ⊂ V .Wegen ‖c f ‖ = |c|‖ f ‖ für c ∈ R ist mit f ∈ U auch c f ∈ U. Seien nun f1 und f2 ∈ U. Dann ist

‖ f1 + f2‖2 = ( f1 . f1) + 2 ( f1 . f2) + ( f2 . f2) = 0

Page 46: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

364 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

wegen 2), folglich gehört auch f1 + f2 wieder zu U.

4) Wir betrachten den Quotientenvektorraum V/U und schreiben seine Elemente, dieRestklassen, als

[g] := g + U .

Wenn gi1, g

i2 für i = 1, 2 Funktionen in derselben Restklasse sind, dann ist(

g11 . g1

2

)−

(g2

1 . g22

)=

(g1

1 . g12 − g2

2

)−

(g2

1 − g11 . g2

2

)= 0, da g1

2 − g22, g2

1 − g11 ∈ U .

Deswegen können wir auf dem Quotientenraum V/U

([g1] . [g2]) := (g1 . g2)

repräsentantenweise definieren, die Zahl ([g1] . [g2]) ist unabhängig von der Auswahl derRepräsentanten in [g1] und [g2] ∈ V/U. Weil ([g1] . [g2]) repräsentantenweise definiert ist,ist dieses Produkt weiterhin symmetrisch und bilinear, und hier gilt auch die Definitheit:Sei [g] ∈ V/U mit ([g] . [g]) = 0. Nach Definition ist dann g ∈ U und [g] = 0. Insbesonderewird durch

‖[g]‖ :=√

([g] . [g])

eine Norm auf dem Quotientenraum V/U definiert.Damit der Funktionenraum mit dem SKP ( . ) bzw. der erzeugten Norm ‖ . ‖weitere positive Eigenschaftenhat (insbesondere die Vollständigkeit: siehe Abschnitt 7.1), wird in der Analysis im Allgemeinen statt derRiemann-Integration der allgemeinere Begriff der Lebesgue4-Integration verwendet. Die obige Form( . ) ist dann für Funktionen f wohldefiniert, für die | f |2 (Lebesgue-) integrierbar ist. Dieser Raum wirdfür K-wertige Funktionen als

L2([a, b],K),

der Raum der quadratintegrierbaren Funktionen, bezeichnet. Auch hier muss (implizit) die obige Quoti-entenbildung gemacht werden, damit durch (1.61) bzw. (1.64) auf L2([a, b],K

)ein SKP bzw. eine Norm

gegeben wird.

◦Zur weiteren Behandlung unendlichdimensionaler Räume verallgemeinern wir Theo-rem 3.36:

*Satz 3.41

Sei V ein K-Vektorraum, U ⊂ V ein Unterraum. Sei [ui : i ∈ I] eine Basis von U,[u j + U : j ∈ J] eine Basis von V/U, dann ist B := [ui, u j : i ∈ I, j ∈ J] eine Basisvon V . Insbesondere gibt es also zu U einen Unterraum W (W := span{u j : j ∈ J}),so dass U ⊕W = V .

4 Henri Léon Lebesgue ∗28. Juni 1875 in Beauvais †26. Juli 1941 in Paris

Page 47: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.4 Der Quotientenvektorraum 365

Beweis: Sei u ∈ V beliebig, dann existiert ein endliches J′ ⊂ J und a j ∈ K für j ∈ J′, sodass

u + U =∑j∈J′

a j(u j + U) =

⎛⎜⎜⎜⎜⎜⎜⎝∑j∈J′

a ju j

⎞⎟⎟⎟⎟⎟⎟⎠ + U ⇔ u −∑j∈J′

a ju j ∈ U . (3.27)

Damit gibt es ein endliches I′ ∈ I und bi ∈ K für i ∈ I′, so dass

u −∑j∈J′

a ju j =∑i∈I′

biui .

Demnach ist B ein Erzeugendensystem von V .Sei andererseits

0 =∑j∈J′

a ju j +∑i∈I′

biui (3.28)

für endliche J′ ⊂ J, I′ ⊂ I und a j, bi ∈ K. Dann ist 0 − ∑j∈J′

a ju j ∈ U und nach (3.27)

folglich

0 + U =∑j∈J′

a j(u j + U) .

Wegen der linearen Unabhängigkeit der u j + U ist a j = 0 für j ∈ J′ und damit aus (3.28)wegen der linearen Unabhängigkeit der ui auch bi = 0 für i ∈ I′. Damit ist B linearunabhängig. �

Der Vorteil des Faktorraums liegt darin, dass er auch bei unendlichdimensionalem Grund-raum gebildet werden kann. Insofern ist eine Verallgemeinerung von (1.51) in Bemerkun-gen 1.84 (siehe Bemerkungen 3.38, 2)):

*Definition 3.42

Sei V ein K-Vektorraum und U ⊂ V ein Unterraum. Dann heißt dim V/U die Kodi-mension von U, geschrieben codim U. Ist codim U = 1, so heißt U eine Hyperebene.

Sei U eine Hyperebene in einem im Allgemeinen unendlichdimensionalen Vektorraum,d. h. V/U = span(w + U) für ein w � U. Dann gilt

U ∩ span(w) = {0}, U + span(w) = V,

da für beliebiges u ∈ V

u + U = λw + U für ein λ ∈ K, also u − λw = u für ein u ∈ U .

Insgesamt gilt somit:

Page 48: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

366 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Falls dim V/U = 1, existiert ein w ∈ V , so dass

U ⊕ Kw = V , (3.29)

wie im endlichdimensionalen Fall.

Ist allgemein dim V/U = k, dann gibt es w1, . . . ,wk ∈ V , so dass

U ⊕ span(w1, . . . ,wk) = V ,

da für eine Basis w1 + U, . . . ,wk + U von V/U und für u ∈ V gilt

u + U =k∑

i=1

λiwi + U und damit u ∈ U + span(w1, . . . ,wk) .

Ist andererseitsk∑

i=1λiwi ∈ U, dann ist

k∑i=1

λi(wi + U) = U = 0 + U und somit λ1 = . . . = λk = 0 .

Es gilt weiter:

*Satz 3.43

Seien V ein K-Vektorraum und U ⊂ V ein Unterraum. Ist codim U = k ∈ N, danngibt es Hyperebenen Wj, j = 1, . . . , k, so dass

U =k⋂

j=1

W j .

Beweis: Seien {u1 + U, . . . , uk + U} eine Basis von V/U und

V j := span(u1, . . . , u j−1, u j+1, . . . , uk), W j := span(U ∪ V j).

Dann ist W j = U + V j = U ⊕ V j, da

k∑i=1,i� j

λiui ∈ U ⇒k∑

i=1,i� j

λi(ui + U) = U ⇒ λi = 0 für i � j .

Somit ist

V/Wj = span(u j + (U + V j)

).

Page 49: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.4 Der Quotientenvektorraum 367

Denn wegen Satz 3.41 lässt sich ein beliebiges u ∈ V schreiben als

u = u +k∑

i=1

μiui mit einem u ∈ U und μ1, . . . , μk ∈ K ,

und dann sind äquivalent:

w ∈ u + U + V j ⇔ w ∈ u +∑i� j

λiui + U ⇔

w −∑i� j

λiui ∈k∑

i=1

μiui + U ⇔ w ∈ μ ju j + U + V j = μ j(u j + U + V j) .

Offensichtlich gilt weiter für die Hyperebenen W j

k⋂j=1

W j = U. �

In Vorgriff auf Definition 3.46 sind daher Hyperebenen Kerne von nicht trivialen Linear-formen ϕ, d. h. ϕ ∈ V∗:

*Satz 3.44

Sei V ein K-Vektorraum, U ⊂ V ein Unterraum.

1) Sei ϕ ∈ V∗, ϕ � 0, dann ist

codim Kern ϕ = 1 .

2) Ist codim U = 1, dann existiert ein ϕ ∈ V∗, ϕ � 0, so dass

U = Kernϕ .

3) Ist codim U = k ∈ N, dann gibt es ϕi ∈ V∗, i = 1, . . . , k, ϕi � 0, so dass

U =k⋂

i=1

Kernϕi .

Beweis: Zu 1): Folgt sofort aus Theorem 3.37, da dimK Bild ϕ = dimK K = 1.Zu 2): Nach (3.29) gilt

U ⊕ Kw = V

und damit ist ϕ : V → K durch

Page 50: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

368 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

ϕ(U + λw) := λ

wohldefiniert und ϕ ∈ V∗, für das gilt

Kernϕ = U .

Zu 3): Folgt sofort aus 2) und Satz 3.43. �

Man betrachte als

*Beispiel 3.45 V = C([a, b],R) und ϕ ∈ V∗, definiert durch ϕ( f ) :=∫ b

a f (s)ds. Dadurcherfüllt

[g] ∈ V/ Kernϕ gerade g ∈ [g]⇔∫ b

ag(s)ds =

∫ b

ag(s)ds .

Nach Satz 3.44, 1) ist

dim V/ Kernϕ = 1 .

Durch Übergang zum Quotientenraum wird deswegen genau ein Freiheitsgrad „heraus-genommen“. Das bietet sich bei Betrachtung eines Problems (z. B. einer Differentialglei-chung) an, bei dem die Lösungen nur bis auf eine Konstante bestimmt sind. ◦

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Äquivalenzrelation• Quotientenraum, Restklassen• Kodimension (bei unendlichdimensionalem Grundraum)

Zusammenhänge

• Dimensionsformel III (Theorem 3.36)• Homomorphiesatz II (Theorem 3.37)

Beispiele

• Informationsreduktion durch Restklassenbildung• Definitheit des L2-Skalarprodukts ((1.61)) durch Restklassenbildung

Aufgaben

Aufgabe 3.12 (T) Es sei V ein K-Vektorraum mit einer Basis u1, . . . , un und U ⊂ V dervon u1+ . . .+un erzeugte Unterraum. Bestimmen Sie eine Basis des Quotientenraums V/U.

Page 51: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Aufgaben 369

Aufgabe 3.13 (T) Es seien U, U ′ lineare Teilräume eines Vektorraums V undx, x′ ∈ V . Man zeige:

x + U ⊂ x′ + U ′ ⇐⇒ U ⊂ U′ und x′ − x ∈ U ′.

Aufgabe 3.14 (K) Sei U ⊂ R4 der Untervektorraum des R4, der von den Vektoren u1 =

(1, 2,−1, 1)t und u2 = (−1,−2, 1,−2)t erzeugt wird, und V ⊂ R4 der Untervektorraum desR4, der von u1 = (1, 2,−1,−2)t, u2 = (−1, 3, 0,−2)t und u3 = (2,−1,−1, 1)t erzeugt wird.Zeigen Sie, dass U ein Untervektorraum von V ist, und geben Sie eine Basis des RaumsV/U an.

Aufgabe 3.15 (K) Es sei V der R-Vektorraum aller Funktionen f : R → R und U dieTeilmenge

{ f : R→ R : f (0) = 0} ⊂ V .

a) Zeigen Sie: U ⊂ V ist ein Untervektorraum.b) Geben Sie einen Isomorphismus V/U → R an.

Page 52: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

370 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.5 Der Dualraum

Definition 3.46

Sei V ein K-Vektorraum. Eine lineare Abbildung

ϕ : V → K

von V in den Grundkörper K heißt Linearform. Der Vektorraum HomK(V, K) derLinearformen auf V heißt der Dualraum V∗ von V .

Für ϕ ∈ V∗, ϕ � 0 gilt:

Bild ϕ = K ,

da K nur die K-Unterräume {0} und K besitzt. Nach Satz 3.44, 1) ist somit dim V/ Kernϕ =1. Daher beschreibt ein ϕ ∈ V∗, ϕ � 0, gerade einen „Freiheitsgrad“, der n Freiheitsgradevon V (falls V n-dimensional ist) bzw. der unendlich vielen Freiheitsgrade von V (falls Vunendlichdimensional ist).

Beispiele 3.47

1) Sei V der Raum Kn der Spaltenvektoren x = (x1, . . . , xn)t, xk ∈ K. Die i-te Koordina-tenfunktion

ϕi : x �→ xi (3.30)

ist eine Linearform auf V . Man kann ϕi auch schreiben als Matrizenprodukt

ϕi(x) = xi = (0, . . . , 0, 1, 0, . . . , 0)

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝x1...

xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠des Zeilenvektors et

i = (0, . . . , 0, 1, 0, . . . , 0) mit x ∈ Kn. Allgemeiner definiert

jeder Zeilenvektor at = (a1, . . . , an) auf V eine Linearform ϕ

x �→ at · x = (a1, . . . , an) ·⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

x1...

xn

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠ =n∑1

akxk . (3.31)

Es ist at · x = ∑n1 akxk =

∑n1 akϕk(x) und ai = at

i · ei = ϕ(ei). Andererseits hat jedes ϕ ∈ V∗die Form (3.31) mit ai := ϕ(ei), denn

Page 53: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.5 Der Dualraum 371

ϕ(x) = ϕ

⎛⎜⎜⎜⎜⎜⎝ n∑i=1

xiei

⎞⎟⎟⎟⎟⎟⎠ = n∑i=1

ϕ(ei)xi = at · x .

2) Konkretisierungen von 1) sind mit 1t = (1, . . . , 1)

ϕ(x) =n∑

i=1

xi = 1t · x (die Summe, siehe Mathematische Modellierung 2),

und für K = K

ϕ(x) =1n

n∑i=1

xi =1n

1t · x (das arithmetische Mittel, siehe Bemerkung 2.66).

3) Sei V = C([a, b],R), d. h. ein unendlichdimensionalerR-Vektorraum. Analog zu (3.30)sind die Punktfunktionale

ϕt : f �→ f (t) für t ∈ [a, b]

Elemente aus V∗. Daraus lässt sich zum Beispiel die näherungsweise Integralformel ausBemerkung 2.30 durch Linearkombination zusammensetzen, nicht aber (auf dem ganzenRaum V) das Beispiel

ϕ : f �→∫ b

af (s)ds . (3.32)

Dies geht nur mit einem Grenzprozess, erinnert man sich an die Definition des (Rie-mann-)Integrals. ◦Wir betrachten wieder V = Kn und die Koordinatenfunktionen ϕk. Durch a �→ ∑n

1 akϕk

wird eine Abbildung von V nach V∗ definiert, die auch linear ist, d. h. ein

FV ∈ HomK(V, V∗) .

Identifizieren wir FV (a) mit der darstellenden Zeile at, bedeutet diese Vorgehensweise:

Die Transposition von (Spalten-)Vektoren aus Kn erzeugt einen linearen Isomorphis-mus

FV : Kn → (Kn)∗, a �→ at .

Nach Beispiele 3.47, 1) ist FV surjektiv. Wegen dim(Kn)∗ = dim HomK (V, K) = n · 1 = n nach Theo-rem 2.24 ist also FV nach Hauptsatz 2.31 ein Isomorphismus von Kn nach (Kn)∗.

Analog kann man vorgehen, wenn V ein euklidischer Vektorraum mit innerem Produkt〈 . 〉 ist. Dann wird für festes a ∈ V durch

x �→ 〈x . a〉

Page 54: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

372 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

eine lineare Abbildung auf V mit Werten in R, d. h. ein Element ϕa ∈ V∗, definiert. Weiterist die Abbildung

a �→ ϕa

auch linear, somit ein FV ∈ HomR(V, V∗). FV ist injektiv, da

ϕx = 0 ⇒ 〈x . x〉 = ϕx(x) = 0 ⇒ x = 0 .

Ist V endlichdimensional, dann ergibt sich identisch zur obigen Überlegung, dass FV einIsomorphismus ist. Damit gilt:

Theorem 3.48: Riesz5scher Darstellungssatz, 1.Version

Sei (V, 〈 . 〉〉 ein endlichdimensionaler euklidischer Raum. Sei ϕ ∈ V∗. Dann gibt esein eindeutiges a ∈ V , so dass

ϕ(x) = 〈x . a〉 für alle x ∈ V .

Die Zuordnung a �→ 〈. . a〉 ist ein Isomorphismus von V nach V∗.

Bemerkungen 3.49

1) Ist V ein unitärer Raum (K = C), so kann genauso vorgegangen werden, nur dassdann FV antilinear ist. Die dann auch gültige Tatsache, dass FV ein Isomorphismus ist,muss anders bewiesen werden. Theorem 3.48 gilt daher auch für K = C und, falls mansich auf stetige, lineare Funktionale beschränkt, auch für gewisse unendlichdimensionaleVektorräume (die bezüglich der erzeugten Norm vollständig, d. h. Hilbert-Räume6 sind:siehe Abschnitt 7.3.1 oder (Funktional-)Analysis).

2) Für einen endlichdimensionalen euklidischen Raum (V, 〈 . 〉) ist demnach ϕ(x) =〈x . a〉 die allgemeine Gestalt für ein ϕ ∈ V∗. Wegen |ϕ(x)| ≤ ‖x‖ ‖a‖ in der erzeugtenNorm ‖ . ‖ und

ϕ(a) = ‖a‖2 , ϕ(−a) = −‖a‖2

ist deswegen a [−a] die Richtung des steilsten Anstieges [Abstieges] von ϕ bezogen aufden Anfangspunkt 0 und damit auf einen beliebigen Anfangspunkt.

*3) Da zu jedem Vektorraum der Dualraum V∗ gebildet werden kann, kann auch

V∗∗ := (V∗)∗, der Bidualraum,

5 Frigyes Riesz ∗22. Januar 1880 in Gyor †28. Februar 1956 in Budapest6 David Hilbert ∗23. Januar 1862 in Königsberg (Preußen) †14. Februar 1943 in Göttingen

Page 55: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.5 Der Dualraum 373

betrachtet werden. Es gibt eine natürliche lineare Einbettung

E : V → V∗∗

u �→ ψu ,

wobei ψu ∈ V∗∗ das zu u gehörige Auswertungsfunktional ist, definiert durch

ψu(ϕ) = ϕ(u) für ϕ ∈ V∗ .

E ist injektiv, da

ψu = 0 ⇔ ϕ(u) = 0 für alle ϕ ∈ V∗ ⇔ u = 0 .

In der letzten Äquivalenz beachte man für „⇒“: Wäre u � 0, dann lässt sich V nachSatz 3.41 schreiben als V = Ku ⊕ V und damit ein ϕ ∈ V∗ definieren, so dass ϕ � 0 durchϕ(u) = 1, ϕ|V = 0. Folglich ist immer

dim V ≤ dim V∗∗ .

Ist V unendlichdimensional, ist E i. Allg. nicht surjektiv. Ist aber V endlichdimensional,dann ist E immer ein Isomorphismus wegen

dim V = dim V∗ = dim V∗∗ . (3.33)

Identifiziert man auf dieser Basis V und V∗∗, bedeutet dies die Gleichsetzung von u ∈ Vund dem Auswertungsfunktional ϕ �→ ϕ(u) ∈ V∗∗. Ist (V, 〈 . 〉) ein endlichdimensionalerRaum, so gilt

E(u)ϕ = ϕ(u) = 〈u . a〉für ϕ = 〈. . a〉 ∈ V∗. �

Satz 3.50: Dualbasis

Sei V ein n-dimensionaler K-Vektorraum. Sei u1, . . . , un ∈ V eine Basis. Dann gibtes Linearformen ϕ1, . . . , ϕn ∈ V∗, eindeutig bestimmt durch die Eigenschaft

ϕi(uk) = δi,k . (3.34)

Die Linearformen ϕ1, . . . , ϕn bilden eine Basis von V∗, die sogenannte Dualbasis zurBasis u1, . . . , un ∈ V .

Beweis: Durch (3.34) werden ϕi ∈ V∗ eindeutig definiert nach Hauptsatz 2.23. Für ϕ ∈ V∗gilt:

Page 56: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

374 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

ϕ =

n∑i=1

αiϕi ⇔ ϕ(u j) =n∑

i=1

αiϕi(u j) ⇔ ϕ(u j) =n∑

i=1

αiδi, j = α j für alle j = 1, . . . , n .

Damit ist jedes ϕ ∈ V∗ eindeutig als Linearkombination der ϕi darstellbar, mit

ϕ =n∑

i=1ϕ(ui)ϕi , (3.35)

d. h. {ϕ1, . . . , ϕn} ist Basis von V∗. �

Für u ∈ V, u =∑n

j=1 α ju j gilt sodann ϕi(u) = αi, d. h.

u =n∑

j=1ϕi(u)u j . (3.36)

Das i-te Element der dualen Basis ordnet gerade den Koeffizient zum i-ten Basisvektor zu,beschreibt also in diesem Sinn – bei gegebener Basis u1, . . . , un – den i-ten Freiheitsgrad .

Beispiele 3.51

1) Für V = S 0(Δ) oder V = S 1(Δ) oder V = Rn−1[x] liegen mit den Treppen- bzw.Hut- bzw. den Lagrangeschen Basispolynomen (siehe (1.27) bzw. (1.37) bzw. (2.31))Basisfunktionen fN , . . . , fN vor, die für feste Stützstellen ti, i = N, . . . , N, erfüllen:

fi(t j) = δi, j für i, j = N, . . . , N .

(Bei S 0(Δ) : N = 0, N = n − 1 etc.) Für f ∈ V sind infolgedessen die eindeutigenKoeffizienten, so dass

f =N∑

i=N

αi fi , durch αi = f (ti) definiert.

Daher ist die zugehörige duale Basis jeweils gegeben durch

ϕi( f ) := f (ti) für f ∈ V ,

d. h. durch das zur Stützstelle gehörige Punktfunktional. Bei diesen Basen sind also dieFunktionswerte an den Stützstellen die Freiheitsgrade.

2) Für V = Rn−1[x], nun aber mit der Monombasis

fi(t) := ti , i = 0, . . . , n − 1,

ergibt sich für die duale Basis

ϕi( f ) :=1i!

di

dti f |t=0 , i = 0, . . . , n − 1 ,

Page 57: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.5 Der Dualraum 375

Hier bezeichnet der Ausdruck auf der rechten Seite bis auf den Faktor 1i! die Auswertung

der i-ten Ableitung bei t = 0. Denn es ist

ϕi( f j) =1i!

di

dti (t j)|t=0 =

⎧⎪⎪⎨⎪⎪⎩1 für i = j0 für i � j .

3) Die Darstellung eines beliebigen Funktionals ϕ ∈ V∗ nach (3.35) nimmt für Beispiel 1)die folgende Form an:

ϕ( f ) =n∑

i=1

ϕ( fi) f (ti) .

Für ϕ nach (3.32) erhalten wir die auf den jeweiligen Räumen exakten Quadraturformeln(siehe Bemerkung 2.30).

4) Für Beispiel 2) nimmt (3.35) die Form

ϕ( f ) =n−1∑i=0

ϕ( fi)1i!

di

dti f |t=0 (3.37)

an. Sei t ∈ [a, b] beliebig, fest gewählt. Für ϕ ∈ V∗, definiert durch

ϕ( f ) = f (t) ,

ist dann (3.37) die für Polynome (n − 1)-ten Grades exakte Taylor7-Entwicklung derStufe n − 1 um t = 0, ausgewertet bei t.Für ϕ nach (3.32) ergibt sich eine Darstellung der auf Rn−1[x] exakten Quadraturformelnmit bei t = 0 konzentrierten Freiheitsgraden.

5) Sei V ein n-dimensionaler unitärer Raum mit ONB u1, . . . , un. Das innere Produkt wer-de mit 〈 . 〉 bezeichnet. Da dann gilt

u =n∑

i=1

〈u . ui〉 ui .

Die duale Basis zu u1, . . . , un ist folglich gegeben durch

ϕi(u) := 〈u . ui〉 füri = 1, . . . , n .

Beachtet man die durch Theorem 3.48 (vorläufig für K = R) gegebene Identifizierung vonV und V∗, ist also die duale Basis wieder die Ausgangsbasis.

6) Sei V ein n-dimensionaler unitärer Vektorraum mit Basis u1, . . . , un und ϕ1, . . . , ϕn seidie dazugehörige duale Basis. Seien w1, . . . ,wn ∈ V , die eindeutigen Darstellungen vonϕ1, . . . , ϕn nach Theorem 3.48. Dann gilt:

7 Brook Taylor ∗18. August 1685 in Edmonton †29. Dezember 1731 in Somerset House

Page 58: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

376 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen⟨ui .w j

⟩= δi, j = 1, . . . , n ,

d. h. {u1, . . . , un} und {w1, . . . ,wn} sind biorthogonal (siehe Bemerkungen 1.98, 5)). ◦

Definition 3.52

Seien V, W endlichdimensionale K-Vektorräume. Jedes Φ ∈ Hom(V, W) definierteine duale Abbildung in Hom(W∗, V∗)

Φ∗ :{

W∗ → V∗ϕ �→ ϕ ◦Φ .

In Symbolen:

V WΦ

K

ϕ ∈ W∗Φ∗ϕ = ϕ ◦Φ

Bemerkung 3.53 Insbesondere kann auch

Φ∗∗ : V∗∗ → W∗∗

gebildet werden. Sind V, W endlichdimensional und V∗∗, W∗∗ mit ihnen identifiziert nachBemerkungen 3.49, 2), dann gilt auch im Sinne dieser Identifizierung

Φ∗∗ = Φ ,

da für Φ∗∗ dann gilt: ϕu �→ ϕΦ(u). �Sind V und W endlichdimensionale unitäre Vektorräume, dann gibt es nach Theorem 3.48(vorerst nur K = R) die Darstellungsisomorphismen

FV : V → V∗ , u �→ 〈 . u〉 ,FW : W → W∗ , w �→ 〈 .w〉

(in der Notation der inneren Produkte wird nicht unterschieden).Etwa für ein ϕ ∈ W∗ ist somit F−1

W (ϕ) ∈ W der darstellende Vektor, d. h.

ϕ(w) =⟨w . F−1

W (ϕ)⟩

.

Sei ϕ ∈ W∗ beliebig. Aus Φ∗(ϕ)(u) = ϕ(Φ(u)) für alle u ∈ V folgt

Φ∗(ϕ)(u) =⟨Φ(u) . F−1

W (ϕ)⟩⇒

⟨u . F−1

V Φ∗(ϕ)⟩=

⟨Φ(u) . F−1

W (ϕ)⟩

Page 59: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.5 Der Dualraum 377

und damit ⟨(F−1

V Φ∗FW )(w) . u⟩= 〈w . Φ(u)〉

für w := F−1W (ϕ) ∈ W, das beliebig ist, da ϕ ∈ W∗ beliebig ist, und alle u ∈ V .

Vergleich mit Definition 2.60 zeigt, dass demnach

F−1V Φ∗FW = Φt (3.38)

bzw. Φ∗ ◦ FW = FV ◦Φt. (3.38) lässt sich äquivalent (und suggestiver) ausdrücken durch:

Satz 3.54: duale↔ adjungierte Abbildung

Seien V und W endlichdimensional unitäre Vektorräume, Φ ∈ Hom(V, W). SeiFV : V → V∗ der Isomorphismus nach Theorem 3.48 und analog FW . Dann istdas folgende Diagramm kommutativ:

V WΦt

W∗V∗

FWFV

Φ∗

Identifiziert man daher einen euklidischen Raum V mittels FV mit V∗, so sind Φt und Φ∗identisch.

Satz 3.55: Darstellung von Φ∗ mit Dualbasis

Sei V ein m-dimensionaler und W ein n-dimensionaler K-Vektorraum. Es seien Ba-sen

u1, . . . , um ∈ V und w1, . . . ,wn ∈ W

festgehalten mit den zugehörigen Dualbasen

ϕ1, . . . , ϕm ∈ V∗ und ψ1, . . . , ψn ∈ W∗.

Weiter sei Φ : V → W eine lineare Abbildung. Ist A ∈ K(n,m) die beschreibende Ma-trix für Φ bezüglich der Basen u1, . . . , um und w1, . . . ,wn, dann ist die transponierteMatrix At ∈ K(m,n) die beschreibende Matrix für die duale Abbildung Φ∗ : W∗ → V∗bezüglich der Dualbasen.

Page 60: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

378 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Beweis: Es sei A = (aν,μ) ∈ K(n,m) die Matrix für Φ und B = (bμ,ν) ∈ K(m,n) die Matrix fürΦ∗. Dann ist

Φ(uk) =n∑

ν=1

aν,kwν , Φ∗(ψl) =m∑

μ=1

bμ,lϕμ

und

bk,l =

⎛⎜⎜⎜⎜⎜⎜⎝ m∑μ=1

bμ,lϕμ

⎞⎟⎟⎟⎟⎟⎟⎠ (uk) = (Φ∗(ψl))(uk) = ψl(Φ(uk)) = ψl

⎛⎜⎜⎜⎜⎜⎝ n∑ν=1

aν,kwν

⎞⎟⎟⎟⎟⎟⎠ = al,k,

also wie behauptet B = At. �

Aus (2.17) und Rang(A) = Rang(At) erhält man eine einfache Folgerung, die aus derDefinition von Φ∗ zunächst keineswegs einsichtig ist:

Korollar 3.56

Für jede lineare Abbildung Φ zwischen endlichdimensionalen Vektorräumen gilt

dim Bild Φ = dim Bild Φ∗ .

Bemerkung 3.57 Unmittelbar aus der Definition ergeben sich die folgenden Rechenre-geln:

(Ψ ◦Φ)∗ = Φ∗ ◦ Ψ ∗(id)∗ = id

(Φ−1)∗ = (Φ∗)−1 .

Das kann man sich wie folgt klarmachen: Seien Φ : V → W und Ψ : W → U linear. Für alle f ∈ U∗ istdann

(Ψ ◦Φ)∗( f ) = f ◦ Ψ ◦Φ = Φ∗( f ◦ Ψ ) = Φ∗(Ψ ∗( f )).

Natürlich ist (id)∗( f ) = f ◦ id = f für alle Linearformen f und deswegen (id)∗ = id. Wenn Φ−1 existiert,dann ist Φ−1 ◦Φ = id und deswegen Φ∗ ◦ (Φ−1)∗ = (Φ−1 ◦Φ)∗ = (id)∗ = id .

�Alternativ zu Abschnitt 3.4 gibt es folgenden allgemeinen Zugang zur Kodimension:

*Definition 3.58

Sei V ein K-Vektorraum, U ⊂ V . Dann heißt

U⊥ := {ϕ ∈ V∗ : ϕ(u) = 0 für alle u ∈ U}

Page 61: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

3.5 Der Dualraum 379

orthogonales Komplement oder Annihilator von U.

*Bemerkungen 3.59

1) U⊥ ist ein Unterraum von V∗, U⊥ = span U⊥.

2) Ist V endlichdimensional und unitär, dann lässt sich (siehe Theorem 3.48, dort vorerstK = R) ϕ ∈ V∗ eindeutig als

ϕ(x) = 〈x . a〉 für ein a ∈ V

darstellen und U⊥ ⊂ V∗ ist isomorph zum früher definierten

U⊥ = {a ∈ V : 〈u . a〉 = 0 für alle u ∈ U} ⊂ V .

3) U ⊂ U⊥⊥. Dabei wird U als E(U) ⊂ V∗∗ aufgefasst.

4) In Verallgemeinerung von Hauptsatz 2.69I gilt für K-Vektorräume V, W und Φ ∈HomK(V, W):

a) Kern Φ∗ = (Bild Φ)⊥ (⊂ W∗) .Dazu beachte man

Ψ ∈ Kern Φ∗ ⇔ Ψ ◦Φ = 0⇔ Ψ (Φx) = 0 für x ∈ V ⇔ Ψ ∈ (BildΦ)⊥ .

b) Bild Φ∗ ⊂ (KernΦ)⊥.Dazu beachte man

ϕ ∈ Bild Φ∗ ⇔ ϕ = Φ∗(ψ) für ein ψ ∈ W∗ ⇔ ϕ = ψ ◦Φ ,

also: ϕx = 0 für x ∈ Kern Φ⇔ ϕ ∈ (Kern Φ)⊥ .

*Satz 3.60

Sei V ein K-Vektorraum, U ⊂ V ein Unterraum. Dann ist

U⊥ � (V/U)∗ .

Beweis: Sei Φ : U⊥ → (V/U)∗ definiert durch

ϕ �→ ϕ ,

wobei ϕ(u + U) := ϕ(u) für alle u ∈ V . (3.39)

Nach Theorem 3.37, angewendet auf ϕ (bei W = K) ist ϕ wohldefiniert, denn es giltU ⊂ Kernϕ. Auch Φ ist linear. Schließlich ist Φ injektiv, da

Page 62: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

380 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Φ(ϕ) = 0 ⇔ ϕ(u) = ϕ(u + U) = 0 für alle u ∈ V ⇔ ϕ = 0 ,

und surjektiv, denn durch (3.39) wird für ϕ ∈ (V/U)∗ ein ϕ ∈ V∗ definiert mit

ϕ(u) = ϕ(U) = 0 , u ∈ U ,

also ϕ ∈ U⊥. �

*Bemerkungen 3.61

1) Ist V endlichdimensional, gilt insbesondere

U = U⊥⊥

– im Sinn der Identifizierung von V und V∗∗. –

Wegen

dim U⊥ = dim(V/U)∗ = dim V/U = dim V − dim U

dim U⊥⊥ = dim V∗/U⊥ = dim V − dim U⊥

gilt dim U = dim U⊥⊥, was zusammen mit Bemerkungen 3.59, 3) die Behauptung ergibt (vgl. auch (3.33)).

2) Ist V endlichdimensional, sind die weiteren Varianten zu Bemerkungen 3.59, 4 a):

Kern Φ = (Bild Φ∗)⊥ (⊂ V∗∗) ,Bild Φ = (KernΦ∗)⊥ (⊂ W∗∗) ,

Bild Φ∗ = (KernΦ)⊥ (⊂ V∗) .

Man benutze 1) und Bemerkung 3.53.

�Ist demzufolge U ein Unterraum von V mit endlicher Kodimension, ohne dass V notwen-digerweise endlichdimensional ist, dann auch

codim U = dim V/U = dim(V/U)∗ = dim U⊥ ,

da für endlichdimensionale K-Vektorräume W gilt W∗ � W. Ist andererseits dim U⊥ end-lich, also

dim(V/U)∗ = dim U⊥ < ∞ ,

dann ist auch

dim(V/U)∗∗ = dim(V/U)∗ < ∞ .

Damit muss aber auch dim V/U < ∞ und damit dim V/U = dim(V/U)∗ gelten.Wegen der Injektivität von E nach Bemerkungen 3.49, 3) ist dim W ≤ dim W∗∗. Somit

gilt auch hier

Page 63: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Aufgaben 381

codim U = dim V/U = dim(V/U)∗ = dim U⊥ .

Daher:

*Satz 3.62

Sei V ein K-Vektorraum, U ⊂ V ein Unterraum. Dann gilt:

codim U = dim U⊥.

Was Sie in diesem Abschnitt gelernt haben sollten

Begriffe:

• Dualraum V∗• Dualbasis• Duale Abbildung Φ∗

Zusammenhänge

• Dualraumdarstellung, Rieszscher Darstellungssatz (Theorem 3.48)• Zusammenhang Φ∗ und Φt (Satz 3.54)• Zusammenhang Darstellungsmatrizen von Φ und Φ∗ (Satz 3.55)

Beispiele

• Dualbasis für S 1(Δ), Rn[x]

Aufgaben

Aufgabe 3.16 (K) Es sei Φ : R3 → R3 die lineare Abbildung mit der darstellenden Ma-trix ⎛⎜⎜⎜⎜⎜⎜⎜⎜⎝ 1 2 3

2 3 13 1 2

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎠und f , g : R3 → R die Linearform

f : (x1, x2, x3) �→ x1 + x2 − x3 , g : (x1, x2, x3) �→ 3x1 − 2x2 − x3 .

Bestimmen Sie die Linearformen Φ∗( f ) : R3 → R und Φ∗(g) : R3 → R.

Page 64: [Springer-Lehrbuch] Lineare Algebra || Vom ℝ-Vektorraum zum K-Vektorraum: Algebraische Strukturen

382 3 Vom R-Vektorraum zum K-Vektorraum: Algebraische Strukturen

Aufgabe 3.17 (T) Es seien V, W Vektorräume über einen Körper K und Φ : V → W einelineare Abbildung. Weiter seien V∗, W∗ die zu V, W dualen Vektorräume und Φ∗ die zu Φduale Abbildung. Man zeige: Φ ist genau dann injektiv, wenn Φ∗ surjektiv ist.

Aufgabe 3.18 (K) Geben Sie zu den Vektoren

x1 = (1, 0,−2)t , x2 = (−1, 1, 0)t , x3 = (0,−1, 1)t ∈ R3

die Linearformen ϕi mit ϕi(x j) = δi, j an.

Aufgabe 3.19 (K) (Hermite-Interpolation) Sei

V = R3[x]

der R-Vektorraum der Polynome vom Grad ≤ 3. Durch

ϕ1( f ) = f (1) , ϕ2( f ) = f ′(1) ,ϕ3( f ) = f (−1) , ϕ4( f ) = f ′(−1)

werden Linearformen ϕi : V → R definiert. (Dabei bezeichne f ′ die Ableitung von f .)

a) Zeigen Sie, dass ϕ1, . . . , ϕ4 eine Basis des Dualraums V∗ von V bilden.b) Bestimmen Sie die dazu duale Basis von V .


Recommended