Addresse des Autors:
Matthias Gerdts
Institut fur Mathematik und Rechneranwendung
Universitat der Bundeswehr Munchen
Werner-Heisenberg-Weg 39
85577 Neubiberg
E-Mail: [email protected]
WWW: www.unibw.de/lrt1/gerdts
Vorlaufige Version: 24. Oktober 2017
Copyright c© 2017 by Matthias Gerdts
Inhaltsverzeichnis
1 Grundlagen 3
1.1 Aussagenlogik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Summen- und Produktzeichen . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3 Das Induktionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4 Binomische Formeln . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Mengen und Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Komplexe Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Vektoren und Matrizen 34
2.1 Vektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.1.1 Multiplikation mit Skalaren . . . . . . . . . . . . . . . . . . . . . . 36
2.1.2 Vektoraddition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.3 Lange eines Vektors . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.1.4 Ortsvektoren und Verbindungsvektoren . . . . . . . . . . . . . . . . 38
2.1.5 Skalarprodukt (Inneres Produkt) . . . . . . . . . . . . . . . . . . . 40
2.1.6 Kreuzprodukt (Vektorprodukt, Außeres Produkt) . . . . . . . . . . 45
2.1.7 Spatprodukt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.1.8 Vektoren im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.2 Allgemeine Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.3 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.4 Lineare Abbildungen und Matrizen . . . . . . . . . . . . . . . . . . . . . . 74
3 Lineare Gleichungssysteme 78
3.1 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.2 Existenz und Eindeutigkeit von Losungen . . . . . . . . . . . . . . . . . . . 80
3.3 Gauss’sches Eliminationsverfahren . . . . . . . . . . . . . . . . . . . . . . . 82
3.3.1 Die allgemeine Vorgehensweise . . . . . . . . . . . . . . . . . . . . . 83
3.3.2 Der n-dimensionale Fall . . . . . . . . . . . . . . . . . . . . . . . . 86
3.4 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4 Eigenwertaufgaben 96
4.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.2 Eigenwerte, Krummung, Spur und Determinante . . . . . . . . . . . . . . . 115
ii
4.3 Eigenwertabschatzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5 Funktionen 121
5.1 Affin-lineare Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.2 Quadratische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
5.3 Polynome und rationale Funktionen . . . . . . . . . . . . . . . . . . . . . . 124
5.4 Trigonometrische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . 128
5.4.1 Sinus, Cosinus ( sin, cos) . . . . . . . . . . . . . . . . . . . . . . . . 128
5.4.2 Tangens, Cotangens (tan, cot) . . . . . . . . . . . . . . . . . . . . . 131
5.5 Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.6 Logarithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.7 Hyperbolische Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
Literaturverzeichnis 139
Vorwort
Diese Vorlesung basiert auf Vorlesungen von Prof. Dr. Marti, Prof. Dr. Gwinner, Prof. Dr.
Pesch und Prof. Dr. Apel, welche zuvor an der Universitat der Bundeswehr Munchen und
der Universitat Bayreuth gehalten wurden. Sie vermittelt Grundlagen der linearen Algebra
und richtet sich an Studierende im ersten Trimester in den Bachelor-Studiengangen Luft-
und Raumfahrttechnik (LRT), Bauingenieurwesen und Umweltwissenschaften (BAU) und
Elektrotechnik und Informationstechnik (EIT).
Die Vorlesung baut auf den Mathematikkenntnissen im Abitur auf und hat zum Ziel,
grundlegende Konzepte und Methoden der linearen Algebra zur mathematischen Beschrei-
bung naturwissenschaftlich-technischer Prozesse zu vermitteln und zu eigenstandigem lo-
gischen Denken anzuregen.
Als Erganzung stehen zum Selbststudium folgende Hilfsmittel zur Verfugung, um Wissen
aufzufrischen oder etwaige Wissenslucken zu schließen:
(a) Vorkurs Mathematik: Skript zur Auffrischung von Schulkenntnissen von Prof. Dr.
Gerdts.
(b) Mathematik – Vorwissen und Selbststudium: Skript von Prof. Dr. Apel.
(c) Das Lernsystem Mumie kann zum Uben und Wissensuberprufung verwendet wer-
den:
http://www.mumie.net/ .
Es stellt eine Benutzeroberflache zur Generierung von Aufgaben zur Verfugung, die
automatisch korrigiert werden. Eine Demoversion mit Gastzugangen ist unter
https://www.mumie-hosting.net/demo/public/index.html
verfugbar.
(d) Die Fakultat EIT bietet wochentliche Tutorien fur alle Teilnehmer der Vorlesung
an. Diese finden mittwochs ab 12:00 Uhr in Raum 3125 in Gebaude 41/100 statt.
Eine vorherige Anmeldung per Email ist notwendig.
Die Tutorien bieten die Moglichkeit, sich Inhalte der Vorlesung nochmals erklaren
zu lassen. Nutzen Sie dieses Angebot!
1
2
Allgemeine Tipps und Hinweise:
• Mathematische Inhalte erschließen sich nicht von selbst und in den seltensten Fallen
durch gelegentliches Uberfliegen des Vorlesungsskriptes, sondern sie erfordern ein
aktives Mitarbeiten und viel Ubung.
Arbeiten Sie deshalb die Vorlesungen (und Ubungen) nach!
Auch wenn die wochentlichen Ubungsaufgaben aus Kapazitatsgrunden nicht ein-
gesammelt und korrigiert werden konnen, so ist es zum Verstandnis des Stoffes
sehr wichtig, die Ubungsaufgaben regelmaßig und selbststandig zu bearbeiten.
Spatestens in der Klausur, aber insbesondere auch im weiteren Verlauf des Studi-
ums, ist eine gewisse Routine im Losen von Aufgaben notwendig. Diese erlangt man
nur durch eigenstandiges Losen von Aufgaben.
• Gehen Sie den Vorlesungsstoff und Ubungsaufgaben mit Kommilitonen durch. Er-
klaren und diskutieren Sie Definitionen und Satze in eigenen Worten! Fragen Sie
auch die Ubungsleiter und den Leiter der Veranstaltung bei Unklarheiten.
• Es ist keine gute Idee, sich erst kurz vor der Klausur mit dem Vorlesungsstoff zu
beschaftigen. Dann ist es zu spat und es bleibt nichts hangen. Die Inhalte der Vor-
lesung tauchen an verschiedenen Stellen im Studium immer wieder auf und werden
dann als bekannt vorausgesetzt.
• Wichtige Informationen zur Vorlesung, wie z.B. Ansprechpartner, Ubungsaufgaben
und Zusatzmaterial, finden sich auf der WWW-Seite
http://www.unibw.de/lrt1/gerdts/hm1
Diese Seite wird laufend aktualisiert, so dass sie regelmaßig besucht werden sollte.
• Nutzliche Webseiten mit Material zum Selbststudium sind
– http://www.mathe-online.at/
– http://www.geogebra.org/
– http://www.mumie.net/
c© 2011 by M. Gerdts
Kapitel 1
Grundlagen
Worum geht es in der Mathematik und warum muss ein Ingenieur Mathematikvorlesungen
horen?
In der Mathematik geht es um beweisbare Aussagen, die im Rahmen einer Theorie gultig
sind. Daruber hinaus ermoglicht die Mathematik die Modellierung von Vorgangen, etwa
technische oder naturwissenschaftliche Prozesse. Damit kann das Verhalten der Prozesse
auf Basis der Modellierungsannahmen vorhergesagt (simuliert) oder durch geeignete Wahl
von Modellparametern beeinflusst (optimiert) werden. Die Mathematik beschaftigt sich
auch mit der Analyse von Modellen im Hinblick auf qualitative Eigenschaften wie die
Abhangigkeit von Parametern, Stabilitat, Konvergenz und Grenzwertverhalten.
Beispiele:
• Statikberechnungen fur Gebaude und Brucken basieren auf einem mathematischen
Modell zur Berechnung der Lastkrafte und -momente. Diese Berechnungen sind
unerlasslich bei der Planung neuer Gebaude oder Brucken.
• Raumfahrtmissionen mussen vorab geplant, simuliert und optimiert werden. Hierzu
verwendet man mathematisch-physikalische Modelle der Raumfahrtmechanik, die
eine sehr prazise Vorhersage der Flugbahn erlauben.
3
4 KAPITEL 1. GRUNDLAGEN
• Wettervorhersagen basieren ebenfalls auf mathematischen Modellen und Approxima-
tionsverfahren zur naherungsweisen Losung der Modellgleichungen.
• In der Automobilindustrie werden vor dem realen Bau eines neuen Prototypen be-
reits Fahreigenschaften des zukunftigen Fahrzeugs mithilfe von mathematischen
Modellen und Simulationen untersucht. Grobe Konstruktionsfehler konnen dabei
fruhzeitig vermieden werden, was Geld und Zeit spart.
Eine mathematische Theorie verwendet folgende Bausteine:
c© 2011 by M. Gerdts
5
Aussagen beschreiben einen Sachverhalt und sind entweder wahr oder falsch. Man sollte
allerdings beachten, dass nicht fur alle Aussagen entschieden werden kann, ob sie wahr
oder falsch sind.
Axiome sind grundlegende Annahmen bzw. Aussagen, die als wahr vorausgesetzt wer-
den und nicht bewiesen werden (konnen). Ein Axiomensystem darf keine Widerspruche
enthalten. Eine mathematische Theorie sollte auf moglichst wenigen Axiomen aufbauen.
Definitionen dienen zur exakten (!) Einfuhrung neuer Begriffe. Eine Definition muss
prazise sein und darf keinen Raum fur Zweideutigkeiten oder Interpretationsmoglichkeiten
lassen.
Satze (Theoreme) sind Aussagen, die durch logische Schlussfolgerungen aus Axiomen
hergeleitet werden. Den Vorgang der Herleitung nennt man Beweis. Damit sind Satze,
sobald sie bewiesen sind, fur immer gultig. Die einzelnen Schritte, die zum Beweis des
Satzes notig sind, mussen nachvollzogen werden konnen, allerdings benotigt man hierfur
in der Regel ein umfangreiches Wissen von weiteren Satzen, die im Beweis verwendet
werden.
Eine Folgerung ergibt sich aus einem Satz durch (einfache) logische Schlussfolgerungen.
Ein Lemma bzw. Hilfssatz ist ein Satz, der haufig grundlegende Sachverhalte bzw.
Zwischenresultate enthalt, die beim Beweis eines anderen Satzes verwendet werden.
Eine Vermutung ist eine Aussage, die noch nicht bewiesen oder widerlegt wurde. Es gibt
sehr beruhmte Vermutungen, mit denen man sogar Geld verdienen kann, wenn es gelingt,
sie zu beweisen oder zu widerlegen.
Beispiel 1.0.1 (Fermat’sche Vermutung)
Die beruhmte Fermat’sche Vermutung wurde 1637 vom franzosischen Mathematiker Fer-
mat wie folgt formuliert:
Es ist unmoglich, einen Kubus in zwei Kuben zu zerlegen, oder ein Biquadrat
in zwei Biquadrate, oder allgemein irgendeine Potenz großer als die zweite
in Potenzen gleichen Grades. Ich habe hierfur einen wahrhaft wunderbaren
Beweis gefunden, doch ist der Rand hier zu schmal, um ihn zu fassen.
c© 2011 by M. Gerdts
6 KAPITEL 1. GRUNDLAGEN
Mathematisch formuliert lautet die Vermutung:
Fur keine naturliche Zahl n ≥ 3 gibt es naturliche Zahlen a, b, c mit
an + bn = cn.
Diese Vermutung war sehr lange unbewiesen und konnte erst Anfang der 1990er Jahre
von Andrew Wiles und Richard Taylor bewiesen werden.
Beispiel 1.0.2 (Vermutung von Collatz)
Im Jahre 1937 vermutete Lothar Collatz, ein deutscher Mathematiker, der u.a. an der
Universitat Hamburg lehrte, dass die folgenden Zahlenfolgen fur beliebige Startwerte stets
bei 1 enden.
Die Zahlenfolgen werden dabei wie folgt konstruiert:
(i) Wahle eine beliebige naturliche Zahl N und setze a0 := N .
(ii) Definiere die Zahlen a1, a2, . . . solange fur n = 0, 1, 2, . . . durch die Vorschrift
an+1 :=
an2, falls an gerade ist,
3an + 1, falls an ungerade ist,
bis ak = 1 fur einen Index k gilt.
Beispiele:
N = 3 : a0 = 3, a1 = 10, a2 = 5, a3 = 16, a4 = 8, a5 = 4, a6 = 2, a7 = 1
N = 4 : a0 = 4, a1 = 2, a2 = 1,
N = 5 : a0 = 5, a1 = 16, a2 = 8, a3 = 4, a4 = 2, a5 = 1,
N = 6 : a0 = 6, a1 = 3, a2 = 10, a3 = 5, a4 = 16, a5 = 8, a6 = 4, a7 = 2, a8 = 1
Die Vermutung ist bis heute weder widerlegt noch bewiesen und kann auf
http://www.rzbt.haw-hamburg.de/dankert/spezmath/html/collatzproblem.html
getestet werden.
Beispiel 1.0.3 (Millennium Probleme)
Auf der Seite
http://www.claymath.org/millennium/
des Clay Mathematics Institute finden sich weitere Vermutungen, etwa die Riemannsche
Vermutung. Der Beweis oder die Widerlegung jeder dieser Vermutungen ist mit einer
Erfolgspramie von 1 Million Dollar dotiert.
Dieses Kapitel stellt das Handwerkszeug fur die nachfolgenden Kapitel bereit. Grundle-
gend ist dabei die Verwendung von Mengen und die Anwendung typischer Mengenope-
c© 2011 by M. Gerdts
1.1. AUSSAGENLOGIK 7
rationen, wie zum Beispiel Durchschnittsbildung, Vereinigung und Komplementbildung,
worauf wir in Abschnitt 1.5 eingehen.
Spezielle Mengen sind dabei die ublichen Zahlen, also die Menge der naturlichen, ganzen,
rationalen, reellen und komplexen Zahlen, die wir in den Abschnitten 1.5 und 1.6 einfuhren
werden.
Das Fuhren mathematischer Beweise basiert auf logischen Schlussen. Typische Schluss-
weisen werden in Abschnitt 1.1 vorgestellt.
In der Vorlesung werden viele Symbole als Variable verwendet, darunter auch griechische
Buchstaben (weil sie so schon sind und das deutsche Alphabet mitunter nicht ausreicht).
Hier sind die wichtigsten:
α alpha β beta γ,Γ gamma
δ,∆ delta ε, ε epsilon ι iota
µ mu ν nu ζ zeta
ω,Ω omega λ,Λ lambda η eta
κ kappa ξ,Ξ xi θ, ϑ,Θ theta
ρ, % rho σ,Σ sigma χ chi
τ tau
1.1 Aussagenlogik
Mathematische Beweise sind nichts anderes als die Aneinanderreihung von logisch kor-
rekten Schlussweisen. Daher kommt der Logik eine besondere Rolle in der Mathematik
zu.
In der Logik geht es um die Verknupfung von Aussagen. Zur Erinnerung: Aussagen be-
schreiben einen Sachverhalt und sind entweder wahr oder falsch. Man kann Aussagen
durch logische Operatoren miteinander verknupfen.
Die bekanntesten logischen Operatoren sind ∧ (logisches “und”) und ∨ (logisches “oder”).
Die verknupfte Aussage A∧B ist genau dann wahr, wenn sowohl A als auch B wahr sind.
Die verknupfte Aussage A ∨B ist genau dann wahr, wenn mindestens eine der Aussagen
A oder B wahr ist.
Beispiel 1.1.1
Wahre Aussagen:
• 3 ist kleiner als 5.
• Falls x < y ist, so ist x+ c < y + c fur alle Zahlen c.
• Die Gleichung x2 = 1 besitzt die reellen Losungen x = 1 und x = −1.
c© 2011 by M. Gerdts
8 KAPITEL 1. GRUNDLAGEN
• 5 ist kleiner als 3 oder 3 ist kleiner als 5.
Falsche Aussagen:
• 5 ist kleiner als 3.
• Aus c · x ≤ c · y folgt stets x ≤ y. (Gegenbeispiel: c = 0, x = 1, y = −1)
• Aus x2 = 1 folgt stets, dass x = 1 ist. (Gegenbeispiel: x = −1)
• 5 ist kleiner als 3 und 3 ist kleiner als 5.
Mochte man ausdrucken, dass aus der Aussage A die Aussage B folgt, so schreibt man
A =⇒ B (sprich: “Aus A folgt B.” bzw. “A impliziert B.”).
Beachte, dass die Aussage “A impliziert B” genau dann falsch ist, wenn A wahr und B
falsch ist. Man kann also aus einer wahren Aussage keine falsche Aussage folgern, wenn
man mathematisch korrekt schließt.
Gilt A =⇒ B, so sagt man auch:
• Die Aussage A ist hinreichend fur die Aussage B.
• Die Aussage B ist notwendig fur die Aussage A.
Die Negation (das Gegenteil) einer Aussage A wird mit ¬A bezeichnet.
Beispiel 1.1.2 (Notwendige und hinreichende Aussagen bei der Bestimmung
von Extrempunkten)
Sei f eine differenzierbare Funktion.
(a) Es gilt die folgende Implikation:
f hat lokales Minimum im Punkt x.︸ ︷︷ ︸Aussage A
=⇒ Es gilt f ′(x) = 0.︸ ︷︷ ︸Aussage B
Die Aussage “Es gilt f ′(x) = 0.” ist notwendig dafur, dass f in x ein lokales
Minimum besitzt. Die Negation dieser Aussage lautet “Es gilt f ′(x) 6= 0.”.
Aus der Aussage “Es gilt f ′(x) = 0.” kann man aber nicht schließen, dass f in x
ein Minimum besitzt (Gegenbeispiel: f(x) = −x2 und x = 0). Damit ist die Aussage
“Es gilt f ′(x) = 0.” nicht hinreichend dafur, dass f in x ein Minimum besitzt.
c© 2011 by M. Gerdts
1.1. AUSSAGENLOGIK 9
(b) Es gilt die folgende Implikation:
Fur x gilt f ′(x) = 0 und f ′′(x) > 0.︸ ︷︷ ︸Aussage A
=⇒ f besitzt in x ein lokales Minimum.︸ ︷︷ ︸Aussage B
Die Aussage “Fur x gilt f ′(x) = 0 und f ′′(x) > 0.” ist hinreichend dafur, dass f
in x ein lokales Minimum besitzt. Die Negation dieser Aussage lautet “Fur x gilt
f ′(x) 6= 0 oder f ′′(x) ≤ 0.”.
Aus der Aussage “f besitzt in x ein lokales Minimum.” kann man aber nicht schlie-
ßen, dass f ′(x) = 0 und f ′′(x) > 0 gelten (Gegenbeispiel: f(x) = x4 und x =
0).Damit ist die Aussage “f besitzt in x ein lokales Minimum.” nicht hinreichend
dafur, dass f ′(x) = 0 und f ′′(x) > 0 gelten.
Das folgende Beispiel zeigt, dass es sehr wohl moglich ist, aus einer falschen Aussage eine
wahre Aussage zu folgern. Solche Schlussweisen sind aber wertlos, da sie von einer falschen
Pramisse ausgehen.
Beispiel 1.1.3 (Beispiel fur Schlussfolgerung mit falscher Pramisse)
Die Aussage
“Jeden Tag gehen alle Menschen ins Schwimmbad, um zu schwimmen.”
ist falsch, da ich ein Mensch bin und z.B. am 16.7.2013 nicht im Schwimmbad war.
Da ich ein Mensch bin, impliziert diese Aussage jedoch die Aussage
“Ich war am 17.7.2013 im Schwimmbad, um zu schwimmen.”
Diese Aussage kann wahr sein, wenn ich tatsachlich am 17.7. im Schwimmbad war, um
zu schwimmen, oder sie kann falsch sein, wenn ich z.B. gar nicht schwimmen kann oder
am 17.7. nicht im Schwimmbad war, um zu schwimmen.
Mochte man ausdrucken, dass die Aussagen A und B gleichwertig (aquivalent) sind, so
schreibt man
A ⇐⇒ B (sprich: “A ist aquivalent zu B.” bzw. “A gilt genau dann, wenn B gilt.”).
Beachte, dass aquivalente Aussagen A und B entweder beide wahr oder beide falsch sind.
Beispiel 1.1.4
c© 2011 by M. Gerdts
10 KAPITEL 1. GRUNDLAGEN
(i) Die Aussage “Es gilt x + y = 1 mit reellen Zahlen x und y.” ist aquivalent zu der
Aussage “Es gilt x = 1−y mit reellen Zahlen x und y.”, da die Gleichungen x+y = 1
und x = 1− y dieselben reellen Losungen besitzen.
(ii) Gemaß der Rechenregeln fur reelle Zahlen sind die Aussagen “Fur c > 0 gilt 3c < 0.”
und “Es gilt 3 < 0.” aquivalent, weil man Ungleichungen immer mit positiven Zahlen
skalieren kann, ohne dass sich die Richtung der Ungleichung andert.
Beide Aussagen sind aber falsch.
Bei der Umformung von Formeln sollte man sich stets klar machen, ob man korrekt
schließt, d.h. ob man aquivalente Umformungen vornimmt oder Implikationen ableitet1.
Ein haufiger Fehler bei Umformungen ist, dass man Sonderfalle ubersieht und somit un-
terschlagt. Beispielsweise ist die Schlussweise
x2 = 1 =⇒ x = 1
nicht korrekt, da auch x = −1 eine Losung von x2 = 1 darstellt. Korrekt musste die
Folgerung
x2 = 1 =⇒ x = 1 oder x = −1
lauten. In diesem Fall sind beide Seiten sogar aquivalent:
x2 = 1 ⇐⇒ x = 1 oder x = −1 .
Die Schlussweise
x = −1 =⇒ x2 = 1
ist hingegen korrekt. Aquivalenz gilt hier aber nicht.
Mithilfe von sogenannten Wahrheitstabellen kann man folgende Aussagen beweisen:
1Im taglichen Leben findet man haufig auch ungerechtfertigte Schlussweisen, etwa wenn man von
Symptomen einer Krankheit auf die Krankheit selbst schließen mochte. Dies ist i.a. nicht gerechtfertigt,
da verschiedene Krankheiten dieselben Symptome haben konnen.
c© 2011 by M. Gerdts
1.1. AUSSAGENLOGIK 11
¬ (A =⇒ B) ⇐⇒ A ∧ (¬B)
¬(¬A) ⇐⇒ A
¬(A ∧B) ⇐⇒ (¬A) ∨ (¬B)
¬(A ∨B) ⇐⇒ (¬A) ∧ (¬B)
A =⇒ B ⇐⇒ (¬A) ∨BA =⇒ B ⇐⇒ (¬B) =⇒ (¬A)
A =⇒ B ⇐⇒ (A ∧ (¬B)) =⇒ (¬A) (Widerspruchsbeweis)
Hierin bezeichnen ∧ das logische “und” und ∨ das logische “oder”.
Diese Regeln konnen verwendet werden, um (verbale) Aussagen logisch richtig (!) umzu-
formen. 2
Bei der Formulierung von Aussagen greift man haufig auf die sogenannten Quantoren
zuruck:
Das Symbol ∀ ist eine Abkurzung fur”fur alle“.
Das Symbol ∃ ist eine Abkurzung fur”es existiert ein“.
Beispiel 1.1.5
• Die Aussage “Es gibt ein x ∈ R mit x > 0.” lasst sich mit Quantoren wie folgt
schreiben:
∃x ∈ R : x > 0
• Die Aussage “Fur alle x ∈ R gibt es ein y ∈ R mit x + y = 1.” lasst sich mit
Quantoren wie folgt schreiben:
∀x ∈ R ∃y ∈ R : x+ y = 1
Mochte man das Gegenteil einer Aussage, die Quantoren enthalt, ausdrucken, so ist dies
2Aufgabe: Formuliere die Negation der folgenden Aussage.
Aus |x− y| < δ folgt |f(x)− f(y)| < ε.
c© 2011 by M. Gerdts
12 KAPITEL 1. GRUNDLAGEN
einfach dadurch zu erreichen, dass man die Quantoren gegenseitig ausgetauscht und die
Eigenschaft negiert:
Sei E(x, y, z) ein Ausdruck, der von Parametern (x, y, z) abhange. Die Negation der Aus-
sage
∀x > 0 ∃y > 0 ∀z : E(x, y, z)
lautet
∃x > 0 ∀y > 0 ∃z : ¬E(x, y, z).
Mit anderen Worten: Um eine Aussage mit ∀ zu widerlegen, genugt es, ein Gegenbeispiel
zu finden (∃). Um eine Existenzaussage mit ∃ zu widerlegen, muss eine allgemeine Aussage
durch logisches Schließen bewiesen werden (∀) .
1.2 Summen- und Produktzeichen
Zur Summation von Zahlen wird haufig das Symbol Σ verwendet. Analog wird fur Pro-
dukte von Zahlen das Symbol∏
verwendet.
Beispiel 1.2.1 (Summenzeichen)
• Mochte man alle naturlichen Zahlen bis zur Zahl n ∈ N aufsummieren, so lasst sich
das mithilfe des Summenzeichens leicht schreiben als
n∑k=1
k = 1 + 2 + 3 + . . .+ n .
Schon Gauß hat erkannt, dass es fur diese Summe eine Berechnungsformel gibt,
namlichn∑k=1
k =n
2(n+ 1) .
(Begrundung?)
• Fur die Summe der Quadratzahlen
n∑k=1
k2 = 1 + 22 + 32 + . . .+ n2
gibt es ebenfalls eine geschlossene Formel, namlich
n∑k=1
k2 =1
6n(n+ 1)(2n+ 1) .
Diese Formel kann man formal mittels Induktion beweisen (siehe nachster Ab-
schnitt).
c© 2011 by M. Gerdts
1.2. SUMMEN- UND PRODUKTZEICHEN 13
• Die Zahlen ak seien fur k = 1, . . . , 100 definiert als ak = 1k+1
. Deren Summe lautet
dann
a1 + a2 + . . .+ a100 =100∑k=1
ak =100∑k=1
1
k + 1=
1
2+
1
3+ . . .+
1
101.
Beispiel 1.2.2 (Produktzeichen)
• Mochte man alle naturlichen Zahlen bis zur Zahl n ∈ N multiplizieren, so lasst sich
das mithilfe des Produktzeichens leicht schreiben alsn∏k=1
k = 1 · 2 · 3 · · ·n .
Diese Zahl hat einen speziellen Namen, namlich n! (sprich: n-Fakultat).
• Die Zahlen ak seien fur k = 1, . . . , 100 definiert als ak = 1k+1
. Deren Produkt lautet
dann
a1 · a2 · · · a100 =100∏k=1
ak =100∏k=1
1
k + 1=
1
2· 1
3· · · 1
101.
Gegeben seien n Zahlen a1, a2, . . . , an.
• Fur die Summe
a1 + a2 + . . .+ an
der Zahlen schreibt man abkurzend
n∑k=1
ak (= a1 + a2 + . . .+ an) .
Hierin ist k der Summationsindex, welcher von k = 1 bis n lauft.
• Fur das Produkt
a1 · a2 · · · an
der Zahlen schreibt man abkurzend
n∏k=1
ak (= a1 · a2 · · · an) .
Hierin ist k der Produktindex, welcher von k = 1 bis n lauft.
c© 2011 by M. Gerdts
14 KAPITEL 1. GRUNDLAGEN
Bemerkung 1.2.3
• Geht aus dem Kontext klar hervor, uber welchen Indexbereich die Summe bzw. das
Produkt gebildet werden soll, so schreibt man haufig auch abkurzend∑ak bzw.
∏ak .
• Naturlich kann man auch nur uber Teile der Zahlen summieren, indem der Bereich
des Summationsindex angepasst wird. Folgende Beschreibungen sind ublich:
n−3∑k=3
ak = a3 + a4 + . . .+ an−4 + an−3,
∑k=j
ak = aj + aj+1 + . . .+ a`−1 + a`, (fur 1 ≤ j ≤ ` ≤ n)
∑k=j
ak := 0, (Definition, falls ` < j)∑k∈4,5,6
ak = a4 + a5 + a6,∑j∈2k | k∈N,k<4
aj = a2 + a4 + a6.
Analog fur die Produktbildung.
1.3 Das Induktionsprinzip
Gegeben sei eine Aussage E(n), die von einer naturlichen Zahl abhangt.
Als Beispiel betrachten wir die Summation von Zahlen:
Aussage E(n) : Fur n ∈ N giltn∑k=1
k =n
2(n+ 1).
Ziel ist es, die Aussage E(n) fur alle n ∈ N (oder eine unendliche Teilmenge davon) zu
beweisen.
Die Aussage E(n) soll mit dem Induktionsprinzip bewiesen werden:
Induktionsprinzip:
• Induktionsanfang: Zeige, dass die Aussage E(n0) fur ein n0 ∈ N gilt (haufig ist
n0 = 1).
c© 2011 by M. Gerdts
1.3. DAS INDUKTIONSPRINZIP 15
• Induktionsschluss: Zeige fur ein beliebiges n ≥ n0, dass die Aussage E(n + 1)
gilt, wenn E(n) als wahr angenommen wird. Die Annahme, dass E(n) gelte, wird
als Induktionsannahme bezeichnet.
Induktionsanfang und Induktionsschluss zusammen zeigen, dass die Aussage E(n) fur
alle n ≥ n0 gilt. Das Induktionsprinzip arbeitet dabei nach dem Dominoprinzip: Der
Induktionsanfang entspricht dem Umkippen des ersten Steins. Der Induktionsschluss sorgt
dafur, dass der nachste Stein fallt, wenn der vorige gefallen ist.
Wir wenden das Induktionsprinzip auf das Beispiel an:
Induktionsanfang: Fur n = n0 = 1 gilt
n∑k=1
k =1∑
k=1
k = 1 =1
2(1 + 1)
√
Damit gilt die Aussage E(1).
Induktionsschluss: Die Aussage E(n) gelte nun fur ein beliebiges n ∈ N, d.h. es gelte
n∑k=1
k =n
2(n+ 1) (Induktionsannahme).
Wir mussen nun zeigen, dass auch E(n+ 1) gilt. Wir erhalten
n+1∑k=1
k = (n+ 1) +n∑j=1
j︸ ︷︷ ︸=n
2(n+1) nach Induktionsannahme
= (n+ 1) +n
2(n+ 1)
= (n+ 1)(
1 +n
2
)=
n+ 1
2(n+ 2) .
c© 2011 by M. Gerdts
16 KAPITEL 1. GRUNDLAGEN
Damit ist unter Verwendung der Induktionsannahme gezeigt, dass auch E(n+ 1) gilt.
Induktionsanfang und Induktionsschluss liefern zusammen die Behauptung.
1.4 Binomische Formeln
In den Anwendungen treten oft Ausdrucke der Form
(a+ b)2, (a− b)2, (a+ b)3, (a− b)3, (a+ b)4, (a− b)4, . . .
bzw. allgemein der Form
(a+ b)n (n ∈ N, a, b ∈ R)
auf.
Fur n = 2 erhalt man
(a+ b)2 = (a+ b)(a+ b) = a2 + 2ab+ b2 (1. binomische Formel),
(a− b)2 = (a− b)(a− b) = a2 − 2ab+ b2 (2. binomische Formel),
a2 − b2 = (a− b)(a+ b) (3. binomische Formel).
Des Weiteren berechnen sich die Ausdrucke (a+ b)n fur n = 1, 2, . . . , 5 wie folgt:
(a+ b)0 = 1
(a+ b)1 = 1a+ 1b
(a+ b)2 = 1a2 + 2ab+ 1b2
(a+ b)3 = 1a3 + 3a2b+ 3ab2 + 1b3
(a+ b)4 = 1a4 + 4a3b+ 6a2b2 + 4ab3 + 1b4
(a+ b)5 = 1a5 + 5a4b+ 10a3b2 + 10a2b3 + 5ab4 + 1b5
...
Schaut man sich die Koeffizienten vor den einzelnen Termen an, so kann man ein Mu-
ster erkennen, welches uns die Koeffizienten der Ergebnisse liefert. Es basiert auf dem
Pascal’schen Dreieck in der folgenden Abbildung 1.1:
c© 2011 by M. Gerdts
1.4. BINOMISCHE FORMELN 17
Abbildung 1.1: Pascal’sches Dreieck
In den Außendiagonalen steht immer eine 1. Die inneren Terme werden als Summe der
daruberliegenden Terme gebildet.
Diese Ergebnisse kann man in einer einzigen Formel zusammenfassen. Darin verwendet
man die sogenannten Binomialkoeffizienten:
Definition 1.4.1 (Binomialkoeffizienten)
Fur n, k ∈ N0 mit k ≤ n sind die Binomialkoeffizienten definiert als(n
k
):=
n!
(n− k)!k!(sprich: “n uber k”),
wobei die Konvention 0! = 1 verwendet wird.
Eigenschaften:
•(n
k
)=
n!
(n− k)!k!=
(n− k + 1)(n− k + 2) . . . (n− 2)(n− 1)n
1 · 2 · 3 . . . k
•(n
k
)=
(n
n− k
)
•(
n
k − 1
)+
(n
k
)=
(n+ 1
k
)Beispiel: (
7
4
)=
1 · 2 · 3 · 4 · 5 · 6 · 7(1 · 2 · 3 · 4)(1 · 2 · 3)
= 35.
Mithilfe der Binomialkoeffizienten kann man per Induktion den folgenden Satz beweisen:
c© 2011 by M. Gerdts
18 KAPITEL 1. GRUNDLAGEN
Satz 1.4.2 (Binomiallehrsatz)
Fur a, b ∈ R und n ∈ N0 gilt
(a+ b)n =n∑k=0
(n
k
)an−kbk
=
(n
0
)an +
(n
1
)an−1b+
(n
2
)an−2b2 + · · ·+
(n
n− 1
)abn−1 +
(n
n
)bn .
Beweis: Wir beweisen den Binomilallehrsatz mittels Induktion nach n.
Induktionsanfang: Fur n = 0 gilt (a+ b)0 = 1 und
0∑k=0
(0
k
)a0−kbk =
(0
0
)a0−0b0 = 1.
Damit stimmt die Behauptung fur n = 0.
Induktionsschritt: Die Aussage gelte fur ein beliebiges n ∈ N0. Damit erhalten wir fur
n+ 1:
(a+ b)n+1 = (a+ b)n(a+ b)
= (a+ b)n∑k=0
(n
k
)an−kbk
=n∑k=0
(n
k
)an−k+1bk +
n∑k=0
(n
k
)an−kbk+1
=n∑k=0
(n
k
)an+1−kbk +
n+1∑k=1
(n
k − 1
)an−(k−1)bk
=
(n
0
)︸︷︷︸=(n+1
0 )
an+1b0 +n∑k=1
((n
k
)+
(n
k − 1
))︸ ︷︷ ︸
=(n+1k )
an+1−kbk +
(n
n
)︸︷︷︸=(n+1
n+1)
a0bn+1
=n+1∑k=0
(n+ 1
k
)an+1−kbk.
Damit ist die Behauptung fur n + 1 bewiesen und das Induktionsprinzip liefert die Be-
hauptung.
1.5 Mengen und Zahlen
Mengen sind Grundbausteine der Mathematik. Sie dienen zum”Sammeln“ von Objekten
mit definierten Eigenschaften.
c© 2011 by M. Gerdts
1.5. MENGEN UND ZAHLEN 19
Definition 1.5.1 (Menge, Element)
(a) Eine Menge ist eine Sammlung von (realen oder gedachten) Objekten, ihren Ele-
menten. Dabei kann man fur jedes Objekt entscheiden, ob es zur Menge gehort oder
nicht.
(b) Gehort ein Objekt x zur Menge M , so schreiben wir x ∈M .
Gehort ein Objekt x nicht zur Menge M , so schreiben wir x 6∈M .
(c) Besitzt die Menge M nur endlich viele Elemente, so heißt sie endliche Menge,
andernfalls unendliche Menge.
(d) ∅ ist die leere Menge, sie enthalt kein Element.
Zwei MengenM undN werden als gleich betrachtet, wenn sie dieselben Elemente besitzen,
d.h.
M = N ⇐⇒ (x ∈M ⇔ x ∈ N) .
In diesem Sinne sind die Mengen 1, 2, 3 und 3, 2, 1 gleich, es kommt also nicht auf die
Reihenfolge der Elemente an. Zwei Mengen sind ungleich, wenn sie nicht gleich sind.
Beispiel 1.5.2
(i) −2, 4, 2, 8, 9, 123 ist eine endliche Menge mit 6 Elementen.
(ii) rot, grun, blau ist eine endliche Menge mit 3 Elementen. Sie ist eine Teilmenge
der Menge aller Farben.
(iii) 1, 3, 5, 7, 9, 11, . . . = 2k−1 | k ∈ N ist eine unendliche Menge, die die ungeraden
naturlichen Zahlen enthalt.
Beispiel 1.5.3
• Naturliche Zahlen: Die Menge der naturlichen Zahlen wird mit N bezeichnet und
lautet
N := 1, 2, 3, 4, . . . , n, n+ 1, . . ..
c© 2011 by M. Gerdts
20 KAPITEL 1. GRUNDLAGEN
Formal definiert man die Menge dadurch, dass man sagt 1 ist eine naturliche Zahl
und mit n ∈ N folgt, dass auch n+ 1 ∈ N ist.
Mit
N0 := 0, 1, 2, 3, 4, . . . , n, n+ 1, . . .
bezeichnen wir die Menge der naturlichen Zahlen einschließlich der Null.
• Ganze Zahlen: Die Menge der ganzen Zahlen wird mit Z bezeichnet. Sie enthalt
neben den naturlichen Zahlen und der Null auch deren negative Zahlen und lautet
Z := n | n ∈ N0 ∪ −n | n ∈ N= . . . ,−(n+ 1),−n, . . . ,−4,−3,−2,−1, 0, 1, 2, 3, 4, . . . , n, n+ 1, . . ..
• Rationale Zahlen: Die Menge der rationalen Zahlen wird mit Q bezeichnet. Sie
enthalt Bruchzahlen und ist definiert durch
Q :=mn
∣∣∣ m ∈ Z, n ∈ N.
Fur eine rationale Zahl q = mn
heißt m Zahler und n Nenner.
Man konnte den Eindruck gewinnen, dass die rationalen Zahlen bereits alle wichtigen
Zahlen enthalten. Dies ist nicht der Fall, da sich z.B.
√2,√
3, π, e
nicht als Bruchzahl darstellen lassen und somit keine rationalen Zahlen sind.
• Reelle Zahlen: Die Menge der reellen Zahlen wird mit R bezeichnet. Die reellen
Zahlen ergeben sich durch sogenannte Vervollstandigung der rationalen Zahlen,
indem”
Lucken“ in den rationalen Zahlen geschlossen werden. Dazu erganzt man
die rationalen Zahlen um Zahlen, die nicht als Bruchzahl dargestellt werden konnen,
also z.B. um√
2,√
3, π, e.
Eine formale Definition der reellen Zahlen lautet wie folgt:
R :=r∣∣∣ es gibt eine Folge von Zahlen rn ∈ Q, n ∈ N, mit lim
n→∞rn = r
.
• Die Mengen
R+ := r ∈ R | r > 0,R− := r ∈ R | r < 0
bezeichnen die Menge der positiven bzw. negativen reellen Zahlen. Die Mengen
R+0 := r ∈ R | r ≥ 0,
R−0 := r ∈ R | r ≤ 0
c© 2011 by M. Gerdts
1.5. MENGEN UND ZAHLEN 21
bezeichnet die Menge der positiven bzw. negativen reellen Zahlen einschließlich der
Null.
• Fur a, b ∈ R mit a < b sind die folgenden Intervalle definiert:
[a, b] := x ∈ R | a ≤ x ≤ b (abgeschlossenes Intervall),
(a, b) := x ∈ R | a < x < b (offenes Intervall),
[a, b) := x ∈ R | a ≤ x < b (halboffenes Intervall),
(a, b] := x ∈ R | a < x ≤ b (halboffenes Intervall).
Um auch unendliche Intervalle abbilden zu konnen, werden die Unendlichsymbole
+∞ und −∞ verwendet, welche aber nicht als reelle Zahlen angesehen werden:
(−∞, b] := x ∈ R | x ≤ b,(−∞, b) := x ∈ R | x < b,
[a,∞) := x ∈ R | a ≤ x,(a,∞) := x ∈ R | a < x,
(−∞,∞) := R.
• Die komplexen Zahlen C werden in Abschnitt 1.6 behandelt.
Den reellen Zahlen kommt eine besondere Bedeutung zu, da innerhalb der Menge der
reellen Zahlen die ublichen Rechenregeln gelten3:
Rechenregeln und Eigenschaften in den reellen Zahlen R:
(i) Die Gleichung
a+ x = b
besitzt stets die reelle Losung x = b− a fur alle a, b ∈ R.
(ii) Fur a, b ∈ R, a 6= 0, besitzt die Gleichung
a · x = b
stets die reelle Losung x = ba. Fur a = 0 besitzt die Gleichung nur dann eine Losung,
wenn b = 0 gilt. Fur a = b = 0 ist jede Zahl x ∈ R eine Losung.
3Aufgabe: Uberprufen Sie, welche der Eigenschaften in den Mengen N, Z, Q gelten bzw. welche Ei-
genschaften nicht gelten.
c© 2011 by M. Gerdts
22 KAPITEL 1. GRUNDLAGEN
(iii) Fur alle x, y, z ∈ R gelten die folgenden Rechenregeln fur die vier Grundrechenarten
+, −, ·, /:
Addition, Subtraktion:
A1 : x+ (y + z) = (x+ y) + z (Assoziativgesetz)
A2 : x+ y = y + x (Kommutativgesetz)
A3 : es gibt 0 ∈ R mit x+ 0 = x (Existenz des Nullelements 0)
A4 : zu jedem x ∈ R gibt es (−x) ∈ R (Existenz eines additiv inversen
mit x+ (−x) = 0 Elements)
Multiplikation, Division:
M1 : x · (y · z) = (x · y) · z (Assoziativgesetz)
M2 : x · y = y · x (Kommutativgesetz)
M3 : es gibt 1 ∈ R, 1 6= 0, mit 1 · x = x (Existenz des Einselements 1)
M4 : zu jedem x ∈ R, x 6= 0, gibt es (Existenz eines multiplikativ inversen
x−1 ∈ R mit x · x−1 = 1 Elements)
D : x · (y + z) = x · y + x · z (Distributivgesetz)
(iv) Die reellen Zahlen sind auf der Zahlengeraden angeordnet, d.h. man kann reelle
Zahlen bzgl. ihrer Große miteinander vergleichen. Fur alle a, b ∈ R gilt genau eine
der folgenden Alternativen: a < b, a = b, a > b.
Es gelten folgende Regeln fur a, b, c, d ∈ R:
a < b und b < c =⇒ a < c
a < b =⇒ a+ d < b+ d
a < b und c > 0 =⇒ a · c < b · ca < b und c < 0 =⇒ a · c > b · c
Definition 1.5.4
(a) Die Menge M heißt Teilmenge der Menge N , in Zeichen M ⊆ N , wenn jedes
c© 2011 by M. Gerdts
1.5. MENGEN UND ZAHLEN 23
Element von M auch Element von N ist, d.h. es gilt
x ∈M =⇒ x ∈ N.
Im Fall M ⊆ N und M 6= N heißt die Menge M echte Teilmenge der Menge N ,
in Zeichen M ⊂ N oder M ( N .
(b) Die Menge M heißt (echte) Obermenge der Menge N , wenn N (echte) Teilmenge
von M ist.
Beispiel 1.5.5
(i) Die leere Menge ∅ ist Teilmenge jeder Menge.
(ii) −1, 2, 3 ⊂ −1, 2, 3, 5
(iii) N ⊂ Z ⊂ Q ⊂ R
(iv) Die Menge 0, 1, 3 ist weder Teilmenge noch Obermenge von −1, 0, 1.
Ublicherwise werden die Elemente einer Menge durch Angabe von Eigenschaften beschrie-
ben, also etwa in der Form
M1 = x ∈ N | 3 ≤ x ≤ 7 = 3, 4, 5, 6, 7,M2 = x ∈ R | x2 ≥ 1 = x | x ∈ R, x2 ≥ 1,M3 = x ∈ N | es gibt eine Zahl q ∈ N mit x = 2q
= 2x | x ∈ N= 2, 4, 6, 8, 10, . . ..
Die Beispiele zeigen, dass dieselbe Menge unterschiedliche Beschreibungen ihrer Elemente
besitzen kann. Das Zeichen | bedeutet bei der Charakterisierung von Mengen”mit der
Eigenschaft“, d.h.
M = x | E(x)
bezeichnet die Menge aller x mit der Eigenschaft E(x).
Mithilfe von Mengenoperationen kann man mit Mengen rechnen.
c© 2011 by M. Gerdts
24 KAPITEL 1. GRUNDLAGEN
Definition 1.5.6
(a) Die Vereinigung zweier Mengen M und N ist definiert als die Menge
M ∪N := x | x ∈M oder x ∈ N.
(b) Der Durchschnitt zweier Mengen M und N ist definiert als die Menge
M ∩N := x | x ∈M und x ∈ N.
Zwei Mengen M und N heißen diskjunkt, wenn ihr Durchschnitt leer ist, d.h.
M ∩N = ∅.
(c) Die Differenz zweier Mengen M und N ist definiert als die Menge
M \N := x | x ∈M und x 6∈ N.
(d) Ist M ⊆ N , so ist das Komplement von M bzgl. N definiert als die Menge
M := N \M (Sprechweise: N ohne M).
(e) Das Produkt zweier Mengen M und N ist definiert als die Menge
M ×N := (x, y) | x ∈M und y ∈ N.
(f) Die Potenzmenge P (M) (oder 2M) der Menge M ist definiert als die Menge aller
Teilmengen von M .
Beispiel 1.5.7
1, 2 ∪ 2, 3, 4 = 1, 2, 3, 41, 2 ∩ 2, 3, 4 = 21, 2 \ 2, 3, 4 = 11, 2 × 2, 3, 4 = (1, 2), (1, 3), (1, 4), (2, 2), (2, 3), (2, 4)
P (2, 3, 4) = ∅, 2, 3, 4, 2, 3, 2, 4, 3, 4, 2, 3, 4R2 = R× R,
Rn = R× . . .× R (n-mal)
c© 2011 by M. Gerdts
1.6. KOMPLEXE ZAHLEN 25
1.6 Komplexe Zahlen
Die Menge der reellen Zahlen ist schon sehr machtig und umfasst die gesamte Zahlen-
gerade. Allerdings ist die Menge der reellen Zahlen fur bestimmte Aufgaben noch nicht
ausreichend. Mochte man z.B. die Gleichung
x2 + 1 = 0 (1.1)
uber den reellen Zahlen losen, so ist dies nicht moglich, da in R kein solches x existiert.
Solche Probleme treten z.B. bei der Bestimmung von sogenannten Eigenwerten auf, siehe
Kapitel 4 die u.a. bei der Stabilitatsanalyse von technischen Systemen und insbesondere
in der Regelungstechnik sehr wichtig sind.
Um auch Gleichung (1.1) losen zu konnen, fuhren wir eine neue”Zahl“ mit dem Symbol
i ein. Beachte allerdings, dass i keine Zahl im Sinne der reellen Zahlen ist, sondern ein
zusatzliches Objekt.4
Definition 1.6.1 (die imaginare Zahl i)
Die imaginare Zahl i ist definiert als Losung der Gleichung (1.1), d.h. sie erfullt
i2 = −1.
Die komplexen Zahlen erhalten wir nun durch Summen von reellen Zahlen und reellen
Vielfachen der imaginaren Zahl i.
Definition 1.6.2 (komplexe Zahlen)
Die komplexen Zahlen sind definiert als die Menge
C := a+ ib | a ∈ R, b ∈ R.
Fur eine komplexe Zahl z = a + ib heißt a der Realteil von z und b der Imaginarteil
von z. Wir schreiben Re(z) = a und Im(z) = b.
Mit z := a− ib wird die konjugiert komplexe Zahl von z bezeichnet.
Komplexe Zahlen der Form ib mit b ∈ R heißen imaginare Zahlen.
Da die imaginare Zahl i keine reelle Zahl ist, stellen wir uns die komplexen Zahlen in einer
Ebene, der sogenannten Gauss’schen Zahlenebene, vor, siehe Abbildung 1.2.
4Haufig findet man die Schreibweise i :=√−1, woraus allerdings −1 = i · i =
√−1 ·
√−1 =√
(−1) · (−1) =√
1 = 1 folgen wurde. Daher sollte diese Schreibweise vermieden werden.
c© 2011 by M. Gerdts
26 KAPITEL 1. GRUNDLAGEN
Im
Re
−ib
ib
a
z = a+ ib
z = a− ib
Abbildung 1.2: Gauss’sche Zahlenebene: Komplexe Zahl z und konjugiert komplexe Zahl
z.
Betrachtet man nur komplexe Zahlen mit Imaginarteil gleich Null, so sind dies gerade die
reellen Zahlen, d.h.
R ( C.
Mithilfe der Gauss’schen Zahlenebene konnen wir die komplexen Zahlen auch als Vektoren
interpretieren. Der Betrag der komplexen Zahl z = a+ ib ist definiert als
|z| :=√a2 + b2,
was gerade der Lange des Vektors vom Nullpunkt zur komplexen Zahl a + ib in der
Gauss’schen Zahlenebene entspricht.
Mit komplexen Zahlen kann man normal rechnen, wenn man i2 = −1 beachtet.
Rechenregeln:
(i) Seien z1 = a1 + ib1 und z2 = a2 + ib2 komplexe Zahlen. Die Summe lautet
z1 + z2 = (a1 + ib1) + (a2 + ib2) = (a1 + a2) + i(b1 + b2).
(geometrische Interpretation: Vektoraddition)
(ii) Seien z = a+ ib und c ∈ R. Die Multiplikation mit c lautet
c · z = c · (a+ ib) = (c · a) + i(c · b).
c© 2011 by M. Gerdts
1.6. KOMPLEXE ZAHLEN 27
(iii) Seien z1 = a1 + ib1 und z2 = a2 + ib2 komplexe Zahlen. Das Produkt der beiden
Zahlen lautet
z1 · z2 = (a1 + ib1) · (a2 + ib2)
= a1 · (a2 + ib2) + (ib1) · (a2 + ib2)
= a1a2 + ia1b2 + ib1a2 + i2b1b2
= (a1a2 − b1b2) + i(a1b2 + b1a2).
(iv) Sei z = a+ ib. Dann gilt nach (iii)
z · z = (a+ ib) · (a− ib) = a2 + b2 = |z|2.
(v) Seien z1 = a1 + ib1 und z2 = a2 + ib2 komplexe Zahlen mit z2 6= 0. Die Division der
Zahlen liefert
z1z2
=a1 + ib1a2 + ib2
=a1 + ib1a2 + ib2
· a2 − ib2a2 − ib2
=(a1a2 + b1b2) + i(b1a2 − a1b2)
|z2|2.
Bemerkung 1.6.3
Die komplexen Zahlen versehen mit der ublichen Addition + und der Multiplikation · bil-
den wie die reellen Zahlen wieder einen Korper (C,+, ·), d.h. Assoziativ-, Kommutativ-
und Distributivgesetz, Existenz von Null- und Einselement sowie Existenz von additiven
und multiplikativen inversen Elementen gelten analog.
Ubung: Weise die Regeln A1-A4, M1-M4 und D aus dem Abschnitt uber reelle Zahlen
nach.
Bemerkung 1.6.4
Die komplexen Zahlen sind nicht angeordnet, d.h. es gibt keine Ordnungsrelationen < oder
> zwischen zwei komplexen Zahlen.
Polarkoordinaten
Man kann komplexe Zahlen auch in Polarkoordinaten durch ihre Lange und den Winkel
ϕ ∈ [0, 2π) zwischen der reellen Achse (Realteil) und dem Vektor vom Nullpunkt zur Zahl
c© 2011 by M. Gerdts
28 KAPITEL 1. GRUNDLAGEN
z = a+ ib beschreiben, vgl. Abbildung 1.3:
a = |z| cosϕ, b = |z| sinϕ =⇒ z = |z| (cosϕ+ i sinϕ) .
Im
Re
z
ϕ
|z||z|
|z|cos ϕ
sin ϕ
Abbildung 1.3: Gauss’sche Zahlenebene: Komplexe Zahl z und Darstellung in Polarkoor-
dinaten uber Lange und Winkel.
Satz 1.6.5
Jede komplexe Zahl z = a+ ib lasst sich in Polarkoordinatenform
z = r (cosϕ+ i sinϕ)
mit r ≥ 0 und ϕ ∈ [0, 2π) darstellen. Fur z 6= 0 ist die Darstellung eindeutig.
Definition 1.6.6
Der Winkel ϕ in der Polarkoordinatendarstellung von z heißt Argument von z, in
Zeichen: ϕ = Arg(z).
Das Argument von z = a+ ib berechnet sich mithilfe der Beziehung
tanϕ =b
a=⇒ ϕ = arctan
b
a,
wobei berucksichtigt werden muss, in welchem Quadranten z liegt, und der Fall a = 0
c© 2011 by M. Gerdts
1.6. KOMPLEXE ZAHLEN 29
muss gesondert betrachtet werden. Es ergibt sich
ϕ =
arctan ba, fur a > 0, b ≥ 0,
π2, fur a = 0, b > 0,
π + arctan ba, fur a < 0,
3π2, fur a = 0, b < 0,
2π + arctan ba, fur a > 0, b < 0.
Fur a = b = 0 ist das Argument nicht eindeutig definiert.
Beispiel 1.6.7
Die Zahl ib, b > 0, lautet in Polarkoordinatendarstellung
ib = b · (cosπ
2+ i sin
π
2).
Die Zahl −1− i lautet in Polarkoordinatendarstellung
−1− i =√
2 · (cos5π
4+ i sin
5π
4).
Mit der von Euler eingefuhrten
komplexen Exponentialfunktion
exp(z) = exp(a+ ib) := ea+ib := exp(a) (cos b+ i sin b) (z = a+ ib ∈ C)
ergibt sich speziell die Beziehung
exp(iϕ) = cosϕ+ i sinϕ.
Damit laßt sich z schreiben als
z = a+ bi = |z| exp(iϕ).
Damit laßt sich die Multiplikation zweier komplexer Zahlen z1 = |z1| exp(iϕ1) und z2 =
|z2| exp(iϕ2) sehr schon geometrisch darstellen. Das Ergebnis lautet (nachrechnen!)
z1 · z2 = |z1| · |z2| · exp(i(ϕ1 + ϕ2)),
d.h. das Produkt zweier komplexer Zahlen ist eine Drehstreckung mit der Lange |z1|·|z2|und dem Winkel ϕ1 + ϕ2, vgl. Abbildung 1.4.
c© 2011 by M. Gerdts
30 KAPITEL 1. GRUNDLAGEN
Re
Im
z1z2
|z1||z2|
ϕ1ϕ2
z1 · z2
|z1| · |z2|
ϕ1 + ϕ2
Abbildung 1.4: Gauss’sche Zahlenebene: Multiplikation komplexer Zahlen z1 und z2 als
Drehstreckung.
Mithilfe der Interpretation der Multiplikation zweier komplexer Zahlen als Drehstreckung
ergibt sich sofort der folgende Satz:
Satz 1.6.8 (Euler-Moivre Formel)
Sei z = r(cosϕ+ i sinϕ) gegeben. Dann gilt
zn = rn(cos(nϕ) + i sin(nϕ))
fur n ∈ N.
Die Euler-Moivre Formel ist nutzlich, um Additionstheoreme fur Sinus und Cosinus zu
gewinnen.
Beispiel 1.6.9
Aus z = cosϕ+ i sinϕ ergibt sich durch Ausmultiplizieren
z2 = (cosϕ+ i sinϕ)2 = (cos2 ϕ− sin2 ϕ) + i(2 sinϕ cosϕ).
c© 2011 by M. Gerdts
1.6. KOMPLEXE ZAHLEN 31
Die Euler-Moivre Formel liefert
z2 = cos(2ϕ) + i sin(2ϕ).
Vergleich von Real- und Imaginarteil liefert
cos(2ϕ) = cos2 ϕ− sin2 ϕ,
sin(2ϕ) = 2 sinϕ cosϕ.
Polynomnullstellen
Mithilfe der komplexen Zahlen lassen sich die Nullstellen quadratischer Polynome ange-
ben. Betrachte dazu die Polynomgleichung
ax2 + bx+ c = 0 mit a 6= 0.
Die Nullstellen x1 und x2 sind gegeben durch die bekannte Formel
x1,2 =−b±
√b2 − 4ac
2a,
die, wenn man komplexe Zahlen verwendet, auch fur b2 − 4ac < 0 verwendbar ist.
Beispiel 1.6.10
Fur
x2 − 4x+ 5 = 0
liefert die Formel die Nullstellen
x1,2 =4±√
16− 20
2= 2± 1
2
√−4 = 2±
√−1 = 2± i.
Damit besitzt die Gleichung die beiden komplexen Nullstellen 2 + i und dessen konjugiert
komplexe Zahl 2− i.
Es gilt folgender Satz:
Satz 1.6.11
Jedes quadratische Polynom ax2 + bx + c mit Koeffizienten a, b, c ∈ R, a 6= 0, hat genau
zwei Nullstellen x1, x2 ∈ C, die eventuell zusammenfallen. Es gilt ax2 + bx + c = a(x −x1)(x− x2).
Der Satz gilt analog auch fur allgemeine Polynome:
c© 2011 by M. Gerdts
32 KAPITEL 1. GRUNDLAGEN
Satz 1.6.12 (Fundamentalsatz der Algebra)
Jedes Polynom vom Grad n
pn(x) = anxn + an−1x
n−1 + . . .+ a1x+ a0
mit aj ∈ C, j = 0, 1, . . . , n, an 6= 0, besitzt uber C genau n Nullstellen x1, . . . , xn (mehr-
fache Nullstellen werden nach ihrer Vielfachheit gezahlt) und es gilt
pn(x) = an(x− x1) · · · (x− xn) = an
n∏j=1
(x− xj).
Nach dem Fundamentalsatz der Algebra hat ein Polynom n-ten Grades also hochstens n
reelle Nullstellen. Es gibt leider nur in Spezialfallen explizite Formeln zur Bestimmung
der Nullstellen.
Mithilfe der Euler-Moivre Formel konnen die Nullstellen von zn−w = 0 explizit berechnet
werden:
Beispiel 1.6.13
Fur w = `(cosα + i sinα) und n ∈ N betrachte die Gleichung zn = w. Nach dem Fun-
damentalsatz der Algebra gibt es n Losungen zk = rk(cosϕk + i sinϕk), k = 0, . . . , n− 1,
dieser Gleichung. Nach der Euler-Moivre Formel gilt
znk = rnk (cos(nϕk) + i sin(nϕk))
und |znk | = rnk = |w| = `, woraus
rk =n√`, k = 0, . . . , n− 1,
folgt. Somit liegen alle Losungen auf einem Kreis mit Radius n√`. Vergleich der Real- und
Imaginarteile von znk und w fuhren auf die Beziehungen
cosα = cos(nϕk) und sinα = sin(nϕk),
woraus
α + 2πj = nϕk bzw. ϕk =α + 2πj
nmit j ∈ Z folgt. Wahlt man speziell j = k = 0, 1, . . . , n − 1, so erhalt man verschiedene
Losungen
ϕk =α + 2πk
n, k = 0, 1, . . . , n− 1.
Damit haben wir genau n Nullstellen von zn − w = 0 gefunden:
zk =n√`
(cos
(α + 2πk
n
)+ i sin
(α + 2πk
n
)), k = 0, 1, . . . , n− 1.
c© 2011 by M. Gerdts
1.6. KOMPLEXE ZAHLEN 33
Zusammenfassend gelten folgende Mengenrelationen fur die besprochenen Zahlensysteme:
N ( N0 ( Z ( Q ( R ( C
c© 2011 by M. Gerdts
Kapitel 2
Vektoren und Matrizen
Das Ziel dieses Kapitels ist es, Vektoren und Matrizen einzufuhren und geometrisch zu
motivieren. Elementare Rechenregeln fur Matrizen und Vektoren werden dargestellt, wel-
che uns spater bei der allgemeineren Definition von Vektorraumen in Kapitel 3 wieder
begegnen werden.
Daruber hinaus werden Konstrukte wie Skalarprodukt, Kreuzprodukt und Spatprodukt
eingefuhrt, die in den Ingenieurwissenschaften haufig Anwendung finden.
2.1 Vektoren
Wir unterscheiden im Folgenden zwischen skalaren Großen und Vektoren. Skalare
Großen sind reelle Zahlen und beschreiben zum Beispiel die Zeit, die Dichte, die Lange,
die Temperatur, die potenzielle oder kinetische Energie eines Objektes. Skalare Großen
lassen sich auf der Zahlengeraden darstellen, sie enthalten jedoch keine Information uber
Richtungen. Damit sind skalare Großen geeignet, um zum Beispiel die Große einer auf
einen Korper einwirkenden Kraft anzugeben, aber sie sind nicht geeignet, um die Richtung
der einwirkenden Kraft anzugeben.
Hier kommen Vektoren ins Spiel, die in der Physik zum Beispiel eine auf einen Korper
wirkende Kraft, ein Drehmoment, eine Stromungsrichtung, eine Geschwindigkeitsrichtung
oder eine Beschleunigungsrichtung darstellen. Vektoren enthalten neben ihrer Lange ins-
besondere eine Richtungsinformation und wir stellen uns Vektoren geometrisch als ge-
richtete Pfeile in einem ebenen oder raumlichen kartesischen Koordinatensystem mit
Ursprung 0 vor, vgl. Abbildung 2.1. Zur geometrischen Veranschaulichung der Begriffe
beschranken wir uns zunachst auf den 2-dimensionalen (ebenen) Fall und verallgemeinern
den Vektorbegriff anschließend auf den n-dimensionalen Fall mit n ∈ N.
34
2.1. VEKTOREN 35
x
y
0 ~e1
~e2
a1
a2~a =
[a1
a2
]
−~a =
[−a1−a2
]
Abbildung 2.1: Geometrische Darstellung von Vektoren: Einheitsvektoren ~e1 und ~e2 sowie
Vektoren ~a und −~a.
Das 2-dimensionale (ebene) Koordinatensystem (bzw. die Ausrichtrung dessen Achsen)
wird durch die beiden senkrecht aufeinander stehenden Einheitsvektoren
~e1 :=
[1
0
]und ~e2 :=
[0
1
]
festgelegt.
Bemerkung 2.1.1
Haufig bezeichnet man ~e1 auch mit ~ex und ~e2 mit ~ey, um die Assoziation mit der x- bzw.
y-Achse herzustellen.
Ein Vektor
~a :=
[a1
a2
]im zweidimensionalen Raum ist definiert durch seine Komponenten oder Koordinaten
a1 ∈ R, die den Anteil in Richtung des Einheitsvektors ~e1 (also in x-Richtung) angibt, und
a2 ∈ R, die den Anteil in Richtung des Einheitsvektors ~e2 (also in y-Richtung) angibt.
c© 2011 by M. Gerdts
36 KAPITEL 2. VEKTOREN UND MATRIZEN
Der Nullvektor ist definiert als ~0 =
[0
0
].
Die komponentenweise Darstellung eines Vektors ~a mit Komponenten a1 ∈ R und a2 ∈ Rbezieht sich dabei immer auf das fest gewahlte Koordinatensystem, das bei uns immer
das bekannte kartesische (d.h. rechtwinklige) Koordinatensystem sein wird, welches durch
die Einheitsvektoren ~e1 und ~e2 aufgespannt wird.
Bemerkung 2.1.2
Durch Parallelverschiebung eines Vektors erhalten wir beliebig viele Vektoren mit derselben
Ausrichtung und derselben Lange, die lediglich in verschiedenen Punkten des Koordinaten-
systems starten. Alle diese Vektoren werden als gleich angesehen. Als Stellvertreter dieser
Klasse von Vektoren wahlt man den vom Ursprung 0 ausgehenden Vektor.
Zwei Vektoren ~a und ~b sind genau dann gleich, wenn ihre Komponenten gleich sind, d.h.[a1
a2
]=
[b1
b2
]⇐⇒ a1 = b1 und a2 = b2.
2.1.1 Multiplikation mit Skalaren
Sei ~a =
[a1
a2
]ein Vektor. Die Multiplikation mit einem Skalar λ ∈ R ist definiert als
λ · ~a = λ
[a1
a2
]:=
[λ · a1λ · a2
].
Geometrisch handelt es sich um eine Skalierung der Lange des Vektors, wobei die Richtung
des resultierenden Vektors im Fall λ > 0 gleich der von ~a und im Fall λ < 0 entgegengesetzt
zu ~a ist.
Satz 2.1.3 (Rechenregeln)
Seien ~a und ~b Vektoren und λ und µ reelle Zahlen. Dann gelten die folgenden Distribu-
tivgesetze:
(a) (λ+ µ)~a = λ~a+ µ~a
(b) λ(~a+~b) = λ~a+ λ~b
c© 2011 by M. Gerdts
2.1. VEKTOREN 37
2.1.2 Vektoraddition
Seien ~a =
[a1
a2
]und ~b =
[b1
b2
]Vektoren. Die Summe von ~a und ~b ist definiert als
~a+~b =
[a1
a2
]+
[b1
b2
]:=
[a1 + b1
a2 + b2
].
Es wird also komponentenweise addiert. Geometrisch ergibt sich die Summe zweier Vek-
toren mit Hilfe einer Parallelverschiebung, vgl. Abbildung 2.2.
x
y
0
~a
~b
~a+~b
Abbildung 2.2: Geometrische Darstellung der Addition von Vektoren durch Parallelver-
schiebung.
Mit Hilfe der Einheitsvektoren ~e1 und ~e2 lasst sich der Vektor
~a =
[a1
a2
]
darstellen als
~a = a1~e1 + a2~e2 =
[a1
0
]+
[0
a2
]=
[a1
a2
].
Satz 2.1.4 (Rechenregeln)
Seien ~a, ~b und ~c Vektoren. Dann gelten die folgenden Rechenregeln:
(a) Kommutativgesetz: ~a+~b = ~b+ ~a
(b) Assoziativgesetz: (~a+~b) + ~c = ~a+ (~b+ ~c)
c© 2011 by M. Gerdts
38 KAPITEL 2. VEKTOREN UND MATRIZEN
2.1.3 Lange eines Vektors
Die (euklidische) Lange des Vektors
~a =
[a1
a2
]
ist nach dem Satz von Pythagoras gegeben durch
‖~a‖ :=√a21 + a22.
Der Operator ‖ · ‖ (genannt Norm) ordnet hierbei jedem Vektor seine euklidische Lange
zu. Ein Vektor mit Lange 1 heißt normiert. Haufig schreibt man auch |~a| anstatt ‖~a‖.
Bemerkung 2.1.5
Man kann die Lange eines Vektors auch anders definieren, etwa durch ‖~a‖1 := |a1|+ |a2|(Manhattan-Abstand) oder durch ‖~a‖∞ := max|a1|, |a2|.
Satz 2.1.6 (Rechenregeln)
Seien ~a und ~b Vektoren und λ ∈ R. Dann gelten die folgenden Rechenregeln:
(a) Dreiecksungleichung: |‖~a‖ − ‖~b‖| ≤ ‖~a+~b‖ ≤ ‖~a‖+ ‖~b‖
(b) ‖λ~a‖ = |λ|‖~a‖
2.1.4 Ortsvektoren und Verbindungsvektoren
Der Vektor vom Koordinatenursprung zum Punkt P = (p1, p2) heißt Ortsvektor von P
und ist durch
~p =
[p1
p2
]gegeben.
Fur zwei gegebene Punkte P = (p1, p2) mit Ortsvektor ~p und Q = (q1, q2) mit Ortsvektor
~q heißt der Vektor
~q − ~p =
[q1 − p1q2 − p2
]Verbindungsvektor von P nach Q. Er hat die Lange
‖~q − ~p‖ =√
(q1 − p1)2 + (q2 − p2)2
c© 2011 by M. Gerdts
2.1. VEKTOREN 39
und gibt den Abstand der Punkte P und Q an.
Beispiel 2.1.7 (Parameterdarstellung einer Geraden)
Sei P ein gegebener Punkt mit Ortsvektor ~p und ~r 6= ~0 ein Richtungsvektor. Die durch die
Vektoren
~x(t) := ~p+ t~r, t ∈ R,
gegebenen Ortsvektoren liegen alle auf der Geraden
g := ~x(t) | t ∈ R
durch P mit Richtung ~r.
~p
P
~r
g
Abbildung 2.3: Darstellung einer Geraden.
Beispiel 2.1.8 (Parameterdarstellung einer Ebene)
Sei P ein gegebener Punkt mit Ortsvektor ~p und ~r1, ~r2 6= ~0 Richtungsvektoren, die nicht
parallel seien. Die durch die Vektoren
~x(t1, t2) := ~p+ t1~r1 + t2~r2, t1, t2 ∈ R,
gegebenen Ortsvektoren liegen alle auf der Ebene
E := ~x(t1, t2) | t1, t2 ∈ R.
c© 2011 by M. Gerdts
40 KAPITEL 2. VEKTOREN UND MATRIZEN
~p
~r1
~r2
E
Abbildung 2.4: Darstellung einer Ebene.
2.1.5 Skalarprodukt (Inneres Produkt)
Wir haben bereits gesehen, wie die Multiplikation eines Skalars mit einem Vektor aus-
sieht. Es stellt sich die Frage, ob auch Vektoren miteinander multipliziert werden konnen.
Dies kann auf verschiedene Arten erfolgen. Wir beginnen mit dem Skalarprodukt zweier
Vektoren und betrachten spater das Kreuzprodukt.
Definition 2.1.9 (Geometrische Definition des Skalarprodukts)
Das Skalarprodukt (auch Inneres Produkt genannt) 〈~a,~b〉 zweier Vektoren ~a und ~b
ist definiert als
〈~a,~b〉 := ‖~a‖ · ‖~b‖ · cosϕ,
wobei ϕ den zwischen ~a und ~b eingeschlossenen Winkel bezeichnet.
Bemerkung 2.1.10
Beachte, dass das Skalarprodukt zweier Vektoren eine reelle Zahl und nicht etwa ein Vektor
ist! Haufig findet man auch die Schreibweise ~a ·~b anstatt 〈~a,~b〉.
Stehen die Vektoren ~a und ~b senkrecht aufeinander, d.h. gilt ϕ = ±90, so gilt cosϕ = 0
und damit auch 〈~a,~b〉 = 0.
c© 2011 by M. Gerdts
2.1. VEKTOREN 41
Definition 2.1.11 (Orthogonalitat, Orthonormalitat, Normalenvektor)
(a) Zwei Vektoren ~a 6= ~0 und ~b 6= ~0 heißen orthogonal (in Zeichen ~a ⊥ ~b), wenn
〈~a,~b〉 = 0 gilt.
(b) Zwei Vektoren ~a 6= ~0 und ~b 6= ~0 heißen orthonormal, wenn 〈~a,~b〉 = 0 und ‖~a‖ =
‖~b‖ = 1 gelten.
(c) Ein Vektor ~n der Lange ‖~n‖ = 1, der senkrecht auf einer Geraden oder einer Ebene
steht, heißt Normalenvektor.
Satz 2.1.12 (Rechenregeln)
Seien ~a, ~b und ~c Vektoren. Dann gelten die folgenden Rechenregeln:
(a) Kommutativgesetz: 〈~a,~b〉 = 〈~b,~a〉
(b) Distributivgesetz: 〈~a,~b+ ~c〉 = 〈~a,~b〉+ 〈~a,~c〉
(c) Zusammenhang von Lange und Skalarprodukt: 〈~a,~a〉 = ‖~a‖2
Beweis: Teile (a) und (c) ergeben sich sofort aus der Definition.
Fur Teil (b) nutzt man folgende geometrische Betrachtung:
~a ~a
~b~b
b~a = ‖~b‖ cosϕ
ϕ
~c
~b+ ~c
b~a c~a
Im linken Bild ist b~a := ‖~b‖ cosϕ die Lange der Projektion des Vektors ~b auf den Vektor
~a. Fur das Skalarprodukt gilt dann
〈~a,~b〉 = ‖~a‖ · ‖~b‖ · cosϕ = ‖~a‖ · b~a.
Analog gilt fur ~c
〈~a,~c〉 = ‖~a‖ · c~a.
c© 2011 by M. Gerdts
42 KAPITEL 2. VEKTOREN UND MATRIZEN
und fur ~b+ ~c
〈~a,~b+ ~c〉 = ‖~a‖ · (b+ c)~a,
wobei (b+ c)~a die Lange der Projektion von ~b+ ~c auf ~a bezeichnet.
Aus dem rechten Bild ist ersichtlich, dass
b~a + c~a = (b+ c)~a
gilt. Damit folgt
〈~a,~b+ ~c〉 = ‖~a‖ · (b+ c)~a
= ‖~a‖ · (b~a + c~a)
= ‖~a‖ · b~a + ‖~a‖ · c~a= 〈~a,~b〉+ 〈~a,~c〉.
Beispiel 2.1.13 (Hesse’sche Normalform einer Geraden)
Sei ~n ∈ R2 ein Vektor mit ‖~n‖ = 1 und c ∈ R eine gegebene Zahl mit c ≥ 0. Die Menge
g = ~x ∈ R2 | 〈~n, ~x〉 = c
beschreibt eine Gerade im R2, welche in der sogenannten Hesse’schen Normalform
dargestellt ist. Die Gerade enthalt den Punkt c~n wegen
〈~n, c~n〉 = c‖~n‖ = c.
Desweiteren verlauft die Gerade g senkrecht zu ~n, denn fur beliebige ~x, ~y ∈ g gilt
〈~n, ~x− ~y〉 = 〈~n, ~x〉 − 〈~n, ~y〉 = c− c = 0.
~n
c~n
~x
~y
~y − ~x
g
Im dreidimensionelen Raum R3 konnen Ebenen in analoger Weise durch die Hesse’sche
Normalform beschrieben werden. Im m-dimensionalen Raum Rm beschreibt die Menge
~x ∈ Rm | 〈~n, ~x〉 = c
c© 2011 by M. Gerdts
2.1. VEKTOREN 43
eine sogenannte Hyperebene.
Das Skalarprodukt zweier Vektoren kann ohne den Cosinus berechnet werden. Seien dazu
~a = a1~e1 + a2~e2 =
[a1
a2
]und ~b = b1~e1 + b2~e2 =
[b1
b2
]
in Koordinatenform gegeben. Mit Hilfe der Einheitsvektoren, des Kommutativgesetzes
und des Distributivgesetzes folgt dann
〈~a,~b〉 = 〈a1~e1 + a2~e2, b1~e1 + b2~e2〉= 〈a1~e1 + a2~e2, b1~e1〉+ 〈a1~e1 + a2~e2, b2~e2〉= (a1b1) 〈~e1, ~e1〉︸ ︷︷ ︸
=1
+(a2b1) 〈~e2, ~e1〉︸ ︷︷ ︸=0
+(a1b2) 〈~e1, ~e2〉︸ ︷︷ ︸=0
+(a2b2) 〈~e2, ~e2〉︸ ︷︷ ︸=1
= a1b1 + a2b2.
Damit ist folgender Satz bewiesen, der analog auch fur allgemeine Vektordimensionen gilt:
Satz 2.1.14
Gegeben seien Vektoren
~a =
[a1
a2
]und ~b =
[b1
b2
].
Dann gilt
〈~a,~b〉 = ‖~a‖ · ‖~b‖ · cosϕ = a1b1 + a2b2.
Fur Abschatzungen ist der folgende beruhmte Satz nutzlich, der ebenfalls fur allgemeine
Vektordimensionen gilt:
Satz 2.1.15 (Cauchy-Schwarz’sche Ungleichung)
Fur Vektoren ~a und ~b gilt ∣∣∣〈~a,~b〉∣∣∣ ≤ ‖~a‖ · ‖~b‖bzw. in Koordinatenschreibweise
|a1b1 + a2b2| ≤√a21 + a22 ·
√b21 + b22.
c© 2011 by M. Gerdts
44 KAPITEL 2. VEKTOREN UND MATRIZEN
Mit Hilfe von Satz 2.1.14 kann das Skalarprodukt leicht berechnet werden. Definition 2.1.9
kann dann benutzt werden, um den Winkel zwischen zwei Vektoren gemaß
cosϕ =〈~a,~b〉‖~a‖ · ‖~b‖
zu bestimmen.
Beispiel 2.1.16 (Winkel zwischen Vektoren)
(a)
~a =
[1
0
],~b =
[1
1
]=⇒ cosϕ =
1 + 0
1 ·√
2=
1√2, ϕ =
π
4
(b)
~a =
[1
−1
],~b =
[1
1
]=⇒ cosϕ =
1− 1√2 ·√
2= 0, ϕ =
π
2
(c)
~a =
[−1
−1
],~b =
[1
1
]=⇒ cosϕ =
−1− 1√2 ·√
2= −1, ϕ = π
Beispiel 2.1.17 (Winkel zwischen Geraden und Ebenen)
(a) Sind ~r1 und ~r2 Richtungsvektoren von zwei Geraden g1 und g2, so erfullt der Winkel
ϕ zwischen den Geraden die Gleichung
cosϕ =〈~r1, ~r2〉‖~r1‖ · ‖~r2‖
.
(b) Sind ~n1 und ~n2 Normalenvektoren von zwei Ebenen E1 und E2, so erfullt der Winkel
ϕ zwischen den Ebenen die Gleichung
cosϕ =〈 ~n1, ~n2〉‖ ~n1‖ · ‖ ~n2‖
.
(c) Ist ~n ein Normalenvektor der Ebene E und ~r ein Richtungsvektor der Geraden g,
so erfullt der Winkel ϕ zwischen der Ebene und der Geraden die Gleichung
sinϕ = cos(π
2− ϕ
)=〈~n,~r〉‖~n‖ · ‖~r‖
.
c© 2011 by M. Gerdts
2.1. VEKTOREN 45
~n2
~n1ϕ
~r ~n
ϕ
Bei der Umkehrabbildung von cos zur Bestimmung von ϕ ist es in obigen Fallen ublich,
den kleineren Winkel zu wahlen, also ϕ aus [0, π/2] zu wahlen.
2.1.6 Kreuzprodukt (Vektorprodukt, Außeres Produkt)
Das Skalarprodukt ist nicht die einzige Moglichkeit, eine Multiplikation von Vektoren
gleicher Dimension zu definieren. Eine weitere Moglichkeit bietet das sogenannte Kreuz-
produkt zweier Vektoren im R3, welches als Resultat wieder einen Vektor im R3 liefert.
Das Kreuzprodukt wird haufig in der Mechanik zur Beschreibung von Momenten und
Winkelgeschwindigkeiten verwendet.
Definition 2.1.18 (Kreuzprodukt, Vektorprodukt, Außeres Produkt)
Seien
~a =
a1
a2
a3
, ~b =
b1
b2
b3
Vektoren im R3. Das Kreuzprodukt (Vektorprodukt, Außeres Produkt) ~a ×~b ist
definiert als
~a×~b :=
a2b3 − a3b2a3b1 − a1b3a1b2 − a2b1
.
Bemerkung 2.1.19
Spater werden wir Determinanten kennen lernen. Damit lasst sich das Kreuzprodukt for-
mal darstellen als
~a×~b =
∣∣∣∣∣∣∣~e1 ~e2 ~e3
a1 a2 a3
b1 b2 b3
∣∣∣∣∣∣∣ .c© 2011 by M. Gerdts
46 KAPITEL 2. VEKTOREN UND MATRIZEN
Satz 2.1.20 (Eigenschaften)
Das Kreuzprodukt ~c = ~a×~b zweier Vektoren ~a,~b ∈ R3 besitzt folgende Eigenschaften:
(a) ~c ist orthogonal zu ~a und ~b, d.h. es gilt 〈~c,~a〉 = 〈~c,~b〉 = 0.
(b) Die Vektoren ~a, ~b und ~c bilden ein Rechtssystem, d.h. wenn Daumen und Zeige-
finger der rechten Hand in Richtung ~a und ~b zeigen, dann zeigt ~c in Richtung des
angewinkelten Mittelfingers.
(c) Es gilt ‖~c‖ = ‖~a‖ ·‖~b‖ · sinϕ, wobei ϕ den zwischen ~a und ~b eingeschlossenen Winkel
bezeichnet. Damit gibt ‖~c‖ gerade den Flacheninhalt des von ~a und ~b aufgespannten
Parallelogramms an.
Beispiel 2.1.21 (Flacheninhalt eines Dreiecks)
Betrachte ein im Raum liegendes Dreieck, dessen Eckpunkte durch die Ortsvektoren ~u,~v, ~w ∈R3 beschrieben werden. Der Flacheninhalt ist dann gegeben durch
F =1
2‖(~u− ~w)× (~v − ~w)‖.
~u
~v
~w
Beispiel 2.1.22 (Drehmoment)
Greift eine Kraft ~F im Punkt ~r (gemessen vom Schwerpunkt des Korpers) an einem
drehbaren, starren Korper an, so ergibt sich das Drehmoment
~M = ~r × ~F ,
c© 2011 by M. Gerdts
2.1. VEKTOREN 47
vgl. Abbildung.
~M
~r ~F
Der Betrag des Drehmoments betragt ‖ ~M‖ = ‖~r‖ · ‖~F‖ · sinϕ, wobei ‖~F‖ · sinϕ gerade die
auf ~r senkrechte Kraftkomponente von ~F ist. Der Vektor ~r bzw. dessen Lange ‖~r‖ wird
auch als Hebelarm bezeichnet.
Beispiel 2.1.23 (Bahngeschwindigkeit)
Die Winkelgeschwindigkeit ~ω ist ein Vektor, der die Drehachse und Geschwindigkeit einer
Rotationsbewegung angibt. Die Richtung von ~ω ist dabei senkrecht zur Rotationsebene.
Bewegt sich ein Teilchen mit konstanter Winkelgeschwindigkeit auf einer Bahn mit Radi-
usvektor ~r, so ergibt sich dessen Bahngeschwindigkeit ~v aus
~v = ~ω × ~r,
siehe Abbildung (Quelle: Wikipedia).
Durch Nachrechnen (bitte machen!) ergeben sich folgende Ergebnisse fur die Einheitsvek-
c© 2011 by M. Gerdts
48 KAPITEL 2. VEKTOREN UND MATRIZEN
toren ~e1, ~e2 und ~e3:
~e1 × ~e1 = ~e2 × ~e2 = ~e3 × ~e3 = ~0,
~e1 × ~e2 = −(~e2 × ~e1) = ~e3,
~e1 × ~e3 = −(~e3 × ~e1) = −~e2,~e2 × ~e3 = −(~e3 × ~e2) = ~e1.
Diese Ergebnisse legen die Vermutung nahe, dass das Kreuzprodukt paralleler Vektoren
den Nullvektor ergibt. Desweiteren zeigt sich, dass das Kreuzprodukt nicht kommutativ
ist, sondern dass das Vertauschen der Reihenfolge der Vektoren zum entgegengesetzten
Kreuzprodukt-Vektor fuhrt. Diese Beobachtungen gelten allgemein:
Satz 2.1.24
Seien ~a, ~b und ~c Vektoren im R3. Dann gelten folgende Aussagen:
(a) Sind ~a und ~b parallel, d.h. es gibt λ ∈ R, λ 6= 0, mit ~a = λ~b, so gilt ~a×~b = ~0.
(b) Rechenregeln:
~a×~b = −(~b× ~a),
(λ~a)×~b = ~a× (λ~b) = λ(~a×~b),~a× (~b+ ~c) = ~a×~b+ ~a× ~c,(~a+~b)× ~c = ~a× ~c+~b× ~c.
(c) Das Kreuzprodukt ist nicht assoziativ, d.h. im Allgemeinen gilt
(~a×~b)× ~c 6= ~a× (~b× ~c).
(Finde ein Beispiel hierfur! Finde auch Spezialfalle, fur die Gleichheit gilt!)
Mit Hilfe des Kreuzprodukts kann die Hesse’sche Normalform einer Ebene leicht berechnet
werden.
Beispiel 2.1.25 (Berechnung der Hesse’schen Normalform einer Ebene aus der
Parameterdarstellung)
Gegeben sei ein Ortsvektor ~p ∈ R3 und zwei Richtungsvektoren ~r1, ~r2 ∈ R3, die die Ebene
E aufspannen. Ein Normalenvektor fur die Ebene ist dann durch
~n =~r1 × ~r2‖~r1 × ~r2‖
c© 2011 by M. Gerdts
2.1. VEKTOREN 49
gegeben. Eine Darstellung der Ebene in Hesse’scher Normalform lautet dann
E = ~x ∈ R3 | 〈~n, ~x− ~p〉 = 0,
wobei der Vektor ~n aus Konventionsgrunden noch mit −1 multipliziert werden muss, falls
〈~n, ~p〉 < 0 ist (Beachte, dass mit ~n auch −~n ein Normalenvektor ist!). Insbesondere ist
|〈~n, ~p〉| der Abstand der Ebene zum Ursprung.
Beispiel 2.1.26 (Richtung der Schnittgeraden zweier Ebenen)
Betrachte zwei sich schneidende Ebenen mit Normalenvektoren ~n1, ~n2 ∈ R3. Gesucht ist
die Richtung ~r der Schnittgeraden der Ebenen.
Offenbar ist ~r dann orthogonal zu ~n1 und ~n2, d.h. wir suchen einen Vektor, der senkrecht
auf beiden Normalenvektoren steht. Ein solcher Vektor ist gegeben durch
~r = ~n1 × ~n2.
Jedes Vielfache von ~r ist ebenfalls geeignet.
Beispiel 2.1.27 (Abstand eines Punktes von einer Geraden)
Die Gerade g liege in Parameterform
g = ~x ∈ R3 | ~x = ~p+ t~r, t ∈ R
mit Ortsvektor ~p und Richtungsvektor ~r 6= ~0 vor.
Gesucht ist der Abstand d des Punktes Q mit Ortsvektor ~q zur Gerade g.
Q
P
~q − ~p~r
d
ϕ
Es gilt
d = ‖~q − ~p‖ sinϕ,
‖(~q − ~p)× ~r‖ = ‖~q − ~p‖ · ‖~r‖ · sinϕ = d‖~r‖,
d =‖(~q − ~p)× ~r‖
‖~r‖.
c© 2011 by M. Gerdts
50 KAPITEL 2. VEKTOREN UND MATRIZEN
Beispiel 2.1.28 (Abstand windschiefer Geraden)
Gegeben seien die Geraden g1 und g2 in Parameterform
g1 = ~x ∈ R3 | ~x = ~p1 + t~r1, t ∈ R,g2 = ~x ∈ R3 | ~x = ~p2 + t~r2, t ∈ R,
wobei ~r1 und ~r2 nicht parallel seien.
Gesucht ist der Abstand d der Geraden.
E2
E1
~p2 − ~p1
d
ϕ~n
Wir betten die Gerade in parallele Ebenen
E1 = ~x ∈ R3 | ~x = ~p1 + t1~r1 + t2~r2, t1, t2 ∈ R,E2 = ~x ∈ R3 | ~x = ~p2 + t1~r1 + t2~r2, t1, t2 ∈ R
ein und bestimmen den Abstand der Ebenen.
Es gilt
d = ‖~p2 − ~p1‖ cosϕ,
~n = ±(~r1 × ~r2),
cosϕ =〈~p2 − ~p1, ~n〉‖~p2 − ~p1‖ · ‖~n‖
und damit
d =〈~p2 − ~p1, ~n〉‖~n‖
=±〈~p2 − ~p1, ~r1 × ~r2〉‖~r1 × ~r2‖
=|〈~p2 − ~p1, ~r1 × ~r2〉|‖~r1 × ~r2‖
.
Nicht parallele Geraden mit Abstand d > 0 heißen windschief.
c© 2011 by M. Gerdts
2.1. VEKTOREN 51
2.1.7 Spatprodukt
Das Spatprodukt setzt sich aus Kreuz- und Skalarprodukt zusammen.
Definition 2.1.29 (Spatprodukt)
Fur gegebene Vektoren ~a,~b,~c ∈ R3 ist das Spatprodukt [~a,~b,~c] definiert durch
[~a,~b,~c] := 〈~a×~b,~c〉.
Fur
~a =
a1
a2
a3
, ~b =
b1
b2
b3
, ~c =
c1
c2
c3
ergibt sich durch Nachrechnen die Formel
[~a,~b,~c] = (a2b3 − a3b2)c1 + (a3b1 − a1b3)c2 + (a1b2 − a2b1)c3.
Bemerkung 2.1.30
Mit Hilfe der spater behandelten Determinanten kann das Spatprodukt geschrieben werden
als
[~a,~b,~c] =
∣∣∣∣∣∣∣a1 b1 c1
a2 b2 c2
a3 b3 c3
∣∣∣∣∣∣∣ .
Das Spatprodukt ist nutzlich, um Volumina von geometrischen Objekten zu berechnen.
Beispiel 2.1.31 (Volumen eines Parallelepipeds)
Gegeben sei ein durch die Vektoren ~a,~b,~c ∈ R3 aufgespanntes Parallelepiped (Spat), vgl.
Abbildung.
~a
~b
~c
~a×~b
ϕ
~c
h
Gesucht ist das Volumen V des Parallelepipeds. Es gilt
V = ‖~a×~b‖ · h
c© 2011 by M. Gerdts
52 KAPITEL 2. VEKTOREN UND MATRIZEN
mit h = ‖~c‖ · | cosϕ|. Mit Hilfe des Skalarprodukts folgt
cosϕ =〈~a×~b,~c〉‖~a×~b‖ · ‖~c‖
=⇒ h =
∣∣∣〈~a×~b,~c〉∣∣∣‖~a×~b‖
und damit
V = ‖~a×~b‖ · h =∣∣∣[~a,~b,~c]∣∣∣ .
Tetraeder spielen eine wichtige Rolle in der Finite Element Methode (FEM) zur numeri-
schen Losung partieller Differentialgleichungen, welche u.a. Stromungsvorgange, Aufhei-
zungsprozesse und Transportprozesse beschreiben.
Beispiel 2.1.32 (Volumen eines Tetraeders)
Gegeben sei ein durch die Vektoren ~a,~b,~c ∈ R3 aufgespannter Tetraeder, vgl. Abbildung.
~a
~b
~c
Das Volumen des Tetraeders betragt dann
V =1
6
∣∣∣[~a,~b,~c]∣∣∣ .
Satz 2.1.33 (Eigenschaften)
(a) Das Spatprodukt ist genau dann Null, wenn die drei Vektoren in einer Ebene liegen.
(b) Das Spatprodukt [~a,~b,~c] ist großer Null, wenn die ~a, ~b, ~c ein Rechtssystem bilden,
und kleiner Null, wenn sie ein Linkssystem bilden.
(c) Die Vektoren konnen zyklisch vertauscht werden, ohne den Wert des Spatprodukts
zu andern, d.h.
[~a,~b,~c] = [~c,~a,~b] = [~b,~c,~a].
(d) Werden die Vektoren antizyklisch vertauscht, so andert sich das Vorzeichen des
Spatprodukts, d.h.
[~a,~b,~c] = −[~c,~b,~a].
c© 2011 by M. Gerdts
2.1. VEKTOREN 53
2.1.8 Vektoren im Rn
Nachdem wir uns bisher auf den ebenen bzw. raumlichen Fall beschrankt haben, verall-
gemeinern wir den Vektorbegriff nun auf n ∈ N Dimensionen. Fur n > 3 versagt die
geometrische Vorstellungskraft, allerdings spricht mathematisch nichts dagegen, n Zahlen
in einem gemeinsamen Vektor der Dimension n zusammenzufassen und damit zu rechnen.
Definition 2.1.34 (Vektor, Dimension, Komponenten, Nullvektor, Skalar)
(a) Fur n ∈ N und n Zahlen x1, . . . , xn heißt
~x :=
x1
x2...
xn
(Spalten-)Vektor. n bezeichnet die Dimension des Vektors.
(b) Die Zahlen x1, . . . , xn heißen Komponenten des Vektors.
(c) Vektoren der Dimension n = 1 heißen Skalar.
(d) Ein Vektor, dessen Komponenten alle Null sind, heißt Nullvektor und wird mit ~0
bezeichnet.
(e) Werden die Komponenten x1, . . . , xn nebeneinander in der Form[x1 · · · xn
]geschrieben, so spricht man von einem Zeilenvektor.
(f) Die Vektoren
~e1 =
1
0...
0
, ~e2 =
0
1...
0
, . . . , ~en =
0...
0
1
heißen Einheitsvektoren des Rn.
c© 2011 by M. Gerdts
54 KAPITEL 2. VEKTOREN UND MATRIZEN
Bemerkung 2.1.35
Im Folgenden verstehen wir unter einem Vektor stets einen Spaltenvektor. Falls nichts an-
deres gesagt wird, sind die Komponenten eines Vektors stets reelle Zahlen. Wir schreiben
~x ∈ Rn fur einen n-dimensionalen Vektor mit reellen Komponenten. Alternative Schreib-
weisen in der Literatur sind x, x oder einfach x.
Zwei Vektoren ~x und ~y sind genau dann gleich, wenn ihre Komponenten gleich sind, d.h. x1...
xn
=
y1...
yn
⇐⇒ xi = yi fur i = 1, . . . , n.
Vektoren unterschiedlicher Dimension sind also niemals gleich!
Die Multiplikation eines Vektors mit einem Skalar und die Addition zweier Vek-
toren gleicher Dimension sind komponentenweise definiert:
λ
x1...
xn
:=
λx1...
λxn
, x1
...
xn
+
y1...
yn
:=
x1 + y1...
xn + yn
.Fur Vektoren unterschiedlicher Dimension ist die Addition nicht definiert!
Durch Nachrechnen ergibt sich
Satz 2.1.36 (Rechenregeln)
Seien ~a, ~b und ~c Vektoren gleicher Dimension und λ und µ Zahlen. Dann gelten folgende
Rechenregeln:
~a+~b = ~b+ ~a (Kommutativgesetz)
(~a+~b) + ~c = ~a+ (~b+ ~c) (Assoziativgesetz)
~a+~0 = ~a (Neutralitat des Nullvektors bzgl. Addition)
~a+ (−~a) = ~0 (Existenz eines additiv inversen Vektors)
λ(µ~a) = (λµ)~a (Assoziativitat bei Multiplikation mit Skalaren)
λ(~a+~b) = λ~a+ λ~b (Distributivgesetz I)
(λ+ µ)~a = λ~a+ µ~a (Distributivgesetz II).
c© 2011 by M. Gerdts
2.1. VEKTOREN 55
Spater werden wir den Spieß umdrehen und einen Vektorraum (also eine Menge von
Vektoren) dadurch definieren, dass in einem solchen Raum genau die Rechenregeln in
Satz 2.1.36 gelten. Dies kann auf sehr allgemeine Mengen fuhren, deren Elemente formal
als Vektoren bezeichnet werden, die aber nichts mehr mit der ublichen geometrischen
Vorstellung von Vektoren zu tun haben mussen. Dennoch kann man mit diesen Vektoren
wie in Satz 2.1.36 angegeben rechnen.
Die folgende Normdefinition gilt fur reelle und komplexe Vektoren:
Definition 2.1.37 (Norm (Lange) eines Vektors)
Die (euklidische) Norm (Lange) des Vektors
~x =
x1...
xn
ist definiert als
‖~x‖ :=√|x1|2 + . . .+ |xn|2.
Ein Vektor ~x mit ‖~x‖ = 1 heißt normiert.
Fur Vektoren ~x mit reellen Komponenten konnen die Betrage in den Termen |xk|2, k =
1, . . . , n, in Definition 2.1.37 auch weggelassen werden.
Die Normabbildung ‖ · ‖ besitzt folgende Eigenschaften:
Satz 2.1.38 (Normeigenschaften)
Seien ~x und ~y Vektoren gleicher Dimension und λ eine Zahl. Dann gelten:
‖λ~x‖ = |λ| · ‖~x‖‖~x+ ~y‖ ≤ ‖~x‖+ ‖~y‖ (Dreiecksungleichung)
‖~x+ ~y‖ ≥ |‖~x‖ − ‖~y‖|‖~x‖ = 0 ⇐⇒ ~x = ~0
Analog zu Satz 2.1.14 ist das Skalarprodukt auch fur n-dimensionale Vektoren definiert.
c© 2011 by M. Gerdts
56 KAPITEL 2. VEKTOREN UND MATRIZEN
Definition 2.1.39 (Skalarprodukt)
Fur reelle Vektoren
~x =
x1...
xn
und ~y =
y1...
yn
ist das Skalarprodukt 〈~x, ~y〉 definiert als
〈~x, ~y〉 :=n∑i=1
xiyi.
Satz 2.1.40 (Cauchy-Schwarz’sche Ungleichung)
Fur alle Vektoren ~x und ~y gleicher Dimension gilt
|〈~x, ~y〉| ≤ ‖~x‖ · ‖~y‖.
Bemerkung 2.1.41
(a) Die geometrische Definition des Skalarprodukts aus Definition 2.1.9 mit
〈~x, ~y〉 = ‖~x‖ · ‖~y‖ · cosϕ
gilt unverandert.
(b) Sind die Komponenten von ~x und ~y komplexe Zahlen, so muss die Definition des
Skalarprodukts modifiziert werden zu
〈~x, ~y〉 :=n∑i=1
xiyi,
um die wichtige Eigenschaft 〈~x, ~x〉 ≥ 0 zu erhalten.
2.2 Allgemeine Vektorraume
Mit Hilfe der Rechenregeln in Satz 2.1.36 lassen sich allgemeine Vektorraume definie-
ren. Deren Elemente – die Vektoren – genugen dann automatisch den Rechenregeln in
c© 2011 by M. Gerdts
2.2. ALLGEMEINE VEKTORRAUME 57
Satz 2.1.36. Die bisher betrachteten n-dimensionalen Vektoren des Rn bilden damit einen
speziellen Vektorraum.
Definition 2.2.1 (Vektorraum, linearer Raum)
Ein Vektorraum (V,+, ·) uber dem Skalarenkorper K = R oder K = C besteht aus einer
Menge V , auf der die Addition zweier Elemente und die Multiplikation mit einem Skalar
aus K mit den folgenden Eigenschaften definiert sind:
(a) Abgeschlossenheit: Mit x, y ∈ V ist auch x + y ∈ V . Mit x ∈ V und λ ∈ K ist
auch λx ∈ V .
(b) Kommutativgesetz: Fur alle x, y ∈ V gilt
x+ y = y + x.
(c) Assoziativgesetz: Fur alle x, y, z ∈ V gilt
x+ (y + z) = (x+ y) + z.
(d) Existenz eines Nullelements: Es existiert 0 ∈ V (Nullelement), so dass fur alle
x ∈ V gilt:
x+ 0 = x.
(e) Existenz eines additiv inversen Elements: Zu jedem x ∈ V gibt es genau ein
Element y ∈ V mit
x+ y = 0.
(f) Neutralitat der 1: Fur alle x ∈ V gilt
1 · x = x.
(g) Multiplikation mit Skalar: Fur alle x, y ∈ V und λ, µ ∈ K gelten
λ(µx) = (λµ)x,
(λ+ µ)x = λx+ µx,
λ(x+ y) = λx+ λy.
Man schreibt haufig V an Stelle von (V,+, ·), wenn klar ist, welche Addition und welche
Multiplikation gemeint ist. Die Elemente des Vektorraums V nennt man Vektoren.
c© 2011 by M. Gerdts
58 KAPITEL 2. VEKTOREN UND MATRIZEN
Beispiel 2.2.2
(a) Rn ist ein Vektorraum uber K = R und Cn ist ein Vektorraum uber K = C.
(b) Die Menge aller stetigen Funktionen auf dem Intervall [0, 1] versehen mit der punkt-
weisen Addition und Multiplikation ist ein Vektorraum.
(c) Die Menge aller Polynome vom Hochstgrad n definiert einen Vektorraum uber R(Zeige dies durch Nachprufen der Bedingungen (a)-(f)!).
(d) Die Gerade ~x(t) ∈ R2
∣∣∣ ~x(t) = t
[1
−1
], t ∈ R
definiert einen Vektorraum uber R.
(e) Die Gerade ~x(t) ∈ R2
∣∣∣ ~x(t) =
[1
0
]+ t
[1
−1
], t ∈ R
definiert keinen Vektorraum uber R (Warum nicht?).
Vektorraume konnen also sehr viel abstrakter aussehen als die bisher betrachteten geo-
metrischen Vektorraume, daher schreibt man fur die Elemente eines Vektorraums in der
Regel auch x (ohne Pfeil) anstatt ~x. Mit ~x verbinden wir stets die geometrischen Vek-
toren im Rn. Dennoch gelten stets dieselben Rechenregeln in allen Vektorraumen. Kann
man Aussagen fur allgemeine Vektorraume beweisen, so gelten diese somit auch fur alle
speziellen Vektorraume.
Definition 2.2.3 (Linearkombination)
Seien m ∈ N Vektoren x1, . . . , xm aus einem Vektorraum und Zahlen λ1, . . . , λm gegeben.
Dann heißt
λ1x1 + . . .+ λmxm =m∑i=1
λixi
eine Linearkombination der Vektoren x1, . . . , xm.
c© 2011 by M. Gerdts
2.2. ALLGEMEINE VEKTORRAUME 59
Beispiel 2.2.4
Wegen
x1...
xn
= x1
1
0...
0
+ . . .+ xn
0...
0
1
= x1~e1 + . . .+ xn ~en =n∑i=1
xi~ei
lasst sich jeder Vektor ~x ∈ Rn als Linearkombination der Einheitsvektoren darstellen.
Definition 2.2.5 (Lineare Unabhangigkeit, lineare Abhangigkeit)
Seien m ≥ 2 Vektoren x1, . . . , xm aus einem Vektorraum gegeben.
(a) Die Vektoren xk, k = 1, . . . ,m, sind linear unabhangig genau dann, wenn aus
der Darstellung
0 =m∑k=1
λkxk = λ1x1 + . . .+ λmxm
stets folgt
λ1 = . . . = λm = 0.
(b) Die Vektoren xk, k = 1, . . . ,m, sind linear abhangig genau dann, wenn es Zahlen
λk, k = 1, . . . ,m, gibt, die nicht alle Null sind und
0 =m∑k=1
λkxk = λ1x1 + . . .+ λmxm.
erfullen.
Beispiel 2.2.6
(a) Die Einheitsvektoren ~e1, . . . , ~en ∈ Rn sind linear unabhangig.
(b) Die Vektoren 1
1
0
, 1
−1
0
, 1
1
1
sind linear unabhangig.
c© 2011 by M. Gerdts
60 KAPITEL 2. VEKTOREN UND MATRIZEN
(c) Die Vektoren 1
1
0
, 0
0
−1
, 1
1
1
sind linear abhangig, denn es gilt
−
1
1
0
+
0
0
−1
+
1
1
1
= ~0.
Sind die Vektoren x1, . . . , xm linear abhangig, so laßt sich stets einer dieser Vektoren als
Linearkombination der ubrigen Vektoren darstellen, da es dann Zahlen λ1, . . . , λm gibt,
die nicht alle Null sind, mit
0 = λ1x1 + . . .+ λmxm.
Ist dann etwa λk 6= 0 fur k ∈ 1, . . . ,m, so folgt
xk = − 1
λk
m∑j=1
j 6=k
λjxj.
Eine solche Darstellung ist nicht moglich, wenn die Vektoren linear unabhangig sind.
Definition 2.2.7 (Basis, Dimension, Unterraum)
Sei V ein Vektorraum.
(a) Die Menge B ⊆ V heißt Basis von V , wenn sich jedes Element aus V eindeutig
als Linearkombination von Elementen aus B darstellen lasst. Die Elemente in B
heißen Basiselemente oder Basisvektoren.
(b) Die Dimension des Vektorraums V ist definiert als die Anzahl der Basiselemente
in B. Ist B endlich, so ist V ein endlichdimensionaler Vektorraum, andernfalls
ein unendlichdimensionaler Vektorraum.
(c) Eine Teilmenge U von V heißt Untervektorraum oder Teilraum von V , wenn
U selbst ein Vektorraum ist.
c© 2011 by M. Gerdts
2.2. ALLGEMEINE VEKTORRAUME 61
Beispiel 2.2.8
(a) B = ~e1, . . . , ~en ist eine Basis des Vektorraums Rn. Die Dimension von Rn ist n.
(b) B =
[1
0
],
[1
−1
]ist eine Basis des R2. Die Dimension ist 2.
(c) B =
[1
0
],
[1
−1
],
[0
1
]ist keine Basis des R2.
(d) Die Menge ~x(t) ∈ R2
∣∣∣ ~x(t) = t
[1
−1
], t ∈ R
definiert einen Untervektorraum des R2.
(e) Die Menge der elementaren Polynome
1, x, x2, . . . , xn
ist eine (n+1)-dimensionale Basis des Vektorraums der Polynome mit Hochstgrad
n.
Bemerkung 2.2.9
Die Basiselemente einer Basis B sind stets linear unabhangig im Sinne von Definiti-
on 2.2.5. Andernfalls konnten die Elemente eines Vektorraums durch verschiedene Line-
arkombinationen dargestellt werden, was per Definition einer Basis ausgeschlossen ist.
Da sich die in Vektorraumen gultigen Rechenregeln auf Teilmengen vererben, genugt es,
die Abgeschlossenheit einer Teilmenge zu uberprufen:
Satz 2.2.10
U ⊆ V , U 6= ∅, ist genau dann ein Untervektorraum von V , wenn U abgeschlossen ist,
d.h. wenn
x, y ∈ U =⇒ x+ y ∈ U,x ∈ U, λ ∈ K =⇒ λx ∈ U.
c© 2011 by M. Gerdts
62 KAPITEL 2. VEKTOREN UND MATRIZEN
Durch Vorgabe von endlich vielen Vektoren wird ein Vektorraum durch das Bilden aller
Linearkombinationen erzeugt:
Definition 2.2.11
Sei V ein Vektorraum und x1, . . . , xn ∈ V gegebene Vektoren. Dann heißt
U :=
x ∈ V
∣∣∣ x =n∑k=1
λkxk, λk ∈ R, k = 1, . . . , n
der von x1, . . . , xn erzeugte Vektorraum.
Man muss noch nachweisen, dass der von x1, . . . , xn erzeugte Vektorraum tatsachlich ein
Vektorraum ist. Dies gelingt am einfachsten mit Hilfe von Satz 2.2.10 durch Nachrechnen.
Die Dimension des von x1, . . . , xn erzeugten Vektorraums ist gleich der maximalen
Anzahl linear unabhangiger Vektoren in x1, . . . , xn.
Beispiel 2.2.12
Der durch
~a =
1
0
−1
und ~b =
1
1
0
erzeugte Vektorraum lautet
U =
λ1 + λ2
λ2
−λ1
∣∣∣ λ1, λ2 ∈ R
.
Dieser erzeugte Vektorraum ist eine Ebene durch den Ursprung:
c© 2011 by M. Gerdts
2.3. MATRIZEN 63
-2-1.5 -1-0.5 0 0.5 1 1.5 2 -1-0.5
0 0.5
1
-1
-0.5
0
0.5
1
Beachte, dass der Nullvektor ~0 stets im erzeugten Vektorraum enthalten ist. In diesem Bei-
spiel sind die Vektoren ~a und~b linear unabhangig und spannen daher einen 2-dimensionalen
Untervektorraum des R3 auf.
2.3 Matrizen
Eine Matrix ist ein mathematisches Objekt, welches u.a. eine effiziente Schreibweise fur die
in Kapitel 3 behandelten linearen Gleichungssysteme und lineare Abbildungen ermoglicht.
Matrizen entstehen, wenn man mehrere Spaltenvektoren gleicher Dimension hintereinan-
der schreibt und zusammenfasst. Vektoren sind dabei spezielle Matrizen mit nur einer
Spalte.
Definition 2.3.1 (Matrix)
(a) Fur m,n ∈ N und nm Zahlen aij, i = 1, . . . ,m, j = 1, . . . , n, heißt
A :=
a11 a12 · · · a1n
a21 a22 · · · a2n...
.... . .
...
am1 am2 . . . amn
eine m × n-Matrix mit m Zeilen und n Spalten. Man sagt, die Matrix hat die
c© 2011 by M. Gerdts
64 KAPITEL 2. VEKTOREN UND MATRIZEN
Dimension m× n. Als abkurzende Schreibweise wird
A = [aij] i=1,...,mj=1,...,n
verwendet.
(b) Die Zahlen aij, i = 1, . . . ,m, j = 1, . . . , n, heißen Elemente der Matrix A. Sind
alle Elemente reellwertig, so spricht man von einer reellen Matrix und schreibt
A ∈ Rm×n. Sind die Elemente komplexe Zahlen, so spricht man von einer komple-
xen Matrix und schreibt A ∈ Cm×n.
(c) Die m-dimensionalen Spaltenvektorena1j
a2j...
amj
, j = 1, . . . , n,
bezeichnen die Spalten von A und die n-dimensionalen Zeilenvektoren[ai1 ai2 . . . ain
], i = 1, . . . ,m,
bezeichnen die Zeilen von A.
(d) Im Fall m = n heißt die Matrix A quadratisch.
(e) Eine Matrix, deren Elemente alle Null sind, heißt Nullmatrix und wird mit 0
bezeichnet.
(f) Die Matrix
In :=
1. . .
1
∈ Rn×n,
die auf ihrer Hauptdiagonalen lauter Einsen und sonst nur Nullen enthalt, heißt
Einheitsmatrix. Es ist ublich, Nulleintrage wegzulassen.
Matrizen sind sehr nutzlich, um eine Vielzahl von Informationen kompakt zusammenzu-
fassen.
Beispiel 2.3.2 (Matrixspiel)
Gegeben seien zwei Spieler X und Y . Der Spieler X kann aus Zahlen 1, . . . ,m auswahlen
c© 2011 by M. Gerdts
2.3. MATRIZEN 65
und Spieler Y aus den Zahlen 1, . . . , n. Wahlt Spieler X die Zahl i ∈ 1, . . . ,m und
Spieler Y die Zahl j ∈ 1, . . . , n, so zahlt der Spieler Y einen vor Beginn des Spiels
festgelegten Betrag aij ∈ R an Spieler X. Negative Werte von aij bedeuten, dass Spieler
Y von Spieler X den Betrag |aij| bekommt. Dies definiert ein so genanntes Matrixspiel
mit der Auszahlungsmatrix A = [aij] i=1,...,mj=1,...,n
.
Ein konkretes Matrixspiel ist gegeben durch die Auszahlungsmatrix
A =
2 2 3 9
6 5 4 6
7 6 2 1
.Es stellt sich nun die Frage, welche Zeilen- bzw. Spaltenwahl fur Zeilen- und Spaltenspieler
moglichst gut sind. Der Zeilenspieler mochte seinen Gewinn maximieren, wahrend der
Spaltenspieler seinen Verlust minimieren mochte. Hier entsteht offenbar ein Konflikt. Was
soll gewahlt werden?
Was ergibt sich fur die Auszahlungsmatrix
B =
2 2 3 9
6 5 6 6
7 6 2 1
?
Definition 2.3.3
Zwei Matrizen
A = [aij] i=1,...,mj=1,...,n
und B = [bij] i=1,...,mj=1,...,n
gleicher Dimension heißen gleich, wenn ihre Elemente gleich sind, d.h. wenn
aij = bij ∀i = 1, . . . ,m, j = 1, . . . , n.
Addition und Multiplikation mit Skalaren ist wie bei Vektoren komponentenweise defi-
niert.
Definition 2.3.4 (Matrixaddition, Multiplikation mit Skalaren)
(a) Die Addition zweier Matrizen
A = [aij] i=1,...,mj=1,...,n
und B = [bij] i=1,...,mj=1,...,n
c© 2011 by M. Gerdts
66 KAPITEL 2. VEKTOREN UND MATRIZEN
gleicher Dimension ist definiert als
A+B :=
a11 + b11 · · · a1n + b1n...
. . ....
am1 + bm1 · · · amn + bmn
.Fur Matrizen unterschiedlicher Dimension ist die Matrixaddition nicht definiert.
(b) Die Multiplikation einer Matrix A = [aij] i=1,...,mj=1,...,n
mit einem Skalar λ ist definiert als
λA :=
λa11 · · · λa1n...
. . ....
λam1 · · · λamn
.
Durch Nachrechnen folgt
Satz 2.3.5 (Rechenregeln I)
Seien A, B und C Matrizen gleicher Dimension und λ und µ Zahlen. Dann gelten folgende
Rechenregeln:
A+B = B + A (Kommutativgesetz)
(A+B) + C = A+ (B + C) (Assoziativgesetz)
A+ 0 = A (Neutralitat der Nullmatrix bzgl. Addition)
A+ (−A) = 0 (Existenz einer additiv inversen Matrix)
λ(µA) = (λµ)A (Assoziativitat bei Multiplikation mit Skalaren)
λ(A+B) = λA+ λB (Distributivgesetz I)
(λ+ µ)A = λA+ µA (Distributivgesetz II).
Matrizen konnen miteinander multipliziert werden, wenn ihre Dimensionen passen. Das
Ergebnis ist wieder eine Matrix. Das Element ij des Matrixprodukts berechnet sich nach
dem Prinzip”Zeile i der ersten Matrix multipliziert mit der Spalte j der zweiten Matrix“,
wobei die Multiplikation im Sinne des Skalarprodukts erfolgt. Dieses Skalarprodukt ist
jedoch nur definiert, wenn die Anzahl der Spalten der ersten Matrix mit der Anzahl der
Zeilen der zweiten Matrix ubereinstimmt. Wir definieren diesen Vorgang zunachst formal
c© 2011 by M. Gerdts
2.3. MATRIZEN 67
und veranschaulichen ihn dann an Beispielen.
Definition 2.3.6 (Matrixmultiplikation)
Gegeben seien die m× n-Matrix A und die n× p-Matrix B gemaß
A =
a11 · · · a1n...
. . ....
am1 · · · amn
, B =
b11 · · · b1p...
. . ....
bn1 · · · bnp
.Das Matrixprodukt C = AB ist eine m×p-Matrix, deren Elemente cij fur i = 1, . . . ,m
und j = 1, . . . , p gegeben sind durch
cij =n∑k=1
aikbkj (Zeile i von A mal Spalte j von B).
Schema: “Zeile i mal Spalte j ergibt das Element ij”
...
......
ai1 · · · ain...
......
︸ ︷︷ ︸
m×n−Matrix
· · ·· · ·· · ·
b1j...
bnj
· · ·· · ·· · ·
︸ ︷︷ ︸
n×p−Matrix
=
...
......
· · ·n∑k=1
aikbkj · · ·
......
...
︸ ︷︷ ︸
m×p−Matrix
.
Bemerkung 2.3.7
Mit Hilfe des Skalarprodukts fur Vektoren kann die Matrixmultiplikation fur reelle Ma-
trizen wie folgt dargestellt werden. Bezeichnen ~ai ∈ Rn, i = 1, . . . ,m, die Zeilenvektoren
von A und ~bj ∈ Rn, j = 1, . . . , p, die Spaltenvektoren von B, so ist das Element cij von
C gegeben durch das Skalarprodukt
cij = 〈~ai, ~bj〉.
Beispiel 2.3.8
(a) [2 −1
0 4
][1 −1
2 3
]=
[0 −5
8 12
]
c© 2011 by M. Gerdts
68 KAPITEL 2. VEKTOREN UND MATRIZEN
(b) [2 −1
0 4
][1
−1
]=
[3
−4
](c) 5
−3
0
[ 1 −1 2]
=
5 −5 10
−3 3 −6
0 0 0
(d) [
1 −1 2] 5
−3
0
=[
8]
(e) Die Matrizen 5
−3
0
0
und
1 −7
−2 4
0 1
konnen nicht miteinander multipliziert werden.
(f) Wegen 1. . .
1
a11 · · · a1n
.... . .
...
an1 · · · ann
=
a11 · · · a1n...
. . ....
an1 · · · ann
=
a11 · · · a1n...
. . ....
an1 · · · ann
1
. . .
1
gilt fur alle m× n-Matrizen stets
ImA = AIn = A.
Wegen [2 −1
0 4
][1 −1
2 3
]=
[0 −5
8 12
]6=
[2 −5
4 10
]=
[1 −1
2 3
][2 −1
0 4
]ist die Matrixmultiplikation im Allgemeinen nicht kommutativ (!), d.h. es gilt im All-
gemeinen
AB 6= BA.
c© 2011 by M. Gerdts
2.3. MATRIZEN 69
Satz 2.3.9 (Rechenregeln II)
Seien A, B und C Matrizen passender Dimension. Dann gelten folgende Rechenregeln:
(AB)C = A(BC) (Assoziativgesetz)
A(B + C) = AB + AC (Distributivgesetz I)
(A+B)C = AC +BC (Distributivgesetz II).
Durch Spiegeln der Elemente an der Hauptdiagonalen entsteht die sogenannte transpo-
nierte Matrix. Aus der i-ten Zeile wird dann in der transponierten Matrix die i-te Spalte.
Definition 2.3.10 (Transponierte Matrix)
Die zur m× n-Matrix
A =
a11 a12 · · · a1n
a21 a22 · · · a2n...
. . ....
am1 am2 · · · amn
transponierte Matrix A> ist definiert als die n×m-Matrix
A> :=
a11 a21 · · · am1
a12 a22 · · · am2
.... . .
...
a1n a2n · · · amn
.
Matrizen mit A> = A heißen symmetrisch. Komplexe Matrizen mit A> = A heißen
hermitesch, wobei A die zu A konjugiert komplexe Matrix bezeichnet.
Beispiel 2.3.11
(a)
[2 −1
0 4
]>=
[2 0
−1 4
]
c© 2011 by M. Gerdts
70 KAPITEL 2. VEKTOREN UND MATRIZEN
(b) 5
−3
0
>
=[
5 −3 0]
(c) 1 −7
−2 4
0 1
>
=
[1 −2 0
−7 4 1
]
(d) Die Matrix 1 2 5
2 −3 7
5 7 1
ist symmetrisch.
(e) Die komplexe Matrix [1 4− 2i
4 + 2i 5
]ist hermitesch.
Symmetrische und hermitesche Matrizen haben besondere Eigenschaften in Bezug auf
ihre Eigenwerte. Dies wird in Kapitel 4 deutlich werden.
Satz 2.3.12 (Rechenregeln)
Seien A und B m× n-Matrizen, C eine n× k-Matrix und λ ein Skalar. Dann gelten die
folgenden Rechenregeln:
(A>)> = A,
(A+B)> = A> +B>,
(λA)> = λA>,
(BC)> = C>B>.
Beweis: Die ersten drei Eigenschaften kann man leicht nachrechnen. Die letzte Eigen-
schaft ergibt sie wie folgt. Zunachst bemerken wir, dass BC eine m×k-Matrix ist. Damit
c© 2011 by M. Gerdts
2.3. MATRIZEN 71
ist (BC)> eine k ×m-Matrix. Die Matrix C> ist eine k × n-Matrix und B> eine n×m-
Matrix. Das Produkt C>B> ist damit eine k×m-Matrix. Wir berechnen nun jeweils das
Element mit dem Index ij von (BC)> und C>B>.
Fur BC ergibt sich das Element
(BC)µν =n∑`=1
bµ`c`ν .
Damit lautet das Element ij von (BC)>
(BC)>ij =n∑`=1
bj`c`i.
Fur das Produkt C>B> ergibt sich das Element ij, indem die i-te Spalte von C mit der
j-ten Zeile von B multipliziert wird, d.h.
(C>B>)ij =n∑`=1
c`ibj`.
Folglich stimmen beide Darstellungen uberein.
Bemerkung 2.3.13
Das Skalarprodukt zweier Vektoren ~a ∈ Rn und ~b ∈ Rn kann mit der Transposition dar-
gestellt werden als
〈~a,~b〉 = ~a>~b =n∑i=1
aibi.
Beim Losen von linearen Gleichungssystemen spielt die Inverse einer Matrix eine entschei-
dende Rolle.
Definition 2.3.14 (Inverse einer Matrix)
Gegeben sei die n × n-Matrix A. Jede n × n-Matrix X heißt Inverse von A (inverse
Matrix von A) genau dann, wenn
AX = XA = In
gilt. Die Inverse von A wird mit A−1 bezeichnet.
Besitzt A eine inverse Matrix A−1, so heißt sie invertierbar, andernfalls singular.
Beispiel 2.3.15
Die Matrix
A =
[1 −1
1 1
]
c© 2011 by M. Gerdts
72 KAPITEL 2. VEKTOREN UND MATRIZEN
besitzt die Inverse
A−1 =
[12
12
−12
12
],
denn
AA−1 =
[1 −1
1 1
][12
12
−12
12
]=
[1 0
0 1
]=
[12
12
−12
12
][1 −1
1 1
]= A−1A.
Satz 2.3.16 (Eindeutigkeit)
Existiert die Inverse einer Matrix, so ist sie eindeutig.
Beweis: Annahme: Die n × n-Matrix A besitzt zwei Inverse X und Y mit X 6= Y .
Dann gilt AX = In = AY . Multiplikation von links mit X liefert
X = XIn = XAX = XAY = InY = Y.
Dies ist ein Widerspruch zur Annahme. Daher ist die Annahme falsch und die Aussage
bewiesen.
Nicht jede Matrix besitzt eine Inverse, wie das folgende Beispiel verdeutlicht.
Beispiel 2.3.17
Die Matrix
A =
[1 0
0 0
]besitzt keine Inverse, da
AX =
[1 0
0 0
][x11 x12
x21 x22
]=
[x11 x12
0 0
]6= I2,
fur alle 2× 2-Matrizen X.
Definition 2.3.18 (Lineares Gleichungssystem)
Seien A eine n× n-Matrix und ~b ein Vektor der Dimension n.
Die Gleichung
A~x = ~b
heißt lineares Gleichungssystem fur den Vektor ~x.
Jeder Vektor ~x mit A~x = ~b heißt Losung des linearen Gleichungssystems.
c© 2011 by M. Gerdts
2.3. MATRIZEN 73
Kennt man die Inverse einer Matrix A, so ist die Losung ~x eines linearen Gleichungssy-
stems A~x = ~b durch
~x = A−1~b
gegeben, da A~x = AA−1~b = In~b = ~b. Leider ist es insbesondere fur hochdimensionale Ma-
trizen sehr aufwandig, die Inverse zu berechnen. Daher wird die Inverse einer Matrix in der
Regel nicht explizit berechnet, sondern es werden andere Techniken (Gauß-Algorithmus,
vgl. Abschnitt 3.1) zur Losung eines linearen Gleichungssystems verwendet. Als theoreti-
sches Hilfsmittel ist die Inverse aber unverzichtbar in der linearen Algebra.
Satz 2.3.19 (Eigenschaften der Inversen)
Seien A und B invertierbar. Dann gelten folgende Rechenregeln:
(A−1)−1 = A,
(AB)−1 = B−1A−1,
(A>)−1 = (A−1)>.
Beweis: Die erste Aussage folgt aus
A−1A = I = AA−1.
Die zweite folgt wegen
(AB)B−1A−1 = A(BB−1)A−1 = AA−1 = I
und
B−1A−1(AB) = B−1(A−1A)B = B−1B = I.
Die dritte Aussage folgt wie folgt. Transposition der Gleichung A−1A = I liefert
I = I> = (A−1A)> = A>(A−1)>
und Transposition der Gleichung AA−1 = I liefert
I = I> = (AA−1)> = (A−1)>A>.
Beide Gleichungen zusammen zeigen die Behauptung.
Definition 2.3.20 (Rang einer Matrix)
Sei A ∈ Rm×n eine Matrix.
c© 2011 by M. Gerdts
74 KAPITEL 2. VEKTOREN UND MATRIZEN
(a) Der Zeilenrang der Matrix A ist die maximale Anzahl von linear unabhangigen Zei-
len von A.
(b) Der Spaltenrang der Matrix A ist die maximale Anzahl von linear unabhangigen
Spalten von A.
Beispiel 2.3.21
(a) Die Matrix [1 −1 2 0
0 0 1 0
]hat Zeilenrang 2 und Spaltenrang 2.
(b) Die Matrix 1 −1 2
0 1 1
0 0 1
hat Zeilenrang 3 und Spaltenrang 3.
(c) Die Matrix 1 4 8
0 0 0
0 0 0
hat Zeilenrang 1 und Spaltenrang 1.
Bemerkung 2.3.22
Zeilen- und Spaltenrang einer Matrix A stimmen stets uberein. Daher spricht man auch
nur vom Rang von A und schreibt Rang(A) oder Rg(A).
2.4 Lineare Abbildungen und Matrizen
Im Folgenden wird der Zusammenhang zwischen linearen Abbildungen und Matrizen her-
gestellt.
c© 2011 by M. Gerdts
2.4. LINEARE ABBILDUNGEN UND MATRIZEN 75
Definition 2.4.1 (Lineare Abbildung)
Eine Abbildung T : Rn −→ Rm heißt lineare Abbildung, wenn
T (~x+ ~y) = T (~x) + T (~y),
T (λ~x) = λT (~x)
fur alle ~x, ~y ∈ Rn und alle λ ∈ R gilt.
Beispiel 2.4.2
Sei A ∈ Rm×n. Dann ist durch
T (~x) = A~x
eine lineare Abbildung T : Rn −→ Rm gegeben, denn fur ~x, ~y ∈ Rn und λ ∈ R gilt:
T (~x+ ~y) = A(~x+ ~y) = A~x+ A~y = T (~x) + T (~y),
T (λ~x) = A(λ~x) = λA~x = λT (~x).
Die Umkehrung in Beispiel 2.4.2 gilt ebenfalls: Jede lineare Abbildung kann durch eine
Matrix dargestellt werden:
Satz 2.4.3
Sei T : Rn −→ Rm eine lineare Abbildung. Dann gibt es eine Matrix A ∈ Rm×n mit
T (~x) = A~x fur alle ~x ∈ Rn.
Beweis: Sei
~x =n∑i=1
xi~ei
ein beliebiger Vektor. Aus der Linearitat von T folgt dann
T (~x) = T
(n∑i=1
xi~ei
)=
n∑i=1
xiT (~ei) = A~x,
wobei die Matrix A ∈ Rm×n sich aus den Spalten T (~ei) ∈ Rm, i = 1, . . . , n, zusammen-
setzt:
A :=[T (~e1) · · · T (~en)
].
c© 2011 by M. Gerdts
76 KAPITEL 2. VEKTOREN UND MATRIZEN
Definition 2.4.4 (Bild und Kern)
Sei A ∈ Rm×n eine Matrix und T : Rn −→ Rm die zugehorige durch T (~x) := A~x definierte
lineare Abbildung.
(a) Der Nullraum (oder Kern) von A bzw. T ist definiert als
Kern(A) := ~x ∈ Rn | A~x = ~0.
(b) Das Bild (engl. image) von A bzw. T ist definiert als
Bild(A) := ~y ∈ Rm | ~y = A~x, ~x ∈ Rn.
Der Kern von A ∈ Rm×n ist ein Untervektorraum des Rn und das Bild von A ist ein
Untervektorraum des Rm, wie man mit Hilfe von Satz 2.2.10 leicht nachpruft.
Beispiel 2.4.5
Fur
A =
[1 −1
0 0
]ist
Bild(A) =
[t
0
] ∣∣∣ t ∈ R
und Kern(A) =
t
[1
1
] ∣∣∣ t ∈ R
.
Wir fassen noch einige aus der linearen Algebra bekannte Resultate zusammen:
Satz 2.4.6
Sei A ∈ Rm×n. Dann gelten folgende Aussagen:
(a)
n = dim(Kern(A)) + dim(Bild(A))
m = dim(Kern(A>)) + Rang(A)
Kern(A) = Bild(A>)⊥,
Bild(A>) = Kern(A)⊥,
Kern(A) = Kern(A>A),
Bild(A>) = Bild(A>A).
c© 2011 by M. Gerdts
2.4. LINEARE ABBILDUNGEN UND MATRIZEN 77
Hierin bezeichnet V ⊥ = w ∈ Rn | 〈w, v〉 = 0 ∀v ∈ V das orthogonale Komplement
des Unterraums V ⊆ Rn.
(b) Im Fall n = m sind folgende Aussagen aquivalent:
– A ist regular (invertierbar)
– Kern(A) = ~0– Bild(A) = Rn
– Rang(A) = n
– A~x = ~0 ⇐⇒ ~x = ~0
– A~x = ~b hat fur jedes ~b genau eine Losung
c© 2011 by M. Gerdts
Kapitel 3
Lineare Gleichungssysteme
Nachdem wir in Kapitel 2 bereits gerlernt haben, mit Vektoren und Matrizen zu rechnen,
geht es in diesem Kapitel um das Losen von linearen Gleichungssystemen mit dem Gauss-
Algorithmus.
3.1 Lineare Gleichungssysteme
Als Motivation fur dieses Kapitel betrachten wir eine Aufgabe, die in nahezu allen An-
wendungen fruher oder spater auftritt: die Losung eines linearen Gleichungssystems.
Beispiel 3.1.1 (Elektrische Schaltkreise und Kirchhoffsches Gesetz)
Gegeben sei das folgende stationare elektronische Netzwerk mit gegebenen ohmschen Wi-
derstanden R1, . . . , R5 und gegebenem Eingangsstrom I0.
I0 I101 2
3
4
R4R4
R3
R5
R3
R2 R1
R2R1
I1 I8
I3 I9
I2I6
I4
I5
I7
Das erste Kirchhoffsche Gesetz (Knotensatz)
An jedem Knotenpunkt ist die Summe aller zu- (positiven) und abfließenden
(negativen) Strome unter Beachtung der durch die Pfeile angegebenen
Richtungen in jedem Zeitpunkt gleich Null
78
3.1. LINEARE GLEICHUNGSSYSTEME 79
liefert die Beziehungen
−I1 + I3 = −I0,I1 − I2 − I4 + I6 = 0,
I2 − I3 − I7 = 0,
I4 − I5 + I8 = 0,
I5 − I6 + I7 − I9 = 0,
−I8 + I9 − I10 = 0.
Aus dem Ohmschen Gesetz
U = R · I
und dem zweiten Kirchhoffschen Gesetz (Maschensatz)
In einer Masche ist die Summe aller Teilspannungen in jedem Zeitpunkt
gleich Null
folgen die Gleichungen
R1 · I1 +R4 · I2 +R2 · I3 = 0,
R2 · I8 +R4 · I5 +R1 · I9 = 0,
R4 · I2 +R5 · I6 +R3 · I7 = 0,
R3 · I4 +R4 · I5 +R5 · I6 = 0.
Diese 10 Gleichungen fur die Strome I1, . . . , I10 konnen als lineares Gleichungssystem
geschrieben werden:
−1 0 1 0 0 0 0 0 0 0
1 −1 0 −1 0 1 0 0 0 0
0 1 −1 0 0 0 −1 0 0 0
0 0 0 1 −1 0 0 1 0 0
0 0 0 0 1 −1 1 0 −1 0
0 0 0 0 0 0 0 −1 1 −1
R1 R4 R2 0 0 0 0 0 0 0
0 0 0 0 R4 0 0 R2 R1 0
0 R4 0 0 0 R5 R3 0 0 0
0 0 0 R3 R4 R5 0 0 0 0
·
I1
I2
I3
I4
I5
I6
I7
I8
I9
I10
=
−I00
0
0
0
0
0
0
0
0
.
Das Folgende gilt sowohl fur reellwertige als auch fur komplexwertige Vektoren und Ma-
trizen. Wir beschranken uns jedoch auf den reellen Fall.
c© 2011 by M. Gerdts
80 KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Problem 3.1.2 (Lineares Gleichungssystem)
Gesucht ist die Losung ~x ∈ Rn des linearen Gleichungssystems
a11x1 + a12x2 + . . .+ a1nxn = b1,
a21x1 + a22x2 + . . .+ a2nxn = b2,...
an1x1 + an2x2 + . . .+ annxn = bn,
(3.1)
wobei aij, i, j = 1, . . . , n, und bi, i = 1, . . . , n, gegebene Zahlen sind. Mit
A =
a11 a12 · · · a1n
a21 a22 · · · a2n...
.... . .
...
an1 an2 · · · ann
∈ Rn×n, ~b =
b1
b2...
bn
∈ Rn, ~x =
x1
x2...
xn
∈ Rn (3.2)
lautet das lineare Gleichungssystem in Matrixschreibweise
A~x = ~b. (3.3)
Lineare Gleichungssysteme treten in nahezu allen Anwendungen und Verfahren auf.
Unser Ziel ist es, Verfahren zur Bestimmung einer Losung ~x von (3.3) zu entwickeln und
zu analysieren.
3.2 Existenz und Eindeutigkeit von Losungen
Es stellt sich die Frage, welche Voraussetzungen an A und ~b gestellt werden mussen,
damit das lineare Gleichungssystem (3.3) uberhaupt eine Losung ~x besitzt. Zunachst ist
klar, dass das lineare Gleichungssystem genau eine Losung besitzt, falls die Matrix A
invertierbar (regular) ist. Die eindeutige Losung des Gleichungssystems ist dann durch
~x = A−1~b (3.4)
gegeben. Es kann aber auch der Fall eintreten, dass (3.3) mehrere Losungen oder gar keine
Losung besitzt. Offensichtlich kann die Matrix A dann nicht regular sein.
Beispiel 3.2.1
Das folgende lineare Gleichungssystem besitzt keine Losung:[1 0
0 0
][x1
x2
]=
[1
1
]
c© 2011 by M. Gerdts
3.2. EXISTENZ UND EINDEUTIGKEIT VON LOSUNGEN 81
Das folgende lineare Gleichungssystem besitzt genau eine Losung:[1 0
0 1
][x1
x2
]=
[1
1
]
Das folgende lineare Gleichungssystem besitzt unendlich viele Losungen:[1 0
0 0
][x1
x2
]=
[1
0
]
Es gilt das folgende Kriterium, welches die Frage der Losbarkeit von (3.3) abschließend
beantwortet.
Satz 3.2.2
Das lineare Gleichungssystem (3.3) besitzt genau dann mindestens eine Losung, falls
gilt:
Rang(A) = Rang(A|~b).
Unter (A|~b) wird die um die rechte Seite ~b erweiterte Matrix
(A|~b) =
a11 a12 · · · a1n b1
a21 a22 · · · a2n b2...
.... . .
......
an1 an2 · · · ann bn
verstanden.
Beweis: Offenbar besitzt das lineare Gleichungssystem genau dann eine Losung, wenn~b ∈ Bild(A) gilt.
Sei nun~b ∈ Bild(A). Dann gilt auch Bild(A) = Bild(A|~b) und somit Rang(A) = Rang(A|~b).Gilt nun Rang(A) = Rang(A|~b), so laßt sich ~b als Linearkombination der Spalten von A
schreiben. Also gilt ~b ∈ Bild(A) und somit besitzt das Gleichungssystem eine Losung.
Die Struktur der Losungsmenge eines linearen Gleichungssystems wird im folgenden Satz
behandelt.
Satz 3.2.3
Seien A ∈ Rn×n und ~b ∈ Rn gegeben. Sei ~z eine Losung von A~x = ~b. Die gesamte
Losungsmenge von A~x = ~b ist gegeben durch ~z + Kern(A).
c© 2011 by M. Gerdts
82 KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Beweis: Sei ~y ∈ Kern(A), d.h. A~y = ~0. Dann gilt A(~z + ~y) = A~z + A~y = ~b und ~z + ~y
ist Losung.
Sei ~x Losung. Dann gilt A(~x − ~z) = ~b − ~b = ~0 und somit ~x − ~z ∈ Kern(A) bzw. ~x ∈~z + Kern(A).
3.3 Gauss’sches Eliminationsverfahren
Zur Motivation betrachten wir ein System aus 3 linearen Gleichungen in den 3 Unbekann-
ten x, y, z:
6x− 2y + 2z = 12
12x− 8y + 6z = 34
3x− 13y + 9z = 28
⇐⇒
6 −2 2
12 −8 6
3 −13 9
︸ ︷︷ ︸
=A∈R3×3
x
y
z
︸ ︷︷ ︸=~x∈R3
=
12
34
28
︸ ︷︷ ︸=~b∈R3
Gesucht sind Werte fur x, y und z, die diese drei Gleichungen erfullen.
In der Schule geht man ublicherweise so vor, dass man eine der Gleichungen nach ei-
ner der Variablen auflost und letztere dann in den beiden ubrigen Gleichungen ersetzt.
Dieser Vorgang wird solange wiederholt, bis man fur eine Variable einen Wert ausrech-
nen kann und durch Einsetzen erhalt man dann schrittweise alle anderen Variable. Diese
Vorgehensweise fuhrt zwar auf das richtige Ergebnis, aber es ist etwas willkurlich.
Wir wollen einen systematischen Weg zur Losung des linearen Gleichungssystems kennen
lernen – das Gauß’sche Eliminationsverfahren (Gauß-Algorithmus). Die Idee des
Gauß’schen Eliminationsverfahrens besteht darin, die Koeffizienten im Gleichungssystem
durch elementare Zeilenumformungen schrittweise in obere Dreiecksform zu uberfuhren.
Dieses kann dann mittels Ruckwartssubstitution gelost werden. Wichtig ist hierbei, dass
die Losung des Ausgangsproblems mit der des transformierten Problems ubereinstimmt.
Dies ist bei der Verwendung elementarer Zeilenumformungen gewahrleistet. Elemen-
tare Zeilenumformungen sind
• die Multiplikation einer Zeile mit einem Wert ungleich Null,
• die Addition bzw. Subtraktion zweier Zeilen,
• sowie das Vertauschen zweier Zeilen.
Wir wenden den Gauß-Algorithmus auf unser Gleichungssystem
6x− 2y + 2z = 12
12x− 8y + 6z = 34
3x− 13y + 9z = 28
←→
6 −2 2 12
12 −8 6 34
3 −13 9 28
c© 2011 by M. Gerdts
3.3. GAUSS’SCHES ELIMINATIONSVERFAHREN 83
an und gehen schrittweise vor. Auf der rechten Seite fassen wir die Gleichungssysteme in
Kurzform zusammen, in der nur die Koeffizienten dargestellt sind.
Wir lassen die erste Zeile unverandert und subtrahieren das 126
-fache der ersten Zeile von
der zweiten Zeile und das 36-fache der ersten Zeile von der dritten Zeile und erhalten
6x− 2y + 2z = 12
−4y + 2z = 10
−12y + 8z = 22
←→
6 −2 2 12
0 −4 2 10
0 −12 8 22
Nun lassen wir die ersten beiden Zeilen unverandert und subtrahieren das −12−4 -fache der
zweiten Zeile von der dritten Zeile und erhalten
6x− 2y + 2z = 12,
−4y + 2z = 10,
2z = −8.
←→
6 −2 2 12
0 −4 2 10
0 0 2 −8
Dieses Gleichungssystem besitzt dieselbe Losung wie unser Ausgangssystem, da wir nur
elementare Zeilenumformungen verwendet haben. Es hat jedoch den Vorteil, dass es Drei-
ecksgestalt besitzt, so dass wir die letzte Zeile leicht nach z auflosen konnen:
z = −4.
Mit Kenntnis von z konnen wir nun die zweite Gleichung nach y auflosen und erhalten
y = −1
4(10− 2z) = −1
4(10 + 8) = −9
2.
Damit folgt aus der ersten Gleichung
x =1
6(12 + 2y − 2z) =
1
6(12− 9 + 8) =
11
6.
Die Losung des linearen Gleichungssystems lautet also
x =11
6, y = −9
2, z = −4.
3.3.1 Die allgemeine Vorgehensweise
Unser Gleichungssystem steht stellvertretend fur das folgende allgemeine lineare Glei-
chungssystem in den 3 Variablen x, y, z:
a11x+ a12y + a13z = b1
a21x+ a22y + a23z = b2
a31x+ a32y + a33z = b3
⇐⇒
a11 a12 a13
a21 a22 a23
a31 a32 a33
︸ ︷︷ ︸
=A∈R3×3
x
y
z
︸ ︷︷ ︸=~x∈R3
=
b1
b2
b3
︸ ︷︷ ︸=~b∈R3
mit gegenenen Koeffizienten aij, i, j = 1, 2, 3, und bi, i = 1, 2, 3.
Wir wiederholen dieselben Schritte wie in unserem konkreten Beispiel.
Schritt 1:
c© 2011 by M. Gerdts
84 KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
• erste Zeile bleibt unverandert
• subtrahiere das a21a11
-fache der ersten Zeile von der zweiten Zeile, falls a11 6= 0
• subtrahiere das a31a11
-fache der ersten Zeile von der dritten Zeile, falls a11 6= 0
a11x+ a12y + a13z = b1(a22 −
a21a11
a12
)︸ ︷︷ ︸
=:a(1)22
y +
(a23 −
a21a11
a13
)︸ ︷︷ ︸
=:a(1)23
z = b2 −a21a11
b1︸ ︷︷ ︸=:b
(1)2(
a32 −a31a11
a12
)︸ ︷︷ ︸
=:a(1)32
y +
(a33 −
a31a11
a13
)︸ ︷︷ ︸
=:a(1)33
z = b3 −a31a11
b1︸ ︷︷ ︸=:b
(1)3
←→
a11 a12 a13 b1
0 a(1)22 a
(1)23 b
(1)2
0 a(1)32 a
(1)33 b
(1)3
Schritt 2:
• ersten beiden Zeilen bleiben unverandert
• subtrahiere dasa(1)32
a(1)22
-fache der zweiten Zeile von der dritten, falls a(1)22 6= 0
a11x+ a12y + a13z = b1
a(1)22 y + a
(1)23 z = b
(1)2(
a(1)33 −
a(1)32
a(1)22
a(1)23
)︸ ︷︷ ︸
=:a(2)33
z = b(1)3 −
a(1)32
a(1)22
b(1)2︸ ︷︷ ︸
=:b(2)3
←→
a11 a12 a13 b1
0 a(1)22 a
(1)23 b
(1)2
0 0 a(2)33 b
(2)3
Ruckwartssubstitution: Lose Gleichungssystem schrittweise auf:
z =b(2)3
a(2)33
(falls a(2)33 6= 0),
y =1
a(1)22
(b(1)2 − a
(1)23 z)
(falls a(1)22 6= 0),
x =1
a11(b1 − a12y − a13z) (falls a11 6= 0).
Naturlich funktioniert die obige Vorgehensweise nur, wenn die sogenannten Pivotelemente
a11, a(1)22 und a
(2)33 alle ungleich Null sind. Es kann aber sehr wohl der Fall eintreten, dass ei-
ner dieser Werte gleich Null ist. Was macht man dann? Nun, ublicherweise verwendet man
c© 2011 by M. Gerdts
3.3. GAUSS’SCHES ELIMINATIONSVERFAHREN 85
sogenannte Pivotstrategien bei denen man im einfachsten Fall zwei Zeilen miteinander
vertauscht.
Beispiel 3.3.1 (Pivoting)
Gegeben sei das lineare Gleichungssystem
−2y + 2z = 1
3x− 4y + 6z = 33
3x− 12y + 9z = 27
←→
0 −2 2 1
3 −4 6 33
3 −12 9 27
Rein formal konnen wir das Gauß-Verfahren nicht anwenden, da in der ersten Zeile der
Koeffizient 0 vor dem x steht. Da der Koeffizient in der zweiten Zeile vor x nicht Null
ist, vertauschen wir die erste und die zweite Zeile:
3x− 4y + 6z = 33
−2y + 2z = 1
3x− 12y + 9z = 27
←→
3 −4 6 33
0 −2 2 1
3 −12 9 27
Nun konnen wir das Gauß-Verfahren anwenden. Subtraktion des 3
3-fachen der ersten Zeile
von der dritten Zeile liefert
3x− 4y + 6z = 33
−2y + 2z = 1
−8y + 3z = −6
←→
3 −4 6 33
0 −2 2 1
0 −8 3 −6
Subtraktion des −8−2-fachen der zweiten Zeile von der dritten Zeile liefert
3x− 4y + 6z = 33
−2y + 2z = 1
−5z = −10
←→
3 −4 6 33
0 −2 2 1
0 0 −5 −10
Dieses System hat obere Dreiecksform und wir konnen auflosen:
z = 2,
y = −1
2(1− 2z) =
3
2,
x =1
3(33 + 4y − 6z) = 9.
Trotz Vertauschens zweier Zeilen kann es vorkommen, dass man den Gauß-Algorithmus
nicht fortsetzen kann. In diesem Fall besitzt das lineare Gleichungssystem jedoch keine
oder unendlich viele Losungen. Die Matrix enthalt in diesem Fall linear abhangige Zeilen
oder Spalten und besitzt keinen vollen Rang.
c© 2011 by M. Gerdts
86 KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Beispiel 3.3.2
Betrachte fur gegebenes b3 das folgende lineare Gleichungssystem
x− 2y + 2z = 1
3x− 4y + 6z = 33
2x− 2y + 4z = b3
←→
1 −2 2 1
3 −4 6 33
2 −2 4 b3
Anwendung des Gauß-Verfahrens liefert im ersten Schritt:
x− 2y + 2z = 1
2y = 30
2y = b3 − 2
←→
1 −2 2 1
0 2 0 30
0 2 0 b3 − 2
Der nachste Gauß-Schritt liefert
x− 2y + 2z = 1
2y = 30
0 = b3 − 32
←→
1 −2 2 1
0 2 0 30
0 0 0 b3 − 32
Die letzte Gleichung ist nur fur b3 = 32 losbar, andernfalls besitzt das Gleichungssystem
keine Losung.
Fur b3 = 32 ergibt sich aus der zweiten Gleichung y = 15. Die erste Gleichung liefert
dann
x = 1 + 2y − 2z = 31− 2z.
Hierin kann z ∈ R beliebig gewahlt werden, so dass es unendlich viele Losungen gibt.
Der Rang der Matrix ist 2, d.h. sie besitzt nur 2 linear unabhangige Zeilen oder Spalten.
3.3.2 Der n-dimensionale Fall
Die bisherige Vorgehensweise lasst sich leicht auf den n-dimensionalen Fall ubertragen.
Die Idee des Gauss’schen Eliminationsverfahrens besteht nun darin, die Matrix A durch
elementare Zeilenumformungen schrittweise in eine rechte obere Dreiecksmatrix R und
die rechte Seite ~b in einen Vektor ~c zu uberfuhren, so dass ein Gleichungssystem der Form
R~x = ~c (3.5)
fur ~x mit rechter oberer Dreiecksmatrix
R =
r11 r12 r13 · · · r1n
r22 r23 · · · r2n
r33. . .
.... . . rn−1,n
rnn
, rii 6= 0, i = 1, . . . , n,
c© 2011 by M. Gerdts
3.3. GAUSS’SCHES ELIMINATIONSVERFAHREN 87
entsteht. Dann kann man die Gleichungen
r11x1 + r12x2 + . . .+ r1nxn = c1,
r22x2 + . . .+ r2nxn = c2,...
rn−1,n−1xn−1 + rn−1,nxn = cn−1,
rnnxn = cn
beginnend mit der letzten Zeile nach xi, i = n, n− 1, . . . , 1, auflosen:
x1 = 1r11
(c1 − r12x2 − r13x3 − . . .− r1nxn) ,
x2 = 1r22
(c2 − r23x3 − . . .− r2nxn) ,...
xn−1 = 1rn−1,n−1
(cn−1 − rn−1,nxn) ,
xn = cnrnn
Diesen Vorgang nennt man Ruckwartssubstitution.
Schematisch lauft der Gauss’sche Eliminationsalgorithmus wie folgt ab.
Gauss’scher Eliminationsalgorithmus:
(i) Setze A(1) := A und ~b(1) := ~b.
(ii) Beginnend mit A(1)~x = ~b(1) fuhre n− 1 Transformationsschritte durch bis ein aqui-
valentes lineares Gleichungssystem mit oberer Dreiecksstruktur erreicht ist:
A(1)~x = ~b(1) ⇔ A(2)~x = ~b(2) ⇔ . . .⇔ A(n)~x = ~b(n)
(iii) Lose das lineare Gleichungssystem A(n)~x = ~b(n) durch Ruckwartssubstitution.
Beispiel 3.3.3
6 −2 2 4
12 −8 6 10
3 −13 9 3
−6 4 1 −18
︸ ︷︷ ︸
=A(1)
x1
x2
x3
x4
=
12
34
27
−38
︸ ︷︷ ︸
=~b(1)
Gauss’sche Elimination liefert folgendes Ergebnis:
c© 2011 by M. Gerdts
88 KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Start:
[A(1) ~b(1)
]=
6 −2 2 4 12
12 −8 6 10 34
3 −13 9 3 27
−6 4 1 −18 −38
Subtraktion des 2-fachen der 1. Zeile von der 2. Zeile und des 0.5-fachen der 1. Zeile von
der 3. Zeile und des −1-fachen der 1. Zeile von der 4. Zeile liefert:
[A(2) ~b(2)
]=
6 −2 2 4 12
0 −4 2 2 10
0 −12 8 1 21
0 2 3 −14 −26
Subtraktion des 3-fachen der 2. Zeile von der 3. Zeile und des −0.5-fachen der 2. Zeile
von der 4. Zeile liefert:
[A(3) ~b(3)
]=
6 −2 2 4 12
0 −4 2 2 10
0 0 2 −5 −9
0 0 4 −13 −21
Subtraktion des 2-fachen der 3. Zeile von der 4. Zeile liefert:
[A(4) ~b(4)
]=
6 −2 2 4 12
0 −4 2 2 10
0 0 2 −5 −9
0 0 0 −3 −3
Ruckwartssubstitution:
~x =
1
−3
−2
1
.
Im Folgenden wird der Schritt von i 7→ i+ 1 im Detail beschrieben. Der Algorithmus sei
c© 2011 by M. Gerdts
3.3. GAUSS’SCHES ELIMINATIONSVERFAHREN 89
bis zum i-ten Schritt fortgeschritten mit
A(i) =
a(i)11 · · · a
(i)1i . . . a
(i)1n
. . ....
. . ....
a(i)ii . . . a
(i)in
a(i)i+1,i . . . a
(i)i+1,n
.... . .
...
a(i)ni . . . a
(i)nn
, ~b(i) =
b(i)1...
b(i)i
b(i)i+1...
b(i)n
.
Ziel ist es, die Elemente a(i)ji , j = i + 1, . . . , n, durch elementare Zeilenumformungen zu
eliminieren. Es gelte a(i)ii 6= 0 fur das sogenannte Pivotelement. Die Matrix A(i+1) erhalt
man, indem dasa(i)ji
a(i)ii
-fache der i-ten Zeile von den Zeilen j = i+ 1, . . . , n subtrahiert wird:
A(i+1) =
a(i+1)11 · · · a
(i+1)1,i+1 . . . a
(i+1)1n
. . ....
. . ....
a(i+1)i+1,i+1 . . . a
(i+1)i+1,n
a(i+1)i+2,i+1 . . . a
(i+1)i+2,n
.... . .
...
a(i+1)n,i+1 . . . a
(i+1)nn
:=
a(i)11 · · · a
(i)1i . . . a
(i)1n
. . ....
. . ....
a(i)ii . . . a
(i)in
a(i)i+1,i −
a(i)i+1,i
a(i)ii
a(i)ii . . . a
(i)i+1,n −
a(i)i+1,i
a(i)ii
a(i)in
.... . .
...
a(i)ni −
a(i)ni
a(i)ii
a(i)ii . . . a
(i)nn − a
(i)ni
a(i)ii
a(i)in
.
Die Matrix A(i+1) hat formal dieselbe Struktur wie A(i) mit dem Unterschied, dass in A(i+1)
unterhalb der Hauptdiagonalen der i-ten Spalte, die in A(i) noch voll besetzt war, Nullen
erzeugt wurden. Im nachsten Schritt wurden dann die Elemente a(i+1)j,i+1 , j = i + 2, . . . , n
elimiert werden.
c© 2011 by M. Gerdts
90 KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
Entsprechend muss der Vektor ~b(i) transformiert werden:
~b(i+1) =
b(i+1)1...
b(i+1)i
b(i+1)i+1...
b(i+1)n
:=
b(i)1...
b(i)i
b(i)i+1 −
a(i)i+1,i
a(i)ii
b(i)i
...
b(i)n − a
(i)ni
a(i)ii
b(i)i
.
Bemerkung 3.3.4 (Pivoting)
Der Gauss’sche Eliminationsalgorithmus ist durchfuhrbar, solange die Pivotelemente a(i)ii 6=
0, i = 1, . . . , n− 1, erfullen. Ist dies nicht der Fall, mussen ggf. Zeilen- oder Spaltenver-
tauschungen (Pivoting) durchgefuhrt werden, um den Algorithmus fortsetzen zu konnen.
Ist es trotz aller Zeilen- oder Spaltenvertauschungen nicht moglich, ein Pivotelement un-
gleich Null zu finden, so ist die Matrix A nicht invertierbar und es entsteht eine rechte
obere Dreiecksmatrix der Form
R =
[R ∗0 0
]
mit einer invertierbaren rechten oberen Dreiecksmatrix R der Dimension r× r mit r < n.
Der Rang der Matrix A ist dann gleich r, vgl. Beispiel 3.3.2.
Beispiel 3.3.5 (Berechnung der Inversen A−1)
Die Inverse X = A−1 einer invertierbaren Matrix A erfullt die Gleichung
A ·X = I.
Falls ~x(i) die i-te Spalte von X und ~ei den i-ten Einheitsvektor bezeichnen, mussen wir
zur Bestimmung von X die folgenden n linearen Gleichungssysteme losen:
A~x(i) = ~ei, i = 1, 2, . . . , n.
Dies konnen wir mit dem Gauß’schen Eliminationsverfahren simultan erledigen, indem
c© 2011 by M. Gerdts
3.4. DETERMINANTEN 91
wir die Transformationen auf jeden der Vektoren ~ei, i = 1, 2, . . . , n, anwenden:
A ·X = I ←→
1 2 0 1 0 0
2 4 1 0 1 0
2 1 0 0 0 1
←→
1 2 0 1 0 0
0 0 1 −2 1 0
0 −3 0 −2 0 1
←→
1 2 0 1 0 0
0 −3 0 −2 0 1
0 0 1 −2 1 0
Ruckwartssubstitution fur jede rechte Seite liefert die Inverse Matrix
A−1 = X =
−13
0 23
23
0 −13
−2 1 0
3.4 Determinanten
Determinanten sind nutzliche Hilfsmittel, mit deren Hilfe man z.B. die Invertierbarkeit
einer Matrix charakterisieren kann oder sogar die Losung eines linearen Gleichungssystems
mit Hilfe der Cramer’schen Regel angeben kann. Determinanten werden auch in Kapitel 4
eine wichtige Rolle spielen.
Definition 3.4.1 (Determinante)
Sei A ∈ Rn×n eine Matrix. Die Determinante von A,
detA =
∣∣∣∣∣∣∣∣∣∣a11 a12 · · · a1n
a21 a22 · · · a2n...
.... . .
...
an1 an2 · · · ann
∣∣∣∣∣∣∣∣∣∣,
ist rekursiv durch die folgenden Vorschriften definiert:
(a) Fur n = 1 mit A = [a] gilt detA = a.
(b) Fur n ≥ 2 gilt
detA = a11 detA11 − a12 detA12 ± . . .+ (−1)1+na1n detA1n
=n∑k=1
(−1)1+ka1k detA1k,
c© 2011 by M. Gerdts
92 KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
wobei Aij fur 1 ≤ i, j ≤ n diejenige (n− 1)× (n− 1)-Matrix bezeichnet, die sich aus
A durch Streichen der i-ten Zeile und der j-ten Spalte ergibt.
Beispiel 3.4.2
(a) ∣∣∣∣∣ a11 a12
a21 a22
∣∣∣∣∣ = a11a22 − a12a21
Die Determinante einer 2x2-Matrix ist also gerade das Produkt aus den Diagonal-
elementen a11 · a22 minus dem Produkt der Nichtdiagonalelemente a12 · a21.
(b) ∣∣∣∣∣∣∣a11 a12 a13
a21 a22 a23
a31 a32 a33
∣∣∣∣∣∣∣ = a11
∣∣∣∣∣ a22 a23
a32 a33
∣∣∣∣∣− a12∣∣∣∣∣ a21 a23
a31 a33
∣∣∣∣∣+ a13
∣∣∣∣∣ a21 a22
a31 a32
∣∣∣∣∣= (a11a22a33 − a11a23a32)− (a12a21a33 − a12a23a31)
+ (a13a21a32 − a13a22a31)= a11a22a33 + a12a23a31 + a13a21a32
−a31a22a13 − a32a23a11 − a33a21a12.
Die letzte Formel kann man sich leicht mit dem folgenden Schema (Regel von
Sarrus) merken: ∣∣∣∣∣∣∣a11 a12 a13
a21 a22 a23
a31 a32 a33
∣∣∣∣∣∣∣a11 a12
a21 a22
a31 a32
Zur Berechnung der Determinante wird diagonal ausmultipliziert, wobei die Produkte
von links oben nach rechts unten (jeweils beginnend mit a11, a12, a13) positiv und
die Produkte von links unten nach rechts oben (jeweils beginnend mit a31, a32, a33)
negativ gewichtet werden.
(c) Die Determinante einer linken unteren Dreiecksmatrix berechnet sich zu∣∣∣∣∣∣∣∣∣∣a11
a21 a22...
.... . .
an1 an2 · · · ann
∣∣∣∣∣∣∣∣∣∣= a11
∣∣∣∣∣∣∣a22...
. . .
an2 · · · ann
∣∣∣∣∣∣∣ = . . . = a11a22 · · · ann.
c© 2011 by M. Gerdts
3.4. DETERMINANTEN 93
Bemerkung 3.4.3
Wir hatten in Kapitel 2 bereits erwahnt, dass sich das Kreuzprodukt zweier Vektoren
formal darstellen lasst als
~a×~b =
∣∣∣∣∣∣∣~e1 ~e2 ~e3
a1 a2 a3
b1 b2 b3
∣∣∣∣∣∣∣ ,und fur das Spatprodukt dreier Vektoren gilt
[~a,~b,~c] =
∣∣∣∣∣∣∣a1 b1 c1
a2 b2 c2
a3 b3 c3
∣∣∣∣∣∣∣ .
In Definition 3.4.1 (b) haben wir zur rekursiven Definition der Determinante die erste
Zeile der Matrix verwendet. Diese Wahl ist recht willkurlich und wir hatten auch andere
Zeilen oder Spalten verwenden konnen. Es gilt
Satz 3.4.4 (Determinantenentwicklungssatz)
Sei A = [aij]i,j=1,...,n eine n× n-Matrix. Dann gilt:
(a) Entwicklung nach der i-ten Zeile: Fur einen beliebigen, aber fest gewahlten
Zeilenindex i ∈ 1, . . . , n gilt
detA =n∑k=1
(−1)i+kaik detAik.
(b) Entwicklung nach der j-ten Spalte: Fur einen beliebigen, aber fest gewahlten
Spaltenindex j ∈ 1, . . . , n gilt
detA =n∑k=1
(−1)j+kakj detAkj.
Satz 3.4.5 (Eigenschaften)
Determinanten besitzen folgende Eigenschaften:
c© 2011 by M. Gerdts
94 KAPITEL 3. LINEARE GLEICHUNGSSYSTEME
(a) Es gilt detA = detA>.
(b) Werden zwei Zeilen in der Matrix A vertauscht, so andert die Determinante ihr
Vorzeichen.
(c) Wird eine Zeile oder Spalte von A mit einem Skalar λ multipliziert, so multipliziert
sich die Determinante mit λ.
(d) Addiert man zu einer Zeile (bzw. Spalte) ein Vielfaches einer anderen Zeile (bzw.
Spalte), so andert sich die Determinante nicht.
(e) Fur n× n-Matrizen A und B gilt
det(AB) = detA · detB.
Auf Grund der Eigenschaften (a), (b), (c) und (d) kann man Determinanten mit dem
Gauss-Algorithmus berechnen, da dieser lediglich Linearkombinationen von Zeilen und
ggf. Spaltenvertauschungen verwendet. Am Ende des Gauss-Algorithmus entsteht eine
rechte obere Dreiecksmatrix, welche dann bis auf das Vorzeichen dieselbe Determinante
wie die ursprungliche Matrix besitzt. Man uberlege sich hierzu, dass die Determinan-
te einer Dreiecksmatrix gegeben ist durch das Produkt ihrer Diagonalelemente. Daruber
hinaus ist die rechte obere Dreiecksmatrix invertierbar genau dann, wenn die ursprungli-
che Matrix invertierbar war. Aus diesem Zusammenhang zwischen Gauss-Verfahren und
Determinanten ergibt sich
Satz 3.4.6
Sei A eine n× n-Matrix. Dann sind folgende Aussagen aquivalent:
(a) detA 6= 0
(b) A ist invertierbar.
Im Umkehrschluss ergibt sich, dass die Determinante einer nicht invertierbaren Matrizen
stets Null ist.
Satz 3.4.7 (Cramer’sche Regel)
Sei A eine invertierbare n × n-Matrix und ~b ein Vektor der Dimension n. Dann besitzt
c© 2011 by M. Gerdts
3.4. DETERMINANTEN 95
das lineare Gleichungssystem A~x = ~b die eindeutige Losung
xk =detAkdetA
, k = 1, . . . , n.
Hierbei entsteht die Matrix Ak durch Ersetzen der k-ten Spalte in A durch ~b.
Beweis: Nach Satz 3.4.5 (c), (d) gilt
x1 det(A) =
∣∣∣∣∣∣∣a11x1 + . . .+ a1nxn a12 · · · a1n
......
. . ....
an1x1 + . . .+ annxn an1 · · · ann
∣∣∣∣∣∣∣ = det(A1)
und wegen det(A) 6= 0 folgt
x1 =det(A1)
det(A).
Fur x2, . . . , xn zeigt man die Behauptung analog.
Beispiel 3.4.8
Gegeben seien
A =
[1 2
0 −1
], ~b =
[1
1
].
Es gilt detA = −1 und die Cramer’sche Regel liefert
x1 =
∣∣∣∣∣ 1 2
1 −1
∣∣∣∣∣detA
=−3
−1= 3,
x2 =
∣∣∣∣∣ 1 1
0 1
∣∣∣∣∣detA
=1
−1= −1.
Die Cramer’sche Regel ist in der Regel nur von theoretischem Interesse, numerisch aufwandig
und anfallig fur Rundungsfehler. Zum Losen eines Gleichungssystems sollte stattdessen
die Gauss-Elimination verwendet werden.
c© 2011 by M. Gerdts
Kapitel 4
Eigenwertaufgaben
Eigenwerte spielen in vielen Anwendungen eine wichtige Rolle und geben zum Beispiel
Auskunft uber die Stabilitat von dynamischen Systemen (wichtig bei Reglerentwurf), das
Krummungsverhalten von Funktionen (wichtig in der Optimierung) oder Eigenfrequenzen
und Eigenschwingungen von Bauteilen (wichtig bei der Konstruktion von Bauwerken).
Beispiel 4.0.1
Betrachte fur k = 0, 1, 2, . . . und gegebene Zahlen λ1 und λ2 die folgende diskrete Dynamik:
~zk+1 =
[xk+1
yk+1
]=
[λ1 λ2 − λ10 λ2
][xk
yk
]= A~zk, ~z0 =
[1
1
]. (4.1)
Derartige Modelle werden haufig zur Beschreibung eines zeitabhangigen Vorgangs verwen-
det, wobei der Index k sich auf verschiedene Zeitpunkte bezieht. Der Zustandsvektor ~zk
beschreibt z.B. die Große einer Population mit zwei Spezies xk und yk zum Zeitpunkt k.
Man kann die Matrix A durch Multiplikation mit einer geeignet gewahlten Matrix T und
dessen Inversen T−1 diagonalisieren:
T−1AT =
[λ1
λ2
]=: Λ, T =
[1 1
0 1
], T−1 =
[1 −1
0 1
].
Setzt man diese Beziehung in Gleichung (4.1) ein, so erhalt man
T−1~zk+1 = T−1ATT−1~zk = ΛT−1~zk, k = 0, 1, 2, . . .
Mit der Substitution ~vk := T−1~zk folgt dann
~vk+1 = Λ~vk, k = 0, 1, 2, . . . .
Wiederholte Anwendung dieser Iterationsvorschrift liefert
~vk = Λk~v0, k = 0, 1, 2, . . .
bzw. in Koordinaten[v1kv2k
]=
[λk1
λk2
][v10v20
]=
[λk1v
10
λk2v20
], k = 0, 1, 2, . . . .
96
97
Die Werte λ1 und λ2 sind die sogenannten Eigenwerte der Matrix A. An Hand ihrer Werte
kann man ablesen, wie sich das dynamische System fur k −→ ∞ verhalt: Fur j = 1, 2
folgt
|λj| > 1 =⇒ |vjk| −→ ∞,|λj| < 1 =⇒ vjk −→ 0,
|λj| = 1 =⇒ |vjk| = |vj0|.
Im ersten Fall ist die Dynamik instabil (Teile der Population explodieren), im zweiten
Fall ist die Dynamik asymptotisch stabil (die Population stirbt aus), im dritten Fall ist
die Dynamik stabil. Beachte, dass hier nur Aussagen fur ~vk = T−1~zk getroffen wurden.
Man muss sich noch uberlegen, was dies fur ~zk = T~vk bedeutet.
Beispiel 4.0.2 (Eigenwerte und Schwingungen)
Eigenwertprobleme in einer allgemeineren Form treten auch in der Mechanik im Zusam-
menhang mit Schwingungen auf. Betrachte einen elastischen Balken der Lange L, der am
linken und rechten Rand eingespannt ist und schwingen kann, siehe Abbildung.
L
z
x
Ein Eigenwertproblem fur diesen Balken lautet wie folgt. Finde eine Eigenfrequenz ω
mit
z′′′′(x) = ω2 ρA
EIz(x),
z(0) = 0,
z′(0) = 0,
z(L) = 0,
z′′(L) = 0,
wobei die Massenbelegung ρA und die Biegesteifigkeit EI materialabhangige Konstanten
sind. Die zugehorigen”
Eigenvektoren“ z sind Losungen des Randwertproblems und somit
c© 2011 by M. Gerdts
98 KAPITEL 4. EIGENWERTAUFGABEN
Funktionen. Sie heißen Eigenschwingungen. Interessiert ist man hierbei insbesondere
an nichttrivialen Losungen z 6≡ 0.
Dass die Untersuchung von Eigenschwingungen und Eigenfrequenzen in Bezug auf Re-
sonanz wichtig bei der Konstruktion von z.B. Brucken ist, zeigt der Zusammensturz der
Tacoma Bridge, bei der Wind zur einer Anregung gefuhrt hat, was letztendlich in einem
Aufschaukeln der Anregung endete und zum Einsturz der Brucke fuhrte. Details finden
sich auf der WWW-Seite
http://de.wikipedia.org/wiki/Tacoma-Narrows-Br%C3%BCcke
4.1 Eigenwerte und Eigenvektoren
Die Definition eines Eigenwerts und eines zugehorigen Eigenvektors ist motiviert durch
die Aufgabe, Hauptrichtungen (Eigenvektoren) und Skalierungsfaktoren (Eigenwerte) bei
der Matrixmultiplikation zu finden.
Definition 4.1.1
Sei A ∈ Cn×n.
(a) Die Zahl λ ∈ C heißt Eigenwert der Matrix A, wenn
A~x = λ~x fur ein ~x 6= ~0
gilt. Ein Vektor ~0 6= ~x ∈ Cn mit A~x = λ~x heißt Eigenvektor zum Eigenwert λ.
(b) Die Menge aller Eigenwerte von A heißt Spektrum von A.
(c) Der Spektralradius von A ist definiert als
ρ(A) := max|λ| | λ ist Eigenwert von A.
Aus der Definition des Eigenwerts ergibt sich, dass λ genau dann Eigenwert von A ist,
wenn die Matrix A− λIn singular ist, da das homogene lineare Gleichungssystem
(A− λIn) ~x = ~0
eine nichttriviale Losung ~x 6= ~0 (namlich einen Eigenvektor zum Eigenwert λ) hat. Nach
Satz 3.4.6 ist die Singularitat von A− λIn aber gleichbedeutend mit
det(A− λIn) = 0.
c© 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN 99
Die Eigenwerte einer Matrix A sind also durch die Nullstellen des sogenannten charakte-
ristischen Polynoms gegeben.
Definition 4.1.2 (charakteristisches Polynom)
Sei A ∈ Cn×n. Die Funktion
ϕA(µ) := det(A− µIn)
heißt charakteristisches Polynom von A und die Gleichung
ϕA(µ) = det(A− µIn) = 0
heißt charakteristische Gleichung.
Beispiel 4.1.3
Das charakteristische Polynom der rechten oberen Dreiecksmatrix
A =
a11 · · · a1n. . .
...
ann
lautet
ϕA(µ) = (a11 − µ)(a22 − µ) · · · (ann − µ).
Die Eigenwerte von A sind also gerade die Diagonalelemente aii, i = 1, . . . , n, von A.
Eine analoge Aussage gilt fur linke untere Dreiecksmatrizen.
Hat man einen Eigenwert λ einer Matrix A berechnet, so erhalt man einen zugehorigen
Eigenvektor ~x durch Losen des linearen Gleichungssystems (A− λI)~x = ~0. Hierbei muss
man allerdings berucksichtigen, dass die Matrix A−λI nicht invertierbar ist. Es gibt also
mehrere Losungen des Gleichungssystems.
Beispiel 4.1.4
Gegeben sei die Matrix
A =
[1 2
0 3
].
Das charakteristische Polynom lautet
ϕA(µ) = det(A− µI) =
∣∣∣∣∣ 1− µ 2
0 3− µ
∣∣∣∣∣ = (1− µ)(3− µ).
Die Eigenwerte von A sind gegeben durch die Nullstellen des charakteristischen Polynoms
und lauten
λ1 = 1, λ2 = 3.
c© 2011 by M. Gerdts
100 KAPITEL 4. EIGENWERTAUFGABEN
Wir bestimmen nun einen Eigenvektor zum Eigenwert λ1 = 1. Dazu mussen wir das
folgende Gleichungssystem losen:
(A− λ1I)~x =
[0 2
0 2
][x1
x2
]=
[0
0
].
Jeder Vektor der Form
~x =
[t
0
], t ∈ R
lost dieses Gleichungssystem und jeder solcher Vektor mit t 6= 0 ist daher auch Eigenvektor
zum Eigenwert λ1 = 1.
Wir bestimmen nun einen Eigenvektor zum Eigenwert λ2 = 3. Dazu mussen wir das
folgende Gleichungssystem losen:
(A− λ2I)~x =
[−2 2
0 0
][x1
x2
]=
[0
0
].
Jeder Vektor der Form
~x = t
[1
1
], t ∈ R
lost dieses Gleichungssystem und jeder solcher Vektor mit t 6= 0 ist daher auch Eigenvektor
zum Eigenwert λ2 = 3.
Mit Hilfe des Determinantenentwicklungssatzes lasst sich allgemein zeigen, dass ϕA ein
Polynom n-ten Grades der Form
ϕA(µ) = (−1)n(µn + αn−1µ
n−1 + . . .+ α0
)ist. Damit besitzt das charakteristische Polynom stets n Nullstellen uber C, die auch
komplex sein konnen, selbst wenn die Matrix A reell war.
Sind λi ∈ C, i = 1, . . . , k, die verschiedenen Nullstellen von ϕA mit Vielfachheit σi,
i = 1, . . . , k, so laßt sich ϕA in der Form
ϕA(µ) = (−1)n(µ− λ1)σ1(µ− λ2)σ2 · · · (µ− λk)σk
darstellen. Die Zahl σi wird auch als algebraische Vielfachheit des Eigenwerts λi
bezeichnet und wir bezeichnen mit σ diejenige Funktion, die einem Eigenwert λi dessen
algebraische Vielfachheit zuordnet, d.h. σ(λi) = σi.
Die Menge der Eigenvektoren (zzgl. des Nullvektors)
L(λ) := ~x ∈ Cn | (A− λIn)~x = ~0 = Kern(A− λIn)
c© 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN 101
bildet einen Untervektorraum des Cn mit Dimension n − Rang(A − λIn). Dieser Unter-
vektorraum wird Eigenraum zum Eigenwert λ genannt. Insbesondere ist mit ~x und ~y
auch jede Linearkombination c1~x+ c2~y 6= ~0 mit c1, c2 ∈ C ein Eigenvektor zum Eigenwert
λ. Die Zahl %(λ) = dim(L(λ)) = n − Rang(A − λI) heißt geometrische Vielfachheit
des Eigenwerts λ und gibt die maximale Anzahl linear unabhangiger Eigenvektoren
zum Eigenwert λ an.
Im Allgemeinen sind die algebraische und geometrische Vielfachheit zum selben Eigenwert
verschieden.
Beispiel 4.1.5
Betrachte die Matrix (Jordankastchen)
J(λ) =
λ 1
λ. . .. . . 1
λ
∈ Cn×n.
Das charakteristische Polynom lautet ϕJ(λ)(µ) = (λ − µ)n und µ = λ ist der einzige
Eigenwert mit algebraischer Vielfachheit σ(λ) = n. Der Rang von J(λ) − λI ist jedoch
n− 1, so dass die geometrische Vielfachheit %(λ) = n− (n− 1) = 1 betragt.
Satz 4.1.6
Zwischen algebraischer und geometrischer Vielfachheit eines Eigenwerts λ besteht folgen-
der Zusammenhang:
1 ≤ %(λ) ≤ σ(λ) ≤ n.
Es stellt sich die Frage, welche Transformationen einer Matrix die Eigenwerte nicht verandern.
Insbesondere konnen solche Transformationen dann benutzt werden, um Matrizen auf ein-
fache Form zu bringen, ohne dabei die Eigenwerte zu andern. Eine solche Transformation
haben wir bereits in Beispiel 4.0.1 verwendet.
Definition 4.1.7
(a) Zwei Matrizen A,B ∈ Cn×n heißen ahnlich, wenn es eine regulare Matrix T ∈ Cn×n
gibt mit
B = T−1 · A · T.
(b) A heißt diagonalisierbar, wenn A ahnlich ist zu einer Diagonalmatrix.
c© 2011 by M. Gerdts
102 KAPITEL 4. EIGENWERTAUFGABEN
(c) A heißt normal, wenn A · A∗ = A∗ · A gilt, wobei A∗ := A>.
(d) A heißt hermitesch, wenn A∗ = A gilt.
(e) A heißt unitar, wenn A∗ = A−1 gilt. Ist A eine reelle Matrix, so heißt sie ortho-
gonal, falls A> = A−1 gilt.
Beispiel 4.1.8
(a) Symmetrische und hermitesche Matrizen sind normal. Eine symmetrische reelle Ma-
trix ist hermitesch.
(b) Die Drehmatrix 1 0 0
0 cosα − sinα
0 sinα cosα
ist orthogonal. Sie beschreibt eine Drehung um die x-Achse des R3 um den Winkel
α, wenn sie von links an einen Vektor multipliziert wird.
(c) Die Matrix
A =
[λ1 λ2 − λ10 λ2
]ist diagonalisierbar, denn es gilt
T−1AT =
[λ1
λ2
], T−1 =
[1 −1
0 1
], T =
[1 1
0 1
]
Der folgende Satz fasst zusammen, wie sich ubliche Matrixtransformationen, wie zum
Beispiel Ahnlichkeitstransformationen, Transponierung und Invertierung, auf Eigenwerte
auswirken.
Satz 4.1.9
Seien A,B ∈ Cn×n gegeben.
(a) Ist λ Eigenwert von A, so ist λ auch Eigenwert von A> und λ ist Eigenwert von
A∗.
c© 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN 103
(b) Seien A und B ahnlich mit B = T−1AT . Dann besitzen A und B dieselben Eigen-
werte.
Ist ~x Eigenvektor von A zum Eigenwert λ, so ist T−1~x Eigenvektor von B zum
Eigenwert λ.
Ist ~y Eigenvektor von B zum Eigenwert λ, so ist T~y Eigenvektor von A zum Eigen-
wert λ.
(c) Ist A invertierbar, λ Eigenwert von A und ~x Eigenvektor von A zum Eigenwert λ,
so ist 1λ
Eigenwert von A−1 und ~x ist Eigenvektor zum Eigenwert 1λ
.
(d) Ist A orthogonal, so sind alle Eigenwerte betragsmaßig gleich eins und der Betrag
der Determinante ist eins. Daruber hinaus sind die Spalten von A paarweise ortho-
normale Vektoren.
Beweis:
(a) Folgt aus
det(A− λI) = det((A− λI)>) = det(A> − λI),
det(A∗ − λI) = det((A− λI)∗) = det (A− λI)> = det(A− λI).
(b) Seien A,B ahnlich, d.h. es gibt T invertierbar mit B = T−1 ·A · T . Sei λ Eigenwert
von A, d.h. A~x = λ~x fur ein ~x 6= 0. Dann gilt fur ~y = T−1~x:
B~y = BT−1~x = T−1ATT−1~x = T−1A~x = λT−1~x = λ~y.
Umgekehrt gilt fur einen Eigenwert λ von B mit zugehorigem Eigenvektor ~y und
~x = T~y:
A~x = AT~y = TBT−1T~y = TB~y = λT~y = λ~x.
(c) Ist A invertierbar, so ist λ 6= 0, da ansonsten A~x = ~0 fur ein ~x 6= ~0 erfullt ware,
woraus die Singularitat von A folgen wurde.
Der Rest folgt aus
A~x = λ~x =⇒ 1
λ~x = A−1~x.
(d) Sei A orthogonal, λ Eigenwert von A und ~x Eigenvektor zum Eigenwert λ. Dann
gilt
‖A~x‖2︸ ︷︷ ︸=~x>A>A~x=‖~x‖2
= |λ|2‖~x‖2 =⇒ |λ| = 1.
c© 2011 by M. Gerdts
104 KAPITEL 4. EIGENWERTAUFGABEN
Desweiteren folgt aus I = A>A, dass
1 = det(I) = det(A>A) = det(A>) det(A) = det(A)2
und somit | det(A)| = 1. Aus I = A>A folgt auch sofort, dass die Spalten von A
paarweise orthonormal sind.
2
Da ahnliche Matrizen dieselben Eigenwerte besitzen, liegt der Versuch nahe, eine Ma-
trix mittels Ahnlichkeitstransformationen auf rechte obere Dreiecksform, linke untere
Dreiecksform oder sogar Diagonalgestalt bringen zu wollen, da die Eigenwerte in die-
sen Fallen auf der Diagonalen stehen und damit leicht abzulesen sind. Wir beginnen mit
der Schur’schen Normalform, welche eine Ahnlichkeitstransformation auf rechte obere
Dreiecksform darstellt.
Satz 4.1.10 (Schur’sche Normalform)
Sei A ∈ Cn×n. Dann gibt es eine unitare Matrix T mit
T−1AT = Λ +R :=
λ1 r12 . . . r1n
. . . . . ....
λn−1 rn−1,n
λn
Insbesondere enthalt Λ := diag(λ1, . . . , λn) die Eigenwerte von A.
Bemerkung 4.1.11
Die Schur’sche Normalform einer Matrix kann numerisch mithilfe von sogenannten House-
holder-Transformationen berechnet werden.
Mit Hilfe der Schur’schen Normalform kann der folgende Satz zur Diagonalisierung von
Matrizen mittels unitarer Transformationen bewiesen werden:
Satz 4.1.12
(a) A ist genau dann normal, wenn es eine unitare Matrix T ∈ Cn×n gibt mit
T−1 · A · T = Λ :=
λ1. . .
λn
∈ Cn×n.
Man nennt diese Transformation auch Hauptachsentransformation.
c© 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN 105
(b) A ist genau dann hermitesch, wenn es eine unitare Matrix T ∈ Cn×n gibt mit
T−1 · A · T = Λ :=
λ1. . .
λn
∈ Rn×n.
Die Eigenwerte einer hermiteschen Matrix sind insbesondere alle reell.
Satz 4.1.12 besagt, dass es genau die normalen Matrizen sind, die mittels unitarer Matri-
zen diagonalisierbar sind. Beachte, dass Ahnlichkeitstransformationen mit einer unitaren
Matrix T besonders angenehm sind, da T−1 = T ∗ gilt.
Schreibt man die Beziehung T−1AT = Λ in der Form
A · T = T · Λ ⇔ A~ti = λi~ti, i = 1, . . . , n,
wobei ~ti, i = 1, . . . , n, die Spaltenvektoren von
T =[~t1 · · · ~tn
]bezeichnet, so sieht man unmittelbar, dass der i-te Spaltenvektor ~ti gerade ein Eigenvektor
zum Eigenwert λi ist. Da T unitar ist, sind die Eigenvektoren ~t1, . . . ,~tn linear unabhangig
und orthogonal zueinander.
Die Spalten von T definieren also eine Basis des Cn aus orthogonalen Eigenvektoren
zu den Eigenwerten λ1, . . . , λn. Daruber hinaus stimmen geometrische und algebraische
Vielfachheit uberein. Wir fassen zusammen:
Folgerung 4.1.13
Sei A normal. Dann gelten folgende Aussagen:
(a) Alle Eigenwerte von A sind reell, falls A hermitesch ist.
(b) Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal.
(c) Algebraische und geometrische Vielfachheit jedes Eigenwertes sind gleich.
Beispiel 4.1.14
Gegeben sei ein eingespannter elastischer Balken, der sich durch Krafteinwirkung ver-
formt, siehe Abbildung.
c© 2011 by M. Gerdts
106 KAPITEL 4. EIGENWERTAUFGABEN
Die mechanischen Spannungen an einem bestimmten Punkt des Balkens werden in einem
kartesischen Referenzkoordinatensystem durch den Spannungstensor
S =
σx τxy τxz
τyx σy τyz
τzx τzy σz
beschrieben, wobei σx, σy und σz Spannungen senkrecht zu den Schnittflachen eines sehr
kleinen Volumenelements bezeichnen (Normalspannungen) und τxy, τyx, τxz, τzx, τyz und
τzy Schubspannungen innerhalb der Schnittflachen darstellen, vgl. Abbildung (Quelle: Wi-
kipedia).
Durch eine Haupachsentransformation, d.h. durch Diagonalisierung der (symmetrischen)
Matrix S, kann man den Spannungszustand, der durch die Matrix S beschrieben wird,
in ein Koordinatensystem umrechnen, in dem die Schubspannungen verschwinden und
nur noch Normalspannungen auftreten, vgl. zur Verdeutlichung den ebenen Fall in der
folgenden Abbildung (Quelle: Wikipedia):
c© 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN 107
Die Hauptspannungen σ1, σ2 (und im dreidimensionalen Fall σ3) sind dabei gerade die
Eigenwerte von S und die Hauptspannungsrichtungen sind durch die zugehorigen Eigen-
vektoren gegeben.
Es stellt sich jetzt noch die Frage, wie eine solche unitare Matrix T mit T−1AT = Λ
konstruiert werden kann? Hierzu beschranken wir uns auf den reellen Fall und gehen wir
wie folgt vor:
Algorithmus 4.1.15 (Bestimmung einer unitaren Matrix)
(0) Gegeben sei eine symmetrische Matrix A ∈ Rn×n.
(1) Berechne die Eigenwerte λ1, . . . , λn der Matrix.
(2) Bestimme linear unabhangige Eigenvektoren ~x1, . . . , ~xn. Treten mehrfache Eigen-
werte auf, so bestimme entsprechend ihrer Vielfachheit linear unabhangige Eigen-
vektoren fur jeden Eigenwert.
(3) Orthonormalisiere die Eigenvektoren ~x1, . . . , ~xn mit Hilfe des Gram-Schmidt’schen
Orthonormalisierungsverfahrens und berechne orthonormale Vektoren ~t1, . . . ,~tn.
(4) Definiere T :=[~t1 · · · ~tn
].
Zu klaren ist, wie die Orthonormalisierung in Schritt (3) erfolgen soll. Fur beliebige linear
unabhangige Vektoren ~x1, . . . , ~xn kann dies beispielsweise durch das Gram-Schmidtsche
Orthogonalisierungsverfahren bzgl. des Skalarprodukts 〈·, ·〉 erfolgen. Zur Konstruk-
c© 2011 by M. Gerdts
108 KAPITEL 4. EIGENWERTAUFGABEN
tion geht man iterativ wie folgt vor. Zunachst wird ~t1 := ~x1‖~x1‖ gesetzt. Sind dann bereits
orthonormale Vektoren ~t1, . . . ,~tk−1 bestimmt, so wird ~tk uber den Ansatz
~tk = ~xk −k−1∑j=1
αj~tj
mit noch zu bestimmenden Koeffizienten αj, j = 1, . . . , k − 1, gewahlt. Die Koeffizienten
αj, j = 1, . . . , k − 1, sind so zu bestimmen, dass 〈~t`,~tk〉 = 0 fur alle ` = 1, . . . , k − 1 gilt.
Daraus ergibt sich fur ` = 1, . . . , k−1 auf Grund der Orthonormalitat von ~t1, . . . ,~tk−1 die
Bedingung
0 = 〈~t`,~tk〉 = 〈~t`, ~xk〉 −k−1∑j=1
αj〈~t`,~tj〉 = 〈~t`, ~xk〉 − α`〈~t`,~t`〉 = 〈~t`, ~xk〉 − α`
und somit
α` = 〈~t`, ~xk〉, ` = 1, . . . , k − 1.
Normiert man die Vektoren noch, so erhalt man zusammenfassend
Algorithmus 4.1.16 (Gram-Schmidt’sches Orthonormalisierungsverfahren)
(0) Gegeben seien linear unabhangige Vektoren ~x1, . . . , ~xn.
(1) Setze ~t1 := ~x1‖~x1‖ .
(2) Fur k = 2, . . . , n berechne
~sk := ~xk −k−1∑j=1
〈~tj, ~xk〉~tj,
~tk :=~sk‖~sk‖
.
Wir demonstrieren die Konstruktion einer unitaren Ahnlichkeitstransformation an Hand
einer symmetrischen Matrix.
Beispiel 4.1.17
Gegeben sei die symmetrische Matrix
A =
−12
0 12
0 −1 012
0 −12
.c© 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN 109
Die charakteristische Gleichung lautet
0 = det(A− λI) = (−1− λ)(−1
2− λ)2 − 1
4(−1− λ) = −λ(λ+ 1)2.
Also besitzt A die Eigenwerte λ1 = 0 und λ2 = −1 (doppelt).
Ein Eigenvektor zum Eigenwert λ1 = 0 lautet
~x1 =
1
0
1
.Zum Eigenwert λ2 = −1 gehoren die linear unabhangigen Eigenvektoren
~x2 =
0
1
0
, ~x3 =
1
1
−1
.Orthonormalisierung mit dem Gram-Schmidt-Verfahren liefert:
~t1 =1√2
1
0
1
,~t2 = ~x2 − 〈~t1, ~x2〉~t1 =
0
1
0
,
~s3 = ~x3 − 〈~t1, ~x3〉~t1 − 〈~t2, ~x3〉~t2 =
1
1
−1
− 0
1
0
=
1
0
−1
,~t3 =
1√2
1
0
−1
.Eine orthogonale Transformationsmatrix lautet daher
T =
1√2
0 1√2
0 1 01√2
0 − 1√2
.
Uberprufe, dass T>T = I und T>AT =
0
−1
−1
.
Beispiel 4.1.18
Wir interessieren uns fur sogenannte Quadriken (auch Hyperflachen 2. Ordnung
c© 2011 by M. Gerdts
110 KAPITEL 4. EIGENWERTAUFGABEN
genannt). Darunter versteht man die Losungen ~x ∈ Rn der quadratischen Gleichung
~x>A~x+ 2~b>~x+ c = 0,
wobei A ∈ Rn×n eine symmetrische Matrix, b ∈ Rn ein Vektor und c ∈ R eine Zahl sind.
Wir beschranken uns auf den zweidimensionalen Fall n = 2 und diskutieren einige Falle
(es gibt noch weitere Falle, die man untersuchen kann):
(a)
A =
[1a2
1b2
], ~b =
[0
0
], ~x =
[x1
x2
].
Die quadratische Gleichung lautet dann
x21a2
+x22b2
= −c.
Fur c > 0 besitzt die Gleichung offenbar keine relle Losung. Fur c ≤ 0 beschreibt sie
eine Ellipse mit Mittelpunkt (0, 0) und Radien |a|√|c| und |b|
√|c| (in der Abbildung
wurde a = 2, b = 1 und c = −1 gewahlt):
(b)
A =
[− 1a2
1b2
], ~b =
[0
0
], ~x =
[x1
x2
].
c© 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN 111
Die quadratische Gleichung lautet dann
−x21
a2+x22b2
= −c.
Die Losungen sind hyperbolische Funktionen. Fur a = 2, b = 1 und c = −1 (Abb.
links) bzw. c = 1 (Abb. rechts) erhalt man die folgenden Abbildungen:
(c)
A =
[0
1b2
], ~b =
[0
0
], ~x =
[x1
x2
].
Die quadratische Gleichung lautet dann
x22b2
= −c.
Sie besitzt nur fur c ≤ 0 eine reelle Losung und man erhalt Geraden:
c© 2011 by M. Gerdts
112 KAPITEL 4. EIGENWERTAUFGABEN
(d) Ist A keine Diagonalmatrix, so kann man die Form der Losungsmenge nicht di-
rekt ablesen. Aber man kann die Matrix mit Hilfe einer Hauptachsentransformation
diagonalisieren. Sei hierzu
A =
[32−1
2
−12
32
], ~b =
[0
0
], ~x =
[x1
x2
].
Das charakteristische Polynom von A berechnet sich zu
ϕA(λ) = λ2 − 3λ+ 2
und die Eigenwerte von A ergeben sich aus den Nullstellen zu λ1 = 1 und λ2 = 2.
Die Spalten der folgenden orthogonalen Matrix T enthalten zugehorige orthonormale
Eigenvektoren:
T :=
[12
√2 1
2
√2
12
√2 −1
2
√2
].
Es gilt T−1AT = Λ = diag(1, 2). Mit der Substitution ~y = T−1~x transformiert sich
die quadratische Gleichung in diesem Fall zu
0 = ~x>A~x+ c = (T~y)>AT~y+ c = ~y>T>AT~y+ c = ~y>
[1
2
]~y+ c = y21 + 2y22 + c.
Dies definiert wie in (a) eine Ellipse. Macht man die Transformation ~y = T−1~x
ruckgangig, so ergibt sich eine gedrehte Ellipse:
c© 2011 by M. Gerdts
4.1. EIGENWERTE UND EIGENVEKTOREN 113
Es gibt jedoch auch Matrizen, die nicht diagonalisierbar sind, z.B.[1 1
0 1
].
Immerhin kann man auch fur solche Matrizen noch eine weitere Normalform erreichen.
Es gilt:
Satz 4.1.19 (Jordan’sche Normalform)
Sei A ∈ Cn×n und λ1, . . . , λk ihre verschiedenen Eigenwerte. λi sei eine σi-fache Nullstelle
des charakteristischen Polynoms mit der geometrischen Vielfachheit %i, i = 1, . . . , k. Zu
jedem λi existieren dann %i eindeutig bestimmte Zahlen
ν(i)n ≥ ν(i)n−1 ≥ . . . ≥ ν
(i)n−%i+1 ∈ N
mitn∑
j=n−%i+1
ν(i)j = σi, i = 1, . . . , k,
sowie eine invertierbare Matrix T mit J = T−1AT , wobei
J =
Jν(1)n
(λ1). . .
Jν(1)n−%1+1
(λ1)
. . .
Jν(k)n
(λk). . .
Jν(k)n−%k+1
(λk)
c© 2011 by M. Gerdts
114 KAPITEL 4. EIGENWERTAUFGABEN
die Jordanmatrix und
Jν(i)j
(λi) =
λi 1
λi. . .. . . 1
λi
∈ Cν(i)j ×ν
(i)j
die Jordankastchen bezeichnen.
Aus der Jordan’schen Normalform kann man insbesondere ablesen, dass A genau dann
diagonalisierbar ist, wenn geometrische und algebraische Vielfachheit fur jeden Eigenwert
gleich sind.
Fur die Spalten t1, . . . , tν(1)n von T folgt aus T−1(A− λ1I)T = J − λ1I sofort
(A− λ1I)tm = tm−1, m = ν(1)n , ν(1)n − 1, . . . , 2,
und
(A− λ1I)t1 = 0.
Die Spalten tν(1)n , . . . , t1 bilden eine Hauptvektorkette zum Eigenwert λ1, wobei t1 ein
Eigenvektor zum Eigenwert λ1 ist. Die Vektoren tν(1)n , . . . , t2 heißen Hauptvektoren.
Analoge Bezeichnungen gelten fur die ubrigen Jordankastchen, so dass die Spalten von T
aus Eigen- und Hauptvektoren von A bestehen.
Die Schur’sche und Jordan’sche Normalform sind primar von theoretischem Interesse,
da man die Eigenwerte zur Bestimmung der Normalformen bereits kennen muss. Zur
Berechnung von Eigenwerten mussen andere Verfahren verwendet werden.
Verwendet man anstatt orthogonaler Matrizen in T>AT lediglich invertierbare Matrizen,
so bleiben die Eigenwerte in der Regel nicht mehr erhalten, allerdings gilt im reellen Fall
noch folgender
Satz 4.1.20 (Tragheitssatz von Sylvester)
Sei A ∈ Rn×n symmetrisch und T ∈ Rn×n invertierbar. Dann haben A und T>AT dieselbe
Anzahl positiver, negativer und Nulleigenwerte.
c© 2011 by M. Gerdts
4.2. EIGENWERTE, KRUMMUNG, SPUR UND DETERMINANTE 115
4.2 Eigenwerte, Krummung, Spur und Determinante
Definition 4.2.1
Sei A ∈ Cn×n hermitesch.
(a) A heißt positiv semidefinit, falls ~x∗A~x ≥ 0 fur alle ~x ∈ Cn gilt. Analog wird
negative Semidefinitheit definiert.
(b) A heißt positiv definit, falls ~x∗A~x > 0 fur alle ~x ∈ Cn, ~x 6= 0, gilt. Analog wird
negative Definitheit definiert.
(c) A heißt indefinit, falls A weder positiv noch negativ semidefinit ist.
Ist A positiv definit (bzw. positiv semidefinit), so sind die Diagonalelemente von A not-
wendigerweise positiv (bzw. ≥ 0). Desweiteren besteht der folgende Zusammenhang:
Satz 4.2.2
Sei A ∈ Cn×n hermitesch.
(a) A ist positiv semidefinit genau dann, wenn alle Eigenwerte von A großer oder gleich
Null sind. A ist negativ semidefinit genau dann, wenn alle Eigenwerte von A kleiner
oder gleich Null sind.
(b) A ist positiv definit genau dann, wenn alle Eigenwerte von A großer Null sind. A
ist negativ definit genau dann, wenn alle Eigenwerte von A kleiner Null sind.
(c) A ist genau dann positiv definit, wenn alle Hauptminoren von A positiv sind.
Entsprechend ist A negativ definit, falls alle Hauptminoren von −A positiv sind.
Unter den Hauptminoren einer n × n-Matrix A = [aij] versteht man dabei die
Determinanten
a11,
∣∣∣∣∣ a11 a12
a21 a22
∣∣∣∣∣ ,∣∣∣∣∣∣∣a11 a12 a13
a21 a22 a23
a31 a32 a33
∣∣∣∣∣∣∣ , . . . ,∣∣∣∣∣∣∣a11 . . . a1n...
. . ....
an1 · · · ann
∣∣∣∣∣∣∣ .
Beispiel 4.2.3 (Krummung und Eigenwerte)
Eigenwerte geben Auskunft uber das Krummungsverhalten von quadratischen Funktionen.
Wir veranschaulichen mogliche Falle im R2:
c© 2011 by M. Gerdts
116 KAPITEL 4. EIGENWERTAUFGABEN
• f(x, y) = x2 + y2 =[x y
] [ 1 0
0 1
][x
y
](Matrix ist positiv definit, hat nur
positive Eigenwerte):
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
x^2 + y^2
-1 -0.5 0 0.5 1x -1
-0.5 0
0.5 1
y
0 0.5
1 1.5
2
• f(x, y) = −x2 − y2 =[x y
] [ −1 0
0 −1
][x
y
](Matrix ist negativ definit, hat
nur negative Eigenwerte):
-2-1.8-1.6-1.4-1.2-1-0.8-0.6-0.4-0.2 0
-x^2 - y^2
-1 -0.5 0 0.5 1x -1
-0.5 0
0.5 1
y
-2-1.5
-1-0.5
0
c© 2011 by M. Gerdts
4.2. EIGENWERTE, KRUMMUNG, SPUR UND DETERMINANTE 117
• f(x, y) = x2−y2 =[x y
] [ 1 0
0 −1
][x
y
](Matrix ist indefinit, hat positive und
negative Eigenwerte):
-1-0.8-0.6-0.4-0.2 0 0.2 0.4 0.6 0.8 1
x^2 - y^2
-1 -0.5 0 0.5 1x -1
-0.5 0
0.5 1
y
-1-0.5
0 0.5
1
Es gibt weitere interessante und uberraschende Zusammenhange mit der Spur einer Ma-
trix. Diese wird haufig in der Topologieoptimierung fur Stabbauwerke verwendet.
Definition 4.2.4 (Spur)
Die Spur (engl. trace) einer n× n-Matrix A ist definiert als die Summe ihrer Hauptdia-
gonalelemente, d.h.
Spur(A) :=n∑k=1
akk = a11 + a22 + . . .+ ann.
Satz 4.2.5
(a) Die Summe aller Eigenwerte einer n× n-Matrix A ist gleich der Spur von A, d.h.
Spur(A) =n∑k=1
λk.
c© 2011 by M. Gerdts
118 KAPITEL 4. EIGENWERTAUFGABEN
(b) Das Produkt aller Eigenwerte ist gleich der Determinante einer n × n-Matrix A,
d.h.
det(A) =n∏k=1
λk.
(c) Die zu verschiedenen Eigenwerten gehorenden Eigenvektoren sind linear unabhangig.
4.3 Eigenwertabschatzungen
Ziel dieses Abschnitts ist die Abschatzung von Eigenwerten allein mit Hilfe der Matrix
A ∈ Cn×n.
Satz 4.3.1 (Gerschgorin)
Sei A ∈ Cn×n gegeben. Definiere Radien ri gemaß
ri =n∑
j=1,j 6=i
|aij|, i = 1, . . . , n,
und Kreisscheiben (Gerschgorin-Kreise) gemaß
Ki := z ∈ C | |z − aii| ≤ ri, i = 1, . . . , n.
Dann gelten folgende Aussagen.
(a) Fur jeden Eigenwert λ von A gilt
λ ∈n⋃i=1
Ki.
(b) Sei U1 die Vereinigung von m dieser Kreissscheiben und sei U2 die Vereinigung der
verbleibenden n−m Kreissscheiben. Gilt U1∩U2 = ∅, so enthalt U1 m Eigenwerte von
A und U2 n−m Eigenwerte von A (Eigenwerte und Kreisscheiben sind entsprechend
ihrer Vielfachheit zu zahlen.).
Mit Hilfe des Satzes von Gerschgorin erhalt man insbesondere dann einen guten Uberblick
uber die Lage der Eigenwerte, wenn samtliche Kreissscheiben paarweise disjunkt sind,
da dann in jeder Kreisscheibe genau ein Eigenwert liegt. Daruber hinaus konnen durch
Anwendung des Satzes auf A> (A und A> besitzen dieselben Eigenwerte!) mitunter bessere
c© 2011 by M. Gerdts
4.3. EIGENWERTABSCHATZUNGEN 119
Abschatzungen fur einige Eigenwerte erreicht werden. Ein Ansatz zum Erreichen besserer
Abschatzungen besteht darin, eine Ahnlichkeitstransformation D−1AD mit einer geeignet
gewahlten Diagonalmatrix D vor Anwendung des Satzes von Gerschgorin durchzufuhren.
D sollte idealerweise so gewahlt werden, dass die Radien kleiner werden, was haufig aber
nur fur einige Radien erreicht werden kann, wobei sich die ubrigen vergroßern.
Beispiel 4.3.2
Betrachte
A =
1 0.1 −0.1
0 2 0.4
−0.2 0 3
.Die Gerschgorin-Kreise
1 2 3
K1 = z ∈ C | |z − 1| ≤ 0.2,K2 = z ∈ C | |z − 2| ≤ 0.4,K3 = z ∈ C | |z − 3| ≤ 0.2
sind paarweise disjunkt, d.h. in jedem Kreis liegt genau ein Eigenwert von A.
Fur die symmetrische Matrix
B =
1 2 0
2 2 0.4
0 0.4 3
.uberschneiden sich die Gerschgorin-Kreise
1 2 30 4−1
c© 2011 by M. Gerdts
120 KAPITEL 4. EIGENWERTAUFGABEN
K1 = z ∈ C | |z − 1| ≤ 2,K2 = z ∈ C | |z − 2| ≤ 2.4,K3 = z ∈ C | |z − 3| ≤ 0.4,
so dass man aus dem Satz von Gerschgorin nur die Abschatzung
−1 ≤ λ ≤ 4.4
fur die Eigenwerte λ von B erhalt. Beachte, dass die Eigenwerte von B reell sind, da B
symmetrisch ist.
c© 2011 by M. Gerdts
Kapitel 5
Funktionen
Unter einer Funktion verstehen wir eine Abbildung von einem Definitionsbereich D ⊆R in einen Bildbereich, der bei uns immer R sein wird, d.h. wir betrachten Funktionen
f : D −→ R. Hierbei ordnet f jedem x ∈ D ein eindeutiges Element f(x) ∈ R zu.
Die Menge W := f(x) | x ∈ D bezeichnet den Wertebereich von f , also die Menge
aller Funktionswerte, die f auf dem Definitionsbereich annimmt.
Der Graph von f ist definiert als die Menge G := (x, f(x)) | x ∈ D.
Eine Funktion f : D −→ R ordnet jedem Element x ∈ D ein eindeutiges Element f(x) ∈ Rzu. Wahlt man umgekehrt ein beliebiges Element y ∈ R, so kann man die Urbildmenge
von y unter der Abbildung f
f−1(y) := x ∈ D | y = f(x)
betrachten. Es konnen mehrere Falle auftreten:
(i) Die Urbildmenge f−1(y) enthalt genau ein Element.
(ii) Die Urbildmenge f−1(y) ist leer.
(iii) Die Urbildmenge f−1(y) enthalt mindestens zwei verschiedene Elemente.
(Aufgabe: Uberlegen Sie sich Beispiele fur die drei Falle)
Falls der Fall (i) fur jedes Element y aus dem Wertebereich von f gilt, d.h. jedem y ∈ Wwird das eindeutige Element x = f−1(y) zugeordnet, so heißt die Abbildung f−1 : W −→D Umkehrfunktion oder inverse Funktion. Existiert die Umkehrfunktion f−1 von f ,
so nennt man f auch bijektiv. Die Umkehrfunktion hat die Eigenschaft
f(f−1(y)) = y (∀y ∈ W ) bzw. f−1(f(x)) = x (∀x ∈ D).
Wir stellen haufig vorkommende Funktionen kurz vor.
121
122 KAPITEL 5. FUNKTIONEN
5.1 Affin-lineare Funktionen
Eine Funktion f : R −→ R der Form
f(x) = ax+ b (a, b ∈ R)
nennen wir affin-lineare Funktion.
Definitionsbereich: D = RWertebereich:
W = ax+ b | x ∈ R
=
R, falls a 6= 0,
b, sonst.
Im Fall a 6= 0 existiert die Umkehrfunk-
tion
f−1(y) =y − ba
.
α− ba
b
Abbildung 5.1: Graph einer affin-
linearen Funktion f(x) = ax+ b.
Beispiel 5.1.1
• Bewegung eines Objektes mit konstanter Geschwindigkeit:
s(t) = vt (t=Zeit, v=Geschwindigkeit, s(t)=zuruckgelegte Strecke)
• Gleichmaßig beschleunigte Bewegung eines Objektes:
v(t) = v0 + at (t=Zeit, a=Beschleunigung, v0=Anfangsgeschw., v(t)=Geschw.)
c© 2011 by M. Gerdts
5.2. QUADRATISCHE FUNKTIONEN 123
Eigenschaften affin-linearer Funktionen1 (vgl. Abbildung 5.1):
• Der Graph von f ist eine Gerade.
• Die Gerade schneidet die y-Achse im Punkt (0, b).
• a gibt die Steigung der Geraden an:
– Im Fall a > 0 wachst die Gerade nach rechts an.
– Im Fall a < 0 fallt die Gerade nach rechts ab.
– Im Fall a = 0 verlauft die Gerade parallel zur x-Achse (f ist konstant).
• Fur a 6= 0 hat die Gerade genau eine Nullstelle im Punkt x = − ba.
• Der Neigungswinkel α der Geraden (=Winkel zwischen Gerade und x-Achse) erfullt
tanα = a.
5.2 Quadratische Funktionen
Eine Funktion f : R −→ R der Form
f(x) = ax2 + bx+ c (a, b, c ∈ R)
nennen wir quadratische Funktion
oder Parabel.
Definitionsbereich: D = RWertebereich:
– W = [fs,+∞), falls a > 0,
– W = (−∞, fs], falls a < 0.
xs = − b2a
fs = 4ac−b24a
x1 x2 x
y = f(x)
f(x) = ax2 + bx+ c
Abbildung 5.2: Graph einer quadrati-
schen Funktion f(x) = ax2 +bx+c (hier
a > 0, b2 − 4ac > 0).
Eigenschaften quadratischer Funktionen (vgl. Abbildung 5.2):
• Der Graph von f ist eine Parabel, die fur a > 0 nach oben und fur a < 0 nach unten
geoffnet ist.
1Haufig lasst man das Wort “affin” einfach weg. Streng genommen ist f nur im Fall b = 0 eine lineare
Funktion. Fur b 6= 0 erhalten wir eine verschobene lineare Funktion, daher der Name “affin-linear”. Eine
lineare Funktion erfullt f(x+ y) = f(x) + f(y) und f(cx) = cf(x) fur alle x, y, c ∈ R.
c© 2011 by M. Gerdts
124 KAPITEL 5. FUNKTIONEN
• Fur a 6= 0 ist die x-Koordinate (Abszisse) des Scheitelpunkts von f gegeben durch
xs = − b2a
und die y-Koordinate (Ordinate) des Scheitelpunkts von f durch fs =4ac−b2
4a.
• Die Nullstellen x1 und x2 von f sind gegeben durch die quadratische Gleichung
ax2 + bx+ c = 0, welche die Losungen
x1,2 =−b±
√b2 − 4ac
2a“Mitternachtsformel”
besitzt. Abhangig vom Vorzeichen der Diskriminante D = b2−4ac ergeben sich zwei
Nullstellen (D > 0), eine doppelte Nullstelle (D = 0) oder keine reelle Nullstelle
(D < 0).
5.3 Polynome und rationale Funktionen
Affin-lineare und quadratische Funktionen sind spezielle Polynome, die wie folgt definiert
sind.
Eine Funktion p : R −→ R der Form
p(x) = anxn + an−1x
n−1 + . . .+ a1x+ a0
=n∑k=0
akxk mit an 6= 0
heißt Polynom n-ten Grades mit den Ko-
effizienten a0, a1, . . . , an.
Die Polynome 1, x, x2, x3, . . . , xn, . . . heißen
Basispolynome oder Elementarpolyno-
me.
Definitionsbereich: D = RBeispiele:
• n = 0: konstante Funktionen
• n = 1: affin-lineare Funktionen
• n = 2: quadratische Funktionen
Basispolynome fur n = 0, 1, 2, 3, 5:
-2.5
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5
-1 -0.5 0 0.5 1
1
x
x**2
x**3
x**5
Sind p, q : R −→ R Polynome, so bezeichnet man die Funktion
f(x) =p(x)
q(x)
c© 2011 by M. Gerdts
5.3. POLYNOME UND RATIONALE FUNKTIONEN 125
als rationale Funktion.
Rationale Funktionen sind i.a. nicht fur alle reellen Argumente x definiert und konnen
Polstellen besitzen, namlich dort, wo q Nullstellen besitzt. Da q nur endlich viele Null-
stellen besitzt, gibt es auch nur endlich viele Polstellen.
Eine Polstelle xs von f zeichnet sich dadurch aus, dass die Funktion f bei Annaherung
an xs gegen +∞ oder gegen −∞ strebt.
Man spricht von einer hebbaren Polstelle, wenn xs Nullstelle von p mit Vielfachheit
mp und Nullstelle von q mit Vielfachheit mq ≤ mp ist. In diesem Fall kann man die zur
Nullstelle gehorenden Linearfaktoren kurzen, z.B.
f(x) =x3 + x2 − x− 1
x+ 1=
(x− 1)(x+ 1)2
x+ 1= (x− 1)(x+ 1) = x2 − 1.
Hier ist xs = −1 eine doppelte Nullstelle des Zahlers und einer einfache Nullstelle des
Nenners, so dass man den Term x+1 kurzen kann. Damit entfallt die potenzielle Polstelle
xs = −1.
Treten keine hebbaren Polstellen auf oder wurde bereits gekurzt, so ist die Ordnung der
Polstelle xs gegeben durch die Vielfachheit der Nullstelle xs in q. Ist die Ordnung gerade,
so liegt eine Polstelle ohne Vorzeichenwechsel vor. Ist die Ordnung ungerade, so liegt
eine Polstelle mit Vorzeichenwechsel vor.
Beispiel 5.3.1
(i) Die rationale Funktion f(x) = 1x2
besitzt in x = 0 eine Polstelle 2. Ordnung (ohne
Vorzeichenwechsel).
(ii) Die rationale Funktion f(x) = 1(x−2)3 besitzt in x = 2 eine Polstelle 3. Ordnung (mit
Vorzeichenwechsel).
(iii) Die rationale Funktion
f(x) =x+ 2
x3 + x2 − x− 1=
x+ 2
(x+ 1)2(x− 1)
besitzt in x = −1 eine Polstelle 2. Ordnung (ohne Vorzeichenwechsel) und in x = 1
eine Polstelle 1. Ordnung (mit Vorzeichenwechsel).
(iv) Die rationale Funktion
f(x) =x2 + 3x+ 2
x3 + x2 − x− 1=
(x+ 2)(x+ 1)
(x+ 1)2(x− 1)=
(x+ 2)
(x+ 1)(x− 1)
besitzt in x = −1 eine Polstelle 1. Ordnung (mit Vorzeichenwechsel) und in x = 1
eine Polstelle 1. Ordnung (mit Vorzeichenwechsel).
c© 2011 by M. Gerdts
126 KAPITEL 5. FUNKTIONEN
0
200
400
600
800
1000
-1 -0.5 0 0.5 1
1/x**2
-10000
-5000
0
5000
10000
1 1.5 2 2.5 3
1/(x-2)**3
-100
-50
0
50
100
-1.5 -1 -0.5 0 0.5 1 1.5
(x+2)/(x**3+x**2-x-1)
-100
-50
0
50
100
-1.5 -1 -0.5 0 0.5 1 1.5
(x**2+3*x+2)/(x**3+x**2-x-1)
Rationale Funktionen sind durch die Division von zwei Polynomen definiert und es stellt
sich die Frage, ob man bei dieser Division wie bei der Division zweier ganzer Zahlen vor-
gehen kann, um z.B. den Rest der Division zu berechnen. Tatsachlich kann die Division
zweier Polynome vollig analog zur schriftlichen Division zweier ganzer Zahlen vorgenom-
men werden. Als Ergebnis erhalt man die folgende Darstellung der rationalen Funktion
f :
f(x) =p(x)
q(x)= h(x) +
r(x)
q(x), (5.1)
wobei p ein Polynom n-ten Grades, q ein Polynom m-ten Grades mit m ≤ n, h ein
Polynom (n−m)-ten Grades und der “Rest” r ein Polynom vom Hochstgrad m− 1 sind.
Beispiel 5.3.2 (Polynomdivision)
Gegeben seien p(x) = 4x5 − 4x4 − 5x3 + 4x2 − x+ 1 und q(x) = 2x3 − 3x2 + 5x− 2. Wir
fuhren die Division mit Rest von p durch q durch:
c© 2011 by M. Gerdts
5.3. POLYNOME UND RATIONALE FUNKTIONEN 127
(4x5 −4x4 −5x3 +4x2 −x +1) : (2x3 − 3x2 + 5x− 2) = 2x2 + x− 6︸ ︷︷ ︸=h(x)
−(4x5 −6x4 +10x3 −4x2)
2x4 −15x3 +8x2 −x +1
−(2x4 −3x3 +5x2 −2x)
−12x3 +3x2 +x +1
−(−12x3 +18x2 −30x +12)
−15x2 +31x −11
︸ ︷︷ ︸=r(x)
Die Polynomdivision ist nutzlich, wenn man z.B. durch scharfes Hinsehen eine Nullstelle x1
des Polynoms p vom Grad n entdeckt hat und nun weitere Nullstellen berechnen mochte.
Dazu teilt man das Polynom p durch x − x1 und fuhrt eine Polynomdivision durch. Da
x1 eine Nullstelle ist, bleibt kein Rest ubrig und das Polynom h in der Darstellung (5.1)
besitzt den um eins reduzierten Polynomgrad n− 1, d.h. man erhalt die Darstellung
p(x)
x− x1= h(x) bzw. p(x) = (x− x1)h(x).
Fuhrt man dieses Prinzip fur h fort, so sieht man, dass ein Polynom n-ten Grades
hochstens n verschiedene reelle Nullstellen besitzen kann.
Beispiel 5.3.3
Betrachte das Polynom p(x) = x3 + x2 − x − 1. Durch hinsehen sieht man, dass x = 1
eine Nullstelle ist. Polynomdivision liefert:
(x3 +x2 −x −1) : (x− 1) = x2 + 2x+ 1
−(x3 −x2)2x2 −x −1
−(2x2 −2x )
x −1
−(x −1)
0
Man kann p also darstellen als p(x) = (x− 1)(x2 + 2x+ 1). Schaut man sich den zweiten
Faktor an und erkennt, dass x = −1 eine Nullstelle ist, so kann man fur x2 + 2x + 1
c© 2011 by M. Gerdts
128 KAPITEL 5. FUNKTIONEN
erneut die Polynomdivision durchfuhren:
(x2 +2x +1) : (x+ 1) = x+ 1
−(x2 +x)
x +1
−(x +1)
0
Somit gilt x2 + 2x + 1 = (x + 1)(x + 1) = (x + 1)2 und man kann p schreiben als
p(x) = (x− 1)(x+ 1)2.
5.4 Trigonometrische Funktionen
Wir untersuchen die wichtigsten trigonometrischen Funktion, u.a. Sinus, Cosinus, Tan-
gens. Diese Funktionen spielen eine wichtige Rolle bei der Beschreibung von periodischen
Vorgangen.
Definition 5.4.1 (periodische Funktion)
Eine Funktion f : R −→ R heißt periodisch mit Periode T > 0, falls
f(x+ T ) = f(x) fur alle x ∈ R
gilt.
Wegen der Periodizitat genugt es, eine periodische Funktion mit Periode T nur auf einem
Intervall der Lange T zu definieren.
5.4.1 Sinus, Cosinus (sin, cos)
Sinus und Kosinus konnen geometrisch oder analytisch definiert werden. Wir wahlen
zunachst die ubliche geometrische Definition mithilfe des Einheitskreises, vgl. Abbil-
dung 5.3. Dazu wahlen wir einen Punkt P auf dem Einheitskreis und bezeichnen den
Winkel zwischen der Verbindungslinie vom Ursprung zum Punkt P und der x-Achse
mit α. Der Sinus von α ist dann definiert als die y-Komponente des Punktes P (Ordina-
te) und der Cosinus von α ist definiert als die x-Komponente des Punktes P (Absizze),
also P = (cos(α), sin(α)).
c© 2011 by M. Gerdts
5.4. TRIGONOMETRISCHE FUNKTIONEN 129
1
α
cos(α)
sin(α)
P
x
y
Abbildung 5.3: Definition des Sinus und Cosinus am Einheitskreis mithilfe des Winkels.
Alternativ konnen Sinus und Cosinus auch uber die Bogenlange definiert werden. Hierzu
tragt man fur x ∈ R ausgehend vom Punkt (1, 0) auf dem Einheitskreis einen Bogen der
Lange |x| ab, wobei man fur x ≥ 0 im mathematisch positiven Sinne (also entgegen des
Uhrzeigersinns) und fur x < 0 im mathematisch negativen Sinne (also im Uhrzeigersinn)
entlang des Einheitskreises lauft. Dadurch wird ein Punkt Px auf dem Einheitskreis defi-
niert. Der Sinus von x ist dann definiert als die y-Komponente des Punktes Px (Ordinate)
und der Cosinus von x ist definiert als die x-Komponente des Punktes Px (Abszizze), also
Px = (cos(x), sin(x)), vgl. Abbildung 5.4.
In dieser Definition von sin und cos hat die Variable x die Bedeutung einer Bogenlange
auf dem Einheitskreis. Man sagt, x ist im Bogenmaß angegeben. Definiert man sin und
cos uber den Winkel α, so ist α im Gradmaß angegeben. Der Zusammenhang zwischen
den beiden Variablen x und α ist wie folgt:
x
2π=
α
360=⇒ x =
α
180· π bzw. α =
x
π· 180
Beispiel:
α = 30 =⇒ x =30
180· π =
π
6.
c© 2011 by M. Gerdts
130 KAPITEL 5. FUNKTIONEN
1
cos(x)sin(x)
Px
x ≥ 0
x < 0
Abbildung 5.4: Definition des Sinus und Cosinus am Einheitskreis mithilfe der Bogenlange.
Die Graphen der trigonometrischen Funktionen sin, cos sind in Abbildung 5.5 abgebildet.
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
-6.28319 -4.71239 -3.14159 -1.5708 0 1.5708 3.14159 4.71239 6.28319
sin(x)cos(x)
−2π −3π2−π −π
2π2
π 3π2
2π
Abbildung 5.5: Sinus und Cosinus.
Eigenschaften von sin und cos:
• Der Definitionsbereich von sin und cos ist R, der Wertebereich ist [−1, 1].
c© 2011 by M. Gerdts
5.4. TRIGONOMETRISCHE FUNKTIONEN 131
• sin und cos sind periodisch mit Periode 2π.
• sin ist eine ungerade Funktion, d.h. es gilt sin(−x) = − sinx fur alle x ∈ R.
• cos ist eine gerade Funktion, d.h. es gilt cos(−x) = cos x fur alle x ∈ R.
• Es gilt sin(nπ) = 0 fur n = 0,±1,±2, ....
• Es gilt cos(π2
+ nπ)
= 0 fur n = 0,±1,±2, ....
• Es gilt sin(x+ π) = − sinx fur alle x ∈ R.
• Es gilt cos(x+ π) = − cosx fur alle x ∈ R.
• Es gilt sin(x+ π
2
)= cosx fur alle x ∈ R. Daraus folgt cos
(x− π
2
)= sinx.
• Es gilt cos(x+ π
2
)= − sinx fur alle x ∈ R.
• Es gilt sin2 x+ cos2 x = 1 fur alle x ∈ R.
5.4.2 Tangens, Cotangens (tan, cot)
Tangens und Cotanges sind wie folgt definiert:
tanx :=sinx
cosxfur x 6= π
2+ nπ, n = 0,±1,±2, ...,
cotx :=1
tanxfur x 6= nπ, n = 0,±1,±2, ...,
vgl. Abbildung 5.6.
-10
-5
0
5
10
-6.28319 -4.71239 -3.14159 -1.5708 0 1.5708 3.14159 4.71239 6.28319
tan(x)
-10
-5
0
5
10
-6.28319 -4.71239 -3.14159 -1.5708 0 1.5708 3.14159 4.71239 6.28319
1/tan(x)
−2π −3π2 −π −
π2
π2 π 3π
2 2π −2π−3π2 −π −
π2
π2 π 3π
2 2π
Abbildung 5.6: Tangens (links) und Cotangens (rechts).
Eigenschaften:
• tan ist ungerade und hat die Periode π.
c© 2011 by M. Gerdts
132 KAPITEL 5. FUNKTIONEN
• cot ist ungerade und hat die Periode π.
• Es gelten
tan(π
2− x)
=sin(π2− x)
cos(π2− x) =
cosx
sinx= cotx
und
cot(π
2− x)
= tanx.
Von manchen Winkeln kennen wir die exakten Sinus-(bzw. Kosinus-)werte, z.B.
x = 0 x = π/6 x = π/4 x = π/3 x = π/2
(0) (30) (45) (60) (90)
sin(x) 0 12
12
√2 1
2
√3 1
cos(x) 1 12
√3 1
2
√2 1
20
tan(x) 0 13
√3 1
√3 ∞
Satz 5.4.2 (Additionstheoreme)
Fur beliebige α, β ∈ R gelten
sin(α± β) = sinα cos β ± cosα sin β,
cos(α± β) = cosα cos β ∓ sinα sin β
5.5 Exponentialfunktion
Fur das Produkt
a · a · ... · a︸ ︷︷ ︸n mal
(a 6= 0)
schreibt man abgekurzt an. Speziell ist
a0 = 1, a1 = a, a2 = a · a.
Man nennt a die Basis und n den Exponenten. Beachte, dass der Ausdruck 00 nicht
definiert ist!
Rechengesetze: (m,n ∈ N0, a ∈ R, a 6= 0)
• am · an = am+n (laßt sich leicht unter Verwendung der Definition zeigen)
• a−n = a0 · a−n = 1an
• am · bm = (ab)m
c© 2011 by M. Gerdts
5.5. EXPONENTIALFUNKTION 133
• (am)n = am·n = (an)m
• am
an= am · a−n = am−n
• am
bm=(ab
)mFur m ∈ N und a ∈ R betrachten wir die Gleichung
xm = a
und definieren die Losung dieser Gleichung (falls existent) als
x := a1m = m
√a “m−te Wurzel aus a”.
Beispiel 5.5.1
Es gilt184(a2b)2
273(2a√ab)2
=(9 · 2)4(a2)2b2
(9 · 3)3 · 22a2(√a)2b2
=94 · 24a4b2
93 · 33 · 22a2a12·2b2
=4
3a.
Definition 5.5.2 (Exponentialfunktion)
Fur ein beliebiges a > 0, a 6= 1, heißt die Funktion f(x) = ax, x ∈ R, die Exponential-
funktion mit der Basis a.
0
2
4
6
8
10
-5 -4 -3 -2 -1 0 1 2 3 4 5
exp(x)(1.0/3.0)**x(1.0/2.0)**x
2**x3**x1**x
Abbildung 5.7: Exponentialfunktionen.
c© 2011 by M. Gerdts
134 KAPITEL 5. FUNKTIONEN
Die Exponentialfunktion f(x) = ax hat folgende Eigenschaften, vgl. Abbildung 5.7:
• f ist uberall definiert, d.h. der Definitionsbereich ist D = R.
• f nimmt nur positive Werte an, und zwar alle positive Werte, d.h. der Wertebereich
ist W = (0,∞).
• Wegen a0 = 1 hat jede solche Funktion an der Stelle x = 0 den Wert 1.
• Fur a > 1 ist f streng monoton steigend und nahert sich mit x→ −∞ asymptotisch
der x−Achse.
Fur 0 < a < 1 ist f streng monoton fallend und nahert sich mit x→∞ asymptotisch
der x−Achse.
• Vergleicht man zwei Exponentialfunktionen f1(x) = ax und f2(x) = bx mit a < b
miteinander, so stellt man fest:
Fur x > 0 gilt f1(x) < f2(x) und fur x < 0 gilt f1(x) > f2(x).
• Betrachte die Funktionen f1(x) = ax und f2(x) =(1a
)x. Wegen
f1(−x) = a−x = (a−1)x =
(1
a
)x= f2(x)
sind die Funktionen f1 und f2 an der y-Achse gespiegelt.
• Aus f(x1) = ax1 = ax2 = f(x2) folgt x1 = x2.
• Es gelten die Beziehungen
f(x+ y) = ax+y = ax · ay = f(x) · f(y),
f(x · y) = axy = (ax)y = f(x)y,
sowie
(ab)x = axbx.
In vielen technischen und wissenschaftlichen Anwendungen tritt eine ganz bestimmte Ex-
ponentialfunktion auf. Diese hat die Basis e, wobei e ≈ 2, 7182818284590 . . . die Euler-
sche Zahl bezeichnet. Diese spezielle Exponentialfunktion wird e-Funktion (oder auch
einfach Exponentialfunktion) genannt und man schreibt
f(x) = ex oder f(x) = exp(x).
Beispiel 5.5.3 (Anwendungen der e-Funktion)
Folgende Naturprozesse lassen sich durch diese Funktion modellieren:
c© 2011 by M. Gerdts
5.6. LOGARITHMUS 135
• Organisches Wachstum:
g(t) = g0 eλt
(g0 − Anfangsgroße,λ−Wachstumskonstante)
(der Zuwachs ist proportional dem vorhandenden Bestand)
• Zerfallsprozesse:
m(t) = m0 e−λt
(m0 − Anfangsgroße, λ− Zerfallskonstante)
• Gedampfte Schwingungen:
f(t) = e−Rt sin(ωt+ ϕ)
• Wahrscheinlichkeitsdichte:
f(x) =1
σ√
2πexp
(−1
2
(x− µσ
)2)
(“Gaußsche Glockenkurve”)
beschreibt die Wahrscheinlichkeitsdichte einer normalverteilten Zufallsvariablen X
mit Erwartungswert µ und Varianz σ2. Die Wahrscheinlichkeit, dass X im Bereich
[a, b] liegt, lautet dann
P (a ≤ X ≤ b) =
∫ b
a
f(x)dx.
5.6 Logarithmus
Die Umkehrfunktion der Exponentialfunktion heißt Logarithmus.
Definition 5.6.1 (Logarithmus)
Sei a > 0 gegeben. Fur x ∈ R, x > 0, heißt y ∈ R der Logarithmus von x zur Basis
a, wenn
ay = x
gilt. Man schreibt y = loga(x).
Die Funktion loga : R+ −→ R gemaß x 7→ loga(x) heißt Logarithmusfunktion zur
Basis a oder einfach Logarithmus zur Basis a.
c© 2011 by M. Gerdts
136 KAPITEL 5. FUNKTIONEN
Per Definition ist der Logarithmus zur Basis a gerade die Umkehrfunktion der Exponen-
tialfunktion ax, d.h. es gilt
aloga(x) = x.
-10
-5
0
5
10
0 1 2 3 4 5
ln(x)log_1/3(x)log_1/2(x)
log_2(x)log_3(x)
Abbildung 5.8: Logarithmusfunktionen.
Der Logarithmus hat folgende Eigenschaften, vgl. Abbildung 5.8.
• Die Logarithmusfunktion existiert auf dem Intervall (0,∞), besitzt also den Defini-
tionsbereich D = (0,∞).
• Die Logarithmusfunktion hat den Wertebereich W = (−∞,∞).
• Die Kurve von f(x) = loga(x) ist das Spiegelbild von ax an der Geraden y = x.
• Fur alle a > 0 gilt loga(1) = 0.
• loga ist streng monoton wachsend fur a > 1 und streng monoton fallend fur 0 < a <
1.
Rechenregeln:
• loga(xy) = loga x+ loga y
• loga
(xy
)= loga(x)− loga(y)
• loga(xb) = b loga(x)
c© 2011 by M. Gerdts
5.7. HYPERBOLISCHE FUNKTIONEN 137
• logb(x) = loga(x)loga(b)
Haufig verwendet man die Basen a = e und a = 10:
log10(x) = lg(x) = log(x) (dekadischer Logarithmus)
loge(x) = ln x (naturlicher Logarithmus).
5.7 Hyperbolische Funktionen
Sinus Hyperbolicus, Cosinus Hyperbolicus, Tangens Hyperbolicus und Cotangens Hyper-
bolicus sind definiert durch
sinhx :=1
2(exp(x)− exp(−x)) ,
coshx :=1
2(exp(x) + exp(−x)) ,
tanhx :=sinhx
coshx,
cothx :=1
tanhx,
siehe Abbildung 5.9.
Die Umkehrfunktionen werden mit arcsinh, arccosh, arctanh und arccoth bezeichnet.
-4
-3
-2
-1
0
1
2
3
4
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
sinh(x) cosh(x) tanh(x)
Abbildung 5.9: Hyperbolische Funktionen.
c© 2011 by M. Gerdts
138 KAPITEL 5. FUNKTIONEN
Eigenschaften:
• cosh2 x− sinh2 x = 1
• Additionstheoreme:
sinh(x± y) = sinh(x) cosh(y)± cosh(x) sinh(y),
cosh(x± y) = cosh(x) cosh(y)± sinh(x) sinh(y).
• Umkehrfunktionen:
arcsinh(x) = ln(x+√x2 + 1),
arccosh(x) = ln(x+√x2 − 1).
c© 2011 by M. Gerdts
Literaturverzeichnis
[BHW07] Burg, K., Haf, H. and Wille, F. Hohere Mathematik fur Ingenieure. Band II:
Lineare Algebra. Teubner, Stuttgart, 1987/2007.
[BS89] Bronstein, I. and Semendjaev, K. A., editors. Taschenbuch der Mathematik .
Verlag Harri Deutsch, Thun, 24th edition, 1989.
[MV93] Meyberg, K. and Vachenauer, P. Hohere Mathematik I-II . Springer, Berlin-
Heidelberg-New York, 2nd edition, 1993.
[Pap08] Papula, L. Mathematik fur Ingenieure und Naturwissenschaftler. Band 1-2 .
Vieweg+Teubner, Wiesbaden, 2008.
[Pap14] Papula, L. Mathematische Formelsammlung: Fr Ingenieure und Naturwissen-
schaftler . Springer Vieweg, Wiesbaden, 2014.
139