Michaels
Michaels
Prüfungstraining
Thomas C. T. Michaels
Marcel Liechti
Prüfungstraining
Lineare Algebra
Band I:
Matrizen, Determinanten,
Lineare Gleichungssysteme,
Vektorräume, Lineare Abbildungen,
Eigenwerte und Eigenvektoren
Grundstudium Mathematik
Grundstudium Mathematik Prüfungstraining
Herausgegeben von
Thomas C. T. Michaels, Department of Physics and Astronomy,
University College London, London, UK
Marcel Liechti, Institut Mathematik-Coaching, Dübendorf,
Schweiz
Übung macht den Meister. Oder anders formuliert, zum Prüfungserfolg führen Üben, Lernen, Üben,
Trainieren.... Nur womit? Die Bände in der Reihe Grundstudium Mathematik Prüfungstraining
ergänzen ideal die gängigen Lehrbücher zum Bachelor-Studium Mathematik und die Mathematik-
Grundlagenvorlesungen für Ingenieur-, naturwissenschaftliche und wirtschaftswissenschaftliche
Studiengänge. Die Bücher folgen einem bewährten Konzept: Zum einen bieten sie eine Sammlung vieler
sorgfältig ausgewählter Aufgaben mit ausführlichen, gut verständlichen Lösungen und Beispielen. Aber
auch die Theorie kommt nicht zu kurz, der wesentliche Stoff wird kompakt wiederholt. Eine ideale
Kombination für die Prüfungsvorbereitung.
Prüfungstraining
Lineare Algebra
Band I: Matrizen, Determinanten, Lineare Gleichungssysteme,
Vektorräume, Lineare Abbildungen, Eigenwerte und
Eigenvektoren
Thomas C. T. Michaels Marcel Liechti
Department of Physics and Astronomy Institut Mathematik-Coaching
University College London Dübendorf, Schweiz
London, UK
Birkhäuser
© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG
2022
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in
diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur
Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte
des jeweiligen Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen
und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.
Vorwort
Zu den vielen existierenden Büchern zur linearen Algebra gesellt sich hier ein weiteres,
aber sehr spezielles. Das vorliegende Buch soll vielen Studenten im Assessmentjahr
die lang ersehnte echte Hilfe zur effektiven Prüfungsvorbereitung liefern. Beim
Verfassen des Buches hatten die Autoren die folgenden Aspekte im Fokus:
5 Viele typische Aufgaben der linearen Algebra I, die sich rezeptartig und didak-
tisch transparent lösen lassen. Das Buch bietet eine Sammlung der wichtigsten
Lösungsrezepte und Tricks.
5 Eine übersichtliche Darstellung in Hauptthemen, die in ein oder zwei Semestern Li-
neare Algebra an Universitäten, Technischen Hochschulen oder Fachhochschulen
behandelt werden.
5 Eine Aufteilung des Stoffes in viele etwa gleich kurze Übungs- bzw. Lerneinheiten.
In jedem Kapitel werden die wichtigen Definitionen und Sätze kurz und einfach
zusammengefasst und diese Theorie wird anhand von ausführlich durchgerechne-
ten Musterbeispielen erklärt.
5 Zahlreiche Beispiele erklären die Theorie anschaulich und didaktisch transparent.
Sie untermauern das Anwenden der vorgeschlagenen „Kochrezepte“ durchge-
hend.
5 Ausführliche, verständliche Lösungsanleitungen mit verschiedenen Schwierig-
keitsgraden. Durch ◦ ◦ ◦ (leicht), • ◦ ◦, • • ◦, bis • • • (schwierig) wird ein
ungefährer Schwierigkeitsgrad der Aufgaben vorgeschlagen.
5 Es wurden bewusst Übungen gewählt, die sowohl für Studenten von anwen-
dungsorientierten Fachrichtungen wie für zukünftige Ingenieure, Wirtschafts-
wissenschafter, Naturwissenschafter, Informatiker als auch für theorieorientierte
Mathematiker und Physiker geeignet sind. Insbesondere befinden sich im Buch
zahlreiche Beweisaufgaben mit bekannten Tricks um die „Kunst“ des Beweisen
eintrainieren zu können.
5 Mittels 150 Multiple-Choice-Aufgaben, wie sie immer häufiger an Assessment-
Prüfungen aufzufinden sind, inklusive Lösungen, wird der erarbeitete Gesamt-
stoff nochmals repetiert und gefestigt.
5 Zu guter Letzt offerieren wir am Schluss, quasi als letzten Schliff, vier komplette
3- bis 4-stündige Musterprüfungen vom Schwierigkeitsgrad leichter • ◦ ◦ ◦ bis
schwierig • • • •; natürlich mit ausführlichen Lösungswegen!
Was darf man sich also vom vorliegenden Buch erwarten? Im Buch befinden sich
mehr als 600 prüfungsrelevante Übungen, alle ausführlich gelöst. Alle Lösungsschritte
werden akurat durchgerechnet und es gibt kein „trivial“ oder „man sieht leicht“.
Dieses Buch eignet sich also perfekt zum Trainieren und hilft zu verstehen, was
konkret hinter den abstrakten Definitionen und Sätzen der linearen Algebra steckt.
Es ist aus unserer Sicht das ideale Begleitbuch für jeden Studenten als Prüfungsvorbe-
reiter. Viele anspruchsvolle, weiterführende Themen und „härtere“ Beispiele wurden
bewusst in den Folgeband Prüfungstraining Lineare Algebra Band II ausgelagert.
Das Buch will ganz bewusst das ganze Spektrum von relativ elementaren bis
anspruchsvollen Beispielen abdecken. Unsere langjährige Erfahrung im Mathematik-
coaching an Hochschulen erlaubt uns, eine grobe Klassifizierung der Bearbeitungs-
VI Vorwort
gruppen vorzunehmen. Es ist uns klar, dass ein Wirtschaftsstudent nicht die gleichen
Anforderungen in lineare Algebra hat wie ein Physik- oder Mathematikstudent. Die
vorgeschlagene Tabelle ist als „Empfehlung“ zu verstehen, die jederzeit individuell
angepasst werden kann.
Maschinenbau, Elektrotechnik
Naturwissenschaften
Mathematik, Physik
Lehramtsstudenten
Informatik
Teil I ••◦ ••◦ ••◦ ••• ••• •••
Teil II •◦◦ ••◦ ••◦ ••◦ ••◦ •••
Teil III •◦◦ ••◦ ••◦ ••◦ ••• •••
Beispiele in C – ••◦ ••◦ •◦◦ ••◦ •••
Beispiele in Pn (K) – •◦◦ ••◦ •◦◦ ••◦ •••
Ein Buch kann kaum alle Bedürfnisse gleichzeitig erfüllen: Es wird somit nicht auf
Exaktheit und Beweisvollständigkeit verzichtet. Wir haben überall dort, wo es uns
inhaltlich richtig erschien, Beweise in Form von Beispielen vollständig präsentiert.
Technische Beweise, welche nur lange Schreibarbeit erfordern, aber keinen wesentli-
chen Beitrag zum Verständnis beitragen, wurden bewusst weggelassen, wir verweisen
auf die umfangreiche entsprechende Literatur.
Wir wollen das Buch jetzt nicht weiter beschreiben: Sie haben es ja vor sich! Wir
sind überzeugt, dass Sie ein echtes Juwel in Ihren Händen tragen. Wir wünschen von
Herzen einen überzeugenden Prüfungserfolg und hoffentlich nimmt dieses Buch allen
Lesern die unnötige Angst, die sie möglicherweise vor der linearen Algebra haben!
Nicht vergessen wollen wir die vielen Studenten, die uns verschiedene gute Tipps und
Korrekturen mitgeteilt haben. Insbesondere die ETHZ-Mathematikstudenten Tanja
Kaister und Raphael Guido. Wir danken Claudia Flandoli (www.draw.science) für
die Herstellung aussagekräftiger Grafiken.
Thomas Michaels
Marcel Liechti
Mai 2021
VII
Inhaltsverzeichnis
2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.1 Lineare Gleichungssysteme (LGS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.1.1 Lösungsmenge eines LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.1.2 LGS auf beliebigen Körpern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.1.3 Bestimmung der Lösungsmenge eines LGS durch elementare Zeilenoperationen . . . . . . . . . . . 61
2.2 Der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.2.1 Zeilenstufenform einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.2.2 Matrixdarstellung eines LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2.3 Der konkrete Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.2.4 Kochrezept für Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.2.5 Weitere Beispiele zum Gauß-Algorithmus: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
VIII Inhaltsverzeichnis
3 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
3.1 Definition und erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3.1.1 Determinante von (2 × 2)-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .138
3.1.2 Determinante von (3 × 3)-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .139
3.1.3 Determinante von (n × n)-Matrizen – Laplace-Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .141
3.1.4 Rechenregeln für Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .145
3.1.5 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .146
3.2 Determinante und Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3.3 Allgemeine Definition der Determinante – die Leibniz-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
3.3.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .174
3.3.2 Die Menge Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .176
3.3.3 Transpositionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .177
3.3.4 Darstellung von Parmutationen durch Transpositionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .177
3.3.5 Signum einer Permutation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .178
3.3.6 Leibniz-Formel für Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .179
3.4 Inverse Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
3.4.1 Invertierbarkeit und Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183
3.4.2 Inverse einer (2 × 2)-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183
3.4.3 Inverse einer (n × n)-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .184
3.4.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .186
3.5 Cramer’sche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
3.5.1 Homogene LGS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .199
4 LR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4.1 LR-Zerlegung ohne Zeilenvertauschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
4.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .202
4.1.2 Bestimmung der LR-Zerlegung (praktisch) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .203
4.1.3 Existenz und Eindeutigkeit der LR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .211
4.1.4 Lösung von LGS durch LR-Zerlegung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .217
4.2 LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4.2.1 Permutationsmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .222
4.2.2 Eigenschaften von Permutationsmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .223
4.2.3 Gauß-Algorithmus mit Pivotstrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .225
4.2.4 LR-Zerlegung mit Zeilenvertauschung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .226
4.2.5 Lösung von LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .231
IX
Inhaltsverzeichnis
II Vektorräume
5 Vektorräume und Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
5.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
5.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .246
5.1.2 Beispiele von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .247
5.2 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
5.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .257
5.2.2 Beispiele von Unterräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .259
5.2.3 Unterräume und LGS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .260
5.3 Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
5.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .270
5.3.2 Affine Unterräume und LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .271
5.3.3 Parameterdarstellung von affinen Unterräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .272
5.4 Operationen mit Unterräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
5.4.1 Durchschnitt und Vereinigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .274
5.4.2 Summe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .278
5.4.3 Direkte Summe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .280
10 Prüfungstrainer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 549
10.1 Multiple-Choice-Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550
10.2 Musterprüfung 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574
10.3 Musterprüfung 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 577
10.4 Musterprüfung 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582
10.5 Musterprüfung 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587
10.6 Multiple-Choice Fragen – Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593
10.7 Musterprüfung 1 – Musterlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615
10.8 Musterprüfung 2 – Musterlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 619
10.9 Musterprüfung 3 – Musterlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 625
10.10 Musterprüfung 4 – Musterlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633
Serviceteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643
Anhang A Analytische Geometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 644
Anhang B Mengen, Gruppen und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
Anhang C Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 665
Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 678
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 679
1 I
Grundlagen:
Matrizen und lineare
Gleichungssysteme
Inhaltsverzeichnis
Kapitel 1 Matrizen – 3
Matrizen
Inhaltsverzeichnis
n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 1 sind Sie in der Lage:
5 Aufbau und Manipulation von Matrizen zu verstehen und zu erklären,
5 Eigenschaften von Matrizen wie Spur, Potenz, Transponierte, Adjungierte, Inverse,
etc. zu erklären und anzuwenden,
5 die wichtigsten Matrizentypen zu interpretieren und anzuwenden,
5 die wichtigsten Eigenschaften spezifischer Matrizen zu erklären und anzuwenden.
Eine reelle (m × n)-Matrix ist eine rechteckige Anordnung von reellen Zahlen in m
Zeilen und n Spalten. Eine beliebige reelle (m × n)-Matrix A sieht somit wie folgt aus:
⎡ ⎤⎫
a11 a12 · · · a1n ⎪ ⎪
⎪
⎢ a21 a22 · · · a2n ⎥⎪ ⎬
⎢ ⎥
A= ⎢ . . . . ⎥ m Zeilen (1.1)
⎣ .. .. . . .. ⎦⎪ ⎪
⎪
⎪
am1 am2 · · · amn ⎭
$ %& '
n Spalten
wobei die Zahlen aij ∈ R die Matrixelemente (auch Matrixeinträge) von A bezeich-
nen, kurz:
Der erste Index i nummeriert die Zeilen von A, der zweite Index j die Spalten von A.
Das Matrixelement aij befindet sich somit an der Kreuzung der i-ten Zeile und j-ten
Spalte:
⎡ ⎤
..
⎢ . ⎥
⎢ ⎥
A = ⎢ · · · aij · · · ⎥ ← i-te Zeile (1.3)
⎣ ⎦
..
.
↑
j -te Spalte
Die Matrixelemente aii (d. h. mit i = j) befinden sich auf der Hauptdiagonalen von
A und werden somit als Diagonalelemente bezeichnet.
6 Kapitel 1 • Matrizen
Die Einträge einer Matrix A brauchen nicht immer reell zu sein. In der Tat kann man
beispielsweise auch komplexe Matrizen betrachten, deren Einträge komplexe Zahlen
sind. Im Allgemeinen kann man Matrizen auf beliebigen Körpern K definieren, wenn
die Matrixelemente zu K gehören.
> Bemerkung
In der Praxis finden wir oft K = R (reelle Matrizen), K = C (komplexe Matrizen),
K = Q (rationale Matrizen) oder K = Zp (Primkörper). Es ist wichtig, dass der Leser
sich mit den Rechenregeln auf solchen Körper vertraut macht (vgl. Übung 1.9 und
Anhang B.3).
"
! Beispiel
5 Rm×n = reelle Matrizen
5 Cm×n = komplexe Matrizen "
Dimension
Wir wollen nun kurz die Dimension von Km×n diskutieren. Wir werden den Begriff
der Dimension später in 7 Kap. 6 noch genauer definieren. Für die momentane
Betrachtung reicht es zu wissen, dass die Dimension einer Menge grundsätzlich die
Anzahl der freien Parameter ist, die man braucht, um diese Menge zu definieren. Um
eine reelle (m×n)-Matrix aufzustellen, muss man m·n reelle Zahlen angeben, d. h., eine
reelle (m × n)-Matrix hat m · n freie Parameter. Man sagt, dass die Menge aller reellen
(m × n)-Matrizen die Dimension m · n besitzt. Man schreibt dies:
/ 0
dim Rm×n = m · n. (1.5)
! Beispiel
dim(R2×2 ) = 4, dim(R3×3 ) = 9, usw. "
5 Betrachtet man die komplexen (m×n)-Matrizen über C, so benötigen wir für jeden
Matrixeintrag eine komplexe Zahl. Daher ist die Dimension von Cm×n über C:
/ 0
dimC Cm×n = m · n. (1.7)
5 Die Matrix
⎡ ⎤
1 0 ··· 0
⎢0 1 · · · 0⎥
⎢ ⎥
E := ⎢ . . . . ⎥ (1.9)
⎣ .. .. . . .. ⎦
0 0 ··· 1
wobei δij das sogenannte Kronecker-Delta darstellt (nach dem Deutschen Mathe-
matiker Leopold Kronecker).
5 Eine Matrix A mit m = n (d. h. A hat die gleiche Anzahl Zeilen und Spalten) heißt
quadratisch:
⎡ ⎤
a11 a12 · · · a1n
⎢a21 a22 · · · a2n ⎥
⎢ ⎥
A=⎢ . .. . . .. ⎥ . (1.11)
⎣ .. . . . ⎦
an1 an2 · · · ann
8 Kapitel 1 • Matrizen
5 Eine Matrix mit aij = 0 für alle i < j heißt eine untere Dreiecksmatrix. Bei diesen
Matrizen sind alle Elemente über der Diagonalen gleich Null:
⎡ ⎤
a11 0 ··· 0
⎢a21 a22 ··· 0 ⎥
⎢ ⎥
A=⎢ . .. .. .. ⎥. (1.12)
⎣ .. . . . ⎦
an1 an2 · · · ann
5 Eine Matrix mit aij = 0 für alle i > j heißt eine obere Dreiecksmatrix. Mit anderen
Worten, alle Elemente unter der Diagonalen sind Null:
⎡ ⎤
a11 a12 · · · a1n
⎢ 0 a22 · · · a2n ⎥
⎢ ⎥
A=⎢ . .. . . .. ⎥ . (1.13)
⎣ .. . . . ⎦
0 0 · · · ann
5 Eine Matrix mit aij = 0 für alle i ̸= j heißt Diagonalmatrix. Bei diesen Matrizen
sind alle Elemente außer der Diagonalen gleich Null:
⎡ ⎤
a11 0 ··· 0
⎢ 0 a22 ··· 0 ⎥
⎢ ⎥
A=⎢ . .. .. .. ⎥ (1.14)
⎣ .. . . . ⎦
0 0 · · · ann
5 Ein Zeilenvektor ist eine (1 × n)-Matrix, d. h. eine Matrix mit nur einer Zeile:
2 3
v = v1 v2 · · · vn . (1.16)
5 Ein Spaltenvektor ist eine (m × 1)-Matrix, d. h. eine Matrix mit nur einer Spalte:
⎡ ⎤
v1
⎢ v2 ⎥
⎢ ⎥
v = ⎢ . ⎥. (1.17)
⎣ .. ⎦
vm
Die Matrizen A1 , A2 , · · · , Ap sind die Blöcke von A. Zum Beispiel, die folgende
Matrix
⎡ ⎤
12300
⎢4 5 6 0 0⎥ 4 5
⎢ ⎥
⎢ ⎥ A1 0
⎢7 8 9 0 0⎥ =
⎢ ⎥ 0 A2
⎣0 0 0 1 2⎦
00003
ist eine Blockdiagonalmatrix mit (3 × 3)- und (2 × 2)-Blöcken. Man beachte, dass
eine Diagonalmatrix ein Spezialfall einer Blockdiagonalmatrix ist, welche nur aus
(1 × 1)-Blöcken besteht.
Für zwei Matrizen A, B ∈ Km×n , mit der gleichen Dimension, definiert man die
Summe oder Differenz A ± B ∈ Km×n wie folgt. Es seien aij und bij die Einträge
von A beziehungsweise B. Dann ist die Matrix A ± B durch
definiert. Anders ausgedrückt, die Einträge von A und B werden einfach addiert oder
subtrahiert. Explizit:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 · · · a1n b11 · · · b1n a11 ± b11 · · · a1n ± b1n
⎢ .. . . . ⎥ ⎢ . .. . ⎥ ⎢ .. .. .. ⎥
⎣ . . .. ⎦ ± ⎣ .. . .. ⎦ = ⎣ . . . ⎦. (1.20)
am1 · · · amn bm1 · · · bmn am1 ± bm1 · · · amn ± bmn
! Beispiel
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−1 3 2 4 1 1 −1 + 4 3 + 1 2 + 1 3 4 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 4 0 1⎦ + ⎣3 2 −2⎦ = ⎣ 4 + 3 0 + 2 1 + (−2)⎦ = ⎣ 7 2 −1⎦ . "
−2 1 5 1 2 −3 −2 + 1 1 + 2 5 + (−3) −1 3 2
10 Kapitel 1 • Matrizen
> Bemerkung
Aus Eigenschaft (A3) folgt, dass die Nullmatrix 0 das neutrale Element bezüglich der
Addition/Subtraktion von Matrizen ist.
Übung 1.1
◦ ◦ ◦ Man berechne (sofern möglich) A + B und A − B:
⎡ ⎤ ⎡ ⎤
2 04 1 3 1
⎢ ⎥ ⎢ ⎥
a) A = ⎣−1 4 5⎦, B = ⎣0 −1 2⎦ über K = R.
2 26 0 5 1
⎡ ⎤ ⎡ ⎤
110 2 4
⎢ ⎥ ⎢ ⎥
b) A = ⎣1 0 1⎦, B = ⎣−1 −1⎦ über K = R.
011 6 1
⎡ ⎤ ⎡ ⎤
i 1+i 1 2
⎢ ⎥ ⎢ ⎥
c) A = ⎣1 − i 1 ⎦, B = ⎣3i 4 ⎦ über K = C.
1 −1 5 6i
⎡ ⎤ ⎡ ⎤
1 2 1 1
⎢ ⎥ ⎢ ⎥
d) A = ⎣1 3⎦, B = ⎣−1 −1⎦ über K = Z3 .
0 1 2 4
v Lösung ⎤ ⎡ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 0 4 1 3 1 2+1 0+3 4+1 3 3 5
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) A + B = ⎣−1 4 5⎦ + ⎣0 −1 2⎦ = ⎣−1 + 0 4 + (−1) 5 + 2⎦ = ⎣−1 3 7⎦ ,
2 2 6 0 5 1 2+0 2+5 6+1 2 7 7
⎡⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 0 4 1 3 1 2−1 0−3 4−1 1 −3 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A − B = ⎣−1 4 5⎦ − ⎣0 −1 2⎦ = ⎣−1 − 0 4 − (−1) 5 − 2⎦ = ⎣−1 5 3⎦ .
2 2 6 0 5 1 2−0 2−5 6−1 2 −3 5
b) Die Matrizen A und B haben nicht die gleichen Dimensionen. Somit sind die
Operationen A + B und A − B nicht definiert.
1.2 • Operationen auf und mit Matrizen
11 1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
i 1+i 1 2 1+i 1+i+2 1+i 3+i
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
c) A+B = ⎣1 − i 1 ⎦ + ⎣3i 4 ⎦ = ⎣1 − i + 3i 1 + 4 ⎦ = ⎣1 + 2i 5 ⎦,
1 −1 5 6i 1+5 −1 + 6i 6 −1 + 6i
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
i 1+i 1 2 i−1 1+i−2 i−1 i−1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A − B = ⎣1 − i 1 ⎦ − ⎣3i 4 ⎦ = ⎣1 − i − 3i 1 − 4 ⎦ = ⎣1 − 4i −3 ⎦ .
1 −1 5 6i 1−5 −1 − 6i −4 −1 − 6i
Übung 1.2 ⎡ ⎤ ⎡ ⎤
1 −2 3 1 2 0
⎢ ⎥ ⎢ ⎥
◦ ◦ ◦ Man betrachte die reellen Matrizen A = ⎣0 5 −6⎦ , C = ⎣−1 5 2⎦ . Man
2 −1 4 2 1 3
bestimme eine Matrix B, sodass A + B = C gilt.
v Lösung ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 1 −2 3 0 4 −3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Aus A + B = C folgt B = C − A = ⎣−1 5 2⎦ − ⎣0 5 −6⎦ = ⎣−1 0 8 ⎦ . #
2 1 3 2 −1 4 0 2 −1
1.2.2 Skalarmultiplikation
Explizit:
⎡ ⎤ ⎡ ⎤
a11 a12 ··· a1n α a11 α a12 · · · α a1n
⎢ a21 a22 ··· ⎥ ⎢
a2n ⎥ ⎢ α a21 α a22 · · · α a2n ⎥
⎢ ⎥
α⎢ . .. .. .. ⎥ = ⎢ .. .. .. .. ⎥ . (1.22)
⎣ .. . . . ⎦ ⎣ . . . . ⎦
am1 am2 · · · amn α am1 α am2 · · · α amn
! Beispiel
6 7 6 7 6 7
12 6·1 6·2 6 12
6 = = ."
34 6·3 6·4 18 24
Übung 1.3
◦ ◦ ◦ Man führe jeweils die Skalarmultiplikation über K durch:
⎡ ⎤ 6 7
1 2 i0 −i 9 6
⎢ ⎥ c) 3 , K=C
a) 2 ⎣−2 3⎦ , K = R i 1 3 −2i
⎡ ⎤
1 0 12
⎡ ⎤ ⎢ ⎥
2 0 −7 d) 2 ⎣0 2⎦ , K = Z5
⎢ ⎥
b) (−4) ⎣−4 3 2 ⎦ , K = R 34
−2 1 0
v Lösung
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 2·1 2·2 2 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) 2 ⎣−2 3⎦ = ⎣2 · (−2) 2 · 3⎦ = ⎣−4 6⎦ .
1 0 2·1 2·0 2 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 0 −7 (−4) · 2 (−4) · 0 (−4) · (−7) −8 0 28
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b) (−4) ⎣−4 3 2 ⎦ = ⎣(−4) · (−4) (−4) · 3 (−4) · 2 ⎦ = ⎣ 16 −12 −8⎦ .
−2 1 0 (−4) · (−2) (−4) · 1 (−4) · 0 8 −4 0
6 7 6 7 6 7
i i i i 1
0 −i 9 6 · 0 3 · (−i) 3 · 9 3 ·6 0 3 3i 2i
c) 3i = 3i = .
i 1 3 −2i 3 ·i
i
3 ·1
i i
3 · 3 3 · (−2i) − 31 3i i 23
1.2 • Operationen auf und mit Matrizen
13 1
d) Wir führen alle Rechnungen in Z5 durch (vgl. Anhang B.4). In Z5 ist 6 = 1 und
8 = 3. Daher:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 2 4 2 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
2 ⎣0 2⎦ = ⎣0 4⎦ = ⎣0 4⎦ .
3 4 6 8 1 3 #
Sei A eine (m × n)-Matrix mit Einträgen aij . Die Transponierte von A, notiert als AT ,
ist die (n × m)-Matrix mit den Einträgen
8 9
AT := aji . (1.23)
ij
Beachte, dass bei AT die Indices i und j vertauscht werden. Die Zeilen von AT sind
somit die Spalten von A und, vice versa, die Spalten von AT sind die Zeilen von A:
⎡ ⎤ ⎡ ⎤
a11 a12 · · · a1n a11 a21 · · · am1
⎢ a21 a22 · · · a2n ⎥ ⎢ a12 a22 · · · am2 ⎥
⎢ ⎥ ⎢ ⎥
A=⎢ . .. . . .. ⎥ ⇒ AT = ⎢ . .. . . .. ⎥ . (1.24)
⎣ .. . . . ⎦ ⎣ .. . . . ⎦
am1 am2 · · · amn a1n a2n · · · amn
$ %& ' $ %& '
m×n n×m
Praxistipp
Das Vertauschen der Indizes i und j bei der Transponierten AT entspricht der Spiege-
lung von A an der Hauptdiagonale aii von oben links nach unten rechts
! Beispiel
⎡ ⎤
⎡ ⎤ 1 5 9
1 2 3 4 ⎢2
⎢ ⎥ ⎢ 6 10⎥⎥
A = ⎣5 6 7 8 ⎦ ⇒ AT = ⎢ ⎥. "
⎣3 7 11⎦
9 10 11 12
$ %& ' 4 8 12
3×4 $ %& '
4×3
14 Kapitel 1 • Matrizen
Übung 1.4
◦ ◦ ◦ Man bestimme zu jeder der folgenden Matrizen die Transponierte:
⎡ ⎤ ⎡ ⎤
13 0 6 7 1 −2i 0
⎢ ⎥ 1 3 2 3 ⎢ ⎥
A = ⎣3 4 −1⎦ , B = , C = ⎣2i i 0 ⎦
3 −4 0 1
2 5 −3 0 0 −1
⎡ ⎤
⎡ ⎤ 0 31 ⎡ ⎤
2 ⎢ 3 0 5⎥ 1 0 −3 2 11
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
D = ⎣ 0 ⎦, E = ⎢ ⎥, F = ⎣30 −10 0 5 7 ⎦ .
⎣−1 5 0⎦
−1 2 1 −15 0 1
1 11
v Lösung
⎡⎤
⎡ 1⎤ 3 ⎡ ⎤
1 3 2 ⎢3 ⎥ 1 2i 0
⎢ ⎥ ⎢ −4⎥ T ⎢ ⎥
AT = ⎣3 4 5 ⎦ , BT = ⎢ ⎥, C = ⎣−2i i 0 ⎦,
⎣2 0⎦
0 −1 −3 0 0 −1
3 1
⎡ ⎤
1 30 2
⎡ ⎤ ⎢ ⎥
8 9 0 3 −1 1 ⎢ 0 −10 1 ⎥
⎢ ⎥ ⎢ ⎥
DT = 2 0 −1 , E T = ⎣3 0 5 1⎦ , F T = ⎢
⎢−3 0 −15⎥.
⎥ #
⎢ ⎥
15 0 1 ⎣2 5 0 ⎦
11 7 1
Bei A werden alle Matrixeinträge komplex konjugiert. Erinnerung: Für eine komplexe
Zahl z = x + iy, ist die konjugiert komplexe Zahl z̄ = x − iy (vgl. Anhang B.4.2). Zum
Beispiel 1 + 2i = 1 − 2i.
> Bemerkung
Man beachte, dass für reellwertige Matrizen A = A gilt.
! Beispiel
6 7 6 7
2 + 3i 1 2 − 3i 1
A= ⇒ A= . "
i 1 + 2i −i 1 − 2i
Übung 1.5
◦ ◦ ◦ Man führe für jede der folgenden Matrizen die komplexe Konjugation durch:
⎡ ⎤ ⎡ ⎤
6 7 i 1+i 1 2 + 2i
0 −i 9 6 ⎢ ⎥ ⎢ ⎥
A= , B = ⎣1 − i 1 ⎦ , C = ⎣2 − 3i 4 ⎦ .
i 1 3 −2i
1 −1 5 1 − 6i
v Lösung ⎡⎤ ⎡ ⎤
6 7 −i 1 − i 1 2 − 2i
0 i 9 6 ⎢ ⎥ ⎢ ⎥
A= , B = ⎣1 + i 1 ⎦ , C = ⎣2 + 3i 4 ⎦ . #
−i 1 3 2i
1 −1 5 1 + 6i
Sei A ∈ Cm×n eine komplexwertige (m × n)-Matrix mit Einträgen aij . Die Adjungierte
von A, bezeichnet mit A∗ , ist die (n × m)-Matrix definiert durch
T 2 3
A∗ := A , d. h. A∗ ij
= aji . (1.26)
Bei der Adjungierten A∗ werden somit alle Einträge komplex konjugiert und Zeilen
mit Spalten vertauscht:
⎡ ⎤ ⎡ ⎤
a11 a12 · · · a1n a11 a21 · · · am1
⎢ a21 a22 · · · a2n ⎥ ⎢ a12 a22 · · · am2 ⎥
⎢ ⎥ T ⎢ ⎥
A=⎢ . .. .. .. ⎥ ⇒ A∗ = A = ⎢ . .. .. .. ⎥ . (1.27)
⎣ .. . . . ⎦ ⎣ .. . . . ⎦
am1 am2 · · · amn a1n a2n · · · amn
16 Kapitel 1 • Matrizen
> Bemerkung
Beachte, dass für reellwertige Matrizen A∗ = AT gilt.
! Beispiel
6 7 6 7T 6 7
2 + 3i 1 ∗ T 2 − 3i 1 2 − 3i −i
A= ⇒ A =A = = . "
i 1 + 2i −i 1 − 2i 1 1 − 2i
Übung 1.6
◦ ◦ ◦ Man bestimme zu jeder der folgenden Matrizen die adjungierte Matrix:
⎡ ⎤ ⎡ ⎤
6 7 i 1+i 1 2 + 2i
0 −i 9 6 ⎢ ⎥ ⎢ ⎥
A= , B = ⎣1 − i 1 ⎦ , C = ⎣2 − 3i 4 ⎦ .
i 1 3 −2i
1 −1 5 1 − 6i
v Lösung
⎡ ⎤
0 −i 6 7 6 7
⎢i
∗ ⎢ 1⎥ ⎥ ∗−i 1 + i 1 ∗ 1 2 + 3i 5
A =⎢ ⎥, B = , C = .
⎣9 3⎦ 1 − i 1 −1 2 − 2i 4 1 + 6i
6 2i #
Es seien A ∈ Km×n und B ∈ Kp×q . Falls n = p (und nur in diesem Fall!) definiert
man das Produkt AB (A und B in dieser Reihenfolge) als die (m × q)-Matrix mit den
Einträgen:
n
<
[AB]ij := ai1 b1j + ai2 b2j + · · · + ain bnj = aik bkj (1.28)
k=1
1.2 • Operationen auf und mit Matrizen
17 1
Praxistipp
Der (i, j)-Eintrag des Produktes AB ist nichts anderes als das Skalarprodukt der i-ten
Zeile von A mit der j-ten Spalte von B:
⎡ ⎤
b1j
⎢ b ⎥
⎢ 2j ⎥
⎢ . ⎥
⎢ . ⎥
⎣ . ⎦
bnj
⎡ ⎤⎡ ⎤
⎢ ⎥⎢ ⎥
⎢ ⎥⎢ ⎥ n
⎢ ⎥⎢ ⎥ <
⎢ ai1 ai2 · · · ain ⎥ ⎢ cij ⎥ , wobei cij = aik bkj . (1.29)
⎢ ⎥⎢ ⎥
⎢ ⎥⎢ ⎥ k=1
⎣ ⎦⎣ ⎦
Die Anordnung in Gl. (1.29) ist bekannt als Falk’sches Schema, nach dem deutschen
Ingenieur Sigurd Falk.
> Bemerkung
Das Produkt von zwei Matrizen A und B ist nur dann definiert, wenn die Anzahl Spalten
von A gleich der Anzahl Zeilen von B ist (d. h. n = p), ansonsten ist es nicht möglich, das
Skalarprodukt zwischen den Zeilen von A und den Spalten von B zu bilden. Durch die
Multiplikation einer (m × n)-Matrix A mit einer (n × q)-Matrix B entsteht eine (m × q)-
Matrix. Das Produkt AB hat dann so viele Zeilen wie A und so viele Spalten wie B. Der
gemeinsame Index n verschwindet bei der Multiplikation. Es gilt folgende Faustregel:
! Beispiel
21 1 13 81 59
Als erstes Beispiel betrachten wir das Produkt der Matrizen A = 230 ,B = 23 . Da
01
A eine (2 × 3)-Matrix und B eine (3 × 2)-Matrix ist, ergibt sich bei der Multiplikation AB
eine (2 × 2)-Matrix (s. auch Faustregel):
⎡⎤ ⎡⎤
15 15
⎢ ⎥ ⎢ ⎥
⎣2 3⎦ ⎣2 3⎦
01 01
6 76 7 6 76 7
111 3 111 9
230 230
⎡ ⎤ ⎡ ⎤
15 15
⎢ ⎥ ⎢ ⎥
⎣2 3⎦ ⎣2 3⎦
01 01
6 76 7 6 76 7
111 111
230 8 230 19
Also
⎡ ⎤
6 7 1 5 6 7
111 ⎢ ⎥ 3 9
AB = ⎣2 3⎦ = .
230 8 19
0 1
80 2 19
Als zweites Beispiel betrachten wir die Multiplikation der Matrizen A = 1 1 0 und B =
21 1 0 13 111
1 2 1 0 . Das Produkt AB ist in diesem Fall nicht definiert (s. auch Faustregel):
! Beispiel
6 7
1
−1
6 76 7
1 2 −1
4 −2 6 "
Kommutator
Die Kommutativität von Matrizen spielt eine wichtige Rolle in der linearen Algebra,
weshalb es sogar einen eigenen Begriff erhält: den Kommutator. Für zwei quadrati-
schen Matrizen A und B definiert man deren Kommutator [A, B] wie folgt
[A, B] := AB − BA (1.30)
5 A und B kommutieren genau dann wenn ihr Kommutator gleich Null ist, d. h. wenn
[A, B] = 0 ⇒ AB = BA.
5 Zwei Matrizen mit [A, B] ̸= 0 (⇒ AB ̸= BA) heißen nicht kommutativ.
i Merkregel
Bei der Transponierten eines Produktes wird die Reihenfolge der Matrizen vertauscht,
zum Beispiel (ABCD)T = DT C T BT AT .
> Bemerkung
Wegen (P1) und (P2) spielen die Nullmatrix 0 und die Identitätsmatrix E eine ana-
loge Rolle wie 0 und 1 im Rahmen der üblichen Multiplikation von reellen Zahlen
(vgl. 7 Kap. 5).
20 Kapitel 1 • Matrizen
Übung 1.7
• ◦ ◦ Man bilde jeweils (sofern wie möglich) alle Produkte von je zwei der folgenden
Matrizen, also A2 , AB, AC, BA usw.
⎡ ⎤ ⎡ ⎤
8 9 3 2 0 −2
⎢ ⎥ ⎢ ⎥
A = 4 3 −2 , B = ⎣−1⎦ , C =⎣ 1 3 2 ⎦
2 −2 1 0
v Lösung ⎡⎤ ⎡ ⎤
8 9 3 8 9 2 0 −2 8 9
⎢ ⎥ ⎢ ⎥
AB = 4 3 −2 ⎣−1⎦ = 5, AC = 4 3 −2 ⎣ 1 3 2 ⎦ = 15 7 −2 , CB =
2 −2 1 0
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 0 −2 3 2 3 8 9 12 9 −6
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 3 2 ⎦ ⎣−1⎦ = ⎣ 4 ⎦, BA = ⎣−1⎦ 4 3 −2 = ⎣−4 −3 2 ⎦, C 2 =
−2 1 0 2 −7 2 8 6 −4
⎡ ⎤⎡ ⎤ ⎡ ⎤
2 0 −2 2 0 −2 8 −2 −4
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣1 3 2 ⎦ ⎣ 1 3 2 ⎦ = ⎣ 1 11 4 ⎦ #
−2 1 0 −2 1 0 −3 3 6
Übung 1.8
• ◦ ◦ Man betrachte die folgenden Matrizen:
⎡ ⎤
⎡ ⎤ 5 0
−1 2 5 −3 6 7
⎢−1
⎢ ⎥ 0 −2 5 ⎢ 2⎥⎥
A = ⎣ 3 −1 0 2 ⎦ , B= , C =⎢ ⎥
4 −3 2 ⎣4 5⎦
4 0 0 −2
5 −1
⎡ ⎤ ⎡ ⎤
3 5 −2 4 1 6 7
⎢ ⎥ ⎢ ⎥ −3 1 −1
D = ⎣−1 10⎦ , E = ⎣−4 4 4⎦ , F= .
−8 5 3
−2 0 0 00
v Lösung
⎡ ⎤
−2 32 6 7 6 7
⎢ ⎥ 14 2 0 −14 −8 −20
AC = ⎣ 26 −4⎦ , BA = , BD =
−5 11 20 −22 11 −10
10 2
⎡ ⎤ ⎡ ⎤
6 7 0 −10 25 −15 5 −5
⎢8 −1⎥ ⎢−13
8 −8 −8 ⎢ −4 ⎥ ⎢ 9 7⎥⎥
BE = , CB = ⎢ ⎥, CF = ⎢ ⎥
4 4 −8 ⎣ 20 −23 30 ⎦ ⎣−52 29 11 ⎦
−4 −7 23 −7 0 −8
1.2 • Operationen auf und mit Matrizen
21 1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
20 −21 25 −49 28 12 18 −8 −10 12
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
DB = ⎣40 −28 15 ⎦ , DF = ⎣−77 49 31⎦ , EA = ⎣32 −12 −20 12⎦
0 4 −10 6 −2 2 0 0 0 0
⎡ ⎤ ⎡ ⎤
−12 30 −12 8 14 6 7
⎢ ⎥ ⎢ ⎥ 2 −7 −15 13
ED = ⎣−24 20⎦ , E 2 = ⎣ −8 0 12⎦ , FA =
35 −21 −40 28
0 0 0 0 0
6 7 6 7
−8 −5 2 −8 1
FD = , FE =
−35 10 −4 −12 12 #
Übung 1.9
21 23
• ◦ ◦ Sei K = Z3 . Man betrachte die folgenden Matrizen auf K2×2 : A = 01 ,B =
22 03 2
2 1 . Man berechne A − AB.
v Lösung
Mit diesem Beispiel wollen wir die Situation betrachten, wo die Matrizen nicht wie
üblich auf K = R oder K = C definiert sind, sondern die Einträge in einem etwas
speziellen Körper liegen (K = Z3 in diesem Fall). Der einzige Unterschied hier ist, dass
wir alle Operationen in K = Z3 durchführen müssen, wo andere Rechenregel zu R
oder C gelten (vgl. Anhang B.4). Zum Beispiel, in Z3 ist 1 + 2 = 3 = 0, 2 + 2 = 4 = 1,
2 + 2 + 1 = 5 = 2, 2 − 1 = −1 = 2, usw. Es gilt somit
6 76 7 6 7 6 7 6 76 7 6 7 6 7
12 12 14 11 12 20 62 02
A2 = = = , AB = = =
01 01 01 01 01 21 21 21
6 7 6 7 6 7 6 7
11 02 1 −1 12
⇒ A2 − BA = − = =
01 21 −2 0 10 #
Übung 1.10
◦ ◦ ◦ Man berechne den Kommutator [A, B] der folgenden Matrizen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 −1 0 1 2 3 1 2 3 1 1 −1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) A = ⎣1 0 0⎦, B = ⎣2 4 6⎦ b) A = ⎣4 5 6⎦, B = ⎣0 0 0 ⎦
0 1 0 1 0 1 5 7 9 0 0 0
v Lösung ⎡⎤ ⎡ ⎤ ⎡ ⎤
0 0 0 4 2 0 −4 −2 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) [A, B] = AB − BA = ⎣1 2 3⎦ − ⎣8 4 0⎦ = ⎣−7 −2 3⎦ ≠ 0. Es folgt: A und B
2 4 6 2 0 0 0 4 6
kommutieren nicht.
22 Kapitel 1 • Matrizen
⎤ ⎡ ⎡ ⎤ ⎡ ⎤
1 1 −1 0 0 0 1 1 −1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b) [A, B] = AB − BA = ⎣4 4 −4⎦ − ⎣0 0 0⎦ = ⎣4 4 −4⎦ ̸= 0. Es folgt: A und B
5 5 −5 0 0 0 5 5 −5
kommutieren nicht. #
Übung 1.11
••◦
a) Man zeige, durch direkte Berechnung, dass für reelle (2 × 2)-Matrizen A und B gilt
(AB)T = BT AT .
b) Man beweise diese Formel für allgemeine (n × n)-Matrizen A, B ∈ Kn×n .
v Lösung 8 9
2 a12 3
a) Wir betrachten die (2 × 2)-Matrizen A = aa11 21 a22
, B = bb11 bb12 . Wir rechnen
21 22
zuerst das Produkt AB aus
6 76 7 6 7
a11 a12 b11 b12 a11 b11 + a12 b21 a11 b12 + a12 b22
AB = = .
a21 a22 b21 b22 a21 b11 + a22 b21 a21 b12 + a22 b22
Daraus folgt
6 7
a11 b11 + a12 b21 a21 b11 + a22 b21
(AB)T = .
a11 b12 + a12 b22 a21 b12 + a22 b22
2 a21 3 T 8 9
Nun betrachten wir den Ausdruck BT AT . Wegen AT = aa11 12 a22
, B = bb11 b21
b22
12
ist:
6 76 7 6 7
T T b11 b21 a11 a21 a11 b11 + a12 b21 a21 b11 + a22 b21
B A = = .
b12 b22 a12 a22 a11 b12 + a12 b22 a21 b12 + a22 b22
Dies ist dasselbe wie (AB)T . Somit ist die Formel (AB)T = BT AT für (2 × 2)-
Matrizen bewiesen, da A und B beliebig waren.
b) Wir rechnen komponentenweise. Es seien [A]ij = aij und [B]ij = bij die Komponen-
ten von A beziehungsweise B. Dann gilt
n
< 8 9 n
<
[AB]ij = aik bkj ⇒ (AB)T = [AB]ji = ajk bki .
ij
k=1 k=1
8 9 2 3
Anderseits, ist AT = [A]ji = aji und BT ij = [B]ji = bji , d. h.
ij
8 9 n 8
< 9 8 9 n
< n
< 8 9
BT AT = BT AT = bki ajk = ajk bki = (AB)T .
ij ik kj ij
k=1 k=1 k=1
Übung 1.12 6 7
cos(ϕ) − sin(ϕ)
• • ◦ Die Matrix R(ϕ) = beschreibt eine Drehung in R2 um den
sin(ϕ) cos(ϕ)
Winkel ϕ in positiver Richtung (Gegenuhrzeiger). Man zeige, dass R(ϕ1 )R(ϕ2 ) =
R(ϕ2 )R(ϕ1 ) = R(ϕ1 + ϕ2 ) gilt, und man interpretiere das Resultat geometrisch.
v Lösung
Wegen
6 76 7
cos(ϕ1 ) − sin(ϕ1 ) cos(ϕ2 ) − sin(ϕ2 )
R(ϕ1 )R(ϕ2 ) =
sin(ϕ1 ) cos(ϕ1 ) sin(ϕ2 ) cos(ϕ2 )
6 7
cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 ) − cos(ϕ1 ) sin(ϕ2 ) − sin(ϕ1 ) cos(ϕ2 )
=
sin(ϕ1 ) cos(ϕ2 ) + cos(ϕ1 ) sin(ϕ2 ) cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 )
und
6 76 7
cos(ϕ2 ) − sin(ϕ2 ) cos(ϕ1 ) − sin(ϕ1 )
R(ϕ2 )R(ϕ1 ) =
sin(ϕ2 ) cos(ϕ2 ) sin(ϕ1 ) cos(ϕ1 )
6 7
cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 ) − sin(ϕ1 ) cos(ϕ2 ) − cos(ϕ1 ) sin(ϕ2 )
=
sin(ϕ1 ) cos(ϕ2 ) + cos(ϕ1 ) sin(ϕ2 ) cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 )
ist R(ϕ1 )R(ϕ2 ) = R(ϕ2 )R(ϕ1 ). Unter Einbezug der trigonometrischen Formeln (Addi-
tionstheorem) cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 ) = cos(ϕ1 + ϕ2 ) und sin(ϕ1 ) cos(ϕ2 ) +
cos(ϕ1 ) sin(ϕ2 ) = sin(ϕ1 + ϕ2 ) finden wir
6 7
cos(ϕ1 + ϕ2 ) − sin(ϕ1 + ϕ2 )
R(ϕ1 )R(ϕ2 ) = = R(ϕ1 + ϕ2 ),
sin(ϕ1 + ϕ2 ) cos(ϕ1 + ϕ2 )
Übung 1.13 6 7 6 7 6 7
01 0 −i 1 0
• • ◦ Die sogenannten Pauli-Matrizen σx = , σy = , σz = spielen
10 i 0 0 −1
eine wichtige Rolle in der Quantenmechanik.
a) Man zeige: [σx , σy ] = 2iσz , [σy , σz ] = 2iσx , [σz , σx ] = 2iσy .
b) Der Antikommutator für zwei Matrizen A und B ist definiert durch {A, B} := AB +
BA. Man zeige: {σx , σy } = {σy , σz } = {σz , σx } = 0.
v Lösung
a) Eine direkte Berechnung zeigt:
6 7 6 7 6 7 6 7
i 0 −i 0 2i 0 1 0
[σx , σy ] = σx σy − σy σx = − = = 2i = 2iσz
0 −i 0 i 0 −2i 0 −1
6 7 6 7 6 7 6 7
0 i 0 −i 0 2i 01
[σy , σz ] = σy σz − σz σy = − = = 2i = 2iσx
i 0 −i 0 2i 0 10
6 7 6 7 6 7 6 7
0 1 0 −1 0 2 0 −i
[σz , σx ] = σz σx − σx σz = − = = 2i = 2iσy
−1 0 1 0 −2 0 i 0
1.2.7 Blockmatrizen
Teilt man eine Matrix in Teilmatrizen auf, so spricht man von einer Blockmatrix oder
einer Matrix in Blockform. Die Teilmatrizen heißen Blöcke.
Praxis Tip
Operationen mit Blockmatrizen. Für die Manipulation von Blockmatrizen kann man
grundsätzlich jeden Block als einen „einzigen Matrixeintrag“ betrachten und mit den
üblichen Rechenregeln für Matrizen rechnen.
Summe
6 7 6 7 6 7
A1 B1 A2 B2 A1 + A2 B1 + B2
+ = (1.31)
C1 D1 C2 D2 C1 + C2 D1 + D2
Produkt
6 76 7 6 7
A1 B1 A2 B2 A1 A2 + B1 C2 A1 B2 + B1 D2
= (1.32)
C1 D1 C2 D2 C1 A2 + D1 D2 C1 B2 + D1 D2
Transponierte
6 7T 6 7
A B AT C T
= (1.33)
C D BT DT
Die Transponierte einer Blockmatrix entsteht durch Spiegelung aller Blöcke an der
Hauptdiagonale und Transposition jedes Blocks.
Spezielle Blockmatrizen
Die Aufteilung von Matrizen in Blockmatrizen ist besonders nützlich, wenn einige
Blöcke gleich Null sind, wie in den folgenden Situationen:
4 5
A 0
Blockdiagonalmatrix (1.34)
0 D
4 5
AB
(obere) Blockdreiecksmatrix (1.35)
0 D
26 Kapitel 1 • Matrizen
4 5
A 0
(untere) Blockdreiecksmatrix (1.36)
C D
Das Rechnen mit Blockmatrizen ist besonders einfach, wie man in den folgenden
Beispielen erfahren wird:
Übung 1.14
◦ ◦ ◦ Man berechne (möglichst geschickt) die folgende Produkte AB:
⎡ ⎤ ⎡ ⎤
0012 0 0 2 −1
⎢0 0 0 1⎥ ⎢0 0 1 1 ⎥
⎢ ⎥ ⎢ ⎥
a) A = ⎢ ⎥, B = ⎢ ⎥
⎣1 0 0 0⎦ ⎣2 4 0 0 ⎦
0100 100 0
⎡ ⎤ ⎡ ⎤
1 −1 0 0 0 0 2 1 0 0 0 0
⎢ ⎥ ⎢ ⎥
⎢1 −1 0 0 0 0⎥ ⎢1 0 0 0 0 0⎥
⎢ ⎥ ⎢ ⎥
⎢0 0 1 1 0 0⎥ ⎢ 0⎥
b) A = ⎢ ⎥, B = ⎢0 0 0 1 0 ⎥.
⎢0 0 2 1 0 0⎥⎥ ⎢0 0 1 0 0 0⎥
⎢ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎣0 0 0 0 −1 1⎦ ⎣0 0 0 0 1 1⎦
0 0 0 0 1 3 0 0 0 0 1 0
v Lösung
a) Man kann die Matrizen geschickt in Teilmatrizen aufteilen und diese Teilmatrizen
als einzige Matrixeinträge betrachten:
⎡ ⎤⎡ ⎤
0 0 1 2 0 0 2 −1
⎢0 0 0 1⎥ ⎢ 1 ⎥
⎢ ⎥⎢0 0 1 ⎥
AB = ⎢ ⎥⎢ ⎥
⎣1 0 0 0⎦⎣2 4 0 0 ⎦
0 1 0 0 1 0 0 0
⎡ ⎤
62 7 4 4 0 0
322 43 ⎢1
12
01 10 0 ⎢ 0 0 0 ⎥
⎥
= 2 1 0 3 2 2 −1 3 =⎢ ⎥.
0 01 1 1
⎣0 0 2 −1 ⎦
0 0 1 1
b) Die Matrizen sind Blockdiagonal. Somit können wir die (2 × 2)-Blöcke auf der
Hauptdiagonale als einzige Matrixeinträge sehen:
⎡ ⎤⎡ ⎤
1 −1 0 0 0 0 2 1 0 0 0 0
⎢ ⎥⎢ ⎥
⎢1 −1 0 0 0 0⎥⎢1 0 0 0 0 0⎥
⎢ ⎥⎢ ⎥
⎢0 0 1 1 0 0⎥ ⎢ 0⎥
AB = ⎢ ⎥⎢0 0 0 1 0 ⎥.
⎢0 0 2 1 0 0⎥ ⎢ 0⎥
⎢ ⎥⎢0 0 1 0 0 ⎥
⎢ ⎥⎢ ⎥
⎣0 0 0 0 −1 1⎦⎣0 0 0 0 1 1⎦
0 0 0 0 1 3 0 0 0 0 1 0
1.2 • Operationen auf und mit Matrizen
27 1
2 1 −1 3 2 2 1 3 21 13 21 1320 13 2 3 2 1321 13
Wir rechnen nach: 1 −1 10 = 11 , 21 10 = 11 12 , −1
1 3 10 =
2 0 −1 3
4 1
. Somit
⎡ ⎤
1 1 0 0 0 0
⎢ ⎥
⎢1 1 0 0 0 0 ⎥
⎢ ⎥
⎢0 0 1 1 0 0 ⎥
AB = ⎢
⎢0
⎥.
⎢ 0 1 2 0 0 ⎥⎥
⎢ ⎥
⎣0 0 0 0 0 −1 ⎦
0 0 0 0 4 1 #
> Bemerkung
Beachte: Bei der Addition/Subtraktion sowie Multiplikation von Blockmatrizen gelten
die gleichen Regeln bzgl. der Dimension wie bei den üblichen Matrizen!
Übung 1.15
⎡ ⎤T
0 0 2 −1
⎢0
⎢ 0 1 1⎥⎥
◦ ◦ ◦ Man berechne ⎢ ⎥ (als Blockmatrix).
⎣2 4 0 0⎦
1 0 0 0
v Lösung
Man kann die gegebene Matrix geschickt in Teilmatrizen aufteilen und diese Teilma-
trizen als einzige Matrixeinträge betrachten:
⎡ ⎤T ⎡ ⎤
0 0 2 −1 6 7 0 0 2 1
⎢0 ⎥ 2 3 T ⎢
⎢ 0 1 1 ⎥ 0 2 4
⎢ 0 0 4 0⎥⎥
⎢ ⎥ = 2 2 −1 3T 1 0 =⎢ ⎥.
⎣2 4 0 0 ⎦ 0 ⎣ 2 1 0 0⎦
1 1
1 0 0 0 −1 1 0 0 #
Es sei A ∈ Kn×n eine quadratische (n × n)-Matrix. Die k-te Potenz von A ist wie folgt
definiert
A0 := E, Ak := AA · · · A'
$ %& (1.37)
k Mal
Wie bei reellen und komplexen Zahlen, kann man auch Polynome von Matrizen
definieren. Ein Matrixpolynom ist ein Ausdruck der Form:
28 Kapitel 1 • Matrizen
k
<
p(A) := ak Ak + ak−1 Ak−1 + · · · + a2 A2 + a1 A + a0 E = a i Ai (1.38)
i=0
> Bemerkung
Das Argument bzw. Variable des Matrixpolynoms sind Matrizen. Außerdem ist das
Resultat p(A) selbst eine Matrix. Daher wird bei Matrixpolynomen der konstante Term
a0 mit der Einheitsmatrix multipliziert a0 → a0 E (das Endresultat muss eine Matrix
sein).
Übung 1.16 ⎡ ⎤
112
⎢ ⎥
• ◦ ◦ Man berechne A3 − 2A2 + A − A0 für A = ⎣1 1 1⎦ .
211
v Lösung
Wir berechnen zuerst die Potenzen der Matrix A. Es gilt A0 = E. Außerdem haben wir
⎡ ⎤⎡ ⎤ ⎡ ⎤
112 11 2 645
⎢ ⎥⎢ ⎥ ⎢ ⎥
A2 = ⎣1 1 1⎦ ⎣1 1 1⎦ = ⎣4 3 4⎦ ,
211 21 1 546
⎡ ⎤⎡ ⎤ ⎡ ⎤
645 112 20 15 21
⎢ ⎥⎢ ⎥ ⎢ ⎥
A3 = A2 A = ⎣4 3 4⎦ ⎣1 1 1⎦ = ⎣15 11 15⎦ .
546 211 21 15 20
Daraus folgt
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
20 15 21 6 4 5 1 1 2 1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A3 − 2A2 + A − A0 = ⎣15 11 15⎦ − 2 ⎣4 3 4⎦ + ⎣1 1 1⎦ − ⎣0 1 0⎦
21 15 20 5 4 6 2 1 1 0 0 1
⎡ ⎤
8 8 13
⎢ ⎥
=⎣8 5 8 ⎦.
13 8 8 #
Übung 1.17
• ◦ ◦ Es seien A, B ∈ Kn×n mit [A, B] = 0. Man zeige
a) (AB)2 = A2 B2
b) (A2 + B2 )(A2 − B2 ) = A4 − B4
1.2 • Operationen auf und mit Matrizen
29 1
v Lösung
a) Wegen [A, B] = 0, gilt AB = BA. Daraus folgt
(A2 + B2 )(A2 − B2 ) = A2 A2 − A2 B2 + B2 A2 − B2 B2
= A4 − ($%&'
AB )2 + (BA)2 − B4 = A4 − B4 .
=BA #
Übung 1.18
• ◦ ◦ Es sei A ∈ Kn×n diagonal.
a) Man zeige, dass A2 diagonal ist.
b) Man beweise, dass Ak diagonal ist. Wie kann man somit effizient die k-te Potenz
einer Diagonalmatrix berechnen? ⎡ ⎤
1 0 0
⎢ ⎥
c) Man berechne A2 , A3 , A1000 für A = ⎣0 −1 0⎦ .
0 0 2
v Lösung ⎡ ⎤
λ1 ··· 0
⎢. .. .. ⎥
⎢
a) Es sei A = ⎣ .. ⎥
. . ⎦. Dann ist:
0 · · · λn
⎡ ⎤⎡ ⎤ ⎡ ⎤
λ1 · · · 0 λ1 · · · 0 λ21 · · · 0
⎢. . .. ⎥ ⎢ .. . . .. ⎥ ⎢ .. . . .. ⎥
⎥ ⎢ ⎥ ⎢
A2 = ⎢
⎣ .. . . . ⎦⎣ . . .⎦=⎣. . .⎦
⎥ ⇒ A2 ist diagonal.
0 ··· λn 0 · · · λn 0 · · · λ2n
b) Nun rechnen wir einige weitere Potenzen von A aus, um ein Gefühl für die Situation
zu bekommen:
⎡ ⎤⎡ ⎤ ⎡ ⎤
λ21 · · · 0 λ1 · · · 0 λ31 · · · 0
⎢. . .⎥ ⎢ .⎥ ⎢ .⎥
A3 = A2 A = ⎢ ⎥⎢ . . ⎥ ⎢. . ⎥
⎣ .. . . .. ⎦ ⎣ .. . . .. ⎦ = ⎣ .. . . .. ⎦ ,
0 · · · λ2n 0 · · · λn 0 · · · λ3n
30 Kapitel 1 • Matrizen
⎡ ⎤⎡ ⎤ ⎡ ⎤
λ31 ··· 0 λ1 ··· 0 λ41 ··· 0
⎢ . .. ⎥ ⎢ ⎥ ⎢ .. ⎥
A4 = A3 A = ⎢ .. ⎥ ⎢ .. .. .. ⎥ ⎢ .. .. ⎥
⎣ .. . . ⎦⎣ . . .⎦=⎣. . . ⎦,
0 · · · λ3n 0 · · · λn 0 · · · λ4n
gilt. Kritische Leser werden eindecken, dass Formel (1.39) z. B. per vollständige
Induktion bewiesen werden muss:
5 k = 1 (Verankerung): A ist bereits diagonal und Gleichung (1.39) ist somit
erfüllt. $
5 k ⇒ k + 1 (Induktionsschritt): Wir nehmen an, dass Formel (1.39) für Ak
stimmt (Induktionsannahme) und zeigen, dass die Aussage auch für Ak+1
stimmt. Mithilfe der Induktionsannahme finden wir
⎡ ⎤⎡ ⎤ ⎡ k+1 ⎤
λ1 ··· 0 λk ··· 0 λ ··· 0
⎢. .. ⎥ ⎢ .1 .. ⎥ ⎢ 1 .. ⎥
Ak+1 = AAk = ⎢ .. ⎥⎢ .. ⎥ = ⎢ .. .. ⎥
⎣ .. . . ⎦ ⎣ .. . .⎦ ⎣ . . . ⎦ $
0 · · · λn 0 · · · λkn 0 · · · λk+1
n
i Merkregel
Um die k-te Potenz einer Diagonalmatrix zu bestimmen, genügt es, alle Diagonalele-
mente zur k-ten Potenz zu berechnen:
⎡ ⎤k ⎡ ⎤
λ1 ··· 0 λk ··· 0
⎢. .. .. ⎥ ⎢ .1 .. .. ⎥
⎢. ⎥ ⎢ ⎥
⎣. . . ⎦ = ⎣ .. . . ⎦.
0 · · · λn 0 · · · λkn
1.2 • Operationen auf und mit Matrizen
31 1
1.2.9 Die Spur einer Matrix
Für eine (n × n)-Matrix A ∈ Kn×n definiert man deren Spur als die Summe der
Diagonaleinträge von A, konkret:
n
<
Spur(A) := a11 + a22 + · · · + ann = aii (1.40)
i=1
! Beispiel
⎡ ⎤
1 2 3 4
⎢2 5 6 7 ⎥
⎢ ⎥
Spur ⎢ ⎥ = 1 + 5 + 8 + 10 = 24. "
⎣3 6 8 9 ⎦
4 7 9 10
> Bemerkung
Eigenschaften (S1) und (S2) implizieren, dass die Spur linear ist (vgl. 7 Kap. 7).
Übung 1.19
• ◦ ◦ Man betrachte die Matrizen A und B von Übung 1.10(a). Man berechne Spur(A +
B), Spur(2A), Spur(AT ), Spur(AB), Spur(BA) und Spur([A, B]).
v Lösung
Es gilt:
⎡ ⎤
313
⎢ ⎥
A + B = ⎣3 4 6⎦ ⇒ Spur(A + B) = 3 + 4 + 1 = 8.
111
32 Kapitel 1 • Matrizen
Spur(AB) = 0 + 2 + 6 = 8, Spur(BA) = 4 + 4 + 0 = 8.
Übung 1.20
• • ◦ Es seien A, B, C ∈ Kn×n . Man zeige:
a) Spur(AB) = Spur(BA)
b) Spur([A, B]) = 0
c) Spur(ABC) = Spur(CAB) = Spur(BCA).
1.3 • Inverse Matrix und die Menge GL(n, K)
33 1
v Lösung
a) Es seien A, B ∈ Kn×n mit Einträgen aij bzw. bij . Dann gilt:
n
! m
! m !
! n
[AB]ij = aik bkj ⇒ Spur(AB) = [AB]ii = aik bki
k=1 i=1 i=1 k=1
n
! m
! m !
! n m !
! n
[BA]ij = bik akj ⇒ Spur(BA) = [BA]ii = bik aki = aik bki
k=1 i=1 i=1 k=1 i=1 k=1
b) Aus Teilaufgabe (a) folgt direkt (zusammen mit der Linearität der Spur), dass
i Merkregel
Die Spur ist invariant bezüglich zyklischer Vertauschungen der Matrizen in einem
Produkt (d. h., die Matrizen werden im „Kreis“ vertauscht). Zum Beispiel:
AB = BA = E (1.41)
gilt, so heißt die Matrix A invertierbar oder regulär. Die Matrix B heißt dann die Inverse
von A, kurz:
B = A−1 . (1.42)
#
34 Kapitel 1 • Matrizen
n n
$
! ! 1, für i = j
aik bkj = bik akj = δij = (1.43)
k=1 k=1
0, für i ̸= j
wobei aij und bij die Komponenten von A bzw. B sind. Beachte, dass für reguläre
Matrizen ihre Inverse eindeutig ist (siehe Übung 1.27).
" Beispiel
%1 2& ' (
−2 1
Die (2 × 2)-Matrix A = 34 ist invertierbar mit Inverse A−1 = 3 1 . Denn es gilt
2 −2
) *) * *) ) *) * ) *
−1 12 −2 1 10 −1 −2 1 12 10
AA = 3 1
= , A A= 3 1
= .#
34 2 −2 01 2 −2 34 01
Beachte, dass nicht alle Matrizen eine Inverse besitzen. Solche Matrizen% & heißen
nichtinvertierbar oder singulär. Ein solches Beispiel ist die Matrix A = 10 00 .
bezeichnet. GL(n, K) nennt man die allgemeine lineare Gruppe (auf English: General
Linear Group). #
> Bemerkung
Aufpassen:
5 AB = C ⇒ B = A−1 C (Inverse wird links multipliziert);
5 BA = C ⇒ B = CA−1 (Inverse wird rechts multipliziert).
Übung 1.21
◦ ◦ ◦ Man zeige jeweils, dass B die Inverse von A⎡ist ⎤ ⎡ ⎤
) * ) * 1 0 1 1 0 −1
5 3 2 −3 ⎢ ⎥ ⎢ ⎥
a) A = , B= b) A = ⎣2 3 4⎦ , B = ⎣− 23 13 − 32 ⎦
3 2 −3 5
0 0 1 0 0 1
v Lösung
a) Wir müssen einfach nachweisen, dass AB = BA = E gilt. Wegen
)*) * ) * ) *) * ) *
53 2 −3 10 2 −3 53 10
AB = = , BA = =
3 2 −3 5 01 −3 5 32 01
b) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤
10 1 1 0 −1 1 0 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
AB = ⎣2 3 4⎦ ⎣− 23 13 − 23 ⎦ = ⎣0 1 0⎦
00 1 0 0 1 0 0 1
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 −1 101 1 00
⎢ 2⎥⎢ ⎥ ⎢ ⎥
BA = ⎣− 23 1
3 − 3 ⎦ ⎣ 2 3 4 ⎦ = ⎣0 1 0⎦
0 0 1 001 0 01
Übung 1.22
• ◦ ◦ Für welche Werte von α ∈ R ist B die Inverse von A?
) * ) *
1
1+α 4 5 − 25
A= , B= 1 3
−1 α 10 10
36 Kapitel 1 • Matrizen
v Lösung
Damit B die Inverse von A ist, muss AB = E gelten. Wir rechnen nach:
) *) * ) * )
*
1
1+α 4 5 − 25 α+3 4−2α
5 5 ! 10
AB = 1 3
= α−2 3α+4
= .
−1 α 10 10 10 10 01
4−2α 3α+4
Koeffizientenvergleich: aus α+3
5 = 1, 5 = 0, α−2
10 = 0 und 10 = 1 folgt α = 2. !
Übung 1.23
• ◦ ◦ Sei A ∈ GL(n, K) invertierbar. Man zeige:
a) (A−1 )−1 = A
b) (AT )−1 = (A−1 )T
v Lösung
a) Wegen AA−1 = E ist A die Inverse von A−1 , d. h. (A−1 )−1 = A.
" #T
b) Wegen (AB)T = BT AT ist (A−1 )T AT = AA−1 = E T = E. Somit ist (A−1 )T die
Inverse von AT , d. h. (AT )−1 = (A−1 )T . !
Übung 1.24
• ◦ ◦ Seien A, B ∈ GL(n, K) invertierbare Matrizen.
a) Man zeige, dass AB ∈ GL(n, K) (d. h. dass AB invertiebar ist) und dass für die
Inverse (AB)−1 = B−1 A−1 gilt.
b) Sei C ∈ GL(n, K) invertierbar. Man finde eine Formel für (ABC)−1 .
v Lösung
a) Wegen (B−1 A−1 )(AB) = B−1 (A−1 A)B = B−1 EB = B−1 B = E ist B−1 A−1 die
Inverse von AB, d. h. AB ist invertierbar und (AB)−1 = B−1 A−1 .
b) Wir wenden die Formel (AB)−1 = B−1 A−1 zwei Mal an und finden: (ABC)−1 =
" #−1
(AB)C = C −1 (AB)−1 = C −1 B−1 A−1 . !
i Merkregel
Bei der Bildung der Inversen eines beliebigen Produktes wird die Reihenfolge immer
vertauscht. Zum Beispiel, (ABCDEF)−1 = F −1 E −1 D−1 C −1 B−1 A−1 .
Übung 1.25
• ◦ ◦ Es seien A, B ∈ GL(n, K). Man löse die Matrizengleichung A + 2AB + 2B =
+ ,T
BT BAT + B nach A auf.
1.3 • Inverse Matrix und die Menge GL(n, K)
37 1
v Lösung
+ ,T
Es gilt: A + 2AB + 2B = BT BAT + B ⇔ A(E + 2B) + 2B = ABT B + BT ⇔
" # " #" #−1
A E + 2B − BT B = BT −2B. Es ergibt sich somit A = BT − 2B E + 2B − BT B =
" T #" #
B − 2B E + 2B−1 − B−1 B−T . !
Übung 1.26
• ◦ ◦ Es seien A, B ∈ GL(n, K). Man zeige Spur(A−1 BA) = Spur(B).
v Lösung
−1
Es ist Spur(A−1 BA) = Spur(B AA
3 45 6) = Spur(BE) = Spur(B). !
=E
Übung 1.27
• ◦ ◦ Sei A ∈ GL(n, K) eine invertierbare (n × n)-Matrix. Man zeige, dass die Inverse
A−1 eindeutig ist.
v Lösung
Wir nehmen an, dass A zwei Inverse B und C hat, d. h. dass es zwei Matrizen B und C
gibt mit BA = AB = E und CA = AC = E. Dann gilt B = BE = B(AC) = (BA)C =
EC = C. Daraus folgt B = C, d. h., die Inverse von A ist eindeutig. !
Übung 1.28
• ◦ ◦ Es seien A ∈ GL(n, K) und B ∈ GL(r, K) invertierbar. Man zeige:
) *−1 ) *
A 0 A−1 0
= .
0 B 0 B−1
v Lösung
Mit den Rechenregeln für Blockmatrizen (7 vgl. Abschn. 1.2.7) finden wir:
) *) * ) *
A−1 0 A 0 A−1 A + 0 A−1 0 + 0B
=
0 B−1 0 B 0A + B−1 0 0 + B−1 B
) *
E n×n 0
= = E (n+r)×(n+r) .
0 E r×r
) *−1 ) *
A 0 A−1 0
Somit ist = . !
0 B 0 B−1
38 Kapitel 1 • Matrizen
Übung 1.29
• • • Eine (normierte) Möbius-Transformation ist eine Abbildung M : C ∪ {∞} →
az+b
C ∪ {∞}, z → M(z) = cz+d , wobei ad − bc = 1. Möbius-Transformationen kann man
mit (2 × 2)-Matrizen wie folgt darstellen:
) *
az + b ab
M(z) = ↔ [M] = .
cz + d cd
v Lösung
a) Es gilt
) *
10 1·z+0
[M] = → M(z) = = z.
01 0·z+1
c) Es gilt
) *
az + b dy − b dy − b d −b
y= ⇒ z= ⇒ M −1 (y) = ⇒ [M −1 ] = .
cz + d −cy + a −cy + a −c a
Es gilt:
7 8 z+b1
a2 ac1 z+d + b2
a1 z + b1 1 1
(M2 ◦ M1 )(z) = M2 (M1 (z)) = M2 =
c1 z + d1 z+b1
c2 ac1 z+d + d2
1 1
Beachte, dass
) *) * ) *
a2 b2 a1 b1 a2 a1 + b2 c1 a2 b1 + b2 d1
[M2 ][M1 ] = = .
c2 d2 c1 d1 c2 a1 + d2 c1 c2 b1 + d2 d1
Die Matrixdarstellung der Komposition M2 ◦ M1 ist somit gleich dem Produkt der
Darstellungsmatrizen von M2 und M1 , d. h. [M2 ◦ M1 ] = [M2 ][M1 ]. !
AT = A (1.45)
heißt symmetrisch. Eine Matrix ist somit genau dann symmetrisch, wenn A bezüglich
der Diagonalen symmetrisch ist, d. h. wenn für die Einträge von A
gilt. Man beachte dass, aufgrund der Dimensionen, symmetrische Matrizen notwen-
digerweise quadratisch sein müssen.
40 Kapitel 1 • Matrizen
bezeichnet. #
> Bemerkung
Beachte: Symn (K) ist keine Gruppe, weil für symmetrische Matrizen A, B ∈ Symn (K)
im Allgemeinen AB ∈ / Symn (K) gilt (vgl. Übung 1.32).
Übung 1.30
⎡ ⎤
1 2 3 4
⎢2
⎢ 5 6 7⎥⎥
◦ ◦ ◦ Ist A = ⎢ ⎥ symmetrisch?
⎣3 6 8 9⎦
4 7 9 10
v Lösung
⎡ ⎤
123 4
⎢2 5 6 7 ⎥
⎢ ⎥
Wegen AT = ⎢ ⎥ = A ist A symmetrisch. Man sieht dies auch direkt, weil die
⎣3 6 8 9 ⎦
4 7 9 10
Matrix bezüglich der Diagonalen symmetrisch ist. !
Übung 1.31 ⎡ ⎤
120
⎢ ⎥
• ◦ ◦ Berechne die Produkte A2 , AAT und AT A für A = ⎣3 0 1⎦. Welche der Matrizen
101
A2 , AAT und AT A sind symmetrisch?
v Lösung
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 2 0 1 2 0 722
⎢ ⎥⎢ ⎥ ⎢ ⎥
A2 = ⎣3 0 1⎦ ⎣3 0 1⎦ = ⎣4 6 1⎦
1 0 1 1 0 1 221
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 2 0 1 3 1 5 3 1
⎢ ⎥⎢ ⎥ ⎢ ⎥
AAT = ⎣3 0 1⎦ ⎣2 0 0⎦ = ⎣3 10 4⎦
1 0 1 0 1 1 1 4 2
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 3 1 1 2 0 11 2 4
⎢ ⎥⎢ ⎥ ⎢ ⎥
AT A = ⎣2 0 0⎦ ⎣3 0 1⎦ = ⎣ 2 4 0⎦
0 1 1 1 0 1 4 02
Die Matrizen AAT und AT A sind symmetrisch, während A2 nicht symmetrisch ist. !
1.4 • Spezielle Matrizen
41 1
Übung 1.32
• ◦ ◦ Für welche Werte von α ∈ R ist das Produkt AB symmetrisch?
) * ) *
α 1 0 1−α
A= , B=
2 −1 1 1
v Lösung
Wir berechnen das Produkt aus
) *) * ) *
α 1 0 1−α 1 α(1 − α) + 1
AB = =
2 −1 1 1 −1 2(1 − α) − 1
Übung 1.33
• ◦ ◦ Sei A ∈ Kn×n eine (n × n)-Matrix. Man beweise, dass AAT und AT A immer
symmetrisch sind.
v Lösung
Es ist:
AT = −A (1.48)
gilt. Beachte, dass bei einer schiefsymmetrischen Matrix alle Diagonaleinträge gleich
Null sind. Denn aus Gl. (1.49) mit i = j folgt
bezeichnet. #
Übung 1.34
⎡ ⎤
0 2 −3 4
⎢−2
⎢ 0 −6 −7⎥
⎥
◦ ◦ ◦ Man zeige, dass die Matrix A = ⎢ ⎥ schiefsymmetrisch ist.
⎣3 6 0 9⎦
−4 7 −9 0
v Lösung
⎡ ⎤
0 −2 3 −4
⎢2 0 6 7⎥
⎢ ⎥
Wegen AT = ⎢ ⎥ = −A ist A schiefsymmetrisch. !
⎣−3 −6 0 −9⎦
4 −7 9 0
Übung 1.35
••◦
a) Man zeige: Jede (n × n)-Matrix A ∈ Kn×n kann als Summe einer symmetrischen
und einer schiefsymmetrischen
⎡ Matrix
⎤ geschrieben werden.
23 1
⎢ ⎥
b) Man stelle die Matrix A = ⎣5 6 −6⎦ als Summe einer symmetrischen und einer
3 9 −3
schiefsymmetrischen Matrix dar.
v Lösung
a) Wir schreiben A wie folgt:
1 1 1 1 1 1 A + AT A − AT
A= A + A = A + A + AT − AT = + = S + T.
2 2 2 2 2 2 2 6 3 45
3 45 2 6
=S =T
b) Aus Teilaufgabe (a) wissen wir, dass jede (n × n)-Matrix A als Summe einer
symmetrischen und einer schiefsymmetrischen Matrix darstellbar ist:
A + AT A − AT
A = S + T, wobei S = und T = .
2 2
In diesem Fall
⎡ ⎤ ⎡ ⎤
23 1 2 5 3
⎢ ⎥ ⎢ ⎥
A = ⎣5 6 −6⎦ ⇒ AT = ⎣3 6 9 ⎦
3 9 −3 1 −6 −3
⎡ ⎤ ⎡ ⎤
T 4 8 4 2 4 2
A+A 1⎢ ⎥ ⎢ ⎥
⇒ S= = ⎣8 12 3 ⎦ = ⎣4 6 32 ⎦ symmetrisch
2 2
4 3 −6 2 32 −3
⎡ ⎤ ⎡ ⎤
0 −2 −2 0 −1 −1
A − AT 1⎢ ⎥ ⎢ ⎥
⇒ T= = ⎣2 0 −15⎦ = ⎣1 0 − 15 2 ⎦
schiefsymmetrisch
2 2 15
2 15 0 1 2 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 4 2 0 −1 −1 23 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Probe: S + T = ⎣4 6 32 ⎦ + ⎣1 0 − 15
2 ⎦
= ⎣5 6 −6⎦ = A $ !
3 15
2 2 −3 1 2 0 3 9 −3
i Merkregel
Jede (n × n)-Matrix A ∈ Kn×n kann man wie folgt als Summe einer symmetrischen und
einer schiefsymmetrischen Matrix zerlegen:
A + AT A − AT
A = S + T, wobei S = und T = .
2 2
> Bemerkung
Analoge Zerlegungen treten in mehreren Bereichen der Mathematik auf. Zum Beispiel
kann man jede Funktion f in einen geraden Teil g (mit g(−x) = g(x)) und einen
ungeraden Teil h (mit h(−x) = −h(x)) zerlegen:
44 Kapitel 1 • Matrizen
Ein weiteres Beispiel ist die Zerlegung einer komplexen Zahl z ∈ C in einen reellen Teil
x (mit x̄ = x) und einen imaginären Teil iy (mit iy = −iy):
z + z̄ z − z̄
z = x + iy, x= , iy = .
2 2
A∗ = A (1.52)
gilt, wobei A∗ die adjungierte Matrix von A bezeichnet. Anders ausgedrückt, A ist
genau dann hermitesch, wenn für ihre Einträge
gilt. Beachte, dass die Diagonalelemente einer hermiteschen Matrix immer reell sein
müssen. Denn aus Gl. (1.53) mit i = j folgt
bezeichnet. #
Übung 1.36 ⎤⎡
1 i 0
⎢ ⎥
◦ ◦ ◦ Man zeige, dass A = ⎣−i 0 1⎦ hermitesch ist.
0 11
v Lösung ⎡
⎤ ⎡ ⎤
1 −i 0 1 i 0
T ⎢ ⎥ ⎢ ⎥
Wegen A∗ = A = ⎣ i 0 1⎦ = ⎣−i 0 1⎦ = A ist A hermitesch. !
0 1 1 0 11
1.4 • Spezielle Matrizen
45 1
Übung 1.37 ) * ) *
01 0 −i
• • ◦ Man zeige, dass die Pauli-Matrizen (vgl. Übung 1.13) σx = , σy = ,
10 i 0
) *
1 0
σz = hermitesch sind.
0 −1
v Lösung
Eine direkte Rechnung zeigt:
) *T ) * ) *T ) *
∗ T 01 01 ∗ T 0 i 0 −i
σx = σx = = = σx σy = σy = = = σy
10 10 −i 0 i 0
) *T ) *
1 0 1 0
σz ∗ = σz T = = = σz ⇒ σx , σy , σz sind hermitesch. !
0 −1 0 −1
Übung 1.38
• ◦ ◦ Für welche α, β, γ ∈ C ist die folgende Matrix hermitesch?
⎡ ⎤
1 α + 2i γ
⎢ ⎥
A = ⎣1 − 2i 0 1 + βi⎦
βi 2 − αi −2
v Lösung
Es gilt
⎡ ⎤
1 1 + 2i −βi
⎢ T ⎥
A∗ = A = ⎣α − 2i 0 2 + αi⎦ .
γ 1 − βi −2
1 + 2i = α + 2i ⇒ α=1
1 − βi = 2 − αi = 2 − i ⇒ βi = −1 + i ⇒ β =1−i
γ = βi = 1 + i ⇒ γ = 1 − i.
⎡ ⎤
1 1 + 2i 1 − i
⎢ ⎥
Die gesuchte Matrix lautet somit A = ⎣ 1 − 2i 0 2 + i ⎦ . !
1 + i 2 − i −2
46 Kapitel 1 • Matrizen
AT A = E (1.55)
A−1 = AT (1.56)
ist, d. h., eine orthogonale Matrix A ist immer invertierbar und die Inverse von A ist
gleich AT .
> Bemerkung
Dass On (K) eine Gruppe bezüglich der Matrixmultiplikation ist, folgt aus Übung 1.41.
Übung 1.39
•◦◦ Man zeige, dass die folgenden Matrizen orthogonal sind und man bestimme jeweils
die Inverse:
⎡ ⎤ ⎡ ⎤
⎡ ⎤ 1 1 1 1
1 2 2 − √1 √1 − √1
1⎢ ⎥ ⎢ 2 3 6⎥
1⎢⎢1 −1 −1 1⎥⎥
A= ⎣ 2 1 −2⎦ , B=⎢
⎣ 0 √1 √2 ⎥ , C= ⎢ ⎥
3 3 6 ⎦ 2 ⎣−1 −1 1 1⎦
−2 2 −1 √1 √1 − √1
2 3 6 −1 1 −1 1
v Lösung
a) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 −2 1 2 2 90 0 100
1⎢ ⎥⎢ ⎥ 1⎢ ⎥ ⎢ ⎥
AT A = ⎣2 1 2 ⎦ ⎣ 2 1 −2⎦ = ⎣0 9 0⎦ = ⎣0 1 0⎦
9 9
2 −2 −1 −2 2 −1 00 9 001
ist⎡A orthogonal.
⎤ Da für orthogonale Matrizen A−1 = AT gilt, ist A−1 = AT =
1 2 −2
1⎢ ⎥
3 2 1 2 ⎦.
⎣
2 −2 −1
1.4 • Spezielle Matrizen
47 1
b) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤
− √1 √1 0 − √1 √1 − √1 100
⎢ 1 2 2 ⎥⎢ 2 3 6⎥
BT B = ⎢ √ √1 √1 ⎥ ⎢ 0 √1 √2 ⎥=⎢ ⎥
⎣ 3 3 3 ⎦⎣ 3 6 ⎦ ⎣0 1 0⎦
− √1 √2 − √1 √1 √1 − √1 001
6 6 6 2 3 6
⎡ ⎤
− √1 0 √1
⎢ 2 2 ⎥
ist B orthogonal. Daher ist B−1 = BT = ⎢ √1 √1 √1 ⎥.
⎣ 3 3 3 ⎦
− √1 √2 − √1
6 6 6
c) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 −1 −1 1 1 1 1 4 0 0 0 1 0 0 0
⎢1 1⎥ ⎢ ⎥ ⎢ 0⎥
1 ⎢ ⎥
⎢ −1 −1 ⎥ ⎢ 1 −1 −1 1⎥ 1 ⎢0 4 0 ⎥ ⎢0 1 0 0⎥
CT C = ⎢ ⎥⎢ ⎥= ⎢ ⎥=⎢ ⎥
4 ⎣1 −1 1 −1⎦ ⎣−1 −1 1 1⎦ 4 ⎣0 0 4 0⎦ ⎣0 0 1 0⎦
1 1 1 1 −1 1 −1 1 0 0 0 4 0 0 0 1
⎡ ⎤
1 1 −1 −1
⎢1
⎢ −1 −1 1⎥ ⎥
ist C orthogonal. Da C orthogonal ist, gilt: C −1 = C T = 12 ⎢ ⎥. !
⎣1 −1 1 −1⎦
1 1 1 1
Übung 1.40 ) *
cos(ϕ) − sin(ϕ)
• ◦ ◦ Die Matrix R(ϕ) = beschreibt eine Drehung im R2 um den
sin(ϕ) cos(ϕ)
Winkel ϕ in positiver Richtung (vgl. Übung 1.12).
a) Man zeige, dass R(ϕ) orthogonal ist.
b) Man bestimme die Inverse R−1 (ϕ) und interpretiere das Resultat geometrisch.
v Lösung
a) Wegen cos2 (ϕ) + sin2 (ϕ) = 1 ist
) *) *
T cos(ϕ) sin(ϕ) cos(ϕ) − sin(ϕ)
R(ϕ) R(ϕ) =
− sin(ϕ) cos(ϕ) sin(ϕ) cos(ϕ)
) *
cos2 (ϕ) + sin2 (ϕ) 0
=
0 cos2 (ϕ) + sin2 (ϕ)
) *
1 0
= ⇒ R(ϕ) ist orthogonal.
0 1
48 Kapitel 1 • Matrizen
Wegen sin(−ϕ) = − sin(ϕ) und cos(−ϕ) = cos(ϕ) können wir R(ϕ)−1 wie folgt
umschreiben
) *
cos(−ϕ) − sin(−ϕ)
R(ϕ)−1 = = R(−ϕ),
sin(−ϕ) cos(−ϕ)
d. h., R (ϕ)−1 beschreibt eine Drehung um den Winkel −ϕ. Dies bedeutet, dass
R(ϕ)−1 eine Drehung um den gleichen Winkel ϕ in Gegenrichtung ist. !
Übung 1.41
• ◦ ◦ Seien A und B zwei orthogonale (n × n)-Matrizen. Man zeige, dass auch AB
orthogonal ist.
v Lösung
Wegen (AB)T = BT AT gilt (AB)T AB = BT AT AB. Da A und B orthogonal sind, ist
AT A = BT B = E. Daraus folgt:
Somit ist AB orthogonal. Daraus folgt, dass On (K) eine Gruppe bezüglich der Matrix-
multiplikation ist. !
Übung 1.42
• ◦ ◦ Sei A schiefsymmetrisch und seien A + E und A − E invertierbar. Man zeige, dass
(E + A)(E − A)−1 orthogonal ist.
v Lösung
A ist schiefsymmetrisch ⇒ AT = −A. Mit der Formel (AB)T = BT AT finden wir dann
(beachte E T = E):
+ ,T
(E + A)(E − A)−1 (E + A)(E − A)−1 = (E − A)−T (E + A)T (E + A)(E − A)−1
Nun würden wir gerne die Terme (E − A) und (E + A) vertauschen können. Dies ist
nur möglich, wenn (E − A) und (E + A) kommutieren. Wegen
(E − A)(E + A) = E + EA − AE − A2 = E − A2
1.4 • Spezielle Matrizen
49 1
(E + A)(E − A) = E − EA + AE − A2 = E − A2
A∗ A = E. (1.58)
Wie für orthogonale Matrizen aus Gl. (1.58) folgt insbesondere, dass unitäre Matri-
zen invertierbar sind. Die Inverse von A ist A∗ . Somit ist A genau dann unitär, wenn
gilt:
A−1 = A∗ . (1.59)
Übung 1.43 ⎡ ⎤
2 −2 −2
1 ⎢ √ √ ⎥
◦ ◦ ◦ Man zeige, dass A = √ ⎣ 3−i 3 + i −2i⎦ unitär ist.
2 3 √ √
1 − 3i −1 − 3i 2
50 Kapitel 1 • Matrizen
v Lösung
Wegen
⎡ √ √ ⎤⎡ ⎤
2 3 + i 1 + 3i 2 −2 −2
1 ⎢ √ √ ⎥⎢ √ √ ⎥
A∗ A = ⎣−2 3 − i −1 + 3i⎦ ⎣ 3 − i 3 + i −2i⎦
12 √ √
−2 2i 2 1 − 3i −1 − 3i 2
⎡ ⎤ ⎡ ⎤
12 0 0 1 0 0
1 ⎢ ⎥ ⎢ ⎥
= ⎣ 0 12 0 =
⎦ ⎣0 1 0⎦
12
0 0 12 0 0 1
ist A unitär. !
Übung 1.44
• ◦ ◦ Seien A ∈ Kn×n hermitesch und U ∈ Kn×n unitär. Man zeige, dass U −1 AU
hermitesch ist.
v Lösung
A ist hermitesch ⇒ A∗ = A. Außerdem ist U unitär ⇒ U ∗ = U −1 . Daher ist
" −1 #∗ " #∗ " #−1 " #−1
U AU = U ∗ A∗ U −1 = U −1 A U ∗ = U −1 A U −1 = U −1 AU ⇒
−1
U AU ist hermitesch. !
A2 = A (1.61)
Übung 1.45
• ◦ ◦ Man bestimme alle reellen idempotenten (2 × 2)-Matrizen.
1.4 • Spezielle Matrizen
51 1
v Lösung
%a b&
A= cd ist genau dann idempotent, wenn
⎧
⎪ 2
) *) * ) * ) * ⎪a + bc = a
⎪
⎪
⎪
⎨ab + bd = b
ab ab a2 + bc ab + bd ! a b
A2 = = 2
= =A ⇒
cd cd ac + cd bc + d cd ⎪
⎪ ac + cd = c
⎪
⎪
⎪
⎩
bc + d 2 = d
ab + bd = b ⇒ b(a + d − 1) = 0 ⇒ b = 0 oder a + d = 1
ac + cd = c ⇒ c(a + d − 1) = 0 ⇒ c = 0 oder a + d = 1.
5 Ist c, b ̸= 0 und d = 1−a, so folgt aus der ersten (oder vierten) Gleichung bc = a−a2
2
⇒ c = a−a b und b ̸= 0 ist beliebig. Das heißt, A sieht wie folgt aus
) *
a b
a−a2
, a ∈ R, b ̸= 0.
b 1−a
!
Übung 1.46
+ ,−1
• ◦ ◦ Es sei A ∈ GL(n, K). Man zeige, dass H = A AT A AT symmetrisch und
idempotent ist.
v Lösung
+ ,T + ,−T 7 + ,T 8−1 + ,−1
Wegen H T = AT AT A AT = A AT AT AT = A AT A AT = H
+ ,−1 + ,−1 + ,−1
ist H symmetrisch. Wegen H 2 = A AT A AT A AT A AT = A AT A AT =
3 45 6
=E
H ist H idempotent.
+ ,−1
Alternative: Man erkennt, dass H = A AT A AT = AA−1 A−T AT = E. Die
Einheitsmatrix E ist sowohl symmetrisch als auch idempotent. !
52 Kapitel 1 • Matrizen
A2 = E (1.62)
gilt. Aus Gl. (1.62) folgt, dass jede involutive Matrix A invertierbar ist und
A−1 = A. (1.63)
Übung 1.47 * ) * )
01 0 −i
◦ ◦ ◦ Man zeige, dass die Pauli Matrizen (vgl. Übung 1.13) σx = , σy = ,
10 i 0
) *
1 0
σz = involutiv sind, und man bestimme deren Inversen.
0 −1
v Lösung
Es gilt
) *) * ) * ) *) * ) *
2 0 1 01 10 2 0 −i 0 −i 10
σx = = = E, σy = = = E,
1 0 10 01 i 0 i 0 01
) *) * ) *
1 0 1 0 10
σz 2 = = =E ⇒ σx , σy , σz sind involutiv.
0 −1 0 −1 01
Daraus folgt
) * ) * ) *
01 0 −i 1 0
σx −1 = σx = , σy −1 = σy = , σz −1 = σz = .
10 i 0 0 −1 !
Übung 1.48
• ◦ ◦ Man bestimme alle reellen involutiven (2 × 2)-Matrizen.
v Lösung
%a b&
A= cd ist genau dann involutiv, wenn
⎧
⎪
⎪
⎪ a2 + bc = 1
) *) * ) * ) * ⎪
⎪
⎨
ab ab a2 + bc ab + bd ! 1 0 ab + bd = 0
A2 = = 2
= =E ⇒
cd cd ac + cd bc + d 01 ⎪
⎪
⎪ ac + cd = 0
⎪
⎪
⎩
bc + d 2 = 1
1.4 • Spezielle Matrizen
53 1
Aus der zweiten und dritten Gleichung folgt
b(a + d) = 0 ⇒ b = 0 oder a = −d
c(a + d) = 0 ⇒ c = 0 oder a = −d.
5 Ist c, b ̸= 0 und d = −a, so folgt aus der ersten (oder vierten) Gleichung bc = 1 − a2
2
⇒ c = 1−a b . D. h. A sieht wie folgt aus
) *
a b
1−a2
, a ∈ R, b ̸= 0.
b −a
!
Am = 0, Am−1 ̸= 0 (1.64)
> Bemerkung
Für den Nilpotenzgrad m einer quadratischen (n × n)-Matrix gilt m ≤ n (vgl. Satz von
Cayley-Hamilton, Band II).
Übung 1.49
⎡ ⎤
⎡ ⎤ 0 1 1 1
2 2 −10 ⎢0
⎢ ⎥ ⎢ 0 1 1⎥⎥
◦ ◦ ◦ Man zeige, dass A = ⎣1 2 −7 ⎦ und B = ⎢ ⎥ nilpotent sind. Man
⎣0 0 0 1⎦
0 2 −4
0 0 0 0
bestimme den Nilpotenzgrad.
54 Kapitel 1 • Matrizen
v Lösung
Wegen
⎡ ⎤ ⎡ ⎤
6 −12 6 000
⎢ ⎥ ⎢ ⎥
A2 = ⎣4 −8 4⎦ , A3 = ⎣0 0 0⎦
2 −4 2 000
Übung 1.50
•◦◦
a) Man bestimme alle reellen nilpotenten (2 × 2)-Matrizen.
b) Sei K = Z2 . Man bestimme alle nilpotenten Matrizen in K2×2 .
v Lösung
%a b&
a) A = cd ist genau dann nilpotent, wenn
⎧
⎪
⎪
⎪ a2 + bc = 0
) *) * ) * ) * ⎪
⎪
⎨b(a + d) = 0
ab ab a2 + bc ab + bd ! 0 0
A2 = = = ⇒
cd cd ac + cd bc + d 2 00 ⎪
⎪c(a + d) = 0
⎪
⎪
⎪
⎩
bc + d 2 = 0
Aus der zweiten und dritten Gleichung folgt entweder b = 0 und c = 0 oder a = −d.
5 Ist b = c = 0, so folgt aus der ersten und vierten Gleichung a2 = 0 und d 2 = 0,
d. h. a = d = 0. Daraus ergibt sich die foldende nilpotente Matrix
) *
00
.
00
5 Ist b = 0 aber c ̸= 0 so muss a = −d sein. Aus der ersten Gleichung folgt dann
a2 = bc = 0 ⇒ a = 0. Daraus ergibt sich die foldende Matrix
) *
00
, c ∈ R.
c0
1.4 • Spezielle Matrizen
55 1
5 Ist c = 0 aber b ̸= 0 so ergibt sich die foldende Matrix
) *
0b
, b ∈ R.
00
b) Z2 besteht nur aus den Elementen 0 und 1 (vgl. Anhang B.4). Matrizen in Z2×2 2
haben also nur 0 oder 1 als Einträge. Außerdem in Z2 gilt −1 = 1. Aus Teilaufgabe
(a) ergeben sich somit die folgenden vier nilpotente Matrizen
) * ) * ) * ) *
00 00 01 11
, , , .
00 10 00 11 !
Übung 1.51
• • ◦ Sei A ∈ Kn×n nilpotent mit Nilpotenzgrad m. Man zeige, dass E − A invertierbar
ist mit Inverse (E − A)−1 = E + A + A2 + · · · + Am−1 .
v Lösung
A ∈ Kn×n ist nilpotent mit Nilpotenzgrad m ⇒ Am = 0. Daher ist
AT A = AAT (1.65)
56 Kapitel 1 • Matrizen
erfüllt, heißt normal. Anders ausgedrückt: Eine Matrix A ist normal, wenn sie mit
ihrer Transponierten kommutiert, d. h.
[A, AT ] = 0. (1.66)
Bei komplexwertigen Matrizen muss man bei der obigen Definition die Transponierte
mit der Adjungierten ersetzen. Eine komplexwertigen (n × n)-Matrix A ∈ Cn×n , heißt
normal, falls
A∗ A = AA∗ . (1.67)
Übung 1.52 ⎡ ⎤
0 −1 1 ) *
⎢ ⎥ 1+i 1−i
◦ ◦ ◦ Man zeige, dass A = ⎣ 1 0 −1⎦ und B = normal sind.
1−i 1+i
−1 1 0
v Lösung ⎡ ⎤ ⎡ ⎤
2 −1 −1 2 −1 −1
⎢ ⎥ ⎢ ⎥
Wegen AT A = ⎣−1 2 −1⎦ und AAT = ⎣−1 2 −1⎦ ist A normal. Wegen:
−1 −1 2 −1 −1 2
) *) * ) * ) *
∗1+i 1−i 1−i 1+i 40 ∗ 40
BB = = , B B=
1−i 1+i 1+i 1−i 04 04
ist B normal. !
Übung 1.53
• ◦ ◦ Sei A ∈ Rn×n . Man zeige:
a) Ist A symmetrisch, dann ist A normal.
b) Ist A schiefsymmetrisch, dann ist A normal.
c) Ist A orthogonal, dann ist A normal.
v Lösung
a) Ist A symmetrisch, so gilt AT = A. Daraus folgt AT A = AA = AAT ⇒ A ist
normal.
b) Ist A schiefsymmetrisch, so gilt AT = −A. Daraus folgt AT A = (−A)A = A(−A) =
AAT ⇒ A ist normal.
c) Ist A orthogonal, so gilt AT A = E = AAT . Somit ist A normal. !
57 2
Lineare Gleichungssysteme
Inhaltsverzeichnis
In diesem Kapitel diskutieren wir eine zentrale Anwendung von Matrizen auf die
Lösung von linearen Gleichungssystemen (LGS).
n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 2 sind Sie in der Lage:
5 ein lineares Gleichungssystem (LGS) in Matrixform schreiben und mittels Gauß-
Algorithmus zu lösen,
5 die Lösungen eines LGS als Menge darstellen und grafisch zu interpretieren,
5 LGS mit Parameteren zu diskutieren,
5 den Rang eines LGS bestimmen und die Lösungen konkret nach dem Satz von
Rouché-Capelli zu klassifizieren,
5 LGS auf beliebigen Körpern (R, Q, C, Z2 , Z3 , · · · ) zu lösen,
5 den Zusammenhang zwischen Gesamtlösung sowie homogenen und partikulären
Lösungen eines LGS zu erklären und anzuwenden,
5 die Inverse einer Matrix mittels Gauß-Algorithmus zu bestimmen,
5 Kriterien für die Existenz einer inversen Matrix zu kennen und anzuwenden.
Die Lösungsmenge L des LGSs (2.1) besteht aus allen Tupeln (x1 , x2 , · · · , xn ), welche
alle Gleichungen in (2.1) gleichzeitig erfüllen. Es gibt drei Möglichkeiten für L:
5 In einigen Situationen besitzt das LGS (2.1) keine Lösung. In diesem Fall ist die
Lösungsmenge L leer
?@
L=∅= .
2.1 • Lineare Gleichungssysteme (LGS)
59 2
a b c
. Abb. 2.1 (a) Wenn das LGS (2.1) eine eindeutige Lösung besitzt, besteht L aus einem einzigen Punkt
x0 im Raum. (b) Hat L als Lösungsmenge einen einzigen freien Parameter, dann ist L eine Gerade, welche
durch den Punkt x0 geht und in die Richtung v1 zeigt. (c) Hat die Lösungsmenge zwei freie Parameter, dann
ist L eine Ebene, welche den Punkt x0 enthält und durch die Vektoren v1 , v2 aufgespannt ist (vgl. Anhang A)
5 Wenn das LGS (2.1) eine eindeutige Lösung besitzt, dann besteht die Lösungsmen-
ge aus einem einzigen Punkt x0 im Raum (. Abb. 2.1a)
⎧⎡ ⎤ A⎡ ⎤ ⎫
A x1
⎨ x1
⎪ A ⎪
⎬
⎢ .. ⎥ n A ⎢ .. ⎥
L = ⎣ . ⎦ ∈ R A ⎣ . ⎦ = x0 = {x0 } .
⎪
⎩ A ⎪
⎭
xn A x
n
5 In einigen Situationen besitzt das LGS (2.1) unendlich viele Lösungen. Die Lö-
sungsmenge ist in diesem Fall durch ein oder mehrere freie Parameter t, s, · · ·
beschrieben:
⎧⎡ ⎤ A⎡ ⎤ ⎫
A x1
⎨ x1
⎪ A ⎪
⎬
⎢ ⎥ A⎢ ⎥
L = ⎣ ... ⎦ ∈ Rn A ⎣ ... ⎦ = x0 + t v1 + s v2 + · · · mit t, s, · · · ∈ R .
⎪
⎩ A ⎪
⎭
xn A x
n
> Bemerkung
Eine Hyperebene ist eine Verallgemeinerung des Begriffs der Ebene auf beliebige
Dimension, was aber schwierig bis unmöglich mit einer Zeichnung darzustellen ist.
a b c
. Abb. 2.2 Grafische Interpretation der drei Lösbarkeitsfälle eines (2×2)-LGSs. Jede Gleichung im LGS
entspricht einer Geraden
2.1 • Lineare Gleichungssysteme (LGS)
61 2
a b
. Abb. 2.3 Grafische Interpretation der drei Lösbarkeitsfälle eines (3 × 3)-LGSs. Jede Gleichung im
LGS entspricht einer Ebene. Abhängig davon, wie sich diese Ebenen schneiden, hat das LGS (a) genau
eine Lösung, (b) unendlich viele Lösungen, oder (c) keine Lösung
Man kann ein LGS auch auf einem beliebigen Körper K definieren. Im diesem Fall
sind die Koeffizienten aij und bi in (2.1) Elemente aus K. In der Praxis ist K = R, C.
Es können aber auch kompliziertere Situationen auftreten, wie zum Beispiel K = Zp
(7 vgl. Abschn. B.4).
Die Lösungsmenge L des LGS (2.2) wird dann durch die folgenden elementaren
Zeilenoperationen nicht verändert:
5 Vertauschen von zwei Zeilen (Gleichungen)
5 Ein beliebiges Vielfaches einer Zeile (Gleichung) zu einer anderen Zeile (Glei-
chung) addieren oder subtrahieren
Aus diesen Tatsachen resultiert eine allgemeine Strategie, um LGS zu lösen. Man wen-
det die obigen elementaren Zeilenoperationen an, um ein gegebenes LGS schrittweise
auf ein einfacheres äquivalenten LGS zu bringen (Diagonalform oder Treppenform),
woraus sich dann die Lösungsmenge direkt ablesen lässt.
Übung 2.1
◦ ◦ ◦ Man löse das folgende LGS mittels elementaren Zeilenoperationen:
⎧
⎪
⎨x1 − x3 = 1
⎪
2x1 + 4x2 + 4x3 = 4
⎪
⎪
⎩
−x1 + 3x2 + 4x3 = 0
v Lösung
⎧ ⎧
⎨ x1
⎪ − x3 = 1 (Z1 ) ⎨ x1
⎪ − x3 = 1 (Z1′ ) = (Z1 )
2x1 + 4x2 + 4x3 = 4 (Z2 ) % 4x2 + 6x3 = 2 (Z2′ ) = (Z2 ) − 2(Z1 )
⎪
⎩ ⎪
⎩
−x1 + 3x2 + 4x3 = 0 (Z3 ) 3x2 + 3x3 = 1 (Z3′ ) = (Z3 ) + (Z1 )
⎧
⎨ x1
⎪ − x3 = 1 (Z1′′ ) = (Z1′ )
% 4x2 + 6x3 = 2 (Z2′′ ) = (Z2′ )
⎪
⎩ 3 1
− 2 x3 = − 2 (Z3′′ ) = (Z3′ ) − 34 (Z2′ )
⎧
⎨ x1
⎪ − x3 = 1 (Z1′′′ ) = (Z1′′ )
3 1
% x2 + 2 x3 = 2 (Z2′′′ ) = 14 (Z2′′ )
⎪
⎩ 1
x3 = 3 (Z3′′′ ) = − 23 (Z3′′ )
2.2 • Der Gauß-Algorithmus
63 2
Nun können wir die Lösung des LGS direkt ablesen (von unten nach oben)
⎧ ⎧ ⎧⎡ ⎤⎫
4 4
⎨ x1
⎪ − x3 = 1 ⎨ x1 = 1 + x3 = 3
⎪ ⎪
⎨ 3 ⎪ ⎬
⎢ ⎥
x2 + 32 x3 = 12 % x2 = 12 − 32 x2 = 0 ⇒ L = ⎣0⎦ .
⎪
⎩ ⎪
⎩ ⎪
⎩ 1 ⎪ ⎭
x3 = 13 x3 = 13 3 !
Der Gauß-Algorithmus ist ein allgemeines Verfahren zur Lösung eines LGS. Der
Gauß-Algorithmus besteht aus einer Sequenz von elementaren Zeilenoperationen,
welche direkt auf die Matrixdarstellung eines LGS angewandt werden können.
Bevor wir den Gauß-Algorithmus detailliert anwenden, wollen wir die Zeilenstufen-
form einer Matrix erklären.
Z= (2.3)
> Bemerkung
Das Sternchen ⋆ dient als Platzhalter für eine beliebige Zahl. Es können auch Nullen
vorkommen.
Die Zeilenstufenform einer Matrix A erhält man, indem man eine Kombination der
folgenden elementaren Zeilenoperationen auf die Zeilen der Matrix A anwendet.
64 Kapitel 2 • Lineare Gleichungssysteme
Elementare Zeilenoperationen
5 Vertauschen der i-ten mit der j-ten Zeile.
5 Ersetzen der j-ten Zeile durch (Zj ) + β(Zi ), j ̸= i (es darf β = 0 sein).
Die Zeile, welche addiert wird, heißt Pivotzeile. Die Spalte die „ausgeräumt“ werden
muss heißt Pivotspalte. Der Koeffizient an der Kreuzung der Pivotzeile mit der
Pivotspalte heißt Pivotelement oder Pivot.
> Bemerkung
Beachte: Die Pivotspalte besteht nur aus dem Pivot und den Elementen unter dem
Pivot.
2.2 • Der Gauß-Algorithmus
65 2
Übung 2.2
◦ ◦ ◦ Man bringe die folgende Matrix mittels elementarer Zeilenoperationen auf
Zeilenstufenform:
⎡ ⎤
0 1 2 2 1
⎢0
⎢ −1 −2 1 2⎥ ⎥
A=⎢ ⎥.
⎣0 2 4 −1 −3⎦
0 4 8 3 −1
v Lösung
⎡ ⎤ ⎡ ⎤
0 1 2 2 1 (Z2 ) + (Z1 ) 012 2 1
⎢0 ⎥ (Z1 ) (Z3 ) − 2(Z1 ) ⎢
⎢ −1 −2 1 2⎥ (Z4 ) − 4(Z1 ) ⎢0 0 0 3 3⎥⎥
⎢ ⎥ (Z2 ) % ⎢ ⎥
⎣0 2 4 −1 −3⎦ ⎣0 0 0 −5 −5⎦
(Z3 )
0 4 8 3 −1 0 0 0 −5 −5
⎡ ⎤ ⎡ ⎤
(Z3 ) + 5 (Z2 )
01221 01221
3 ⎢ ⎥ 1 ⎢
(Z4 ) − (Z3 ) ⎢0 0 0 3 3⎥ 3 (Z2 ) ⎢0 0 0 1 1⎥
⎥
% ⎢ ⎥ % ⎢ ⎥ = Z.
⎣0 0 0 0 0⎦ ⎣0 0 0 0 0⎦
00000 00000
Jedes LGS
⎧
⎪
⎪ a11 x1 + a12 x2 + · · · + a1n xn = b1 (Z1 )
⎪
⎨ a21 x1 + a22 x2 + · · · + a2n xn = b2 (Z2 )
.. .. .. .. .. (2.4)
⎪
⎪ . . . . .
⎪
⎩
am1 x1 + am2 x2 + · · · + amn xn = bm (Zm )
66 Kapitel 2 • Lineare Gleichungssysteme
Die Matrix [A|b] heißt erweiterte Matrix (auch erweiterte Koeffizientenmatrix) des
LGS.
> Bemerkung
Der vertikale Strich in der erweiterten Matrix hat keine mathematische Bedeutung; er
dient einfach dazu, Berechnungen übersichtlicher zu machen.
" Beispiel
⎧ ⎡ ⎤
⎨ 2x1 + 2x2 + 4x3 = 4
⎪ (Z1 ) 2 2 4 4
⎢ ⎥
x1 − x3 = 1 (Z2 ) % [A|b] = ⎣ 1 0 −1 1 ⎦ . #
⎪
⎩
−x1 + 3x2 + 4x3 = 0 (Z3 ) −1 3 4 0
Übung 2.3
◦ ◦ ◦ Man schreibe die folgenden LGS in Matrixform um. Man gebe jeweils die
erweiterte Matrix an.
⎧
⎨x − 3x = 2
1 2
a)
⎩2x + x = −1
⎧ 1 2
⎨x + x = 0
1 2
b)
⎩x = x
⎧ 1 2
⎨6x + 2x + x + x = 0
1 2 3 4
c)
⎩x − x − x = x
3 1 2 4
2.2 • Der Gauß-Algorithmus
67 2
⎧
⎪
⎨−3x1 − 2x2 − x3 + 4x4 = 3
⎪
d) 15x1 − 4x3 − x4 = 0
⎪
⎪
⎩
2x1 + 5x3 − 3x4 − 1 = 2
v Lösung
⎡ ⎤
) * ) * ) * −3 −2 −1 4 3
1 −3 2 1 1 0 6 2 1 1 0 ⎢ ⎥
a) , b) , c) , d) ⎣ 15 0 −4 −1 0 ⎦ .
2 1 −1 1 −1 0 −1 −1 1 −1 0
2 0 5 −3 3
!
Gegeben sei ein LGS mit erweiterter Matrix [A|b]. Mittels elementarer Zeilenopera-
tionen kann man [A|b] wie folgt in Zeilenstufenform bringen:
⎡ ⎤
a11 a12 · · · a1n b1
⎢ a21 a22 · · · a2n b2 ⎥
⎢ ⎥
[A|b] = ⎢ . .. . . .. .. ⎥ % Z=
⎣ .. . . . . ⎦
am1 am2 · · · amn bm
3 45 6 3456
A b
(2.7)
Die so erzeugte Matrix Z heißt Zielmatrix. Hat man die erweiterte Matrix [A|b]
auf Zeilenstufenform gebracht, so kann man die folgenden Fallunterscheidungen
vornehmen, um die Lösungsmenge des LGS aus der Zielmatrix Z zu bestimmen.
5 Fall 1: Hat die Zielmatrix Z das folgende Aussehen (Dreiecksform)
Z= (2.8)
so hat das LGS genau eine Lösung. Es gibt genauso viele von Null verschiedene
Gleichungen als Unbekannte. Die eindeutige Lösung wird in diesem Fall einfach
durch Rückwärtseinsetzen bestimmt.
68 Kapitel 2 • Lineare Gleichungssysteme
" Beispiel
Das LGS mit Zielmatrix
) *
121
Z=
013
hat genau eine Lösung (Fall 1). Die Lösung wird durch Rückwärtseinsetzen bestimmt. Aus
der zweiten Zeile folgt x2 = 3. Einsetzen in die erste Zeile liefert x1 + 2x2 = 1 ⇒ x1 =
1 − 2x2 = 1 − 2 · 3 = −5. Die Lösungsmenge besteht somit aus dem einzigen Vektor:
$) *E
−5
L= .#
3
Z= (2.9)
dann hat das LGS unendlich viele Lösungen. In diesem Fall ist die Anzahl von
Null verschieden Gleichungen kleiner als die Anzahl von Unbekannten. Einige
Variablen sind somit frei wählbar. Die Lösungsmenge ist durch k1 + k2 + · · · + kr
frei wählbare Parameter beschrieben.
Praxistipp
hat unendlich viele Lösungen (Fall 2). Es gibt einen freien Parameter; setzen wir, beispiels-
weise, x2 = t, dann folgt x1 = 2 − x2 = 2 − t. Die Lösungsmenge ist somit:
$) * A) * ) * ) * E
A
x1 2 A x1 2 −1
L= ∈R A = +t , t∈R .#
x2 A x2 0 1
" Beispiel
Das LGS mit Zielmatrix
⎡ ⎤
1 2 0 1 1 0 1
⎢0
⎢ 0 1 0 1 0 1⎥⎥
Z=⎢ ⎥
⎣0 0 0 1 1 9 1⎦
0 0 0 0 0 0 0
hat unendlich viele Lösungen mit drei freien Parametern: x2 = t, x5 = s und x6 = r. Alle
Variablen direkt neben den markierten Elementen sind freie Variablen:
x1 x2 x3 x4 x5 x6
1 2 0 1 1 0 1
0 0 1 0 1 0 1
0 0 0 1 1 9 1
0 0 0 0 0 0 0
↑ ↑ ↑
Aus der dritten Zeile folgt dann: x4 = 1 − x5 − 9x6 = 1 − s − 9r. Aus der zweiten Zeile folgt:
x3 = 1−x5 = 1−s. Ferner folgt aus der ersten Zeile folgt: x1 = 1−2x2 −x4 −x5 = −2t+9r.
Die Lösungsmenge ist somit:
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 A x1 0 −2 0 9 ⎪
⎪
⎪ A ⎪
⎪
⎪
⎪ ⎢ ⎥ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪
⎪
⎪
⎪ ⎢ x 2 ⎥ A ⎢x 2 ⎥ ⎢ 0 ⎥ ⎢ 1 ⎥ ⎢ 0 ⎥ ⎢ 0 ⎥ ⎪
⎪
⎪⎢ ⎥
⎨ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪
⎬
⎢x3 ⎥ A ⎢
6 A ⎢x3 ⎥
⎥ ⎢ 1⎥⎥ ⎢ 0⎥⎥ ⎢−1⎥⎥ ⎢ 0⎥⎥
⎢ ⎥ ⎢ ⎢ ⎢ ⎢
L = ⎢ ⎥ ∈ R A ⎢ ⎥ = ⎢ ⎥ + t ⎢ ⎥ + s ⎢ ⎥ + r ⎢ ⎥ , t, s, r ∈ R . #
⎪
⎪
⎪ ⎢x4 ⎥ A ⎢x4 ⎥ ⎢1⎥ ⎢0⎥ ⎢−1⎥ ⎢−9⎥ ⎪
⎪
⎪
⎪
⎪ ⎢ ⎥ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪
⎪
⎪
⎪ ⎣ x 5 ⎦ A ⎣x 5 ⎦ ⎣ 0 ⎦ ⎣ 0 ⎦ ⎣ 1 ⎦ ⎣ 0 ⎦ ⎪
⎪
⎪
⎩ A ⎪
⎭
x6 A x6 0 0 0 1
70 Kapitel 2 • Lineare Gleichungssysteme
5 Fall 3: Falls
Z= mit ! ̸= 0 (2.11)
dann hat das LGS keine Lösung, weil die letzten k Gleichungen 0 = ! lauten, was
wegen ! ̸= 0 unmöglich ist.
> Bemerkung
! dient als Platzhalter für eine von Null verschiedene Zahl. Es genügt schon, dass ein
! ̸= 0 ist!
" Beispiel
Das LGS mit Zielmatrix
) *
1 −1 2
Z=
0 0 1
hat keine Lösung (Fall 3). Denn die Gleichung 0 = 1 ist nie erfüllt. Die Lösungsmenge ist
?@
leer L = . #
Übung 2.4
• ◦ ◦ Man
⎡ betrachte⎤die folgenden Zielmatrizen:
12 1 4
⎢ ⎥
a) Z = ⎣ 0 1 −2 2 ⎦
00 1 3
⎡ ⎤
130 5
⎢ ⎥
b) Z = ⎣ 0 1 3 −1 ⎦
000 1
⎡ ⎤
1 −1 1 0
⎢ ⎥
c) Z = ⎣ 0 0 0 0 ⎦
0 0 00
⎡ ⎤
1 −1 1 5
⎢ ⎥
d) Z = ⎣ 0 1 7 2 ⎦
0 0 00
Man entscheide, ob die zugehörigen LGS (i) eine, (ii) keine oder (iii) unendlich viele
Lösungen besitzen. Man bestimme jeweils die Lösungsmenge.
2.2 • Der Gauß-Algorithmus
71 2
v Lösung
⎡ ⎤
12 1 4
⎢ ⎥
a) ⎣ 0 1 −2 2 ⎦ ⇒ genau eine Lösung (Fall 1).
00 1 3
Die Lösung erhalten wir durch Rückwärtseinsetzen. Aus der dritten Zeile folgt:
x3 = 3. Einsetzen in die zweite Gleichung liefert: x2 = 2 + 2x3 = 8. Aus der
ersten
⎧Zeile
⎡ folgt
⎤⎫ dann: x1 = 4 − 2x2 − x3 = −15. Die Lösungsmenge ist eindeutig:
⎨ −15 ⎪
⎪ ⎬
⎢ ⎥
L= ⎣ 8 ⎦ .
⎪
⎩ ⎪
⎭
3
⎡ ⎤
130 5
⎢ ⎥
b) ⎣ 0 1 3 −1 ⎦ ⇒ keine Lösung (Fall 3).
000 1
⎡ ⎤
1 −1 1 0
⎢ ⎥
c) ⎣ 0 0 0 0 ⎦ ⇒ unendlich viele Lösungen (2 freie Parameter, Fall 2).
0 0 00
Wir setzen x2 = t und x3 = s. Dann folgt aus der ersten Zeile: x1 = x2 − x3 =
t − s. Die Lösungsmenge ist somit
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
A x 1
⎨ x1
⎪ A 1 −1 ⎪
⎬
⎢ ⎥ 3A ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R A ⎣x2 ⎦ = t ⎣1⎦ + s ⎣ 0 ⎦ , t, s ∈ R .
⎪
⎩ A ⎪
⎭
x3 A x3 0 1
⎡ ⎤
1 −1 1 5
⎢ ⎥
d) ⎣ 0 1 7 2 ⎦ ⇒ unendlich viele Lösungen (1 freier Parameter, Fall 2).
0 0 00
Wir setzen x3 = t. Dann folgt aus der zweiten Zeile: x2 = 2 − 7x3 = 2 − 7t.
Einsetzen in die erste Gleichung liefert: x1 = 5+x2 −x3 = 7−8t. Die Lösungsmenge
ist somit
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
A x 7
⎨ x1
⎪ A 1 −8 ⎪
⎬
⎢ ⎥ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R3 A ⎣x2 ⎦ = ⎣2⎦ + t ⎣−7⎦ , t ∈ R .
⎪
⎩ A ⎪
⎭
x3 A x3 0 1 !
Schritt 1 Als erstes ordnen wir dem Gleichungssystem die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ 3x1 − 3x2 + x3 = 1 (Z1 ) 3 −3 1 1
−x1 + x2 + 2x3 = 2 (Z2 ) % [A|b] = ⎣ −1 1 2 2 ⎦ .
⎩
2x1 + x2 − 3x3 = 0 (Z3 ) 2 1 −3 0
Schritt 2 Jetzt wenden wir den Gauß-Algorithmus an: Das Ziel ist es, die erweiterte Matrix
[A|b] mittels elementarer Zeilenoperationen in die Zeilenstufenform (2.2.3) zu bringen.
Durch das Vertauschen der ersten Zeile mit der zweiten Zeile und die Multiplikation der
ersten Zeile mit -1 erhalten wir eine 1 als erste Ziffer, auch Pivot genannt:
⎡ ⎤ ⎡ ⎤
3 −3 1 1 1 −1 −2 −2
(Z1 ) ↔ −(Z2 ) ⎢ ⎥
⎣ −1 1 2 2 ⎦ % ⎣ 3 −3 1 1 ⎦ .
2 1 −3 0 2 1 −3 0
Nun erzeugen wir Nullen an der ersten Position der zweiten und dritten Zeile durch
(Z2 ) − 3(Z1 ) und (Z3 ) − 2(Z1 ):
⎡ ⎤ ⎡ ⎤
1 −1 −2 −2 (Z2 ) − 3(Z1 ) 1 −1 −2 −2
(Z ) − 2(Z )
⎣ 3 −3 1 1 ⎦ 3 % 1 ⎢ ⎣ 0 0 7 7 ⎦.
⎥
2 1 −3 0 0 3 1 4
Dann vertauschen wir die zweite Zeile mit der dritten Zeile, damit wir zwei Nullen in der
untersten Zeile erhalten
⎡ ⎤ ⎡ ⎤
1 −1 −2 −2 1 −1 −2 −2
(Z2 ) ↔ (Z3 )
⎣0 0 7 7 ⎦ % ⎣ 0 3 1 4 ⎦.
0 3 1 4 0 0 7 7
Weiter wollen wir alles Einsen auf der Hauptdiagonale erzeugen. Also dividieren wir die
zweite Zeile durch 3 und die dritte durch 7:
⎡ ⎤ 1 (Z ) ⎡ ⎤
3 2 1 −1 −2 −2
1 −1 −2 −2 1 (Z )
7 3 ⎢ ⎥
⎣0 3 1 4 ⎦ % ⎣ 0 1 13 43 ⎦ = Z.
0 0 7 7 0 0 1 1
Die Zielmatrix Z ist jetzt eine obere Dreiecksmatrix. Der Gauß-Algorithmus hat somit sein
Ziel erreicht. Die Zielmatrix Z entspricht Fall 1: Das gegebene LGS hat genau eine Lösung.
Schritt 3 Aus der Zielmatrix Z können wir nun die Lösung direkt ableiten:
⎧ ⎧
⎨x1 − x2 − 2x3 = −2
⎪ ⎨x1 = −2 + x2 + 2x3 = 1
⎪
x2 + 13 x3 = 43 ⇒ x2 = 43 − 13 x3 = 1
⎪
⎩ ⎪
⎩
x3 = 1 x3 = 1
2.2 • Der Gauß-Algorithmus
73 2
⎧ ⎡ ⎤⎫
⎨ 1 ⎬
Die eindeutige Lösung des LGS lautet somit L = ⎣1⎦ . Die Lösungsmenge ist ein Punkt
⎩ ⎭
1
wo die drei Ebenen (Gleichungen) sich schneiden (. Abb. 2.4).
> Bemerkung
Beim Gauß-Algorithmus darf man je zwei Zeilen vertauschen, ohne die Lösungsmenge
zu verändern. Dies folgt direkt aus der Tatsache, dass es keine Rolle spielt, in welcher
Ordnung die einzelnen Gleichungen in einem LGS auftreten (vgl. elementare Zeilen-
operationen). Zum Beispiel
⎧ ⎧
⎨x + x = 1 ⎨x + 2x = 2
1 2 1 2
ist dasselbe LGS wie
⎩x + 2x = 2 ⎩x + x = 1
1 2 1 2
Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ x1 + x2 − x3 = 4 (Z1 ) 1 1 −1 4
2x − x2 + 3x3 = 7 (Z2 ) % [A|b] = ⎣ 2 −1 3 7 ⎦ .
⎩ 1
4x1 + x2 + x3 = 15 (Z3 ) 4 1 1 15
Schritt 2 Dann wenden wir den Gauß-Algorithmus an. Wir erzeugen Nullen an der ersten
Position der zweiten und dritten Zeile durch (Z2 ) − 2(Z1 ) und (Z3 ) − 4(Z1 ):
⎡ ⎤ (Z ) − 2(Z ) ⎡ ⎤
1 1 −1 4 2 1 1 1 −1 4
(Z3 ) − 4(Z1 ) ⎢ ⎥
⎣ 2 −1 3 7 ⎦ % ⎣ 0 −3 5 −1 ⎦ .
4 1 1 15 0 −3 5 −1
Nun erkennen wir, dass die letzten zwei Zeilen gleich sind. Also durch (Z3 ) − (Z2 ) erhalten
wir
⎡ ⎤ ⎡ ⎤
1 1 −1 4 1 1 −1 4
(Z3 ) − (Z2 )
⎣ 0 −3 5 −1 ⎦ % ⎣ 0 −3 5 −1 ⎦ .
0 −3 5 −1 0 0 0 0
Die Zielmatrix ist vom Typ 2. Das LGS hat somit unendlich viele Lösungen mit einem freien
Parameter.
Schritt 3 Herauslesen der Lösung
$
x1 + x2 − x3 = 4
x2 − 53 x3 = 1
3
Die Lösungsmenge ist eine Gerade im R3 in der sich 3 Ebenen schneiden (. Abb. 2.5).
2.2 • Der Gauß-Algorithmus
75 2
Praxistipp
Alle Variablen direkt neben den markierten Elementen (Pivots) sind freie Variablen
x1 x2 x3
1 1 −1 4
0 1 − 53 13
0 0 0 0
↑
0 · x3 = 0 ⇒ x3 = t freie Variable.
> Bemerkung
Dem aufmerksamen Leser fällt sicher auf, dass die dritte Gleichung des LGSs im
Musterbeispiel 2.2 eine Linearkombination der ersten und zweiten Gleichung ist.
Genauer: (Z3 ) = 2(Z1 )+(Z2 ). Daher hat das LGS unendlich viele Lösungen mit einem
freien Parameter.
76 Kapitel 2 • Lineare Gleichungssysteme
Schritt 1 Zunächst stellen wir die erweiterte Matrix [A|b] des LGS auf:
⎧ ⎡ ⎤
⎨ x1 + x2 − x3 = 3 (Z1 ) 1 1 −1 −3
2x + 2x2 + x3 = 0 (Z2 ) % [A|b] = ⎣ 2 2 1 0 ⎦ .
⎩ 1
5x1 + 5x2 − 3x3 = −8 (Z3 ) 5 5 −3 −8
Die Zielmatrix ist vom Typ 3. Das LGS hat somit keine Lösung (die letzte Gleichung ist
0 = 3, was unmöglich ist) (. Abb. 2.6).
Ax = b1 , Ax = b2 , ··· , Ax = br . (2.12)
In kompakter Form kann man die verschiedenen LGS mithilfe einer einzigen erwei-
terten Matrix zusammenfassen:
⎡ ⎤
a11 a12 ··· a1n b11 b21 ··· br1
⎢ a21 a22 ··· a2n b12 b22 ··· br2 ⎥
⎢ ⎥
[A|b1 · · · br ] = ⎢ .. .. .. .. .. .. .. .. ⎥. (2.13)
⎣ . . . . . . . . ⎦
am1 am2 · · · amn b1m b2m · · · brm
Man löse die zwei folgenden LGS mit dem Gauß-Algorithmus simultan:
⎧ ⎧
⎨x1 + 4x2 + 3x3 = 1
⎪ ⎨x1 + 4x2 + 3x3 = −1
⎪
2x1 + 5x2 + 4x3 = 4 und 2x1 + 5x2 + 4x3 = 0
⎪
⎩ ⎪
⎩
x1 + x2 + x3 = 3 x1 + x2 + x3 = 2
Schritt 1 Bei der gleichzeitigen Lösung mehreren LGS Ax = b1 und Ax = b2 , kann man die
erweiterte Matrix [A|b1 b2 ] aufstellen (beachte, dass es jetzt zwei Spalten nach dem vertikalen
Strich | gibt):
⎧ ⎡ ⎤
⎨ x1 + 4x2 + 3x3 = 1 und −1 (Z1 ) 1 4 3 1 −1
2x + 5x2 + 4x3 = 4 und 0 (Z2 ) % ⎣ 2 5 4 4 0 ⎦ .
⎩ 1
x1 + x2 + x3 = 3 und 2 (Z3 ) 1 1 1 3 2
5 Die Zielmatrix für den zweiten LGS ist vom Typ 3. Das zweite LGS hat somit keine
Lösung (die letzte Gleichung, 0 = 1, ist unmöglich).
Beachte: Der vertikale Strich in der erweiterten Matrix hat keine mathematische
Bedeutung, aber hilft, Berechnungen übersichtlicher zu gestalten.
Schritt 2 Man forme die erweiterte Matrix [A|b] mittels elementarer Zeilenoperationen
um, bis man die Zielmatrix Z bekommt. Dabei sind folgende Zeilenoperationen
erlaubt:
5 vertauschen von zwei Zeilen;
5 eine Zeile mit einer beliebigen Zahl α ̸= 0 multiplizieren;
5 ein beliebiges Vielfaches einer Zeile zu einer anderen Zeile addieren oder subtrahie-
ren.
Schritt 3 Aus der Zielmatrix Z kann die Lösungsmenge direkt abgeleitet werden.
5 Fall 1. Die Lösung erhalten wir durch Rückwärtseinsetzen. Man beginnt mit der
letzten (untersten) Gleichung, welche nach xn aufgelöst wird. Dann setzt man diese
Lösung in der zweitletzten Gleichung ein und löst nach xn−1 auf. So geht man weiter,
bis x1 gefunden ist.
5 Fall 2. Man braucht k freie Parameter t, s, · · · . Man setzt die freien Unbekannten
gleich t, s, · · · und löst die n − k von Null verschiedenen Gleichungen auf. Somit
erhält man die allgemeine Lösungsmenge, welche von t, s, · · · abhängt. Es gilt:
Übung 2.5
◦ ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:
⎧
⎨x − 3x = −6
1 2
⎩x − 2x = 4
1 2
80 Kapitel 2 • Lineare Gleichungssysteme
v Lösung
Wir gehen nach dem Kochrezept 2.1 vor.
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|b] zu:
$ ) *
x1 − 3x2 = −6 (Z1 ) 1 −3 −6
% [A|b] = .
x1 − 2x2 = 4 (Z2 ) 1 −2 4
Die Zielmatrix ist vom Typ 1 (Dreiecksform). Das LGS hat somit genau eine Lösung.
Schritt 3 Herauslesen der Lösung direkt aus dem Endschema Z (durch Rückwärts-
einsetzen):
⎧ ⎧ $) *E
⎨x − 3x = −6 ⎨x = −6 + 3 · 10 = 24
1 2 1 24
⇒ ⇒ L= .
⎩x = 10
2
⎩x = 10
2 10
!
Übung 2.6
◦ ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:
⎧
⎨x + 2x = 4
1 2
⎩2x + 4x = 6
1 2
v Lösung
Schritt 1 Wir stellen zuerst die erweiterte Matrix [A|E] auf:
$ ) *
x1 + 2x2 = 4 (Z1 ) 1 2 4
% [A|b] = .
2x1 + 4x2 = 6 (Z2 ) 2 4 6
Übung 2.7
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:
⎧
⎪
⎨x1 + 2x2 + x3 = 1
⎪
3x1 + 9x2 + 4x3 = 5
⎪
⎪
⎩
x1 + 3x2 + 2x3 = 3
v Lösung
Schritt 1 Als erstes bestimmen wir die erweiterte Matrix [A|b] des LGS:
⎧ ⎡ ⎤
⎨ x1 + 2x2 + x3 = 1
⎪ (Z1 ) 1 2 1 1
⎢ ⎥
3x1 + 9x2 + 4x3 = 5 (Z2 ) % [A|b] = ⎣ 3 9 4 5 ⎦ .
⎪
⎩
x1 + 3x2 + 2x3 = 3 (Z3 ) 1 3 2 3
Die Zielmatrix ist vom Typ 1 (Diagonalform). Das LGS hat somit eine eindeutige
Lösung.
Schritt 3 Herauslesen der Lösung aus dem Endschema Z
⎧ ⎧ ⎧⎡ ⎤⎫
⎪ ⎪
⎨x1 + 2x2 + x3 = 1
⎪ ⎨x1 = −1
⎪ ⎨ −1 ⎪
⎪ ⎬
⎢ ⎥
x2 + 13 x3 = 23 ⇒ x2 = 0 ⇒ L= ⎣ 0 ⎦ .
⎪
⎪ ⎪
⎪ ⎪
⎩ ⎪
⎭
⎩ ⎩ 2
x3 = 2 x3 = 2 !
Übung 2.8
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:
⎧
⎪
⎨x2 − 3x3 = 2
⎪
x1 + 2x2 + x3 = 1
⎪
⎪
⎩
x1 + x2 + 4x3 = 2
82 Kapitel 2 • Lineare Gleichungssysteme
v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎪
⎨ x2 − 3x3 = 2 (Z1 ) 0 1 −3 2
⎢ ⎥
x1 + 2x2 + x3 = 1 (Z2 ) % [A|b] = ⎣ 1 2 1 1 ⎦ .
⎪
⎩
x1 + x2 + 4x3 = 2 (Z3 ) 1 1 4 2
Übung 2.9
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:
⎧
⎪
⎨x1 + 3x2 + x3 = 1
⎪
3x1 + 9x2 + 4x3 = 5
⎪
⎪
⎩
x1 + 3x2 + 2x3 = 3
v Lösung
Schritt 1 Wir bestimmen die erweiterte Matrix [A|b] des LGS:
⎧ ⎡ ⎤
⎨ x1 + 3x2 + x3 = 1
⎪ (Z1 ) 1 3 1 1
⎢ ⎥
3x1 + 9x2 + 4x3 = 5 (Z2 ) % [A|b] = ⎣ 3 9 4 5 ⎦ .
⎪
⎩
x1 + 3x2 + 2x3 = 3 (Z3 ) 1 3 2 3
Die Zielmatrix ist vom Typ 2 (Trapezform). Das LGS hat somit unendlich viele Lösungen
mit einem freien Parameter.
2.2 • Der Gauß-Algorithmus
83 2
Schritt 3 Aus der zweiten Gleichung folgt x3 = 2. Dann setzen wir x2 = t als freien
Parameter. Aus der ersten Gleichung folgt dann x1 = 1 − 2x2 − x3 = −2t − 1. Als
Lösung erhalten wir somit eine Gerade im R3 :
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
A x
⎨ x1
⎪ A 1 −1 −2 ⎪
⎬
⎢ ⎥ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R3 A ⎣x2 ⎦ = ⎣ 0 ⎦ + t ⎣ 1 ⎦ , t ∈ R .
⎪
⎩ A ⎪
⎭
x3 A x3 2 0 !
Übung 2.10
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:
⎧
⎪
⎨x1 + x2 + x3 = 1
⎪
2x1 + 2x2 + 2x3 = 2
⎪
⎪
⎩
3x1 + 3x2 + 3x3 = 3
v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x 1 + x2 + x 3 = 1
⎪ (Z1 ) 1 1 1 1
⎢ ⎥
2x1 + 2x2 + 2x3 = 2 (Z2 ) % [A|b] = ⎣ 2 2 2 2 ⎦ .
⎪
⎩
3x1 + 3x2 + 3x3 = 3 (Z3 ) 3 3 3 3
Die Zielmatrix ist vom Typ 2, d. h., das LGS hat unendlich viele Lösungen mit zwei freien
Parametern t, s.
Schritt 3 Wir setzen x2 = t und x3 = s als freie Parameter. Aus der ersten Gleichung
im Endschema Z erhalten wir x1 = 1 − x2 − x3 = 1 − t − s. Als Lösung erhalten wir
somit eine Ebene im R3
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
A x 1
⎨ x1
⎪ A 1 −1 −1 ⎪
⎬
⎢ ⎥ 3A ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R A ⎣x2 ⎦ = ⎣0⎦ + t ⎣ 1 ⎦ + s ⎣ 0 ⎦ , t, s ∈ R .
⎪
⎩ A ⎪
⎭
x3 A x3 0 0 1 !
84 Kapitel 2 • Lineare Gleichungssysteme
Praxistipp
Alle Variablen direkt neben dem ersten Pivot sind freie Variablen
x1 x2 x3
1 1 1 1
0 0 0 0
0 0 0 0
↑ ↑
x2 = t, x3 = s freie Variablen.
Übung 2.11
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:
⎧
⎪
⎨x1 + 2x2 + x4 = 0
⎪
2x1 + 5x2 + 4x3 + 4x4 = 0
⎪
⎪
⎩
3x1 + 5x2 − 6x3 + 4x4 = 0
v Lösung
Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ x1 + 2x2
⎪ + x4 = 0 (Z1 ) 1 2 0 1 0
⎢ ⎥
2x1 + 5x2 + 4x3 + 4x4 = 0 (Z2 ) % [A|b] = ⎣ 2 5 4 4 0 ⎦ .
⎪
⎩
3x1 + 5x2 − 6x3 + 4x4 = 0 (Z3 ) 3 5 −6 4 0
Die Zielmatrix ist vom Typ 2 (Trapezform). Das LGS hat somit unendlich viele Lösungen
mit einem freien Parameter.
Schritt 3 Wir setzen x4 = t als freien Parameter. Aus der dritten Gleichung im
Endschema Z erhalten wir x3 = 32 x4 = 32 t. Aus der zweiten Gleichung folgt x2 =
−4x3 − 2x4 = −8t. Aus der ersten Gleichung folgt x1 = −2x2 − x4 = 15t. Als Lösung
erhalten wir somit eine Gerade durch den Nullpunkt:
2.2 • Der Gauß-Algorithmus
85 2
⎧⎡ ⎤ A ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 A x1 15 ⎪
⎪
⎪ A ⎪
⎪
⎨ ⎢x ⎥ A ⎢ ⎥ ⎢−8⎥ ⎬
⎢ ⎥ A ⎢x2 ⎥ ⎢ ⎥
L = ⎢ 2 ⎥ ∈ R4 A ⎢ ⎥ = t ⎢ 3 ⎥ , t ∈ R .
⎪
⎪ ⎣ x 3 ⎦ A ⎣x3 ⎦ ⎣ 2 ⎦ ⎪
⎪
⎪
⎩ A ⎪
⎭
x4 A x4 1 !
Übung 2.12
• ◦ ◦ Man löse das folgende homogene LGS:
⎧
⎪
⎪ 2x1 + x2 + 5x3 + 5x4 = 0
⎪
⎪
⎪
⎨x − x + 2x − x = 0
1 2 3 4
⎪
⎪ x1 + 2x3 + 3x4 = 0
⎪
⎪
⎪
⎩
2x2 + x3 + 4x4 = 0
v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎪
⎪ 2x1 + x2 + 5x3 + 5x4 =0 (Z1 ) 2 1 5 5 0
⎪
⎨ x − ⎢ ⎥
1 x2 + 2x3 − x4 =0 (Z2 ) ⎢ 1 −1 2 −1 0 ⎥
% [A|b] = ⎢ ⎥.
⎪ x1
⎪
⎪ + 2x3 + 3x4 =0 (Z3 ) ⎣ 1 0 2 3 0 ⎦
⎩
2x2 + x3 + 4x4 =0 (Z3 ) 0 2 1 4 0
⎡ ⎤ ⎡ ⎤ (Z1 )/2 ⎡ ⎤
2 1 5 5 0 2 1 5 5 0 −(Z2 )/31 12 52 52 0
2(Z2 ) − (Z1 ) −(Z3 )
⎢ ⎥ ⎢ ⎥ ⎢0 1 1 7 0⎥
⎢ 1 −1 2 −1 0 ⎥ 2(Z3 ) − (Z1 ) ⎢ 0 −3 −1 −7 0⎥ (Z4 )/2
⎢ ⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ 3 3 ⎥
⎣ 1 0 2 3 0 ⎦ ⎣ 0 −1 −1 1 0⎦ ⎣ 0 1 1 −1 0 ⎦
0 2 1 4 0 0 2 1 4 0 0 1 12 2 0
⎡ 1 5 5
⎤ ⎡ 1 5 5 ⎤
1 2 2 2 0 3 (Z ) 1 2 2 2 0
(Z3 ) − (Z2 ) 2 3 ⎢
⎢ 0⎥
(Z4 ) − (Z2 ) ⎢ 0 1
1 7 1 7 ⎥
⎥ 6(Z4 ) ⎢ 0 1 3 3 0 ⎥
% ⎢ 3 3 ⎥ % ⎢ ⎥
⎣ 0 0 23 − 103 0
⎦ ⎣ 0 0 1 −5 0 ⎦
0 0 16 − 31 0 0 0 1 −2 0
⎡ 1 5 5
⎤ ⎡ ⎤
1 2 2 2 0 1 12 52 52 0
⎢
(Z4 ) − (Z3 ) ⎢ 0 1
1 7 ⎥ (Z )/3 ⎢ 0 1 1 7 0 ⎥
% ⎢ 3 3 0⎥ 4
⎥ % ⎢
⎢ 3 3 ⎥
⎥=Z
⎣0 0 1 −5 0 ⎦ ⎣ 0 0 1 −5 0 ⎦
0 0 0 3 0 0 0 0 1 0
Die Zielmatrix ist vom Typ 1 (Diagonalform). Das LGS hat somit genau eine Lösung.
86 Kapitel 2 • Lineare Gleichungssysteme
> Bemerkung
In den 7 Abschns. 2.3.4 und 3.5.1 werden wir die Theorie der homogenen LGS genauer
anschauen. Im Allgemeinen hat ein homogenes LGS immer die Triviale Lösung = 0.
Das LGS hat eine nichttriviale Lösung ̸= 0 genau dann, wenn det(A) = 0 gilt. Für
die Matrix in Übung 2.12 ist det(A) ̸= 0. Aus diesem Grund ist 0 die einzige Lösung
des LGS.
Übung 2.13
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:
⎧
⎪
⎪x1 + x2 + x3 + 6x4 = 0
⎪
⎪
⎪
⎨x + x + 2x + 8x = 0
1 2 3 4
⎪
⎪ 2x1 + 2x2 + 8x4 = 0
⎪
⎪
⎪
⎩
2x3 + 4x4 + x5 = 0
v Lösung
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎪ x + x2 + x3 + 6x4 =0 (Z1 ) 1 1 1 6 0 0
⎪ 1
⎪
⎨ ⎢
x1 + x2 + 2x3 + 8x4 =0 (Z2 ) ⎢1 1 2 8 0 0⎥⎥
% [A|b] = ⎢ ⎥.
⎪
⎪
⎪ 2x 1 + 2x 2 + 8x 4 = 0 (Z 3 ) ⎣2 2 0 8 0 0⎦
⎩
2x3 + 4x4 + x5 = 0 (Z4 ) 0 0 2 4 1 0
Die Zielmatrix ist vom Typ 2 (Trapezform). Das LGS hat somit unendlich viele Lösungen
mit 2 freien Parametern.
2.2 • Der Gauß-Algorithmus
87 2
Schritt 3 Herauslesen der Lösung aus dem Endschema Z:
⎧
⎪
⎧ ⎪x1 = −t − 4s
⎪
⎪
⎪
⎪
⎪ ⎪
⎨x1 + x2 + x3 + 6x4 = 0
⎪ ⎨x2 = t
⎪
x3 + 2x4 = 0 ⇒ x3 = −2s
⎪
⎪ ⎪
⎪
⎩ ⎪
⎪
x5 = 0 ⎪ x =s
⎪ 4
⎪
⎪
⎩
x5 = 0
Praxistipp
Alle Variablen direkt neben den markierten Elementen sind freie Variablen
x1 x2 x3 x4 x5
1 1 1 6 0 0
0 0 1 2 0 0
0 0 0 0 1 0
0 0 0 0 0 0
↑ ↑
x2 = t, x4 = s freie Variablen.
Übung 2.14
• • ◦ Eine Matrix A ∈ Rn×n heißt magisches Quadrat, wenn alle Zeilen, Spalten und
Diagonalen dieselbe Summe α ergeben. Diese Zahl α heißt magische Summe. Man finde
alle (2 × 2)-magische Quadrate.
v Lösung )
*
ab
Es sei A = . Damit A ein magisches Quadrat ist, müssen alle Zeilen, Spalten und
cd
Diagonalen dieselbe Summe α ergeben, d. h.
88 Kapitel 2 • Lineare Gleichungssysteme
⎧
⎪
⎪a+b=α ⎡ ⎤
⎪
⎪ 1 1 0 0 α
⎪
⎪
⎪
⎪c+d =α ⎢ ⎥
⎪
⎪ ⎢ 0 0 1 1 α ⎥
⎪
⎨a + c = α ⎢ ⎥
⎢ 1 0 1 0 α ⎥
% [A|b] = ⎢
⎢
⎥.
⎥
⎪
⎪
⎪b+d =α ⎢ 0 1 0 1 α ⎥
⎪
⎪ ⎢ ⎥
⎪
⎪a+d =α
⎣ 1 0 0 1 α ⎦
⎪
⎪
⎪
⎪ 0 1 1 0 α
⎩
c+b=α
Wir bekommen somit ein LGS für die Matrixeinträge a, b, c, d. Dies lösen wir mittels
Gauß-Algorithmus.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0 α 1 1 0 0 α 1 1 0 0 α
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 0 0 1 1 α ⎥ ⎢0 0 1 1 α⎥ ⎢0 1 1 0 α⎥
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ ⎢ ⎥
⎢ 1 0 1 0 α ⎥ (Z5 ) − (Z1 ) ⎢0 −1 1 0 0⎥ (Z2 ) ↔ (Z6 ) ⎢0 −1 1 0 0⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥
⎢ 0 1 0 1 α ⎥ ⎢0 1 0 1 α⎥ ⎢0 1 0 1 α⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 1 0 0 1 α ⎦ ⎣0 −1 0 1 0⎦ ⎣0 −1 0 1 0⎦
0 1 1 0 α 0 1 1 0 α 0 0 1 1 α
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0 α 1 1 0 0 α 1 1 0 0 α
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
(Z3 ) + (Z2 ) ⎢0 1 1 0 α⎥ 2(Z4 ) + (Z3 ) ⎢0 1 1 0 α⎥ ⎢0 1 1 0 α⎥
(Z4 ) − (Z2 ) ⎢ ⎥ 2(Z5 ) − (Z3 ) ⎢ ⎥ ⎢ ⎥
(Z5 ) + (Z2 ) ⎢0 0 2 0 α⎥ (Z6 ) − (Z5 ) ⎢0 0 2 0 α⎥ (Z5 ) − (Z4 ) ⎢0 0 2 0 α⎥
% ⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥ = Z.
⎢0 0 −1 1 0⎥ ⎢0 0 0 2 α⎥ ⎢0 0 0 2 α⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0 0 1 1 α⎦ ⎣0 0 0 2 α⎦ ⎣0 0 0 0 0⎦
0 0 1 1 α 0 0 0 0 0 0 0 0 0 0
Die Zielmatrix ist vom Typ 1, d. h., das LGS hat genau eine Lösung. Die Lösung lesen
wir direkt aus dem Endschema Z heraus: a = b = c = d = α2 . Alle (2 × 2)-magische
Quadrate sehen somit wie folgt aus:
) *
α α
A= 2 2 .
α α
2 2 !
Praxistipp
In solchen Situationen geht man gemäß Kochrezept 2.1 vor. Im Schritt 2 muss man
aufpassen, dass man keine Zeile mit Null multipliziert. Wenn es vorkommt, dass für
einige spezifische Werte des Parameters mit Null multipliziert wird, kann man diese
Spezialfälle mit einer Fallunterscheidung separat untersuchen.
2.2 • Der Gauß-Algorithmus
89 2
Übung 2.15
• ◦ ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat:
⎧
⎨2x + 4x = −2a
1 2
⎩x + (a + 2)x = 1 − a
1 2
v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
$ ) *
2x1 + 4x2 = −2a (Z1 ) 2 4 −2a
% [A|b] = .
x1 + (a + 2)x2 = 1 − a (Z2 ) 1 a+2 1−a
Wir stellen fest, dass je nach Wert von a, die Zielmatrix entweder vom Typ 1 (Drei-
ecksform, wenn a ̸= 0) oder vom Typ 3 (wenn a = 0) ist. Wir führen somit eine
Fallunterscheidung durch:
5 Fall a = 0: In diesem Fall ist die Zielmatrix vom Typ 3
) *
120
Z= .
001
? @
Das LGS hat somit keine Lösung, d. h. L = .
5 Fall a ̸= 0: In diesem Fall ist die Zielmatrix vom Typ 1. Das LGS hat somit genau
eine Lösung:
⎧ ⎧ $) *E
⎨x + 2x = −a ⎨x = −a − 2 2
1 2 1 a − a a+2
⇒ ⇒ L= 1
.
⎩ax = 1 ⎩x = 1
2 2 a a !
> Bemerkung
In Übung 2.15 ist der dritte Fall (unendlich viele Lösungen) nicht möglich, weil die
zweite Komponente = 1 ist, also verschieden von Null!
90 Kapitel 2 • Lineare Gleichungssysteme
Übung 2.16
• ◦ ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat
⎧
⎨x + a2 x = 1
1 2
⎩a2 x + x = a
1 2
v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
$ % &
x1 + a2 x2 = 1 (Z1 ) 1 a2 1
2
! [A|b] = .
a x1 + x2 = a (Z2 ) a2 1 a
Je nach Wert von a ist die Zielmatrix entweder vom Typ 1 (wenn 1−a4 ̸= 0), Typ 2 (wenn
1−a4 = 0 und a−a2 = 0) oder vom Typ 3 (wenn 1−a4 = 0 und a−a2 ̸= 0). Wir machen
somit diverse Fallunterscheidungen. Mit der Gleichung 1 − a4 = (1 − a2 )(1 + a2 ) =
(1 − a)(1 + a)(1 + a2 ) erhalten wir:
% &
1 a2 1
Z= .
0 (1 − a)(1 + a)(1 + a2 ) a(1 − a)
Das LGS hat somit unendlich viele Lösungen mit einem freien Parameter. Wir setzen
x2 = t und mithilfe der ersten Gleichung im Endschema erhalten wir x1 = 1 − x2 =
1 − t. Als Lösung erhalten wir eine Gerade:
$% & '% & % & % & (
' x
x1 ' 1 1 −1
L= ∈ R2 ' = +t ,t∈R .
x2 ' x2 0 1
a b
c d
. Abb. 2.7 Grafische Darstellung der Lösung von Übung 2.16 in Abhängigkeit des Parameters a
92 Kapitel 2 • Lineare Gleichungssysteme
Übung 2.17
• ◦ ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat
⎧
⎪
⎨2x1 + 4x2 + ax3 = 5
⎪
3x1 + (a + 5)x2 + x3 = 7
⎪
⎪
⎩
x1 + 2x2 + ax3 = 3
v Lösung
Schritt 1 Wir stellen zuerst die erweiterte Matrix [A|E] auf:
⎧ ⎡ ⎤
⎨ 2x1 +
⎪ 4x2 + ax3 = 5 (Z1 ) 2 4 a 5
⎢ ⎥
3x1 + (a + 5)x2 + x3 = 7 (Z2 ) ! [A|b] = ⎣ 3 a + 5 1 7 ⎦ .
⎪
⎩
x1 + 2x2 + ax3 = 3 (Z3 ) 1 2 a 3
Das LGS hat offensichtlich unendlich viele Lösungen mit dem freien Parameter t:
⎧
⎧ ⎪ 5 1
⎨x + 2x + 1 x = 5 ⎨x1 = 2 − 2x2 − 2 x3 = 2 − 2t
⎪
1 2 2 3 2 ⇒ x2 = t
⎩x = 1 ⎪
⎪
3 ⎩
x3 = 1
2.2 • Der Gauß-Algorithmus
93 2
Als Lösung erhalten wir eine Gerade im dreidimensionalen Raum R3 :
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 2
⎨ x1
⎪ ' 1 −2 ⎪
⎬
⎢ ⎥ 3' ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R ' ⎣x2 ⎦ = ⎣0⎦ + t ⎣ 1 ⎦ , t ∈ R .
⎪
⎩ ' ⎪
⎭
x3 ' x3 1 0
5 Fall a ̸= 0, 1: Die Zielmatrix ist vom Typ 1 (Diagonalform) und das LGS hat genau
eine Lösung:
⎧ ⎧
5 2(a−1)
⎪
⎪ x + 2x2 + a2 x3 = 52 ⎪
⎪x1 = 2 − 2x2 − a2 x3 =
⎨ 1
⎪ 5 6 ⎪
⎨ 5 6 a
1− 3a 1
2 x3 + 2
(a − 1)x2 + 1 − 3a x3 = − 12 ⇒ 1
⎪
⎪
2 ⎪x2 = −
⎪ a−1 = a
⎪
⎩ax = 1 ⎪
⎩
2 3 2 x3 = 1a
⎧ ⎡ ⎤⎫
⎪
⎨ 2(a − 1) ⎪⎬
⎢ ⎥
Als Lösung erhalten wir den einzigen Vektor L = 1a ⎣ 1 ⎦ . "
⎪
⎩ ⎪
⎭
1
Übung 2.18
• ◦ ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat
⎧
⎪
⎨x1 + x3 = 0
⎪
x1 + a x2 + (a + 1)x3 = 2a
⎪
⎪
⎩
3x1 + a x2 + (a + 3)x3 = 2a
v Lösung
Wir gehen nach unserem bekannten Kochrezept 2.1 vor.
Schritt 1 Als Erstes ordnen wir dem Gleichungssystem die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ x1
⎪ + x3 = 0 (Z1 ) 1 0 1 0
⎢ ⎥
x1 + a x2 + (a + 1)x3 = 2a (Z2 ) ! [A|b] = ⎣ 1 a a + 1 2a ⎦ .
⎪
⎩
3x1 + a x2 + (a + 3)x3 = 2a (Z3 ) 3 a a + 3 2a
Das LGS hat somit unendlich viele Lösungen mit zwei freien Parametern. Die
Variable x2 ist frei wählbar, genauso wie x3 . Setzen wir x3 = t und x2 = s, so
erhalten wir aus der ersten Gleichung x1 = −x3 = −t. Als Lösung erhalten wir
eine Ebene durch den Nullpunkt:
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0
⎨ x1
⎪ ' 1 −1 ⎪
⎬
⎢ ⎥ 3' ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R ' ⎣x2 ⎦ = t ⎣ 0 ⎦ + s ⎣1⎦ , t, s ∈ R .
⎪
⎩ ' ⎪
⎭
x3 ' x3 1 0
Das LGS hat somit unendlich viele Lösungen mit einem freien Parameter. Setzen
wir x3 = t, so folgt aus der zweiten Gleichung x2 = 2 − x3 = 2 − t. Aus der ersten
Gleichung folgt x1 = −x3 = −t. Als Lösung erhalten wir eine (affine) Gerade durch
[0, 2, 0]T :
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0
⎨ x1
⎪ ' 1 −1 ⎪
⎬
⎢ ⎥ 3' ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R ' ⎣x2 ⎦ = ⎣2⎦ + t ⎣−1⎦ , t ∈ R .
⎪
⎩ ' ⎪
⎭
x3 ' x3 0 1 "
Übung 2.19
• • ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat
⎧
⎪
⎨x1 + ax2 + 3x3 = a
⎪
x1 + (a − 2)x2 + (2a + 3)x3 = −a2
⎪
⎪
⎩
x2 − ax3 = 1
2.2 • Der Gauß-Algorithmus
95 2
v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 +
⎪ ax2 + 3x3 = a (Z1 ) 1 a 3 a
⎢ ⎥
x1 + (a − 2)x2 + (2a + 3)x3 = −a2 (Z2 ) ! [A|b] = ⎣ 1 a − 2 2a + 3 −a2 ⎦ .
⎪
⎩
x2 − ax3 = 1 (Z3 ) 0 1 −a 1
Das LGS hat bekanntlich unendlich viele Lösungen mit einem freien Parameter t.
Setzen wir x3 = t, so erhalten wir aus der zweiten Gleichung x2 = 1 + x3 = 1 + t.
Aus der ersten Gleichung folgt x1 = 1 − x2 − 3x3 = −4t. Als Lösung erhalten wir:
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0
⎨ x1
⎪ ' 1 −4 ⎪
⎬
⎢ ⎥ 3' ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R ' ⎣x2 ⎦ = ⎣1⎦ + t ⎣ 1 ⎦ , t ∈ R .
⎪
⎩ ' ⎪
⎭
x3 ' x3 0 1
5 Fall a = −2: in diesem Fall, ist die Zielmatrix vom Typ 2 (Trapezform)
⎡ ⎤
1 −2 3 −2
⎢ ⎥
Z = ⎣0 1 2 1 ⎦.
0 0 0 0
Das LGS hat ebenso unendlich viele Lösungen mit einem freien Parameter. Wir
setzen x3 = t als freien Parameter. Es folgt x2 = 1 − 2x3 = 1 − 2t und x1 =
−2 + 2x2 − 3x3 = −7t. Als Lösung erhalten wir:
96 Kapitel 2 • Lineare Gleichungssysteme
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0
⎨ x1
⎪ ' 1 −7 ⎪
⎬
⎢ ⎥ '⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R3 ' ⎣x2 ⎦ = ⎣1⎦ + t ⎣−2⎦ , t ∈ R .
⎪
⎩ ' ⎪
⎭
x3 ' x3 0 1
) *
5 Fall a ̸= 1, −2: Die Zielmatrix ist vom Typ 3. Das LGS hat keine Lösung, L = .
"
Übung 2.20
••◦
⎧
⎪ 2
⎨kx1 + kx2 + k x3 = 4
⎪
x1 + x2 + kx3 = k
⎪
⎪
⎩
x1 + 2x2 + 3x3 = 2k
Für welche Werte von k ∈ R hat das LGS eine eindeutige Lösung, unendlich viele
Lösungen oder keine Lösung? Man bestimme gegebenfalls konkret die Lösung(en).
v Lösung
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
2 k k k2 4
⎨ kx1 + kx2 + k x3 = 4
⎪ (Z1 )
⎢ ⎥
x1 + x2 + kx3 = k (Z2 ) ! [A|b] = ⎣ 1 1 k k ⎦ .
⎪
⎩
x1 + 2x2 + 3x3 = 2k (Z3 ) 1 2 3 2k
Das LGS hat somit unendlich viele Lösungen mit einem freien Parameter. Setzen wir
x3 = t, so erhalten wir:
2.2 • Der Gauß-Algorithmus
97 2
⎧ ⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎨x1 = 4 − 2x2 − 3x3 = −t
⎪ ⎨ x1 ' x1
' 0 −1 ⎬
⎣ ⎦ 3' ⎣ ⎦ ⎣ ⎦ ⎣ ⎦
x2 = 2 − x3 = 2 − t ⇒L= x2 ∈ R ' x2 = 2 + t −1 , t ∈ R .
⎪
⎩ ⎩ ' x ⎭
x3 = t x3 3 0 1
⎡ ⎤
1 2 3 −4
Z = ⎣ 0 −1 −5 2 ⎦ .
0 0 0 0
Das LGS hat somit unendlich viele Lösungen mit einem freien Parameter x3 = t:
⎧
⎪
⎨x1 = −4 − 2x2 − 3x3 = 7t
⎪
x2 = −2 − 5x3 = −2 − 5t
⎪
⎪
⎩
x3 = t
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0 7
⎨ x1
⎪ ' 1 ⎪
⎬
⎢ ⎥ '⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⇒ L = ⎣x2 ⎦ ∈ R3 ' ⎣x2 ⎦ = ⎣−2⎦ + t ⎣−5⎦ , t ∈ R .
⎪
⎩ ' ⎪
⎭
x3 ' x3 0 1
) *
5 Fall k ̸= ±2: Die Zielmatrix ist vom Typ 3. Das LGS hat keine Lösung, L = .
"
> Bemerkung
In Übung 2.20 ist es wichtig, dass wir zuerst die erste Zeile mit der dritten Zeile
vertauschen. Wenn wir diese Operation nicht durchführen würden, wären Operationen
wie k(Z2 ) − (Z1 ) oder k(Z3 ) − (Z1 ) nötig, um den ersten Schritt des Gauß-Algorithmus
durchzuführen. Wie im Kochrezept 2.1 erklärt, sind diese Operationen für k = 0 nicht
erlaubt!
i Merkregel
Im Allgemeinen muss man aufpassen, wenn ein Parameter als Pivotelement vorkommt.
In einem solchen Fall ist es oft eine gute Idee, Zeilen zu vertauschen. Alternativ kann
man problematische Situationen separat mit einer Fallunterscheidung betrachten.
Übung 2.21
••◦
⎧
⎪
⎨x1 + x2 = 1
⎪
kx1 + x2 + x3 = 1 − k
⎪
⎪
⎩
x2 + (1 − k)x3 = 1
98 Kapitel 2 • Lineare Gleichungssysteme
Für welche Werte von k ∈ R hat das LGS genau eine Lösung, unendlich viele Lösungen
oder keine Lösung? Man bestimme gegebenfalls die Lösung(en).
v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 + x2
⎪ =1 (Z1 ) 1 1 0 1
⎢ ⎥
kx1 + x2 + x3 = 1 − k (Z2 ) ! [A|b] = ⎣ k 1 1 1 − k ⎦ .
⎪
⎩
x2 + (1 − k)x3 = 1 (Z3 ) 0 1 1−k 1
Wegen −k2 + 2k = −k(k − 2), machen wir die nötigen Fallunterscheidungen zwischen
(1) k = 0, (2) k = 2 und (3) k ̸= 0, 2:
5 Fall k = 0: Die Zielmatrix ist vom Typ 2 (Trapezform):
⎡ ⎤
1101
⎢ ⎥
Z = ⎣0 1 1 1⎦.
0000
Das LGS hat unendlich viele Lösungen mit einem freien Parameter t:
⎧
⎧ ⎪
⎨x + x = 1 ⎨x1 = t
⎪
1 2
⇒ x2 = 1 − t
⎩x + x = 1 ⎪
⎪
2 3 ⎩
x3 = t
> Bemerkung
Auch in Übung 2.21 ist es wichtig, dass wir beim zweiten Schritt des Gauß-Algorithmus
die zweite und dritte Zeile vertauschen. Ohne diese Transformation müssten wir die
Operation (1 − k)(Z3 ) − (Z2 ) anwenden, was wegen k = 1 nicht erlaubt ist. Alternativ
könnte man mit dem Gauß-Algorithmus weiter verfahren, ohne Zeilen zu vertauschen,
und den Spezialfall k = 1 separat betrachten.
Übung 2.22
••◦
⎧
⎪
⎪ x1 + 2x4 = 1
⎪
⎪
⎪
⎨x + x + 3x + 2x = 1
1 2 3 4
⎪2x + x + (k + 2)x + 4x = 2
⎪
⎪ 1 2 3 4
⎪
⎪
⎩
x1 + x2 + 3x3 + (k2 − k + 2)x4 = k
Für welche Werte von k ∈ R hat das LGS eine eindeutige Lösung, unendlich viele
Lösungen oder keine Lösung? Man bestimme die konkreten Lösung(en).
v Lösung
Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:
⎧
⎪
⎪ x1 + 2x4 =1 (Z1 )
⎪
⎨ x + x +
1 2 3x3 + 2x4 =1 (Z2 )
⎪
⎪
⎪ 2x1 + x2 + (k + 2)x3 + 4x4 =2 (Z3 )
⎩
x1 + x2 + 3x3 + (k2 − k + 2)x4 =k (Z4 )
100 Kapitel 2 • Lineare Gleichungssysteme
⎡ ⎤
1 0 0 2 1
⎢1
⎢ 1 3 2 1⎥⎥
! [A|b] = ⎢ ⎥.
⎣2 1 k+2 4 2⎦
1 1 3 k2 − k + 2 k
Das LGS hat unendlich viele Lösungen mit zwei freien Parametern, z. B. t, s:
⎧
⎪ = 1 − 2t
⎧ ⎪x1
⎪
⎪
⎨x + 2x = 1 ⎪
⎨x
1 4 2 = −3s
⇒
⎩x + 3x = 0 ⎪
⎪ x3 =s
2 3 ⎪
⎪
⎪
⎩
x4 =t
5 Fall k ̸= 0, 1: Die Zielmatrix vom Typ 1 (Diagonalform). Das LGS hat genau eine
Lösung:
⎧ ⎧
⎪ ⎪ k−2 ⎧ ⎡ ⎤⎫
⎪x1 + 2x4 = 1
⎪
⎪ ⎪x1
⎪
⎪
= k ⎪
⎪ k−2 ⎪
⎪
⎪
⎨x + 3x = 0 ⎪
⎨x ⎨ 1 ⎢ 0 ⎥⎪
⎪ ⎬
2 3 2 =0 ⎢ ⎥
⇒ ⇒ L= ⎢ ⎥ .
⎪
⎪(k − 1)x3 = 0 ⎪
⎪ x3 =0 ⎪
⎪ k ⎣ 0 ⎦⎪⎪
⎪
⎪ ⎪
⎪ ⎪
⎩ ⎪
⎭
⎪
⎩ ⎪
⎩ 1 1
k(k − 1)x4 = k − 1 x4 = k "
Im Folgenden betrachten wir Beispiele von LGS auf beliebigen Körpern K. Es ist
wichtig, dass der Leser sich mit solchen Konzepten vertraut macht (vgl. Anhang B.3).
Übung 2.23
• • ◦ Man betrachte das folgende LGS auf K = C
⎧
⎨z + iz = 2 − i
1 2
⎩iz + z = 0
1 2
v Lösung
a) Wir gehen nach dem Kochrezept 2.1 vor, aber führen alle Rechnungen in C durch!
Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:
$ % &
z1 + iz2 = 2 − i (Z1 ) 1 i 2−i
! [A|b] = .
iz1 + z2 = 0 (Z2 ) i 1 0
Die Zielmatrix ist vom Typ 1 (Dreiecksform). Das LGS hat somit genau eine
Lösung.
102 Kapitel 2 • Lineare Gleichungssysteme
Schritt 3 Herauslesen der Lösung direkt aus dem Endschema Z (durch Rückwärts
auflösen):
⎧ ⎧
⎨z + iz = 2 − i ⎨z = 2 − i − iz = 1 − i
1 2 1 2 2
⇒
⎩2z = −1 − 2i ⎩z = − 1 − i
2 2 2
Diese Lösung ist äquivalent zur Lösung von Teilaufgabe (a), weil z1 = x1 + iy1 =
1 − 2i und z2 = x2 + iy2 = − 12 − i. "
2.2 • Der Gauß-Algorithmus
103 2
Übung 2.24
• • ◦ Man löse das folgende LGS auf K = Z5
⎧
⎨3x + 4x = 501 (mod 5)
1 2
⎩x + 3x = 17 (mod 5)
1 2
v Lösung
Wir gehen wie üblich vor, aber führen alle Rechnungen in Z5 durch (vgl. Anhang B.4).
In Z5 gilt 501 = 1 und 17 = 2. Somit müssen wir das LGS
$ % &
3x1 + 4x2 = 1 (Z1 ) 3 4 1
! [A|b] = .
x1 + 3x2 = 2 (Z2 ) 1 3 2
Hier haben wir die Tatsache benutzt, dass in Z5 5 = 0 gilt. Das LGS hat somit unendlich
viele Lösungen mit einem freien Parameter (in Z5 ). Setzen wir x2 = t ∈ Z5 als freien
Parameter, so erhalten wir mit den Rechenregeln in Z5 :
> Bemerkung
Auf Z5 gilt 3−1 = 2 weil 2 · 3 = 6 = 1. Außerdem ist −4 = 1
a b
. Abb. 2.8 Grundprinzip für inhomogene LGS. Die allgemeine Lösung eines inhomogenen LGS ist
gleich der Lösung des zugehörigen homogenen Problems xHomo , welche von einer partikulären Lösung xp
verschoben wird. (a) Wenn die homogene Lösung eine Gerade durch den Nullpunkt ist, dann beschreibt
die allgemeine Lösung des inhomogenen LGS eine parallele Gerade durch den Punkt xp . (b) Ist die
Lösungsmenge des homogenen Problems eine Ebene durch den Nullpunkt, so ist die allgemeine Lösung
des inhomogenen Problems eine Ebene, welche xp enthält
x
789: = xHomo + xp (2.14)
7 89 : 789:
Gesamtlösung allgemeine Lösung partikuläre Lösung
des homogenen des inhomogenen
Problems Problems
wobei xHomo die allgemeine Lösung des zugehörigen homogenen LGS (d. h. Ax =
0) und xp eine partikuläre Lösung des inhomogenen Problems ist. Das Lösen von
inhomogenen LGS erfolgt zuerst durch die Lösung des zugehörigen homogenen
Problems und anschließend durch die Suche einer partikulären Lösung, welche das
inhomogene LGS erfüllt (. Abb. 2.8).
# Beispiel
Man betrachte das inhomogene LGS
⎧ ⎡ ⎤
⎨x + x + x = 2 1112
1 2 3 ⎢ ⎥
! [A|b] = ⎣ 0 1 2 1 ⎦ .
⎩x + 2x = 1
2 3 0000
Für die Lösung dieses LGS benutzen wir den Grundsatz 2.2.8, d. h. x = xHomo + xp . Es
wird also zuerst die Lösung des zugehörigen homogenen LGS gefunden. Das zugehörige
homogene LGS lautet
⎧ ⎡ ⎤
⎨x + x + x = 0 1110
1 2 3 ⎢ ⎥
! [A|0] = ⎣ 0 1 2 0 ⎦ .
⎩x + 2x = 0
2 3 0000
2.2 • Der Gauß-Algorithmus
105 2
Die Lösung des homogenen Problems ist
⎡ ⎤
1
⎢ ⎥
xHomo = t ⎣−2⎦ , t ∈ R.
1
Dann wird eine partikuläre Lösung des inhomogenen LGS gesucht. Eine Möglichkeit
für das Aufsuchen einer partikulären Lösung ist einfach zu erraten. Wir probieren einige
Zahlen aus und stellen fest, dass eine Lösung
⎡ ⎤
1
⎢ ⎥
xp = ⎣1⎦
0
> Bemerkung
Für die partikuläre Lösung xp gibt es natürlich mehrere Möglichkeiten. In unserem
; 2 <
Fall hätten wir beispielsweise auch xp = −1 als eine mögliche partikuläre Lösung
1
wählen können.
Übung 2.25
• ◦ ◦ Es sei Ax = b ein inhomogenes LGS mit partikulärer Lösung xp . Man zeige, dass
die allgemeine Lösung des inhomogenen LGS Ax = b durch x = xHomo + xp gegeben
ist, wobei xHomo die allgemeine Lösung des zugehörigen homogenen LGS Ax = 0 ist.
v Lösung
xp ist eine partikuläre Lösung von Ax = b ⇒ Axp = b. Analog ist xHomo die allgemeine
Lösung des zugehörigen homogenen LGS Ax = 0 ⇒ AxHomo = 0. Daraus folgt:
= >
Ax = A xHomo + xp = AxHomo + Axp = 0 + b = b.
7 89 : 789:
=0 =b
Übung 2.26
• ◦ ◦ Man bestimme die allgemeine Lösung des folgenden inhomogenen LGS
⎧
⎨x + x = 0
1 3
.
⎩x − 2x = 1
2 3
v Lösung
Wir betrachten zuerst das zugehörige homogene LGS
⎧ ⎡ ⎤
⎨x + x = 0 10 1 0
1 3 ⎢ ⎥
! [A|0] = ⎣ 0 1 −2 0 ⎦ .
⎩x − 2x = 0
2 3 00 0 0
Dann suchen wir eine partikuläre Lösung ; 0 < des inhomogenen LGS. Nach einigem
Ausprobieren stellen wir fest, dass xp = 1 eine Lösung ist. Die Gesamtlösung des
0
inhomogenen LGS ist
⎡ ⎤ ⎡ ⎤
−1 0
⎢ ⎥ ⎢ ⎥
x = xHomo + xp = t ⎣ 2 ⎦ + ⎣1⎦ , t ∈ R.
1 0
7 89 : 789:
homogene partikuläre
Lösung Lösung "
2.3 Rang
Ein wichtiger Begriff beim Lösen eines LGS ist der Rang einer Matrix. In diesem
Abschnitt werden wir den Rang einer Matrix vorerst einmal einführen; eine genauere
Definition dieses Begriffes werden wir später im 7 Abschn. 8.1.4 vornehmen.
2.3.1 Definition
Es sei A ∈ Km×n eine (m × n)-Matrix. Den Rang von A (bezeichnet mit Rang(A))
definiert man wie folgt:
2.3 • Rang
107 2
# Definition 2.1
Es sei Z die bereits definierte Zielmatrix einer durch den Gauß-Algorithmus reduzierte
Matrix A. Dann ist:
Rang(A) = Rang(Z)
= Anzahl von Null verschiedenen Zeilen in der Zielmatrix Z. $
2.3.2 Berechnung
Praxistipp
In der Praxis, um den Rang der Matrix A zu bestimmen, bringt man zuerst mittels
Gauß-Algorithmus die Matrix A in Zeilenstufenform Z. Der Rang von A entspricht
dann der Anzahl der Zeilenvektoren von Z, die ungleich Null sind.
⎡ ⎤
1 −1 1
Man betrachte A = ⎣0 0 1⎦ . Mittels des Gauß-Algorithmus erzeugen wir die Zielma-
1 −1 0
trix Z
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −1 1 1 −1 1 1 −1 1
(Z ) − (Z ) (Z ) + (Z )
⎣0 0 1⎦ 3 ! 1 ⎣0 0 1 ⎦ 3 ! 2 ⎣0 0 1⎦ = Z.
1 −1 0 0 0 −1 0 0 0
Die Zielmatrix Z besteht aus genau 2 Zeilen ̸= [0, 0, 0]. Somit nach Definition:
Rang(A) = 2.
Übung 2.27
◦ ◦ ◦ Man bestimme den Rang der folgenden Matrix
⎡ ⎤
1 −2 −3
⎢ ⎥
⎢3 0 3⎥
⎢ ⎥
A=⎢
⎢7 −3 1⎥⎥.
⎢ ⎥
⎣2 1 4⎦
1 −2 −3
v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −2 −3 (Z2 ) − 3(Z1 ) 1 −2 −3 1 −2 −3
⎢ ⎥ (Z3 ) − 7(Z1 ) ⎢ ⎥ (Z2 )/6 ⎢ ⎥
⎢3 0 3⎥ (Z4 ) − 2(Z1 ) ⎢0 6 12 ⎥ (Z3 )/11 ⎢0 1 2⎥
⎢ ⎥ (Z5 ) − (Z1 ) ⎢ ⎥ (Z4 )/5 ⎢ ⎥
⎢7 −3 1⎥ ! ⎢0 11 22 ⎥ ! ⎢0 1 2⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣2 1 4⎦ ⎣0 5 10 ⎦ ⎣0 1 2⎦
1 −2 −3 0 0 0 0 0 0
⎡ ⎤
1 −2 −3
⎢ ⎥
(Z3 ) − (Z2 ) ⎢0 1 2⎥
(Z4 ) − (Z2 ) ⎢ ⎥
! ⎢0 0⎥
⎢ 0 ⎥ = Z.
⎢ ⎥
⎣0 0 0⎦
0 0 0
Die Zielmatrix Z besteht aus genau 2 Zeilen ̸= [0, 0, 0]. Somit Rang(A) = 2. "
Übung 2.28
◦ ◦ ◦ Man berechne den Rang der folgenden Matrix
⎡ ⎤
1 3 7 2 1
⎢ ⎥
A = ⎣−2 0 −3 1 −2⎦ .
−3 3 1 4 −3
v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 3 7 2 1 (Z2 ) + 2(Z1 ) 1 3 7 2 1 1 3 7 2 1
⎢ ⎥ (Z3 ) + 3(Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⎣−2 0 −3 1 −2⎦ ! ⎣0 6 11 5 0⎦ ! ⎣0 6 11 5 0⎦ = Z.
−3 3 1 4 −3 0 12 22 10 0 0 0 0 0 0
Die Zielmatrix Z besteht aus genau 2 Zeilen ̸= [0, 0, 0, 0, 0]. Somit Rang(A) = 2. "
2.3 • Rang
109 2
Übung 2.29
◦ ◦ ◦ Man berechne den Rang der folgenden Matrix
⎡ ⎤
1 0 2
⎢−1
⎢ 2 −3⎥⎥
A=⎢ ⎥.
⎣1 3 1⎦
1 −1 −1
v Lösung
Wir erzeugen die Zielmatrix Z mit dem Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 2 (Z2 ) + (Z1 ) 1 0 2 1 0 2
(Z3 ) − (Z1 ) 2(Z3 ) − 3(Z2 )
⎢−1 −3⎥ ⎢0 −1⎥ ⎢0
⎢ 2 ⎥ (Z4 ) − (Z1 ) ⎢ 2 ⎥ 2(Z4 ) + (Z2 ) ⎢ 2 −1⎥⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥
⎣1 3 1⎦ ⎣0 3 −1⎦ ⎣0 0 1⎦
1 −1 −1 0 −1 −3 0 0 −7
⎡ ⎤
1 0 2
⎢
(Z4 ) + 7(Z3 ) ⎢0 2 −1⎥⎥
! ⎢ ⎥ = Z.
⎣0 0 1⎦
0 0 0
Die Zielmatrix Z besteht aus genau 3 Zeilen ̸= [0, 0, 0]. Somit beträgt Rang(A) = 3. "
Übung 2.30
• ◦ ◦ Man betrachte die folgenden Matrizen
⎡ ⎤
% & 1201
11 1 ⎢ ⎥
A= , B = ⎣0 1 1 1⎦ .
2 0 −1
1312
v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z für A:
% & % &
1 1 1 (Z2 ) − 2(Z1 ) 1 1 1
! =Z ⇒ Rang(A) = 2.
2 0 −1 0 −2 −3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 1 1 2 0 1 1 2 0 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣0 1 1 1⎦ ! ⎣0 1 1 1⎦ ! ⎣0 1 1 1⎦ = Z ⇒ Rang(B) = 2.
1 3 1 2 0 1 1 1 0 0 0 0
Übung 2.31
• ◦ ◦ Man bestimme den Rang der folgenden Matrix in Abhängigkeit des Parameters
k∈R
⎡ ⎤
1 −4 0
⎢ ⎥
A = ⎣0 k + 1 −1 ⎦ .
0 0 k−2
v Lösung
Die gegebene Matrix ist bereits in Zeilenstufenform. Wir machen somit folgende
Fallunterscheidungen:
5 Fall k ̸= −1, 2: Die Zielmatrix hat 3 Zeilen ̸= [0, 0, 0]. Somit Rang(A) = 3.
? @
1 −4 0
5 Fall k = 2: Z = 0 3 −1 hat 2 Zeilen ̸= [0, 0, 0]. Ssomit Rang(A) = 2.
0 0 0
5 Fall k = −1: Die Zielmatrix lautet:
⎡ ⎤ ⎡ ⎤
1 −4 0 1 −4 0
⎢ ⎥ (Z3 ) − 3(Z2 ) ⎢ ⎥
⎣0 0 −1⎦ ! ⎣0 0 −1⎦ = Z.
0 0 −3 0 0 0
Die Zielmatrix besteht somit aus 2 Zeilen ̸= [0, 0, 0], d. h. Rang(A) = 2. "
2.3 • Rang
111 2
Übung 2.32
• ◦ ◦ Man bestimme den Rang der folgenden Matrix in Abhängigkeit von k ∈ R
⎡ ⎤
−1 3 0
⎢ ⎥
A = ⎣ 1 2 −1 ⎦ .
0 0 2k + 1
v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤
−1 3 0 −1 3 0
⎢ ⎥ (Z2 ) + (Z1 ) ⎢ ⎥
⎣ 1 2 −1 ⎦ ! ⎣ 0 5 −1 ⎦ = Z.
0 0 2k + 1 0 0 2k + 1
Übung 2.33
• ◦ ◦ Man bestimme den Rang der Matrix in Abhängigkeit von k ∈ R
⎡ ⎤
−1 3 0 1
⎢ ⎥
A = ⎣ 1 2 −1 0⎦ .
0 5 k+2 k
v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−1 3 0 1 −1 3 0 1 −1 3 0 1
⎢ ⎥ (Z2 ) + (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣ 1 2 −1 0⎦ ! ⎣ 0 5 −1 1⎦ ! ⎣ 0 5 −1 1 ⎦ = Z.
0 5 k+2 k 0 5 k+2 k 0 0 k+3 k−1
Die Zielmatrix besteht immer aus 3 Zeilen ̸= [0, 0, 0, 0], weil die Einträge k + 3 und
k − 1 nie gleichzeitig Null sind. Daraus folgt Rang(A) = 3 für alle k ∈ R. "
112 Kapitel 2 • Lineare Gleichungssysteme
Übung 2.34
• • ◦ Man bestimme den Rang der folgenden Matrix in Abhängigkeit des Parameters
k∈R
⎡ ⎤
1 −4 2
⎢ 0 k + 1 −1 ⎥
⎢ ⎥
A=⎢ ⎥.
⎣−1 4 k − 5⎦
2 −8 k + 4
v Lösung
Mit dem Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤
1 −4 2 1 −4 2
(Z3 ) + (Z1 )
⎢ 0 k + 1 −1 ⎥ (Z4 ) − 2(Z1 )
⎢0 k + 1 −1 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ! ⎢ ⎥ = Z.
⎣−1 4 k − 5⎦ ⎣0 0 k − 3⎦
2 −8 k + 4 0 0 k
> Bemerkung
In Übung 2.34 beachte, dass die Zeilenoperation (k − 3)(Z4 ) − k(Z3 ) für k ̸= 3 erlaubt
ist (vgl. Kochrezept 2.1).
2.3 • Rang
113 2
Übung 2.35
• ◦ ◦ Man bestimme den Rang der folgenden Matrix in Abhängigkeit des Parameters
k∈R
⎡ ⎤
103 k
⎢ ⎥
A = ⎣2 1 2 k + 1⎦ .
k0k 0
v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤
1 0 3 k (Z2 ) − 2(Z1 ) 1 0 3 k
⎢ ⎥ (Z3 ) − k(Z1 ) ⎢ ⎥
⎣2 1 2 k + 1⎦ ! ⎣0 1 −4 1 − k⎦ = Z.
k 0 k 0 0 0 −2k −k2
Übung 2.36 ⎡ ⎤
1 1 1 −1
⎢ ⎥
• • ◦ Es sei A = ⎣1 1 0 0 ⎦ .
001 1
a) Man bestimme den Rang von A über dem Körper R.
b) Man bestimme den Rang von A über dem Körper Z2 .
v Lösung
a) Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 −1 1 1 1 −1 1 1 1 −1
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) + (Z2 ) ⎢ ⎥
⎣1 1 0 0 ⎦ ! ⎣0 0 −1 1 ⎦ ! ⎣0 0 −1 1 ⎦ = Z.
0 0 1 1 0 0 1 1 0 0 0 2
b) Wir gehen wie in Teilaufgabe (a) vor, aber führen alle Rechnungen in Z2 durch, wo
−1 = 1 gilt:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 −1 1 1 1 1 1 1 1 1 1 1 1 1
⎢ ⎥ ⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ ⎢ ⎥
⎣1 1 0 0 ⎦ = ⎣1 1 0 0⎦ ! ⎣0 0 −1 −1⎦ = ⎣0 0 1 1⎦
0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
114 Kapitel 2 • Lineare Gleichungssysteme
⎡ ⎤
1 1 1 1
(Z3 ) − (Z2 ) ⎢ ⎥
! ⎣0 0 1 1⎦ = Z.
0 0 0 0
Die Zielmatrix besteht in diesem Fall aus 2 Zeilen ̸= [0, 0, 0, 0]. Somit Rang(A) = 2.
"
Übung 2.37
⎡ ⎤
12 0 −5
⎢0 1 2
⎢ 0 ⎥ ⎥
• • • Es sei A = ⎢ ⎥.
⎣0 0 a + 1 −2 ⎦
0 0 0 a2 + 3a
a) Man bestimme den Rang von A über R in Abhängigkeit von a ∈ R.
b) Man bestimme den Rang von A über Z2 in Abhängigkeit von a ∈ Z2 .
v Lösung
a) Die vorgegebene Matrix ist bereits in Zeilenstufenform. Wir machen eine Fallun-
terscheidung:
5 a + 1 = 0 ⇒ a = −1. In diesem Fall lautet A wie folgt
⎡ ⎤ ⎡ ⎤
1 2 0 −5 1 2 0 −5
⎢0 0⎥ ⎢0
⎢ 1 2 ⎥ (Z4 ) − (Z3 ) ⎢ 1 2 0⎥ ⎥
A=⎢ ⎥ ! ⎢ ⎥ = Z ⇒ Rang(A) = 3.
⎣0 0 0 −2⎦ ⎣0 0 0 −2⎦
0 0 0 −2 0 0 0 0
Der Begriff des Ranges einer Matrix findet wichtige Anwendungen bei der Lösung
eines LGS. Eine solche Anwendung ist der Satz von Rouché-Capelli.
Mithilfe des Gauß-Algorithmus können wir den Rang von A und [A|b] bestimmen.
In Abhängigkeit vom Wert von Rang(A) und Rang(A|b) können wir feststellen, ob
das LGS genau eine, keine oder unendlich viele Lösungen besitzt. Dies ist der Inhalt
des Satzes von Rouché-Capelli (. Abb. 2.9):
# Satz 2.3
Rouché-Capelli Sei Ax = b ein LGS mit m Gleichungen und n Unbekannten. Dann gilt:
5 Rang(A|b) = Rang(A) ⇔ LGS lösbar;
5 Rang(A|b) ̸= Rang(A) ⇔ keine Lösung.
> Bemerkung
Wie wir später (7 Kap. 5) erfahren werden, ist die Lösungsmenge ein affiner Raum der
Dimension n − Rang(A).
> Bemerkung
Der Satz von Rouché-Capelli ist auch bekannt als Satz von Kronecker-Capelli, Satz
von Rouché-Fontené, Satz von Rouché-Frobenius oder Satz von Frobenius.
Berechnung
Der Satz von Rouché-Capelli bietet eine einfache Methode, die Lösung eines gegebe-
nen LGS zu diskutieren. Das Schema in . Abb. 2.9 zeigt dies eindrücklich.
116 Kapitel 2 • Lineare Gleichungssysteme
Man untersuche die Lösungen des folgenden LGS mithilfe des Satzes von Rouché-Capelli
⎧
⎨x1 + 2x2 + x4 = 1
⎪
2x1 + 4x2 + x3 = 3
⎪
⎩
x1 + 2x2 + x3 − x4 = 2
Wegen Rang(A) = Rang(A|b) = 2 < n = 4 hat das LGS unendlich viele Lösungen. Die
Lösungsmenge hat 2 freie Parameter, weil n − Rang(A) = 4 − 2 = 2. In der Tat ist die
Lösung
⎧⎡ ⎤ ' ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 ' x1 1 −2 −1 ⎪
⎪
⎨⎢ ⎥ ' ⎪
⎬
' ⎢x2 ⎥ ⎢0⎥ ⎢ ⎥ ⎢ ⎥
⎢ x2 ⎥
L= ⎣ ⎦∈R ' 4' ⎢ ⎥ = ⎢ ⎥ + t ⎢ 1 ⎥ + s ⎢ 0 ⎥ , t, s ∈ R .
⎪ x ⎣x3 ⎦ ⎣1⎦ ⎣0⎦ ⎣2⎦ ⎪
⎩ 3
⎪ '
'
⎪
⎭
x4 x4 0 0 1
2.3 • Rang
117 2
Übung 2.38
•◦◦ Man untersuche die Lösungen des folgenden LGS mithilfe des Satzes von Rouché-
Capelli
⎧
⎪
⎨x1 + x2 + x3 = 1
⎪
−x1 + x2 + 5x3 = 0
⎪
⎪
⎩
2x2 + 6x3 = 0
v Lösung
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎪
⎨ x1 + x2 + x3 = 1 (Z1 ) 1 1 1 1
⎢ ⎥
−x1 + x2 + 5x3 = 0 (Z2 ) ! [A|b] = ⎣ −1 1 5 0 ⎦ .
⎪
⎩
2x2 + 6x3 = 0 (Z3 ) 0 2 6 0
Übung 2.39
• • ◦ Man untersuche die Lösungen des folgenden LGS in Abhängigkeit der Parameter
α, β ∈ R
⎧
⎨x + x = α
1 2
⎩2x + x = β
1 2
v Lösung
Das LGS hat m = 2 Gleichungen und n = 2 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
$ % &
x 1 + x2 = α (Z1 ) 1 1 α
! [A|b] = .
2x1 + x2 = β (Z2 ) 2 1 β
Übung 2.40
• • ◦ Für welche k ∈ R hat das folgende LGS eine eindeutige Lösung?
⎧
⎪
⎨x1 + x2 = 1
⎪
kx1 + x2 + x3 = 1 − k
⎪
⎪
⎩
x2 + (1 − k)x3 = 1
v Lösung
Das LGS hat m = 3 Gleichungen und n = 3 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|b] des LGS lautet:
⎧ ⎡ ⎤
⎨ x1 + x2
⎪ =1 (Z1 ) 1 1 0 1
⎢ ⎥
kx1 + x2 + x3 = 1 − k (Z2 ) ! [A|b] = ⎣ k 1 1 1 − k ⎦ .
⎪
⎩
x2 + (1 − k)x3 = 1 (Z3 ) 0 1 1−k 1
Nach dem Satz von Rouché-Capelli wissen wir, dass das gegebene LGS genau dann,
eine eindeutige Lösung besitzt, wenn Rang(A) = Rang(A|b) = n = 3 gilt. Dies gilt
genau dann wenn −k2 + 2k ̸= 0, d. h. k ̸= 0, 2. "
> Bemerkung
In Übung 2.40 müssen wir im zweiten Schritt die zweite Zeile mit der dritten Zeile
vertauschen, weil die Operation (1 − k)(Z3 ) − (Z2 ) für k = 1 nicht erlaubt ist.
2.3 • Rang
119 2
Übung 2.41
• • ◦ Für welche k ∈ R hat das folgende LGS keine Lösung?
⎧
⎪ 2
⎨2x1 + kx2 + 3x3 = k
⎪
2x2 + 2kx3 = 2(k + 1)
⎪
⎪
⎩
x1 + kx3 = 32
v Lösung
Das LGS hat m = 3 Gleichungen und n = 3 Unbekannte.
Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ 2x1 + kx2 + 3x3
⎪ = k2 (Z1 ) 2 k 3 k2
⎢ ⎥
2x2 + 2kx3 = 2(k + 1) (Z2 ) ! [A|b] = ⎣ 0 2 2k 2(k + 1) ⎦ .
⎪
⎩
x1 + kx3 = 32 (Z3 ) 1 0 k 3
2
Nach dem Satz von Rouché-Capelli wissen wir, dass das gegebene LGS genau dann
keine Lösung besitzt, wenn Rang(A) ̸= Rang(A|b) gilt. Wegen k2 +2k−3 = (k+3)(k−1)
ist dies für k = 1 der Fall:
⎡ ⎤
2131
⎢ ⎥
Z = ⎣0 2 2 4⎦.
0004
Übung 2.42
• • ◦ Für welche k ∈ R hat das folgende LGS keine, genau eine oder unendlich viele
Lösungen?
⎧
⎪
⎨2x1 + 2x2 + 4x3 = 10
⎪
3x1 + kx2 + 10x3 = 12
⎪
⎪
⎩
−x2 − kx3 = 3
120 Kapitel 2 • Lineare Gleichungssysteme
v Lösung
Das LGS hat m = 3 Gleichungen und n = 3 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ 2x1 + 2x2 + 4x3 = 10
⎪ (Z1 ) 2 2 4 10
⎢ ⎥
3x1 + kx2 + 10x3 = 12 (Z2 ) ! [A|b] = ⎣ 3 k 10 12 ⎦ .
⎪
⎩
− x2 − kx3 = 3 (Z3 ) 0 −1 −k 3
Denn n − Rang(A) = 3 − 2 = 1. ⎡ ⎤
2 2 4 10
⎢ ⎥
5 Fall k = −1: Die Zielmatrix ist: Z = ⎣ 0 1 −1 −3 ⎦. Es folgt Rang(A) = 2 aber
0 0 0 −30
Rang(A|b) = n = 3. Das LGS hat somit keine Lösung.
5 Fall k ̸= −1, 4: In diesem Fall ist Rang(A) = Rang(A|b) = 3. Das LGS hat genau
eine Lösung. "
> Bemerkung
In Übung 2.42 müssen wir im zweiten Schritt die zweite Zeile mit der dritten Zeile
vertauschen, weil die Operation 2(k − 3)(Z3 ) + (Z2 ) für k = 3 nicht erlaubt ist.
2.3 • Rang
121 2
Übung 2.43
••◦ Man untersuche die Lösungen des folgenden LGS in Abhängigkeit des Parameters
k∈R
⎧
⎪
⎪ x1 + 2x4 = 1
⎪
⎪
⎪
⎨x + 2x + x + 4x = −1
1 2 3 4
⎪
⎪2x2 + 2x3 + 3x4 = −1
⎪
⎪
⎪
⎩
x1 − 2x2 + k2 x4 = k + 3
v Lösung
Das LGS hat m = 4 Gleichungen und n = 4 Unbekannte.
Schritt 1 Wir stellen zuerst die erweiterte Matrix [A|E] auf:
⎧ ⎡ ⎤
⎪ x + 2x4 = 1 (Z1 ) 1 0 0 2 1
⎪ 1
⎪
⎨ ⎢1
x1 + 2x2 + x3 + 4x4 = −1 (Z2 ) ⎢ 2 1 4 −1 ⎥ ⎥
! [A|b] = ⎢ ⎥.
⎪
⎪
⎪ 2x2 + 2x3 + 3x4 = −1 (Z3 ) ⎣0 2 2 3 −1 ⎦
⎩
x1 − 2x2 + k2 x4 = k+3 (Z4 ) 1 −2 0 k2 k + 3
Denn n − Rang(A) = 4 − 3 = 1.
122 Kapitel 2 • Lineare Gleichungssysteme
⎡ ⎤
1002 1
⎢ 0 2 1 2 −2 ⎥
⎢ ⎥
5 Fall k = −1: Die Zielmatrix ist Z = ⎢ ⎥. Es folgt Rang(A) = 3, aber
⎣0 0 1 1 1 ⎦
0 0 0 0 −2
Rang(A|b) = 4. Das LGS hat somit keine Lösung.
5 Fall k ̸= ±1: In diesem Fall ist Rang(A) = Rang(A|b) = n = 4. Das LGS hat genau
⎧ ⎡ ⎤⎫
⎪
⎪ k−1 ⎪ ⎪
⎪
⎨ ⎢ 3 ⎥⎪
⎬
1 ⎢− 2 k − 2⎥
eine Lösung L = 1+k ⎢ ⎥ . "
⎪
⎪ ⎣ k ⎦⎪
⎪
⎪
⎩ ⎪
⎭
1
Übung 2.44
••◦ Man untersuche die Lösungen des folgenden LGS in Abhängigkeit des Parameters
k∈R
⎧
⎪
⎨x1 + x2 − x3 + x4 = 1
⎪
2x1 + x2 − x3 + 3x4 = 0
⎪
⎪
⎩
x1 + (k2 − k)x4 = k
v Lösung
Das LGS hat m = 3 Gleichungen und n = 4 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 + x2 − x3 +
⎪ x4 = 1 (Z1 ) 1 1 −1 1 1
⎢ ⎥
2x1 + x2 − x3 + 3x4 = 0 (Z2 ) ! [A|b] = ⎣ 2 1 −1 3 0 ⎦.
⎪
⎩
x1 + (k2 − k)x4 = k (Z3 ) 1 0 0 k2 − k k
Wegen k2 − k − 2 = (k + 1)(k
⎡ − 2), unterscheiden
⎤ wir 3 Fälle:
1 1 −1 1 1
⎢ ⎥
5 Fall k = −1: Aus Z = ⎣ 0 −1 1 1 −2 ⎦ folgt Rang(A) = Rang(A|b) = 2 < n =
0 0 0 0 0
4. Das LGS hat unendlich viele Lösungen mit 2 freien Parametern t, s:
2.3 • Rang
123 2
⎧⎡ ⎤ ' ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 ' x1 −1 0 −2 ⎪
⎪
⎪ ' ⎪
⎪
⎨ ⎢x ⎥ ' ⎢ ⎥ ⎢ ⎥ ⎢1⎥ ⎢1⎥ ⎬
⎢ ⎥ ' ⎢x2 ⎥ ⎢ 2 ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎢ 2 ⎥ ∈ R4 ' =
⎢ ⎥ ⎢ ⎥ + t ⎢ ⎥ + s ⎢ ⎥ , t, s ∈ R .
⎪
⎪ ⎣ x 3 ⎦ ' ⎣x3 ⎦ ⎣ 0 ⎦ ⎣1⎦ ⎣0⎦ ⎪
⎪
⎪
⎩ ' ⎪
⎭
x4 ' x4 0 0 1
Denn n − Rang(A) = 4 − ⎡ 2 = 2. ⎤
1 1 −1 1 1
⎢ ⎥
5 Fall k = 2: Wegen Z = ⎣ 0 −1 1 1 −2 ⎦ ist Rang(A) = 2 aber Rang(A|b) = 3.
0 0 0 0 3
Das LGS hat somit keine Lösung.
5 Fall k ̸= −1, 2: In diesem Fall ist Rang(A) = Rang(A|b) = 3 < n = 4. Das LGS hat
unendlich viele Lösungen mit einem freien Parameter t, weil n−Rang(A) = 4−3 = 1:
⎧⎡ ⎤ ' ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 ' x1 −k 0 ⎪
⎪
⎪ ' ⎪
⎪
⎨⎢ ⎥ ' ⎢x ⎥ 1 ⎢2k − 3⎥ ⎢1⎥ ⎬
⎢x2 ⎥ 4' ⎢ 2⎥ ⎢ ⎥ ⎢ ⎥
L= ⎢ ⎥∈R ' ⎢ ⎥= ⎢ ⎥ + t⎢ ⎥, t ∈ R .
⎪
⎪ ⎣x3 ⎦ ' ⎣x3 ⎦ k − 2 ⎣ 0 ⎦ ⎣1⎦ ⎪
⎪
⎪
⎩ ' ⎪
⎭
x4 ' x4 1 0 "
In diesem Abschnitt diskutieren wir eine Variante des Satzes von Rouché-Capelli für
homogene LGS Ax = 0. Solche LGS haben immer eine Lösung: den Nullvektor
x = 0. Diese Lösung heißt triviale Lösung. In 7 Abschn. 2.1.1 haben wir gelernt,
dass es 3 Möglichkeiten für die Lösung eines LGS gibt:
1) das LGS besitzt genau eine Lösung;
2) das LGS besitzt unendlich viele Lösungen;
3) das LGS ist nicht lösbar.
Da Ax = 0 immer die triviale Lösung besitzt, tritt Fall (3) nie für homogene LGS
auf. Die folgende Variante des Satzes von Rouché-Capelli bietet ein Kriterium an,
um zwischen Fall (1) und Fall (2) zu entscheiden.
> Bemerkung
Äquivalent dazu: Das LGS hat genau dann nur die triviale Lösung x = 0, wenn gilt:
Rang(A) = n.
124 Kapitel 2 • Lineare Gleichungssysteme
Übung 2.45
• ◦ ◦ Man bestimme die Lösungsmenge des folgenden homogenen LGS
⎧
⎪
⎨x1 + 2x2 + x3 = 0
⎪
2x1 − 2x2 + 5x3 = 0
⎪
⎪
⎩
x1 + 2x3 = 0
v Lösung
Das LGS hat m = 3 Gleichungen für n = 3 Unbekannte.
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|0] zu:
⎧ ⎡ ⎤
⎨ x1 + 2x2 + x3 = 0
⎪ (Z1 ) 1 2 1 0
⎢ ⎥
2x1 − 2x2 + 5x3 = 0 (Z2 ) ! [A|b] = ⎣ 2 −2 5 0 ⎦ .
⎪
⎩
x1 + 2x3 = 0 (Z3 ) 1 0 2 0
In diesem Fall gilt Rang(A) = 2 < n = 3. Aus dem Satz von Rouché-Capelli 2.4
folgt, dass das LGS unendlich viele Lösungen hat. Die Lösungsmenge hat einen freien
Parameter, weil n − Rang(A) = 3 − 2 = 1.
Herauslesen der Lösung:
⎧
⎧ ⎪
⎨x + 2x + x = 0 ⎨x1 = −2x2 − x3 = −4t
⎪
1 2 3
⇒ x2 = t
⎩−6x + 3x = 0 ⎪
⎪
2 3 ⎩
x3 = 2x3 = 2t
Übung 2.46
• ◦ ◦ Man bestimme die Lösungsmenge des folgenden homogenen LGS
⎧
⎪
⎨x1 + x2 + x3 = 0
⎪
x1 − x3 = 0
⎪
⎪
⎩
2x2 + x3 = 0
v Lösung
Das LGS hat m = 3 Gleichungen für n = 3 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|0] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 + x2 + x3 = 0
⎪ (Z1 ) 1 1 1 0
⎢ ⎥
x1 − x3 = 0 (Z2 ) ! [A|b] = ⎣ 1 0 −1 0 ⎦ .
⎪
⎩
2x2 + x3 = 0 (Z3 ) 0 2 1 0
Übung 2.47
• • ◦ Für welche k ∈ R besitzt das folgende homogene LGS nichttriviale Lösungen?
⎧
⎪
⎨x1 + 2kx2 + 2x3 = 0
⎪
x1 + 3kx3 = 0
⎪
⎪
⎩
x2 + kx3 = 0
v Lösung
Das LGS hat m = 3 Gleichungen und n = 3 Unbekannte.
Schritt 1 Wir bestimmen die erweiterte Matrix [A|0] des LGS:
⎧ ⎡ ⎤
⎨ x1 + 2kx2 + 2x3 = 0
⎪ (Z1 ) 1 2k 2 0
⎢ ⎥
x1 + 3kx3 = 0 (Z2 ) ! [A|b] = ⎣ 1 0 3k 0 ⎦ .
⎪
⎩
x2 + kx3 = 0 (Z3 ) 0 1 k 0
126 Kapitel 2 • Lineare Gleichungssysteme
Das LGS besitzt genau dann eine nichttriviale Lösung, wenn Rang(A) < n = 3. Dies
ist für 2k2 + 3k − 2 = 0 der Fall. Daraus folgt, k = −2 oder k = 1/2. Das LGS besitzt
somit eine nichttriviale Lösung für k = {−2, 1/2}. Für alle andere k ∈ R hat das LGS
nur die triviale Lösung. "
> Bemerkung
In Übung 2.47 haben wir im zweiten Schritt die zweite Zeile mit der dritten Zeile
vertauscht, weil die Operation 2k(Z3 ) + (Z2 ) für k = 0 nicht gestattet ist.
2.4.1 Matrizengleichungen
Übung 2.48
• ◦ ◦ Man löse
⎡ ⎤ ⎡ ⎤
110 −1 1 0
⎢ ⎥ ⎢ ⎥
AX = B, für A = ⎣1 1 2⎦ , B = ⎣−2 −1 1⎦ .
011 0 −1 1
v Lösung
Wir stellen zuerst die erweiterte Matrix [A|B] auf
⎡ ⎤
1 1 0 −1 1 0
⎢ ⎥
[A|B] = ⎣ 1 1 2 −2 −1 1 ⎦
0 1 1 0 −1 1
und wenden den Gauß-Algorithmus an, bis die linke Matrix in die Identitätsmatrix E
übergeführt worden ist:
2.4 • Matrizengleichungen und inverse Matrix
127 2
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 −1 1 0 1 1 0 −1 1 0 1 1 0 −1 1 0
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ 3 (Z ) ↔ (Z )
2 ⎢ ⎥
⎣ 1 1 2 −2 −1 1 ⎦ ! ⎣ 0 0 2 −1 −2 1 ⎦ ! ⎣ 0 1 1 0 −1 1 ⎦
0 1 1 0 −1 1 0 1 1 0 −1 1 0 0 2 −1 −2 1
⎡ ⎤ ⎡ ⎤
1 1 0 −1 1 0 1 1 0 −1 1 0
(Z3 )/2 ⎢ ⎥ (Z2 ) − (Z3 ) ⎢ ⎥
! ⎣ 0 1 1 0 −1 1 ⎦ ! ⎣ 0 1 0 12 0 12 ⎦
0 0 1 − 12 −1 12 0 0 1 − 12 −1 12
⎡ ⎤
1 0 0 − 32 1 − 21
(Z1 ) − (Z2 ) ⎢ ⎥
! ⎣ 0 1 0 12 0 12 ⎦ = [E|X].
0 0 1 − 12 −1 1
2
⎡ ⎤
− 23 1 − 12
⎢ ⎥
Die Lösung lautet somit: X = ⎣ 21 0 12 ⎦ . "
1 1
− 2 −1 2
Wir analysieren jetzt die Bestimmung der inversen Matrix mithilfe des Gauß-
Algorithmus. Sei
⎡ ⎤
a11 · · · a1n
⎢ .. . . .. ⎥
A=⎣ . . . ⎦
an1 · · · ann
welche die Matrizengleichung AB = E erfüllt. B ist dann die gesuchte Inverse von A,
d. h. B = A−1 . In Komponenten lautet die Matrizengleichung AB = E:
⎡ ⎤ ⎡ ⎤
a11 b11 + · · · + a1n bn1 · · · a11 b1n + · · · + a1n bnn 1 ··· 0
⎢ .. .. .. ⎥ ! ⎢ .. . . .. ⎥
AB = ⎣ . . . ⎦ = ⎣. . .⎦ .
an1 b11 + · · · + ann bn1 · · · an1 b1n + · · · + ann bnn 0 ··· 1
⎧
⎪
⎪ a11 b11 + · · · + a1n bn1 = 1
⎪
⎨ a21 b11 + · · · + a2n bn1 = 0
⎪ .. .. ..
⎪
⎪ . . .
⎩
an1 b11 + · · · + ann bn1 = 0
..
.
⎧
⎪ a11 b1n + · · · + a1n bnn = 0
⎪
⎪
⎨ a21 b1n + · · · + a2n bnn = 0
⎪ .. .. ..
⎪
⎪ . . .
⎩
an1 b1n + · · · + ann bnn = 1
welche wir gleichzeitig lösen müssen (7 vgl. Abschn. 2.4.1). Wir stellen zuerst die
erweiterte Matrix auf:
⎡ ⎤
a11 · · · a1n 1 · · · 0
⎢ ⎥
[A|E] = ⎣ ... . . . ... ... . . . ... ⎦ .
an1 · · · ann 0 · · · 1
Dann bringen wir mittels Gauß-Algorithmus die Matrix [A|E] durch elementarer
Zeilenoperationen in die folgende Form:
⎡ ⎤
1 ··· 0 b11 · · · b1n
⎢ .. . . .. .. . . .. ⎥ = [E|B].
⎣. . . . . . ⎦
0 · · · 1 bn1 · · · bnn
Die Matrix B, welche am Ende des Verfahrens auf der rechten Seite steht, ist genau
die gesuchte Inverse A−1 der Matrix A, d. h. B = A−1 .
;1 1 1<
Man bestimme die Inverse der Matrix A = 123 . Wir stellen zuerst die erweiterte Matrix
011
[A|E] auf
⎡ ⎤
1 1 1 1 0 0
[A|E] = ⎣ 1 2 3 0 1 0 ⎦ .
0 1 1 0 0 1
und wenden den Gauß-Algorithmus an, bis die linke Matrix in die Einheitsmatrix E
überführt wurde:
2.4 • Matrizengleichungen und inverse Matrix
129 2
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 0 0 1 1 1 1 0 0 1 1 1 1 0 0
(Z2 ) − (Z1 ) (Z3 ) − (Z2 )
⎣1 2 3 0 1 0⎦ ! ⎣ 0 1 2 −1 1 0 ⎦ ! ⎣ 0 1 2 −1 1 0 ⎦
0 1 1 0 0 1 0 1 1 0 0 1 0 0 −1 1 −1 1
⎡ ⎤ ⎡ ⎤
1 1 1 1 0 0 1 1 0 2 −1 1
−(Z3 ) (Z1 ) − (Z3 ) (Z ) − 2(Z )
! ⎣ 0 1 2 −1 1 0 ⎦ ! ⎣ 0 1 2 −1 1 0 ⎦ 2 ! 3
0 0 1 −1 1 −1 0 0 1 −1 1 −1
⎡ ⎤ ⎡ ⎤
1 1 0 2 −1 1 1 0 0 1 0 −1
(Z1 ) − (Z2 )
⎣ 0 1 0 1 −1 2 ⎦ ! ⎣ 0 1 0 1 −1 2 ⎦ = [E|A−1 ].
0 0 1 −1 1 −1 0 0 1 −1 1 −1
Wir haben somit die erweiterte Matrix [A|E] in die Form [E|A−1 ] überführt. Wir können die
Inverse A−1 direkt aus der rechten Seite des Endschemas ablesen:
⎡ ⎤
1 0 −1
A−1 = ⎣ 1 −1 2 ⎦ .
−1 1 −1
;1 2 3<
Man bestimme die Inverse von A = 112 . Die erweiterte Matrix [A|E] ist
011
⎡ ⎤
1 2 3 1 0 0
[A|E] = ⎣ 1 1 2 0 1 0 ⎦ .
0 1 1 0 0 1
und führen den Gauß-Algorithmus durch, bis die linke Matrix in die Einheitsmatrix E
umgewandelt wurde (oder auch nicht!):
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 3 1 0 0 1 2 3 1 0 0 1 2 3 1 0 0
(Z2 ) − (Z1 ) −(Z2 )
⎣1 1 2 0 1 0⎦ ! ⎣0 −1 −1 −1 1 0 ⎦ ! ⎣ 0 1 1 1 −1 0 ⎦
0 1 1 0 0 1 0 1 1 0 0 1 0 1 1 0 0 1
⎡ ⎤
1 2 3 1 0 0
(Z3 ) − (Z2 )
! ⎣0 1 1 1 −1 0 ⎦ .
0 0 0 −1 1 1
In diesem Fall, ist es nicht möglich, die erweiterte Matrix [A|E] in der Form [E|A−1 ]
überzuführen. Der Grund dafür ist, dass A nichtinvertierbar ist. In 7 Kap. 3 werden wir
mittels Determinante dies bald vorher feststellen!
130 Kapitel 2 • Lineare Gleichungssysteme
Übung 2.49
• ◦ ◦ Man bestimme mittels des Gauß-Algorithmus die Inverse von
%
&
53
A= .
32
v Lösung % &
5 3 1 0
Wir stellen die erweiterte Matrix auf [A|E] = und wenden den Gauß-
3 2 0 1
Algorithmus an:
% & % & % &
5 3 1 0 (Z1 )/5 1 35 15 0 (Z2 ) − 3(Z1 ) 1 35 15 0
! !
3 2 0 1 3 2 0 1 0 15 − 35 1
% & % &
(Z1 ) − 3(Z2 ) 1 0 2 −3 5(Z1 ) 1 0 2 −3
! ! = [E|A−1 ].
0 15 − 35 1 0 1 −3 5
% &
−1 −1 2 −3
Die gesuchte Inverse A lautet somit A = . Machen Sie die Probe! "
−3 5
v Lösung % &
3 4 1 0
Die erweiterte Matrix ist [A|E] = . Mit dem Gauß-Algorithmus finden
−1 2 0 1
wir:
% & % & % & % &
3 4 1 0 (Z1 )/3 1 43 13 0 (Z2 ) + (Z1 ) 1 43 1
0 3 (Z )
10 2 1 43 1
3 0
! ! 3 !
−1 2 0 1 −1 2 0 1 0 10
3
1
3 1 0 1 1 3
10 10
% & % &
1 2 1
4
(Z1 ) − (Z2 )
3 1 0 5 −5 − 52
! 1 3
= [E|A−1 ] ⇒ A −1
= 5
1 3
.
0 1 10 10 10 10 "
Übung 2.52 ⎤ ⎡
2 0 0
⎢ ⎥
• ◦ ◦ Man bestimme die Inverse der Matrix A = ⎣0 −5 0 ⎦ .
0 0 12
v Lösung ⎤ ⎡
2 0 0 1 0 0
⎢ ⎥
Die erweiterte Matrix [A|E] ist [A|E] = ⎣ 0 −5 0 0 1 0 ⎦ . Mit dem Gauß-
1
0 0 2 0 0 1
Algorithmus finden wir:
1 (Z )
⎡ ⎤ 2 1 ⎡ ⎤ ⎡ ⎤
2 0 0 1 0 0 − 1 (Z2 ) 1 0 0 12 0 0 1
5
2(Z3 ) 2 0 0
⎢ ⎥ ⎢ ⎥ −1 −1 ⎢ ⎥
⎣ 0 −5 0 0 1 0 ⎦ ! ⎣ 0 1 0 0 − 51 0 ⎦ = [E|A ] ⇒ A = ⎣ 0 − 15 0 ⎦
1
0 0 2 0 0 1 0 0 1 0 0 2 0 0 2
"
i Merkregel
Im Allgemeinen ist die Inverse einer Diagonalmatrix
⎡ ⎤ ⎡1 ⎤
λ1 ··· 0 λ ··· 0
⎢. .. ⎥ ⎢ 1 .. ⎥
⎢
A = ⎣ .. .. ⎥ ⇒ A−1 = ⎢ .. .. ⎥
. .⎦ ⎣. . .⎦
1
0 · · · λn 0 ··· λn
vorausgesetzt λ1 , · · · , λn ̸= 0.
Übung 2.53 ⎤ ⎡
1 −4 2
⎢ ⎥
• ◦ ◦ Man bestimme die Inverse der Matrix A = ⎣0 2 −1⎦ .
0 0 5
132 Kapitel 2 • Lineare Gleichungssysteme
v Lösung ⎡ ⎤
1 −4 2 1 0 0
⎢ ⎥
Wir stellen zuerst die erweiterte Matrix [A|E] auf: [A|E] = ⎣ 0 2 −1 0 1 0 ⎦ . Dann
0 0 5 0 0 1
wenden wir den Gauß-Algorithmus an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −4 2 1 0 0 (Z2 )/2 1 −4 2 1 0 0 1 −4 2 1 0 0
⎢ ⎥ (Z3 )/5 ⎢ ⎥ (Z2 ) + (Z3 )/2 ⎢ 1 ⎥
⎣ 0 2 −1 0 1 0 ⎦ ! ⎣ 0 1 − 12 0 12 0 ⎦ ! ⎣ 0 1 0 0 12 10 ⎦
0 0 5 0 0 1 0 0 1 0 0 15 0 0 1 0 0 15
⎡ ⎤ ⎡ ⎤
1 0 2 1 2 25 1 0 0 1 2 0
(Z1 ) + 4(Z2 ) ⎢ (Z1 ) − 2(Z3 )
1 ⎥ ⎢ 1 ⎥ = [E|A−1 ].
! ⎣ 0 1 0 0 12 10 ⎦ ! ⎣ 0 1 0 0 12 10 ⎦
0 0 1 0 0 15 0 0 1 0 0 15
Übung 2.54 ⎤ ⎡
101
⎢ ⎥
• ◦ ◦ Man bestimme die Inverse der Matrix A = ⎣0 1 1⎦ .
002
v Lösung
Wir stellen zuerst die erweiterte Matrix [A|E] auf und führen den Gauß-Algorithmus
durch:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 1 0 0 1 0 1 1 0 0 1 0 0 1 0 − 12
⎢ ⎥ (Z3 )/2 ⎢ (Z
⎥ 1 ) − (Z )
3 ⎢ ⎥
⎣0 1 1 0 1 0⎦ ! ⎣0 1 1 0 1 0 ⎦ ! ⎣0 1 1 0 1 0 ⎦
0 0 2 0 0 1 0 0 1 0 0 12 0 0 1 0 0 1
2
⎡ ⎤ ⎡ ⎤
1 0 0 1 0 − 21 1 0 − 12
(Z2 ) − (Z3 ) ⎢
! 1 ⎥ = [E|A−1 ] −1 ⎢
⇒ A = ⎣ 0 1 − 12
⎥
⎣0 1 0 0 1 −2 ⎦ ⎦.
1 1
0 0 1 0 0 2 0 0 2 "
Übung 2.55 ⎤ ⎡
2 −1 3
⎢ ⎥
• ◦ ◦ Man bestimme die Inverse der Matrix A = ⎣ 7 3 0 ⎦.
−1 2 −4
2.4 • Matrizengleichungen und inverse Matrix
133 2
v Lösung
Wir wenden den Gauß-Algorithmus an:
⎡ ⎤ ⎡ ⎤ −(Z1 )
2 −1 3 1 0 0 −1 2 −4 0 0 1 (Z2 ) + 2(Z1 )
⎢ (Z
⎥ 1 ) → (Z 2 ) → (Z )
3 ⎢ ⎥ (Z3 ) + 7(Z1 )
⎣ 7 3 0 0 1 0⎦ ! ⎣ 2 −1 3 1 0 0⎦ !
−1 2 −4 0 0 1 7 3 0 0 1 0
⎡ ⎤ ⎡ ⎤
1 −2 4 0 0 −1 3 1 −2 4 0 0 −1
⎢ ⎥ − 17 (Z3 ) + (Z2 ) ⎢ ⎥ −17(Z3 )
⎣ 0 3 −5 1 0 2 ⎦ ! ⎣ 0 3 −5 1 0 2 ⎦ !
1 3 13
0 17 −28 0 1 7 0 0 − 17 1 − 17 17
⎡ ⎤ ⎡ ⎤
1 −2 4 0 0 −1 1 −2 4 0 0 −1
⎢ ⎥ (Z2 ) + 5(Z3 ) ⎢ ⎥ (Z2 )/3
⎣ 0 3 −5 1 0 2 ⎦ ! ⎣ 0 3 0 −84 15 −63 ⎦ !
0 0 1 −17 3 −13 0 0 1 −17 3 −13
⎡ ⎤ ⎡ ⎤
1 −2 4 0 0 −1 1 0 4 −56 10 −43
⎢ ⎥ (Z1 ) + 2(Z2 ) ⎢ ⎥ (Z1 ) − 4(Z3 )
⎣0 1 0 −28 5 −21 ⎦ ! ⎣0 1 0 −28 5 −21 ⎦ !
0 0 1 −17 3 −13 0 0 1 −17 3 −13
⎡ ⎤ ⎡ ⎤
1 0 0 12 −2 9 12 −2 9
⎢ ⎥ ⎢ ⎥
⎣0 1 0 −28 5 −21 ⎦ = [E|A−1 ] ⇒ A−1 = ⎣ −28 5 −21 ⎦ .
0 0 1 −17 3 −13 −17 3 −13 "
Übung 2.56
⎤ ⎡
0 0 1 0
⎢0 −1 0 −3⎥
⎢ ⎥
• • ◦ Man bestimme die Inverse der Matrix A = ⎢ ⎥.
⎣1 2 0 6 ⎦
0 0 0 1
v Lösung
Wir bestimmen die erweiterte Matrix [A|E] und mit dem Gauß-Algorithmus finden
wir:
⎡ ⎤ ⎡ ⎤
0 0 1 0 1 0 0 0 1 2 0 6 0 0 1 0
⎢0 0⎥ ⎢0
⎢ −1 0 −3 0 1 0 ⎥ (Z1 ) ↔ (Z3 ) ⎢ −1 0 −3 0 1 0 0⎥⎥ (Z1 ) + 2(Z2 )
⎢ ⎥ ! ⎢ ⎥ !
⎣1 2 0 6 0 0 1 0⎦ ⎣0 0 1 0 1 0 0 0⎦
0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1
⎡ ⎤ ⎡ ⎤
1 0 0 0 0 2 1 0 1 0 0 0 0 2 1 0
⎢0 0⎥ ⎢0
⎢ −1 0 −3 0 1 0 ⎥ (Z2 ) + 3(Z4 ) ⎢ −1 0 0 0 1 0 3⎥⎥ −(Z2 )
⎢ ⎥ ! ⎢ ⎥ !
⎣0 0 1 0 1 0 0 0⎦ ⎣0 0 1 0 1 0 0 0⎦
0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1
134 Kapitel 2 • Lineare Gleichungssysteme
⎡ ⎤ ⎡ ⎤
1 0 0 0 0 2 1 0 0 2 1 0
⎢0 −3 ⎥ ⎢0
⎢ 1 0 0 0 −1 0 ⎥ ⎢ −1 0 −3 ⎥
⎥
⎢ ⎥ = [E|A−1 ] ⇒ A−1 =⎢ ⎥.
⎣0 0 1 0 1 0 0 0 ⎦ ⎣1 0 0 0 ⎦
0 0 0 1 0 0 0 1 0 0 0 1 "
Übung 2.57
• • ◦ Man bestimme die Inverse der folgenden (n × n)-Matrix
⎡ ⎤
1 2 3 ··· n
⎢ ⎥
⎢0 1 0 ··· 0⎥
⎢ ⎥
⎢ 0⎥
A = ⎢0 0 1 ··· ⎥.
⎢. .. .. .. .. ⎥
⎢. . ⎥
⎣. . . .⎦
0 0 0 ··· 1
v Lösung
Wir bestimmen die erweiterte Matrix [A|E] und führen den Gauß-Algorithmus durch:
⎡ ⎤ ⎡ ⎤
1 2 3 ··· n 1 0 0 ··· 0 1 0 3 · · · n 1 −2 0 · · · 0
⎢ ⎥ ⎢ ⎥
⎢0 1 0 ··· 0 0 1 0 ··· 0⎥ ⎢0 1 0 ··· 0 0 1 0 ··· 0⎥
⎢ ⎥ (Z1 ) − 2(Z2 )
⎢ ⎥ (Z ) − 3(Z )
⎢0 0 1 ··· 0 0 0 1 ··· 0⎥ ⎢0 0 1 ··· 0 0 0 1 ··· 0⎥ 1 3
⎢ ⎥ ! ⎢ ⎥ !
⎢. .. .. .. .. .. .. .. .. .. ⎥ ⎢. .. .. . . .. .. .. .. . . .. ⎥
⎢. . . ⎥ ⎢. ⎥
⎣. . . . . . . .⎦ ⎣. . . . . . . . . .⎦
0 0 0 ··· 1 0 0 0 ··· 1 0 0 0 ··· 1 0 0 0 ··· 1
⎡ ⎤ ⎡ ⎤
1 0 0 ··· n 1 −2 −3 ··· 0 1 0 0 · · · 0 1 −2 −3 · · · −n
⎢ ⎥ ⎢ ⎥
⎢0 1 0 ··· 0 0 1 0 ··· 0⎥ ⎢0 1 0 ··· 0 0 1 0 ··· 0 ⎥
⎢ ⎥ (Z1 ) − n(Zn )
⎢ ⎥
⎢0 0 1 ··· 0 0 0 1 ··· 0⎥ ⎢0 0 1 ··· 0 0 0 1 ··· 0 ⎥
⎢ ⎥ ! ⎢ ⎥ = [E|A−1 ].
⎢. .. .. .. .. .. .. .. .. .. ⎥ ⎢. . . . . . . . . . ⎥
⎢. . . ⎥ ⎢ . . . .. . . . . .. . ⎥
⎣. . . . . . . .⎦ ⎣. . . . . . . . ⎦
0 0 0 ··· 1 0 0 0 ··· 1 0 0 0 ··· 1 0 0 0 ··· 1
Übung 2.58
• • ◦ Man betrachte die sogenannte Heisenberg-Gruppe
⎧⎡ ⎤' ⎫
'
⎨ 1xz '
⎪ ⎪
⎬
⎢ ⎥'
H3 (R) = ⎣0 1 y⎦ ' x, y, z ∈ R .
⎪
⎩ ' ⎪
⎭
001 '
v Lösung ? @
1xz
a) Es sei A = 01y ∈ H3 (R). Mit dem erweiterten Schema [A|E] und dem Gauß-
001
Algorithmus finden wir:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 x z 1 0 0 1 x z 1 0 0 1 0 z 1 −x xy
⎢ ⎥ (Z2 ) − y(Z3 ) ⎢ ⎥ (Z1 ) − x(Z2 ) ⎢ ⎥
⎣0 1 y 0 1 0⎦ ! ⎣ 0 1 0 0 1 −y ⎦ ! ⎣0 1 0 0 1 −y ⎦
0 0 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 1
⎡ ⎤ ⎡ ⎤
1 0 0 1 −x xy − z 1 −x xy − z
(Z1 ) − z(Z3 ) ⎢ ⎥ ⎢ ⎥
! ⎣0 1 0 0 1 −y ⎦ = [E|A−1 ] ⇒ A−1 = ⎣0 1 −y ⎦ .
0 0 1 0 0 1 0 0 1
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 x1 z1 1 x2 z2 1 x1 + x2 z1 + z2 + x1 y2
⎢ ⎥⎢ ⎥ ⎢ ⎥
A1 A2 = ⎣0 1 y1 ⎦ ⎣0 1 y2 ⎦ = ⎣0 1 y1 + y2 ⎦ ∈ H3 (R),
0 0 1 0 0 1 0 0 1
d. h. “·” ordnet zwei Matrizen in H3 (R) einem Element von H3 (R) zu. Dann
zeigen wir, dass die H3 (R) mit “·” drei Axiome einer Gruppe (G1)–(G3) erfüllt
(vgl. Anhang B.2):
5 Beweis von (G1): Die Assoziativität folgt direkt aus den Rechenregeln für die
Matrixmultiplikation. %
5 Beweis von (G2): Das neutrale Element der Matrixmultiplikation ist die Ein-
heitsmatrix, welche in H3 (R) enthalten ist (setze x = y = z = 0). Somit besitzt
H3 (R) das neutrale Element. %
5 Beweis von (G3): Für jede Matrix A ∈ H3 (R) gilt A−1 ∈ H3 (R)
136 Kapitel 2 • Lineare Gleichungssysteme
⎡ ⎤ ⎡ ⎤
1xz 1 −x xy − z
⎢ ⎥ ⎢ ⎥
A = ⎣0 1 y⎦ ∈ H3 (R) ⇒ A−1 = ⎣0 1 −y ⎦ ∈ H3 (R).
001 0 0 1
Somit hat jedes Element in H3 (R) ein eindeutig bestimmtes inverses Element in
H3 (R). %
H3 (R) ist somit eine Gruppe bezüglich der Matrixmultiplikation.
Determinanten
Inhaltsverzeichnis
In diesem Kapitel studieren wir sogenannte Determinaten. Die Determinante ist eine
Zahl, welche man jeder quadratischer Matrix eindeutig zuordnen kann und eine
zentrale Rolle in der linearen Algebra spielt. Wir werden zunächst die Determinante
für eine (2 × 2)-Matrix einführen und dann diese Definition auf (n × n)-Matrizen
verallgemeinern. Ferner diskutieren wir einige Anwendungen von Determinanten:
Berechnung der inversen Matrix, Untersuchung von Matrizen auf Invertierbarkeit
und Lösung von LGS.
n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 3 sind Sie in der Lage:
5 das Konzept der Determinante einer Matrix verstehen und geometrisch zu interpre-
tieren,
5 die Regel von Sarrus und den Laplace-Entwicklungssatz anzuwenden,
5 eine Determinante mittels Gauß-Algorithmus (vor allem bei großen Matrizen) zu
berechnen,
5 Permutationen und Leibniz-Formel für Determinanten zu erklären,
5 das Determinantenkriterium für Invertierbarkeit anwenden und die Inverse einer
Matrix mithilfe der Determinante zu bestimmen,
5 die Cramer’sche Regel konkret anzuwenden,
5 das Determinantenkriterium für die Lösung von homogenen LGS anzuwenden,
5 die Komplexität der Determinantenberechnung erkennen und zu diskutieren.
# Beispiel
% & ' '
' 10
10 1 ' 1''
A= ⇒ det(A) = ' ' = 10 · 2 − (−3) · 1 = 23. $
−3 2 '−3 2'
3.1 • Definition und erste Beispiele
139 3
a b
. Abb. 3.1 (a) Geometrische Deutung der Determinante einer (2 × 2)-Matrix A. (b) Beweis ohne
Worte, dass det(A) dem Flächeninhalt des durch die Vektoren [a11 , a21 ]T , [a12 , a22 ]T aufgespannten
Parallelogramms entspricht
Geometrische Deutung
A a12 B A B
Für A = aa11
21 a22
entspricht det(A) dem Flächeninhalt des durch die Vektoren aa11
21
,
A a12 B
a22 aufgespannten Parallelogramms (Übung 3.9). Wir liefern hier einen „Beweis
ohne Worte“ (. vgl. Abb. 3.1).
' '
'a a a ' ' ' ' ' ' '
' 11 12 13 ' 'a a ' 'a a ' 'a a '
' ' ' 22 23 ' ' 12 13 ' ' 12 13 '
det(A) := ' a21 a22 a23 ' = a11 ' ' − a21 ' ' + a31 ' ' (3.2)
' ' ' a32 a33 ' ' a32 a33 ' ' a22 a23 '
' a31 a32 a33 '
Die (2 × 2)-Determinanten in dieser Formel werden mithilfe der Regel für (2 × 2)-Matrizen
bestimmt. Man erhält die folgende explizite Formel
det(A) = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 . (3.3)
$
140 Kapitel 3 • Determinanten
Praxistipp
Die Determinante einer (3 × 3)-Matrix erhält man in drei Schritten wie folgt:
' ' ' ' ' '
' ' ' ' ' '
' a11 a12 a13 ' ' a11 a12 a13 ' ' a11 a12 a13 '
' ' ' ' ' '
det(A) = a11 '' a a a
' − a21 '
' ' a 21 a 22 a 23
' + a31 '
' ' a 21 a 22 a 23
'
'
' 21 22 23 ' ' ' ' '
' a31 a32 a33 ' ' a31 a32 a33 ' ' a31 a32 a33 '
Wie wir im 7 Abschn. 3.1.3 erfahren werden, entspricht diese Prozedur der Entwick-
lung der Determinante nach der ersten Spalte.
# Beispiel
⎡ ⎤
1 2 3
⎢ ⎥
Für A = ⎣−3 −2 −1⎦ ist
1 0 −1
' ' ' ' ' ' ' '
'1 2 3' ' ' ' ' ' '
' ' ' ' ' '
'
'
'
' '1 2 3' ' 1 2 3' '1 2 3'
det(A) = '−3 −2 −1' = 1 ''−3 −2 −1'' − (−3) '' −3 −2 −1'' + 1 ''−3 −2 −1''
' ' ' ' ' ' ' '
' 1 0 −1' ' 1 0 −1' ' 1 0 −1' ' 1 0 −1'
' ' ' ' ' '
' −2 −1 ' '2 3 ' ' 2 3 '
' ' ' ' ' '
=1' ' −(−3) ' ' +1 ' ' = 2 − 6 + 4 = 0. $
' 0 −1 ' ' 0 −1 ' ' −2 −1 '
7 89 : 7 89 : 7 89 :
=2−0 =−2−0 =−2+6
Praxistipp
Die Regel von Sarrus. Eine mnemotechnische Methode, die Determinanten einer (3×3)-
Matrix zu bestimmen, ist die Regel von Sarrus. Gemäß dieser Regel ist die Determinante
die Summe von Produkten, die den verschiedenen Diagonalen entsprechen. Wir notie-
ren die Matrix auf, wie unten illustriert:
Die Determinante von A erhält man wie folgt: Man addiert die Produkte der durch die
nach rechts zeigenden Pfeile verbundenen Elementen und subtrahiert die 3 Produkte
der Elemente, die durch die nach links zeigenden Pfeile verbunden sind:
⎡ ⎤
abc
⎢ ⎥
det ⎣d e f ⎦ = aei + bfg + cdh − afh − bdi − ceg. (3.4)
gh i
3.1 • Definition und erste Beispiele
141 3
. Abb. 3.2 Geometrische
Deutung der Determinante einer
(3 × 3)-Matrix A
Geometrische Deutung
; a11 a12 a13 <
Die Determinante von A = a21 a22 a23 ist gleich dem Volumen des durch die
; a11 < ; a12 < ; a13 < a31 a32 a33
Vektoren a21 , a22 , a23 aufgespannten Parallelepipeds (. Abb. 3.2).
a31 a32 a33
Die Determinante einer beliebigen (n × n)-Matrix wird rekursiv definiert: Die Be-
rechnung einer (n × n)-Determinante wird auf die Berechnung von (n − 1) × (n −
1)-Determinanten zurückgeführt, welche selbst die Berechnung von (n − 2) × (n −
2)-Determinanten beinhaltet, usw. Auf diese Art und Weise wird die Berechnung
einer (n × n)-Determinante nach maximal n − 2 Schritten auf die Berechnung von
Determinanten von (2 × 2)-Matrizen zurückgeführt.
Minoren
# Definition 3.3
Sei A eine (n × n)-Matrix. Im Folgenden bezeichnen wir mit Aij die (n − 1) × (n − 1)-
Untermatrix, die man erhält, wenn man die i-te Zeile und j-te Spalte streicht
⎡ ⎤
⎢ a11 ··· a1j ··· a1n ⎥
⎢ . .. .. .. .. ⎥
⎢ . ⎥
⎢ . . . . . ⎥
⎢ ⎥
Aij = ⎢ a ··· aij ··· ain ⎥ (3.5)
⎢ i1 ⎥
⎢ . .. .. .. .. ⎥
⎢ . . . ⎥
⎣ . . . ⎦
am1 ··· amj ··· amn
# Beispiel
⎡ ⎤
123
⎢ ⎥
Für A = ⎣4 5 6⎦ sind
789
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & % & % &
⎢ 1 2 3 ⎥ 5 6 ⎢ 1 2 3 ⎥ 4 6 ⎢ 1 2 3 ⎥ 4 5
A11 ⎢ ⎥
= ⎣4 5 6⎦ = , A12 ⎢ ⎥
= ⎣4 5 6⎦ = , A13 ⎢ ⎥
= ⎣4 5 6⎦ = ,
8 9 7 9 7 8
7 8 9 7 8 9 7 8 9
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & % & % &
⎢1 2 3⎥ ⎢1 2 3⎥ ⎢1 2 3⎥
A21 =⎢ ⎥= 2 3 , A22 =⎢ ⎥= 1 3 , A23 =⎢ ⎥= 1 2 ,
⎣4 5 6⎦ 8 9 ⎣4 5 6⎦ 7 9 ⎣4 5 6⎦ 7 8
7 8 9 7 8 9 7 8 9
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & % & % &
⎢1 2 3⎥ 2 3 ⎢1 2 3⎥ 1 3 ⎢1 2 3⎥ 1 2
A31 =⎢ ⎥
⎣4 5 6⎦ = 5 6 , A32 =⎢ ⎥
⎣4 5 6⎦ = 4 6 , A33 =⎢ ⎥
⎣4 5 6⎦ = 4 5 .
7 8 9 7 8 9 7 8 9
Laplace-Entwicklung
Die Determinante einer Matrix A ∈ Kn×n definiert man als Summe von n Minoren
(d. h. Determinanten der Ordnung n − 1) wie folgt rekursiv:
n
C = >
det(A) := (−1)i+j aij det Aij (3.7)
j=1
n
C = >
det(A) := (−1)i+j aij det Aij (3.8)
i=1
Praxistipp
Ein möglicher Lösungsweg ist, die Determinante nach der ersten Spalte zu entwickeln:
' ' ' ' ' ' ' '
' ' ' ' ' ' ' '
' 1 −1 0 1' ' 1 −1 0 1' ' 1 −1 0 1' ' 1 −1 0 1'
' ' ' ' ' ' ' '
' 0 −1 0 2'' − 0 · '' 0 −1 0 2'' + 3 · '' 0 −1 0 2' ' 0 −1 0 2'
det(A) = 1 · ' '−1·' '
'
' 3 −2 2 1'' '
' 3 −2 2 1'' '
' 3 −2 2 1'' '
' 3 −2 2 1''
' 1 4 2 1' ' 1 4 2 1' ' 1 4 2 1' ' 1 4 2 1'
144 Kapitel 3 • Determinanten
Für die Bestimmung der richtigen Vorzeichenreihe, haben wir folgendes Schema benutzt
⎡ ⎤
+ − + −
⎢ − + − +⎥
⎢ ⎥
⎢ ⎥.
⎣ + − + −⎦
− + − +
Zusammenfassend:
' '
'1 −1 0 1' ' ' ' ' ' '
' ' '−1 0 2'' '−1 0 1'' '−1 0 1''
'0 −1 0 2' ' ' '
'
det(A) = ' ' = 1 · '−2 2 1' −0 + 3 · ''−1 0
' 2' −1 · ''−1 0
' 2'' = −20.
3 −2 2 1 ' '
' ' '4 2 1' '4 2 1' '−2 2 1'
'1 4 2 1'
7 89 : 7 89 : 7 89 :
=−24 =2 =2
Alternative: Aus dem Entwicklungssatz von Laplace folgt, dass wir die Determinante einer
Matrix bezüglich einer beliebigen Spalte oder Zeile entwicklen können. In der Praxis wählt
man die Spalte oder Zeile aus, welche am meisten Nullen enthält. Im vorliegenden Beispiel
könnten wir det(A) beispielsweise nach der dritten Spalten entwicklen, weil diese Spalte zwei
Nullen enthält:
' ' ' ' ' ' ' '
' ' ' ' ' ' ' '
'1 −1 0 1' '1 −1 0 1' '1 −1 0 1' '1 −1 0 1'
' ' ' ' ' ' ' '
' ' ' ' '0 −1 0 2' '0 −1 0 2'
det(A) = 0 · '0 −1 0 2' − 0 · '0 −1 0 2' + 2 · ' '−2·' '
'3 −2 2 1' '3 −2 2 1' '3 −2 2 1' '3 −2 2 1'
' ' ' ' ' ' ' '
'1 4 2 1' '1 4 2 1' '1 4 2 1' '1 4 2 1 '
' ' ' '
'1 −1 1' '1 −1 1'
' ' ' '
' '
= 2 · '0 −1 2' − 2 · '0 −1 2'' = −20.
'
'1 4 1 ' '3 −2 1'
Für die Bestimmung der richtigen Vorzeichenreihe bei der Entwicklung nach der dritten
Spalte haben wir folgendes Schema benutzt:
⎡ ⎤
+− + −
⎢− + − +⎥
⎢ ⎥
⎢ ⎥.
⎣+ − + −⎦
−+ − +
3.1 • Definition und erste Beispiele
145 3
Komplexität der Determinantenberechnung
Es reicht aus, die Determinante einer (4 × 4)-Matrix als Beispiel zu berechnen, um
zu erkennen, dass die Berechnung der Determinante für große Matrizen schnell
zu einem äußerst komplexen Unterfangen wird. Wie komplex ist die Berechnung
der Determinante einer (n × n)-Matrix in Abhängigkeit von n? Mit der Laplace-
Entwicklung führt man die Berechnung der Determinante einer (n × n)-Matrix auf
die Berechnung von n Determinanten von (n − 1) × (n − 1)-Matrizen zurück. Jede
von dieser Determinanten der Ordnung n − 1 wird dann auf die Berechnung von
n − 1 Determinanten der Ordnung n − 2 zurückgeführt usw. Insgesamt müssen wir
n(n − 1)(n − 2) · · · 2 = n! Determinanten der Ordnung 1 berechnen. Es folgt, dass es
Ordnung
O(n!) (3.9)
O(n3 ) (3.10)
> Bemerkung
Trotz der Komplexität der Determinantenberechnung, ist die Laplace-Entwicklung gut
geeignet bei kleinen Matrizen (2 × 2 und 3 × 3) oder bei größeren Matrizen mit vielen
Nullen.
det(αA) = α n det(A).
> Bemerkung
Beachte, dass im Allgemeinen det(A + B) ̸= det(A) + det(B). Außerdem aus det(A) = 0
folgt nicht unbedingt A = 0.
# Beispiel
⎡ ⎤
2 −1 1
⎢ ⎥
det ⎣ 0 3 1 ⎦ = 2 · 3 · 1 = 6. $
0 0 1
# Beispiel
⎡ ⎤
1 2 3 0 0 ' '
⎢ ⎥ '1 2 3' ' '
⎢4 5 6 0 0⎥ ' ' '1
⎢ ⎥ ' ' ' 2''
A=⎢
⎢7 8 9 0 0⎥⎥ ⇒ det(A) = ' 4 5 6 '·' '. $
'7 8 9' 0 3'
⎢ ⎥ ' ' '
⎣0 0 0 1 2⎦
0 0 0 0 3
3.1.5 Beispiele
Übung 3.1
◦ ◦ ◦ Man
% berechne
& die Determinante der folgenden Matrizen
6 2
a) A =
3 −1
3.1 • Definition und erste Beispiele
147 3
% &
1 −6
b) B =
−2 12
% &
i 2−i
c) C =
1 + 3i −i
Übung 3.3
◦ ◦ ◦ Man
⎡ berechne ⎤
die Determinanten der folgenden Matrizen
2 3 −1
⎢ ⎥
a) A = ⎣1 −1 0 ⎦
0 3 −10
⎡ ⎤
2 1 0
⎢ ⎥
b) B = ⎣ 1 1 −3⎦
−1 −2 2
⎡ ⎤
3 0 1
⎢ ⎥
c) C = ⎣1 2 1⎦
1 −1 2
148 Kapitel 3 • Determinanten
⎡ ⎤
1 4 1
⎢ ⎥
d) D = ⎣ 2 5 0⎦
−1 −2 2
Übung 3.4
• ◦5◦ Sind
6 die folgenden Matrizen invertierbar? Man berechne jeweils (sofern möglich)
det A−1 .
⎡ ⎤
3 2 −1
⎢ ⎥
a) A = ⎣1 0 1 ⎦ ,
1 −1 2
⎡ ⎤
3 2 −1
⎢ ⎥
b) B = ⎣1 2 1 ⎦ ,
13 2
⎡ ⎤
1 12
⎢ ⎥
c) C = ⎣−1 4 5⎦.
1 23
v Lösung ⎡ ⎤
3 2 −1
⎢ ⎥ = >
a) det(A) = det ⎣1 0 1 ⎦ = 2 ̸= 0 ⇒ A invertierbar. Daraus folgt det A−1 =
1 −1 2
1 1
det(A) = 2 .
3.1 • Definition und erste Beispiele
149 3
⎡ ⎤
3 2 −1
⎢ ⎥
b) det(B) = det ⎣1 2 1 ⎦ = 0 ⇒ B nichtinvertierbar.
13 2
⎡ ⎤
1 1 2
⎢ ⎥ = > 1
c) det(C) = det ⎣−1 4 5⎦ = −2 ̸= 0 ⇒ C invertierbar ⇒ det C −1 = det(C) =
1 2 3
− 12 . "
Übung 3.5
• ◦ ◦ Man betrachte die folgenden Matrizen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 1 0 1 1 2 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A = ⎣ 1 1 2⎦ , B = ⎣−3 1 2⎦ , C = ⎣ 1 −3 2⎦ .
−1 −2 2 2 −2 2 −1 2 2
5 6 5 6
Man bestimme: det(A), det(B), det(C), det(AB), det(AC), det(BC), det AT , det A3 ,
5 6 5 6 5 6 5 6
det A−1 , det A−1 B−1 , det A3 B−1 C und det AB−2 C T BT .
v Lösung
Wir lösen die Aufgabe, indem wir zuerst die Determinanten der Matrizen A, B und C
bestimmen. Mit der Formel für Determinanten von (3 × 3)-Matrizen bestimmen wir:
' '
' 2 1 1'
' '
' '
det(A) = ' 1 1 2 ' = 7
' '
' −1 −2 2 '
' '
' 0 1 1'
' '
' '
det(B) = ' −3 1 2 ' = 14
' '
' 2 −2 2 '
' '
' 2 0 1'
' '
' '
det(C) = ' 1 −3 2 ' = −21
' '
' −1 2 2 '
5 6 1 1
det A−1 = = ,
det(A) 7
5 6 5 6 5 6 1 1 1 1 1
det A−1 B−1 = det A−1 det B−1 = = = ,
det(A) det(B) 7 14 98
5 6 5 6 5 6 det(A)3 det(C) 1029
det A3 B−1 C = det A3 det B−1 det(C) = =− ,
det(B) 2
5 6 1 det(A) det(C) 21
det AB−2 C T BT = det(A) 2
det(C) det(B) = =− . "
det(B) det(B) 2
Übung 3.6
• ◦ ◦ Für welche Werte von k ∈ R ist det(A) ̸= 0?
⎡ ⎤
k−2 0 6
⎢ ⎥
A = ⎣ −1 4 k + 3⎦ .
0 −2 0
v Lösung
Wir berechnen die Determinante von A in Abhängigkeit von k
' '
'k − 2 0 6 '' ' ' ' '
' ' 4 k + 3' ' 0 6'
' ' ' ' ' '
det(A) = ' −1 4 k + 3 ' = (k − 2) · ' ' −(−1) · ' ' +0
' ' ' −2 0 ' ' −2 0 '
' 0 −2 0 ' 7 89 : 7 89 :
=0+2(k+3) =0+12
2
= (k − 2) · (2k + 6) + 12 = 2k + 2k.
Die Determinante von A ist ungleich Null, wenn 2k2 +2k ̸= 0, d. h. wenn 2k(k+1) ̸= 0,
also für k ̸= 0, −1. "
Übung 3.7
⎤ von α ∈ R sind die folgenden Matrizen invertierbar?
• ◦ ◦ Für⎡welche Werte
2 −1 2
⎢ ⎥
a) A = ⎣ 3 3 1 ⎦
−4 2 α
⎡ ⎤
2 3 4
⎢ ⎥
b) B = ⎣1 0 3 ⎦
0 α −2
⎡ ⎤
2 −1 1 − α
⎢ ⎥
c) C = ⎣1 1 6 ⎦
2 2 α
3.1 • Definition und erste Beispiele
151 3
v Lösung ' '
' 2 −1 2 ' ' '
' ' '3 1'
' ' ' '
a) A ist invertierbar ⇔ det(A) ̸= 0. Daraus folgt det(A) = ' 3 3 1 ' = 2 ' '−
' ' '2 α'
' −4 2 α '
' ' ' '
' −1 2 ' ' −1 2 ' !
' ' ' '
3' ' − 4' ' = 2(3α − 2) + 3(α + 4) + 28 = 9α + 36 ̸= 0 ⇒ α ̸= −4.
' 2 α' ' 3 1'
' '
'2 3 4 ' ' ' ' ' ' '
' ' '0 3 ' '3 4 ' '3 4'
' ' ' ' ' ' ' '
b) det(B) = ' 1 0 3 ' = 2 ' '−1' '+0' ' = −6α + (6 + 4α) =
' ' ' α −2 ' ' α −2 ' '0 3'
' 0 α −2 '
!
6 − 2α ̸= 0' ⇒ α ̸= 3. '
'2 −1 1 − α '' ' ' ' ' ' '
' '1 6' ' −1 1 − α ' ' −1 1 − α '
' ' ' ' ' ' ' '
c) det(C) = ' 1 1 6 ' = 2' '−1 ' '+2 ' ' = 2(α −
' ' '2 α' ' 2 α ' ' 1 6 '
'2 2 α '
!
12) + α + 2(1 − α) + 2(−6 + α − 1) = 3α − 36 ̸= 0 ⇒ α ̸= 12. "
Übung 3.8
• ◦ ◦⎡Man bestimme
⎤ möglichst geschickt die folgenden Determinanten
0 0 2
⎢ ⎥
a) ⎣3 3 0⎦ ,
4 2 0
⎡ ⎤
2 3 4
⎢ ⎥
b) ⎣0 1 3 ⎦ ,
0 0 −2
⎡ ⎤
1 2 3
⎢ ⎥
c) ⎣3 0 1⎦ ,
1 0 1
⎡ ⎤
1 0 0 0
⎢0 2 0 0 ⎥
⎢ ⎥
d) ⎢ ⎥
⎣0 0 −10 0 ⎦
0 0 0 −2
⎡ ⎤
1 1 0 0 0
⎢ ⎥
⎢−1 2 0 0 0 ⎥
⎢ ⎥
e) ⎢ 0 0 −10 0 0 ⎥ ,
⎢ ⎥
⎢ ⎥
⎣ 0 0 2 −2 0 ⎦
0 0 1 −1 10
⎡ ⎤
1 1 0 0
⎢ 0 2 0 0⎥
⎢ ⎥
f) ⎢ ⎥.
⎣ 100 8 −10 0 ⎦
−22 19 2 −2
152 Kapitel 3 • Determinanten
v Lösung
a) In diesem Fall hat die letzte Spalte viele Nullen. Somit entwickeln wir die Determi-
nante nach der dritten Spalte und bekommen
⎡ ⎤
002 ' '
'3
⎢ ⎥ ' 3''
det ⎣3 3 0⎦ = 2 · ' ' = 2 · (6 − 12) = −12.
'4 2'
420
Für die Bestimmung des richtigen Vorzeichens bei dieser Entwicklung haben wir
das folgende Schema benutzt:
⎡ ⎤
+− +
⎢ ⎥
⎣− + − ⎦ .
+− +
b) In diesem Fall befindet sich die Matrix in Dreiecksform. Somit ist die Determinante
einfach als Produkt der Diagonalelemente (Regel D8), konkret:
⎡ ⎤
23 4
⎢ ⎥
det ⎣0 1 3 ⎦ = 2 · 1 · (−2) = −4.
0 0 −2
c) Die zweite Spalte hat am meisten Nullen. Wir entwickeln die Determinante nach
dieser Spalte und erhalten:
⎡ ⎤
123 ' '
'3
⎢ ⎥ ' 1''
det ⎣3 0 1⎦ = −2 · ' ' = (−2) · (3 − 1) = −4.
'1 1'
101
Für die Bestimmung des richtigen Vorzeichens benutzen wir unser bekanntes
Schema:
⎡ ⎤
+ − +
⎢ ⎥
⎣− + −⎦ .
+ − +
d) Die Matrix befindet sich bereits in Diagonalform. Somit ist die Determinante
einfach das Produkt der Diagonalelementen (Regel D8):
⎡ ⎤
1 0 0 0
⎢0
⎢ 2 0 0⎥⎥
det ⎢ ⎥ = 1 · 2 · (−10) · (−2) = 40.
⎣0 0 −10 0⎦
0 0 0 −2
3.1 • Definition und erste Beispiele
153 3
e) Die Matrix befindet sich in Blockdiagonalform und es gilt die Regel D9:
⎡ ⎤
1 1 0 0 0 ' '
⎢ ⎥
⎢ −1 2 0 0 0 ⎥ '' ' '−10 0 0 '
' ' '
⎢ ⎥ ' 1 1' ' '
det ⎢
⎢ 0 0 −10 0 0 ⎥
⎥ = ''−1 2'' · '' 2 −2 0 '' = 600.
⎢ ⎥
⎣ 0 0 2 −2 0 ⎦ 7 89 : ' 1 −1 10'
2+1=3 7 89 :
0 0 1 −1 10 (−10)·(−2)·10=200
Übung 3.9
• ◦ ◦ Man zeige durch explizite Rechnung, dass die Determinante einer (2 × 2)-
Matrix A gleich dem Flächeninhalt des von den Spaltenvektoren von A aufgespannten
Parallelogramms ist.
v Lösung &%
ab
Wir betrachten A = und das von den Spaltenvektoren [a, c]T , [b, d]T
cd
aufgespannten Parallelogram (. Abb. 3.3). Der Flächeninhalt dieses Parallelogramm
ist gleich dem Flächeninhalt des großen Rechteckes (mit Seitenlängen a + b und
c + d) minus dem Flächeninhalt der 4 Dreiecken und der 2 kleinen Rechtecken. Der
Flächeninhalt des großen Rechteckes beträgt
(a + b)(c + d) = ac + ad + bc + bd.
Zu diesem Ergebnis müssen wir die Flächen der 4 Dreiecken und der 2 kleinen
Rechtecken abziehen. Die 4 Dreiecke haben den Flächeninhalt
ac bd
2× +2× = ac + bd.
2 2
F = (a + b)(c + d) − ac − bd − 2cb
ac + ad + bc + ❩
=✚ b❩ ac − ❩
d −✚ b❩
d − 2cb = ad − cb = det(A). "
Übung 3.10
• ◦ ◦ Man zeige durch Ausrechnen, dass für (2 × 2)-Matrizen A und B Folgendes gilt:
= (a11 b11 + a12 b21 )(a21 b12 + a22 b22 ) − (a21 b11 + a22 b21 )(a11 b12 + a12 b22 )
a21✭
a11✭
=✭ b11
✭
✭b12 + a11 a22 b11 b22 + a12 a21 b21 b12 + a12❤ ❤
a22❤ ❤b❤
b21 22
a21✭
a11✭
✭
✭b12 − a12 a21 b11 b22 − a11 a22 b21 b12 − a12❤ ❤
a22❤
−✭ b11 ❤b❤
b21 22
= a11 a22 b11 b22 + a12 a21 b12 b21 − a12 a21 b11 b22 − a11 a22 b12 b21 .
Andererseits gilt:
D% &E D% &E
a11 a12 b11 b12
det(A) det(B) = det det
a21 a22 b21 b22
Übung 3.11
• ◦ ◦ Man zeige, dass für eine (2 × 2)-Matrix A Folgendes gilt:
5 6
det AT = det(A).
v Lösung % &
a11 a12
Es sei A = . Mit der Definition der Determinante einer (2 × 2)-Matrix
a21 a22
erhalten wir:
' ' ' '
5 6 'a a ' 'a a '
T ' 11 21 ' ' 11 12 '
det A = ' ' = a11 a22 − a21 a12 = a11 a22 − a12 a21 = ' ' = det(A).
' a12 a22 ' ' a21 a22 '
Übung 3.12
• • ◦ Man zeige, dass für eine (2 × 2)-Matrix A Folgendes gilt:
A2 = Spur(A) A − det(A) E.
v Lösung % &
a11 a12
Es sei A = . Wegen Spur(A) = a11 + a22 und det(A) = a11 a22 − a12 a21 ist:
a21 a22
% &% & % &
2 a11 a12 a11 a12 a11 a12
A − Spur(A) A + det(A) E = − (a11 + a22 )
a21 a22 a21 a22 a21 a22
% &
10
+ (a11 a22 − a12 a21 )
01
% & % &
a211 + a12 a21 a11 a12 + a12 a22 a211 + a11 a22 a11 a12 + a12 a22
= −
a11 a21 + a21 a22 a12 a21 + a222 a11 a21 + a21 a22 a11 a22 + a222
% & % &
a11 a22 − a12 a21 0 00
+ = .
0 a11 a22 − a12 a21 00
Übung 3.13
• ◦ ◦ Man zeige durch ein Gegenbeispiel, dass im Allgemeinen
Übung 3.14
5 seien A, B6∈ Gl=n (K) invertierbare (n >× n)-Matrizen.
• • ◦ Es 5 6 Man berechne
−T −1 −1
a) det BA B det E + (A − E)(A + E) det A
= >
b) det E + A−T B−1 (AB)T
v Lösung
a) Zuerst vereinfachen wir den folgenden Ausdruck
E + (A − E)(A + E) = E + A2 − EA + AE − E 2
= E + A2 − A + A − E = A2 .
Mit den Rechenregeln für Determinanten finden wir:
5 6 = > 5 6
det BA−T B−1 det E + (A − E)(A + E) det A−1
1 1 = > 1
= det(B) det A2
det(A) det(B) det(A)
1 1
✘✘ ✘✘✘ ✘✘ 1 ✘ = 1.
=✘
det(B)
✘ ✘✘ ✘
det(A) ✘✘✘
det(B)
det(A)det(A)
✘ ✘
det(A)
= > = >
b) det E + A−T B−1 (ABT )T = det E + A−T B−1 (BT )T AT
= > = >
= det E + A−T B−1 BAT = det E + A−T EAT
= >
= det E + A−T AT = det(E + E) = det(2E) = 2n det(E) = 2n .
7 89 :
=1 "
3.1 • Definition und erste Beispiele
157 3
Übung 3.15
• ◦ ◦ Sei A ∈ Gln (K) eine invertierbare (n × n)-Matrix. Man zeige:
5 6 1
det A−1 = .
det(A)
v Lösung
Aus der Definition der inversen Matrix folgt E = AA−1 . Aus der Produktregel für
Determinanten (Regel D1) folgt
5 6 5 6 5 6 1
1 = det(E) = det AA−1 = det(A) · det A−1 ⇒ det A−1 = .
det(A) "
Übung 3.16
• • ◦ Sei A eine schiefsymmetrische (n × n)-Matrix. Man zeige, dass für ungerades n
det(A) = 0
v Lösung
Da A schiefsymmetrisch ist, gilt AT = −A. Aus den Rechenregeln für Determinanten
(Regel D2) folgt unmittelbar:
5 6
det(A) = det AT = det(−A) = (−1)n det(A).
Für gerades n ist (−1)n = 1. Wir erhalten also die triviale Aussage det(A) = det(A). In
der Tat muss für gerades n nicht det(A) = 0 gelten. Zum Beispiel, die (2 × 2)-Matrix
A 0 2B
A = −2 0 ist schiefsymmetrisch, trotzdem det(A) = 2. "
Übung 3.17
• ◦ ◦ Die Matrix A ∈ R3×3 hat nur die Einträge 1 oder −1. Man zeige, dass det(A) ≤ 6
ist.
158 Kapitel 3 • Determinanten
v Lösung
Wegen der Formel für (3 × 3)-Determinanten (Sarrus, Gl. (3.3))
det(A) = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 .
besteht det(A) aus 6 Summanden. Jeder Summand ist entweder 1 oder −1. Die Summe
von 6 Zahlen ±1 kann sicher nicht größer als 6 sein, d. h. det(A) ≤ 6. "
Übung 3.18
•◦◦ Es sei A ∈ Rn×n invertierbar. Außerdem haben A und A−1 nur ganzzahlige Einträge.
Welche Werte kann det(A) annehmen?
v Lösung 5 6
Bestehen A und A−1 nur aus ganzzahligen Elementen, dann sind det(A) und det A−1
offensichtlich ganzzahlig (det(A)
5 entsteht
6 aus der Multiplikation
5 6 und Addition von
ganzen Zahlen). Weil 1 = det AA−1 = det(A) det A−1 gibt es nur zwei Möglich-
keiten: det(A) = ±1. "
Übung 3.19
•••
a) Man zeige, dass für Blockdiagonalmatrizen
% &
Am×m 0m×r
det = det(A) det(B)
0r×m Br×r
gilt.
b) Man wende dies Resultat, um die Determinante der folgenden Matrizen zu bestim-
men
⎡ ⎤
⎡ ⎤ 2 0 0 0 0 0
1 1 0 0 0 ⎢ ⎥
⎢ ⎥ ⎢ 2 2 1 0 0 0⎥
⎢−1 2 0 0 0⎥ ⎢ ⎥
⎢ ⎥ ⎢ 3 −1 2 0 0 0⎥
⎢0 0 −10 0 0⎥ ⎢ ⎥
⎢ ⎥, ⎢−45 10 π −2 1 0⎥
⎢ ⎥ ⎢ √ ⎥
⎣0 0 2 −2 0⎦ ⎢ ⎥
⎣ 230 23 3 −1 1 1⎦
0 0 1 −1 10
31 e2 2 0 1 1
v Lösung
a) Es gilt
% & % &% &
Am×m 0m×r Am×m 0m×r E m×m 0m×r
= ,
0r×m Br×r 0r×m E r×r 0r×m Br×r
3.1 • Definition und erste Beispiele
159 3
d. h.
% & % &% & % & % &
A 0 A 0 E 0 A 0 E 0
det = det = det det .
0 B 0 E 0 B 0 E 0 B
Analog, gilt:
' '
'1 ··· 0 ''
% & '' . .. ''
E 0 '. ..
det = '' . . . 0 ' = 1 · · · 1 · det(B) = det(B).
0 B '
'0 · · · 1 ''
'
' 0 B'
& %
A 0
Daraus folgt det = det(A) det(B).
0 B
b) Wir verwenden das Resultat aus Teilaufgabe (a) auf die gegebenen Matrizen an
⎡ ⎤
1 1 0 0 0
⎢ ⎥ ⎡ ⎤
⎢ −1 2 0 0 0 ⎥ % & −10 0 0
⎢ ⎥ 1 1 ⎢ ⎥
det ⎢ ⎥
⎢ 0 0 −10 0 0 ⎥ = det −1 2 det ⎣ 2 −2 0 ⎦ = 600,
⎢ ⎥
⎣ 0 0 2 −2 0 ⎦ 7 89 : 1 −1 10
=3 7 89 :
0 0 1 −1 10 =200
⎡ ⎤
2 0 0 0 00
⎢ ⎥ ⎡ ⎤
⎢ 2 2 1 0 0 0⎥ % &
⎢ ⎥ −2 1 0
⎢ 3 −1 2 0 0 0 ⎥ 2 1 ⎢ ⎥
det ⎢ ⎥
⎢ −45 10 π −2 1 0 ⎥ = 2 · det −1 2 det ⎣−1 1 1⎦ = 10.
⎢ √ ⎥
⎢ ⎥ 7 89 : 0 11
⎣ 230 23 3 −1 1 1 ⎦ =5 7 89 :
=1
31 e2 2 0 1 1
"
Praxistipp
Erinnerung: Bei Blockmatrizen kann man jeden Block als einen „einzigen Matrixein-
trag“ betrachten (7 vgl. Abschn. 1.2.7).
160 Kapitel 3 • Determinanten
Für die Berechnung von großen Determinanten ist die explizite Formel mittels
der Laplace-Entwicklung eher unpraktisch. Der Gauß-Algorithmus bietet oft eine
schnellere Methode solche Determinanten zu berechnen.
Praxistipp
Die grundlegende Idee dieser Methode ist, die Determinante auf Dreiecksform mittels
elementaren Zeilenoperationen zu transformieren. Dabei muss beachtet werden:
5 Wenn man zwei Zeilen oder Spalten vertauscht, ändert die Determinante das
Vorzeichen (Vertauschen).
5 Wird eine Zeile oder Spalte mit einer Zahl k multipliziert, so wird die Determinante
mit k multipliziert (Skalierung).
5 Die Determinante ändert sich nicht, wenn man das Vielfache einer Zeile oder Spalte
zu einer anderen Zeile oder Spalte addiert (Addition).
Mittels Gauß-Algorithmus lässt sich die Berechnung von großen Determinanten oft
auf Rekursionsrelationen zurückführen (vgl. Übung 3.28).
5 Wir haben zunächst die erste und zweite Zeile vertauscht. Dabei ändert sich die Deter-
minante um den Faktor (−1).
5 Bei den Operationen (Z3 )−2(Z2 ) und (Z4 )−3(Z3 ) wird die Determinante nicht geändert.
3.2 • Determinante und Gauß-Algorithmus
161 3
Nun ist die Zielmatrix in Diagonalform, sodass man die Determinante ganz einfach als
Produkt der Diagonaleinträge bestimmen kann:
' ' ' '
'0 1 0 0'' '1 0 2 0 ''
' '
'1 0 2 0'' '0 1 0 0 ''
' = (−1) ' = (−1) · 1 · 1 · 1 · (−8) = 8.
'0 2 1 3'' '0 0 1 3 ''
' '
'0 0 3 1 ' '0 0 0 −8 '
Übung 3.20
⎡ ⎤
1 2 4 8
⎢1
⎢ 3 9 27 ⎥
⎥
• ◦ ◦ Man berechne det ⎢ ⎥.
⎣1 4 16 64 ⎦
1 5 25 125
v Lösung
Wir wenden den Gauß-Algorithmus in 3 Schritte an:
' ' ' ' ' ' ' '
'1 2 4 8 '' (Z2 ) − (Z1 ) '1 2 4 8 '' '1 2 4 8 '' '1 2 4 8 ''
' (Z3 ) − (Z1 ) ' (Z3 ) − 2(Z2 ) ' '
'1 27 '' '0 19 '' '0 19'' '0
' 3 9 (Z4 ) − (Z1 ) ' 1 5 (Z4 ) − 3(Z2 ) ' 1 5 (Z4 ) − 3(Z3 ) ' 1 5 19''
' ' = ' ' = ' ' = ' '.
'1 4 16 64 '' '0 2 12 56 '' '0 0 2 18'' '0 0 2 18''
' ' ' '
'1 5 25 125' '0 3 21 117' '0 0 6 60' '0 0 0 6'
> Bemerkung
Die Determinante in Übung 3.20 ist eine Vandermonde-Determinante (vgl. Übung 3.32)
mit x1 = 2, x2 = 3, x3 = 4 und x4 = 5. Daher lautet die Determinante (x2 − x1 )(x3 −
x1 )(x3 − x2 )(x4 − x1 )(x4 − x2 )(x4 − x3 ) = (5 − 4)(5 − 3)(5 − 2)(4 − 3)(4 − 2)(3 − 2) = 12.
Übung 3.21 ⎡ ⎤
0 −1 0 0 0
⎢ ⎥
⎢1 0 1 0 0⎥
⎢ ⎥
• ◦ ◦ Man berechne det ⎢
⎢0 1 0 −1 0⎥⎥.
⎢ ⎥
⎣0 1 −1 0 1⎦
0 0 0 1 0
162 Kapitel 3 • Determinanten
v Lösung
Wir wenden den Gauß-Algorithmus an:
' ' ' ' ' '
'0 −1 0 0 0'' '1 0 1 0 0'' '1 0 1 0 0''
' ' '
' ' ' ' ' '
'1 0 1 0 0' '0 −1 0 0 0' (Z3 ) + (Z2 ) '0 −1 0 0 0'
' ' (Z1 ) ↔ (Z2 ) ' ' (Z4 ) + (Z2 ) ' '
'0 1 0 −1 0'' = (−1) ''0 1 0 −1 0'' = (−1) ''0 0 0 −1 0''
'
' ' ' ' ' '
'0 1 −1 0 1' '0 1 −1 0 1' '0 0 −1 0 1'
' ' ' ' ' '
'0 0 0 1 0' '0 0 0 1 0 ' '0 0 0 1 0'
' ' ' '
'1 0 1 0 0'' '1 0 1 0 0'
' ' '
' ' ' '
'0 −1 0 0 0' '0 −1 0 0 0'
(Z3 ) ↔ (Z4 ) ' ' (Z5 ) + (Z4 ) ' '
= (−1)2 ''0 0 −1 0 1'' = (−1)2 ''0 0 −1 0 1'' = 0.
' ' ' '
'0 0 0 −1 0' '0 0 0 −1 0'
' ' ' '
'0 0 0 1 0' '0 0 0 0 0'
Die Determinante ist Null, weil die Zielmatrix eine Nullzeile hat. "
Übung 3.22 ⎡ ⎤
0 1 0 0 0 0
⎢ ⎥
⎢1 0 0 0 0 0⎥
⎢ ⎥
⎢0 0 0 0 0 1⎥
• ◦ ◦ Man berechne det ⎢
⎢0
⎥.
⎢ 0 0 1 0 0⎥⎥
⎢ ⎥
⎣0 0 1 0 0 0⎦
0 0 0 0 1 0
v Lösung
Wir wenden den Gauß-Algorithmus in 3 Schritte an:
' ' ' '
'0 0 0 0 0''
1 '1 0 0 0 0 0'
' ' '
' ' ' '
'1 0
0 0 0 0' '0 1 0 0 0 0'
' ' ' '
'0 0 0 0 1'' (S1 )↔(S2 )
0 '0 0 0 0 0 1' (S3 )↔(S6 )
' = (−1) ' ' =
'0 0 1 0 0''
0 '0 0 0 1 0 0'
' ' '
' ' ' '
'0 0
1 0 0 0' '0 0 1 0 0 0'
' ' ' '
'0 0 0 1 0'
0 '0 0 0 0 1 0'
' ' ' '
'1 0 0 0 0 0' '1 0 0 0 0 0'
' ' ' '
' ' ' '
'0 1 0 0 0 0' '0 1 0 0 0 0'
' ' ' '
'0 0 1 0 0 0' (S5 )↔(S6 ) '
3 '0 0 1 0 0 0'
'
(−1)2 '' '
' = (−1) '
3
' = (−1) · 1 = −1.
'0 0 0 1 0 0' '0 0 0 1 0 0'
' ' ' '
'0 0 0 0 0 1' '0 0 0 0 1 0'
' ' ' '
'0 0 0 0 1 0' '0 0 0 0 0 1'
"
3.2 • Determinante und Gauß-Algorithmus
163 3
> Bemerkung
Die Matrix in Übung 3.22 ist eine Permutationsmatrix (7 vgl. Abschn. 4.2.1) mit
Signum −1. Daher ist die Determinante gleich −1.
Übung 3.23
• ◦ ◦ Man berechne die folgende Determinante mittels Skalierung:
⎡ ⎤
1 1 1 1
⎢ π
⎢ 2π 0 −π ⎥ ⎥
det ⎢ ⎥.
⎣ e −e −e 2e ⎦
sin(1) 7 sin(1) − sin(1) 4 sin(1)
v Lösung
Man erkennt, dass die zweite, dritte und vierte Zeile einen gemeinsamen Faktor haben
(π , e, beziehungsweise, sin(1)). Somit gilt (Skalierung):
' ' ' '
' 1 1 1 1 '' '1 1 1 1 ''
' '
' π ' '1
' 2π 0 −π ' ' 2 0 −1''
' ' = πe sin(1) ' '.
' e
' −e −e 2e '
'
'1
' −1 −1 2 ''
'sin(1) 7 sin(1) − sin(1) 4 sin(1)' '1 7 −1 4'
Somit:
' ' ' '
' 1 1 1 1 '' '1 1 1 1 ''
' '
' π ' '1
' 2π 0 −π ' ' 2 0 −1''
' ' = πe sin(1) ' ' = −48π e sin(1).
' e
' −e −e 2e '
'
'1
' −1 −1 2 ''
'sin(1) 7 sin(1) − sin(1) 4 sin(1)' '1 7 −1 4' "
Übung 3.24
• • ◦ Die Einträge 1443, 1560, 1690, 1963 sind alle durch 13 teilbar. Man zeige ohne
explizite Berechnung der Determinanten, dass
164 Kapitel 3 • Determinanten
⎡ ⎤
1 4 4 3
⎢1
⎢ 5 6 0⎥⎥
D = det ⎢ ⎥
⎣1 6 9 0⎦
1 9 6 3
v Lösung
Der Trick bei dieser Aufgabe ist es, die Zahlen 1443, 1560, 1690, 1963 als Einträge einer
Spalten zu erhalten. Wie kann man das tun? Man kann diese Zahlen so umschreiben:
1442 = 2 + 40 + 400 + 1000 = 2 + 4 · 10 + 4 · 100 + 1 · 1000 usw. Diese Bemerkung
suggeriert, 10 Mal die dritte Spalte, 100 Mal die zweite Spalte und 1000 Mal die erste
Spalte zur letzten Spalte zu addieren:
' ' ' '
'1 4 4 3'' '1 4 4 1443''
' '
'1 0'' '1
' 5 6 (S4 ) + 10(S3 ) + 100(S2 ) + 1000(S1 ) ' 5 6 1560''
D=' ' = ' '.
'1 6 9 0'' '1 6 9 1690''
' '
'1 9 6 3' '1 9 6 1963'
Weil 1443, 1560, 1690, 1963 sind alle durch 13 teilbar sind, gilt
' ' ' ' ' '
'1 4 4 1443'' ''1 4 4 111 · 13'' '1 4 4 111''
' '
'1 1560'' ''1 ' '1
' 5 6 5 6 120 · 13' ' 5 6 120''
D=' '=' ' = 13 ' '.
'1 6 9 1690'' ''1 6 9 130 · 13'' '1 6 9 130''
' '
'1 9 6 1963' '1 9 6 151 · 13 ' '1 9 6 151'
Somit ist D gleich 13·(ganzzahliger Faktor), d. h., D ist durch 13 teilbar. Kontrollieren
Sie das Resultat, indem Sie die Determinante in gewohnter Manier berechnen. Das
Resultat ist D = 39, welches durch 13 teilbar ist. "
Übung 3.25
• • ◦ Man berechne die folgende Determinante
⎡ ⎤
1 0 0 1 2 0
⎢ ⎥
⎢ 1 −1 1 2 −3 −2⎥
⎢ ⎥
⎢ −6 1 1 3 5 −2⎥
det ⎢
⎢ 1
⎥
⎢ 0 0 3 −1 0⎥ ⎥
⎢ ⎥
⎣ 2 0 0 5 1 0⎦
−199 2 1 1 7 1
(Hinweis: man versuche, die Matrix durch Spalten- und Zeilenpermutationen in Block-
form zu schreiben).
3.2 • Determinante und Gauß-Algorithmus
165 3
v Lösung
Im ersten Augenblick sieht diese Determinante sehr kompliziert aus. Bei näherer
Betrachtung stellen wir jedoch fest, dass es viele Nullen gibt. Eine solche Matrix,
welche aus vielen Nullen besteht, nennt man dünnbesetzt. In solchen Situationen ist
es oft möglich, die Matrix durch Zeilen- oder Spaltenvertauschungen geeignet auf
Blockform zu bringen. In diesem Fall kann man die zweite und dritte Zeile mit der
vierten und fünften Zeile vertauschen. Außerdem kann man die zweite und dritte Spalte
mit der vierten und fünften Spalte vertauschen. Dies ergibt die gewünschte Matrix in
Blockform, für welche man die Determinante einfach bestimmen kann:
' ' ' '
' 1 0 0 1 2 0 '' ' 1 0 0 1 2 0 ''
' '
' ' ' '
' 1 −1 1 2 −3 −2 ' ' 1 0 0 3 −1 0 '
' ' (Z2 ) ↔ (Z4 ) ' ' (S2 ) ↔ (S4 )
' −6 1 1 3 5 −2 '' (Z3 ) ↔ (Z5 ) ' 2 0 0 5 1 0 '' (S3 ) ↔ (S5 )
' = ' =
' 1 0 0 3 −1 0 '' ' 1 −1 1 2 −3 −2 ''
' '
' ' ' '
' 2 0 0 5 1 0 ' ' −6 1 1 3 5 −2 '
' ' ' '
' −199 2 1 1 7 1 ' ' −199 2 1 1 7 1 '
' '
' 1 1 2 0 0 0 ''
'
' '
' 1 3 −1 0 0 0 ' '' '' '
' ' 1 1 2 '' ''−1 1 −2''
' 2
' 5 1 0 0 0 '' '' '' '
' 1 = '1 3 −1' ' 1 1 −2' = 3 · (−6) = −18.
' 2 −3 −1 1 −2 '' '' '' '
' ' 2 5 1 '' 2 1 1 '
' −6
' 3 5 1 1 −2 ''
' −199 1 7 2 1 1 ' "
Übung 3.26
••◦ ⎡β
··· α ⎤ α
⎢ β β . . ... ⎥
.
a) Man berechne det ⎢
⎣. . .
⎥ für α, β ∈ R.
⎦
.. . . . . α
β ··· β β
b) Man benutze das Resultat, um die Determinante der folgenden Matrizen zu bestim-
men
⎡ ⎤
⎡ ⎤ 1 5 ··· 5
2 5 5 5 ⎢ ⎥
⎢2 .
5⎥ ⎢1
⎢ 2 5 ⎥ ⎢ 1 .. 5⎥ ⎥
A=⎢ ⎥, B=⎢
.. ⎥
.
⎣2 2 2 5⎦ ⎢ .. .. .. ⎥
⎣. . . .⎦
2 2 2 2
1 1 ··· 1
v Lösung
a) Um diese anscheinend komplizierte Determinante zu berechnen, genügt es, einen
Schritt des Gauß-Algorithmus anzuwenden. Wir subtrahieren die erste Zeile von
alle anderen Zeilen:
166 Kapitel 3 • Determinanten
Nun entwickeln wir nach der ersten Spalte (hat viele Nullen) und erhalten eine
Dreiecksmatrix:
' '
'β − α 0 ··· 0 ''
'
' '
'β − α β − α . . .
' 0 ''
D=β' = β(β − α)n−1 .
' .. .. .. .. ''
' . . . . ''
'
'β − α · · · β − α β − α '
b) Wenden wir nun das obige Resultat mit n = 4, α = 5 und β = 2 (für A) bzw. α = 5
und β = 1 (für B), so erhalten wir:
' '
' ' '1 5 ··· 5''
'2 5 5 5'' '
' ' . '
'2 5'' '1
' 2 5 ' 1 .. 5''
' ' = 2 · (2 − 5)3 = −54, '. .. . . .. ''
= 1 · (1 − 5)n−1 = (−4)n−1 .
'2 2 2 5'' '.
' '. . . .' '
'2 2 2 2' '
'1 1 ··· 1' "
Übung 3.27
••◦ ⎡β
··· α ⎤α
⎢ α β . . ... ⎥
.
a) Man berechne det ⎢
⎣. . .
⎥ für α, β ∈ R.
⎦
.. . . . . α
α ··· α β
b) Man benutze das Resultat aus (a), um die Determinante der folgenden Matrix zu
bestimmen
⎡ ⎤
−3 1 1 1
⎢1
⎢ −3 1 1⎥⎥
A=⎢ ⎥.
⎣1 1 −3 1⎦
1 1 1 −3
3.2 • Determinante und Gauß-Algorithmus
167 3
v Lösung
a) Wir wenden den Gauß-Algorithmus an und bekommen:
' ' ' '
'β α α · · · α ' ' β α α · · · α ''
' ' '
' ' ' '
' .. ' 2 ) − (Z1 ) ' .. '
'α β α . α ' (Z ' α − β β − α 0 . 0 '
' ' (Z3 )etc.
− (Z1 ) ' '
' . . ' ' . ' (S1 )+(S2 )
'α α β . . .. ' = 'α − β 0 β − α . . 0 ' =
' ' ' '
'. . . ' ' '
'. . . . . . . α '' ' .. .. .. ..
. . .. ''
.
'. . ' . .
' ' ' '
'α α · · · α β ' 'α − β 0 · · · 0 β − α'
' ' ' '
'β + α α α · · · α '' 'β + 2α α α · · · α ''
' '
' ' ' '
' .. ' ' .. '
' 0 β −α 0 . 0 ' ' 0 β −α 0 . 0 '
' ' ' '
' '(S1 )+(S3 )' ' (S1 )+(Sn )
'α − β 0 β − α . . . 0 ' = ' 0 0 β − α
..
. 0 '= · · · =
' ' ' '
' . .. . ' ' '
' . .. ..
. . .. '' ' .. .. .. ..
.
.
. .. ''
' . . ' . .
' ' ' '
'α − β 0 · · · 0 β − α' 'α−β 0 · · · 0 β − α'
' '
'β + (n − 1)α α α · · · α ''
'
' '
' .. '
' 0 β −α 0 . 0 '
' ' A B
' '
' 0 0 β − α
..
. 0 ' = β + (n − 1)α (β − α)n−1 .
' '
' .. .. .. .. .. ''
' . .
' . . . '
' '
' 0 0 · · · 0 β − α'
b) Benutzen wir das obige Resultat mit n = 4, α = 1 und β = −3, so erhalten wir
' '
'−3 1 1 1 ''
'
'1
' −3 1 1 '' A B
' ' = − 3 + (4 − 1) (−3 − 1)3 = 0.
'1 1 −3 1 ''
'
'1 1 1 −3' "
Übung 3.28
• • ◦ Man berechne die Determinante der folgenden (n × n)-Matrix
⎡ ⎤
1 1 1 ··· 1 1
⎢ ⎥
⎢−1 2 1 ··· 1 1⎥
⎢ ⎥
⎢−1 −1 3 ··· 1 1⎥
⎢ ⎥
det ⎢ . .. .. .. .. .. ⎥ , n ≥ 2.
⎢ .. . . . . .⎥
⎢ ⎥
⎢ ⎥
⎣−1 −1 −1 ··· n − 1 1⎦
−1 −1 −1 · · · −1 n
168 Kapitel 3 • Determinanten
v Lösung
Es sei Dn die zu bestimmende Determinante. Wir wenden den ersten Schritt des Gauß-
Algorithmus an, indem wir die erste Zeile zur letzten Zeile addieren:
' ' ' '
'1 1 1 ··· 1 1'' '1 1 1 ··· 1 1 ''
' '
' ' ' '
'−1 2 1 ··· 1 1' '−1 2 1 ··· 1 1 '
' ' ' '
'−1 −1 3 ··· 1 1'' '−1 −1 3 ··· 1 1 ''
' (Zn ) + (Z1 ) '
Dn = ' . .. .. .. .. .. '' = ' . .. .. .. .. .. ''
' .. . . . . .' ' .. . . . . . '
' '
' ' ' '
'−1 −1 −1 ··· n − 1 1' '−1 −1 −1 ··· n − 1 1 '
' ' ' '
'−1 −1 −1 · · · −1 n' '0 0 0 · · · 0 n + 1'
Dann entwicklen wir nach der letzten Zeile (hat viele Nullen) und erhalten:
' '
'1 1 1 ··· 1 1 '' ' '
' '1 1 1 · · · 1 ''
' ' '
'−1 2 1 ··· 1 1 ' ' '
' ' '−1 2 1 ··· 1 '
'−1 −1 3 ··· 1 1 '' ' '
' ' 3 · · · 1 '' = (n + 1) Dn−1 .
Dn = ' .
' .. .. .. .. .. .. '' = (n + 1) ''−1 −1
' . . . . . ' ' .. .. .. . . . '
' ' ' . . . . .. ''
'−1 −1 −1 ··· n − 1 1 ' ' '
' ' '−1 −1 −1 · · · n − 1'
'0 0 0 ··· 0 n + 1 ' 7 89 :
=Dn−1
Wir erhalten eine Rekursionsformel für die Determinante Dn . Wenden wir diese Formel
rekursiv an, so bekommen wir
Dn = (n + 1) Dn−1 = (n + 1) · n Dn−2
= (n + 1) · n · (n − 1) Dn−3 = · · · = (n + 1) · n · (n − 1) · · · 4 D2 .
' '
'1
' 1''
Wir berechnen D2 explizit, D2 = ' ' = 2 + 1 = 3, und erhalten
'−1 2'
Dn = (n + 1) · n · (n − 1) · · · 4D2 = (n + 1) · n · (n − 1) · · · 4 · 3
(n + 1) · n · (n − 1) · · · 4 · 3 · 2 (n + 1)!
= = .
2 2 "
Übung 3.29
• • • Man berechne die folgende Determinante:
⎡ ⎤
0 0 ··· 0 a1
⎢ ⎥
⎢0 0 ··· a2 0⎥
⎢ ⎥
⎢. . . .. .. ⎥
det ⎢ .. .. .. . .⎥ .
⎢ ⎥
⎢ ⎥
⎣ 0 an−1 ··· 0 0⎦
an 0 ··· 0 0
3.2 • Determinante und Gauß-Algorithmus
169 3
v Lösung
Es sei Dn die zu bestimmende Determinante. Wir entwickeln zuerst nach der ersten
Spalte
' '
'0 0 ··· 0 a1 '' ' '
' ' 0
' ' ' ··· 0 a1 ''
'0 0 ··· a2 0' ' 0
'
'. . .. .. '
' ' ··· a2 0 ''
. n+1 ' . n+1
Dn = ' .. ..
' .. . . '' = (−1) an ' . . .. .. '' = (−1) an Dn−1 .
' ' ' . .. . . ''
' 0 an−1 ··· 0 0' '
' ' 'a ··· 0 0'
'an 0 n−1
··· 0 0' 7 89 :
=Dn−1
Dies ist eine Rekursionsformel für die Determinante Dn . Wenden wir diese Formel
rekursiv an, so wird:
Fn n(n+1)
Mit der Formel j=1 j = 2 erhalten wir:
⎛ ⎞
n+1 n+1
C C (n + 1)(n + 2) n2 + 3n
(n + 1) + n + (n − 1) + · · · + 2 = j=⎝ j⎠ − 1 = −1= .
2 2
j=2 j=1
Übung 3.30
• • ◦ Man berechne die Determinante der (n × n)-Matrix A mit den Komponenten
v Lösung
Die Matrix A lautet explizit
⎡ ⎤ ⎡ ⎤
min{1, 1} min{1, 2} min{1, 3} · · · min{1, n} 111 ··· 1
⎢ ⎥ ⎢ ⎥
⎢min{2, 1} min{2, 2} min{2, 3} · · · min{2, n}⎥ ⎢1 2 2 ··· 2⎥
⎢ ⎥ ⎢ ⎥
⎢ · · · min{3, n}⎥ ⎢ 3⎥
A = ⎢min{3, 1} min{3, 2} min{3, 3} ⎥ = ⎢1 2 3 ··· ⎥.
⎢ .. .. .. .. .. ⎥ ⎢. . . .. .. ⎥
⎢ . ⎥ ⎢. . . . ⎥
⎣ . . . . ⎦ ⎣. . . .⎦
min{n, 1} min{n, 2} min{n, 3} · · · min{n, n} 123 ··· n
Nun entwicklen wir nach der ersten Spalte (hat viele Nullen):
' '
'1 1 1 ··· 1 '' ' '
' '1
' ' ' 1 ··· 1 ''
'0 1 1 ··· 1 ' '1
'
'
' ' 2 ··· 2 ''
Dn = '0 1 2 ··· 2 '' = 1 · ' . .. .. '' = Dn−1 .
'. '. ..
'. .. .. .. .. '' '. . . . ''
'. . . . . ' '
' ' '1 2 · · · n − 1'
'0 1 2 · · · n − 1' 7 89 :
=Dn−1
Wir erhalten eine Rekursionsformel für die Determinante Dn und zwar Dn = Dn−1 . Aus
dieser Formel folgt unmittelbar Dn = Dn−1 = Dn−2 = · · · D1 . Wegen D1 = det[1] = 1,
gilt Dn = 1, ∀n ∈ N. "
Übung 3.31
• • ◦ Man berechne die Determinante der (n × n)-Matrix A mit den Komponenten
i
aij = δi,j + , i, j = 1, · · · , n.
j
3.2 • Determinante und Gauß-Algorithmus
171 3
v Lösung
Die Matrix A lautet explizit
⎡ ⎤ ⎡ ⎤
1 1 1 1 1 1 1
1+ 1 2 3 ··· n 2 2 3 ··· n
⎢ 2 2 2 2 ⎥ ⎢ 2⎥
⎢ 1 1+ 2 3 ··· n
⎥ ⎢2 2 23 ··· n⎥
⎥
⎢ ⎥ ⎢
⎢ 3 3
1+ 3 3 ⎥ ⎢3 3 3⎥
A=⎢ 1 2 3 ··· n ⎥=⎢ 2 2 ··· n⎥.
⎢ . .. .. .. .. ⎥ ⎢. .. .. . . .. ⎥
⎢ . . ⎥ ⎢. ⎥
⎣ . . . . ⎦ ⎣. . . . .⎦
n n n n n n
1 2 3 ··· 1 + n n 2 3 ··· 2
Übung 3.32
• • • Ziel dieser Aufgabe ist die sogenannte Vandermonde-Determinante
⎡ ⎤
1 x1 x21 · · · xn−1
1
⎢1 x2 x22 · · · xn−1 ⎥
⎢ 2 ⎥
Vn (x1 , x2 , · · · , xn ) = det ⎢
⎢ .. .. .. .. . ⎥⎥
⎣. . . . .. ⎦
1 xn x2n · · · xn−1
n
gilt. (Hinweis: Man definiere die Funktion pn (z) = Vn (x1 , · · · , xn−1 , z). Was sind
die Nullstellen von pn (z)?)
c) Man bestimme Vn explizit und zeige
172 Kapitel 3 • Determinanten
⎡ ⎤
1 x1 x21 · · · xn−1
1
⎢1 x2 x22 · · · xn−1 ⎥ K
⎢ 2 ⎥
det ⎢
⎢ .. .. .. .. . ⎥⎥= (xj − xi ).
⎣. . . . .. ⎦ i<j
1 xn x2n · · · xn−1
n
v Lösung
a) Mittels Spaltenentwicklung der Determinante nach der letzten Zeile gilt:
' '
' 1 x1 x21 ··· xn−1
1 '
' '
' 1 x2 x22 ··· xn−1
2 '
Vn (x1 , x2 , · · · , xn ) = '' . . . . '
'
' .. .. . . .. '
' n−1 '
1 xn x2n ··· xn
=:a =:a
9 :70 8 9 :71 8
' ' ' '
' x1 x21 ··· xn−1
1 ' ' 1 x21 ··· xn−1
1 '
' 2 n−1 ' ' 2 n−1 '
' x2 x2 ··· x2 ' ' 1 x2 ··· x2 '
= (−1)n+1 · '' . .. . . .. '' +xn · (−1)
n+2 ' '
' .. .. . . .. ' + · · ·
' .. . . . ' '. . . . '
' x x2 ··· xn−1 ' ' 1 x2 ··· xn−1 '
n−1 n−1 n−1 n−1 n−1
=:an−1
9 :7 8
' '
' 1 x1 x21 ··· xn−2
1 '
' '
' 1 x2 x22 ··· xn−2
2 '
n−1 2n ' n−1
+ xn (−1) · ' . .
7 89 : ' .. .. .. . . .. '' = a0 + a1 xn + · · · + an−1 xn .
. . . '
=1 '1 x x2 ··· xn−2
'
n−1 n−1 n−1
Vn (x1 , x2 , · · · , xn ) ist somit ein Polynom in der Variable xn vom Grad n − 1. Die
Koeffizienten a0 , a1 , · · · , an−1 sind Funktionen der anderen Variablen x1 , x2 , · · · ,
xn−1 .
b) Die Idee ist, xn als eine neue Variable z aufzufassen:
' '
'1 x x21 · · · xn−1 '
' 1 1 '
' n−1 ''
'1 x2 x22 · · · x2
' '
'. . .. .. . '
pn (z) = ' .. .. . . .. '' .
'
' '
'1 xn−1 x2n−1 · · · xn−1
n−1 ''
'
'1 z z2 ··· z 'n−1
Aus Teilaufgabe (a) wissen wir, dass pn (z) ein Polynom vom Grad n − 1 in z ist.
Werten wir dieses Polynom an der Stelle z = x1 aus, so erhalten wir:
' '
'1 x1 x21 · · · xn−1 '
' 1 '
' n−1 ''
'1 x2 x22 · · · x2
' '
'. .. .. .. .. '
pn (z = x1 ) = ' .. . . . . '' = 0,
'
' '
'1 xn−1 x2n−1 · · · xn−1
n−1 ''
' n−1 '
'1 x1 x21 ··· x 1
3.2 • Determinante und Gauß-Algorithmus
173 3
weil die erste und letzte Zeile identisch sind. Analog gilt:
' '
'1 x1 x21 · · · xn−1 '
' 1 '
' n−1 ''
'1 x2 x22 · · · x2
' '
'. .. .. .. . '
pn (z = x2 ) = ' .. . . . .. '' = 0
'
' '
'1 xn−1 x2n−1 · · · xn−1
n−1 ''
'
'1 x2 x22 · · · xn−1
2
'
usw. bis
' '
'1 x1 x21 · · · xn−1 '
' 1 '
' n−1 ''
'1 x2 x22 · · · x2
' '
'. .. .. .. .. '
pn (z = xn−1 ) = ' .. . . . . '' = 0.
'
' '
'1 xn−1 x2n−1 · · · xn−1
n−1 ''
' n−1 '
'1 xn−1 x2n−1 ··· x n−1
Daraus folgt Vn (x1 , · · · , xn ) = (xn −x1 )(xn −x2 ) · · · (xn −xn−1 )Vn−1 (x1 , · · · , xn−1 ).
c) In Teilaufgabe (b) haben wir eine Rekursionsrelation für Vn (x1 , · · · , xn ) erhalten.
Wenden wir diese Relation an so erhalten wir:
Somit gilt:
3.3.1 Permutationen
Eine Permutation beschreibt das Vertauschen der Reihenfolge von n Objekten (wie
Zahlen, Buchstaben, geometrische Figuren usw.), . Abb. 3.4. Diese Operation kann
man mathematisch durch eine bijektive Abbildung σ von der Menge {1, 2, · · · , n} in
sich selbst beschreiben:
Eine Permutation ordnet somit jeder Zahl i ∈ {1, 2, · · · , n} genau eine Zahl σ (i) in
derselben Menge {1, 2, · · · , n} zu, aber in einer anderen Reihenfolge. Permutationen
kann man in Matrixschreibweise wie folgt beschreiben
? @
1 2 ··· n
σ = . (3.12)
σ (1) σ (2) · · · σ (n)
In der ersten Zeile stehen die natürlichen Zahlen von 1 bis n (Ausgangspunkt).
Unter jeder Zahl steht in der zweiten Zeile das Bild σ (i). Weil jede Permutation σ
nur die Reihenfolge der Zahlen von 1 bis n ändert, kommt jeder i ∈ {1, 2, · · · , n}
# Beispiel
A B 5 6
wird in Matrixschreibweise wie folgt dargestellt σ = 14 21 35 42 53 = 4 1 5 2 3 .
A B 5 6
5 Bei der Permutation σ = 12 23 31 44 = 2 3 1 4 geht 1 zu 2, 2 geht zu 3, 3 zu 1 und 4
zu 4.
5 Die Permutation, die kein Element bewegt, heißt identische Permutation, oft mit e
bezeichnet:
% &
1 2 ··· n 5 6
e= = 1 2 ··· n . $
1 2 ··· n
# Definition 3.4
Die Zusammensetzung der Permutationen σ und π wird mit dem Symbol π ◦ σ bezeichnet.
In diesem Fall werden die Permutationen π und σ nacheinander ausgeführt (von rechts
nach links, d. h. zuerst σ und dann π). Das Ergebnis ist wieder eine Permutation. $
# Beispiel
A1 2 3 4B A1 2 3 4B A1 2 3 4B
Die Komposition von σ = 2314 und π = 1423 ergibt π ◦ σ = 4213 .$
Praxis Tip
Zur praktischen Berechnung von π ◦ σ kann man einfach den Weg aller Elemente
1, 2, 3, 4 unter σ und dann π individuell verfolgen:
σ π
1 .→ 2 .→ 4 1 2 3 4
σ π
2 .→ 3 .→ 2 σ ↓ ↓ ↓ ↓
σ π
3 .→ 1 .→ 1 oder 2 3 1 4
σ π
4 .→ 4 .→ 3 π ↓ ↓ ↓ ↓
4 2 1 3
176 Kapitel 3 • Determinanten
Inverse Permutation
# Definition 3.5
π heißt Inverse von σ , wenn π ◦ σ = σ ◦ π = e gilt. Geschrieben wird π = σ −1 . $
# Beispiel
A B A B A B
Die Komposition von σ = 14 21 35 42 53 und π = 12 24 35 41 53 ergibt π ◦ σ = 11 22 33 44 55 = e. π
ist somit die Inverse von σ , d. h. σ −1 = π . $
Praxis Tip
In der Praxis kann man π ◦ σ berechnen, indem man man den Weg aller Elemente
1, 2, 3, 4, 5 unter σ und dann π individuell verfolgt:
σ π
1 .→ 4 .→ 1 1 2 3 4 5
σ π
2 .→ 1 .→ 2 σ ↓ ↓ ↓ ↓ ↓
σ π
3 .→ 5 .→ 3 oder 4 1 5 2 3
σ π
4 .→ 2 .→ 4 π ↓ ↓ ↓ ↓ ↓
σ π
5 .→ 3 .→ 5 1 2 3 4 5
# Satz 3.3
Die Ordnung von Sn (d. h., die Anzahl Elemente von Sn ) ist
|Sn | = n! (3.15)
# Beispiel
# Beispiel
;1 2 3 4 5 <
Die Permutationσ = 1 5 3 4 2 vertauscht nur die Zahlen 2 und 5. σ ist daher eine
Transposition und wir schreiben σ = τ25 . $
# Beispiel
A B 5 6
Die Permutation σ = 12 23 31 = 2 3 1 kann man wie folgt als Produkt von Transposi-
tionen schreiben σ = τ12 τ13 , wie man leicht nachrechnet:
> Bemerkung
Beachte, dass die Darstellung einer Permutation als Produkt von Transpositionen nicht
eindeutig ist. Jede solche Darstellung kann man immer durch Multiplikation mit dem
Paar τji τij = e in ein weiteres Produkt überführen, ohne dass sich das Endresultat
ändert. Zum Beispiel:
σ = τ12 τ13 = τ12 τ13 τ21 τ12 = τ12 τ13 τ21 τ12 τ32 τ23 = usw.
7 89 : 7 89 : 7 89 :
=e =e =e
178 Kapitel 3 • Determinanten
Grafisch:
Im vorigen Abschnitt haben wir gesehen, dass wir jede Permutation als Produkt von
Transpositionen darstellen können. Obwohl diese Darstellung nicht eindeutig ist, ist
die Anzahl der nötigen Transpositionen für eine Permutation immer gerade oder
ungerade. Aus diesem Grund, definieren wir das Signum einer Permutation σ (notiert
sign(σ )) als:
$
+1 σ ist Produkt einer geraden Anzahl von Transpositionen
sign(σ ) =
−1 σ ist Produkt einer ungeraden Anzahl von Transpositionen
> Bemerkung
Die Formel sign(σ −1 ) = sign(σ ) kann man intuitiv wie folgt verstehen. Es gilt: σ ◦
σ −1 = e. Die Identität e hat keine Transpositionen. Um σ −1 zu erzeugen, müssen
wir alle Transpositionen von σ rückwärts anwenden. σ −1 besteht somit aus derselben
Anzahl Transpoitionen wie σ , also hat σ −1 desselbe Signum wie σ .
# Beispiel
5 Die Permutation σ = (51243) kann man als Produkt von 4 Transpositionen schreiben
A B
σ = 15 21 32 44 53 = τ35 τ25 τ15 . Somit sign(σ ) = (−1)3 = −1.
5 Die Permutation σ = (2345671) kann man wie folgt als Produkt von Transpositionen
A B
schreiben σ = 12 23 34 45 56 67 71 = τ67 τ56 τ45 τ34 τ23 τ12 . Somit sign(σ ) = (−1)6 = 1.
5 S2 enthält 2! = 2 Permutationen. Diese sind die Identität e = (12) und (21). Es ist
sign(e) = +1 und sign(21) = −1
5 S3 enthält 3! = 6 Permutationen. 3 davon sind gerade; die anderen 3 sind ungerade:
Die Determinante einer allgemeinen Matrix A ∈ Kn×n kann man mithilfe von
Permutationen wie folgt definieren:
180 Kapitel 3 • Determinanten
C
det(A) := sign(σ ) a1σ (1) a2σ (2) · · · anσ (n)
σ ∈Sn
Diese Formel ist als Leibniz-Formel bekannt. Die Summe läuft über alle Permuta-
tionen σ ∈ Sn . Wegen |Sn | = n! enthält die Leibniz-Formel n! Summanden, was die
Berechnung der Determinante bei großes n sehr aufwendig macht. Aus diesem Grund
wird die Leibniz-Formel in der Praxis nicht zur Berechnung von Determinanten
verwendet. Die Formel ist stattdessen nützlich für theoretische Beweise, an denen die
Determinante beteiligt ist (vgl. z. B. Übung 3.36). Für die praktische Berechnung von
Determinanten benutzt man die Methoden, die wir in den vorherigen Abschnitten
untersucht haben. Denn die Leibniz-Formel entspricht genau der Definitionen von
7 Abschn. 3.1 (vgl. Übungen 3.33 und 3.34). Als Übung betrachten wir jetzt einige
Anwendungen der Leibniz-Formel.
Übung 3.33
• ◦ ◦ Mithilfe der Leibniz-Formel leite man die Formel der Determinante einer (2 × 2)-
Matrix her (Formel (3.1)).
v Lösung
Nach der Leibniz-Formel ist die Determinante einer (2 × 2)-Matrix A ∈ K2×2
C
det(A) = sign(σ ) a1σ (1) a2σ (2) .
σ ∈S2
Übung 3.34
• ◦ ◦ Mithilfe der Leibniz-Formel leite man die Formel der Determinante einer (3 × 3)-
Matrix her (Formel (3.3)).
3.3 • Allgemeine Definition der Determinante – die Leibniz-Formel
181 3
v Lösung
Nach der Leibniz-Formel ist die Determinante einer (3 × 3)-Matrix A ∈ K3×3
C
det(A) = sign(σ ) a1σ (1) a2σ (2) a3σ (3) .
σ ∈S3
σ = (123) = e ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a11 a22 a33
σ = (312) ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a13 a21 a32
σ = (231) ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a12 a23 a31
σ = (213) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a12 a21 a33
σ = (321) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a13 a22 a31
σ = (132) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a11 a23 a32
= a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 . "
Übung 3.35
• ◦ ◦ Man zeige mithilfe der Leibniz-Formel, dass für Diagonalmatrizen A =
% a11 ··· 0 &
.. . . .. gilt det(A) = a11 · · · ann .
. . .
0 ··· ann
v Lösung
Um ein Gefühl für die Situation zu bekommen,
? @beweisen wir die Aussage zuerst für
a11 0 0
eine (3 × 3)-Diagonalmatrix A = 0 a22 0 . Nach der Leibniz-Formel ist die
0 0 a33
Determinante von A durch
C
det(A) = sign(σ ) a1σ (1) a2σ (2) a3σ (3)
σ ∈S3
σ = (123) = e ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a11 a22 a33
σ = (312) ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a13 a21 a32 = 0
σ = (231) ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a12 a23 a31 = 0
σ = (213) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a12 a21 a33 = 0
182 Kapitel 3 • Determinanten
σ = (321) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a13 a22 a31 = 0
σ = (132) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a11 a23 a32 = 0
Dabei haben wir die Tatsache benutzt, dass alle außerdiagonalen Elemente von A
verschwinden, d. h. a12 = a13 = a23 = · · · = 0. Aus der Leibniz-Formel folgt somit das
gewünschte Resultat det(A) = a11 a22 a33 .
Jetzt wiederholen wir das obige Argument für eine (n × n)-Diagonalmatrix. Nach der
Leibniz-Formel gilt:
C
det(A) = sign(σ ) a1σ (1) a2σ (2) · · · anσ (n) .
σ ∈Sn
Weil alle außerdiagonalen Elemente von A verschwinden, d. h. aij = 0 für i ̸= j, sind alle
Terme a1σ (1) a2σ (2) · · · anσ (n) in der obigen Summe gleich Null, außer für e = (12 · · · n).
Daraus folgt
C
det(A) = sign(σ ) a1σ (1) a2σ (2) · · · anσ (n) = a11 a22 · · · ann .
σ ∈Sn "
Übung 3.36
• • ◦ Man zeige: Vertauscht man zwei Spalten, dann ändert die Determinante ihr
Vorzeichen.
v Lösung
Es sei A ∈ Kn×n und es sei B ∈ Kn×n die Matrix, die durch Vertauschen der p-ten
und q-ten Spalten von A entstanden ist. Wie können wir nun den Link zwischen A und
B mithilfe von Permutationen darstellen? Bei der Matrix B sind die Spalten p und q
vertauscht. Es sei also τpq die Transposition, welche p und q vertauscht. Dann hat B die
Einträge bij = aiτpq (j) . Somit ist
C
det(B) = sign(σ ) b1σ (1) b2σ (2) · · · bnσ (n)
σ ∈Sn
C
= sign(σ ) a1(τpq ◦σ )(1) a2(τpq ◦σ )(2) · · · an(τpq ◦σ )(n) .
σ ∈Sn
Für Transpositionen ist sign(τpq ) = −1. Daraus folgt sign(τpq ◦σ ) = sign(τpq ) sign(σ ) =
−sign(σ ), so gilt:
C
det(B) = − sign(τpq ◦ σ ) a1(τp,q ◦σ )(1) a2(τpq ◦σ )(2) · · · an(τpq ◦σ )(n)
σ ∈Sn
C
=− sign(σ ′ ) a1σ ′ (1) a2σ ′ (2) · · · anσ ′ (n) = − det(A).
σ ′ ∈Sn
3.4 • Inverse Matrix
183 3
Im letzten Schritt haben wir benutzt, dass mit σ auch σ ′ = τpq ◦ σ ganz Sn durchläuft.
"
Übung 3.37 5 6
• • ◦ Es sei A ∈ Kn×n . Man zeige: det AT = det(A).
v Lösung ; <
Es sei B = AT . Hat A die Einträge aij , so hat B die Einträge [B]ij = AT = aji . Somit
ij
gilt:
5 6 C
det AT = det(B) = sign(σ ) b1σ (1) b2σ (2) · · · bnσ (n)
σ ∈Sn
C C
= sign(σ ) aσ (1)1 aσ (2)2 · · · aσ (n)n = sign(σ ) a1σ −1 (1) a2σ −1 (2) · · · anσ −1 (n) .
σ ∈Sn σ ∈Sn
Im letzten Schritt haben wir benutzt, dass mit σ auch σ ′ = σ −1 ganz Sn durchläuft. "
Eine wichtige Anwendung der Determinante ist die Berechnung der inversen Matrix.
# Satz 3.6
A ∈ Kn×n ist genau dann invertierbar (d. h. regulär), wenn det(A) ̸= 0. Ist det(A) = 0, so
ist A nichtinvertierbar (d. h. singulär). $
Für (2 × 2)-Matrizen ist die Berechnung der Inversen besonders einfach. Es gilt
folgende Formel (vgl. Bsp. 3.44):
184 Kapitel 3 • Determinanten
# Satz 3.7
A a12 B
Eine (2 × 2)-Matrix A = aa1121 a22 ist genau dann invertierbar, wenn det(A) ̸= 0 gilt. Die
Inverse ist bestimmt durch:
% &
−1 1 a22 −a12
A = (3.17)
det(A) −a21 a11
i Merkregel
Bei A−1 werden die Diagonaleinträge vertauscht, während die Nebendiagonalelemente
mit (−1) multipliziert werden
⎡ ⎤
% &−1 a22 − a12
a11 a12 1 ⎢ ⎥
= ⎣ ↘
↖ ⎦
a21 a22 det(A)
− a21 a11
# Beispiel
' '
A1 2B '1 2''
A= ist invertierbar, weil det(A) = '' = 1 · 2 − 0 · 2 = 2 ̸= 0. Die Inverse ist (Satz (3.7)):
02 0 2'
? @ ? @ ? @
1 a22 −a12 1 2 −2 1 −1
A−1 = = = 1 .$
det(A) −a21 a11 2 0 1 0 2
Bevor wir die Formel für die Inverse einer (n × n)-Matrix diskutieren können, müssen
wir zuerst die Kofaktormatrix und die adjunkte Matrix einführen.
Kofaktormatrix
# Definition 3.9
Es sei A ∈ Kn×n . Wir definieren die Kofaktormatrix cof(A) von A wie folgt:
⎡ ⎤
[cof(A)]11 · · · [cof(A)]1n
⎢ .. .. .. ⎥
⎢
cof(A) = ⎣ ⎥, (3.18)
. . . ⎦
[cof(A)]n1 · · · [cof(A)]nn
wobei
= >
[cof(A)]ij = (−1)i+j det Aij . (3.19)
Aij ist die Matrix, welche man erhält, wenn man die i-te Zeile und die j-te Spalte von A
streicht (7 vgl. Abschn. 3.1.3):
3.4 • Inverse Matrix
185 3
⎡ ⎤
⎢ a11 ··· a1j ··· a1n ⎥
⎢ . .. .. .. .. ⎥
⎢ . ⎥
⎢ . . . . . ⎥
⎢ ⎥
Aij = ⎢ a ··· aij ··· ain ⎥ (3.20)
⎢ i1 ⎥
⎢ . .. .. .. .. ⎥
⎢ . . . ⎥
⎣ . . . ⎦
am1 ··· amj ··· amn
Adjunkte Matrix
# Definition 3.10
Die Transponierte von cof(A) heißt adjunkte Matrix:
! Achtung
Die adjunkte Matrix ist nicht mit der adjungierten Matrix (vgl. 7 Kap. 1) zu verwech-
seln.
# Satz 3.8
Eine (n × n)-Matrix A ist genau dann invertierbar, wenn det(A) ̸= 0. Außerdem ist die
Inverse
cof(A)T adj(A)
A−1 = = (3.22)
det(A) det(A)
cof(A) ist die Kofaktormatrix von A und adj(A) ist die adjunkte Matrix. $
⎡ ⎤
1 −4 2
A = 0 2 −1⎦ ist invertierbar, weil
⎣
0 0 5
186 Kapitel 3 • Determinanten
' '
' 1 −4 2 '
' '
det(A) = '' 0 2 −1 '' = 1 · 2 · 5 = 10 ̸= 0.
'0 0 5 '
> Bemerkung
Wie man im Musterbeispiel 3.3 sieht, ist für große Matrizen die Bestimmung der
inversen Matrix im Allgemeinen leichter mit dem Gauß-Algorithmus (vgl. 2.4.2) als
mit der expliziten Satz (3.8). Für (2 × 2)-Matrizen ist die Formel vom Satz 3.7 aber
ganz praktisch.
3.4.4 Beispiele
Übung 3.38
•◦◦ Untersuche die folgenden Matrizen auf Invertierbarkeit und bestimme gegebenfalls
die inverse Matrix:
% &
23
a) A =
35
% &
−2 −1
b) B =
4 −3
% &
12
c) C =
36
v Lösung
a) Um A auf Invertierbarkeit
' ' zu untersuchen, müssen wir einfach die Determinante
'2 3'
' '
bestimmen det A = ' ' = 10 − 9 = 1. Wegen det A ̸= 0 ist A invertierbar. Nun
'3 5'
wenden wir Satz (3.7) an und erhalten
3.4 • Inverse Matrix
187 3
% & % & % &
−1 1 a22 −a12 1 5 −3 5 −3
A = = = .
det(A) −a21 a11 1 −3 2 −3 2
' '
' −2 −1 '
' '
b) Wegen det(B) = ' ' = 6 + 4 = 10 ̸= 0 ist B invertierbar. Mit Satz (3.7)
' 4 −3 '
finden wir
% & % & % &
1 1 −3 1 3 1
−1 b22 −b12 − 10 10 .
B = = =
det(B) −b21 b11 10 −4 −2 − 25 − 15
' '
'1 2 '
' '
c) Wegen det(C) = ' ' = 6 − 6 = 0 ist C nichtinvertierbar. Die inverse Matrix
'3 6 '
C −1 existiert folglich nicht. "
Übung 3.39
• ◦ ◦ Für welche α ∈ R sind die folgenden Matrizen invertierbar? Man bestimme
gegebenfalls die Inverse.
% &
α0
a) A =
21
% &
2 1 − α2
b) B = 1
0 2
% &
1−α 2
c) C =
− 32 1 + α
v Lösung
a) Um die Matrix A in Abhängigkeit des Parameters α auf Invertierbarkeit ' ' zu
'α 0'
' '
untersuchen, müssen wir einfach die Determinante bestimmen det(A) = ' '=
'2 1'
α − 0 = α. Nun wissen wir, dass die Matrix A genau dann invertierbar ist, wenn
det(A) ̸= 0 gilt. Hiermit ist die gegebene Matrix genau dann invertierbar, wenn
α ̸= 0. Mit Satz (3.7) finden wir
% & % & % &
1 1 1 0 1
−1 a22 −a12 0
A = = = α .
det(A) −a21 a11 α −2 α − α2 1
' '
' 2 1 − α2 '
' '
b) Wegen det(B) = ' 1 ' = 1 − 0 = 1 ̸= 0 ist B für alle α ∈ R invertierbar. Mit
'0 2
'
Satz (3.7) finden wir
% & % & % &
−1 1 b22 −b12 1 12 α 2 − 1 1 2
α − 1
B = = = 2 .
det(B) −b21 b11 1 0 2 0 2
188 Kapitel 3 • Determinanten
' '
'1 − α 2 '
' '
c) Wegen det(C) = ' ' = 1−α 2 +3 = 4−α 2 ist C genau dann invertierbar,
' − 32 1 + α '
4 − α 2 ̸= 0 ⇒ α 2 ̸= 4 ⇒ α ̸= ±2. Für α ̸= ±2 lautet die gesuchte Inverse
% & % & % 1+α 2
&
−1 1 c22 −c12 1 1 + α −2 4−α 2 − 4−α 2
C = = 3
= 3 1−α .
det(C) −c21 c11 4 − α2 1−α
2 2(4−α 2 ) 4−α 2 "
Übung 3.40
• ◦ ◦ Man betrachte die folgenden Matrizen
% &
α1
a) A =
20
% &
1
b) A =
α
% &
2 0 −2
c) A =
2 1 − α −2
Für welche α ∈ R ist AAT regulär? Man bestimme gegebenfalls die Inverse (AAT )−1 .
Übung 3.41 ⎡ ⎤
1 −1 3
⎢ ⎥
••◦ Man untersuche A = ⎣1 1 2⎦ auf Invertierbarkeit und man berechne die Inverse
2 0 7
mittels der Kofaktormatrix.
v Lösung
Wegen det(A) = 4 ̸= 0 ist A invertierbar. Die Inverse lautet (Satz (3.8)):
⎡ ' ' ' ' ' ' ⎤T
'1 2' '1 2' '1 1'
' ' ' ' ' '
⎢ ' ' −' ' ' ' ⎥
⎢ '0 7'
' ' 2 7'
' ' '2 0' ⎥ ⎡ ⎤T
⎢ ' ' '⎥ 7 −3 −2
1 ⎢ ⎢ '
'−1 3' '1 3'
' ' '
'1 −1'⎥
' '⎥ 1 ⎢ ⎥
A−1 = ⎢− ' ' ' ' −' '⎥ = ⎣ 7 1 −2⎦
det(A) ⎢ ' 0 7' '2 7' '2 0 '⎥ 4
⎢ ' ' ' ' ' ' ⎥ −5 1 2
⎢ '−1 3' '1 3' '1 −1' ⎥
⎣ ' ' ' ' ' ' ⎦
' ' −' ' ' '
' 1 2' '1 2' '1 1 '
⎡ ⎤ ⎡ ⎤
7 7
7 7 −5 −5
1⎢ ⎥ ⎢ 43 14 14 ⎥
= ⎣−3 1 1 ⎦ = ⎣− 4 4 4 ⎦ .
4
−2 −2 2 − 12 − 21 12 "
Praxistipp
Bei der Berechnung der Kofaktormatrix in Übung 3.41 liefert das bereits bekannte
Schema eine einfache Regel, um sich das Vorzeichen der verschiedenen Einträgen zu
merken:
⎡ ⎤
+ − + ···
⎢− + − · · ·⎥
⎢ ⎥
⎢ ⎥
⎢+ − + · · ·⎥ .
⎣ ⎦
.. .. .. ..
. . . .
Übung 3.42
⎡ ⎤
1 −1 0 0
⎢1
⎢ 1 0 0⎥⎥
• • ◦ Man invertiere A = ⎢ ⎥.
⎣0 0 3 1⎦
0 0 0 1
190 Kapitel 3 • Determinanten
v Lösung
A ist eine Blockdiagonalmatrix
⎡ ⎤
1 −1 0 0
⎢1 1 0 0⎥
⎢ ⎥
A=⎢ ⎥.
⎣0 0 3 1⎦
0 0 0 1
Daher berechnen wir einfach die Inverse jedes Blocks (vgl. Übung 1.28):
'( ) * ' ( ) *
1 −1 −1 0 1 1 1 0
A−1 = 1 1 ( 3 1 )−1 = 2 −1 1 (
1 1 −1
)
0 01
0 3 0 3
⎡
1 1
⎤
2 2 0 0
⎢ 1 1
⎢− 0 0 ⎥ ⎥
=⎢ 2 2 1 ⎥.
⎣ 0 0 3 − 13 ⎦
0 0 0 1 !
Übung 3.43 ⎤⎡
1 1 β
⎢ ⎥
• • ◦ Für welche α, β ∈ R ist A = ⎣1 α β 2 ⎦ invertierbar?
1 α2 β 3
v Lösung
Die Matrix A ist genau dann invertierbar, wenn ihre Determinante nicht verschwindet.
Wir rechnen somit die Determinante von A aus
+ + + + + +
+1 1 β + +1 1 1 + +1 1 1 ++
+ + + + +
+ + + + Z −Z ,Z −Z + +
det(A) = +1 α β 2 + = β +1 α β + 2 1= 3 1 β +0 α − 1 β − 1 +
+ + + + + +
+1 α 2 β 3 + +1 α 2 β 2 + +0 α 2 − 1 β 2 − 1+
+ +
+α−1 β −1+ ( )
+ +
=β+ 2 2
+ = β (α − 1)(β 2 − 1) − (α 2 − 1)(β − 1)
+α − 1 β − 1+
( )
= β (α − 1)(β − 1)(β + 1) − (α − 1)(α + 1)(β − 1) = β(α − 1)(β − 1)(β − α).
Übung 3.44
• • ◦ Man leite die Formel für die Inverse einer (2 × 2)-Matrix her (Satz 3.7).
v Lösung
( a12 )
Es sei A = aa11 21 a22
mit det(A) = a11 a22 − a21 a12 ̸= 0. Gesucht ist eine Matrix X =
( x11 x12 )
x21 x22 , für welche Folgendes gilt:
AX = E.
Das erste LGS hat die 2 Unbekannten x11 , x21 ; das zweite LGS hat die Unbekannten
x12 , x22 . Diese LGS lösen wir mit den Methoden aus 7 Kap. 2.
5 Für das erste LGS wenden wir den Gauß-Algorithmus in einem Schritt an:
' * ' *
a11 a12 1 a11 (Z2 ) − a21 (Z1 ) a11 a12 1
" .
a21 a22 0 0 a11 a22 − a21 a12 −a21
Die Zielmatrix ist in Dreiecksform und wir können die Lösung durch Rückwärts-
auflösen herauslesen. Insbesondere, für a11 a22 − a21 a12 ̸= 0 finden wir
⎧ ⎧
⎨a x + a x = 1 ⎨x = 1−a12 x21
= a11 a22a−a
22
11 11 12 21 11 a11 21 a12
⇒
⎩(a a − a a )x = −a
11 22 21 12 21 21
⎩x
21 = − a11 a22a−a
21
a
21 12
192 Kapitel 3 • Determinanten
Beachte, dass a11 a22 − a21 a12 ̸= 0 gelten muss, damit das obige LGS eine Lösung
hat. Dies entspricht genau der Bedingung det(A) ̸= 0.
5 Für das zweite LGS gehen wir analog vor:
' * ' *
a11 a12 0 a11 (Z2 ) − a21 (Z1 ) a11 a12 1
" .
a21 a22 1 0 a11 a22 − a21 a12 a11
Die Zielmatrix ist in Dreiecksform und wir können die Lösung durch Rückwärts-
auflösen herauslesen. Insbesondere, für a11 a22 − a21 a12 ̸= 0 finden wir
⎧ ⎧
⎨a x + a x = 0 ⎨x = −a12 x22
= − a11 a22a−a
12
11 12 12 22 12 a11 21 a12
⇒
⎩(a a − a a )x = a ⎩x a11
11 22 21 12 22 11 22 = a11 a22 −a21 a12
v Lösung ' *
34
a) Die gegebene Matrix ist auf R2×2 invertierbar, weil det(A) = det = 9−4 =
13
5 ̸= 0. Die Inverse lautet:
' * ' * ' *
3
−1 1 a22 −a12 1 3 −4 5 − 45
A = = = .
det(A) −a21 a11 5 −1 3 − 15 35
Übung 3.46 ⎡ ⎤
120
⎢ ⎥
• • ◦ Man berechne die Inverse von A = ⎣0 2 4⎦ über a) Z5 und b) Z2 .
003
3.4 • Inverse Matrix
193 3
v Lösung + +
+1 2 0+
+ +
+ +
Es gilt det(A) = +0 2 4+ = 6.
+ +
+0 0 3+
a) In Z5 ist 6 = 1. Daher ist det(A) = 6 = 1 ̸= 0, d. h. A ist invertierbar über Z5 . Die
Inverse lautet:
⎡ + + + + + + ⎤T
+2 4+ +0 4+ +0 2+
+ + + + + +
⎢ + + −+ + + + ⎥
⎢ +0 3+
⎢ + + + 0 3+
+ + +0 0+ ⎥ ⎡ ⎤T
+ +⎥ 6 0 0
⎢ + +
1 ⎢ +2 0+ +1 0++ + + + ⎥
+1 2+⎥ ⎢ ⎥
A−1 = ⎢− + + + + − + +⎥ = ⎣−6 3 0⎦
det A ⎢ +0 3+ +0 3+ +0 0+⎥
⎢ + + + + + + ⎥ 8 −4 2
⎢ +2 0+ +1 0+ +1 2+ ⎥
⎣ + + + + + + ⎦
+ + − + + + +
+2 4+ +0 4+ +0 2+
⎡ ⎤ ⎡ ⎤
6 −6 8 143
⎢ ⎥ ⎢ ⎥
= ⎣0 3 −4⎦ = ⎣0 3 1⎦ .
0 0 2 002
(Beachte: In Z5 gilt 6 = 1, −6 = 4, 8 = 3, −4 = 1). Kontrolle:
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
143 120 1 10 25 100
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0 3 1⎦ ⎣0 2 4⎦ = ⎣0 6 15⎦ = ⎣0 1 0⎦ .
002 003 0 0 6 001
(Beachte: In Z5 gilt 6 = 1, 10 = 15 = 25 = 0).
b) In Z2 ist 6 = 0. Daher ist det(A) = 6 = 0 und A ist über Z2 nichtinvertierbar
(singulär). !
Übung 3.47 / 0
0 12 12
• • ◦ Es sei K = Zp und n ∈ N \ {0}. Man zeige, dass die Matrix A = −1 n −1 genau
−1 1 n
dann invertierbar ist, wenn n nicht durch p teilbar ist.
v Lösung + + + +
+1 1+ +1 1 +
+2 2+ +2 2 + n 1 1 n
Es gilt det(A) = + +−+ + = − + + = n. A ist genau dann invertierbar, wenn
+ 1 n + + n −1+ 2 2 2 2
det(A) ̸= 0 gilt. In Zp gilt n = 0 nur dann, wenn n durch p teilbar ist (d. h. n = 0 mod p).
Daher ist A genau dann invertierbar, wenn n nicht durch p teilbar ist. !
194 Kapitel 3 • Determinanten
Eine weitere Anwendung der Determinante ist die sogenannte Cramer’sche Regel:
det(Ai )
xi = , i = 1, · · · , n (3.23)
det(A)
Ai ist die Matrix, welche man erhält, wenn man die i-te Spalte von A durch den Lösungs-
⎡ b (rechte Seite des LGS)
vektor ⎤ ersetzt:⎡ ⎤
a11 · · · a1i · · · a1n a11 · · · b1 · · · a1n
⎢ a ··· a ··· a ⎥ ⎢ a ··· b ··· a ⎥
⎢ 21 2i 2n ⎥ ⎢ 21 2 2n ⎥
A=⎢ ⎢ . . . . ⎥ ⇒ Ai = ⎢ .
⎥ ⎢ . .. .. ⎥
⎥. $
⎣ . .
. .
. ⎦ ⎣ . . . ⎦
an1 · · · ani · · · ann an1 · · · bn · · · ann
Als Beispiel lösen wir das folgende LGS mit der Cramer’schen Regel:
1
2x1 + 12 x2 = 0
x1 − x2 = 1
/ 1 0 / 0
2 2 0
Die Matrixdarstellung des LGS ist Ax = b, wobei A = ,b= . Wegen det(A) =
1 −1 1
/ 1 0
2 2
det = 2·(−1)−1· 12 = − 52 ̸= 0 hat das LGS genau eine Lösung. Mit der Cramer’schen
1 −1
Regel finden wir
+ + + +
+0 1 + +2 0+
+ 2 + + +
det(A1 ) + 1 −1 + 1 det(A2 ) + 1 1+ 4
x1 = = = , x2 = = =− .
det(A) − 52 5 det(A) − 52 5
2/ 1
03
Die Lösung lautet somit L = 5 .
− 45
Übung 3.48
• ◦ ◦ Für welche α ∈ R besitzt das folgende LGS eine eindeutige Lösung?
⎧
⎨2x + x = α
1 2
⎩2x + 3x = 2 + α
1 2
3.5 • Cramer’sche Regel
195 3
v Lösung * ' '
*
21 α
Die Matrixdarstellung des LGS ist Ax = b, wobei A = ,b= . Wegen
23 2+α
+ +
+2 1+
+ +
det(A) = + + = 2 · 3 − 2 · 1 = 4 ̸= 0 besitzt das LGS eine eindeutige Lösung für alle
+2 3+
α ∈ R. Nach der Cramer’schen Regel ist
+ + + +
+ α 1+ +2 α +
+ + + +
+ + + +
det(A1 ) +2 + α 3+ α−1 det(A2 ) +2 2 + α+
x1 = = = , x2 = = = 1.
det(A) 4 2 det(A) 4
1' *4
α−1
Die Lösung lautet somit L = 2 . !
1
Übung 3.49
• ◦ ◦ Man löse das folgende LGS mit der Cramer’schen Regel:
⎧
⎪
⎨x1 − x2 + x3 = 6
⎪
2x1 + x2 − x3 = −3
⎪
⎪
⎩
x1 − x2 − x3 = 0
v Lösung / 0
1 −1 1 6 6
7
Die Matrixdarstellung des LGS ist Ax = b, wobei A = 2 1 −1 ,b= −3 . Wegen
1 −1 −1 0
det(A) = −6 ̸= 0 hat das LGS eine eindeutige Lösung. Nach der Cramer’schen Regel
ist
+ + + +
+ 6 −1 1 + +1 6 1 +
+ + + +
+ + + +
+−3 1 −1+ +2 −3 −1+
+ + + +
+ 0 −1 −1+ −6 +1 0 −1+ 12
x1 = = = 1, x2 = = = −2,
det(A) −6 det(A) −6
+ +
+1 −1 6 +
+ +
+ +
+2 1 −3+
+ +
+1 −1 0 + −18
x3 = = = 3.
det(A) −6
⎧⎡ ⎤⎫
⎨ 1 ⎪
⎪ ⎬
⎢ ⎥
Die Lösung lautet somit L = ⎣−2⎦ . !
⎪
⎩ ⎪
⎭
3
196 Kapitel 3 • Determinanten
Übung 3.50
• ◦ ◦ Man löse das folgende LGS mit der Cramer’schen Regel:
⎧
⎪
⎨x1 + x2 + x3 = 13
⎪
x1 + 2x2 + x3 = 19
⎪
⎪
⎩
2x2 + x3 = 15
v Lösung 61 1 17 6 13 7
Das LGS hat die Matrixdarstellung Ax = b mit A = 121 ,b = 19 . Wegen
021 15
det(A) = 1 ̸= 0 hat das LGS genau eine Lösung. Nach der Cramer’schen Regel finden
wir
+ + + + + +
+13 1 1+ +1 13 1+ +1 1 13+
+ + + + + +
+ + + + + +
+19 2 1+ +1 19 1+ +1 2 19+
+ + + + + +
+15 2 1+ +0 15 1+ +0 2 15+
x1 = = 4, x2 = = 6, x3 = = 3.
det(A) det(A) det(A)
⎧⎡ ⎤⎫
⎨ 4 ⎪
⎪ ⎬
⎢ ⎥
Die Lösung lautet somit L = ⎣6⎦ . !
⎪
⎩ ⎪
⎭
3
Übung 3.51
• ◦ ◦ Man löse das folgende LGS mit der Cramer’schen Regel:
⎧
⎪
⎨3x1 + 2x2 − x3 = 2
⎪
x1 + x3 = 2
⎪
⎪
⎩
x1 − x2 + 2x3 = 3
v Lösung
Die Matrixdarstellung des LGS ist Ax = b, wobei
⎡ ⎤ ⎡ ⎤
3 2 −1 2
⎢ ⎥ ⎢ ⎥
A = ⎣1 0 1 ⎦ , b = ⎣2⎦ .
1 −1 2 3
+ +
+3 2 −1+
+ +
+ +
Wegen det(A) = +1 0 1 + = 2 ̸= 0 wenden wir die Cramer’sche Regel an und finden
+ +
+1 −1 2 +
3.5 • Cramer’sche Regel
197 3
+ + + + + +
+2 2 −1+ +3 2 −1+ +3 2 2+
+ + + + + +
+ + + + + +
+2 0 1 + +1 2 1 + +1 0 2+
+ + + + + +
+3 −1 2 + 2 +1 3 2 + 0 +1 −1 3+ 2
x1 = = = 1, x2 = = = 0, x3 = = =1
det(A) 2 det(A) 2 det(A) 2
⎧⎡ ⎤⎫
⎨ 1 ⎪
⎪ ⎬
⎢ ⎥
Die Lösung lautet somit L = ⎣0⎦ . !
⎪
⎩ ⎪
⎭
1
Übung 3.52
• • ◦ Man beweise die Cramer’sche Regel für ein LGS mit 2 Gleichungen und 2
Unbekannten.
v Lösung
Die Cramer’sche Regel folgt direkt
( a11 a12 ) 6 aus7 der Formel für die inverse Matrix. Sei Ax = b,
b1
ein LGS mit A = a21 a22 , b = b . Gilt det(A) ̸= 0, so ist A invertierbar und die
2
Lösung des obigen LGS ist einfach durch
Ax = b ⇒ x = A−1 b
gegeben. Mit der Formel für die Inverse A−1 (Satz 3.7) finden wir somit
' *' * ' *
−1 1 a22 −a12 b1 1 b1 a22 − b2 a12
x=A b= =
det(A) −a21 a11 b2 det(A) a11 b1 − a21 b2
⎡ ' *⎤
b1 a12
⎢det ⎥ ' det(A1 ) *
1 ⎢ ⎢ '
b2 a22 ⎥
* ⎥ = det(A) .
=
det(A) ⎢
⎣ a11 b1 ⎥ ⎦
det(A2 )
det(A)
det
a21 b2 !
Übung 3.53
• • ◦ Man löse das folgende LGS auf K = Z5
⎧
⎨4x + x = 58 (mod 5)
1 2
⎩2x + x = 1231 (mod 5)
1 2
v Lösung
Wir führen alle Rechnungen in Z5 durch. In Z5 gilt 58 = 3 und 1231 = 1. Wir müssen
somit
198 Kapitel 3 • Determinanten
⎧
⎨4x + x = 3
1 2
⎩2x + x = 1
1 2
lösen. Dazu wenden wir die Cramer’schen Regel an (vgl. Satz 3.9). Es gilt:
' *
41 1
A= ⇒ det(A) = 4 − 2 = 2 ⇒ = 2−1 = 3.
21 det(A)
Dass 2−1 = 3 sieht man wie folgt: In Z5 gilt 2 · 3 = 6 = 1 ⇒ 2−1 = 3. Daraus folgt:
' *
det(A1 ) 31
x1 = = 3 · det =3·2=6=1
det(A) 11
' *
det(A2 ) 43
x2 = = 3 · det = 3 · (−2) = 3 · 3 = 9 = 4.
det(A) 21
Probe: 4 · 1 + 4 = 8 = 3 und 2 · 1 + 4 = 6 = 1 %. !
Übung 3.54
• • • In diesem Beispiel diskutieren wir eine Anwendung der Vandermonde-
Determinante (vgl. Übung 3.32). Man zeige: Sind n Stützstellen (xi , yi ) für i = 1, · · · , n
gegeben mit xi ̸= xj , so gibt es genau ein Polynom p(x) = a0 + a1 x + · · · + an−1 xn−1
mit p(xi ) = yi für i = 1, · · · , n.
v Lösung
Die Bedingungen p(x1 ) = y1 , p(x2 ) = y2 , · · · lauten:
!
p(x1 ) = a0 + a1 x1 + a2 x21 + · · · + an−1 xn−1
1 = y1
!
p(x1 ) = a0 + a1 x2 + a2 x22 + · · · + an−1 xn−1
2 = y2
..
.
!
p(xn ) = a0 + a1 xn + a2 x2n + · · · + an−1 xn−1
n = yn
Das obige LGS hat genau dann eine eindeutige Lösung, wenn det(A) ̸= 0. Wir
erkennen, dass det(A) die Vandermonde-Determinante ist (vgl. Übung 3.32):
⎡ ⎤
1 x1 x21 · · · xn−1
1
⎢1 x2 x22 · · · xn−1 ⎥ ?
⎢ 2 ⎥
det(A) = det ⎢
⎢ .. .. .. .. . ⎥=
⎥ (xj − xi ).
⎣. . . . .. ⎦ i<j
1 xn x2n · · · xn−1
n
Wegen xi ̸= xj (Voraussetzung) ist det(A) ̸= 0. Somit ist das obige LGS eindeutig
lösbar d. h., es gibt genau ein Polynom p(x) = a0 + a1 x + · · · + an−1 xn−1 mit
p(xi ) = yi . !
Ein homogenes LGS Ax = 0 mit A ∈ Kn×n besitzt immer eine Lösung: die triviale
Lösung x = 0. In 7 Abschn. 2.3.4 haben wir gelernt, dass solche homogene LGS
genau dann eine nichttriviale Lösung besitzen, wenn Rang(A) < n gilt, d. h. wenn
A nichtinvertierbar ist. Dieses Kriterium können wir nun in einer äquivalenter Form
mithilfe der Determinante formulieren:
i Merkregel
Ein quadratisches homogenes LGS Ax = 0 hat genau dann eine nichttriviale Lösung
x ̸= 0, wenn det(A) = 0 gilt (d. h. wenn A nichtinvertierbar ist). Dies ist ein
sehr wichtiges Resultat, das wir mehrmals anwenden werden (z. B. bei Eigenwerten,
vgl. 7 Kap. 9).
> Bemerkung
Vergleiche Satz 3.10 mit Satz 2.4.
200 Kapitel 3 • Determinanten
Übung 3.55
• ◦ ◦ Für welche Werte von α ∈ R besitzt das folgende homogene LGS eine nichttriviale
Lösung?
⎧
⎪
⎨αx1 − x2 + x3 = 0
⎪
x1 + αx2 − x3 = 0
⎪
⎪
⎩
2x1 + x2 = 0
v Lösung
Die Matrixdarstellung des LGS ist Ax = 0, wobei
⎡ ⎤
α −1 1
⎢ ⎥
A = ⎣ 1 α −1⎦ ⇒ det(A) = 3 − α.
2 1 0
Damit das LGS eine nichttriviale Lösung besitzt, muss det(A) = 0 sein. Daraus folgt
α = 3. !
Übung 3.56
• ◦ ◦ Für welche Werte von α, β ∈ R besitzt das folgende homogene LGS eine
nichttriviale Lösung?
⎧
⎪
⎨3x1 + 4x3 = 0
⎪
2αx2 + 2βx3 = 0
⎪
⎪
⎩
3x1 + αx2 + 4x3 = 0
v Lösung
Die Matrixdarstellung des LGS ist Ax = 0, wobei
⎡ ⎤
3 0 4
⎢ ⎥
A = ⎣0 2α 2β ⎦ ⇒ det(A) = −6αβ.
3 α 4
Damit das LGS eine nichttriviale Lösung besitzt, muss det(A) = 0 sein. Daraus folgt
5 α = 0 und β = 0, oder
5 α = 0 und β ̸= 0, oder
5 α ̸= 0 und β = 0. !
201 4
LR-Zerlegung
Inhaltsverzeichnis
Ein zentrales Thema der linearen Algebra ist die Entwicklung effizienter Methoden
zur Lösung von LGS, welche in verschiedenen Bereichen der Naturwissenschaften
oder der Technologie vorkommen. In diesem Kapitel studieren wir eine solche
Methode: die LR-Zerlegung. Wie wir in diesem Kapitel erfahren werden, ist die
LR-Zerlegung grundsätzlich eine Variante des Gauß-Algorithmus (welcher wir im
7 Kap. 2 studiert haben). Die LR-Zerlegung erlaubt alle nötigen Zeilenoperationen
beim Gauß-Algorithmus geschickt zu speichern.
Wir werden zuerst eine einfache Variante der LR-Zerlegung diskutieren: die LR-
Zerlegung ohne Zeilenverstauschung oder einfach LR-Zerlegung (7 Abschn. 4.1).
Wir werden uns dann mit der LR-Zerlegung mit Zeilenvertauschung beschäftigen
(7 Abschn. 4.2.4), welche eine etwas kompliziertere Variante der einfachen LR-
Zerlegung ist. Diese Variante führt aber zu einer erhörten numerischen Genauigkeit
(7 Abschn. 4.3).
n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 4 sind Sie in der Lage:
5 den Sinn einer LR-Zerlegung sowie deren Existenz und Eindeutigkeit zu erklären,
5 die Lösungen eines LGS durch LR-Zerlegung zu bestimmen,
5 LR-Zerlegung mittels Gauß-Algorithmus durchzuführen,
5 LR-Zerlegung mit Zeilenvertauschung und Permutationsmatrix zu berechnen,
5 die Komplexität und numerische Stabilität der LR-Zerlegung zu erkennen und zu
diskutieren,
5 Manipulationen mit Permutationsmatrizen durchzuführen.
4.1.1 Definition
# Definition 4.1
Eine (n × n)-Matrix A besitzt eine LR-Zerlegung (auch LU-Zerlegung gennant, aus der
englischen Literatur LU-decomposition für LowerUpper-Zerlegung), wenn man A wie
folgt schreiben (zerlegen) kann:
A = LR (4.1)
> Bemerkung
Beachte auch, dass, in der englischen Literatur untere und obere Dreiecksmatrizen
beziehungsweise lower und upper triangular matrices genannt werden. Daher werden die
Buchstaben L (für lower) und U (für upper) verwendet, im Unterschied zur deutschen
Literatur, wo die Buchstaben L (für links) und R (für rechts) benutzt werden.
Wie kann man die Matrizen L und R der LR-Zerlegung (Gl. (4.1)) einer vorgegebenen
Matrix A bestimmen? Der Gauß-Algorithmus liefert sie ganz automatisch. Wir
wollen jetzt diese Prozedur an einem einfachen Beispiel praktisch einführen.1
Dann führen wir den Gauß-Algorithmus auf die rechte Matrix durch und speichern die
nötigen Zeilenoperationen in den Einträgen der linken Matrix unter der Diagonalen.
Die Matrizen L und R werden dann direkt im Endschema [L|R] abgelesen.
Der erste Schritt beim Gauß-Algorithmus besteht in diesem Fall darin, die erste
Zeile mit (−3/2) zu multiplizieren und sie dann von der zweiten Gleichung zu subtra-
hieren. Daher verschwindet der erste Eintrag der rechten Matrix aus der zweiten Zeile.
Die Zahl (−3/2) wird entsprechend in der linken Matrix an der Stelle (2, 1) eingetragen:
⎡ ⎤ @ A ⎡ ⎤
1 0 0 2 6 2 (Z2 )− − 32 (Z1 ) 1 0 0 2 6 2
⎢ ⎥ ⎢ ⎥
⎣ 0 1 0 −3 −8 0 ⎦ " ⎣ − 32 1 0 0 1 3 ⎦.
0 0 1 4 9 2 0 0 1 4 9 2
1 Nicht für jede Matrix A existiert eine LR-Zerlegung (7 vgl. Abschn. 4.1.3).
204 Kapitel 4 • LR-Zerlegung
Im nächsten Schritt, multiplizieren wir die erste Zeile mit 2 und subtrahieren sie dann
von der dritten Zeile. Die Zahl 2 wird entsprechend in der linken Matrix an der Stelle
(3, 1) eingetragen:
⎡ ⎤ ⎡ ⎤
1 0 0 2 6 2 1 0 0 2 6 2
⎢ 3 ⎥ (Z3 )− 2 (Z1 ) ⎢ 3 ⎥
⎣ −2 1 0 0 1 3 ⎦ " ⎣ −2 1 0 0 1 3 ⎦.
0 0 1 4 9 2 2 0 1 0 −3 −2
Als letztes Schritt, multiplizieren wir die zweite Zeile mit (−3) und subtrahieren sie von
der dritten Zeile. Die Zahl (−3) wird dann entsprechend in der linken Matrix an der
Stelle (3, 2) eingetragen:
⎡ ⎤ ⎡ ⎤
1 0 0 2 6 2 1 0 0 2 6 2
⎢ 3 ⎥ (Z3 )− (−3) (Z2 )
⎢ 3 ⎥
⎣ −2 1 0 0 1 3 ⎦ " ⎣ −2 1 0 0 1 3 ⎦.
2 0 1 0 −3 −2 2 −3 1 0 0 7
Somit ist die rechte Matrix in Zeilenstufenform. Der Gauß-Algorithmus ist abgeschlos-
sen. Die Matrizen L und R können wir direkt im Endschema ablesen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 2 6 2 1 0 0 2 6 2
⎢ 3 ⎥ ⎢ 3 ⎥ ⎢ ⎥
[L|R] = ⎣ − 2 1 0 0 1 3 ⎦ ⇒ L = ⎣− 2 1 0⎦ , R = ⎣0 1 3⎦ .
2 −3 1 0 0 7 2 −3 1 0 0 7
Man kann jetzt leicht durch direkte Matrixmultiplikation nachweisen, dass die so
gefundenen Matrizen L und R tatsächlich eine LR-Zerlegung der Ausgangsmatrix A
sind:
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 0 262 2 62
⎢ ⎥⎢ ⎥ ⎢ ⎥
LR = ⎣− 32 1 0⎦ ⎣0 1 3⎦ = ⎣−3 8 0⎦ = A %
2 −3 1 007 4 92
! Achtung
Beachte das Vorzeichen der Einträgen der Matrix L: Bei der Zeilenoperation (Zi ) −
α(Zj ) wird die Zahl α (nicht −α) an der Stelle (i, j) der Matrix L gespeichert.
Übung 4.1 ⎡ ⎤
1 2 4
⎢ ⎥
• ◦ ◦ Man bestimme die LR-Zerlegung von A = ⎣ 2 3 8 ⎦ .
−1 −3 −1
v Lösung
Das Ausgangsschema der Prozedur zur Bestimmung der LR-Zerlegung ist die erwei-
terte Matrix:
⎡ ⎤
1 0 0 1 2 4
⎢ ⎥
[E|A] = ⎣ 0 1 0 2 3 8 ⎦ .
0 0 1 −1 −3 −1
Dann wenden wir den Gauß-Algorithmus auf die rechte Matrix an und speichern
die nötigen Zeilenoperationen in den Einträgen der linken Matrix (links von der
Diagonalen):
⎡ ⎤ (Z2 ) − 2 (Z1 ) ⎡ ⎤
1 0 0 1 2 4 (Z3 ) − (−1) (Z1 )
1 0 0 1 2 4
⎢ ⎥ ⎢ ⎥
⎣0 1 0 2 3 8 ⎦ " ⎣ 2 1 0 0 −1 0 ⎦
0 0 1 −1 −3 −1 −1 0 1 0 −1 3
⎡ ⎤
1 0 0 1 2 4
(Z3 ) − 1 (Z2 ) ⎢ ⎥
" ⎣ 2 1 0 0 −1 0 ⎦ .
−1 1 1 0 0 3
Nun ist die rechte Matrix in Zeilenstufenform. Somit ist der Gauß-Algorithmus
beendet und wir können die LR-Zerlegung von A direkt aus dem Endschema ablesen:
⎡ ⎤ ⎡ ⎤
1 00 1 2 4
⎢ ⎥ ⎢ ⎥
L = ⎣ 2 1 0⎦ , R = ⎣0 −1 0⎦ .
−1 1 1 0 0 3
Probe:
⎡ ⎤⎡ ⎤
1 00 1 2 4
⎢ ⎥⎢ ⎥
LR = ⎣ 2 1 0⎦ ⎣0 −1 0⎦ = A % !
−1 1 1 0 0 3
206 Kapitel 4 • LR-Zerlegung
Übung 4.2 ⎡ ⎤
1 −2 4
⎢ ⎥
• ◦ ◦ Man bestimme die LR-Zerlegung von A = ⎣5 0 2⎦ .
3 −1 1
v Lösung ⎤⎡
1 0 0 1 −2 4
⎢ ⎥
Das Ausgangsschema ist [E|A] = ⎣ 0 1 0 5 0 2 ⎦ . Dann wenden wir den Gauß-
0 0 1 3 −1 1
Algorithmus auf die rechte Matrix an und speichern die nötigen Zeilenoperationen in
den Einträgen der linken Matrix:
⎡ ⎤ (Z2 ) − 5 (Z1 ) ⎡ ⎤
1 0 0 1 −2 4 1 0 0 1 −2 4 (Z ) − 1 (Z2 )
⎢ ⎥ (Z3 ) − 3 (Z1 ) ⎢ ⎥ 3 2
⎣0 1 0 5 0 2⎦ " ⎣ 5 1 0 0 10 −18 ⎦ "
0 0 1 3 −1 1 3 0 1 0 5 −11
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 1 −2 4 1 0 0 1 −2 4
⎢5 1 0 0 10 −18 ⎥ ⎢ ⎥ ⎢ ⎥
⎣ ⎦ ⇒ L = ⎣5 1 0⎦ , R = ⎣0 10 −18⎦ .
3 1
2 1 0 0 −2 3 12 1 0 0 −2
Übung 4.3
⎡ ⎤
1 1 1 1
⎢1
⎢ 2 3 4⎥⎥
• • ◦ Man bestimme die LR-Zerlegung von A = ⎢ ⎥.
⎣1 3 6 10⎦
1 4 10 20
v Lösung
Wir beginnen mit der erweiterten Matrix [E|A] und wenden den Gauß-Algorithmus in
drei Schritten an:
⎡ ⎤ (Z2 ) − 1 (Z1 ) ⎡ ⎤
1 0 0 0 1 1 1 1 (Z3 ) − 1 (Z1 ) 1 0 0 0 1 1 1 1 (Z3 ) − 2 (Z2 )
⎢0 4 ⎥ ⎢ 1 1 0 0 0 1 2 3 ⎥
⎢ 1 0 0 1 2 3 ⎥ (Z 4 ) − 1 (Z 1 ) ⎢ ⎥ (Z4 ) − 3 (Z2 )
[E|A] = ⎢ ⎥ " ⎢ ⎥ "
⎣0 0 1 0 1 3 6 10 ⎦ ⎣ 1 0 1 0 0 2 5 9 ⎦
0 0 0 1 1 4 10 20 1 0 0 1 0 3 919
⎡ ⎤ ⎡ ⎤
1 0 0 0 1 1 1 1 1 0 0 0 1 1 1 1
⎢1 1 0 0 0 1 2 3 ⎥ (Z ) − 3 (Z ) ⎢1 1 0 0 0 1 2 3⎥
⎢ ⎥ 4 3 ⎢ ⎥
⎢ ⎥ " ⎢ ⎥.
⎣1 2 1 0 0 0 1 3 ⎦ ⎣1 2 1 0 0 0 1 3⎦
1 3 0 1 0 0 3 10 1 3 3 1 0 0 0 1
4.1 • LR-Zerlegung ohne Zeilenvertauschung
207 4
Der Gauß-Algorithmus ist beendet. Nun können wir die LR-Zerlegung von A direkt
aus dem Endschema ablesen:
⎡ ⎤ ⎡ ⎤
1 0 0 0 1 1 1 1
⎢1 0⎥ ⎢0
⎢ 1 0 ⎥ ⎢ 1 2 3⎥⎥
L=⎢ ⎥, R=⎢ ⎥.
⎣1 2 1 0⎦ ⎣0 0 1 3⎦
1 3 3 1 0 0 0 1
Übung 4.4
⎡ ⎤
−2 4 6 0
⎢0 3 1
⎢ 1⎥⎥
• • ◦ Man bestimme die LR-Zerlegung von A = ⎢ ⎥.
⎣ 2 −10 −7 −1⎦
1 −8 −4 2
v Lösung
Wir beginnen mit dem Ausgangsschema [E|A] und wenden den Gauß-Algorithmus in
drei Schritten an:
⎡ ⎤
(Z3 ) − (−2) (Z2 ) 1 0 0 0 −2 4 6 0
(Z4 ) − (−2) (Z2 ) ⎢ 0 1 0 0 0 3 1 1⎥
⎢ ⎥
" ⎢ ⎥
⎣ −1 −2 1 0 0 0 1 1 ⎦
− 12 −2 0 1 0 0 1 4
⎡ ⎤
1 0 0 0 −2 4 6 0
(Z4 ) − 1 (Z3 ) ⎢ 0 1 0 0 0 3 1 1⎥
⎢ ⎥
" ⎢ ⎥.
⎣ −1 −2 1 0 0 0 1 1 ⎦
− 12 −2 1 1 0 0 0 3
Da die rechte Matrix in Zeilenstufenform ist, ist der Gauß-Algorithmus beendet und
wir können die LR-Zerlegung von A direkt aus dem Endschema ablesen:
⎡ ⎤ ⎡ ⎤
1 0 0 0 −2 4 6 0
⎢ 0 ⎥ ⎢0 1⎥
⎢ 1 0 0⎥ ⎢ 3 1 ⎥
L=⎢ ⎥, R=⎢ ⎥.
⎣ −1 −2 1 0⎦ ⎣0 0 1 1⎦
− 21 −2 1 1 0 0 0 3
Übung 4.5
⎡ ⎤
1 1 2 3
⎢3
⎢ −1 −1 −2⎥
⎥
• • ◦ Man berechne die Determinante von A = ⎢ ⎥ mittels der LR-
⎣2 3 −1 −1⎦
1 2 4 −1
Zerlegung.
v Lösung
Zu Beginn betrachten wir das Ausgangsschema [E|A] und wenden den Gauß-
Algorithmus in drei Schritten an:
(Z2 ) − 3 (Z1 )
⎡ ⎤ ⎡ ⎤
10001 1 2 3 (Z3 ) − 2 (Z1 ) 1 0001 1 2 3
⎢ 0 1 0 0 3 −1 −1 −2 ⎥ (Z4 ) − 1 (Z1 ) ⎢ 3 1 0 0 0 −4 −7 −11 ⎥
⎢ ⎥ ⎢ ⎥
[E|A] = ⎢ ⎥ " ⎢ ⎥
⎣ 0 0 1 0 2 3 −1 −1 ⎦ ⎣ 2 0 1 0 0 1 −5 −7 ⎦
00011 2 4 −1 1 0010 1 2 −4
(Z3 ) − (− 1 ) (Z2 ) ⎡ ⎤
4 1 0 001 1 2 3
(Z4 ) − (− 1 ) (Z2 ) ⎢ 3 1 0 0 0 −4 −7 −11 ⎥
4 ⎢ ⎥
" ⎢ ⎥
⎢ 2 − 14 1 0 0 0 − 27 − 39 ⎥
⎣ 4 4 ⎦
1 − 14 0 1 0 0 14 − 27 4
⎡ ⎤
1 0 0 01 1 2 3
(Z4 )− 1
(− 27 ) (Z3 ) ⎢
⎢3 1 0 0 0 −4 −7 −11 ⎥
⎥
" ⎢ ⎥
39 ⎥ .
⎢2 −1 1 0 0 0 − 27
⎣ 4 4 − 4 ⎦
1 − 14 1
− 27 1 0 0 0 − 64 9
Übung 4.6
• ◦ ◦ Man bestimme die LR-Zerlegung der (3 × 2)-Matrix:
⎡ ⎤
2 1
⎢ ⎥
A = ⎣4 −2⎦ .
0 −4
v Lösung
Mit diesem Beispiel wollen wir die LR-Zerlegung an einer nicht quadratischen Matrix
demonstrieren. Zu Beginn betrachten wir das folgende Ausgangsschema:
⎡ ⎤
1 0 0 2 1
⎢ ⎥
[E|A] = ⎣ 0 1 0 4 −2 ⎦ .
0 0 1 0 −4
> Bemerkung
Beachte, dass die Matrix A in Übung 4.6 nicht quadratisch ist. Wir müssen somit auf
die Dimensionen der Matrizen L und R aufpassen: In diesem Fall ist L eine (3 × 3)-
Matrix, während R eine (3 × 2)-Matrix ist. Nur so ergibt sich aus der Multiplikation
LR eine (3 × 2)-Matrix: L(3×3) (3×2) R ⇒ A(3×2) .
210 Kapitel 4 • LR-Zerlegung
Übung 4.7
• • ◦ Man bestimme die LR-Zerlegung der folgenden (5 × 3)-Matrix:
⎡ ⎤
2 −6 6
⎢ ⎥
⎢−4 5 −7⎥
⎢ ⎥
A=⎢
⎢8 −3 9⎥⎥.
⎢ ⎥
⎣−6 4 −8⎦
3 5 −1
v Lösung
Mit diesem Beispiel wollen wir die LR-Zerlegung an einer weiteren nicht quadratischen
Matrix demonstrieren. Wir betrachten das Ausgangsschema:
⎡ ⎤
1 0 0 0 0 2 −6 6
⎢ ⎥
⎢0 1 0 0 0 −4 5 −7 ⎥
⎢ ⎥
[E|A] = ⎢
⎢0 0 1 0 0 8 −3 9 ⎥
⎥.
⎢ ⎥
⎣0 0 0 1 0 −6 4 −8 ⎦
0 0 0 0 1 3 5 −1
⎡ ⎤ (Z3 ) − 4 (Z1 ) ⎡ ⎤
1 0 0 0 0 2 −6 6 (Z3 ) (−3) (Z1 ) 1 0 0 0 0 2 −6 6
⎢ ⎥ ⎢ −2 1 0 0 0 0 −7 5 ⎥
⎢0 1 0 0 0 −4 5 −7 ⎥ (Z5 ) − 3 (Z1 ) ⎢ ⎥
⎢ ⎥ 2 ⎢ ⎥
⎢0 0 1 0 0 8 −3 9 ⎥ " ⎢ 4 0 1 0 0 0 21 −15 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ −3 0 0 1 0 0 −14 10 ⎥
⎣0 0 0 1 0 −6 4 −8 ⎦ ⎣ ⎦
0 0 0 0 1 3 5 −1 3
2 0 0 0 1 0 14 −10
> Bemerkung
Beachte die Dimensionen der Matrizen L und R in Übung 4.7: In diesem Fall ist L
eine (5 × 5)-Matrix, während R eine (5 × 3)-Matrix ist. Nur so ergibt sich aus der
Multiplikation LR eine (5 × 3)-Matrix: L(5×5) (5×3) R ⇒ A(5×3) .
gilt. Dabei ist Ak die Teilmatrix der Größe k, welche man ausgehend von der linken oberen
Ecke von A bildet:
A1 A2 A3 · · · An
⎡ ⎤
a11 a12 a13 a1n
⎢ ⎥
⎢ a21 a22 a23 a1n ⎥
⎢ ⎥
⎢ a31 a32 a33 a1n ⎥
⎢ ⎥ (4.4)
⎢ . . .. ⎥
⎢ . . ⎥
⎣ ⎦
an1 an2 an3 · · · ann
Übung 4.8
• ◦ ◦ Welche der folgenden Matrizen besitzen eine LR-Zerlegung?
⎡ ⎤ ⎡ ⎤
1 23 111
⎢ ⎥ ⎢ ⎥
A = ⎣−1 1 1⎦ , B = ⎣1 1 0⎦ .
0 12 037
212 Kapitel 4 • LR-Zerlegung
v Lösung
a) Gemäß Satz 4.2 besitzt A eine LR-Zerlegung genau dann, wenn die Teilmatrizen
A1 , A2 und A3 = A nichtverschwindende Determinanten haben:
6 7
A1 = 1 ⇒ det(A1 ) = 1 ̸= 0 %
' *
A1 A2 A3 1 2
⎡ ⎤ A 2 = ⇒ det(A2 ) = 3 ̸= 0 %
1 2 3 −1 1
⎢ ⎥ ⎡ ⎤
⎣ −1 1 1 ⎦
1 23
0 1 2 ⎢
A3 = ⎣−1 1 1⎦
⎥
⇒ det(A3 ) = 2 ̸= 0 %
0 12
A besitzt somit eine LR-Zerlegung.
b) In diesem Fall haben wir:
6 7
B1 B2 B3 B1 = 1 ⇒ det(B1 ) = 1 ̸= 0 %
⎡ ⎤ ' *
1 1 1 11
⎢ ⎥ B2 = ⇒ det(B2 ) = 0 ✗
⎣1 1 0⎦ 11
0 3 7
Übung 4.9 ⎡ ⎤
a 1 1
⎢ ⎥
• • ◦ Man betrachte die Matrix A = ⎣ 3a 2 − a 2a⎦, a ∈ R.
−a a 2
a) Für welche Werte des Parameters a ∈ R besitzt A eine LR-Zerlegung?
b) Man bestimme die LR-Zerlegung von A in Abhängigkeit des Parameters a ∈ R.
v Lösung
a) Damit wir die LR-Zerlegung der Matrix A berechnen können, müssen die Teilma-
trizen A1 , A2 und A3 = A nicht-verschwindende Determinanten haben (Satz 4.2):
6 7
A1 = a ⇒ det(A1 ) = a ̸= 0 ⇒ a ̸= 0.
' *
a 1
A2 = ⇒ det(A2 ) = −a(a + 1) ̸= 0 ⇒ a ̸= {0, −1}
3a 2 − a
⎡ ⎤ + +
a 1 1 +a 1 1 ++
+
⎢ ⎥ + +
A3 = ⎣ 3a 2 − a 2a⎦ ⇒ det(A3 ) = + 3a 2 − a 2a+
+ +
−a a 2 +−a a 2 +
+ + + + + +
+2 − a 2a+ +1 1++ + 1 1+
+ + + + +
= a+ + − 3a + + − a+ +
+ a 2+ +a 2 + +2 − a 2a+
= −2a2 (a + 1) ̸= 0 ⇒ a ̸= {0, −1}.
4.1 • LR-Zerlegung ohne Zeilenvertauschung
213 4
Somit besitzt A eine LR-Zerlegung genau dann wenn a ̸= {0, −1}.
b) Um die LR-Zerlegung von A für a ̸= {0, −1} zu bestimmen, betrachten wir das
folgende Ausgangsschema
⎡ ⎤
1 0 0 a 1 1
⎢ ⎥
[E|A] = ⎣ 0 1 0 3a 2 − a 2a ⎦ .
0 0 1 −a a 2
Übung 4.10
••◦ '
*
01
a) Wieso besitzt A = keine LR-Zerlegung?
10
b) Man beweise Satz 4.2.
v Lösung '*
1 0 0 1
a) Das Ausgangsschema ist die erweiterte Matrix [E|A] = . Wenden wir
0 1 1 0
nun den Gauß-Algorithmus auf die rechte Matrix an, so stoßen wir bereits an ein
Problem: Der erste Eintrag der rechten Matrix ist gleich Null. Aus diesem Grund
gibt es keine Zeilenoperation (Z2 ) − α(Z1 ), welche das Ausgangsschema in die
folgende Form bringt
' *
1 0 r11 r12
[L|R] = .
ℓ21 1 0 r22
Wichtig: Diese Problematik tritt nicht vor, wenn man Zeilenvertauschung beim
Gauß-Algorithmus anwendet. Daher gibt es Matrizen, welche keine LR-Zerlegung
besitzen, aber für welche eine LR-Zerlegung
' * mit Zeilenvertauschung trotzdem mög-
01
lich ist (7 vgl. Abschn. 4.3). A = ist ein solches Beispiel.
10
b) Wir wollen uns jetzt überlegen, dass eine LR-Zerlegung nur dann möglich ist, wenn
die Zielmatrix R keine verschwindende Diagonalelemente besitzt. Man betrachte
zu diesem Zweck den j-Schritt im LR-Algorithmus. Das Ausgangsschema im j-ten
Schritt ist
⎡ ⎤
1 0 ··· 0 r11 ⋆ ··· ⋆
⎢ .. . ⎥
⎢ ⎥
⎢ ℓ21 . 0 .. ⎥
⎢ ⎥
⎢ .. . .. .. .. .. ⎥
⎢ . 1 .. . . rjj . .⎥
⎢ ⎥.
⎢ . .. ⎥
⎢ .. 0 1 . ãj+1,j ⋆ ⎥
⎢ ⎥
⎢ .. .. .. .. ⎥
⎢ .. .. ⎥
⎣ . . .0 . . . ⋆⎦
ℓn1 · · · 0 0 · · · 1 0 · · · ãn,j ⋆ ··· ⋆
ãij
(Zi ) − (Zj ), i > j.
rjj
Ist aber nun rjj = 0, so sind diese Operationen nicht definiert. Daraus folgt, dass die
LR-Zerlegung der Matrix A nur dann ohne Zeilenvertauschung möglich ist, wenn
alle Diagonaleinträge von R nicht verschwinden, d. h.
r11 ̸= 0 ⇒ det(R1 ) ̸= 0
r11 r22 ̸= 0 ⇒ det(R2 ) ̸= 0
..
.
r11 r22 · · · rnn ̸= 0 ⇒ det(Rn ) = det(R) ̸= 0,
Übung 4.11 ⎡1 ⎤
⎢ ... ⎥
⎢ ⎥
⎢ 1 ⎥
• • ◦ Eine Matrix von der Form Lj = ⎢ ℓj+1,j ⎥ heißt Frobenius-Matrix (alle
⎢ ⎥
⎣ .. .. ⎦
. .
ℓn,j 1
weiteren Einträge sind Null). Man zeige:
⎡ 1
⎤ ⎡1 ⎤
ℓ21 1
⎢ ⎥ ⎢ ... ⎥
⎢ .. ⎥ ⎢ ⎥
a) L1 · · · Ln−1 = ⎢
⎢ ℓ31 ℓ32
. ⎥.
⎥ b) Lj −1 ⎢
=⎢
1
−ℓj+1,j
⎥
⎥
⎣ .. .. .. ⎦ ⎢ ⎥
. . . 1 ⎣ .. .. ⎦
ℓn1 ℓn2 ··· ℓn,n−1 1 . .
−ℓn,j 1
v Lösung
a) Eine direkte Rechnung zeigt:
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 1
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ℓ21 1 ⎥ ⎢0 1 ⎥ ⎢ℓ21 1 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ ⎢ .. .. ⎥ ⎢ .. ⎥
L1 L2 = ⎢
⎢ℓ31 0 . ⎥ ⎢.
⎥⎢ ℓ32 . ⎥ = ⎢ℓ31
⎥ ⎢ ℓ32 . ⎥.
⎥
⎢ . .. .. ⎥ ⎢. .. .. ⎥ ⎢ . .. ⎥
⎢ . .1 ⎥ ⎢. .1 ⎥ ⎢ . ⎥
⎣ . . ⎦ ⎣. . ⎦ ⎣ . . 1 ⎦
ℓn1 0 ··· 0 1 0 ℓn2 ··· 0 1 ℓn1 ℓn2 01
⎡ 1
⎤
ℓ21 1
⎢ ⎥
⎢ .. ⎥
Im Allgemeinen L1 L2 · · · Ln−1 =⎢
⎢ ℓ31 ℓ32
. ⎥.
⎥
⎣ .. .. . . ⎦
. . . 1
ℓn1 ℓn2 ··· ℓn,n−1 1
b) Eine direkte Rechnung zeigt:
⎡1 ⎤⎡ 1 ⎤ ⎡1 ⎤
⎢ ... ⎥⎢ . . . ⎥ ⎢ ... ⎥
⎢ ⎥⎢ ⎥ ⎢ 1
⎥
⎢ 1 ⎥⎢ 1 ⎥ ⎢ ⎥
Lj Lj −1 = ⎢ ℓj+1,j ⎥⎢ −ℓj+1,j ⎥=⎢ −✟ ✟+✟
ℓj+1,j ✟
ℓj+1,j ⎥= E. !
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ .. .. ⎦⎣ .. .. ⎦ ⎣ .. .. ⎦
. . . . . .
ℓn,j 1 −ℓn,j 1 ℓ✚
−✚ ℓ✚
n,j +✚n,j 1
Übung 4.12
• • • Ziel dieser Aufgabe ist, die Eindeutigkeit der LR-Zerlegung zu beweisen. Man
zeige:
a) Sind L und L̄ normierte untere Dreiecksmatrizen, so ist auch LL̄ eine normierte
untere Dreiecksmatrix.
216 Kapitel 4 • LR-Zerlegung
b) Ist L eine normierte untere Dreiecksmatrix, so ist auch L−1 eine normierte untere
Dreiecksmatrix.
c) Die Aussagen (a) und (b) gelten auch für obere Dreiecksmatrizen.
d) Die LR-Zerlegung ist eindeutig.
v Lösung
a) Erinnerung: Eine Dreiecksmatrix heißt normiert, wenn alle Diagonaleinträge gleich
1 sind. Es seien L und L̄ normierte untere Dreiecksmatrizen
⎡ 1 0 ··· 0 ⎤ ⎡ ⎤
1 0 ··· 0
. .. . ⎥.
⎢ ℓ21 1 . . . .. ⎥ ⎢ . .⎥
L=⎢ ⎥ , L̄ = ⎢
⎢
ℓ̄21 1
⎥.
⎣ . . . ⎦ ⎣ .. . . . . ⎦
.. . . . . 0 . . . 0
ℓn1 ··· ℓn,n−1 1 ℓ̄n1 ··· ℓ̄n,n−1 1
Dann ist
⎡ ⎡ ⎤ ⎡ ⎤
1 0 ··· 0⎤ 1 0 ··· 0 1 0 ··· 0
. . . .. ⎥ ⎢ .. .. ⎥
⎢ ℓ21 1 . . . .. ⎥ ⎢ . .⎥ ⎢ .
LL̄ = ⎢ ⎥⎢⎢
ℓ̄21 1
⎥=⎢
ℓ21 +ℓ̄21 1 .⎥
⎥
⎣ . . ⎦⎣ . . . .. .. ..
.
.. . . . . 0 .. . . . . 0 ⎦ ⎣ . .
. 0
⎦
ℓn1 ··· ℓn,n−1 1 ℓ̄n1 ··· ℓ̄n,n−1 1 ℓn1 +ℓn2 ℓ̄21 +···+ℓ̄n1 ··· ℓn,n−1 +ℓ̄n,n−1 1
L1 R1 = L2 R2 ⇒ L2 −1 L1 R1 = R2 ⇒ L2 −1 L1 = R2 R1 −1 .
Nach Teilaufgaben (a) und (b) ist L2 −1 L1 eine normierte untere Dreiecksmatrize.
Nach Teilaufgabe (c) ist R2 R1 −1 eine obere Dreiecksmatrix.
4.1 • LR-Zerlegung ohne Zeilenvertauschung
217 4
⎡ ⎤ ⎡ ⎤
1 0 ··· 0 ⋆ ⋆ ··· ⋆
⎢ .. ⎥ ⎢0
⎢⋆ 1 . . .
⎢ .⎥⎥ ⎢ ⋆ ··· ⋆⎥ ⎥
L1 L2 −1 =⎢ ⎥, R1 −1 R2 = ⎢
⎢ .. .. .. .. ⎥
⎥.
⎢ .. . . . . ⎥ ⎣. . . .⎦
⎣. . . 0⎦
⋆ ··· ⋆ 1 0 ··· 0 ⋆
⎡ ⎤
1 0 ··· 0
⎢ .. ⎥
⎢0 1 . . .
⎢ .⎥⎥
Aus der Gleichheit L2 −1 L1 = R2 R1 −1 folgt L1 L2 −1 = R1 −1 R2 = ⎢ ⎥=
⎢ .. . . . . ⎥
⎣. . . 0⎦
0 ··· 0 1
E, d. h.
L1 L2 −1 = E ⇒ L1 = L2 R1 −1 R2 = E ⇒ R1 = R2 .
Jetzt untersuchen wir die Bedeutung der LR-Zerlegung bei der Lösung von LGS.
Für die Praxis ist dies ziemlich wichtig. Die Grundidee ist denkbar einfach: Mittels
LR-Zerlegung der Darstellungsmatrix A wird das LGS Ax = b auf die Lösung
von LGS mit unteren (bzw. oberen) Dreiecksmatrizen reduziert. Solche Gleichungs-
systeme sind direkt lösbar durch eine sukzessive Auflösung von oben nach unten
(Vorwärtseinsetzen) bzw. von unten nach oben (Rückwärtseinsetzen).
# Beispiel
Das folgende LGS
⎧ ⎡ ⎤⎡ ⎤ ⎡ ⎤
⎨2x1
⎪ = 4 2 0 0 x1 4
⎢ ⎥⎢ ⎥ ⎢ ⎥
2x1 + 4x2 = 8 " =
⎣2 4 0⎦ ⎣x2 ⎦ ⎣ 8 ⎦
⎪
⎩
3x1 − 2x2 + 3x3 = 10 3 −2 3 x3 10
kann man ganz einfach die Lösung durch Vorwärtseinsetzen direkt bestimmen:
⎧ ⎧ ⎡ ⎤
⎨2x1
⎪ = 4 ⎨x1 = 2
⎪ 2
⎢ ⎥
2x1 + 4x2 = 8 ⇒ x2 = 8−2·2
4 =1 ⇒ x = ⎣1⎦ .
⎪
⎩ ⎪
⎩
3x1 − 2x2 + 3x3 = 10 x3 = 10−3·2+2·1
3 =2 2
Dies ist ein Vorteil der Zerlegung der Matrix A in Dreiecksmatrizen L und R. $
Ax = b ⇒ LR x = b. (4.5)
Ly = b. (4.6)
Rx = y. (4.7)
Zuerst führen wir eine LR-Zerlegung der Matrix A durch. Diese wurde bereits in
Musterbeispiel 4.1 bestimmt:
⎡ ⎤ ⎡ ⎤⎡ ⎤
2 6 2 1 0 0 262
⎢ ⎥ ⎢ ⎥⎢ ⎥
A = ⎣−3 −8 0⎦ = ⎣− 32 1 0⎦ ⎣0 1 3⎦ = LR.
4 9 2 2 −3 1 007
Dann lösen wir Ly = b für die Hilfsvariable y durch Vorwärtseinsetzen von oben:
⎧ ⎧ ⎡ ⎤
⎨ y1
⎪ =2 ⎨y1 = 2
⎪ 2
3 3 ⎢ ⎥
− 2 y1 + y2 =2 ⇒ y2 = 2 + 2 · 2 = 5 ⇒ y = ⎣ 5 ⎦.
⎪
⎩ ⎪
⎩
2y1 − 3y2 + y3 = 3 y3 = 3 − 2 · 2 + 3 · 5 = 14 14
Übung 4.13
• ◦ ◦ Man löse das folgende LGS mittels LR-Zerlegung:
⎧
⎨ x1 + 2x2 + 4x3 = 1
⎪
2x1 + 3x2 + 8x3 = 1
⎪
⎩
−x1 − 3x2 − x3 = 1
v Lösung
6 1 2 4
7 617
Gegeben sei die Matrixform des LGS Ax = b mit A = 2 3 8 ,b = 1 . Nun
−1 −3 −1 1
gehen wir das Kochrezept 4.1 Schritt für Schritt durch.
Schritt 1 – Die LR-Zerlegung der Matrix A wurde bereits in Übung 4.1 vorgenommen:
⎡ ⎤ ⎡ ⎤
1 00 1 2 4
⎢ ⎥ ⎢ ⎥
L = ⎣ 2 1 0⎦ , R = ⎣0 −1 0⎦ .
−1 1 1 0 0 3
Schritt 3 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 2 gefundenen
Vektor y von unten
220 Kapitel 4 • LR-Zerlegung
⎧ ⎡ ⎤
⎨x1 + 2x2 + 4x3 = 1
⎪ −5
⎢ ⎥
−x2 = −1 ⇒ x = ⎣ 1 ⎦.
⎪
⎩
3x3 = 3 1 !
Übung 4.14
• ◦ ◦ Man löse das folgende LGS mittels LR-Zerlegung:
⎧
⎪
⎪ x1 + x2 + x3 + x4 = 1
⎪
⎨
x1 + 2x2 + 3x3 + 4x4 = 0
⎪
⎪
⎪ x1 + 3x2 + 6x3 + 10x4 = 0
⎩
x1 + 4x2 + 10x3 + 20x4 = 0
v Lösung
/1 1 1 1 0 /10
Gegeben sei die Matrixform des LGS Ax = b mit A = 12 3 4 , b = 0 . Dann
1 3 6 10 0
1 4 10 20 0
folgen wir dem Kochrezept 4.1 Schritt für Schritt.
Schritt 1 – Die LR-Zerlegung der Matrix A wurde bereits in Übung 4.3 vorgenommen:
⎡ ⎤ ⎡ ⎤
1000 1111
⎢1 1 0 0⎥ ⎢0 1 2 3⎥
⎢ ⎥ ⎢ ⎥
L=⎢ ⎥, R = ⎢ ⎥.
⎣1 2 1 0⎦ ⎣0 0 1 3⎦
1331 0001
Schritt 3 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 2 gefundenen
Vektor y von unten
⎧ ⎡ ⎤
⎪
⎪ x1 + x2 + x3 + x4 = 1 4
⎪
⎨ ⎢−6⎥
x2 + 2x3 + 3x4 = −1 ⎢ ⎥
⇒ x=⎢ ⎥
⎪
⎪
⎪ x3 + 3x4 = 1 ⎣4⎦
⎩
x4 = −1 −1 !
Übung 4.15
• • ◦ Man löse das folgende LGS mittels LR-Zerlegung:
⎧
⎨x1 + x2
⎪ + x4 + x5 = 1
x1 + x3 + x5 = 0
⎪
⎩
x2 + x3 + x4 =0
4.1 • LR-Zerlegung ohne Zeilenvertauschung
221 4
v Lösung
Mit diesem Beispiel wollen wir ein nicht quadratisches LGS mittels LR-Zerlegung
lösen. Zunächst schreiben wir das LGS in Matrixform Ax = b mit
⎡ ⎤ ⎡ ⎤
1101 1 1
⎢ ⎥ ⎢ ⎥
A = ⎣1 0 1 0 1⎦ , b = ⎣0⎦ .
0111 0 0
Schritt 1 – Wir bestimmen die LR-Zerlegung von A. Dazu betrachten wir das Aus-
gangsschema [E|A] und wenden den Gauß-Algorithmus in zwei Schritten an:
⎡ ⎤ ⎡ ⎤
1 0 0 1 1 0 1 1 1 0 0 1 1 0 1 1
⎢ ⎥ (Z2 ) − 1 (Z1 )
⎢ ⎥ (Z3 ) − (−1) (Z2 )
[E|A] = ⎣ 0 1 0 1 0 1 0 1⎦ " ⎣ 1 1 0 0 −1 1 −1 0⎦ "
0 0 1 0 1 1 1 0 0 0 1 0 1 1 1 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 1 1 0 1 1 1 0 0 1 1 0 1 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 1 0 0 −1 1 −1 0 ⎦ ⇒ L = ⎣1 1 0⎦ , R = ⎣0 −1 1 −1 0⎦ .
0 −1 1 0 0 2 0 0 0 −1 1 0 0 2 0 0
Schritt 3 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 2 gefundenen
Vektor y
⎧
⎨x1 + x2
⎪ + x4 + x5 = 1
− x2 + x3 − x4 = −1
⎪
⎩
2x3 = −1
In diesem Fall hat das LGS 3 Gleichungen für 5 Unbekannte. Zwei Variablen sind somit
frei wählbar: x4 = t und x5 = s. Dann Lösen wir das LGS zeilenweise von unten. Dies
ergibt
⎡ ⎤ ⎤⎡ ⎡ ⎤
1
2 0 −1
⎢ ⎥ 1 ⎢ ⎥ ⎢ ⎥
⎢ ⎥ 2
⎢−1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
x=⎢ 1⎥ ⎢ ⎥ ⎢ ⎥ t, s ∈ R.
⎢− 2 ⎥ + t ⎢ 0 ⎥ + s ⎢ 0 ⎥ ,
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 ⎦ ⎣1⎦ ⎣0⎦
0 0 1 !
> Bemerkung
Die Matrix A in Übung 4.15 ist nicht quadratisch. Beachte somit die Dimensionen der
Matrizen L und R: In diesem Fall ist L eine (3×3)-Matrix, während R eine (3×5)-Matrix
ist. Somit ergibt sich aus der Multiplikation LR eine (3 × 5)-Matrix: L(3×3) (3×5) R ⇒
A(3×5) .
222 Kapitel 4 • LR-Zerlegung
Wir diskutieren nun den wichtigen Fall, wenn man Zeilenvertauschung bei der
LR-Zerlegung verwenden muss. Bevor wir loslegen, müssen wir aber sogenannte
Permutationsmatrizen sowie den Gauß-Algorithmus mit Pivotstrategie einführen.
4.2.1 Permutationsmatrizen
# Definition 4.2
Es sei σ ∈ Sn eine Permutation (7 vgl. Abschn. 3.3.1). Die Matrix Pσ , welche durch
Vertauschen der Zeilen aus der Einheitsmatrix E bezüglich der Permutation σ entsteht,
heißt Permutationsmatrix. Es seien e1 T , e2 T , · · · , en T die Zeilen der Einheitsmatrix E
⎡ ⎤ ⎡ ⎤
1 0 ··· 0 e1 T
⎢0 1 ··· 0⎥ ⎢ e2 T ⎥
⎢ ⎥ ⎢ ⎥
E=⎢
⎢ .. .. .. .. ⎥ ⎢
⎥ = ⎢ .. ⎥.
⎥
⎣. . . .⎦ ⎣ . ⎦
0 0 ··· 1 en T
Dann erhält man die Permutationsmatrix Pσ , indem man die Zeilen von E bezüglich σ
vertauscht:
⎡ ⎤
eσ (1) T
⎢ eσ (2) T ⎥
⎢ ⎥
Pσ = ⎢
⎢ .. ⎥. $
⎥
⎣ . ⎦
eσ (n) T
# Beispiel
(1 2 3 4 5)
Die Permutation σ = 41523 erzeugt die folgende (5 × 5)-Permutationsmatrix
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0 0 e1 T 0 0 0 1 0 e4 T
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢0 1 0 0 0⎥ ⎢ e2 T ⎥ ⎢1 0 0 0 0⎥ ⎢ e1 T ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E=⎢
⎢0 0 1 0 0⎥ ⎢
⎥=⎢ e3 T ⎥
⎥ → Pσ = ⎢
⎢0 0 0 0 1⎥ ⎢
⎥=⎢ e5 T ⎥
⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0 0 0 1 0⎦ ⎣ e4 T ⎦ ⎣0 1 0 0 0⎦ ⎣ e2 T ⎦
0 0 0 0 1 e5 T 0 0 1 0 0 e3 T
Dabei wurden die Zeilen der Einheitsmatrix bezüglich der Permutation σ vertauscht.
Beachte, dass die j-te Spalte der Einheitsmatrix E ist die σ (j)-te Spalte von Pσ . Daher
entsteht Pσ durch Vertauschen der Spalten von E bezüglich der inversen Permutation σ −1 :
⎡ ⎤
1 0 ··· 0 ⎡ ⎤ ⎡ ⎤
⎢0 1 ··· 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E=⎢
⎢ .. .. .. .. ⎥
⎥ = ⎣e1 e2 . . . en ⎦ → Pσ = ⎣eσ −1 (1) eσ −1 (2) . . . eσ −1 (n) ⎦ .
⎣. . . .⎦
0 0 ··· 1
4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
223 4
(1 2 3 4 5)
In unserem Beispiel ist σ −1 = 24513 und in der Tat ist
⎡ ⎤
0 0 0 1 0
⎡ ⎤ ⎢ ⎥ ⎡ ⎤
⎢1 0 0 0 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E = ⎣e1 e2 e3 e4 e5 ⎦ → Pσ = ⎢
⎢0 0 0 0 1⎥⎥ = ⎣e2 e4 e5 e1 e3 ⎦ . $
⎢ ⎥
⎣0 1 0 0 0⎦
0 0 1 0 0
Inverse
Permutationsmatrizen sind immer regulär, da sie durch Vertauschen der Zeilen aus
E entstehen. Die Inverse P−1
σ entsteht durch Vertauschen der Zeilen aus E bezüglich
der inversen Permutation σ −1
P−1
σ = Pσ −1 .
Diese Operation entspricht das Vertauschen der Spalten von E bezüglich σ (welche
die Inverse von σ −1 ist). Die Inverse von Pσ ist somit einfach die Transponierte von
Pσ
T
P−1
σ = Pσ
Determinante
Jede Permutationsmatrix entsteht durch Zeilenvertauschungen aus der Einheitsma-
trix E. Weil die Determinante einer Matrix das Vorzeichen ändert, wenn man zwei
Zeilen vertauscht, ist die Determinante einer Permutationsmatrix entweder 1 oder
-1, je nachdem, wie viele Zeilen von E vertauscht werden. Insbesondere ist:
# Beispiel
Für die folgende Permutationsmatrix P gilt:
⎡ ⎤ ⎡ ⎤
0 0 0 1 0 0 1 0 0 0
⎢ ⎥ ⎢ ⎥
⎢1 0 0 0 0⎥ ⎢0 0 0 1 0⎥
⎢ ⎥ ⎢ ⎥
P=⎢
⎢0 0 0 0 1⎥
⎥ ⇒ P−1 = PT = ⎢
⎢0 0 0 0 1⎥⎥.
⎢ ⎥ ⎢ ⎥
⎣0 1 0 0 0⎦ ⎣1 0 0 0 0⎦
0 0 1 0 0 0 0 1 0 0
(1 2 3 4 5)
Diese Pemutationsmatrix entsteht aus der Permutation σ = 41523 , welche sign(σ ) =
−1 hat. Daher ist
224 Kapitel 4 • LR-Zerlegung
⎡ ⎤
0 0 0 1 0
⎢ ⎥
⎢1 0 0 0 0⎥
⎢ ⎥
det(P) = det ⎢
⎢0 0 0 0 1⎥⎥ = sign(σ ) = −1. $
⎢ ⎥
⎣0 1 0 0 0⎦
0 0 1 0 0
# Beispiel
(1 2 3 4)
Die Permutation σ = 2431 erzeugt die folgende (4 × 4)-Permutationsmatrix
⎡ ⎤ ⎡ ⎤
0 1 0 0 e2 T
⎢0 1⎥ ⎢ ⎥
⎢ 0 0 ⎥ ⎢ e4 T ⎥
P=⎢ ⎥=⎢ ⎥.
⎣0 0 1 0⎦ ⎣ e3 T ⎦
1 0 0 0 e1 T
Daher gilt:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 3 4 a1 T 5 6 7 8 a2 T
⎢5 8⎥ ⎢ ⎥ ⎢13 16⎥ ⎢ ⎥
⎢ 6 7 ⎥ ⎢ a2 T ⎥ ⎢ 14 15 ⎥ ⎢ a4 T ⎥
A=⎢ ⎥=⎢ ⎥ ⇒ PA = ⎢ ⎥=⎢ ⎥.
⎣9 10 11 12⎦ ⎣ a3 T ⎦ ⎣9 10 11 12⎦ ⎣ a3 T ⎦
13 14 15 16 a4 T 1 2 3 4 a1 T
Übung 4.16
•◦◦
a) Man bestimme die Inverse der folgenden Matrizen:
⎡ ⎤
00010
⎡ ⎤ ⎢ ⎥
001 ⎢1 0 0 0 0⎥
⎢ ⎥ ⎢ ⎥
A = ⎣0 1 0⎦ , B = ⎢ ⎥
⎢0 1 0 0 0⎥ .
⎢ ⎥
100 ⎣0 0 0 0 1⎦
00100
v Lösung
a) A und B sind beides Permutationsmatrizen. Daher ist
⎡ ⎤
01000
⎡ ⎤ ⎢ ⎥
001 ⎢0 0 1 0 0⎥
−1 T ⎢ ⎥ −1 T
⎢ ⎥
A = A = ⎣0 1 0⎦ , B = B = ⎢ ⎥
⎢0 0 0 0 1⎥ .
⎢ ⎥
100 ⎣1 0 0 0 0⎦
00010
Der Gauß-Algorithmus mit Pivotstrategie (oder Pivotisierung) ist eine Variante des
normalen Gauß-Algorithmus, den wir in 7 Kap. 2 studiert haben. Beim Gauß-
Algorithmus mit Pivotstrategie werden dieselben elementaren Zeilenoperationen wie
beim normalen Gauß-Algorithmus verwendet (7 vgl. Abschn. 2.2.1), jedoch mit
einer wichtigen Variante. Im ersten Schritt wählen wir innerhalb der ersten Spalte das
Element mit dem größten Betrag aus und vertauschen es nach oben. Dieses betrags-
grösste Element wird also zum neuen Pivot der ersten Spalte. Beim zweiten Schritt
suchen wir das betragsgrößte Element innerhalb der zweiten Spalte und vertauschen
es nach oben. Beim Gauß-Algorithmus mit Pivotstrategie wird dieses Verfahren in
jedem Schritt durchgeführt, bis das betragsgrößte Element jeder Pivotspalte immer
als Pivots oben steht.
226 Kapitel 4 • LR-Zerlegung
Übung 4.17
◦ ◦ ◦ Man löse das folgende LGS mittels Gauß-Algorithmus mit Pivotstrategie:
⎧
⎨ x1 + x2 + x3 = 1
⎪
2x1 + x2 + 2x3 = 0
⎪
⎩
4x1 + x2 + x3 = 1
v Lösung
Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 + x2 + x3 = 1
⎪ (Z1 ) 1 1 1 1
⎢ ⎥
2x1 + x2 + 2x3 = 0 (Z2 ) " [A|b] = ⎣ 2 1 2 0 ⎦ .
⎪
⎩
4x1 + x2 + x3 = 1 (Z3 ) 4 1 1 1
Im ersten Schritt betrachten wir die erste Pivotspalte, (1, 2, 4). Das betragsgrößte
Element in dieser Spalte ist 4. Somit vertauschen wir die erste Zeile mit der dritten
Zeile. Das neue Pivot ist nun 4:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 4 1 1 1 2(Z2 ) − (Z1 ) 4 1 1 1
⎢ ⎥ (Z1 ) ↔ (Z3 ) ⎢ ⎥ 4(Z3 ) − (Z1 ) ⎢ ⎥
⎣ 2 1 2 0⎦ " ⎣ 2 1 2 0⎦ " ⎣ 0 1 3 −1 ⎦ .
4 1 1 1 1 1 1 1 0 3 3 3
Dann betrachten wir die zweite Pivotspalte, (1, 3). Weil 3 der betragsgrößte Eintrag
ist, vertauschen wir die zweite Zeile mit der dritten Zeile und fahren weiter mit dem
Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
4 1 1 1 4 1 1 1 4 1 1 1
⎢ ⎥ (Z2 ) ↔ (Z3 ) ⎢ ⎥ 3(Z3 ) − (Z2 ) ⎢ ⎥
⎣ 0 1 3 −1 ⎦ " ⎣0 3 3 3 ⎦ " ⎣ 0 3 3 3 ⎦.
0 3 3 3 0 1 3 −1 0 0 6 −6
⎧⎡ ⎤⎫
⎨ 0 ⎪
⎪ ⎬
⎢ ⎥
Die Lösung ist somit L = ⎣ 2 ⎦ . !
⎪
⎩ ⎪
⎭
−1
PA = LR (4.8)
Dann wenden wir den Gauß-Algorithmus mit Pivotstrategie auf die rechte Matrix an.
Wir speichern alle nötigen Zeilenoperationen in den Einträgen der mittleren Matrix
unter der Diagonalen. Zusätzlich speichern wir alle nötigen Zeilenpermutationen in
der linken Matrix. Die LR-Zerlegung mit Zeilenvertauschung können wir somit direkt
im Endschema [P|L|R] ablesen.
Wir betrachten die erste Pivotspalte der rechten Matrix, (1, 5, 3). Der betragsgrösste
Eintrag in dieser Spalte ist 5. Somit vertauschen wir die erste und zweite Zeilen und
führen dann einen Schritt des Gauß-Algorithmus durch:
⎡ ⎤ ⎡ ⎤
1 0 0 1 0 0 1 −2 4 0 1 0 1 0 0 5 1 2
⎢ ⎥ (Z1 ) ↔ (Z2 ) ⎢ ⎥
⎣0 1 0 0 1 0 5 1 2⎦ " ⎣ 1 0 0 0 1 0 1 −2 4 ⎦
0 0 1 0 0 1 3 −1 1 0 0 1 0 0 1 3 −1 1
(Z2 ) − 1 (Z1 ) ⎡ ⎤
5
(Z3 ) − 3 (Z1 ) 0 1 0 1 0 0 5 1 2
5 ⎢ 18 ⎥ .
" ⎣ 1 0 0 15 1 0 0 − 11
5 5 ⎦
0 0 1 35 0 1 0 − 85 − 51
Dann betrachten wir die zweite Pivotspalte, (−11/5, −8/5). Weil −11/5 bereits der
betragsgrößte Eintrag ist, müssen wir keine Zeile vertauschen und wir verfahren weiter
228 Kapitel 4 • LR-Zerlegung
Probe:
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 0 5 1 2 5 1 2
⎢ ⎥⎢ 18 ⎥ = ⎢ ⎥
LR = ⎣ 15 1 0⎦ ⎣0 − 11
5 5 ⎦ ⎣1 −2 4⎦ = PA %
3 8
5 11 1 0 0 − 31
11 3 −1 1
Übung 4.18
• ◦ ◦ Man bestimme die LR-Zerlegung mit Zeilenvertauschung der folgenden Matrix:
⎡ ⎤
5 1 2
⎢ ⎥
A = ⎣ 2 25 1⎦ .
−4 0 6
v Lösung
Wir betrachten das Ausgangsschema [E|E|A] und wenden den Gauß-Algorithmus mit
Pivotstrategie an:
⎡ ⎤ (Z2 ) − 2 (Z1 ) ⎡ ⎤
5
1 0 0 1 0 0 5 1 2 (Z3 ) − − 4 (Z1 ) 1 0 0 1 0 0 5 1 2
⎢ ⎥ 5 ⎢ ⎥
[E|E|A] = ⎣ 0 1 0 0 1 0 2 25 1 ⎦ " ⎣ 0 1 0 25 1 0 0 0 15 ⎦
0 0 1 0 0 1 −4 0 6 0 0 1 − 54 0 1 0 45 38
5
⎡ ⎤
1 0 0 1 0 0 5 1 2
(Z3 )↔(Z2 ) ⎢ ⎥
" ⎣ 0 0 1 − 45 1 0 0 45 38
5 ⎦
.
0 1 0 25 0 1 0 0 15
4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
229 4
Das Verfahren wurde terminiert und wir lesen die LR-Zerlegung von A aus dem
Endschema [P|L|R] ab:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
100 1 00 5 1 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
P = ⎣0 0 1⎦ , L = ⎣− 45 1 0⎦ , R = ⎣0 45 38 5 ⎦
.
2 1
010 5 01 0 0 5
Übung 4.19
• • ◦ Man bestimme die LR-Zerlegung mit Zeilenvertauschung der folgenden Matrix:
⎡ ⎤
111 1
⎢0 4 0 3 ⎥
⎢ ⎥
A=⎢ ⎥.
⎣2 0 0 5 ⎦
1 2 3 −1
v Lösung
Wir betrachten das Ausgangsschema [E|E|A] und wenden den Gauß-Algorithmus mit
Pivotstrategie an:
⎡ ⎤ ⎡ ⎤
1 0 0 0 1 0 0 0 1 1 1 1 0 0 1 0 1 0 0 0 2 0 0 5
⎢0 3 ⎥
⎢
⎢ 1 0 0 0 1 0 0 0 4 0 (Z
⎥ 1 )↔(Z )
3 ⎢ 0 1 0 0 0 1 0 0 0 4 0 3 ⎥
⎥
⎢ ⎥ " ⎢ ⎥
⎣0 0 1 0 0 0 1 0 2 0 0 5 ⎦ ⎣1 0 0 0 0 0 1 0 1 1 1 1 ⎦
0 0 0 1 0 0 0 1 1 2 3 −1 0 0 0 1 0 0 0 1 1 2 3 −1
(Z3 ) − 1 (Z1 )
⎡ ⎤
2 0 0 1 0 1 0 0 0 2 0 0 5
(Z4 ) − 1 (Z1 ) ⎢ ⎥
2 ⎢0 1 0 0 0 1 0 0 0 4 0 3 ⎥
" ⎢ ⎥
⎣1 0 0 0 12 0 1 0 0 1 1 − 32 ⎦
0 0 0 1 12 0 0 1 0 2 3 − 72
(Z3 ) − 1 (Z2 )
⎡ ⎤
4 0 0 1 0 1 0 0 0 2 0 0 5
(Z4 ) − 1 (Z2 ) ⎢0
2 ⎢ 1 0 0 0 1 0 0 0 4 0 3 ⎥ ⎥
" ⎢ ⎥
⎣1 0 0 0 12 14 1 0 0 0 1 − 94 ⎦
0 0 0 1 12 12 0 1 0 0 3 −5
⎡ ⎤
0 0 1 0 1 0 0 0 2 0 0 5
⎢
(Z3 )↔(Z4 ) ⎢ 0
⎥
1 0 0 0 1 0 0 0 4 0 3 ⎥
" ⎢ ⎥
⎣0 0 0 1 12 12 1 0 0 0 3 −5 ⎦
1 0 0 0 12 14 0 1 0 0 1 − 49
⎡ ⎤
0 0 1 0 1 0 0 0 2 0 0 5
(Z4 )− 13 (Z3 ) ⎢ 0 1 0 0 0 1 0 0 0 4 0 3
⎥
⎢ ⎥
" ⎢ ⎥
⎣0 0 0 1 12 12 1 0 0 0 3 −5 ⎦
1 0 0 0 12 14 13 1 0 0 7
0 − 12
230 Kapitel 4 • LR-Zerlegung
⎡
⎤⎡ ⎤ ⎡ ⎤
1 0 0 0 2 0 0 5 2 0 0 5
⎢ 0 1 0 0⎥ ⎢0 4 0 3 ⎥ ⎢ 3⎥
⎢ ⎥⎢ ⎥ ⎢0 4 0 ⎥
Probe: LR = ⎢ 1 1 ⎥⎢ ⎥=⎢ ⎥ = PA % !
⎣ 2 2 1 0⎦ ⎣0 0 3 −5 ⎦ ⎣1 2 3 −1⎦
1 1 1 7
2 4 3 1 0 0 0 − 12 1 1 1 1
Übung 4.20
• • ◦ Man bestimme die LR-Zerlegung mit Zeilenvertauschung der folgenden Matrix:
⎡ ⎤
−2 4 6 0
⎢0
⎢ 3 1 1⎥⎥
A=⎢ ⎥.
⎣2 −10 −7 −1⎦
1 −8 −4 2
v Lösung
Das Ausgangsschema der Prozedur zur Bestimmung der LR-Zerlegung ist:
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0
⎢0
⎢ 1 0 0 0 1 0 0 0 3 1 1 ⎥⎥
[E|E|A] = ⎢ ⎥.
⎣0 0 1 0 0 0 1 0 2 −10 −7 −1 ⎦
0 0 0 1 0 0 0 1 1 −8 −4 2
Wir betrachten die erste Spalte von A. | − 2| = 2 ist der betragsgrößte Eintrag in dieser
Spalte. Wir müssen somit keine Zeilen vertauschen und wir führen den ersten Schritt
des Gauß-Algorithmus durch:
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0 (Z3 ) − −1 (Z1 )
⎢0 ⎥ (Z4 ) − − 1 ) (Z1 )
⎢ 1 0 0 0 1 0 0 0 3 1 1 ⎥ 2
⎢ ⎥ "
⎣0 0 1 0 0 0 1 0 2 −10 −7 −1 ⎦
0 0 0 1 0 0 0 1 1 −8 −4 2
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0
⎢0 1 ⎥
⎢ 1 0 0 0 1 0 0 0 3 1 ⎥
⎢ ⎥.
⎣0 0 1 0 −1 0 1 0 0 −6 −1 −1 ⎦
0 0 0 1 − 21 0 0 1 0 −6 −1 2
4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
231 4
Nun müssen wir die zweite und dritte Zeile vertauschen, da |3| < | − 6|. Wir erhalten
somit:
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 0 6
⎢0 ⎥
⎢ 1 0 0 0 1 0 0 0 3 1
1 ⎥ (Z2 )↔(Z3 )
⎢ ⎥ "
⎣0 0 1 0 −1 0 1 0 0 −6 −1
−1 ⎦
0 0 0 1 − 21 0 0 1 0 −6 2 −1
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0
⎢0 0
⎢ 1 0 −1 1 0 0 0 −6 −1 −1 ⎥⎥
⎢ ⎥.
⎣0 1 0 0 0 0 1 0 0 3 1 1 ⎦
0 0 0 1 − 12 0 0 1 0 −6 −1 2
1
= (−1)1 · (−2) · (−6) · · 3 = −18.
2 !
Das Lösen eines LGS mittels LR-Zerlegung mit Zeilenvertauschung erfolgt analog zu
7 Abschn. 4.1.4. Für das LGS Ax = b wird zuerst die Matrix A mittels LR-Zerlegung
mit Zeilenvertauschung zerlegt: PA = LR. Weil P eine Permutationsmatrix ist, gilt
P−1 = PT ⇒ PT P = E. Aus der ursprünglischen Matrizengleichung erhalten wir:
232 Kapitel 4 • LR-Zerlegung
Ly = Pb (4.9)
Rx = y. (4.10)
Da die Matrizen L und R Dreiecksform haben, kann man beide LGS ganz einfach
durch sukzessives Auflösen von oben nach unten bzw. von unten nach oben direkt
lösen.
Übung 4.21
• ◦ ◦ Man löse das folgende LGS mittels LR-Zerlegung und Zeilenvertauschung:
⎧
⎨ 5x1 + x2 + 2x3 = 13
⎪
2x1 + 25 x2 + x3 = 295
⎪
⎩
−4x1 + 6x3 = 14
v Lösung
Zuerst schreiben wir das LGS in Matrixform Ax = b mit
⎡ ⎤ ⎡ ⎤
5 1 2 13
⎢ ⎥ ⎢ ⎥
A = ⎣ 2 25 1⎦ , b = ⎣ 29
5 ⎦
.
−4 0 6 14
Nun gehen wir das Kochrezept 4.2 Schritt für Schritt durch.
4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
233 4
Schritt 1 – Die LR-Zerlegung mit Zeilenvertauschung der Matrix A wurde bereits in
Übung 4.18 vorgenommen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
100 1 00 5 1 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
P = ⎣0 0 1⎦ , L = ⎣− 45 1 0⎦ , R = ⎣0 45 38
5 ⎦
.
2 1
010 5 0 1 0 0 5
Schritt 4 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 3 gefundenen
Vektor y
⎧ ⎡ ⎤
⎨5x1 + x2 + 2x3 = 13
⎪ 1
4 38 122 ⎢ ⎥
5 x2 + 5 x3 = 5
⇒ x = ⎣2⎦ .
⎪
⎩ 1 3
5 x3 = 5 3 !
Übung 4.22
• ◦ ◦ Man löse das folgende LGS mittels LR-Zerlegung und Zeilenvertauschung:
⎧
⎪
⎪ x1 + x2 + x3 + x4 =0
⎪
⎨ 4x2 + 3x4 =5
⎪
⎪
⎪ 2x 1 + 5x4 =4
⎩
x1 + 2x2 + 3x3 − x4 =1
v Lösung
Zuerst schreiben wir das LGS in Matrixform Ax = b mit
⎡ ⎤ ⎡ ⎤
1 1 1 1 0
⎢0 3⎥ ⎢5⎥
⎢ 4 0 ⎥ ⎢ ⎥
A=⎢ ⎥, b = ⎢ ⎥.
⎣2 0 0 5⎦ ⎣4⎦
1 2 3 −1 1
Nun gehen wir das Kochrezept 4.2 Schritt für Schritt durch.
234 Kapitel 4 • LR-Zerlegung
Schritt 4 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 3 gefundenen
Vektor y
⎧ ⎡ ⎤
⎪
⎪2x1 + 5x4 = 4 − 97
14
⎪
⎨ ⎢− 10 ⎥
4x2 + 3x4 = 5 ⎢ ⎥
7
⇒ x = ⎢ 677 ⎥ .
⎪
⎪
⎪ 3x3 − 5x4 = − 12 ⎣ 14 ⎦
⎩ 7
− 12 x4 = − 25
12
25
7 !
Wir wollen uns noch mit der folgenden Frage beschäftigen: Was ist der Unterschied
zwischen der LR-Zerlegung ohne und mit Zeilenvertauschung? Es gibt grundsätzlich
zwei Gründe, wieso man eine LR-Zerlegung mit Zeilenvertauschung durchführen
will:
5 Die LR-Zerlegung mit Zeilenvertauschung bietet erhöhte numerische Stabilität bei
endlicher Arithmetik (vgl. Übung 4.23).
5 Nicht alle Matrizen besitzen eine LR-Zerlegung. In solchen Situationen
kann man trotzdem eine LR-Zerlegung mit Zeilenvertauschung durchführen
(vgl. Übung 4.24).
4.3 • Zeilenvertauschung: ja oder nein?
235 4
4.3.1 Numerische Stabilität
Das folgende Beispiel soll an einem konkreten Fall die Wichtigkeit der Zeilen-
vertauschung für die numerische Stabilität der LR-Zerlegung aufzeigen. Für die
Lösung eines LGS auf dem Computer (endliche Arithmetik, Auslöschung) bietet die
LR-Zerlegung mit Zeilenvertauschung eine genauere Methode im Vergleich zur LR-
Zerlegung ohne Zeilenvertauschung.
Übung 4.23
• • ◦ Das Gleichungssystem
1
0.035x1 + 3.6x2 = 9.1
1.2x1 + 1.4x2 = 5.9
Nehmen wir an, dass ein Computer nur mit 2 signifikanten Stellen rechnen kann
(d. h. 0.123 wird auf 0.12 gerundet während 249 auf 250 gerundet wird). Welche
Lösung wird der Computer liefern, wenn zum Lösen des Gleichungssystems (a) eine
LR-Zerlegung ohne Zeilenvertauschung benutzt wird oder (b) eine LR-Zerlegung mit
Zeilenvertauschung? Welches der zwei Verfahren ist genauer?
v Lösung
Zuerst schreiben wir das LGS in Matrixform Ax = b mit
' * ' *
0.035 3.6 9.1
A= , b= .
1.2 1.4 5.9
Schließlich lösen wir das LGS Rx = y zeilenweise mit dem gefundenen Vektor y
236 Kapitel 4 • LR-Zerlegung
1 ' *
0.035x1 + 3.6x2 = 9.1 2.9
⇒ x= .
−120x2 = −300 2.5
' *
1.99017 · · ·
Das Endresultat ist weit entfernt von der exakten Lösung: x = . Das
2.50843 · · ·
Problem liegt darin, dass das erste Element in der ersten Zeile von A im Vergleich
zum anderen Element in derselben Zeile relativ klein ist. Bei endlicher Arithmetik
kann dies zu Auslöschung führen. Deshalb sollte man die Pivotzeile so aussuchen,
dass das Pivotelement in dieser Zeile relativ zu den anderen Elementen der Zeile
möglichst das größte ist. Die Anwendung der LR-Zerlegung mit Zeilenvertauschun-
gen liefert genau deshalb eine genauere Lösung.
b) Wir bestimmen nun eine LR-Zerlegung der Matrix A mit Zeilenvertauschung:
' * ' *
1 0 1 0 0.035 3.6 (Z2 )↔(Z1 ) 0 1 1 0 1.2 1.4 (Z2 )− 0.029 (Z1 )
" "
0 1 0 1 1.2 1.4 1 0 0 1 0.035 3.6
' * ' * ' * ' *
0 1 1 0 1.2 1.4 0 1 1 0 1.2 1.4
⇒ P= ,L= ,R=
1 0 0.029 1 0 3.6 1 0 0.029 1 0 3.6
' *' * ' *
01 9.1 5.9
Dann berechnen wir den Vektor z = Pb = = und lösen das
10 5.9 9.1
LGS Ly = z zeilenweise
1 ' *
y1 = 5.9 5.9
⇒y= .
0.029y1 + y2 = 9.1 8.9
Schließlich lösen wir das LGS Rx = y zeilenweise mit dem gefundenen Vektor y
1 *'
1.2x1 + 1.4x2 = 5.9 2.0
⇒ x= .
3.6x2 = 8.9 2.5
Diese Lösung ist genau, wenn man das exakte Resultat auf 2 signifikanten Stellen
rundet. Die LR-Zerlegung mit Zeilenvertauschung ist somit ein besserer Algorith-
mus als die LR-Zerlegung ohne Zeilenvertauschung. !
Übung 4.24
• • ◦ Man betrachte die folgende Matrix
⎡ ⎤
1 0 2
⎢ ⎥
A = ⎣−1 a 1⎦ , a ∈ R.
0 −1 3
a) Für welche Werte des Parameters a ∈ R besitzt die folgende Matrix eine LR-
Zerlegung?
b) Für welche Werte des Parameters a ∈ R besitzt die folgende Matrix eine LR-
Zerlegung mit Zeilenvertauschung? Man bestimme diese Zerlegung in Abhängig-
keit des Parameters a ∈ R.
v Lösung
a) Damit eine LR-Zerlegung der Matrix A möglich ist, muss det(Ak ) ̸= 0 für k = 1, 2, 3
gelten (Satz 4.2):
6 7
A1 = 1 ⇒ det(A1 ) = 1 ̸= 0 %
' *
1 0
A2 = ⇒ det(A2 ) = a ̸= 0 ⇒ a ̸= 0
−1 a
⎡ ⎤ + +
1 0 2 +1 0 2++
+
⎢ ⎥ + +
A3 = ⎣−1 a 1⎦ ⇒ det(A3 ) = +−1 a 1+
+ +
0 −1 3 +0 −1 3+
+ + + +
+a
+ 1++ ++ 0 2++
=+ +++ +
+−1 3+ +−1 3+
= 3(a + 1) ̸= 0 ⇒ a ̸= −1.
Nun suchen wir das Betragsgrößte Element in der zweiten Pivotspalte: Ist es −1 oder
a? Wir müssen zwei Fälle unterscheiden:
5 Fall 1: |a| > 1. In diesem Fall ist a bereits das Pivot. Wir müssen somit keine
Zeilenvertauschung durchführen:
238 Kapitel 4 • LR-Zerlegung
⎡ ⎤ ⎡ ⎤
1 0 0 1 0 0 1 0 2 1 0 0 1 0 0 1 0 2
(Z3 ) − − a1 (Z2 ) ⎢ ⎥
⎢ ⎥ ⎢ 0 1 0 −1 1 0 0 a
@ 3 A ⎦.
⎣ 0 1 0 −1 1 0 0 a 3 ⎦ " ⎥
⎣
1
0 0 1 0 0 1 0 −1 3 0 0 1 0 −a 1 0 0 3 1 + a
1
vorausgesetzt |a| ≤ 1.
Zum Schluss dieses Kapitels, wollen wir uns noch mit der folgenden Frage beschäf-
tigen: Wie viele Rechenoperationen werden gebraucht, um ein LGS Ax = b mit n
Gleichungen und n Unbekannten mittels LR-Zerlegung für großes n zu lösen?
Gemäß Kochrezept 4.1 sind drei Schritte nötig:
3 2 −n
5 Bestimmung der LR-Zerlegung von A. In diesem Schritt sind 4n −3n6 Operatio-
nen nötig (Übung 4.25).
4.4 • Komplexität der LR-Zerlegung
239 4
5 Lösen des LGS Ly = b durch Vorwärtseinsetzen. Der Rechenaufwand ist n2
(Übung 4.26).
5 Lösen des LGS Rx = y durch Rückwärtseinsetzen. Es sind n2 + n Operationen
nötig (Übung 4.27).
Der gesamte Rechenaufwand bei der Lösung eines (n×n)-LGS mittels LR-Zerlegung
beträgt somit
4n3 − 3n2 − n
+ n2 + (n2 + n) Operationen.
6
Für großes n, sind die Terme mit n und n2 vernachlässigbar im Vergleich zu n3 . Somit
sind insgesamt Ordnung n3 Operationen nötig. Dieser Rechenaufwand ist viel kleiner
als bei der Lösung des LGS mithilfe der Determinante, wobei Ordnung (n + 1)!
Operationen nötig sind (Übung 4.28).
Übung 4.25
• • • Wie viele Rechenschritte sind für die LR-Zerlegung einer (n × n)-Matrix nötig?
v Lösung
Die Bestimmung der LR-Zerlegung gemäß 7 Abschn. 4.1.2 können wir mit folgendem
Algorithmus im Pseudocode zusammenfassen:
Der Algorithmus besteht aus drei For-Schleifen. Die innere For-Schleife benötigt 2
Operationen (1 Multiplikation und 1 Addition) pro Schritt. Insgesamt sind es somit
n
D n
D
2=2× 1 = 2(n − j)
k=j+1 i=j+1
; <= >
=n−j
Operationen. Die mittlere For-Schleife verwendet eine Operation (Division) und ruft
die innere For-Schleife. Pro Schritt sind es somit 1 + 2(n − j) Operationen. Insgesamt
ergibt dies:
240 Kapitel 4 • LR-Zerlegung
n
D n
( ) ( ) D ( )
1 + 2(n − j) = 1 + 2(n − j) 1 = 1 + 2(n − j) (n − j)
i=j+1 i=j+1
; <= >
=n−j
2
= 2j − (4n + 1)j + n(2n + 1)
Operationen. Schließlich, summieren wir über die äußere For-Schleife und bekommen:
n
D n
D n
D n
D
( )
2j 2 − (4n + 1)j + n(2n + 1) = 2 j2 − (4n + 1) j + n(2n + 1) 1
j=1 j=1 j=1 j=1
; <= > ; <= > ; <= >
=2 n(n+1)(2n+1)
=(4n+1) n(n+1) =n(2n+1) n
6 2
4n3 − 3n2 − n
=
6
Für großes n betrachten wir nur die größte Potenz von n (n3 in diesem Fall). Die Ge-
samtanzahl der Operationen bei der LR-Zerlegung vereinfacht sich somit im Grenzwert
n ≫ 1 zu:
Praxistipp
n
D n
D n
D
n(n + 1) n(n + 1)(2n + 1)
1 = n, j= , j2 = .
2 6
j=1 j=1 j=1
Übung 4.26
• • • Sei L eine normierte (n × n)-untere Dreiecksmatrix. Man bestimme den Rechen-
aufwand bei der Lösung von Ly = b durch Vorwärtseinsetzen.
v Lösung
Durch Vorwärtseinsetzen ergibt sich die folgende Lösung von Ly = b:
y1 = b1 ← 1 Operation
y2 = b2 − ℓ21 y1 ← 2 Operationen
y3 = b3 − ℓ31 y1 − ℓ32 y2 ← 4 Operationen
4.4 • Komplexität der LR-Zerlegung
241 4
..
.
yj = bj − ℓj1 y1 − ℓj2 y2 − · · · − ℓj,j−1 yj−1 ← 2(n − j) + 1 Operation
..
.
Für das Lösen des LGS Ly = b durch Vorwärtseinsetzen können wir somit den
folgenden Algorithmus im Pseudocode festhalten:
Wie viele Operationen sind beim Vorwärtseinsetzen nötig? Im j-tem Schritt brauchen
wir 1 Subtraktion, sowie n − j Additionen und Multiplikationen (für den Teil ℓj1 y1 +
· · · ℓj,j−1 yj−1 ); dies ergibt 2(n − j) + 1 Operationen. Summieren wir diese Anzahl
Operationen über die gesamte For-Schleife, so erhalten wir:
n
D n
D n
D
( )
2(n − j) + 1 = (2n + 1) × 1−2 × j
j=1 j=1 j=1
; <= > ; <= >
=(2n+1)×n =2× n(n+1)
2
Übung 4.27
• • • Sei R eine (n × n)-obere Dreiecksmatrix. Man berechne den Rechenaufwand bei
der Lösung von Rx = y durch Rückwärtseinsetzen.
v Lösung
Für das Lösen des LGS Rx = y durch Rückwärtseinsetzen können wir, analog zum
Übung 4.26, den folgenden Algorithmus im Pseudocode nutzen:
Beachte, dass die Diagonaleinträge r11 , r22 , · · · , rnn der Matrix R ungleich Null sein
müssen, damit dieser Schritt überhaupt definiert ist (vgl. Satz 4.2). Mit diesem Pseudo-
code können wir die Anzahl Operationen beim Rückwärtseinsetzen berechnen. Bei der
Bestimmung von yj sind 2(n − j) + 2 Operationen nötig. Insgesamt ergibt dies:
n
D n
D n
D
( )
2(n − j) + 2 = (2n + 2) × 1−2 × j
j=1 j=1 j=1
; <= > ; <= >
=(2n+2)×n =2× n(n+1)
2
Übung 4.28
• • ◦ Man vergleiche den Rechenaufwand der Lösung eines (n × n)-LGS mit den
folgenden Methoden:
a) LR-Zerlegung
b) Cramer’sche Regel (Determinantenberechnung mit Laplace-Entwicklung)
c) Welche Methode ist effizienter? Man nehme an, dass ein Computer 109 Gleitkom-
maoperationen pro Sekunde (109 FLOP = 1 GFLOP, 1 FLOP = 1 Operation/Se-
kunde) durchführen kann. Wie viel Zeit würde der Computer benötigen, um ein
(20 × 20)-LGS mit diesen zwei Methoden zu lösen?
v Lösung
a) Die Lösung eines (n × n)-LGS mittels LR-Zerlegung benötigt O(n3 ) Operationen.
b) Um ein (n × n)-LGS mit der Cramer’schen Regel zu lösen, müssen wir n + 1
Determinanten der Ordnung (n × n) berechnen. Werden diese Determinanten
mit der Laplace-Entwicklung bestimmt, so sind jeweils O(n!) Operationen nötig.
Insgesamt sind O((n + 1)!) Operationen nötig.
c) Klarerweise ist die LR-Zerlegung viel effizienter als die Cramer’sche Regel. Die
Lösung eines (20 × 20)-LGS mit der Cramer’schen Regel benötigt Ordnung 21!
Operationen. Die dazu nötige Rechenzeit ist unglaublich groß:
21!
= 5.2 × 1010 Sekunden = 1620 Jahre.
109 FLOP
Wird stattdessen eine LR-Zerlegung durchgeführt, so sind nur Ordnung 213 Ope-
rationen nötig. Die nötige Rechenzeit ist signifikant viel kleiner:
213
= 9.2 × 10−6 Sekunden = 9.2 µs.
109 FLOP
Daraus erkennt man eindrücklich den Wert der LR-Zerlegung für die Lösung von
großen LGS in der Praxis! !
243 II
Vektorräume
Inhaltsverzeichnis
Vektorräume und
Unterräume
Inhaltsverzeichnis
In diesem Kapitel legen wir jetzt los, uns mit der linearen Algebra zu befassen.
Zuerst verallgemeinern wir das Vektorkonzept auf allgemeine mathematische Ob-
jekte, wie Matrizen, Polynome oder Funktionen. Dies geschieht durch sogenannte
Vektorräume. Ein Vektorraum ist grundsätzlich eine Verallgemeinerung oder Er-
weiterung von Rn (oder Kn ), wobei gewisse Axiome erfüllt werden müssen. Sind
diese Axiome erfüllt, so können wir unsere erweiterten mathematischen Objekte
(Matrizen, Polynomen oder Funktionen) als „verallgemeinerte Vektoren“ betrachten.
Diese Identifizierung ist nicht einfach ein theoretisches Konstrukt. Damit können wir
tatsächlich komplexe Probleme der Mathematik, welche Matrizen, Polynome oder
Funktionen beinhalten, viel einfacher lösen, indem wir das jeweilige Problem mittels
Vektoren im Rn (oder Kn ) betrachten.
n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 5 sind Sie in der Lage:
5 Vektorräume eindeutig zu erkennen und zu klassifizieren,
5 Kriterien für Unterräume anzuwenden,
5 affine Unterräume von üblichen Unterräumen unterscheiden und geometrisch
interpretieren können zu interpretieren,
5 Operationen mit Unterräumen wie Durchschnitt, Summe und direkte Summe
durchzuführen und geometrisch zu interpretieren,
5 verschiedene konkrete Beispiele zu Vektorräumen zu verstehen und praktisch an-
zuwenden,
5 Lösungsmengen von LGS als Unterräume oder affine Unterräume zu interpretie-
ren.
5.1 Vektorräume
5.1.1 Definition
+ : V × V → V, (u, v) → u + v (5.1)
· : K × V → V, (α, v) → α · v, (5.2)
Notiert wird der Vektorraum durch das Tripel (V, +, ·). Ist K = R oder K = C, so spricht
man von einem reellen oder komplexen Vektorraum. $
> Bemerkung
Der Einfachheit halber schreiben wir das Produkt α · v oft als α v.
Link zu Gruppen
Axiome (VR1) – (VR4) besagen, dass (V , +, 0) eine abelsche Gruppe ist (vgl. An-
hang B).
Rechenregeln
# Satz 5.1
Aus den Vektorraumaxiomen (VR1)–(VR8) folgen unmittelbar die folgenden Rechenre-
geln (u ∈ V und α ∈ K):
5 0 · u = 0 und α · 0 = 0;
5 α · u = 0 ⇔ α = 0 oder u = 0;
5 (−1) · u = −u. $
> Bemerkung
In jedem Beispiel müssen wir den Körper K, die Menge V , die Addition “+” und die
Skalarmultiplikation “·” festhalten.
248 Kapitel 5 • Vektorräume und Unterräume
. Abb. 5.1 Genauso wie man Vektoren in R2 addieren oder mit α ∈ R skalar multiplizieren kann,
definiert man die Addition und Skalarmultiplikation für stetige Funktionen auf R. Stetige Funktionen
auf R kann man somit wie übliche „Vektoren“ behandeln
# Beispiel
Jeder Vektorraum muss, wegen Axiom (VR3), mindestens das Nullelement enthalten. Aus
diesem Grund ist der Vektorraum nur bestehend aus dem Nullelement, V = {0}, der
kleinste Vektorraum, den wir auf K definieren können. V = {0} nennt man den trivialen
Vektorraum. $
# Beispiel
Die Menge der n-dimensionalen Vektoren über K
bildet zusammen mit der üblichen Addition und Skalarmultiplikation für Vektoren einen
K-Vektorraum. Kn heißt der Standardvektorraum auf K. $
5.1 • Vektorräume
249 5
# Beispiel
Die Menge der (m × n)-Matrizen auf K
bildet zusammen mit der üblichen Addition und Skalarmultiplikation für Matrizen
(vgl. 7 Kap. 1) einen K-Vektorraum. $
# Beispiel
Die Menge der Polynome vom Grad ≤ n und mit Koeffizienten aus K
einen K-Vektorraum. $
# Beispiel
Die Menge der stetigen Funktionen von K nach K
einen K-Vektorraum. $
Als klassisches Beispiel zeigen wir, dass V = Kn zusammen mit der üblichen Addition und
Skalarmultiplikation mit Vektoren
' u1 * ' v1 * ' u1 +v1 * ' v1 * ' α v1 *
.. + .. := .. , .
α · . := .. für α ∈ K
. . . . .
un vn un +vn vn α vn
einen Vektorraum über K bildet. Das Vorgehen bei einer solchen Aufgabe ist standardisiert
und lautet wie folgt: Man zeigt (Schritt für Schritt), dass die vorgegebene Menge V alle 8
Eigenschaften (Axiome) eines Vektorraums (Definition 5.1) erfüllt.
250 Kapitel 5 • Vektorräume und Unterräume
5 Beweis von (VR3): Das Nullelement ist der Nullvektor 0 = [0, · · · , 0]T ∈ Kn . Denn für
' 0 * ' v1 * ⎡ 0+v1 ⎤ ' v1 *
alle v ∈ Kn gilt 0 + v = .. + .. = ⎣ .. ⎦ = .. = v %
. . . .
0 vn 0+vn vn
5 Beweis von (VR4): Das zu v = [v1 , · · · , vn ]T inverse Element bezüglich “+” ist (−v) =
[−v1 , · · · , −vn ]T . Denn es gilt:
' v1 * ' −v1 * ' v1 −v1 * ' 0 *
v + (−v) = .. + .. = .. = .. = 0 %
. . . .
vn −vn vn −vn 0
Alle Bedingungen (VR1)-(VR8) von Definition 5.1 sind erfüllt. Somit ist V ein Vektorraum
über K.
5.1 • Vektorräume
251 5
Übung 5.1
•◦◦ Man zeige, dass die Menge Km×n der (m×n)-Matrizen mit Einträgen in K bezüglich
der üblichen Matrixaddition und Skalarmultiplikation einen K-Vektorraum bildet.
v Lösung
Wir müssen einfach überprüfen, ob die Menge Km×n die 8 Axiome eines Vektorraums
(Definition 5.1) erfüllt. Dies folgt jedoch direkt aus den Rechenregeln für Matrizen
(vgl. 7 Kap. 1).
5 Beweis von (VR1): Es seien A, B ∈ Km×n . Dann gilt:
' a11 ··· a1n * ⎡ b11 ··· b1n ⎤ ⎡ a11 +b11 ··· a1n +b1n
⎤
A+B = .. . . .. + ⎣ .. . . .. ⎦ = ⎣ .. .. .. ⎦
. . . . . . . . .
am1 ··· amn bm1 ··· bmn am1 +bm1 ··· amn +bmn
⎡ ⎤ ⎡ ⎤ ' a11 ··· a1n *
b11 +a11 ··· b1n +a1n b11 ··· b1n
=⎣ .. .. .. ⎦ = ⎣ .. . . .. ⎦ + .. . . .. =B+A%
. . . . . . . . .
bm1 +am1 ··· bmn +amn bm1 ··· bmn am1 ··· amn
5 Beweis von (VR4): Das zu A ∈ Kn inverse Element bezüglich “+” ist −A. Denn:
' a11 ··· a1n * ' −a11 ··· −a1n * ' 0 ··· 0
*
A + (−A) = .. . . .. + .. . . .. = .. . . . .. =0%
. . . . . . . .
am1 ··· amn −am1 ··· −amn 0 ··· 0
Alle Bedingungen (VR1) - (VR8) der Definition 5.1 sind erfüllt. Somit ist Km×n ein
K-Vektorraum. !
252 Kapitel 5 • Vektorräume und Unterräume
Übung 5.2
•◦◦
a) Pn (R) ist die Menge der reellen Polynome vom Grad kleiner oder gleich n
1 n
4
D
n i
Pn (R) = p(x) = a0 + a1 x + · · · + an x = ai x , ai ∈ R .
i=0
Für p, q ∈ Pn (R) und α ∈ R betrachten wir die übliche Addition und Skalarmulti-
plikation auf Pn (R)
v Lösung
a) Wir beginnen, indem wir anmerken, dass die Addition “+” und Skalarmultiplikati-
on “·” in Pn (R) wohldefiniert sind:
5 Die Summe zweier Polynomen vom Grad ≤ n ist wieder ein Polynom vom Grad
≤ n.
5 Ist p(x) ∈ Pn (R) und α ∈ R, so ist α p(x) ∈ Pn (R).
Wir zeigen nun, dass die Menge Pn (R) alle Bedingungen eines Vektorraums erfüllt.
Dn Dn n
D
Es seien p(x) = ai xi , q(x) = bi xi , r(x) = ci xi drei Polynome in Pn (R)
i=1 i=1 i=1
und α, β ∈ R.
n
D n
D n
D
5 Beweis von (VR1): (p + q)(x) = p(x) + q(x) = ai xi + bi xi = (ai +
i=1 i=1 i=1
n
D n
D n
D
bi )xi = (bi + ai )xi = bi xi + ai xi = q(x) + p(x) = (q + p)(x) %
i=1 i=1 i=1
Dn n
D n
D
E F
5 Beweis von (VR2): p+(q+r) (x) = ai xi + (bi +ci )xi = (ai +bi +ci )xi =
i=1 i=1 i=1
n
D n
D
i i
E F
(ai + bi )x + ci x = (p + q) + r (x) %
i=1 i=1
5 Beweis von (VR3): Das Nullelement von Pn (R) ist das Nullpolynom 0 (alle
n
D n
D
Koeffizienten sind gleich Null). Denn 0 + p(x) = (0 + ai )xi = ai xi =
i=1 i=1
p(x) %
n
D
5 Beweis von (VR4): Das zu p(x) = ai xi inverse Element ist (−p)(x) =
i=1
n
D
i
(−ai )x . Denn es gilt:
i=1
5.1 • Vektorräume
253 5
n
D n
D n
D
E F
p + (−p) (x) = p(x) + (−p)(x) = ai xi + (−ai )xi = (ai − ai ) xi = 0 %
; <= >
i=1 i=1 i=1 =0
n
D n
D
E F
5 Beweis von (VR5): α · (p + q) (x) = α (ai + bi )xi = α (ai + bi )xi =
i=1 i=1
n
D n
D n
D
(α ai + α bi )xi = α ai xi + α bi xi = (α · p)(x) + (α · q)(x) %
i=1 i=1 i=1
n
D n
D
E F
5 Beweis von (VR6): (α + β) · p (x) = (α + β) ai xi = (α ai + β ai )xi =
i=1 i=1
n
D n
D
i i
α ai x + β ai x = (α · p)(x) + (β · p)(x) %
i=1 i=1
n
D n
D
E F
5 Beweis von (VR7): Es gilt (α β) · p (x) = (α β) ai xi = α(β ai )xi =
i=1 i=1
n
D
i
E F
α β ai x = α · (β p) (x) %
i=1
n
D n
D
5 Beweis von (VR8): (1 · p)(x) = 1 · p(x) = 1 · ai xi = ai xi = p(x) %
i=1 i=1
Alle Bedingungen (VR1)-(VR8) der Definition 5.1 sind somit erfüllt. Daher ist
Pn (R) ein Vektorraum über R.
b) Die Menge V der Polynomen vom Grad n ist kein Vektorraum, weil die Skalar-
multiplikation auf V nicht wohldefiniert ist: Aus der Skalarmultiplikation eines
Polynomes von Grad n mit α = 0 entsteht das Nullpolynom 0. 0 hat aber Grad
0 und ist somit nicht in V enthalten. ✗ !
> Bemerkung
Bei Aufgaben wie Übung 5.2 ist es wichtig, auf eine genaue Notation zu achten: p und q
sind Polynome, während p(x) und q(x) die Werte dieser Polynomen an der Stelle x ∈ R
sind.
Übung 5.3
•◦◦ Sei C 0 (R) die Menge aller reellen stetigen Funktionen. Für f , g ∈ C 0 (R) und α ∈ R
definieren wir die folgende Addition und Skalarmultiplikation
v Lösung
Wie im vorgehenden Beispiel, bemerken wir zuerst, dass die Addition „+“ und Skalar-
multiplikation „·“ für C 0 (R) wohldefiniert sind. Dies folgt direkt aus den Rechenregeln
für reelle stetige Funktionen, insbesondere weil aus Summen von stetigen Funktionen
wieder stetige Funktionen entstehen. Wir überprüfen, dass C 0 (R) die 8 Eigenschaften
(Axiome) eines Vektorraums erfüllt. Es seien f , g, h ∈ C 0 (R) und α, β ∈ R.
5 Beweis von (VR1): Es gilt (f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x) %
E F E F
5 Beweis von (VR2): Es gilt f +(g+h) (x) = f (x)+ g(x)+h(x) = f (x)+g(x)+h(x) =
E F E F
f (x) + g(x) + h(x) = (f + g) + h (x) %
5 Beweis von (VR3): Das Nullelement ist die Nullfunktion 0 ∈ C 0 (R). Denn es gilt
(0 + f )(x) = 0 + f (x) = f (x) %
5 Beweis von (VR4): Das zu f (x) inverse Element ist (−f )(x) = −f (x). Denn es gilt
E F
f + (−f ) (x) = f (x) − f (x) = 0 %
E F
5 Beweis von (VR5): Es gilt α · (f + g) (x) = α (f + g)(x) = α f (x) + α g(x) =
(α · f )(x) + (α · g)(x) %
E F
5 Beweis von (VR6): Es gilt (α + β) · f (x) = (α + β) f (x) = α f (x) + β f (x) =
(α · f )(x) + (β · f )(x) %
E F E F
5 Beweis von (VR7): (α β) · f (x) = (α β) f (x) = α(β f )(x) = α · (β · f ) (x) %
5 Beweis von (VR8): (1 · f )(x) = 1 · f (x) = f (x) %
Übung 5.4
• ◦ ◦ Sei V = C 0 (R+ ) die Menge aller stetigen Funktionen f : R → R+ (d. h. f (x) > 0
für alle x ∈ R). Für f , g ∈ V und α ∈ R definieren wir die folgende „Addition ⊕“ und
„Skalarmultiplikation ⊙“
v Lösung
Wir halten fest, dass die oben definierten Addition “⊕” und Skalarmultiplikation “⊙”
für V wohldefiniert sind. Sind f , g stetige, positive Funktionen, so sind es auch fg und f α
mit α ∈ R. Nun überprüfen wir, dass die 8 Eigenschaften (Axiome) eines Vektorraums
erfüllt sind. Es seien f , g, h ∈ V und α, β ∈ R.
5 Beweis von (VR1): Es gilt: (f ⊕ g)(x) = f (x)g(x) = g(x)f (x) = (g ⊕ f )(x). %
E F E F
5 Beweis von (VR2): Es gilt: f ⊕ (g ⊕ h) (x) = f (x) g(x)h(x) = f (x)g(x)h(x) =
E F E F
f (x)g(x) h(x) = (f ⊕ g) ⊕ h (x) %
5 Beweis von (VR3): Das Nullelement von V bezüglich ⊕ ist die Funktion 1 (kon-
stante Funktion). Denn es gilt: (1 ⊕ f )(x) = 1 f (x) = f (x) %
5 Beweis von (VR4): Das zu f (x) inverse Element bezüglich ⊕ ist (−f )(x) = 1/f (x) (es
E F 1
existiert weil f (x) > 0 ist). Denn es gilt: f ⊕(−f ) (x) = f (x) f (x) = 1 % Erinnerung:
1 das Nullelement von V .
5.1 • Vektorräume
255 5
E F E Fα
5 Beweis von (VR5): Es gilt α ⊙ (f ⊕ g) (x) = f (x)g(x) = f (x)α g(x)α =
E F
(α ⊙ f ) ⊕ (α ⊙ g) (x) %
E F
5 Beweis von (VR6): Es gilt (α + β) ⊙ f (x) = f (x)α+β = f (x)α f (x)β =
E F
(α ⊙ f ) ⊕ (β ⊙ f ) (x) %
E F E F
5 Beweis von (VR7): (α β) ⊙ f (x) = f (x)α β = (f (x)α )β = α ⊙ (β ⊙ f ) (x) %
5 Beweis von (VR8): (1 ⊙ f )(x) = f (x)1 = f (x) %
! Achtung
Übung 5.4 zeigt, dass das Nullelement eines Vektorraumes nicht unbedingt gleich 0
sein muss. Es hängt von der Definition der Addition “+” ab.
Übung 5.5
• • ◦ Sind die folgenden Mengen V mit den entsprechenden Additionen und Skalar-
multiplikationen Vektorräume? ' * ' *
2 u1 α u1
a) V = R mit der üblichen Vektor-Addition und α · := , α ∈ R.
u 0
' 2* ' *
u α u1
b) V = R2 mit der üblichen Vektor-Addition und α · 1 := , α ∈ R.
u2 u2
' *
2 u1
c) V = C mit der üblichen Skalarmultiplikation für Vektoren in C und +
u2
' * ' *
v1 u + v2
:= 2 .
v2 u1 + v1
1 ' * + 4
+
x1 2 + 2 2
d) V = x = ∈ R + x1 + x2 = 4 zusammen mit der üblichen Addition und
x2 +
Skalarmultiplikation für Vektoren in R2 . ' 0 ··· 0 *
e) V = Rn×n mit der üblichen Matrix-Addition und α · A := .. . . . .. , α ∈ R.
. .
0 ··· 0
f) V = Z3 (Vektoren mit Einträgen aus Z) zusammen mit der üblichen Addition und
Skalarmultiplikation für Vektoren in R3 .
v Lösung
Keine der gegebenen Mengen V ist ein Vektorraum. Es genügt, jeweils ein Gegenbeispiel
zu finden, dass irgendein Axiom (VR1)–(VR8) der Definition 5.1 verletzt ist.
a) Mit der vorgeschlagenen Skalarmultiplikation
' * ' * ist
' Axiom
* (VR8) verletzt, denn für
v v v
v = [v1 , v2 ] ∈ R2 gilt 1 · v = 1 · 1 = 1 ̸= 1 = v ✗
v2 0 v2
256 Kapitel 5 • Vektorräume und Unterräume
̸= α v + β v ✗
c) Mit dieser Addition ist Axiom (VR3) nicht erfüllt: Es'gibt * kein
' Nullelement.
* ' *Der
0 v1 0 + v2
übliche Nullvektor versagt als Nullelement: 0 + v = + = =
0 v2 0 + v1
' * ' *
v2 v
̸= 1 = v ✗.
v1 v2
' *
a1
Gibt es einen anderen Vektor a = , der ein Nullelement von V ist? Für alle
a2
v ∈ C2 , sollte ein solches Nullelement Folgendes erfüllen:
' * ' * ' * ' * ⎧
⎨a = v − v
a1 v1 a2 + v2 ! v1 2 1 2
a+v= + = = ⇒
a2 v2 a1 + v1 v2 ⎩a = v − v
1 2 1
' 0 ··· 0
*
e) Axiom (VR8) ist verletzt: für A ∈ Rn×n gilt 1 · A = .. . . . .. ̸= A ✗
. .
0 ··· 0
f) Die Skalarmultiplikation
√ ist nicht wohldefiniert. Man betrachte dazu√ein Gegen-
beispiel: α = 2 ∈ R und x = [1, 0, 0] ∈ Z3 ; dann ist α x = [ 2, 0, 0]T ∈ /
Z3 ✗. !
Übung 5.6
• • ◦ Es sei K = Z2 .
a) Wie viele Elemente enthält der Vektorraum Kn ?
b) Man gebe alle Elemente des Vektorraums K3 explizit an.
c) Man gebe alle Elemente des Vektorraums P1 (K) an.
5.2 • Unterräume
257 5
v Lösung
a) Jeder Vektor in (Z2 )n hat n Komponenten und jede dieser Komponenten kann nur
den Wert 0 oder 1 besitzen. Da wir alle Komponenten unabhängig voneinander
wählen können, gibt es genau 2n Möglichkeiten für Vektoren in (Z2 )n . Der Vektor-
raum (Z2 )n enthält genau 2n Elemente.
b) Jeder Vektor in (Z2 )3 sieht wie folgt aus [a, b, c]T mit a, b, c ∈ Z2 . Da Z2 = {0, 1},
jede Komponente kann nur 0 oder 1 sein. Es gibt somit 23 = 8 Vektoren in (Z2 )3 ,
konkret:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 0 1 0 1 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ .
, , , , , , ,
0 0 0 0 1 1 1 1
c) Jedes Polynom in P1 (K) sieht wie folgt aus p(x) = a0 + a1 x mit a0 , a1 ∈ Z2 . a0 und
a1 sind entweder 0 oder 1. P1 (K) enthält somit genau die 4 Polynome: 0, 1, x und
1 + x. !
5.2 Unterräume
In der Praxis beschäftigen wir uns oft mit Teilmengen eines Vektorraums V . Um die
nützlichen Vektorraumeigenschaften übertragen zu können, ist es wünschenswert,
dass diese Teilmengen selbst Vektorräume sind. Aus diesem Grund führt man den
Begriff des Unterraumes (oder Untervektorraum) ein.
5.2.1 Definition
> Bemerkung
Eigenschaften (UR1) und (UR2) besagen, dass U bezüglich der Addition „+“ bzw. der
Skalarmultiplikation „·“ abgeschlossen ist. Weil V ein Vektorraum ist, reichen die
Bedingungen (UR0)–(UR2) damit U ⊂ V selbst eine Vektorraumstruktur besitzt.
258 Kapitel 5 • Vektorräume und Unterräume
. Abb. 5.2 Grafische Darstellung der 3 Bedingungen (UR0)–(UR2) eines Unterraumes (Definition 5.2).
Hier sind diese Bedingungen anhand einer Geraden in R2 durch den Nullpunkt gezeigt
Praxistipp
Die Unterraumsaxiome (UR1) und (UR2) kann man zu einer einzigen äquivalenten
kompakten Bedingung zusammenfassen:
In der Praxis kann man entweder Bedingungen (UR1) und (UR2) oder die kompakte
Bedingung (UR) überprüfen.
Wenn man in der Praxis zeigen will, ob eine vorgelegte Menge U ⊂ V ein Unterraum
von V ist, muss man einfach die 3 Bedingungen (UR0)–(UR2) der Definition 5.2
überprüfen:
(UR0) Das Nullelement 0 muss in U enthalten sein.
(UR1) Wenn man zwei Elemente u, v aus U addiert, muss das Ergebnis u + v auch
wieder in U sein (U muss abgeschlossen bezüglich der Addition sein).
(UR2) Wenn man ein Element u aus U mit einem beliebigen Skalar α ∈ K multipli-
ziert, muss das Ergebnis α · u auch wieder in U sein (U muss abgeschlossen
bezüglich der Skalarmultiplikation sein).
Alternativ kann man (UR0) und die kompakte Bedingung (UR) nachweisen.
5.2 • Unterräume
259 5
Musterbeispiel 5.2 (Beweis, dass U ein Unterraum ist)
2 / 0 + 3
v1 +
Als Beispiel untersuchen wir, ob U = v= ∈ R2 ++ v2 = 0 ⊂ R2 ein Unterraum von
v2
R2 ist. Wir überprüfen, ob die gegebene Menge U die 3 Bedingungen eines Untervektorraums
(Definition 5.2) erfüllt.
5 Beweis von (UR0): Der Nullvektor 0 = [0, 0]T ist in U enthalten, weil die zweite
Komponente von 0 trivialerweise/ gleich / %0
0 Null ist.
v1 w
5 Beweis von (UR1): Es seien v = und w = 1 zwei beliebige Elemente aus U. Wir
0 0
müssen zeigen, dass auch deren Summe v + w in U liegt. Es gilt:
/ 0 / 0 / 0 / 0
v w v + w1 v + w1
v+w= 1 + 1 = 1 = 1 .
0 0 0+0 0
Die zweite Komponente von v + w ist somit auch gleich Null. /Folglich
0 ist v + w ∈ U. %
v1
5 Beweis von (UR2): Wir betrachten ein beliebiges Element v = aus U. und eine Zahl
0
α ∈ R. Wir müssen nachweisen, dass α v ∈ U. Es gilt:
/ 0 / 0 / 0
v α v1 α v1
αv = α 1 = = ⇒ αv ∈ U %
0 α0 0
Da die 3 Bedingungen (UR0), (UR1) und (UR2) erfüllt sind, ist U ein Unterraum von R2 .
> Bemerkung
Musterbeispiel 5.2 war ein einfaches Beispiel, aber prinzipiell kann man das Vorgehen
auch auf komplexere Beispiele übertragen. Das Einzige, was sich ändert, ist die
Definition von U sowie die „Rechenregeln“, die man anwenden muss.
Geraden und Ebenen, welche nicht durch den Nullpunkt gehen, sind keine Unterräume
von Kn (jeder Unterraum muss immer den Nullpunkt enthalten, wegen (UR0)). Sie heißen
affine Räume (7 vgl. Abschn. 5.3). $
260 Kapitel 5 • Vektorräume und Unterräume
a b c
. Abb. 5.3 Unterräume von R3 . (a) Trivialer Unterraum U = {0}, (b) Gerade durch den Nullpunkt,
(c) Ebene durch den Nullpunkt
# Beispiel
Unterräume von Kn×n . Die folgenden drei Mengen sind wichtige Beispiele von Unterräu-
men von Kn×n :
5 Diagn (R) := {A ∈ Rn×n | A ist diagonal} = diagonale Matrizen;
5 Symn (R) := {A ∈ Rn×n | AT = A} = symmetrische Matrizen;
5 Skewn (R) := {A ∈ Rn×n | AT = −A} = schiefsymmetrische Matrizen.
> Bemerkung
GLn (R) und On (R) sind wichtige bekannte abelsche Gruppen bezüglich der Matrix-
multiplikation. GL = General Linear group. O = Orthogonal group.
Die Lösungsmenge eines homogenen (m × n)-LGS ist ein Unterraum von Kn : der
sogenannte Lösungsraum (vgl. Übung 5.8). Es gilt sogar die Umkehrung:
Praxistipp
Satz 5.2 bietet in der Praxis ein effizientes Unterraumkriterium (vgl. Übung 5.8).
> Bemerkung
Beachte, dass dieses Resultat für inhomogene LGS nicht stimmt. In diesem Fall ist die
Lösungsmenge kein Unterraum, sondern ein affiner Raum (7 vgl. Abschn. 5.3).
5.2 • Unterräume
261 5
Übung 5.7
• ◦ ◦ Welche der folgenden
+ Mengen sind Unterräume von R3 ?
G 3
H
+
a) U1 = x ∈ R + x1 + 2x2 = 3x3
G H
b) U2 = x ∈ R3 ++ x1 = −x2 , x3 = 7
G H
c) U3 = x ∈ R3 ++ x1 + x2 − 4x3 = 0, x1 = x2
G H
d) U4 = x ∈ R3 ++ x1 = x2 = x3
G H
e) U5 = x ∈ R3 ++ x1 > x2 > x3
G H
f) U6 = x ∈ R3 ++ xi ∈ Q
G H
g) U7 = x ∈ R3 + x21 + x22 + x23 = 1
v Lösung
a) Ja. U1 erfüllt alle drei Eigenschaften eines Unterraumes:
5 Beweis von (UR0): Die Komponenten des Nullvektors 0 = [0, 0, 0]T erfüllen
die Bedingung x1 + 2x2 = 3x3 , d. h. 0 ∈ U1 . % / 0
6 x1 7 6 y1 7 x1 +y1
5 Beweis von (UR1): Es seien nun x = x2 , y = y2 ∈ U1 ⇒ x + y = x2 +y2 .
x3 y3 x3 +y3
Damit x + y ∈ U1 , muss (x1 + y1 ) + 2(x2 + y2 ) = 3(x3 + y3 ) gelten. Ist dies der
Fall? Da x, y ∈ U ist
Somit x + y ∈ U. % 6 x1 7 6 αx1 7
5 Beweis von (UR2): Es seien x = x2 ∈ U1 und α ∈ R ⇒ αx = αx2 . Da
x3 αx3
x ∈ U, gilt:
d. h. α x ∈ U1 . %
Alle 3 Unterraumaxiome sind erfüllt.
b) Nein. Der Nullvektor ist nicht in U2 enthalten (0 = 7 ist falsch).
c) Ja. U3 erfüllt alle Eigenschaften (Axiome) eines Unterraumes, konkret:
5 Beweis von (UR0): Die Komponenten des Nullvektors erfüllen die beiden Be-
x1 6 07∈ U3 . %
dingungen x1 + x2 − 4x3 = 0 und x1 6= x72 . Somit
y1
5 Beweis von (UR1): Es seien nun x = x2 ,y= y2 ∈ U3 . Damit x + y ∈ U3 ,
x3 y3
muss (x1 + y1 ) + (x2 + y2 ) − 4(x3 + y3 ) = 0 und (x1 + y1 ) = (x2 + y2 ) gelten.
Ist dies der Fall? Da x und y in U3 enthalten sind, gilt für ihre Komponenten
x1 + x2 − 4x3 = 0, x1 = x2 beziehungsweise y1 + y2 − 4y3 = 0, y1 = y2 . Daraus
folgt
und
(x1 + y1 ) = x1 + y1 = x2 + y2 = (x2 + y2 ).
Somit x + y ∈ U3 . % 6 x1 7
5 Beweis von (UR2): Ferner sei x = x2 ∈ U3 und α ∈ R. Der Vektor α · x erfüllt
x3
dann beide Bedingungen von U3 :
woraus folgt α · x ∈ U3 . %
Alle 3 Unterraumaxiome sind erfüllt.
d) Ja. In diesem Fall überprüfen wir (UR0) und die kompakte Bedingung (UR):
5 Beweis von (UR0): Der Nullvektor 0 = [0, 0, 0]T ist in U4 enthalten, weil
trivialerweise alle Komponenten6 von
x
6 7 sind. %
7 0 gleichy
5 Beweis von (UR): Es seien x = x ,y= y ∈ U4 und α ∈ R. Dann ist
x y
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
αx y αx+y
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
α · x + y = ⎣α x⎦ + ⎣y⎦ = ⎣α x + y⎦ .
αx y αx+y
Übung 5.8
• ◦ ◦ Es sei A ∈ Km×n .
a) Man zeige, dass die Lösungsmenge L = {x ∈ Kn | Ax = 0} des homogenen LGSs
Ax = 0 ein Unterraum von Kn ist.
b) Gilt diese Aussage auch für das inhomogene LGS Ax = b?
c) Man wiederhole die Übungen 5.7(a)–(d) unter Verwendung des in diesem Beispiel
entwickelten neuen Kriteriums.
5.2 • Unterräume
263 5
v Lösung
a) Wir weisen einfach nach, dass L die drei Eigenschaften eines Unterraumes (Defini-
tion 5.2) erfüllt:
5 Beweis von (UR0): Der Nullvektor ist in L enthalten, weil Ax = 0 immer die
triviale Lösung x = 0 besitzt (vgl. 7 Kap. 2). %
5 Beweis von (UR1): Es seien x, y ∈ L zwei Lösungen von Ax = 0. Dann gilt:
Ax + Ay = 0 ⇒ x + y ∈ L %
A(x + y) = ;<=>
;<=>
=0 =0
Ax = 0 ⇒ α x ∈ L %
A(α x) = α ;<=>
=0
A(x + y) = ;<=>
Ax + Ay = 2b ⇒ x + y ∈
/ L×
;<=>
=b =b
Bedingung (UR1) ist nicht erfüllt und somit kann die Lösungsmenge eines inhomo-
genen LGS keinen Unterraum von Rn sein.
c) Aus Teilaufgaben (a) und (b) ergibt sich ein nützliches Kriterium für Unterräume:
Die Lösungsmenge eines homogenen (m × n)-LGS ist immer ein Unterraum von
Rn . Dies gilt für inhomogene LGS nicht.
Mit diesem Kriterium können wir die Übungen 5.7(a)–(d) nochmals untersu-
chen.
U1 : Die definierende Bedingung x1 + 2x2 = 3x3 kann man als ein homogenes
(1 × 3)-LGS wie folgt interpretieren:
⎧ + ⎡ ⎤ ⎫
⎪ + ⎪
I + J ⎪
⎨ +6 7 x1 ⎪
⎬
3 +
+
U1 = x ∈ R + x1 + 2x2 − 3x3 = 0 = x ∈ R3 + 1 2 −3 ⎢⎣ x 2
⎥
⎦ = 0 .
⎪ + ⎪
⎪
⎩ + ; <= > ⎪
⎭
+ x 3
=A
I + J
+
U3 = x ∈ R3 + x1 + x2 − 4x3 = 0, x1 − x2 = 0
⎧ + ⎫
⎪ + ⎡ ⎤ ⎪
⎪
⎪ + ' *⎪⎪
⎪
⎨ +' * x1 ⎪
+ 1 1 −4 ⎢ ⎥ 0 ⎬
= x ∈ R3 ++ ⎣x2 ⎦ = .
⎪
⎪
⎪ + 1 −1 0 0 ⎪
⎪
⎪
⎪
⎩ +;
+ <= > x3 ⎪
⎭
=A
v Lösung
Wir weisen nach, dass H die drei Eigenschaften eines Unterraumes erfüllt
5 Beweis von (UR0): Die Nullmatrix ist in H enthalten. %
( ) ( x2 −y2 )
5 Beweis von (UR1): Es seien A = xy11 −yx 1 , B = y2 x 2
1
∈ H. Dann gilt:
' * ' * ' *
x1 −y1 x2 −y2 x1 + x2 −(y1 + y2 )
A+B = + = ∈H%
y1 x1 y2 x2 y1 + y2 x1 + x2
( x −y )
5 Beweis von (UR2): Es seien A = y x ∈ H und α ∈ R. Dann gilt:
' * ' *
x −y α x −α y
α·A=α = ∈H%
y x αy αx
Übung 5.10
• ◦ ◦ Welche der folgenden Teilmengen von Rn×n sind Unterräume?
a) Diagn (R) = {A ∈ Rn×n | A diagonal} = Diagonalmatrizen
b) GLn (R) = {A ∈ Rn×n | A invertierbar} = invertierbare Matrizen
c) On (R) = {A ∈ Rn×n | AT A = E} = orthogonale Matrizen
d) Symn (R) = {A ∈ Rn×n | AT = A} = symmetrische Matrizen
v Lösung
a) Ja. Denn (UR0) und die kombinierte Eigenschaft (UR) sind erfüllt:
5 Beweis von (UR0): Die (n × n)-Nullmatrix ist diagonal (alle Diagonaleinträge
sind Null), d. h. 0 ∈ Diagn (R) %
' a1 * ' b1 *
5 Beweis von (UR): Es seien A = ..
. ,B = ..
. ∈ Diagn (R) zwei
an bn
(n × n)-Diagonalmatrizen. Dann ist
⎡ ⎤
α a1 + b1
⎢ .. ⎥
α·A+B =⎢
⎣ .
⎥
⎦
α an + bn
(α · A + B)T = α · ;<=>
AT + ;<=>
BT = α · A + B ⇒ α · A + B ∈ Symn (R) %
=A =B !
Übung 5.11
• • ◦ Es sei C 0 (R) der Vektorraum der reellen stetigen Funktionen auf R. Welche der
folgenden Teilmengen von C 0 (R) sind Unterräume?
a) U1 = {f ∈ C 0 (R) | f (−x) = f (x)}
b) U2 = {f ∈ C 0 (R) | f (−x) = −f (x)}
c) U3 = {f ∈ C 0 (R) | f (5) = 0}
df
d) U4 = {f ∈ C 0 (R) | dx |x=0 = 1}
0
e) U5 = {f ∈ C (R) | f (x) = A sin(x) + B cos(x), A, B ∈ R}
f) U6 = {f ∈ C 0 (R) | f (x + a) = f (x)} (a ∈ R)
266 Kapitel 5 • Vektorräume und Unterräume
v Lösung
a) Ja. Denn die drei Axiome eines Unterraumes (Definition 5.2) sind erfüllt:
5 Beweis von (UR0): Die Nullfunktion f (x) ≡ 0 gehört zu U1 . %
5 Beweis von (UR1): Es seien f , g ∈ U1 . Dann gilt:
c) Ja. Wir weisen die drei Axiome eines Unterraumes (Definition 5.2) nach:
5 Beweis von (UR0): Die Nullfunktion f (x) ≡ 0 gehört zu U3 , weil f (5) = 0. %
5 Beweis von (UR1): Es seien f , g ∈ U3 (⇒ f (5) = 0 und g(5) = 0). Dann gilt:
> Bemerkung
f ∈ C 0 (R) heißt gerade bzw. ungerade, falls f (x) = f (−x) bzw. f (−x) = −f (x) für alle
x ∈ R gilt. Die Unterräume U1 und U2 in Übung 5.11 sind somit die Unterräume der
geraden bzw. ungeraden stetigen Funktionen. f ∈ C 0 (R) heißt periodisch mit Periode a
falls f (x + a) = f (x) für alle x ∈ R gilt. U6 ist somit der Unterraum der periodischen
stetigen Funktionen mit Periode a.
Übung 5.12
• ◦ ◦ Man gebe ein Beispiel für eine Teilmenge U ⊂ R2 an, sodass
a) U bezüglich der Addition abgeschlossen ist, aber keinen Unterraum von R2 ist;
b) U bezüglich der Skalarmultiplikation abgeschlossen ist, aber keinen Unterraum von
R2 darstellt.
v Lösung +
G H
a) Man betrachte U = Z2 = x = [x1 , x2 ]T ∈ R2 + x1 , x2 ∈ Z .
5 Beweis von (UR0): 0 ∈ U, weil 0 ∈ Z %
5 Beweis von (UR1): Es seien x = [x1 , x2 ]T ∈ U und y = [y1 , y2 ]T ∈ U. Dann
gilt x1 , x2 , y1 , y2 ∈ Z. Daraus folgt x1 + y1 ∈ Z und x2 + y2 ∈ Z, d. h. x + y ∈ U.
%
5 Beweis von (UR2): Gegenbeispiel: Man betrachte x = [1, 1]T ∈ U und α =
√ √ √
3 ∈ R. Dann ist α x = [ 3, 3]T ∈ / U. ✗
U ist abgeschlossen bezüglich der Addition, trotzdem ist U kein Unterraum von
R2 . +
G H
b) Man betrachte U = x = [x1 , x2 ]T ∈ R2 + x1 x2 = 0 .
5 Beweis von (UR0): 0 ∈ U, weil 0 · 0 = 0 %
5 Beweis von (UR1): Es seien x = [x1 , x2 ]T ∈ U und y = [y1 , y2 ]T ∈ U (⇒
x1 x2 = 0 und y1 y2 = 0). Dann gilt:
' *
x + y1
x+y= 1 ⇒ (x1 + y1 )(x2 + y2 ) = x1 x2 +x1 y2 + x2 y1 + x2 y2
x2 + y2 ;<=> ;<=>
=0 =0
= x1 y2 + x2 y1 ̸= 0 ⇒ x + y ∈
/U ✗
268 Kapitel 5 • Vektorräume und Unterräume
Übung 5.13
• • ◦ Sind die folgenden Teilmengen Unterräume?
a) U1 = {x ∈ R3 | x1 x2 − x3 = 0} ⊂ R3
b) U2 = {x ∈ C2 | x1 + ix2 = 0} ⊂ C2
c) U3 = {x ∈ R2 | x1 + x2 = 2} ⊂ R2
d) U4 = {x ∈ Z22 | x1 + x2 = 2} ⊂ Z22
K
e) U5 = {x ∈ Rn | ni=1 x2i = 0} ⊂ Rn
f) U6 = {A ∈ Rn×n | det(A) = 2} ⊂ Rn×n
g) U7 = {A ∈ Rn×n | Ax = b hat eine eindeutige Lösung} ⊂ Rn×n
h) U8 = {p(x) = a0 + a1 x + a2 x2 ∈ P2 (R) | a0 = a1 = a2 } ⊂ P2 (R)
v Lösung
a) Nein. U1 ist nicht abgeschlossen bezüglich der Skalarmultiplikation. Zum Beispiel
(nach etwas Probieren oder „genauem Hinschauen“): x = [1, 1, 1]T ∈ U1 , weil
1 · 1 − 1 = 1 − 1 = 0 %. Aber 2 x = [2, 2, 2]T ∈
/ U1 , weil 2 · 2 − 2 = 4 − 2 = 2 ̸= 0
✗.
b) Ja.
5 Beweis von (UR0): 0 ∈ U2 , weil 0 + i 0 = 0 %
5 Beweis von (UR1): Es seien x = [x1 , x2 ]T ∈ U2 und y = [y1 , y2 ]T ∈ U2 . Dann
gilt:
' *
x + y1
x+y= 1 ⇒ (x1 + y1 ) + i(x2 + y2 ) = x1 + ix2 + y1 + iy2
x2 + y2 ; <= > ; <= >
=0 =0
= 0 + 0 = 0 ⇒ x + y ∈ U2 %
Alternative: U2 ist die Lösungsmenge eines homogenen LGS; U2 ist somit ein
Unterraum von C2 .
c) Nein. U3 ist die Lösungsmenge eines inhomogenen LGS; U3 ist somit kein Unter-
raum von R2
5.2 • Unterräume
269 5
d) Ja. In Z2 gilt: 2 = 0. U4 ist somit die Lösungsmenge eines homogenen LGS, also
ein Unterraum von Z22 .
K
e) Der einzige Vektor in Rn mit ni=1 xi = ||x||2 = 0 ist der Nullvektor 0. U5 besteht
somit nur aus der Menge mit dem Nullvektor U5 = {0} und ist somit ein Unterraum
von Rn (der triviale Unterraum).
f) Nein. U6 ist nicht abgeschlossen bezüglich der Skalarmultiplikation. Es sei A ∈ U6
⇒ det(A) = 2. Nach den Rechenregeln für die Determinante gilt dann: det(α A) =
α n det(A) = 2α n ̸= 2 ⇒ A ∈/ U6 ✗
g) Aus 7 Kap. 2 wissen wir, dass das LGS Ax = b genau dann eine eindeutige Lösung
hat, wenn det(A) ̸= 0. Die Nullmatrix ist somit kein Element von U7 , weil det(0) =
0. U7 ist also kein Unterraum von Rn×n .
h) Ja. U8 ist die Menge der Polynome der Form p(x) = a(1 + x + x2 ) mit a ∈ R.
5 Beweis von (UR0): p(x) = 0 ∈ U8 , weil a0 = a1 = a2 = 0 %
5 Beweis von (UR1): Es seien p(x) = a(1+x+x2 ) ∈ U8 und q(x) = b(1+x+x2 ) ∈
U8 . Dann gilt: p(x)+q(x) = a(1+x+x2 )+b(1+x+x2 ) = (a+b)(1+x+x2 ) ∈ U8
%
5 Beweis von (UR2): Es seien p(x) = a(1 + x + x2 ) ∈ U8 und α ∈ R. Dann gilt:
α p(x) = α a(1 + x + x2 ) = (α a)(1 + x + x2 ) ∈ U8 % !
Übung 5.14
• ◦ ◦ Es seien U und W zwei Unterräume des Vektorraums V . Welche der folgenden
Teilmengen von V sind Unterräume?
a) ∅ = { } b) {0} c) U\W
v Lösung
a) Nein. Der Nullvektor ist nicht in ∅ enthalten.
b) Ja. Die Menge {0} erfüllt trivialerweise alle Eigenschaften eines Unterraumes
(Definition 5.2).
c) Nein. U\W = {v ∈ U | v ∈ / W } besteht aus den Elementen von U, welche nicht in W
enthalten sind. Da W ein Unterraum von V ist, muss W den Nullvektor enthalten.
Somit enthält U\W nicht den Nullvektor, also kann U\W keinen Unterraum
sein. !
Übung 5.15
• ◦ ◦ Es seien A, B ∈ Km×n . Ist U = {x ∈ Kn | Ax = Bx} ein Unterraum von Kn ?
v Lösung
Ja. Wir weisen (UR0) und die kombinierte Bedingung (UR) nach:
5 Beweis von (UR0): 0 ∈ U, weil Ax = 0 = Bx %
5 Beweis von (UR): Es seien x, y ∈ U und α ∈ K. Dann gilt: A(α x+y) = α Ax+Ay =
α Bx + By = B(α x + y) ⇒ α x + y ∈ U % !
270 Kapitel 5 • Vektorräume und Unterräume
Übung 5.16
• ◦ ◦ Man gebe alle Unterräume von (Z2 )2 explizit an.
v Lösung
(Z2 )2 enthält genau 22 = 4 Elemente (vgl. Übung 5.6). Diese sind:
1' * ' * ' * ' *4
2 0 1 0 1
(Z2 ) = , , , .
0 0 1 1
Jeder Unterraum von (Z2 )2 muss mindestens den Nullvektor enthalten. Außerdem
muss die Summe von je zwei Elemente des Unterraumes wieder zum Unterraum
gehören. Die möglichen Unterräume von (Z2 )2 sind somit
1' *4 1' * ' *4 1' * ' *4 1' * ' * ' * ' *4
0 0 1 0 0 2 0 1 0 1
, , , , , (Z2 ) = , , , .
0 0 0 0 1 0 0 1 1 !
Wir diskutieren nun sogenannte affine Unterräume, welche Teilmenge sind, die durch
Parallelverschiebung von Unterräumen entstehen.
5.3.1 Definition
X = v + U = {v + u | u ∈ U} , (5.7)
wobei v ∈ V ein fester Vektor in V und U ⊂ V ein Unterraum von V ist. v heißt Stützvektor
und U der zugeordnete Ursprungsunterraum von X . $
> Bemerkung
Der Ursprungsunterraum U ist für jeden affinen Unterraum eindeutig bestimmt. Als
Stützvektor kann man einen beliebigen Vektor aus X wählen.
5.3 • Affine Unterräume
271 5
a b
Beachte, dass diese affinen Unterräume i.A. keine Unterräume sind, weil sie den
Nullvektor nicht enthalten.
# Beispiel
Als Ursprungsunterraum wählen wir die Gerade U durch den Ursprung
⎧ +⎡ ⎤ ⎡ ⎤ ⎫
⎪ + x 1 ⎪
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥
U = x ∈ R3 + ⎣x2 ⎦ = t ⎣1⎦ , t ∈ R .
⎪
⎩ + ⎪
⎭
+ x3 1
ein affiner Unterraum. X ist eine verschobene Gerade, welche durch [1, 0, 0]T geht.
Beachte, dass X kein Unterraum ist, weil X den Nullvektor nicht enthält. $
Es seien A ∈ Km×n und b ∈ Km . Aus 7 Abschn. 2.2.8 wissen wir, dass die Lösung
eines inhomogenen LGS Ax = b durch
x = xHomo + xp
272 Kapitel 5 • Vektorräume und Unterräume
gegeben ist. xHomo ist die allgemeine Lösung des zugehörigen homogenen LGS Ax =
0 und xp ist eine partikuläre Lösung des inhomogenen LGS. Aus Satz 5.2 wissen
wir auch, dass die Lösungsmenge eines homogenen LGS ein Unterraum von Kn ist.
Daher können wir die Lösungsmenge L von Ax = b als affinen Unterraum von Kn
interpretieren
L = xp + {x ∈ Kn | Ax = 0} (5.8)
; <= >
= Ursprungsunterraum
Nach Satz 5.3 ist jeder affine Unterraum X durch ein (inhomogenes) LGS be-
schrieben. Man kann also X durch explizite Angabe der Lösungsmenge des LGS
beschreiben. Wir erhalten also die folgende Darstellung eines affinen Unterraumes
X = {v + t1 v1 + t2 v2 + · · · + tr vr | ti ∈ K} (5.9)
# Beispiel
X = {x ∈ R3 | x1 + x2 + x3 = −1} beschreibt die Lösungsmenge des LGS
⎡ ⎤
6 7 x1
⎢ ⎥
1 1 1 ⎣x2 ⎦ = ;<=>
−1 .
; <= > x =b
=A 3
; <= >
=x
Nach Satz 5.3 ist X ein affiner Unterraum von R3 . Die Parameterdarstellung von X
erhalten wir als Lösungsmenge des obigen LGS
⎧ +⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ + x −1 −1 −1 ⎪
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X = x ∈ R3 + ⎣x2 ⎦ = ⎣ 0 ⎦ + t ⎣ 1 ⎦ + s ⎣ 0 ⎦ , t, s ∈ R .
⎪
⎩ + ⎪
⎭
+ x3 0 0 1
Übung 5.17
• ◦ ◦ Welche der folgenden Teilmengen von Rn sind Unterräume? Welche sind affine
Unterräume? +
G H
a) X1 = x ∈ R3 ++ x1 + 2x2 + x3 = 0
G H
b) X2 = x ∈ R3 ++ x1 + 2x2 + x3 = 1
G H
c) X3 = x ∈ R4 ++ x1 = x2 , x1 = 1 − x3 − x4
G H
d) X4 = x ∈ R4 + x1 += x2 , x1 = −x3 − x4
G H
e) X5 = [x1 , x2 , 1]T+ + x1 , x2 ∈ R
G T +
H
f) X6 = [0, x2 , 0]
+ 2 x2 ∈ R
G H
g) X7 = x ∈ R x1 + x22 + x3 = 0
3 +
v Lösung
Wir wenden Satz 5.3 an.
a) X1 ist die Lösungsmenge eines homogenen LGS. Somit ist X1 ein Unterraum und
zugleich auch ein affiner Unterraum.
b) X2 ist die Lösungsmenge eines inhomogenen LGS. Somit ist X2 ein affiner Unter-
raum, aber kein Unterraum.
c) X3 ist die Lösungsmenge eines inhomogenen LGS. Somit ist X3 ein affiner Unter-
raum, aber kein Unterraum.
d) X4 ist die Lösungsmenge eines homogenen LGS. X4 ist ein Unterraum und zugleich
auch ein affiner Unterraum.
e) X5 ist die Lösungsmenge eines inhomogenen LGS ⇒ X5 ist kein Unterraum, jedoch
ist ein affiner Unterraum.
f) X6 ist die Lösungsmenge eines homogenen LGS ⇒ X6 ist ein Unterraum sowie ein
affiner Unterraum.
g) Wegen den quadratischen Termen x21 + x22 stammt X7 , nicht aus einem LGS ⇒ X7
ist kein Unterraum und zugleich auch kein affiner Unterraum. !
Übung 5.18
• ◦ ◦ Man zeige, dass Y = {x ∈ Rn | xn = 1 } ein affiner Unterraum von Rn ist. Wie
lautet der zugehörige Ursprungsunterraum?
v Lösung
Y können wir wie folgt umschreiben:
⎧⎡ ⎤+ ⎫ ⎡ ⎤ ⎧⎡ ⎤+ ⎫
⎪
⎪ x1 ++ ⎪
⎪ 0 ⎪
⎪ x1 ++ ⎪
⎪
⎪
⎪ ⎪ ⎪ ⎪
⎨⎢ ⎥+
⎢ .. ⎥ +
⎪
⎬ ⎢ ⎥
⎢ .. ⎥
⎪
⎨⎢ ⎥+
⎢ .. ⎥ +
⎪
⎬
Y= ⎢ . ⎥ + xi ∈ R = ⎢ . ⎥ + ⎢ . ⎥ + xi ∈ R
⎪ ⎢ ⎥+ ⎪ ⎢ ⎥ ⎪ ⎢ ⎥ + ⎪
⎪
⎪ ⎣xn−1 ⎦ + ⎪
⎪ ⎣0⎦ ⎪
⎪ ⎣xn−1 ⎦ + ⎪
⎪
⎪
⎩ + ⎪
⎭ ⎪
⎩ + ⎪
⎭
1 + 1 0 +
; <= >
= zugehöriger Ursprungsunterraum
Y ist somit ein affiner Unterraum. Der zugehörige Ursprungsunterraum U ist die
Menge aller Vektoren x ∈ Rn mit xn = 0. !
274 Kapitel 5 • Vektorräume und Unterräume
Übung 5.19 +
G H
• ◦ ◦ Man zeige, dass Y = A ∈ R2×2 + Spur(A) = 1 ein affiner Unterraum von R2×2
ist. Was ist der zugehörige Ursprungsunterraum?
v Lösung
( )
Es sei A = ac db ∈ R2×2 . Die Bedingung Spur(A) = 1 ist äquivalent zu a + d = 1 ⇒
d = 1 − a. Daher ist
1 + ' * 4 ' * 1 + ' *4
+ +
2×2 + a b 00 2×2 + a b
Y= A∈R +A = , a, b, c ∈ R = + A∈R +A =
+ c 1−a 01 + c −a
; <= >
={A∈R2×2 |Spur(A)=0 }
' *
00
Y= + U ist somit ein affiner Unterraum. Der zugehörige Ursprungsunterraum
01
U ist die Menge der spurlosen (2 × 2)-Matrizen. !
Übung 5.20 +
G H
• ◦ ◦ Man zeige, dass Y = p(x) ∈ P2 (R) + p(0) = 1, p′ (0) = 1 ein affiner Unterraum
von P2 (R) ist. Wie lautet der zugehörige Ursprungsunterraum?
v Lösung
Es sei p(x) = a0 + a1 x + a2 x2 . Die Bedingungen p(0) = 1 und p′ (0) = 1 sind äquivalent
zu a0 = 1 und a1 = 1. Daher ist
I + J I + J
+ +
Y = p(x) ∈ P2 (R) +p(x)=1 + x + a2 x2 , a2 ∈ R =1+x+ p(x) ∈ P2 (R) +p(x)=a2 x2
; <= >
=zugehöriger Ursprungsunterraum
Y = 1+x+U ist somit ein affiner Unterraum und der zugehörige Ursprungsunterraum
U ist die Menge der Polynome p(x) = a2 x2 . !
U ∩ W := {v ∈ V | v ∈ U und v ∈ W } (5.10)
$
5.4 • Operationen mit Unterräumen
275 5
Es gilt (vgl. Übung 5.22):
> Bemerkung
Wichtig: Die Vereinigung U ∪ W ist im Allgemeinen kein Unterraum von V .
Übung 5.21
• ◦ ◦ Man betrachte
+ die folgenden Unterräume von R3 :
G 3
H
5 U1 = x ∈ R ++ x1 + 2x2 = 3x3
G H
5 U2 = x ∈ R3 ++ x1 + x2 − 4x3 = 0, x1 = x2
G H
5 U3 = x ∈ R3 + x1 = x2 = x3
v Lösung
U1 ∩ U2 ist der folgende Unterraum
I + J
+
U1 ∩ U2 = x ∈ R3 + x1 + 2x2 = 3x3 , x1 + x2 − 4x3 = 0, x1 = x2 .
Wir bekommen somit ein homogenes (3 × 3)-LGS, das wir mit dem Gauß-Algorithmus
lösen können:
⎧ ⎡ ⎤ ⎡ ⎤
⎨ x1 + 2x2 − 3x3 = 0
⎪ (Z1 ) 1 2 −3 0 (Z2 ) − (Z1 ) 1 2 −3 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
x1 + x2 − 4x3 = 0 (Z2 ) " ⎣ 1 1 −4 0 ⎦ " ⎣ 0 −1 −1 0 ⎦
⎪
⎩
x1 − x2 =0 (Z3 ) 1 −1 0 0 0 −3 3 0
⎡ ⎤
1 1 −3 0
(Z3 ) − 3(Z2 ) ⎢ ⎥
" ⎣ 0 −1 −1 0 ⎦ = Z
0 0 6 0
Wir erhalten somit ein homogenes (3 × 3)-LGS, das wir mit dem Gauß-Algorithmus
lösen können:
⎧ ⎡ ⎤ ⎡ ⎤
⎨ x1 + 2x2 − 3x3 = 0
⎪ (Z1 ) 1 2 −3 0
(Z2 ) − (Z1 )
1 2 −3 0
⎢ ⎥ ⎢ ⎥
x1 − x2 =0 (Z2 ) " ⎣ 1 −1 0 0 ⎦ " ⎣ 0 −3 3 0 ⎦
⎪
⎩
x2 − x3 = 0 (Z3 ) 0 1 −1 0 0 1 −1 0
276 Kapitel 5 • Vektorräume und Unterräume
⎡ ⎤
(Z2 )/3 1 2 −3 0
(Z3 ) + (Z2 ) ⎢ ⎥
" ⎣ 0 −1 1 0 ⎦ = Z
0 0 0 0
Wir erhalten 2 Gleichungen mit 3 Unbekannten. Eine Unbekannte ist somit frei
wählbar, z. B. x3 = t. Aus der zweiten Gleichung folgt dann x2 = x3 = t und aus
der ersten Gleichung x1 = −2x2 + 3x3 = t. Somit ist:
⎧ +⎡ ⎤ ⎡ ⎤ ⎫
⎪ + x 1 ⎪
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥
U1 ∩ U3 = x ∈ R3 + ⎣x2 ⎦ = t ⎣1⎦ , t ∈ R .
⎪
⎩ + ⎪
⎭
+ x3 1
U1 ∩ U3 ist eine Gerade durch den Nullpunkt und somit ein Unterraum. !
Übung 5.22
• ◦ ◦ Es seien U, W Unterräume von V . Man zeige:
a) U ∩ W = {v ∈ V | v ∈ U und v ∈ W } ist ein Unterraum von V .
b) U ∪ W ist im Allgemeinen kein Unterraum von V (Hinweis: Gegenbeispiel).
v Lösung
a) Wir müssen einfach nachweisen, dass U ∩ W die drei Eigenschaften eines Unter-
raumes erfüllt:
5 Beweis von (UR0): Da U und W selbst Unterräume sind, gilt 0 ∈ U und 0 ∈ W .
Somit ist 0 ∈ U ∩ W . %
5 Beweis von (UR1): Es seien v1 , v2 ∈ U ∩ W , d. h. v1 und v2 gehören zu U und
W . Da U ein Unterraum von V ist, gilt v1 + v2 ∈ U. Weil W ein Unterraum von
V ist folgt v1 + v2 ∈ W . v1 + v2 gehört somit zu U und W , d. h. v1 + v2 ∈ U ∩ W .
%
5 Beweis von (UR2): Es seien v ∈ U ∩ W (d. h. v ∈ U und v ∈ W ) und α ∈ K.
Weil U und W Unterräume sind gilt α v ∈ U und α v ∈ W . Dies bedeutet
α v ∈ U ∩ W. %
b) Wir betrachten ein einfaches Gegenbeispiel (es gibt mehrere!). Es seien V = R2 und
1' *+ 4 1' *+ 4
x1 ++ 0 ++
U1 = x1 -Achse = + x1 ∈ R , U2 = x2 -Achse = + x2 ∈ R .
0 + x2 +
. Abb. 5.5 Die Menge U1 ∪ U2 in Übung 5.22(b) ist die Vereinigung der x1 - und x2 -Achse. Diese Menge
ist kein Unterraum: Die Vektoren [1, 0]T und [0, 1]T sind beide in U1 ∪ U2 ; deren Summe [1, 1]T ist aber
kein Element von U1 ∪ U2 !
Übung 5.23
• ◦ ◦ Man betrachte die folgenden affinen Unterräume von R4 :
⎡ ⎤ ⎧ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤+ ⎫
2 ⎪
⎪ 1 0 0 ++ ⎪
⎪
⎢0⎥ ⎪⎨ ⎢1⎥ ⎢1⎥ ⎢0⎥+ ⎪
⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥+
Y1 = ⎢ ⎥ + α1 ⎢ ⎥ + α2 ⎢ ⎥ + α3 ⎢ ⎥+ α1 , α2 , α3 ∈ R
⎣0⎦ ⎪⎪ ⎣0⎦ ⎣1⎦ ⎣1⎦+ ⎪
⎪
⎪
⎩ + ⎪
⎭
1 0 0 1 +
⎡ ⎤ ⎧ ⎡ ⎤ ⎡ ⎤+ ⎫
3 ⎪
⎪ 0 −1 ++ ⎪
⎪
⎪
⎢1⎥ ⎨ ⎢ ⎥ ⎢ 1 ⎥+ ⎪
⎬
⎢ ⎥ ⎢1⎥ ⎢ ⎥+
Y2 = ⎢ ⎥ + β1 ⎢ ⎥ + β2 ⎢ ⎥+ β1 , β2 ∈ R
⎣0⎦ ⎪⎪ ⎣0⎦ ⎣ 2 ⎦+ ⎪
⎪
⎪
⎩ + ⎪
⎭
0 0 0 +
v Lösung
Um den Durchschnitt Y1 ∩ Y2 zu bestimmen, setzen wir
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 0 0 3 0 −1
⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ + α1 ⎢ ⎥ + α2 ⎢ ⎥ + α3 ⎢ ⎥ = ⎢ ⎥ + β1 ⎢ ⎥ + β2 ⎢ ⎥ .
⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣0⎦ ⎣0⎦ ⎣2⎦
1 0 0 1 0 0 0
Wir erhalten ein LGS, das wir mit dem Gauß-Algorithmus lösen:
⎧ ⎡ ⎤
⎪
⎪ −α1 − β2 = −1 (Z1 ) −1 0 0 0 −1 −1
⎪
⎨ −α − α ⎢ ⎥
1 2 + β 1 + β 2 = −1 (Z2 ) ⎢ −1 −1 0 1 1 −1 ⎥
" ⎢ ⎥
⎪
⎪
⎪ − α 2 − α3 + 2β 2 =0 (Z3 ) ⎣ 0 −1 −1 0 2 0 ⎦
⎩
− α3 =1 (Z4 ) 0 0 −1 0 0 1
278 Kapitel 5 • Vektorräume und Unterräume
⎡ ⎤ ⎡ ⎤
−1 0 0 0 −1 −1 −1 0 0 0 −1 −1
⎢ 0 0 ⎥ ⎢ 0
(Z2 ) − (Z1 ) ⎢ −1 0 1 2 ⎥ (Z3 ) − (Z2 ) ⎢ −1 0 1 2 0 ⎥⎥
" ⎢ ⎥ " ⎢ ⎥
⎣ 0 −1 −1 0 2 0 ⎦ ⎣ 0 0 −1 −1 0 0 ⎦
0 0 −1 0 0 1 0 0 −1 0 0 1
⎡ ⎤
−1 0 0 0 −1 −1
⎢ 0
(Z4 ) − (Z3 ) ⎢ −1 0 1 2 0 ⎥⎥
" ⎢ ⎥=Z
⎣ 0 0 −1 −1 0 0 ⎦
0 0 0 1 0 1
Y1 ∩ Y2 ist somit ein affiner Unterraum. Er repräsentiert eine affine Gerade durch
[3, 2, 0, 0]T . !
5.4.2 Summe
Da die Vereinigung von Unterräumen keine vernünftige Menge im Sinne der linearen
Algebra, ist führt man stattdessen die sogenannte Summe von Unterräumen ein:
> Bemerkung
Die Summe U + W besteht aus allen Vektoren, die durch Addition von Vektoren aus
U und W gebildet werden. Es sind also alles Elemente der Form „etwas von U plus
etwas von W “ (. Abb. 5.6).
# Beispiel
I + 6a7 J
+
Man betrachte die Unterräume U = x ∈ R3 + x = 0 , a, c ∈ R und W =
I + 607 J c
+
x ∈ R3 + x = b , b, c ∈ R . Dann ist U ∩ W der Unterraum bestehend aus allen
c
Vektoren x, welche sowohl in U und W liegen, d. h.
I + 607 J
+
U ∩ W = x ∈ R3 + A = 0 , c ∈ R .
c
U + W enthält alle Vektoren, welche aus der Addition von Vektoren aus U und W
entstehen, d. h.
I + 6a7 J
+
U + W = x ∈ R3 + A = b , a, b, c ∈ R = R3 . $
c
# Beispiel
G + ( ) H
Man betrachte
+ die Unterräume U = A ∈ R2×2 + A = a0 b0 , a, b ∈ R und W =
G ( ) H
A ∈ R2×2 + A = ac 00 , a, c ∈ R . Dann ist U ∩ W der Unterraum bestehend aus allen
Matrizen A, welche gleichzeitig zu U und W gehören, d. h.
I + ( ) J
U ∩ W = A ∈ R2×2 + A = a0 00 , a ∈ R .
U + W enthält alle Matrizen, welche aus der Addition von Matrizen aus U und W
entstehen, d. h.
I + ( ) J
U + W = A ∈ R2×2 + A = ac b0 , a, b, c ∈ R . $
Übung 5.24
• • ◦ Es seien U, W Unterräume von V . Man zeige:
a) Die Summe U + W = {u + w | u ∈ U, w ∈ W } ist ein Unterraum von V .
b) U + W ist der kleinste Unterraum von V , der U und W enthält.
v Lösung
a) Wir zeigen einfach, dass U +W die drei Eigenschaften eines Unterraumes erfüllt:
5 Beweis von (UR0): Der Nullvektor ist in U + W enthalten, weil 0 =
0 + ;<=>
;<=> 0 ∈ U + W . Dabei haben wir benutzt, dass U und W selbst
∈U ∈W
Unterräume sind, sodass sie den Nullvektor enthalten. %
5 Beweis von (UR1): Es seien v1 = u1 + w1 und v2 = u2 + w2 zwei Elemente aus
U + W (mit u1 , u2 ∈ U und w1 , w2 ∈ W ). Dann gilt:
280 Kapitel 5 • Vektorräume und Unterräume
Weil U ein Unterraum von V ist, gilt: u1 +u2 ∈ U. Analog ist w1 +w2 ∈ W , weil
W ein Unterraum von V ist. Somit gilt: v1 +v2 = (u1 + u2 ) + (v1 + v2 ) ∈ U +W
; <= > ; <= >
∈U ∈W
%
5 Beweis von (UR2): Es seien v = u + w ∈ U + W (u ∈ U und w ∈ W ) und α ∈ K.
Dann gilt:
α v = α (u + w) = ;<=> αw ∈ U +W %
α u + ;<=>
∈U ∈W
Geschrieben wird V := U ⊕ W , was stets als “V ist die direkte Summe von U und W ”
gelesen wird. $
> Bemerkung
V = U ⊕ W ist eine kompakte Schreibweise für die zwei Bedingungen 1) U + W =
V und 2) U ∩ W = {0}. Aus diesem Grund müssen wir diese beiden Bedingungen
überprüfen, wenn wir beweisen wollen, dass V = U ⊕ W ist.
v = u + w, u ∈ U, w ∈ W
ist eindeutig. $
> Bemerkung
Beachte, dass bei „einfachen“ Summen die Zerlegung v = u + w ∈ U + W im
Allgemeinen nicht eindeutig ist. Die Darstellung eines Elements v ∈ V mit v = u + w ∈
U + W ist nur dann eindeutig, wenn U ∩ W = {0} gilt, d. h. wenn U und W sozusagen
„unabhängig“ sind. Aus diesem Grund benötigen wir die Bedingung U ∩ W = {0} in
der Definition der direkten Summe.
# Beispiel
Man betrachte die folgenden Unterräume von R3
⎧⎡ ⎤+ ⎫ ⎧⎡ ⎤+ ⎫
+ +
⎨ x1 +
⎪ ⎪
⎬ ⎨ 0 +
⎪ ⎪
⎬
⎢ ⎥+ ⎢ ⎥+
U = ⎣x2 ⎦ + x1 , x2 ∈ R , W = ⎣ 0 ⎦ + x3 ∈ R .
⎪
⎩ + ⎪
⎭ ⎪
⎩ + ⎪
⎭
0 + x3 +
Geometrisch ist U die x1 x2 -Ebene und W die x3 -Achse. Was ist U + W ? Es sind alle
Elemente der Form etwas von U plus etwas von W , d. h.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x1 0 x1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣x2 ⎦ + ⎣ 0 ⎦ = ⎣x2 ⎦ .
0 x3 x3
Diese Darstellung ist eindeutig. Diese Eigenschaft folgt aus der Tatsache, dass U und W
den trivialen Durchschnitt U ∩ W = {0} haben (der Nullvektor ist der einzige Vektor, der
sowohl in U als auch in W liegt). $
282 Kapitel 5 • Vektorräume und Unterräume
a b
# Beispiel
Nun betrachten wir die folgenden Unterräume von R3
⎧⎡ ⎤+ ⎫ ⎧⎡ ⎤+ ⎫
+ +
⎨ x1 +
⎪ ⎪
⎬ ⎨ 0 +
⎪ ⎪
⎬
⎢ ⎥+ ⎢ ⎥+
U = ⎣x2 ⎦ + x1 , x2 ∈ R , W = ⎣x2 ⎦ + x2 , x3 ∈ R .
⎪
⎩ + ⎪
⎭ ⎪
⎩ + ⎪
⎭
0 + x3 +
Es ist U + W = R3 , aber
⎧⎡ ⎤+ ⎫
+
⎨ 0 +
⎪ ⎪
⎬
⎢ ⎥+
U ∩ W = ⎣x2 ⎦ + x2 ∈ R ̸= {0}.
⎪
⎩ + ⎪
⎭
0 +
U + W ist somit keine direkte Summe (. Abb. 5.7). Geometrisch interpretiert man das
Resultat so, dass es mehr als eine Art gibt, Vektoren in V als Summe von Vektoren aus U
und W zu schreiben. Zum Beispiel:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x1 x1 0 x1 0 x1 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ x2 ⎥ ⎢ x2 ⎥
⎣x2 ⎦ = ⎣x2 ⎦ + ⎣ 0 ⎦ = ⎣ 0 ⎦ + ⎣x2 ⎦ = ⎣ 2 ⎦ + ⎣ 2 ⎦ = usw.
x3 0 x3 0 x3 0 x3
; <= > ; <= > ; <= > ; <= > ; <= > ; <= >
∈U ∈W ∈U ∈W ∈U ∈W
Übung 5.25
• ◦ ◦ Man betrachte die folgenden Unterräume von R2 :
1' *+ 4 1' *+ 4
+
x1 + 0 ++
U1 = x1 -Achse = + x1 ∈ R , U2 = x2 -Achse = + x2 ∈ R .
0 + x2 +
Man zeige R2 = U1 ⊕ U2 .
v Lösung
Wir müssen zwei Sachen nachweisen: (1) U1 + U2 = R2 und (2) U1 ∩ U2 = {0}.
1) Jeden Vektor x in R2 kann man wie folgt darstellen:
' * ' * ' *
x x 0
x= 1 = 1 + ⇒ x ∈ U1 + U2
x2 0 x2
; <= > ; <= >
∈U1 ∈U2
Somit U1 + U2 = R2 %
2) Alle Vektoren in U1 haben die Form [x1 , 0]T , während jeder Vektor in U2 die Form
[0, x2 ]T hat. Der einzige Vektor, der sowohl in U1 als auch in U2 liegt, ist der
Nullvektor, d. h. U1 ∩ U2 = {0} %
Da Punkte (1) und (2) erfüllt sind, ist U1 +U2 eine direkte Summe. Wir schreiben somit
R2 = U1 ⊕ U2 . !
Übung 5.26
• • ◦ Es seien Symn (R) und Skewn (R) die Mengen der symmetrischen bzw. schiefsym-
metrischen reellen (n × n)-Matrizen.
a) Man zeige, dass Symn (R) und Skewn (R) Unterräume von Rn×n sind.
b) Man zeige: V = Symn (R) ⊕ Skewn (R).
v Lösung
a) Wir haben bereits in Übung 5.10 gezeigt, dass Symn (R) ein Unterraum von Rn×n
ist. Nun zeigen wir, dass Skewn (R) ein Unterraum ist:
5 Beweis von (UR0): Wegen 0T = −0 gehört 0 zu Skewn (R). %
5 Beweis von (UR1): Es seien A, B ∈ Skewn (R) (⇒ AT = −A und BT = −B).
Mit den Rechenregeln für die Transponierte finden wir dann:
(A + B)T = ;<=>
AT + ;<=>
BT = −(A + B) ⇒ A + B ∈ Skewn (R) %
=−A =−B
(α A)T = α ;<=>
AT = −α A ⇒ α A ∈ Skewn (R) %
=−A
284 Kapitel 5 • Vektorräume und Unterräume
b) Wir gehen wie in Übung 5.25 vor, und weisen die folgenden Punkten nach: (1)
Symn (R) + Skewn (R) = Rn×n und (2) Symn (R) ∩ Skewn (R) = {0}.
1) In Übung 1.35 haben wir bereits gezeigt, dass jede reelle (n × n)-Matrix sich als
Summe einer symmetrischen und einer schiefsymmetrischen Matrix schreiben
lässt:
A + AT A − AT
A = S + T, wobei S = ∈ Symn (R) und T = ∈ Skewn (R).
2 2
Übung 5.27
• • ◦ Es sei V = C 0 (R) der Vektorraum der stetigen Funktionen f : R → R. Man
betrachte die Unterräume der geraden bzw. ungeraden Funktionen
Man zeige: V = G ⊕ U.
v Lösung
Wir müssen die folgenden Sachen nachweisen: (1) G + U = V und (2) G ∩ U = {0}.
(1) Jede Funktion f ∈ C 0 (R) kann man wie folgt darstellen (vgl. Übung 1.35):
Somit G ∩ U = {0}. %
Dies zeigt V = G ⊕ U. !
Übung 5.28
• • ◦ Es sei V = Rm×n der Vektorraum der reellen (m × n)-Matrizen. Man betrachte
die Teilmenge der Blockdiagonalmatrizen:
1 + ' * 4
+ A1 0
m×n + p×q r×s
B= A∈R +A = , A1 ∈ R , A2 ∈ R
+ 0 A2
mit p + r = m und q + s = n.
a) Man zeige, dass B ein Unterraum von V ist.
b) Man zeige B = B1 ⊕ B2 , wobei
1 + ' * 4
+ A1 0
m×n + p×q
B1 = A ∈ R +A = , A1 ∈ R
+ 0 0
1 + ' * 4
+ 0 0
m×n + r×s
B2 = A ∈ R +A = , A2 ∈ R
+ 0 A2
v Lösung
a) Wir zeigen, dass B die drei Eigenschaften eines Unterraumes erfüllt:
5 Beweis von (UR0): Die (m × n)-Nullmatrix kann man als eine Blockdiagonal-
' *
00
matrix auffassen 0 = . Daraus folgt 0 ∈ B. %
00
5 Beweis von (UR1): Es seien nun A, B ∈ B zwei Blockdiagonalmatrizen. Dann
ist deren Summe
' * ' * ' *
A1 0 B1 0 A1 + B1 0
A+B = + = ∈B%
0 A2 0 B2 0 A2 + B2
286 Kapitel 5 • Vektorräume und Unterräume
Somit B1 ∩ B2 = {0}. %
Dies zeigt B = B1 ⊕ B2 . ⎡ ⎤
2 1 2 0 0
⎡ ⎢ ⎤ ⎥
' * 1 −1 ⎢0 1 2 0 0 ⎥
212 ⎢ ⎥ ⎢ ⎥
c) ⊕⎣ 2 0 ⎦=⎢⎢0 0 0 1 −1 ⎥
⎥. !
012 ⎢ ⎥
−1 5 ⎣0 0 0 2 0 ⎦
0 0 0 −1 5
Übung 5.29
• • ◦ Es sei V = U ⊕ W . Man zeige: Jedes v ∈ V kann auf nur eine Weise als v = u + w
geschrieben werden, wobei u ∈ U und w ∈ W .
v Lösung
Es sei V = U ⊕W . Per Definition heißt dies V = U +W und U ∩W = {0}. Es sei v ∈ V .
Wegen V = U + W gibt es u ∈ U und w ∈ W mit v = u + w. Wir wollen zeigen, dass
diese Zerlegung eindeutig ist. Nehmen wir an, dass es eine weitere Zerlegung v = u′ +w′
gibt mit u′ ∈ U und w′ ∈ W . Dann ist v = u + w = u′ + w′ ⇒ u − u′ = w − w′ . Weil U
ein Unterraum ist, ist u − u′ ∈ U. Analog ist w − w′ ∈ W . Aus u − u′ = w − w′ folgt
u − u′ , w − w′ ∈ U ∩ W . Wegen U ∩ W = {0} finden wir u − u′ = 0 und w − w′ = 0,
d. h. u = u′ und w = w′ . Die Zerlegung v = u + w ∈ U + W ist somit eindeutig. !
287 6
Vektorraumstruktur: Basis,
Dimension und
Koordinaten
Inhaltsverzeichnis
Diese Fragen kann man mit zentralen Begriffen wie Basis, Dimension und Koordina-
ten treffend beantworten.
n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 6 sind Sie in der Lage:
5 wichtige Vektorraumstrukturen wie Basis, Dimension und Koordinaten zu erklären
und anzuwenden,
5 wichtige Vektorraumstrukturen wie Basis, Dimension und Koordinaten algebraisch
und geometrisch zu interpretieren,
5 lineare Unabhängigkeit von Vektoren und Erzeugendensysteme zu erklären,
5 das Konzept von Basis anhand typischer Beispiele erklären und anzuwenden,
5 das Rangkriterium und Determinanten-Kriterium anwenden und daraus wichtige
Schlüsse über lineare Unabhängigkeit, Erzeugendensysteme und Basis zu ziehen,
5 das Prinzip der Basiswechsel für Vektoren zu verstehen und praktisch durchzufüh-
ren
Im Folgenden seien:
5 V = Vektorraum über dem Körper K (z. B. V = Rn , Rm×n , Pn (R), usw.);
5 u, v, w, · · · ∈ V = Elemente (Vektoren) aus V (es könnten übliche Vektoren,
Matrizen, Polynome usw. sein)
5 α, β, γ , · · · ∈ K = Skalare (d. h. Zahlen aus dem Körper K = R, C usw.)
6.1.1 Linearkombinationen
k
D
α1 v1 + α2 v1 + · · · + αk vk = αi vi (6.1)
i=1
Beispiele
v Lösung
Wir suchen zwei Zahlen α1 , α2 ∈ R, sodass gilt
' * ' * ' * ' *
1 1 α1 + α2 ! 1
w = α1 v1 + α2 v1 ⇒ α1 + α2 = = .
3 5 3α1 + 5α3 1
Wir erhalten ein LGS für α1 , α2 , das wir mit dem Gauß-Algorithmus lösen können:
1 ' * ' *
α1 + α2 = 1 (Z1 ) 1 1 1 (Z2 ) − 3(Z1 ) 1 1 1
" [A|b] = " = Z.
3α1 + 5α2 = 1 (Z2 ) 3 5 1 0 2 −2
Aus der zweiten Gleichung folgt α2 = −1. Aus der ersten Gleichung folgt entsprechend
α1 = 2. Somit ist w eine Linearkombination von v1 und v2 und zwar w = 2v1 − v2 . !
Übung 6.3
• ◦ ◦ Ist das Polynom p(x) = 3x3 − 2x2 − x eine Linearkombination der Polynomen
p1 (x) = x3 − x und p2 (x) = x3 − x2 ?
6.1 • Linearkombinationen, Span und Erzeugendensysteme
291 6
v Lösung
Wir suchen zwei Skalare α1 , α2 ∈ R, sodass gilt
Die Lösung ist α1 = 1, α2 = 2. Somit ist p(x) eine Linearkombination von p1 (x) und
p2 (x) und zwar p(x) = p1 (x) + 2p2 (x).
Kontrolle: p1 (x) + 2p2 (x) = (x3 − x) + 2(x3 − x2 ) = 3x3 − 2x2 − x ! "
Übung 6.4
• ◦ ◦ Man betrachte die Matrizen
% & % & % & % &
1 1 10 21 0 1
A1 = , A2 = , A3 = , A4 =
1 −1 01 11 −1 1
% &
−1 1
Man schreibe A = als Linearkombination von A1 , A2 , A3 und A4 .
3 1
v Lösung
Wir suchen vier Skalare α1 , α2 , α3 , α4 ∈ R derart, dass gilt A = α1 A1 + α2 A2 + α3 A3 +
α4 A4 d. h.
% & % & % & % &
1 1 10 21 0 1
α1 + α2 + α3 + α4 =
1 −1 01 11 −1 1
% & % &
α + α2 + 2α3 α1 + α3 + α4 ! −1 1
= 1 = .
α1 + α3 − α4 −α1 + α2 + α3 + α4 3 1
6.1.2 Span
⎧ ( ⎫
⎨ k ( ⎬
' (
⟨S⟩ := α1 v1 + · · · + αk vk = αi vi (( vi ∈ S, αi ∈ K (6.2)
⎩ ( ⎭
i=1
> Bemerkung
Alternative Bezeichnungen für ⟨S⟩ sind: span(S), L(A), L(A).
> Bemerkung
Der Span der leeren Menge wird definiert als ⟨∅⟩ = {0}.
# Satz 6.1
⟨S⟩ ist der kleinste Unterraum von V , der S enthält. $
Geometrische Deutung
Was ist die geometrische Deutung des Spans? ⟨S⟩ ist die Menge aller möglichen Line-
arkombinationen von Elementen von S. Für Vektoren in Rn gilt somit (. Abb. 6.1):
5 ⟨v⟩ ist die Gerade, welche durch dem Vektor v aufgespannt wird:
⟨v⟩ = {α v | α ∈ R}.
5 ⟨v, w⟩ ist die Ebene, welche durch den Vektoren v, w aufgespannt wird:
⟨v, w⟩ = {α v + βw | α, β ∈ R}.
6.1 • Linearkombinationen, Span und Erzeugendensysteme
293 6
a b
. Abb. 6.1 Grafische Darstellung des Spans von Vektoren in Rn . (a) Der Span eines einzelnen Vektors
v ist eine Gerade. (b) Der Span von zwei linear anabhängigen Vektoren ist eine Ebene. (c) Der Span der
Einheitsvektoren e1 = [1, 0, 0]T , e2 = [0, 1, 0]T , e3 = [0, 0, 1]T in R3
# Beispiel
⎡ ⎤ ⎧ ⎡ ⎤( ⎫ ⎧⎡ ⎤( ⎫
, 1 3 ⎪
⎨ 1 (( ⎪
⎬ ⎪
⎨ α (
( ⎪
⎬
⎢ ⎥ ⎢ ⎥( ⎢ ⎥(
⎣0⎦ = α ⎣0⎦ ( α ∈ R = ⎣ 0 ⎦ ( α ∈ R = x1 -Acshe.
⎪
⎩ ( ⎪
⎭ ⎪
⎩ ( ⎪
⎭
0 0 ( 0 (
⎡ ⎤ ⎡ ⎤ ⎧ ⎡ ⎤ ⎡ ⎤( ⎫ ⎧⎡ ⎤( ⎫
, 1 0 3 ⎪⎨ 1 0 (( ⎪
⎬ ⎪ ⎨ α (
( ⎪
⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥( ⎢ ⎥(
⎣0⎦ ⎣1⎦
, = α ⎣0⎦ + β ⎣1⎦ ( α, β ∈ R = ⎣β ⎦ ( α, β ∈ R = x1 x2 -Ebene.
⎪
⎩ ( ⎪
⎭ ⎪ ⎩ ( ⎪
⎭
0 0 0 0 ( 0 (
Der Begriff des Spans gilt nicht nur für Vektoren in Rn , sondern allgemein für
Elemente eines Vektorraumes, ob Polynome oder Matrizen. In der Tat haben wir im
vorausgegangenen Kapitel gelernt, dass solche Objekte als „verallgemeinerte Vekto-
ren“ des entsprechenden Vektorraumes interpretiert werden können. Betrachten wir
hierzu zwei Beispiele.
294 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
# Beispiel
Das Polynom p(x) = a0 + a1 x + a2 x2 kann man als Linearkombination der Polynome
1, x, x2 auffassen. Die Menge P2 (R) aller Polynome vom Grad kleiner oder gleich 2 ist
somit der Span von {1, x, x2 }:
# Beispiel
Man kann jede reelle (2 × 2)-obere Dreiecksmatrix als Linearkombination der 3 Matrizen
41 05 40 15 40 05
0 0 , 0 0 , 0 1 darstellen. Denn
% & % & % & % &
ab 10 01 00
=a +b +c .
0c 00 00 01
Es gilt somit
,% & % & % &3 6 % & ( 7
10 01 00 a b ((
, , = ( a, b, c ∈ R
00 00 01 0c (
= (2 × 2)-obere Dreiecksmatrizen. $
Übung 6.5
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
, 2 1 1 3 1
⎢2⎥ ⎢ 1 ⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
• ◦ ◦ Es seien V = ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ und a = ⎢ ⎥ . Ist a ∈ V ?
⎣1⎦ ⎣ 2 ⎦ ⎣0⎦ ⎣1⎦
1 −1 3 0
v Lösung
V = ⟨v1 , v2 , v3 ⟩ ist der Span der 3 Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 1
⎢2⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎢ ⎥ , v2 = ⎢ ⎥ , v3 = ⎢ ⎥ ,
⎣1⎦ ⎣2⎦ ⎣0⎦
1 −1 3
d. h. die Menge aller Linearkombinationen von v1 , v2 und v3 . Der Vektor a liegt somit
in V genau dann, wenn a eine Linearkombination von v1 , v2 , v3 ist. Ist dies der Fall?
Wir suchen Zahlen α1 , α2 , α3 ∈ R, sodass a = α1 v1 + α2 v2 + α3 v3 gilt. Wir erzeugen
ein LGS für α1 , α2 , α3 , das wir mit dem Gauß-Algorithmus lösen:
⎧ ⎡ ⎤
⎪
⎪ 2α1 + α2 + α3 = 1 (Z1 ) 2 1 1 1
⎪
⎨ 2α ⎢
1 + α2 + α3 = 1 (Z2 ) ⎢2 1 1 1⎥⎥
% [A|b] = ⎢ ⎥
⎪ α1
⎪
⎪ + 2α2 =1 (Z3 ) ⎣1 2 0 1⎦
⎩
α1 − α2 + 3α3 = 0 (Z4 ) 1 −1 3 0
6.1 • Linearkombinationen, Span und Erzeugendensysteme
295 6
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 1 1 (Z2 ) − (Z1 ) 2 1 1 1 2 1 1 1
2(Z3 ) − (Z1 )
⎢2 1⎥ ⎢0 0 ⎥ ⎢0
⎢ 1 1 ⎥ 2(Z4 ) − (Z1 ) ⎢ 0 0 ⎥ (Z4 ) + (Z3 ) ⎢ 0 0 0⎥⎥
⇒ ⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥ = Z.
⎣1 2 0 1⎦ ⎣0 3 −1 1 ⎦ ⎣0 3 −1 1⎦
1 −1 3 0 0 −3 5 −1 0 0 4 0
Aus der letzten Gleichung folgt α3 = 0. Aus der dritten Gleichung folgt somit 3α2 =
1 + α3 ⇒ α2 = 1/3, woraus sich aus der ersten Gleichung 2α1 = 1 − α2 − α3 ⇒
α1 = 1/3 ergibt. Der Vektor a = (v1 + v2 )/3 ist eine Linearkombination von v1 , v2 , v3 ,
d. h. a ∈ V = ⟨v1 , v2 , v3 ⟩. "
Übung 6.6
• ◦ ◦ Sei V = P2 (R) der Vektorraum der reellen Polynomen vom Grad ≤ 2.
a) Man finde den kleinsten Unterraum U von V der 1 + x und x + x2 enthält.
b) Ist p(x) = (x + 1)2 ∈ U?
c) Ist q(x) = x − x2 ∈ U?
v Lösung
a) Der kleinste Unterraum U von V , der 1 + x und x + x2 enthält, ist der Span von
1 + x und x + x2 (Satz 6.1), d. h.
U ist somit der Unterraum der Polynomen der Form a+(a+b)x+bx2 mit a, b ∈ R.
b) Es gilt p(x) = (x + 1)2 = x2 + 2x + 1 = x2 + (1 + 1)x + 1. Somit ist p(x) der Form
a + (a + b)x + bx2 mit a = b = 1. Also p(x) ∈ U.
!
c) Wir suchen a, b ∈ R derart, dass q(x) = x − x2 = a + (a + b)x + bx2 gilt. Der
Koeffizientenvergleich liefert
⎧
⎪
⎨a = 0
⎪
a+b=1
⎪
⎪
⎩
b = −1
Übung 6.7 89 1 : 9 0 :;
• ◦ ◦ Es sei K = Z2 . Man gebe alle Vektoren in V = 1 , 1 explizit an.
0 1
91: 0
9 :0
9 :
5 α1 = 0, α2 = 0 ⇒ 0 1 +0 1 = 0 .
901 : 910 : 901 :
5 α1 = 1, α2 = 0 ⇒1 1 +0 1 = 1 .
9 10: 9 01: 9 00:
5 α1 = 0, α2 = 1 ⇒0 1 +1 1 = 1 .
9 01 : 9 10 : 9 11 : 91:
5 α1 = 1, α2 = 1 ⇒1 1 +1 1 = 2 = 0 .
0 1 1 1
89 1 : 9 0 :; <9 0 : 9 1 : 9 0 : 9 1 :=
Wir erhalten: V = 1 , 1 = 0 , 1 , 1 , 0 . "
0 1 0 0 1 1
6.1.3 Erzeugendensysteme
# Beispiel
Jeder Vektor in V = R3 kann man wie folgt schreiben
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a 1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣b⎦ = a ⎣0⎦ + b ⎣1⎦ + c ⎣0⎦ , a, b, c ∈ R
c 0 0 1
n
'
p(x) = a0 + a1 x + a2 x2 + · · · + an xn = ai xi , ai ∈ R
i=0
⟨1, x, x2 , · · · , xn ⟩ = Pn (R). $
# Beispiel
Es sei V = R2×2 der Vektorraum aller reellen (2 × 2)-Matrizen. Jede Matrix in R2×2 lässt
sich als Linearkombination der 4 Matrizen
% & % & % & % &
10 01 00 00
E11 = , E12 = , E21 = , E22 =
00 00 10 01
schreiben. Denn
% & % & % & % & % &
ab 10 01 00 00
=a +b +c +d , a, b, c, d ∈ R.
cd 00 00 10 01
Es folgt
,% & % & % & % &3
10 01 00 00
, , , = R2×2 .
00 00 10 01
Die Matrizen {E11 , E12 , E21 , E22 } sind somit ein Erzeugendensystem von R2×2 . $
k
'
α1 v1 + α2 v2 + · · · + αk vk = αi vi = 0 (6.3)
i=1
k
'
α1 v1 + α2 v2 + · · · + αk vk = αi vi = 0 (6.4)
i=1
> Bemerkung
Beachte:
5 S = {0} ist per Definition linear abhängig.
5 Die Menge bestehend aus einem einzigen Vektor v ̸= 0 ist linear unabhängig.
Eine sehr nützliche Eigenschaft von linear unabhängigen Vektoren ist im folgenden
Satz enthalten (vgl. Basis und Koordinaten):
# Satz 6.2
Eine Menge S von Vektoren ist genau dann linear unabhängig, wenn jeder Vektor v ∈ ⟨S⟩
auf nur eine Art als Linearkombination von Vektoren aus S dargestellt werden kann. $
Übung 6.8
• ◦ ◦ Sind% die
& folgenden
% & Vektoren linear abhängig?
1 2
a) v1 = , v2 = ,
3 6
% & % &
1 2
b) v1 = , v2 = .
1 3
v Lösung
a) Laut Definition fragen wir uns, ob es Zahlen α1 , α2 ∈ R gibt mit
% & % & % & % &
1 2 α1 + 2α2 ! 0
α1 v1 + α2 v2 = 0 ⇒ α1 + α2 = = .
3 6 3α1 + 6α2 0
Wir erhalten ein LGS für α1 , α2 , das wir mit dem Gauß-Algorithmus lösen können:
6 % & % &
α1 + 2α2 = 0 (Z1 ) 1 2 0 (Z2 ) − 3(Z1 ) 1 2 0
% [A|b] = % = Z.
3α1 + 6α2 = 0 (Z2 ) 3 6 0 0 0 0
Eine Variable ist somit frei, zum Beispiel α2 = t. Daraus folgt α1 = −2α2 = −2t.
Die Lösungsmenge ist somit
6% & (% & % & 7
( α
α1 ( 1 −2
L= ∈ R2 ( =t ,t∈R .
α2 ( α2 1
6.2 • Lineare Abhängigkeit und Unabhängigkeit
299 6
Das LGS hat eine nichttriviale Lösung. Die Vektoren v1 , v2 sind somit linear
abhängig.
Alternative: Man sieht auch durch genaues „Hingucken“, dass v2 = 2v1 ⇒ v1 , v2
sind linear abhängig!
b) Wir gehen wie in Teilaufgabe (a) vor und suchen Zahlen α1 , α2 ∈ R mit
% & % & % & % &
1 2 α1 + 2α2 ! 0
α1 v1 + α2 v2 = 0 ⇒ α1 + α2 = = .
1 3 α1 + 3α2 0
Wir bekommen somit ein LGS für α1 , α2 , das wir mit dem Gauß-Algorithmus lösen
können:
6 % & % &
α1 + 2α2 = 0 (Z1 ) 1 2 0 (Z2 ) − (Z1 ) 1 2 0
% [A|b] = % = Z.
α1 + 3α2 = 0 (Z2 ) 1 3 0 0 1 0
v Lösung
Wir suchen alle Lösungen der Gleichung
⎡ ⎤ ⎡ ⎤
α1 0
⎢α ⎥ ⎢0⎥
⎢ 2⎥ ! ⎢ ⎥
α1 e1 + α2 e2 + · · · + αn en = 0 ⇒ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ = ⎢ .. ⎥ .
⎣ . ⎦ ⎣.⎦
αn 0
Übung 6.10
• ◦ ◦ Sind die folgenden Matrizen linear abhängig oder unabhängig?
% & % & % &
11 1 0 10
A1 = , A2 = , A3 = .
01 0 −1 01
300 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
v Lösung
Wir suchen Zahlen α1 , α2 , α3 ∈ R mit
% & % &
α1 + α2 + α3 α1 ! 00
α1 A1 + α2 A2 + α3 A3 = 0 ⇒ = .
0 α1 − α2 + α3 00
Wir erhalten ein LGS für α1 , α2 , α3 , das wir mit dem Gauß-Algorithmus lösen können:
⎧ ⎡ ⎤
⎨ α1 +
⎪ α2 + α3 = 0 (Z1 ) 1 1 1 0
⎢ ⎥
α1 =0 (Z2 ) % [A|b] = ⎣ 1 0 0 0 ⎦
⎪
⎩
α1 − α2 + α3 = 0 (Z3 ) 1 −1 1 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 0 (Z2 ) − (Z1 ) 1 1 1 0 1 1 1 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⇒ ⎣1 0 0 0⎦ % ⎣ 0 −1 −1 0 ⎦ % ⎣ 0 −1 −1 0 ⎦ = Z.
1 −1 1 0 0 −2 0 0 0 0 2 0
Übung 6.11
• ◦ ◦ Man zeige, dass die Polynome 1, x, x2 linear unabhängig sind.
v Lösung
1, x, x2 sind genau dann linear unabhängig, wenn aus λ0 + λ1 x + λ2 x2 = 0 folgt λ0 =
λ1 = λ2 = 0. Wir betrachten also die folgende Gleichung
λ0 + λ1 x + λ2 x2 = 0
in den Unbekannten λ0 , λ1 , λ2 . Diese Gleichung muss für alle x ∈ R gelten. Der Trick
bei solchen Aufgaben ist: Wir werten diese Gleichung an drei unterschiedlichen Stellen
aus, z. B. x = 0, 1, −1:
x=0: λ0 = 0
x=1: λ0 + λ1 + λ2 = 0
x = −1 : λ0 − λ1 + λ2 = 0
Dadurch erhalten wir ein LGS für λ0 , λ1 , λ2 , das wir mit dem Gauß-Algorithmus lösen
können:
⎧ ⎡ ⎤
⎪
⎨ λ0 =0 (Z1 ) 1 0 0 0
⎢ ⎥
λ0 + λ1 + λ2 = 0 (Z2 ) % [A|b] = ⎣ 1 1 1 0 ⎦
⎪
⎩
λ0 − λ1 + λ2 = 0 (Z3 ) 1 −1 1 0
6.2 • Lineare Abhängigkeit und Unabhängigkeit
301 6
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0 (Z2 ) − (Z1 ) 1 0 0 0 1 0 0 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) + (Z2 ) ⎢ ⎥
⇒ ⎣1 1 1 0⎦ % ⎣0 1 1 0⎦ % ⎣ 0 1 1 0 ⎦ = Z.
1 −1 1 0 0 −1 1 0 0 0 2 0
Die einzige Lösung ist λ0 = λ1 = λ2 = 0. Die Polynome 1, x und x2 sind somit linear
unabhängig. "
Übung 6.12
• • ◦ Man zeige, dass sin(x), sin(2x) und sin(3x) linear unabhängig sind.
v Lösung
sin(x), sin(2x) und sin(3x) sind genau dann linear unabhängig, wenn die Gleichung
nur die triviale Lösung λ1 = λ2 = λ3 = 0 hat. Wir werten diese Gleichung an drei
Stellen aus (Trick wie in Übung 6.11), z. B. x = π/2, π/3, π/4:
>π ? D E
π 3π
x= : λ1 sin +λ2 sin (π) +λ3 sin = 0 ⇒ λ1 − λ3 = 0
2 2
@ AB C
@ AB C 2
=0 @ AB C
=1 =−1
>π ? D E
π 2π
x= : λ1 sin +λ2 sin +λ3 sin (π ) = 0 ⇒ λ1 + λ2 = 0
3 @ AB 3 C 3 @ AB C
√ @ AB√
C =0
3
= 2 = 3
2
>π ? >π ? D E √
π 3π
x= : λ1 sin +λ2 sin +λ3 sin = 0 ⇒ λ1 + 2λ2 + λ3 = 0.
4 @ AB4 C @ AB2 C 4
@ AB C
= √1 =1
2 = √1
2
Wir erzeugen dadurch ein LGS für λ1 , λ2 , λ3 , das wir mit dem Gauß-Algorithmus wie
üblich lösen:
⎧ ⎡ ⎤
⎪
⎨ λ1 − λ3 = 0 (Z1 ) 1 0 −1 0
⎢ ⎥
λ1 + λ2 =0 (Z2 ) % [A|b] = ⎣ 1 1 0 0 ⎦
⎪
⎩ √ √
λ1 + 2λ2 + λ3 = 0 (Z3 ) 1 2 1 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 −1 0 (Z2 ) − (Z1 ) 1 0 −1 0 √ 1 0 −1 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⇒ ⎣1 1 0 0⎦ % ⎣0 1 1 0⎦ % ⎣0 1 1 0 ⎦ = Z.
√ √ √
1 2 1 0 0 2 2 0 0 0 2− 2 0
Die einzige Lösung ist λ1 = λ2 = λ3 = 0. Die drei Abbildungen sin(x), sin(2x) und
sin(3x) sind linear unabhängig. "
302 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Übung 6.13
• • ◦ Es sei n ∈ N. Man zeige, dass die Abbildungen
1
ϕm (x) = , m = 0, 1, 2, · · · , n
x+m
v Lösung
Wir müssen zeigen, dass die Gleichung
α0 α1 αn
0 = α0 ϕ0 (x) + α1 ϕ1 (x) + · · · + αn ϕn (x) = + + ··· +
x x+1 x+n
α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x(x + 1) · · · (x + n − 1)
= ,
x(x + 1) · · · (x + n)
α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x(x + 1) · · · (x + n − 1) = 0.
Der Trick ist nun: Der erste Term ist proportional zu (x + 1) · · · (x + n), der zweite
Term ist proportional zu x(x + 2) · · · (x + n), usw. Werten wir die obige Gleichung bei
x = 0 aus, so verschwinden alle Terme bis auf den ersten. Werten wir diese Gleichung
bei x = −1 aus, so verschwinden alle Terme bis auf den zweiten; usw.
x = 0 : α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x · · · (x + n − 1) = 0
@ AB C @ AB C @ AB C
α0 1·2···n =0 =0
x = −1 : α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x · · · (x + n − 1) = 0
@ AB C @ AB C @ AB C
=0 =α1 (−1)·1···(n−1) =0
..
.
x = −n : α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x · · · (x + n − 1) = 0
@ AB C @ AB C @ AB C
=0 =0 =αn (−n)(−n+1)···(−1)
6.2 • Lineare Abhängigkeit und Unabhängigkeit
303 6
Es folgt:
1@ · 2AB· · · nC α0 = 0
̸=0
(−1) · 1 · · · (n − 1) α1 = 0
@ AB C
̸=0
..
.
(−n)(−n + 1) · · · (−1) αn = 0
@ AB C
̸=0
Übung 6.14
• • ◦ In diesem Beispiel erfahren wir die Wichtigkeit der richtigen Körperwahl für
die lineare Abhängigkeit/Unabhängigkeit von Vektoren. Man betrachte die folgenden
Vektoren in C2 :
% & % &
1+i 1 + 3i
v1 = , v2 = .
−3 + 3i −9 + 3i
Hinweis: Der Vektorraum C können wir einerseits als ein Vektorraum über C betrach-
ten. In diesem Fall dürfen wir Vektorraumelemente mit beliebigen komplexen Zahlen
multiplizieren. Andererseits können wir C als ein Vektorraum über R betrachten, wenn
wir uns auf die Multiplikation nur mit reellen Zahlen einschränken. In diesem Fall
4 5
entspricht C dem R2 mit x + iy ↔ xy .
v Lösung
a) Wir suchen komplexe Zahlen α, β ∈ C mit
% & % &
α(1 + i) + β(1 + 3i) 0
αv1 + βv2 = 0 ⇒ = .
α(−3 + 3i) + β(−9 + 3i) 0
Wir erhalten folgendes LGS, das wir mit dem Gauß-Algorithmus lösen:
% & % & % &
1 + i 1 + 3i 0 − i (Z2 ) 1 + i 1 + 3i 0 (Z2 ) − (Z1 ) 1 + i 1 + 3i 0
3
% % .
−3 + 3i −9 + 3i 0 1 + i 1 + 3i 0 0 0 0
b) Betrachten wir C als als ein Vektorraum über R, so entspricht C2 dem R4 mit
⎡ ⎤
% & x1
⎢y ⎥
x1 + iy1 ⎢ ⎥
↔ ⎢ 1⎥
x2 + iy2 ⎣ x2 ⎦
y2
9 : F 1 G 9 : F 1 G
1+i 1 1+3i 3
−3+3i entspricht −3 und −9+3i entspricht −9 . Wir suchen reelle α, β ∈R
3 3
mit
⎡ ⎤ ⎡ ⎤
α+β 0
⎢ α + 3β ⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
αv1 + βv2 = 0 ⇒ ⎢ ⎥=⎢ ⎥
⎣−3α − 9β ⎦ ⎣0⎦
3α + 3β 0
Wir erhalten folgendes LGS, das wir mit dem Gauß-Algorithmus lösen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 (Z2 ) − (Z1 ) 1 1 0 1 (Z ) 1 1 0
(Z3 ) + 3(Z1 ) 2 2
⎢ 1 0⎥ ⎢0 0⎥ ⎢0
⎢ 3 ⎥ (Z4 ) − 3(Z1 ) ⎢ 2 ⎥ (Z3 ) + 3(Z2 ) ⎢ 1 0⎥⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣ −3 −9 0⎦ ⎣0 −6 0⎦ ⎣0 0 0⎦
3 3 0 0 0 0 0 0 0
Die einzige Lösung ist α = β = 0, d. h., die Vektoren v1 , v2 sind linear unabhängig
über K = R. "
Übung 6.15
• ◦ ◦ Es seien v1 , v2 , · · · , vk ∈ V linear abhängig. Man zeige: Mindestens einer
der Vektoren v1 , v2 , · · · , vk lässt sich als Linearkombination der anderen Vektoren
darstellen.
v Lösung
v1 , v2 , · · · , vk linear abhängig ⇒ Die Gleichung
α1 v1 + α2 v2 + · · · + αk vk = 0
α2 αk
α1 v1 + α2 v2 + · · · + αk vk = 0 ⇒ v1 = − v2 − · · · − vk .
α1 α1
Übung 6.16
• ◦ ◦ Es sei w ∈ V eine Linearkombination der Vektoren v1 , v2 , · · · , vk ∈ V . Man zeige,
dass die Menge {v1 , v2 , · · · , vk , w} linear abhängig ist.
v Lösung
w ist eine Linearkombination der Vektoren v1 , v2 , · · · , vk , d. h.
w = α1 v1 + α2 v2 + · · · + αk vk ,
wobei die Koeffizienten α1 , α2 , · · · , αk nicht alle gleich Null sind. Daraus folgt
w = α1 v1 + α2 v2 + · · · + αk vk ⇒ α1 v1 + α2 v2 + · · · + αk vk − w = 0.
Dies ist eine nichttriviale Darstellung der Null. Somit sind die Vektoren v1 , v2 , · · · , vk , w
linear abhängig. "
Übung 6.17
• • ◦ Es seien u, v, w ∈ V linear unabhängig. Man zeige, dass auch u + v, v + w, w + u
linear unabhängig sind.
v Lösung
u, v, w linear unabhängig ⇒ Die Gleichung λ1 u + λ2 v + λ3 w = 0 hat nur die triviale
Lösung λ1 = λ2 = λ3 = 0. Wir wollen zeigen, dass auch u + v, v + w, w + u linear
unabhängig sind. Zu diesem Zweck betrachten wir die Gleichung
µ1 (u + v) + µ2 (v + w) + µ3 (w + u).
µ1 + µ3 = µ1 + µ2 = µ2 + µ3 = 0.
Wir bekommen somit ein LGS für µ1 , µ2 , µ3 , das wir mit dem Gauß-Algorithmus
lösen:
⎧ ⎡ ⎤
⎪
⎨ µ1 + µ3 = 0 (Z1 ) 1 0 1 0
⎢ ⎥
µ1 + µ2 =0 (Z2 ) % [A|b] = ⎣ 1 1 0 0 ⎦
⎪
⎩
µ2 + µ3 = 0 (Z3 ) 0 1 1 0
306 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 0 1 0 1 0 1 0 1 0
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⇒ ⎣1 1 0 0⎦ % ⎣ 0 1 −1 0 ⎦ % ⎣ 0 1 −1 0 ⎦ = Z.
0 1 1 0 0 1 1 0 0 0 2 0
Übung 6.18
• • ◦ Es seien A ∈ Rn×n nilpotent mit Nilpotenzgrad m und v ∈ Rn . Man zeige, dass
v, Av, · · · , Am−1 v linear unabhängig sind.
v Lösung
Erinnerung: A ∈ Rn×n ist nilpotent mit Nilpotenzgrad m, wenn Am = 0 und Am−1 ̸=
0. Wir wollen zeigen, dass v, Av, · · · , Am−1 v linear unabhängig sind, d. h. dass die
Gleichung
λ0 v + λ1 Av + · · · + λm−1 Am−1 v = 0
..
.
d. h.
λ0 A2 v + λ1 A3 v + · · · + λm−3 Am−1 v = 0
..
.
λ0 Am−2 v + λ1 Am−1 v = 0
λ0 Am−1 v = 0
6.3 • Basis, Dimension und Koordinaten
307 6
Aus der letzten Gleichung folgt λ0 = 0. Aus der vorletzten Gleichung folgt dann λ1 = 0
usw. Die einzige Lösung ist somit λ0 = λ1 = · · · = λm−1 = 0. v, Av, · · · , Am−1 v sind
somit linear unabhängig. "
Übung 6.19
• • • Beweise Satz 6.2.
v Lösung
“⇐”: Es sei S = {v1 , v2 , · · · , vk }. Wir nehmen an, dass jeder Vektor v ∈ ⟨S⟩ sich in
eindeutiger Weise als Linearkombination von Vektoren aus S darstellen lässt. Es ist
0 = 0 v1 + 0 v2 + · · · + 0 vk
eine Darstellung von 0. Wegen der Eindeutigkeit der Darstellung ist dies die einzige
Möglichkeit 0 als Linearkombination der Vektoren v1 , v2 , · · · , vk zu schreiben. Somit
sind v1 , v2 , · · · , vk linear unabhängig.
“⇒”: Es seien nun v1 , v2 , · · · , vk linear unabhängig. Nehmen wir an, dass der Vektor
v ∈ ⟨S⟩ zwei Darstellungen als Linearkombination der Vektoren v1 , v2 , · · · , vk besitzt:
v = α1 v1 + α2 v2 + · · · + αk vk = β1 v1 + β2 v2 + · · · + βk vk .
Daraus folgt
0 = v − v = (α1 v1 + α2 v2 + · · · + αk vk ) − (β1 v1 + β2 v2 + · · · + βk vk )
= (α1 − β1 )v1 + (α2 − β2 )v2 + · · · + (αk − βk )vk .
6.3.1 Basis
# Definition 6.5 (Basis)
Eine Basis des Vektorraumes V ist eine Menge S von Vektoren aus V , welche linear
unabhängig sind und ein Erzeugendensystem von V bilden. $
308 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
# Satz 6.3
Eine Menge S von Vektoren ist genau dann eine Basis von V , wenn sich jeder Vektor v ∈ V
in eindeutiger Weise als Linearkombination von Vektoren aus S dargestellen lässt. $
> Bemerkung
Man kann sich eine Basis wie folgt vorstellen: Eine Basis von V enthält alle „Baustei-
ne“, die zur Darstellung eines beliebigen Vektors in V benötigt werden; nicht zu viele,
nicht zu wenige, sondern genau die richtige Anzahl!
# Beispiel
Die folgenden n Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0
⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
e1 = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ , e2 = ⎢ .. ⎥ , · · · , en = ⎢ .. ⎥
⎣.⎦ ⎣.⎦ ⎣.⎦
0 0 1
bilden eine Basis von Rn , weil sich jeder Vektor v ∈ Rn in eindeutiger Weise als Linearkom-
bination dieser Vektoren darstellen lässt
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
v1 1 0 0
⎢v ⎥ ⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ 2⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v=⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ = v1 ⎢ .. ⎥ + v2 ⎢ .. ⎥ + · · · + vn ⎢ .. ⎥ .
⎣.⎦ ⎣.⎦ ⎣.⎦ ⎣.⎦
vn 0 0 1
Diese Basis heißt Standardbasis oder kanonische Basis, von Rn und wird oft mit E
bezeichnet. $
# Beispiel
Jede Matrix A ∈ Rm×n lässt sich wie folgt darstellen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 ··· a1n 1 ··· 0 0 ··· 1
⎢ . .. .. ⎥ ⎢. . .⎥ ⎢. . .⎥
⎢
A = ⎣ .. ⎥ ⎢ ⎥ ⎢ ⎥
. . ⎦ = a11 ⎣ .. . . .. ⎦ + · · · + a1n ⎣ .. . . .. ⎦ + · · ·
am1 · · · amn 0 ··· 0 0 ··· 0
⎡ ⎤ ⎡ ⎤
0 ··· 0 0 ··· 0
⎢. . .⎥ ⎢. . .⎥
+ am1 ⎢ ⎥ ⎢ ⎥
⎣ .. . . .. ⎦ + · · · + amn ⎣ .. . . .. ⎦ .
1 ··· 0 0 ··· 1
↑
j -te Zeile
bilden somit eine Basis von Rm×n : die Standardbasis. Jede Matrix A ∈ Rm×n kann man
mithilfe dieser Basis ausdrücken
m '
' n
A = a11 E11 + · · · a1n E1n + · · · + am1 Em1 + · · · amn Emn = aij Eij .
i=1 j=1
Zum Beispiel, die Standardbasis von R2×2 besteht aus den folgenden 4 Matrizen
%
& % & % & % &
10 01 00 00
E11 = , E12 = , E21 = , E22 = .
00 00 10 01
Jede Matrix A ∈ R2×2 lässt sich dann in eindeutiger Weise als Linearkombination von
E11 , E12 , E21 , E22 darstellen:
%
&
ab
A= = aE11 + bE12 + cE21 + dE22 . $
cd
# Beispiel
Die Polynome {1, x, x2 , · · · , xn } bilden eine Basis von Pn (R). Denn jedes Polynom p(x) ∈
Pn (R) lässt sich in eindeutiger Weise als Linearkombination von 1, x, x2 , · · · , xn darstellen:
p(x) = a0 + a1 x + a2 x2 + · · · + an xn .
6.3.2 Dimension
# Satz 6.4
Falls V eine Basis von n Elementen besitzt, so enthält jede Basis von V genau n
Elemente. $
Aus diesem Grund führt man den Begriff der Dimension ein:
310 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Eine direkte Folgerung aus Satz 6.4 ist der folgende einleuchtende Satz:
# Satz 6.5
Es sei V ein Vektorraum der Dimension n. Dann gilt:
5 Jede linear unabhängige Menge von n Vektoren ist eine Basis von V .
5 Jedes Erzeugendensystem von n Vektoren ist eine Basis von V .
5 Mehr als n Vektoren sind immer linear abhängig.
5 Weniger als n Vektoren bilden nie eine Basis von V . $
Rechenregeln
# Satz 6.6 (Rechenregeln für Dimension)
5 U ⊂ V ⇒ dim(U) ≤ dim(V ).
5 dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ).
5 V = U ⊕ W ⇒ dim(V ) = dim(U) + dim(W ) (direkte Summe). $
# Beispiel
Die Standardbasis von Rn besteht aus den folgenden n Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0
⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
e1 = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ , e2 = ⎢ .. ⎥ , · · · , en = ⎢ .. ⎥ .
⎣.⎦ ⎣.⎦ ⎣.⎦
0 0 1
# Beispiel
Die Standardbasis von Rm×n besteht aus den folgenden m · n Matrizen
⎡ ⎤
0 ··· 0 ··· 0
⎢. .. .. .. .. ⎥
⎢. ⎥
⎢. . . . .⎥
⎢ ⎥
Eij = ⎢
⎢0 ··· 1 ··· 0⎥ ⎥ ← i-te Zeile
⎢. . . .. .. .. ⎥
⎢. . . . ⎥
⎣. .⎦
0 ··· 0 ··· 0
↑
j -te Zeile
Übung 6.20
◦ ◦ ◦ Es seien U1 , U2 ⊂ R90 mit dim(U1 ) = 50 und dim(U2 ) = 70. Welche Werte kann
dim(U1 ∩ U2 ) annehmen?
v Lösung
Wir wenden die Formel dim(U1 ∩ U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 + U2 ) an. Wir
wissen auch, dass U1 + U2 ein Unterraum von R90 ist, d. h. dim(U1 + U2 ) ≤ 90. Daraus
folgt dim(U1 ∩ U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 + U2 ) = 50 + 70 − dim(U1 + U2 ) =
120 − dim(U1 + U2 ) ≥ 120 − 90 = 30 ⇒ dim(U1 ∩ U2 ) ≥ 30. "
Übung 6.21
• ◦ ◦ Man finde eine Basis des folgenden Unterraumes von R3
⎧ ⎡ ⎤ ( ⎫
⎪ x1 ( ⎪
⎨ ( ⎬
⎢ ⎥ (
U = x = ⎣x2 ⎦ ∈ R3 ( x1 = x2 = x3 .
⎪
⎩ ( ⎪
⎭
x3 (
v Lösung
Die definierenden Gleichungen x1 = x2 , x2 = x3 , x1 = x3 kann man in Matrixform
aufschreiben:
⎧ ⎡ ⎤
⎨ x1 − x2
⎪ =0 (Z1 ) 1 −1 0 0
⎢ ⎥
x2 − x3 = 0 (Z2 ) % [A|b] = ⎣ 0 1 −1 0⎦
⎪
⎩
x1 − x3 = 0 (Z3 ) 1 0 −1 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −1 0 0 1 −1 0 0 1 −1 0 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⇒ ⎣ 0 1 −1 0 ⎦ % ⎣ 0 1 −1 0 ⎦ % ⎣ 0 1 −1 0 ⎦ = Z.
1 0 −1 0 0 1 −1 0 0 0 0 0
Es sind zwei Gleichungen für drei Unbekannte. Eine Variable ist also frei wählbar,
z. B. x3 = t. Aus der ersten und zweiten Gleichung folgt, dass x1 = t und x2 = t.
Die Lösungsmenge lautet somit
⎧ ⎡ ⎤ ( ⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
⎪ x1 ( x 1 ⎪ , 1 3
⎨ ( 1 ⎬
⎢ ⎥ ( ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
U = x = ⎣x2 ⎦ ∈ R3 ( ⎣x2 ⎦ = t ⎣1⎦ , t ∈ R = ⎣1⎦ .
⎪
⎩ ( ⎪
⎭
x3 ( x3 1 1
312 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Da diese Basis von U aus einem einzigen Vektor besteht, ist dim(U) = 1. "
Übung 6.22
• ◦ ◦ Man betrachte den folgenden Unterraum von R3 :
⎧ ⎡ ⎤ ( ⎫
⎪ x1 ( ⎪
⎨ ( ⎬
⎢ ⎥ (
E = x = ⎣x2 ⎦ ∈ R3 ( x1 + 2x2 + 3x3 = 0 .
⎪
⎩ ( ⎪
⎭
x3 (
a) Man finde eine Basis von E. Was ist die Dimension von E? Welches geometrisches
Objekt wird von E beschrieben?
b) Man finde einen Normalenvektor zu E.
v Lösung
a) Wir lösen einfach die Gleichung x1 + 2x2 + 3x3 = 0. Es ist eine Gleichung für 3
Unbekannte. Somit sind 2 Variablen frei wählbar. Wir setzen beispielsweise x2 = t
und x3 = s. Daraus folgt x1 = −2x2 − 3x3 = −2t − 3s. Die Lösung ist somit
⎧ (⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤ ⎡ ⎤
⎪ ( x −2 −3 ⎪ , −2 −3 3
⎨ ( 1 ⎬
3 (⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E = x ∈ R ( ⎣x2 ⎦ = t ⎣ 1 ⎦ + s ⎣ 0 ⎦ , t, s ∈ R = ⎣ 1 ⎦ , ⎣ 0 ⎦ .
⎪
⎩ ( ⎪
⎭
( x3 0 1 0 1
Da die Basis von E aus zwei (linear unabhängigen) Vektoren besteht, ist dim(E) = 2.
E ist eine Ebene in R3 .
b) Die Vektoren b1 = [−2, 1, 0]T und b2 = [−3, 0, 1]T sind die Spannvektoren der
Ebene E (vgl. Anhang A.3.2). Eine Normale an der Ebene E ist somit
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−2 −3 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
n = b1 × b2 = ⎣ 1 ⎦ × ⎣ 0 ⎦ = ⎣2⎦ .
0 1 3
⎡ ⎤
1
⎢ ⎥
Kontrolle (vgl. Anhang A.3.2): E : 1 x1 + 2 x2 + 3 x3 = 0 ⇒ n = ⎣2⎦ . "
3
6.3 • Basis, Dimension und Koordinaten
313 6
Übung 6.23
• ◦ ◦ Es sei V = R2×2 .
a) Man zeige, dass die Menge U der oberen Dreiecksmatrizen
6 ( % & 7
(
2×2 ( ab
U = A∈R (A = , a, b, c ∈ R
( 0c
v Lösung
a) Wir müssen zeigen, dass die Menge U die drei Eigenschaften eines Unterraumes
erfüllt (7 vgl. Kap. 5):
5 Beweis von (UR0): Die Nullmatrix ist eine obere Dreiecksmatrix, also 0 ∈ U. !
% & % &
a1 b1 a2 b2
5 Beweis von (UR1): Es seien A = ,B= ∈ U. Dann gilt:
0 c1 0 c2
% & % & % &
a1 b1 a2 b2 a1 + a2 b1 + b2
A+B = + = ∈U!
0 c1 0 c2 0 c1 + c2
%
&
ab
5 Beweis von (UR2): Es seien A = ∈ U und α ∈ R. Dann gilt:
0c
% & % &
ab αa αb
αA = α = ∈U!
0c 0 αc
Übung 6.24
• • ◦ Es sei V = P3 (R) der Vektorraum der Polynome vom Grad ≤ 3. Man betrachte
W = {p ∈ P3 (R) | p(0) = p(1) = 0} ⊂ V .
a) Man zeige, dass W ein Unterraum von V ist.
b) Man bestimme eine Basis von W . Was ist die Dimension von W ?
v Lösung
a) Wir müssen zeigen, dass die Menge W die drei Eigenschaften eines Unterraumes
erfüllt (7 vgl. Kap. 5):
5 Beweis von (UR0): Das Nullpolynom p(x) ≡ 0 erfüllt p(0) = p(1) = 0. Also
0 ∈ W. !
5 Beweis von (UR1): Es seien p ∈ W und q ∈ W (⇒ p(0) = p(1) = 0 und q(0) =
q(1) = 0). Dann gilt:
⎫
(p + q)(0) = p(0) + q(0) = 0 + 0 = 0 ⎪
⎪
⎪
@ABC @ABC ⎬
=0 =0 ⇒ p+q∈W !
(p + q)(1) = p(1) + q(1) = 0 + 0 = 0 ⎪
⎪
⎪
@ABC @ABC ⎭
=0 =0
!
p(0) = a0 = 0 ⇒ a0 = 0
!
p(1) = a0 + a1 + a2 + a3 = 0 ⇒ a3 = −(a0 + a1 + a2 ) = −(a1 + a2 ).
Also
Eine Basis von W ist somit {x−x3 , x2 −x3 } und die Dimension von W ist dim(W ) =
2. "
6.3 • Basis, Dimension und Koordinaten
315 6
Übung 6.25
• • ◦ Es sei Pn,2 (R) der Vektorraum der reellen Polynome in den zwei Variablen x und
y mit Totalgrad ≤ n.
a) Man finde eine Basis von P2,2 (R). Was ist die Dimension von P2,2 (R)?
b) Man finde eine Basis von Pn,2 (R) und man bestimme dim(Pn,2 (R)).
v Lösung
a) P2,2 (R) ist der Vektorraum der reellen Polynome in den zwei Variablen x und y mit
Totalgrad ≤ 2. Ein beliebiges Element aus P2,2 (R) sieht wie folgt aus
Eine Basis von P2,2 (R) besteht somit aus den folgenden 6 Monome
{1, x, y, x2 , xy, y2 }. Beachte, dass das Polynom 1 den Totalgrad 0 hat, x und y
haben den Totalgrad 1, während x2 , xy und y2 den Totalgrad 2 haben. Somit
können wir die Basiselemente anhand ihres Totalgrades k sortieren:
k=0 1
k=1 x y
k=2 x2 xy y2
Diese Basis von P2,2 (R) besteht aus 6 Elementen. Es gilt somit dim(P2,2 (R)) = 6.
b) Im Allgemeinen hat ein beliebiges Element aus Pn,2 (R) die folgende Form
Eine Basis von Pn,2 (R) ist somit {1, x, y, x2 , xy, y2 , · · · , xn , xn−1 y, · · · , yn }. Wie in
(a) können wir die Basiselemente anhand ihres Totalgrades k sortieren:
k=0 1
k=1 x y
k=2 x2 xy y2
k=3 x3 x2 y xy2 y3
..
.
k=n xn xn−1 y ··· xyn−1 yn
(n+1)(n+2)
Somit ist dim(Pn,2 (R)) = 2 . "
316 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
6.3.3 Koordinaten
Sei V ein Vektorraum der Dimension n mit Basis B = {b1 , · · · , bn }. Dann können wir
jeden Vektor v ∈ V in eindeutiger Weise als lineare Kombination der Basiselemente
b1 , · · · , bn darstellen
n
'
v = v1 b 1 + · · · + vn b n = vi b i . (6.5)
i=1
> Bemerkung
Die Koordinaten des Vektors v bzgl. der Basis B sind nichts anderes als die Koeffizien-
ten in der Darstellung von v als Linearkombination der Basisvektoren b1 , · · · , bn von
B. Mit anderen Worten:
⎡ ⎤
v1
⎢.⎥
[v]B = ⎣ .. ⎥
⎢
⎦ bedeutet v = v1 b1 + · · · + vn bn (6.7)
vn
Die Basisvektoren sind sozusagen die „Bausteine“ des Vektorraumes. Die Koordinaten
eines Vektors bzgl. einer Basis sagen wie oft jeder Basisvektor vorkommt: v ist v1 Mal b1
plus v2 Mal b2 , usw. Diese Bausteine (Basiselemente) können selbst übliche Vektoren,
Matrizen, Polynome usw. sein.
Als erstes Beispiel betrachten wir die Koordinaten von Vektoren in R2 . Die Standard-
basis von R2 ist gegeben durch
6 % & % &7
1 0
E = e1 = , e2 = .
0 1
In der Standardbasis hat der Vektor v = [2, 4]T die Koordinaten (. Abb. 6.2)
% & % & % &
2 1 0
[v]E = , weil v = 2 · +4· = 2 · e1 + 4 · e2 .
4 0 1
6.3 • Basis, Dimension und Koordinaten
317 6
Wie lauten die Koordinaten von v bezüglich der Basis B? Wir schreiben
% & % & % & ⎧
4 ! 1 1 ⎨α + β = 2
v= = α b1 + β b2 = α +β ⇒
2 −1 1 ⎩−α + β = 4
Die Lösung lautet α = −1, β = 3. In der Basis B kann man den Vektor v wie folgt
darstellen
% & % &
1 1
v = −1 · +3· = −1 · b1 + 3 · b2 ,
−1 1
d. h., die Koordinaten von v bezüglich der Basis B sind (. Abb. 6.2)
%&
−1
[v]B = .
3
> Bemerkung
Die Standardbasis eines Vektorraumes wird oft mit E bezeichnet.
Als zweites Beispiel betrachten wir die Koordinaten eines etwas abstrakteren Objektes,
nähmlich der Polynome. Man betrachte dazu den Vektorraum P2 (R) der Polynome
vom Grad kleiner oder gleich 2. Die Standardbasis von P2 (R) ist
< =
E = 1, x, x2 .
weil
p(x) = 1 · 1 + 2 · x + 1 · x2 .
In der Basis
< =
B = x2 + x, x + 1, 1
p(x) = x2 + 2x + 1 = x2 + x + x + 1 = 1 · (x2 + x) + 1 · (x + 1) + 0 · 1.
Durch den Koordinatenvektor können wir Polynome in P2 (R) wie übliche Vektoren in
R3 interpretieren.
Als letztes Beispiel betrachten wir Koordinaten von Matrizen in R2×2 . Die Standard-
basis von R2×2 ist bekanntlich
6 %& % & % & % &7
10 01 00 00
E = E11 = , E12 = , E21 = , E22 = .
00 00 10 01
⎡ ⎤
% & 1
⎢2⎥
12 ⎢ ⎥
A= ⇒ [A]E = ⎢ ⎥ ,
34 ⎣3⎦
4
weil
&% % & % & % & % &
12 10 01 00 00
A= =1· +2· +3· +4·
34 00 00 10 01
In der Basis
6 & % % & % & % &7
11 01 00 00
B = B1 = , B2 = , B3 = , B4 =
11 11 11 01
= 1 · B1 + 1 · B2 + 1 · B3 + 1 · B4 .
Wie für Polynome, können wir jetzt durch den Koordinatenvektor Matrizen in R2×2
als Vektoren im R4 interpretieren.
Übung 6.26
• ◦ ◦ Man betrachte die folgende Basis von R3
⎧ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎪
⎨ k −2 0 ⎪⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B = b1 = ⎣2⎦ , b2 = ⎣ 1 ⎦ , b3 = ⎣1⎦ , k ̸= −2.
⎪
⎩ ⎪
⎭
1 0 1
Man bestimme die Koordinaten des Vektors v = [−2, 1, 2]T in dieser Basis.
320 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
v Lösung
Wir suchen Zahlen v1 , v2 , v3 ∈ R, sodass
v = v1 b1 + v2 b2 + v3 b3
gilt. Dies ergibt ein LGS für v1 , v2 , v3 , welches wir mit dem Gauß-Verfahren lösen:
⎧ ⎡ ⎤
⎨ kv1 − 2v2
⎪ = −2 (Z1 ) k −2 0 −2
⎢ ⎥
2v1 + v2 + v3 = 1 (Z2 ) % [A|b] = ⎣ 2 1 1 1 ⎦
⎪
⎩
v1 + v3 = 2 (Z3 ) 1 0 1 2
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
k −2 0 −2 1 0 1 2 (Z2 ) − 2(Z1 ) 1 0 1 2
⎢ ⎥ (Z3 ) ↔ (Z1 ) ⎢ ⎥ (Z3 ) − k(Z1 ) ⎢ ⎥
⇒ ⎣2 1 1 1 ⎦ % ⎣ 2 1 1 1 ⎦ % ⎣ 0 1 −1 −3 ⎦
1 0 1 2 k −2 0 −2 0 −2 −k −2k − 2
⎡ ⎤
1 0 1 3
(Z3 ) + 2(Z2 ) ⎢ ⎥
% ⎣ 0 1 −1 −3 ⎦ = Z.
0 0 −k − 2 −2k − 8
4 −k+2 2k+8
Es folgt v1 = − k+2 , v2 = k+2 , v3 = k+2 , d. h., der Vektor v hat die Koordinaten
⎡ 4
⎤
4 −k + 2 2k + 8 k+2
⎢ −k+2 ⎥
v= · b1 + · b2 + · b3 ⇒ [v]B = ⎣ k+2 ⎦ .
k+2 k+2 k+2 2k+8
k+2 "
Übung 6.27
• ◦ ◦ Es sei V = R2×3 der Vektorraum der (2 × 3)-Matrizen. Man betrachte den
Unterraum U ⊂ V mit Basis
6% & % & % &7
1 2 3 110 0 3 3
B= , , .
1 −2 0 011 1 −1 1
& %
196
Man finde die Koordinaten von A = in der Basis B. Sind diese Koordinaten
215
eindeutig? Man begründe die Antwort.
v Lösung
Wir wollen grundsätzlich die Matrix A als Linearkombination der Basiselemente aus B
schreiben, d. h., wir suchen drei Zahlen a1 , a2 und a3 ∈ R mit
% & % & % & % &
196 1 2 3 110 0 3 3
A= = a1 + a2 + a3 .
215 1 −2 0 011 1 −1 1
a1 , a2 und a3 sind dann die gesuchten Koordinaten von A in der Basis B. Es gilt:
6.3 • Basis, Dimension und Koordinaten
321 6
% & % & % &
1 2 3 110 0 3 3
a1 + a2 + a3
1 −2 0 011 1 −1 1
% & % &
a1 + a2 2a1 + a2 + 3a3 3a1 + 3a3 ! 1 9 6
= =
a1 + a3 −2a1 + a2 − a3 a2 + a3 215
Die Lösung ist a1 = −1, a2 = 2, a3 = 3. Die Koordinaten von A in der Basis B sind
somit
⎡ ⎤
% & % & % & −1
1 2 3 110 0 3 3 ⎢ ⎥
A = −1 · +2· +3· ⇒ [A]B = ⎣ 2 ⎦ .
1 −2 0 011 1 −1 1
3
Alle Elemente eines Unterraumes lassen sich in eindeutiger Weise als Linearkombina-
tion der Basiselemente schreiben. Somit sind die Koordinaten von A in der Basis B
eindeutig. "
Übung 6.28
• • ◦ Man betrachte den komplexen Vektorraum V = ⟨eix , e−ix ⟩.
a) Man zeige, dass B = {eix , e−ix } eine Basis von V ist.
b) Man finde die Koordinaten der Abbildungen sin(x) und cos(x) in der Basis B.
v Lösung
a) V = ⟨eix , e−ix ⟩ ist der Span der Funktionen eix , e−ix . Damit B = {eix , e−ix } eine
Basis von V ist, müssen eix , e−ix linear unabhängig sein. Wir müssen also Folgendes
zeigen:
λ1 eix + λ2 e−ix = 0.
322 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Diese Gleichung muss für alle x ∈ C gelten. Wir gehen wie in Übung 6.11 vor und
werten diese Gleichung an zwei unterschiedlichen Stellen aus, z. B. x = 0, 1:
x=0: λ1 + λ2 = 0,
x=1: λ1 ei + λ2 e−i = 0.
Die einzige Lösung ist λ1 = λ2 = 0 und die Abbildungen eix und e−ix sind somit
linear unabhängig. Folglich ist B eine Basis von V und dim(V ) = 2.
b) Mit den Euler’schen Formeln (Anhang C) finden wir:
% & % &
eix − e−ix 1 ix 1 1
− 12
sin(x) = = · e − · e−ix ⇒ [sin(x)]B = 2i =i ,
2i 2i 2i − 2i1 1
2
% &
eix + e−ix 1 1 1
cos(x) = = · eix + · e−ix ⇒ [cos(x)]B = 2
1
.
2 2 2 2 "
Wir schließen diesen Abschnitt mit einer wichtigen Bemerkung ab: Die Tatsache, dass
wir jedem Element eines Vektorraumes einen Koordinatenvektor zuordnen können,
bedeutet grundsätzlich, dass wir V mit Kn identifizieren können.
> Bemerkung
In der Praxis können wir durch Satz 6.7 beliebige Vektorraumelemente, wie Matrizen,
Polynome oder Abbildungen mit Vektoren aus Kn identifizieren. Diese Identifikation
ermöglicht es uns, mit diesen abstrakten Vektorraumelementen zu arbeiten als wären
es einfach Vektoren.
# Beispiel
In der Standardbasis von R2×2 können wir alle (2 × 2)-Matrizen mit Vektoren des R4
identifizieren, d. h. R2×2 ∼
= R4 :
⎡ ⎤
% & a
⎢b⎥
ab ⎢ ⎥
A= ↔ [A]E = ⎢ ⎥ . $
cd ⎣c⎦
d
# Beispiel
In der Standardbasis von Pn (R) können wir jedes Polynom p(x) mit einem Vektor in Rn+1
identifizieren, d. h. Pn (R) ∼
= Rn+1 :
⎡ ⎤
a0
⎢a ⎥
⎢ 1⎥
p(x) = a0 + a1 x + · · · + an xn ↔ [p(x)]E = ⎢ ⎥
⎢ .. ⎥ . $
⎣.⎦
an
> Bemerkung
Die Identifizierung von Vektorräumen mit Kn wird im Verlauf dieses Buches immer
wieder eine wichtige Rolle spielen (u. a. bei der Bestimmung der Matrixdarstellung
linearer Abbildungen, vgl. z. B. Übung 7.16 und 7.20).
6.4 Berechnungsmethoden
Lineare Unabhängigkeit
Das folgende Kriterium erlaubt es, schnell zu entscheiden, ob k vorgelegte Vektoren
v1 , · · · , vk des Kn linear abhängig sind (k ≤ n).
Praxistipp
Liegen mehr als n Vektoren des Kn vor (d. h. k > n), so sind diese Vektoren immer
linear abhängig (vgl. Satz 6.5).
Basis von Kn
Das Rangkriterium können wir auch anwenden, um zu untersuchen, ob n Vektoren
eine Basis von Kn bilden.
Lineare Kombinationen
Ferner betrachten wir die folgende Frage: Ist w eine Linearkombination von v1 , · · · ,
vk ? Um diese Frage zu beantworten, suchen wir Zahlen x1 , . . . , xk ∈ K mit
x1 v1 + · · · + xk vk = w.
6.4 • Berechnungsmethoden
325 6
Diese Bedingung kann man in Matrixschreibweise als ein LGS auffassen:
⎡ ⎤ ⎡x ⎤ ⎡w ⎤
| | 1 1
⎣v1 · · · vn ⎦ ⎢ .⎥ ⎢ . ⎥
⎣ .. ⎦ = ⎣ .. ⎦ ⇒ Ax = w.
| | x w
@ AB C @ ABk C @ ABk C
=A =x =w
Aus dem Satz von Rouché-Capelli (vgl. Satz 2.3) folgt, dass Ax = w genau dann lösbar
ist, wenn Rang(A|w) = Rang(A) gilt. Wir halten folgendes Kriterium fest:
# Satz 6.11
w ist genau⎡dann eine⎤Linearkombination von v1 , · · · , vk , wenn Rang(A|w) = Rang(A),
| |
⎢ ⎥
wobei A = ⎣v1 · · · vn ⎦ . $
| |
Liegen genau n Vektoren des Kn vor, so kann man das Rangkriterium auch mithilfe
der Determinante ausdrücken:
> Bemerkung
Die Determinante ist nur für quadratische Matrizen definiert. Aus diesem Grund ist
das Determinantenkriterium (Satz 6.12) nur dann anwendbar, wenn genau n Vektoren
des Kn vorliegen.
Die obigen Methoden sind sehr gut geeignet, um die lineare Unabhängigkeit von
Vektoren im Kn nachzuweisen. Wie kann man aber die lineare Unabhängigkeit
von Abbildungen nachweisen, wie zum Beispiel die Polynome 1, x, x2 , · · · oder die
Abbildungen sin(x) und cos(x)? Die folgende Methode ist für solche Situationen sehr
gut geeignet.
326 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Zwei Abbildungen y1 (x) und y2 (x) sind linear unabhängig, wenn für alle x die
Gleichung
oder in Matrixschreibweise:
F GF G F G
y1 (x) y2 (x) α1 0
′ ′ = . (6.12)
y1 (x) y2 (x) α2 0
Aus der Theorie der Lösung von LGS wissen wir, dass das obige LGS genau dann nur
die triviale Lösung α1 = α2 = 0 hat, wenn die Determinante der Koeffizientenmatrix
nicht verschwindet, d. h. wenn
( (
(y1 (x) y2 (x)(
(
W (y1 , y2 ) = ( ′ ( ̸= 0. (6.13)
y1 (x) y′2 (x)(
Wir können diese Methode leicht auf n Abbildungen y1 (x), y2 (x), · · · , yn (x) verall-
gemeinern. In diesem Fall wollen wir zeigen, dass die Gleichung
Dieses LGS hat genau dann nur die triviale Lösung α1 = α2 = · · · = αn = 0, wenn
( (
( y1 (x) y2 (x) · · · yn (x) (
( ′ (
( y (x)
( 1 y′2 (x) · · · y′n (x) ((
W (y1 , y2 , · · · , yn ) = ( .. .. .. .. ( ̸= 0. (6.17)
( . . . . (
( (
(y(n−1) (x) y(n−1) (x) · · · y(n−1) (x)(
1 2 n
6.4.4 Beispiele
Übung 6.29
• ◦ ◦% Sind
& die
% gegebenen
& Vektoren linear abhägig oder linear unabhängig?
−3 −6
a) ,
2 4
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b) ⎣0⎦ , ⎣7⎦ , ⎣6⎦
5 4 3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 −2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
c) ⎣−1⎦ , ⎣1⎦ , ⎣ 1 ⎦
1 0 −1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −1 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
d) ⎣1⎦ , ⎣ 1 ⎦ , ⎣ 0 ⎦
1 2 −3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
3 3 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
e) ⎣0⎦ , ⎣3⎦ , ⎣−1⎦
1 8 −2
v Lösung
Wie wir wissen, gibt es verschiedene Methoden, um vorgegebene Vektoren auf lineare
Unabhängigkeit zu überprüfen. Um dies nochmals deutlich zu machen, werden wir in
den verschiedenen Teilaufgaben bewusst unterschiedliche Methoden anwenden.
a) Wir wenden das Determinantenkriterium an:
⎡ ⎤
| | ( (
( (
⎢ ⎥ (−3 −6(
det ⎣v1 v2 ⎦ = ( ( = −12 + 12 = 0.
(2 4(
| |
Somit sind die gegebenen Vektoren linear abhängig.
328 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Da die Matrix den Rang 2 hat, sind die vorgegebenen Vektoren linear abhängig.
d) Wir wenden wiederum das Rangkriterium an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
| | | 1 −1 2 (Z2 ) − (Z1 ) 1 −1 2 1 −1 2
⎢ ⎥ ⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ 2(Z3 ) − 3(Z2 ) ⎢ ⎥
⎣v1 v2 v3 ⎦ = ⎣ 1 1 0 ⎦ % ⎣ 0 2 −2 ⎦ % ⎣ 0 2 −2 ⎦ .
| | | 1 2 −3 0 3 −5 0 0 −4
v Lösung
Wir müssen einfach überprüfen, ob die vorgegebenen Vektoren linear unabhängig sind.
Die Dimension von U ist dann gleich der Anzahl linear unabhängigen Vektoren. Zu
diesem Zweck wenden wir das Rangkriterium an:
6.4 • Berechnungsmethoden
329 6
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎡ ⎤ 1 1 0 (Z2 ) − 2(Z1 ) 1 1 0 1 1 0
| | | ⎢ (Z3 ) − (Z1 )
1 ⎥ ⎢0 1 ⎥ ⎢0
⎢ ⎥ ⎢2 3 ⎥ (Z3 ) − (Z1 ) ⎢ 1 ⎥ (Z4 ) + (Z2 ) ⎢ 1 1⎥⎥
⎣v1 v2 v3 ⎦ = ⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣1 1 1 ⎦ ⎣0 0 1 ⎦ ⎣0 0 1⎦
| | |
1 0 −1 0 −1 −1 0 0 0
Da die Matrix Rang 3 hat, sind die Vektoren v1 , v2 , v3 linear unabhängig. Somit ist
dim(U) = 3 und {v1 , v2 , v3 } ist bereits eine Basis von U. "
Übung 6.31
• ◦ ◦ Man betrachte die folgenden Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 −1 3 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎣1⎦ , v2 = ⎣ 1 ⎦ , v3 = ⎣−2⎦ , v4 = ⎣−1⎦ .
1 2 −1 −2
Ist v4 eine Linearkombination von v1 , v2 , v3 ? Falls ja, man bestimme die Koordinaten
von v4 in der Basis B = {v1 , v2 , v3 }.
v Lösung
v4 ist genau dann eine Linearkombination von v1 , v2 , v3 , wenn Folgendes eintritt:
⎡⎤ ⎡ ⎤
| | | 2 −1 3
⎢ ⎥ ⎢ ⎥
Rang(A|v4 ) = Rang(A), wobei A = ⎣v1 v2 v3 ⎦ = ⎣1 1 −2⎦ .
| | | 1 2 −1
Somit
Rang(A|v4 ) = Rang(A) = 3.
Daraus folgt, dass v4 eine Linearkombination der Vektoren v1 , v2 , v3 ist. Lösen wir das
obige LGS, so finden wir direkt die Koordinaten von v4 in der Basis B = {v1 , v2 , v3 }
⎡ ⎤ ⎡ ⎤
9
2 −1 3 4
⎢ ⎥ ⎢ 1013 ⎥
⎣ 0 3 −7 −6 ⎦ ⇒ [v4 ]B = ⎣− 10 ⎦ .
3
0 0 10 3 10 "
330 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Übung 6.32
• ◦ ◦ Für welche k ∈ R sind die folgenden Vektoren eine Basis von R3 ?
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b1 = ⎣ 2 ⎦ , b2 = ⎣ 1 ⎦ , b3 = ⎣ 7 ⎦ .
−2 −3 k−6
v Lösung
Mit dem Determinanten-Kriterium finden wir:
⎡ ⎤ ( (
| | | (1 1 3 ((
(
⎢ ⎥ ( (
det ⎣v1 v2 v3 ⎦ = ( 2 1 7 (
( (
| | | (−2 −3 k − 6(
( ( ( ( ( (
(1 7 (( (1 3 (( (1 3( !
( ( ( (
=( ( −2 ( ( −2 ( ( = 1 − k ̸= 0.
(−3 k − 6( (−3 k − 6( (1 7(
@ AB C @ AB C @ABC
=k+15 =k+3 =4
Die Determinante ist ungleich Null, wenn k ̸= 1. Somit sind die gegebenen Vektoren
v1 , v2 , v3 eine Basis von R3 , wenn k ̸= 1. "
Übung 6.33
• ◦ ◦ Man betrachte die folgenden Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎣1⎦ , v2 = ⎣7⎦ , v3 = ⎣k2 + 2⎦ , v4 = ⎣ k + 3 ⎦ .
1 7 3 k2 + 2
v Lösung
Wir gehen gleich wie in Übung 6.31 vor und überprüfen, in Abhängigkeit von k ∈ R,
ob Folgendes gilt:
⎡ ⎤ ⎡ ⎤
| | | 12 0
⎢ ⎥ ⎢ ⎥
Rang(A|v4 ) = Rang(A), wobei A = ⎣v1 v2 v3 ⎦ = ⎣1 7 k2 + 2⎦ .
| | | 17 3
6.4 • Berechnungsmethoden
331 6
Mit dem Gauß-Verfahren finden wir:
⎡ ⎤ ⎡ ⎤
1 2 0 1 (Z2 ) − (Z1 ) 1 2 0 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣ 1 7 k2 + 2 k + 3 ⎦ % ⎣0 5 k2 + 2 k + 2 ⎦
1 7 3 2
k +2 0 5 3 2
k +1
⎡ ⎤
1 2 0 1
(Z3 ) − (Z2 ) ⎢ ⎥
% ⎣0 5 k2 + 2 k + 2 ⎦.
0 0 1 − k2 k2 − k − 1
Übung 6.34 89 k : 9 −2 : 9 0 :;
• ◦ ◦ Man betrachte den Unterraum U = 2 , 1 , 1 ⊂ R3 , Man bestimme
1 0 1
dim(U) in Abhängigkeit des Parameters k ∈ R.
v Lösung
Wir schreiben die drei Vektoren als Spalten in einer Matrix auf und berechnen den
Rang der resultierenden Matrix mit dem Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
| | | k −2 0 1 0 1 (Z2 ) − 2(Z1 ) 1 0 1
⎢ ⎥ ⎢ ⎥ (Z1 ) ↔ (Z3 ) ⎢ ⎥ (Z3 ) − k(Z1 ) ⎢ ⎥
⎣v1 v2 v3 ⎦ = ⎣ 2 1 1 ⎦ % ⎣2 1 1⎦ % ⎣ 0 1 −1 ⎦
| | | 1 0 1 k −2 0 0 −2 −k
⎡ ⎤
1 0 1
(Z3 ) + 2(Z2 ) ⎢ ⎥
% ⎣0 1 −1 ⎦ .
0 0 −k − 2
Wir betrachten nun den Rang der obigen Matrix in Abhängigkeit von k ∈ R:
5 Für k ̸= −2 hat die Matrix Rang 3. Somit ist dim(U) = 3.
5 Für k = −2 hat die Matrix Rang 2. Somit sind dim(U) = 2. "
Übung 6.35
• ◦ ◦ Es seien A ∈ R7×2 , B ∈ R2×5 und C = AB. Es seien v1 , v2 , v3 , v4 vier beliebige
Vektoren in R7 . Man zeige, dass Cv1 , Cv2 , Cv3 , Cv4 linear abhängig sind.
v Lösung
A ∈ R7×2 , B ∈ R2×5 ⇒ Rang(A) ≤ 2 und Rang(B) ≤ 2. Mit der Ungleichung
Rang(AB) ≤ min{Rang(A), Rang(B)} erhalten wir damit Rang(C) = Rang(AB) ≤ 2.
Somit müssen die Bilder der vier Vektoren v1 , v2 , v3 , v4 linear abhängig sein. "
332 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Übung 6.36
• • ◦ Man betrachte die folgenden Vektoren in K2
6 % & % &7
a c
B = b1 = , b2 = , a, b, c, d ∈ K.
b d
v Lösung
a) Zwei Vektoren b1 , b2 ∈ C2 bilden eine Basis von C2 genau dann, wenn:
⎡ ⎤
| | ( (
(
⎢ ⎥ (a c ((
det ⎣b1 b2 ⎦ = ( ( = ad − bc ̸= 0.
(b d(
| |
Bis auf Permutationen der einselnen Vektoren haben wir genau 3 mögliche Basen
von (Z2 )2 gefunden:
6% & % &7 6% & % &7 6% & % &7
1 0 1 0 1 1
, , , , , .
0 1 1 1 0 1 "
6.4 • Berechnungsmethoden
333 6
Übung 6.37
• • ◦ Man betrachte die folgenden Unterräume von R3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
, 1 0 3 , 1 2 4 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
U = ⎣1⎦ , ⎣1⎦ , W = ⎣0⎦ , ⎣ 1 ⎦ , ⎣1⎦ .
0 1 1 −1 1
a) Man finde Basen für U und W . Was sind dim(U) und dim(W )?
b) Man bestimme eine Basis von U ∩ W . Was ist dim(U ∩ W )?
c) Man bestimme eine Basis von U + W . Was ist dim(U + W )?
d) Man verifiziere die Formel dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ).
v Lösung
a) Basis von U: Wir schreiben die vorgegebenen Vektoren als Spalten in einer Matrix
auf und bestimmen den Rang von dieser Matrix:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 0 1 0
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣1 1⎦ % ⎣0 1⎦ % ⎣ 0 1 ⎦.
0 1 0 1 0 0
Die Matrix hat Rang 2 (zwei Zeilen ̸= [0, 0]). Somit sind die zwei vorgegebenen
Vektoren linear unabhängig. Diese Vektoren bilden also eine Basis von U und
dim(U) = 2.
Basis von W : Wir wenden dieselbe Methode wie oben:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 4 1 2 4 1 2 4
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) + 3(Z2 ) ⎢ ⎥
⎣0 1 1⎦ % ⎣0 1 1 ⎦ % ⎣ 0 1 1 ⎦.
1 −1 1 0 −3 −3 0 0 0
Die Matrix hat Rang 2. Somit sind die drei vorgegebenen Vektoren linear
<9 abhängig.
: 9 := 1 2
Eine Basis von W besteht nur aus 2 von diesen Vektoren, zum Beispiel 0 , 1
1 −1
und dim(W ) = 2.
b) Wie bestimmt man eine Basis des Schnitts U ∩ W ? Der Trick bei solchen Aufgaben
ist der folgende: Ist v ∈ U ∩ W (d. h. v ∈ U und v ∈ W ), so kann man v sowohl
in der Basis von U als auch in der Basis von W als Linearkombination darstellen,
d. h.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 2 10 % & 1 2 % &
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ α ⎢ ⎥ β
v = α1 ⎣1⎦ + α2 ⎣1⎦ = β1 ⎣0⎦ + β2 ⎣ 1 ⎦ ⇒ ⎣1 1⎦ 1 = ⎣0 1 ⎦ 1 .
α2 β2
0 1 1 −1 01 1 −1
⎡ ⎤ ⎡ ⎤
⎡ ⎤ α1 0
1 0 −1 −2 ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢α2 ⎥ ⎢0⎥
⎣1 1 0 −1⎦ ⎢ ⎥ = ⎢ ⎥ .
⎣β1 ⎦ ⎣0⎦
0 1 −1 1
β2 0
Aus der letzten Gleichung folgt β1 = 0. β2 = t ist frei wählbar. Aus der zweiten
Gleichung folgt α2 = −t. Folglich, die erste Gleichung impliziert α1 = 2t. Jeder
Vektor v ∈ U ∩ W sieht somit wie folgt aus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 0 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v = α1 ⎣1⎦ + α2 ⎣1⎦ = 2t ⎣1⎦ − t ⎣1⎦ = t ⎣ 1 ⎦
0 1 0 1 −1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 1 2 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v = β1 ⎣0⎦ + β2 ⎣ 1 ⎦ = 0 ⎣0⎦ + t ⎣ 1 ⎦ = t ⎣ 1 ⎦ .
1 −1 1 −1 −1
<9 2
:=
Eine Basis von U ∩ W ist somit 1 und dim(U ∩ W ) = 1.
−1
c) Wie bestimmt man eine Basis von U + W ? Man kombiniert die Vektoren aus
den Basen von U und W in einer einzigen Matrix. Mit dem Rang-Kriterium
überprüfen wir, ob diese Vektoren linear unabhängig sind, und bestimmen dadurch
die Dimension von U + W . Wir schreiben also beide Basen in einer einzigen Matrix
auf und wenden den Gauß-Algorithmus an, um den Rang der resultierende Matrix
zu bestimmen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 2 1 0 1 2 1 0 1 2
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣1 1 0 1 ⎦ % ⎣ 0 1 −1 −1 ⎦ % ⎣ 0 1 −1 −1 ⎦ .
0 1 1 −1 0 1 1 −1 0 0 2 0
Die Matrix hat Rang 3. Somit ist dim(U + W ) = 3 und je drei linear unabhängige
Vektoren aus den kombinierten Basen von U und W ergeben eine Basis von U +W .
Zum Beispiel:
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 1
⎪ 0 1 ⎪
⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1⎦ , ⎣1⎦ , ⎣0⎦ .
⎪
⎩ ⎪
⎭
0 1 1
Übung 6.38
• ◦ ◦ Man untersuche
89 1 :ob9 jeweils
:; V=
89U :;⊕ W .
1 1
a) V = R3 , U = 1 , 1 ,W = 0
89 11 : 9 00 :; 89 11 : 9 1 :;
b) V = R3 , U = 1 , 1 , W = 0 2
0 1 −1 1 < ( 9 0 :=
(
c) V = R3 , U = {x ∈ R3 | x1 = x2 = x3 }, W = x ∈ R3 ( x = x2
89 1 : 9 0 :; 89 0 : 9 0 :; x3
d) V = R3 , U = 0 , 1 , W = 1 , 0
1 1 0 1
v Lösung
a) V = U + W ? Wir kombinieren alle erzeugenden Vektoren von U und W als
Spalten in einer einzigen Matrix. Wir berechnen dann den Rang dieser Matrix, um
die Dimension von U + W zu bestimmen:
⎡ ⎤ ⎡ ⎤
1 1 1 (Z2 ) − (Z1 ) 1 1 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
A=⎣1 1 0⎦ % ⎣ 0 0 −1 ⎦ ⇒ Rang(A) = 3 ⇒ dim(U + W ) = 3.
1 0 1 0 −1 0
Somit ist U + W = R3 .
U ∩ W = {0}? Um U ∩ W zu bestimmen, betrachten wir ein beliebiges Element
v ∈ U ∩ W . Wegen v ∈ U und v ∈ W können wir v wie folgt darstellen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 1 1 1 −1 α 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
v = α ⎣1⎦ + β ⎣1⎦ = γ ⎣0⎦ ⇒ ⎣1 1 0 ⎦ ⎣β ⎦ = ⎣0⎦ .
1 0 1 1 0 −1 γ 0
Somit ist U + W = R3 .
U ∩ W = {0}? Um U ∩ W zu bestimmen, betrachten wir ein beliebiges Element
v ∈ U ∩ W . Wegen v ∈ U und v ∈ W können wir v wie folgt darstellen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 0 1 0 0 α 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
v = α ⎣1⎦ = β ⎣1⎦ + γ ⎣0⎦ ⇒ ⎣1 −1 0 ⎦ ⎣β ⎦ = ⎣0⎦ .
1 0 1 1 0 −1 γ 0
⎡ ⎤
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ α ⎡ ⎤
1 0 0 0 10 0 0 ⎢ ⎥ 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ β
⎥⎢ ⎥ ⎢ ⎥
v = α ⎣0⎦ + β ⎣1⎦ = γ ⎣1⎦ + δ ⎣0⎦ ⇒ ⎣0 1 −1 0 ⎦ ⎢ ⎥ = ⎣0⎦ .
⎣γ ⎦
1 1 0 1 1 1 0 −1 0
δ
Übung 6.39
••◦ 91: 90: 91:
a) Man zeige, dass die Vektoren 1 , 1 , 0 linear unabhängig über R sind.
0 1 1
b) Sind die Vektoren auch linear unabhängig über Z2 ?
v Lösung
Drei Vektoren sind genau dann linear unabhängig, wenn die Matrix, welche diese
Vektoren als Spalten enthält, eine nicht verschwindende Determinante hat.
a) Konkret:
⎡ ⎤
101 ( ( ( (
(
⎢ ⎥ (1 0(( ((0 1((
det ⎣1 1 0⎦ = ( (−( ( = 1 + 1 = 2 ̸= 0.
(1 1( (1 1(
011
Übung 6.40 HF 1 G F 0 G F 1 G F 1 GI
• ◦ ◦ Man betrachte U = 1 , 1 , 0 , 0 . a) Man berechne die Dimension
0 1 1 0
0 0 0 1
von U über R. b) Wie lautet die Dimension von U über Z2 ?
v Lösung
Wir überprüfen mit dem Rangkriterium, ob die vorgegebenen Vektoren linear unab-
hängig sind.
a) Über R gilt
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 1 1 0 1 1 1 0 1 1
⎢1 0⎥ ⎢0 −1 ⎥ ⎢0
⎢ 1 0 ⎥ (Z2 ) − (Z1 ) ⎢ 1 −1 ⎥ (Z3 ) − (Z2 ) ⎢ 1 −1 −1 ⎥
⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣0 1 1 0⎦ ⎣0 1 1 0 ⎦ ⎣0 0 2 1 ⎦
0 0 0 1 0 0 0 1 0 0 0 1
b) In diesem Fall wiederholen wir dieselbe Rechnung wie in (a), aber müssen alle
Rechnungen in Z2 durchführen. Wegen −1 = 1 und 2 = 0, finden wir:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 1 1 0 1 1 1 0 1 1 1 0 1 1
⎢1 0⎥ ⎢0 −1 ⎥ ⎢0 −1 ⎥ ⎢0
⎢ 1 0 ⎥ (Z2 ) − (Z1 ) ⎢ 1 −1 ⎥ (Z3 ) − (Z2 ) ⎢ 1 −1 ⎥ ⎢ 1 1 1⎥⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥=⎢ ⎥
⎣0 1 1 0⎦ ⎣0 1 1 0 ⎦ ⎣0 0 2 1 ⎦ ⎣0 0 0 1⎦
0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1
⎡ ⎤
1 0 1 1
⎢0
(Z4 ) − (Z3 ) ⎢ 1 1 1⎥⎥
% ⎢ ⎥.
⎣0 0 0 1⎦
0 0 0 0
Übung 6.41
• • ◦ Man zeige, dass die folgenden Vektoren eine Basis des C-Vektorraumes V = C4
bilden.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 i 1 − 2i 1
⎢0⎥ ⎢1⎥ ⎢ −i ⎥ ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥,⎢ ⎥,⎢ ⎥,⎢ ⎥.
⎣0⎦ ⎣1⎦ ⎣ i ⎦ ⎣ 0 ⎦
1 i 1 −1
v Lösung
Wir schreiben die gegebenen Vektoren als Matrix auf und wenden den Gauß-
Algorithmus an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 i 1 − 2i 1 1 i 1 − 2i 1 1 0 0 1
⎢0 0 ⎥ ⎢ 0 1 −i 0 ⎥ ⎢0
⎢ 1 −i ⎥ (Z4 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ 1 −i 0 ⎥
⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥
⎣0 1 i 0 ⎦ ⎣0 1 i 0 ⎦ ⎣0 0 2i 0 ⎦
1 i 1 −1 0 0 2i −2 0 0 2i −2
⎡ ⎤
10 0 1
(Z4 ) − (Z3 )
⎢ 0 1 −i 0 ⎥
⎢ ⎥
% ⎢ ⎥.
⎣ 0 0 2i 0 ⎦
0 0 0 −2
Die Matrix hat Rang 4. Somit sind die vier Vektoren linear unabhängig. Der C-
Vektorraum C4 hat die Dimension 4. Somit bilden die gegebenen Vektoren eine Basis
von C4 (als C-Vektorraum). "
> Bemerkung
Die vier Vektoren in Übung 6.41 bilden keine Basis von C4 , wenn man diesen Vek-
torraum als einen Vektorraum über R betrachtet (d. h. wenn wir nur reelle Zahlen als
6.4 • Berechnungsmethoden
339 6
Koeffizienten benutzen dürften, um Linearkombinationen zu bilden). Eine Basis von
C (als R-Vektorraum) ist {1, i}. Somit hat C4 Dimension 8 über R (und nicht 4). Eine
Basis von C4 (als R-Vektorraum) braucht somit 8 Vektoren!
Übung 6.42
• • ◦ Für welche x1 , · · · , xn ∈ R sind die folgenden Vektoren linear unabhängig?
⎡ ⎤ ⎡ ⎤ ⎡ 2⎤ ⎡ n⎤
1 x1 x1 x1
⎢1⎥ ⎢x ⎥ ⎢x2 ⎥ ⎢xn ⎥
⎢ ⎥ ⎢ 2⎥ ⎢ 2⎥ ⎢ 2⎥
⎢.⎥ , ⎢ . ⎥, ⎢ . ⎥, ··· ,⎢ ⎥
⎢.⎥ ⎢.⎥ ⎢.⎥ ⎢ .. ⎥ .
⎣.⎦ ⎣.⎦ ⎣.⎦ ⎣.⎦
1 xn x2n xnn
v Lösung
Wir untersuchen, ob die Vektoren linear unabhängig sind mit dem Determinantenkri-
terium. Dabei erkennen wir die Vandermonde-Determinante (vgl. Übung 3.32)
( (
(1
( x1 x21 ··· xn1 ((
(1 x2 x22 ··· xn2 (( J
(
(. .. .. .. (( = (xi − xj ).
(. ..
(. . . . . (( i<j
(
(1 xn x2n · · · xnn (
Diese Determinante ist genau dann ungleich Null, wenn xi ̸= xj für alle i, j = 1, · · · , n
gilt. Die gegebenen Vektoren sind also genau dann linear unnabhängig, wenn alle
Zahlen x1 , · · · , xn paarweise verschieden sind. "
Übung 6.43
• ◦ ◦ Man bestimme, ob die folgenden Elemente des Vektorraumes V linear abhängig
oder linear unabhängig
⎡ ⎤ ⎡ ⎤ sind.
⎡ Bilden
⎤ diese Elemente ein Erzeugendensystem?
1 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) V = R3 : ⎣−1⎦ , ⎣0⎦ , ⎣ 2 ⎦ .
1 0 −3
9 : 9 : 9 :
b) V = R1×4 :
1 1 3 1 , 1 0 0 1 , 1 −1 0 0 .
% & % & % & % &
1 1 10 21 0 1
c) V = R2×2 : , , , .
1 −1 01 11 −1 1
340 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
v Lösung
a) Wir schreiben die gegebenen Vektoren in einer Matrix auf und wenden den Gauß-
Algorithmus an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 (Z2 ) + (Z1 ) 1 0 1 3(Z3 ) + 4(Z2 ) 1 0 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z2 )/3 ⎢ ⎥
⎣ −1 0 2 ⎦ % ⎣0 0 3 ⎦ % ⎣ 0 0 1 ⎦.
1 0 −3 0 0 −4 0 0 0
Die Matrix hat Rang 2. Somit sind die drei Vektoren linear abhängig und sie bilden
kein Erzeugendensystem von V .
b) Wir gehen wie in Teilaufgabe (a) vor und schreiben die drei Zeilenvektoren als
Matrix auf. Mit dem Gauß-Algorithmus finden wir dann:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 3 1 (Z2 ) − (Z1 ) 1 1 3 1 1 1 3 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⎣1 0 0 1⎦ % ⎣ 0 −1 −3 0 ⎦ % ⎣ 0 −1 −3 0 ⎦ .
1 −1 0 0 0 −2 −3 −1 0 0 3 −1
Da die Matrix Rang 3 hat, sind die vorgegebenen Zeilenvektoren linear unabhängig.
Da die Dimension von V aber gleich 4 ist, bilden diese 3 Vektoren kein Erzeugen-
densystem.
c) Wir identifizieren die (2 × 2)-Matrizen mit den Koordinatenvektoren bezüglich der
Standardbasis von R2×2 :
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & 1 % & 1 % & 2 % & 0
⎢1⎥ 10 ⎢0⎥ 2 1 ⎢1⎥ ⎢1⎥
1 1 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 0 1 ⎢ ⎥
≡ ⎢ ⎥, ≡ ⎢ ⎥, ≡ ⎢ ⎥, ≡ ⎢ ⎥.
1 −1 ⎣1⎦ 01 ⎣0⎦ 1 1 ⎣1⎦ −1 1 ⎣−1⎦
−1 1 1 1
Dann gehen wir wie üblich weiter und schreiben diese Vektoren als Matrix auf
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 2 0 (Z2 ) − (Z1 ) 1 1 2 0 1 1 2 0
(Z3 ) − (Z1 ) (Z3 ) − (Z2 )
⎢ 1 1 ⎥ ⎢0 1 ⎥ ⎢0
⎢ 0 1 ⎥ (Z4 ) + (Z1 ) ⎢ −1 −1 ⎥ (Z4 ) + 2(Z3 ) ⎢ −1 −1 1 ⎥
⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣ 1 0 1 −1 ⎦ ⎣0 −1 −1 −1 ⎦ ⎣0 0 0 −2 ⎦
−1 1 1 1 0 2 3 1 0 0 1 3
Da die Matrix Rang 4 hat, sind die vier Vektoren (und somit die entsprechenden
Matrizen in R2×2 ) linear unabhängig. Da die Dimension von V gleich 4 ist und
wir genau 4 linear unabhängige Elemente haben, bilden die 4 Matrizen eine Basis
von V . "
6.4 • Berechnungsmethoden
341 6
Übung 6.44
• ◦ ◦ Man bestimme die Dimension des folgenden Unterraumes V ⊂ R3×3 :
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
, 111 1 −1 0 0 1 −1 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
V = ⎣1 1 1⎦ , ⎣−1 0 1 ⎦ , ⎣−1 0 1 ⎦ .
111 0 1 −1 1 −1 0
v Lösung
Wir müssen einfach untersuchen, ob die vorgegebenen Matrizen linear unabhängig
sind. Dazu wenden wir zwei Methoden an.
Mit dem Rang-Kriterium: Wegen R3×3 ∼ = R9 identifizieren wir die vorgegebenen
(3 × 3)-Matrizen mit den folgenden Koordinatenvektoren in R9 :
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0
⎢1⎥ ⎢−1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢0⎥ ⎢−1⎥
⎡ ⎤ ⎢ ⎥ ⎡ ⎤ ⎢ ⎥ ⎡ ⎤ ⎢ ⎥
111 ⎢1⎥ 1 −1 0 ⎢−1⎥ 0 1 −1 ⎢−1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 1 1⎦ ≡ ⎢1⎥ , ⎣−1 0 1 ⎦ ≡ ⎢ 0 ⎥ , ⎣−1 0 1 ⎦ ≡ ⎢ 0 ⎥ .
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
111 ⎢1⎥ 0 1 −1 ⎢1⎥ 1 −1 0 ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢0⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1⎦ ⎣1⎦ ⎣−1⎦
1 −1 0
Dann schreiben wir diese Vektoren in einer Matrix auf und wenden den Gauß-
Algorithmus an, um den Rang der resultierenden Matrix zu bestimmen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 1 1 0 1 1 0
⎢1 −1 1 ⎥ ⎢0 −2 1 ⎥ ⎢0 −2 1 ⎥
⎢ ⎥ ⎢ ⎥ 2(Z3 ) − (Z2 ) ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1 0 −1 ⎥ ⎢0 −1 −1 ⎥ (Z4 ) − (Z2 ) ⎢0 0 −3 ⎥
⎢ ⎥ ⎢ ⎥ 2(Z5 ) − (Z2 ) ⎢ ⎥
⎢1 −1 −1 ⎥ (Zi ) − (Z1 ) ⎢0 −2 −1 ⎥ 2(Z7 ) − (Z2 ) ⎢0 0 −2 ⎥
⎢ ⎥ ⎢ ⎥ (Z9 ) − (Z2 )
⎢ ⎥
⎢ ⎥ i = 2, · · · , 9 ⎢ ⎥ ⎢ ⎥
⎢1 0 0 ⎥ % ⎢0 −1 0 ⎥ % ⎢0 0 −1 ⎥ .
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1 1 1 ⎥ ⎢0 0 1 ⎥ ⎢0 0 1 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1 0 1 ⎥ ⎢0 −1 1 ⎥ ⎢0 0 1 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 1 −1 ⎦ ⎣0 0 −1 ⎦ ⎣0 0 −1 ⎦
1 −1 0 0 −2 0 0 0 −1
Die Matrix hat Rang 3. Somit sind die drei Matrizen linear unabhängig und dim(V ) =
3. Mit der Definition: Wir suchen Zahlen α1 , α2 , α3 ∈ R mit
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
111 1 −1 0 0 1 −1 000
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
α1 ⎣1 1 1⎦ + α2 ⎣−1 0 1 ⎦ + α3 ⎣−1 0 1 ⎦ = ⎣0 0 0⎦
111 0 1 −1 1 −1 0 000
d. h.
342 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
⎡ ⎤ ⎡ ⎤
α1 + α2 α1 − α2 + α3 α1 − α3 000
⎢ ⎥ ! ⎢ ⎥
⎣α1 − α2 − α3 α1 α1 + α2 + α3 ⎦ = ⎣0 0 0⎦ .
α1 + α3 α1 + α2 − α3 α1 − α2 000
Übung 6.45
• ◦ ◦ Man zeige, dass die Pauli-Matrizen (vgl. Übung 1.13)
% & % & % & % &
10 01 0 −i 1 0
σ0 = , σx = , σy = , σz =
01 10 i 0 0 −1
v Lösung
Wegen C2×2 ∼ = C4 identifizieren wir die vorgegebenen (2 × 2)-Matrizen mittels
Koordinatenvektoren in C4 (wegen C2×2 ∼
= C4 ):
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & 1 % & 0 % & 0 % & 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
10 ⎢0⎥ 0 1 ⎢1⎥ 0 −i ⎢−i⎥ 1 0 ⎢0⎥
≡ ⎢ ⎥, ≡ ⎢ ⎥, ≡ ⎢ ⎥, ≡ ⎢ ⎥.
01 ⎣0⎦ 1 0 ⎣1⎦ i 0 ⎣ i ⎦ 0 −1 ⎣0⎦
1 0 0 −1
Dann gehen wir wie üblich weiter und schreiben diese Vektoren in einer Matrix auf:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 1 1 0 0 1 1 0 0 1
⎢0 0 ⎥ ⎢0 0 ⎥ ⎢0
⎢ 1 −i ⎥ (Z4 ) − (Z1 ) ⎢ 1 −i ⎥ (Z3 ) − (Z2 ) ⎢ 1 −i 0 ⎥
⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣0 1 i 0 ⎦ ⎣0 1 i 0 ⎦ ⎣0 0 2i 0 ⎦
1 0 0 −1 0 0 0 −2 0 0 0 −2
Die Matrix hat Rang 4. Somit sind die vier Vektoren linear unabhängig. Die Pauli-
Matrizen sind also eine Basis von C2×2 . "
Übung 6.46
• ◦ ◦ Man zeige, dass die folgenden Matrizen
% & % & % &
1 i 1 i i −2
B1 = , B2 = , B3 =
01 02 0 i
Dann gehen wir wie üblich weiter und schreiben diese Vektoren in einer Matrix auf:
⎡ ⎤ ⎡ ⎤
1 1 i (Z2 ) − i(Z1 ) 1 1 i
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣ i i −2 ⎦ % ⎣ 0 0 −1 ⎦ .
1 2 i 0 1 0
Die Matrix hat Rang 3. Somit bilden die vorgegebenen Matrizen eine Basis des
Vektorraumes der komplexen (2 × 2)-oberen Dreiecksmatrizen. "
Übung 6.47
• ◦ ◦ Man zeige, dass sin(x) und cos(x) linear unabhängig sind.
v Lösung
Wir wenden den Wronski-Test an. Die Abbildungen sind y1 (x) = sin(x) und y2 (x) =
cos(x). Die Wronski Determinante lautet dann
( ( ( (
(y (x) y (x)( ( sin(x) cos(x) ( K L
( 1 2 ( ( (
W (y1 , y2 ) = ( ′ (=( ( = − sin2 (x) + cos2 (x) = −1 ̸= 0.
(y1 (x) y′2 (x)( (cos(x) − sin(x)( @ AB C
=1
Übung 6.48
• • ◦ Es sei V = ⟨1, x, ex , e−x ⟩.
a) Man bestimme die Dimension sowie eine Basis von V .
b) Man berechne die Koordinaten der Funktionen sinh(x) und cosh(x) in dieser Basis.
v Lösung
a) Wir untersuchen ob 1, x, ex , e−x linear unabhängig sind. Dazu berechnen wir die
Wronski-Determinante:
344 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
( ( ( (
( y1 (x) y2 (x) y3 (x) y4 (x) ( (1
( ( ( x ex e−x ((
( y′ (x) y′ (x) y′ (x) y′ (x) ( (0 (
( ( ( 1 ex −e−x (
W (y1 , y2 , y3 , y4 ) = ( ′′1 2 3 4 (=( (
( y1 (x) y′′2 (x) y′′3 (x) y′′4 (x) ( (0 0 ex −x
e ((
( ( (
(y′′′ (x) y′′′ (x) y′′′ (x) y′′′ (x)( (0 0 ex −e−x (
1 2 3 4
( (
(ex −x (
( e (
=1·1·( x ( = −2 ̸= 0.
(e −e−x (
Übung 6.49
• • ◦ Man zeige, dass {1, x, x2 , · · · , xn } eine Basis von Pn (R) ist.
v Lösung
Wir wenden den Wronski-Test an. Die Abbildungen sind y0 (x) = 1, y1 (x) = x, y2 (x) =
x2 , · · · , yn (x) = xn . Die Wronski-Determinante lautet dann:
( (
( y0 (x) y1 (x) y2 (x) · · · yn (x) (
( (
( y′ (x) y′ (x) y′ (x) · · · y′ (x) (
( 0 1 2 n (
W (y0 , y1 , y2 , · · · , yn ) = (( . . . . (
( .. .. .. . .. .. ((
( (n) (
(y (x) y(n) (x) y(n) (x) · · · y(n) (x)(
0 1 2 n
( (
(1 x x2 x3 · · · xn (
( (
( 2 n−1 (
(0 1 2x 3x · · · nx (
( n−2
(
(0 0 2 6x · · · n(n − 1)x (
( (
= (0 0 0 6 · · · n(n − 1)(n − 2)xn−3 (
( (
(. . . . .. (
(. . . . .. (
(. . . . . . (
( (
(0 0 0 0 · · · n! (
= 1 · 2 · 6 · · · n! ̸= 0.
6.4 • Berechnungsmethoden
345 6
Wegen W ̸= 0 sind 1, x, x2 , · · · , xn linear unabhängig. Außerdem spannen
1, x, x2 , · · · , xn den Raum Pn (R) auf. Folglich ist {1, x, x2 , · · · , xn } eine Basis von
Pn (R). "
Übung 6.50
• • ◦ Man zeige, dass {1, 1 + x, 1 + x + x2 , · · · , 1 + x + x2 + · · · + xn } eine Basis von
Pn (R) ist.
v Lösung
Wegen Pn (R) ∼
= Rn+1 identifizieren wir die Basiselemente durch ✿✿✿✿✿✿✿✿✿✿✿✿✿✿✿✿
Koordinatenvektoren
in R n+1 :
✿✿✿✿✿✿
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
1 ≡ ⎢0⎥ , 1 + x ≡ ⎢0⎥ , 1 + x + x2 ≡ ⎢1⎥ , · · · , 1 + x + x2 + · · · + xn ≡ ⎢1⎥ .
⎢.⎥ ⎢.⎥ ⎢.⎥ ⎢.⎥
⎢.⎥ ⎢.⎥ ⎢.⎥ ⎢.⎥
⎣.⎦ ⎣.⎦ ⎣.⎦ ⎣.⎦
0 0 0 1
Dann gehen wir wie üblich weiter und schreiben diese Vektoren in einer Matrix auf:
⎡ ⎤ ⎡ ⎤
1 1 1 ··· 1 1 1 1 ··· 1
⎢ ⎥ ⎢ ⎥
⎢0 1 1 ··· 1⎥ ⎢0 1 1 · · · 1⎥
⎢ ⎥ ⎢ ⎥
⎢0 0 1 1⎥ ⎢ 1⎥
⎢ ··· ⎥ ⇒ det ⎢0 0 1 · · · ⎥ = 1 ̸= 0 ⇒ Basis
⎢. .. .. .. ⎥
.. ⎥ ⎢. . . . .. ⎥
⎢. . ⎢. . . .. ⎥
⎣. . . .⎦ ⎣. . . .⎦
0 0 0 ··· 1 0 0 0 ··· 1
= 1 · 2 · · · n! ̸= 0 ⇒ Basis "
346 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Übung 6.51
•⎧•⎡◦ Man⎤ (bestimme eine
⎫ Basis der Heisenberg-Gruppe (vgl. Übung 2.58) H3 (R) =
⎪ 1
⎨ x z (( ⎪
⎬
⎢ ⎥(
⎣0 1 y⎦ ( x, y, z ∈ R . Was ist dim(H3 (R))?
⎪
⎩ ( ⎪
⎭
0 01 (
v Lösung
Eine Basis von H3 (R) besteht aus den folgenden drei Matrizen
⎧ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎪
⎨ 110 100 101 ⎪ ⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Hx = ⎣0 1 0⎦ , Hy = ⎣0 1 1⎦ , Hz = ⎣0 1 0⎦ ,
⎪
⎩ ⎪
⎭
001 001 001
weil
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1xz 1x0 100 10z
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A = ⎣0 1 y⎦ = ⎣0 1 0⎦ + ⎣0 1 y⎦ + ⎣0 1 0⎦ = xHx + yHy + zHz .
001 001 001 001
Übung 6.52
• • ◦ Es seien
v Lösung
a) Wir überlegen uns, wie allgemeine Matrizen in Sym2 (R) oder Skew2 (R) aussehen.
A ist genau dann symmetrisch, wenn
%
& % &
ac ! ab
T
A = = =A ⇒ b = c.
bd cd
Eine Basis von Sym2 (R) konstruiert sich somit aus den folgenden drei Matrizen
6% & % & % &7
10 01 00
, , .
00 10 01
Die Basis von Sym2 (R) besteht aus 3 Elementen, während die Basis von Skew2 (R)
nur ein Element enthält. Deshalb gilt
Bemerkung: In Übung 5.26 haben wir gezeigt, dass Sym2 (R) ⊕ Skew2 (R) = R2×2 .
Wir können somit dadurch auf eine weitere Art die folgende Formel verifizieren:
V = U ⊕ W ⇒ dim(V ) = dim(U) + dim(W ). Denn in unserem Beispiel gilt
mit dim(Sym3 (R)) = 6. Eine beliebige Matrix in Skew3 (R) sieht wie folgt aus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 a12 a13 0 10 0 01 0 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A = ⎣−a12 0 a23 ⎦ = a12 ⎣−1 0 0⎦ + a13 ⎣ 0 0 0⎦ + a23 ⎣0 0 1⎦ .
−a13 −a23 0 0 00 −1 0 0 0 −1 0
Eine Basis von Skew3 (R) besteht somit aus den folgenden drei Matrizen
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 0 10
⎪ 0 01 0 0 0 ⎪ ⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣−1 0 0⎦ , ⎣ 0 0 0⎦ , ⎣0 0 1⎦ .
⎪
⎩ ⎪
⎭
0 00 −1 0 0 0 −1 0
Daher ist dim(Skew3 (R))=3. Beachte dim(R3×3 ) = dim(Sym3 (R)) + dim(Skew3 (R)) !
@ AB C @ AB C @ AB C
=9 =6 =3
"
Übung 6.53
• • • Man bestimme dim(Symn (R)) und dim(Skewn (R)) für alle n ∈ N.
v Lösung
Eine beliebige Matrix in Rn×n hat n2 Einträge (freie wählbare Parameter). Bei ei-
ner symmetrischen Matrix stimmen die Nichtdiagonalelementen gespiegelt passend
überein, d. h. aji = aij ∀i ̸= j. Mit anderen Worten: Die Elemente links von der
Hauptdiagonalen werden von den Elemente rechts von der Hauptdiagonalen bestimmt.
Wie viele Elemente gibt es rechts von der Hauptdiagonalen? Man betrachte das
folgende Schema:
⎡ ⋆ ⋆ ··· ⋆
⎤
⋆ ··· ⋆
⎢ . . .. ⎥
⎣ . .⎦.
⋆
In der ersten Zeile sind es n − 1, in der zweiten Zeile sind es n − 2, usw. Insgesamt sind
es (Gauß-Formel):
n−1
' n(n − 1)
(n − 1) + (n − 2) + · · · + 1 = i= .
2
i=1
n(n + 1)
dim(Symn (R)) = .
2
n(n − 1)
dim(Skewn (R)) = .
2
Übung 6.54
• • • Man zeige, dass die Anzahl von möglichen Basen von (Z2 )n durch
v Lösung
Eine Basis von (Z2 )n besteht aus n linear unabhängigen Vektoren. Nun, wie kann man
n linear unabhängige Vektoren in (Z2 )n konstruieren? Zuerst wählen wir einen Vektor
ungleich Null in (Z2 )n und nennen ihn v1 . Da jede Komponente von v1 entweder gleich 0
oder 1 ist, haben wir genau 2n − 1 Auswahlmöglichkeiten (nur der Fall [0, 0, · · · , 0]T ist
ausgeschlossen). Dann wählen wir einen beliebigen Vektor v1 ̸= v2 . Dafür gibt es noch
genau 2n −2 Möglichkeiten. Dann wählen wir einen weiteren Vektor v3 ∈ / ⟨v1 , v2 ⟩. Dazu
gibt es 2n − 22 Möglichkeiten. Und so weiter. Die Anzahl der Auswahlmöglichkeiten
einer Basis in dieser Reihenfolge ist gegeben durch
Für n = 2 finden wir, dass die Anzahl Basen von (Z2 )2 gleich
350 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
6.5 Basiswechsel
In den vorausgegangenen Abschnitten haben wir erfahren, dass wir einen beliebigen
Vektor v eines Vektorraumes V beschreiben können, in dem wir die Koordinaten
von v bezüglich einer Basis von V angeben. Diese Koordinaten sind eindeutig, aber
hängen von der Wahl der Basis ab. Liegen zwei Basen B und C von V vor, so sind die
Koordinaten v in diesen Basen im Allgemeinen unterschiedlich:
⎡ ⎤
x1
⎢ .. ⎥
[v]B = ⎣ . ⎦ = Koordinaten von v in Basis B
xn
⎡ ⎤
y1
⎢ .. ⎥
[v]C = ⎣ . ⎦ = Koordinaten von v in Basis C
yn
In diesem letzten Abschnitt wollen wir uns mit der folgenden Aufgabe beschäftigen:
Wir wollen eine Transformationsmatrix T B→C derart finden, dass der Koordinaten-
vektor [v]B in der Originalbasis B mittels der Transformationsmatrix T B→C in den
entsprechenden Koordinatenvektor [v]C bezüglich der neuen Basis C übergeht:
Wir beginnen mit einer einfachen Version des Basiswechsels, nämlich dem Basiswech-
sel zwischen der Standardbasis E und einer neuen Basis B .
6.5 • Basiswechsel
351 6
Konstruktion des Basiswechsels
Sei V ein Vektorraum versehen mit der Standardbasis E = {e1 , · · · , en } und einer
anderen Basis B = {b1 , · · · , bn }. Jeder Vektor v ∈ V lässt sich bekanntlich eindeutlich
sowohl als Linearkombination der Standarbasis E wie auch als Linearkombination
der Basis B darstellen, konkret:
⎡ ⎤
n x1
' ⎢ .. ⎥
v= xj bj ↔ [v]B = ⎣ . ⎦ = Koordinaten in Basis B (6.18)
j=1 xn
⎡ ⎤
n y1
' ⎢ .. ⎥
v= y i ei ↔ [v]E = ⎣ . ⎦ = Koordinaten in Standardbasis E (6.19)
i=1 yn
Sn
Wenn wir Gl. (6.21) mit Gl. (6.19) v = i=1 yi ei vergleichen, finden wir:
n
'
yi = tij xj . (6.22)
j=1
Fassen wir die Zahlen tij als Einträge in einer Matrix T B→E auf, so können wir die
obige Gl. (6.22) in Matrixschreibweise wie folgt formulieren:
T B→E enthält die Basisvektoren von B als Spalten und ist genau die gesuchte
Transformationsmatrix von B nach E :
⎡ ⎤
| |
T B→E = Transformationsmatrix von B nach E = ⎣[b1 ]E · · · [bn ]E ⎦ (6.24)
| |
352 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
wird die Transformation von E nach B durch die inverse Matrix dargestellt
T E →B = T −1
B→E (6.26)
Praxistipp
Die Spalten der Transformationsmatrix T B→E sind die Koordinaten bezüglich der
Standardbasis E der Basisvektoren der neuen Basis B.
> Bemerkung
Beachte: Die Transformationsmatrix T B→E ist invertierbar, weil ihre Spalten [b1 ]E ,
[b2 ]E , · · · , [bn ]E linear unabhängig sind (B ist eine Basis!).
Musterbeispiel 6.4
2
Als Beispiel
< betrachten
405 := die folgende Aufgabe. Man betrachte 9V =:R mit der Basis
9 wir
−2 −1
B = b1 = 2 , b2 −2 . Der Vektor v hat die Koordinaten −1 in der Basis B.
Wie lauten die Koordinaten von v in der Standardbasis? Um diese Aufgabe zu lösen,
brauchen wir die Transformationsmatrix von der Basis B nach der Standardbasis. Diese
bestimmt man einfach, indem wir die Vektoren der Basis B als Spalten in einer Matrix
aufschreiben (diese Vektoren sind bereits in der Standardbasis ausgedrückt)
6.5 • Basiswechsel
353 6
⎡ ⎤
| | % &
⎢ ⎥ 0 −2
T B→E = ⎣[b1 ]E [b2 ]E ⎦ = .
2 −2
| |
Musterbeispiel 6.5
Als zweites Beispiel betrachten wir die folgende Aufgabe. Der Vektor w hat die
4 5
Koordinaten 12 in der Standardbasis. Wie lauten die Koordinaten von w in der Basis
B? In diesem Fall benötigen wir die Transformationsmatrix von der Standardbasis nach
der Basis B. Diese erhält man direkt als Inverse von T B→E :
% &−1 % &
0 −2 − 12 21
T E →B = T −1
B→E = = .
2 −2 − 12 0
Somit
% &% & % &
− 21 21 1 1
[w]B = T E →B [w]E = 1
= 21 .
−2 0 2 −2
F G 9 :
1
1 1 1
405 1 −2
415
Kontrolle: [w]B = 2
bedeutet w = 2 b1 − 2 b2 = 2 2 − 2 −2 = 2 !
− 12
Nun betrachten wir den Basiswechsel zwischen zwei allgemeinen Basen B und C .
Transformationsmatrix
Es sei V ein Vektorraum versehen mit den Basen B = {b1 , · · · , bn } und C =
{c1 , · · · , cn }. Um die Transformationsmatrix T B→C zu bestimmen, genügt es, die
Argumente aus 7 Abschn. 6.5.1 zu wiederholen. Die Transformationsmatrix T B→C
ist gegeben durch:
⎡ ⎤
| |
T B→C = Transformationsmatrix von B nach C = ⎣[b1 ]C · · · [bn ]C ⎦ (6.27)
| |
354 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Praxistipp
Die Spalten von T B→C sind die Koordinaten bezüglich der Basis C der Basisvektoren
der Basis B.
Der Vorteil dieser Prozedur ist, dass es einfach ist, den Basiswechsel von oder nach
der Standardbasis zu bestimmen (Kochrezept 6.1).
Rechenregeln
# Satz 6.14 (Rechenregeln für Basiswechsel)
5 T B→C = T −1
C →B .
5 T B→D = T C →D T B→C (Kürzungsregel). $
Kochrezept
Kochrezept 6.2 (Basiswechsel II)
Die Basiswechselmatrix T B→C von einer Basis B zu einer anderen Basis C kann man
mittels folgendem Trick bestimmen (Umweg über die Standardbasis):
T B→C = T E →C T B→E .
Die Matrizen T E →C und T B→E bestimmt man mit dem Kochrezept 6.1.
6.5 • Basiswechsel
355 6
Musterbeispiel 6.6
Wie lautet die Transformationsmatrizen T B→C und T C →B ? Wir gehen getreu dem
Kochrezept 6.2 vor und bestimmen zuerst die Transformationsmatrix T B→E von B
nach der Standardbasis E . Diese bestimmen wir, indem wir die Vektoren der Basis B
als Spalten aufschreiben
% &
32
T B→E = .
21
Ferner, will man die Transformationsmatrix von C nach B, so kann man einfach T B→C
invertieren:
% &−1 % &
−1 −1 3 1
T C →B = T −1
B→C = = .
4 3 −4 −1
bestimmen. In diesem Fall müssen wir die Koordinaten der Basisvektoren von B
bezüglich der Basis C bestimmen:
% & % & % & ⎧ ⎧
⎨α + β = 3 ⎨α = −1
3 1 1 1 1 1
= α1 + β1 ⇒ ⇒
2 2 1 ⎩2α + β = 2
1 1
⎩β = 4
1
356 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
Es gilt:
% & % & % & % &
3 1 1 −1
= (−1) · +4· ⇒ [b1 ]C = ,
2 2 1 4
% & % & % & % &
2 1 1 −1
= (−1) · +3· ⇒ [b2 ]C = .
1 2 1 3
Somit ist
% &
−1 −1
T B→C = .
4 3
Die Methode mit dem Umweg über die Standardbasis ist in der Regel einfacher, da alle
Vektoren bereits in der Standardbasis dargestellt werden.
Praxistipp
Zur Bildung der Inversen von A ∈ K2×2 kann man die folgende Formel benutzen:
4 5 1
4 d −b 5
A = ac db ⇒ A−1 = det(A) −c a .
6.5.3 Beispiele
Übung 6.55
• ◦ ◦ Man betrachte die folgenden zwei Basen von R2
6% & % &7 6% & % &7
1 0 1 5
B= , , C= , .
−1 1 −2 −4
v Lösung
a) Wie soeben gelernt, bestimmen wir die Transformationsmatrix von B nach der
Standardbasis E und die Transformationsmatrix von der Standardbasis E nach C .
Die Transformationsmatrix von B nach der Standardbasis E besteht einfach aus
6.5 • Basiswechsel
357 6
den beiden Basisvektoren, welche ja nichts anderes als die Koordinatenvektoren
bezüglich E sind:
% &
1 0
T B→E = .
−1 1
b) Die Transformationsmatrix von C nach B ist die Inverse der gefundenen Transfor-
mationsmatrix T B→C :
% &−1 % &
1
− 56 1 5
T C →B = T −1
B→C = 6
1 1
= .
6 6 −1 1 "
Übung 6.56
• ◦ ◦ Man betrachte die folgenden zwei Basen von R2
6% & % &7 6% & % &7
1 2 1 2
B= , , C= , .
1 1 2 3
a) Man bestimme die Transformationsmatrizen der Basen B und C nach der Standard-
basis E .
b) Man bestimme die Transformationsmatrix von T B→C .
c) Man betrachte den Koordinatenvektor v = [2, 2]T in der Basis B. Man drücke v in
der Standardbasis E und der Basis C aus.
v Lösung
a) Die Transformationsmatrix von B nach E ist:
%&
12
T B→E = .
11
c) Die Koordinaten von v bezüglich der Basis B sind gegeben durch [v]B = [2, 2]T .
Um den Koordinatenvektor v in der Standardbasis zu erhalten, multiplizieren wir
[v]B mit T B→E wie folgt:
% &% & % &
12 2 6
[v]E = T B→E [v]B = = .
11 2 4
Um die Koordinaten von v in der Basis C zu bestimmen, multiplizieren wir [v]B mit
T B→C
% &% & % &
−1 −4 2 −10
[v]C = T B→C [v]B = = .
1 3 2 8
4 5
Probe: Dieses Resultat ist korrekt, denn der Koordinatenvektor [v]C = −10
8
415 425 465
bezüglich der Basis C ist v = −10 2 + 8 3 = 4 in der Standardbasis, was
zu zeigen war. "
Übung 6.57
• • ◦ Man betrachte die folgenden zwei Basen von R3
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫ ⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 6
⎪ 2 7 ⎪
⎬ ⎨ 1
⎪ 1 0 ⎪⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B = ⎣3⎦ , ⎣−1⎦ , ⎣3⎦ , C = ⎣0⎦ , ⎣0⎦ , ⎣ 1 ⎦ .
⎪
⎩ ⎪
⎭ ⎪
⎩ ⎪
⎭
2 1 2 0 1 −1
Die Transformationsmatrix T E →C ist einfach die Inverse von T C →E ; diese hat die
Vektoren der Basis C als Spalten:
⎡ ⎤ ⎡ ⎤
11 0 1 −1 −1
⎢ ⎥ ⎢ ⎥
T C →E = ⎣0 0 1 ⎦ ⇒ T E →C = T −1
C →E = ⎣0 1 1 ⎦ .
0 1 −1 0 1 0
Übung 6.58
• • ◦ Man betrachte den folgenden Unterraum V ⊂ R3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
, 0 −1 1 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
V = v1 = ⎣1⎦ , v2 = ⎣ k ⎦ , v3 = ⎣1⎦ , k ∈ R.
1 0 k
v Lösung
a) Wir untersuchen, ob die drei Vektoren linear unabhängig sind. Zu diesem Zweck
berechnen wir die Determinante
⎡ ⎤ ( (
| | | (0 −1 1( ( ( ( (
( ( ( −1 1 ( ( −1 1 (
⎢ ⎥ ( ( ( ( ( (
det ⎣v1 v2 v3 ⎦ = (1 k 1( = 0 − 1 ( ( +1 ( ( = −1 ̸= 0.
( ( ( 0 k( ( k 1(
| | | (1 0 k( @ AB C @ AB C
=−k−0=−k =−1−k
Weil die Determinante für alle k ∈ R ungleich Null ist, sind die gegebenen Vektoren
v1 , v2 , v3 immer linear unabhängig und somit dim(V ) = 3. Weil V ein Unterraum
von R3 ist und dim(V ) = 3 folgt, dass V gleich den ganzen Raum R3 sein muss,
d. h. V = R3 .
b) Die Transformationsmatrix von der Basis B nach der Standardbasis ist jetzt Form-
sache:
⎡ ⎤
0 −1 1
⎢ ⎥
T B→E = ⎣1 k 1⎦ .
1 0 k
c) Mit T E →B transformieren wir die Koordinaten von v von der Standardbasis von
R3 nach der Basis B:
⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
2 −k2 −k k + 1 1 −2k2 + k + 2
⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
[v]E = ⎣1⎦ ⇒ [v]B = T E →B [v]E = ⎣k − 1 1 −1 ⎦ ⎣2⎦ = ⎣ 2k − 3 ⎦
2 k 1 −1 3 2k − 1
Übung 6.59
• • ◦ Es sei V = P3 (R) der Vektorraum aller Polynome mit Grad ≤ 3. Man drücke das
Polynom p(x) = x3 + x2 + x + 1 bezüglich der folgenden Basis aus:
< =
B = 1, x + 1, x(x + 1), x2 (x + 1) .
v Lösung
Die Standardbasis von V = P3 (R) ist {1, x, x2 , x3 }. In dieser Basis hat das vorgegebene
Polynom p(x) = x3 + x2 + x + 1 den folgenden Koordinatenvektor:
6.5 • Basiswechsel
361 6
⎡ ⎤
1
⎢1⎥
⎢ ⎥
[p]E = ⎢ ⎥ .
⎣1⎦
1
Um die Koordinaten von p in der neuen Basis B auszudrücken, müssen wir die Transfor-
mationsmatrix von der Standardbasis E nach B berechnen. Dazu bestimmen wir zuerst
die Transformationsmatrix von B nach E . Die Spalten dieser Transformationsmatrix
T B→E sind genau die Koordinaten der Basisvektoren der neuen Basis B bezüglich der
Standardbasis E . Die neuen Basiselemente entsprechen den folgenden Vektoren in der
Standardbasis
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0
⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[1]E = ⎢ ⎥ , [x + 1]E = ⎢ ⎥ , [x(x + 1)]E = ⎢ ⎥ , [x2 (x + 1)]E = ⎢ ⎥ .
⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦
0 0 0 1
⎡ ⎤−1 ⎡ ⎤
1 1 0 0 1 −1 1 −1
⎢0 0⎥ ⎢0 1 −1 1 ⎥
⎢ 1 1 ⎥ ⎢ ⎥
T E →B =⎢ ⎥ =⎢ ⎥.
⎣0 0 1 1⎦ ⎣0 0 1 −1⎦
0 0 0 1 0 0 0 1
Um p(x) in der neuen Basis auszudrücken, multiplizieren wir diesen Vektor mit T E →B
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 −1 1 −1 1 0
⎢0 1⎥ ⎢ ⎥ ⎢ ⎥
⎢ 1 −1 ⎥ ⎢1⎥ ⎢1⎥
[p]B = T E →B [p]E = ⎢ ⎥⎢ ⎥ = ⎢ ⎥
⎣0 0 1 −1⎦ ⎣1⎦ ⎣0⎦
0 0 0 1 1 1
p(x) = (x + 1) + x2 (x + 1).
Übung 6.60
• ◦ ◦ Man betrachte P2 (R) mit den folgenden Basen:
v Lösung
a) Wir drücken die Elemente der Basis C in der Basis B = Standardbasis aus:
⎡
⎤ ⎡ ⎤ ⎡ ⎤
−1 −1 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[x − 1]B = ⎣ 1 ⎦ , [2x2 − 1]B = ⎣ 0 ⎦ , [x2 − 3x + 2]B = ⎣−3⎦ .
0 2 1
Übung 6.61
• • ◦ Man betrachte V = R2×2 mit der folgenden Basis:
6 %& % & % & % &7
1 1 10 21 0 1
B = B1 = , B2 = , B3 = , B4 =
1 −1 01 11 −1 1
6.5 • Basiswechsel
363 6
v Lösung
a) Zunächst bestimmen wir die Koordinatenvektoren der Basiselemente von B bezüg-
lich E :
⎡
⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 2 0
⎢1⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[B1 ]E = ⎢ ⎥ , [B2 ]E = ⎢ ⎥ , [B3 ]E = ⎢ ⎥ , [B4 ]E = ⎢ ⎥ .
⎣1⎦ ⎣0⎦ ⎣1⎦ ⎣−1⎦
−1 1 1 1
Deren Inverse ist die Transformationsmatrix von der Standardbasis nach der Basis
B:
⎡ ⎤
1 0 −1 −1
⎢ 2 −1 −2 −1⎥
⎢ ⎥
T E →B = T −1
B→E =⎢ ⎥.
⎣−1 12 32 1 ⎦
0 12 − 12 0
Übung 6.62
• • ◦ Es sei V = C2×2 .
a) Man bestimme die Transformationsmatrix von der Standardbasis von C2×2 nach
der Basis B:
364 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
v Lösung
a) Die Pauli-Matrizen haben die folgenden Koordinatenvektoren bezüglich der Stan-
dardbasis von C2×2 :
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 1
⎢0⎥ ⎢1⎥ ⎢−i⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[σ0 ]E = ⎢ ⎥ , [σx ]E = ⎢ ⎥ , [σy ]E = ⎢ ⎥ , [σz ]E = ⎢ ⎥ .
⎣0⎦ ⎣1⎦ ⎣i ⎦ ⎣0⎦
1 0 0 −1
Übung 6.63
• • ◦ Man beweise die Kürzungsformel für den Basiswechsel
T B→D = T C →D T B→C .
v Lösung
Es sei V ein Vektorraum versehen mit den Basen
Jeder Vektor v ∈ V lässt sich dann als Linearkombination der Basiselemente der drei
Basen B, C und D darstellen:
n
' n
' n
'
v= xk bk = yj cj = zi di .
k=1 j=1 i=1
Da D eine Basis ist, können wir die Basisvektoren von B als Linearkombination der
Vektoren d1 , · · · , dn darstellen:
n
'
bk = pik di (6.29)
i=1
pik sind die Komponenten der Transformationsmatrix T B→D . Analog können wir die
Basisvektoren von B in der Basis C darstellen
n
'
bk = sjk cj (6.30)
j=1
366 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten
sjk und tij sind die Komponenten der Transformationsmatrizen T B→C bzw. T C →D . Mit
Gl. (6.29) gilt einerseits:
n n
M n
N n
M n N
' (6.29) ' ' ' '
v= xk bk = xk pik di = pik xk di .
k=1 k=1 i=1 i=1 k=1
Es folgt:
n
'
zi = pik xk (6.32)
k=1
Es folgt:
⎛ ⎞
n
' n
' n
'
zi = tij sjk xk = ⎝ tij sjk ⎠ xk . (6.33)
j,k=1 k=1 j=1
n
'
pik = tij sjk .
j=1
Dies ist genau die Definition des Produktes der Matrizen T B→C und T C →D , d. h.
Lineare Abbildungen
Inhaltsverzeichnis
Lineare Abbildungen I:
Definition und
Matrixdarstellung
Inhaltsverzeichnis
In diesem Kapitel beschäftigen wir uns mit dem zentralen Thema der linearen
Abbildungen zwischen Vektorräumen.
n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 7 sind Sie in der Lage:
5 lineare Abbildungen zwischen Vektorräumen und deren Eigenschaften zu verstehen
und zu verifizieren,
5 die wichtigsten speziellen linearen Abbildungen bzw. Morphismen zu unterschei-
den,
5 den Zusammenhang zwischen linearen Abbildungen und Darstellungsmatrizen zu
erklären,
5 Darstellungsmatrizen von linearen Abbildungen bezüglich vorgegebenen Basen zu
bestimmen,
5 wichtige lineare Abbildungen geometrisch interpretieren und deren Matrixdarstel-
lungen bestimmen und anwenden zu können,
5 Klassifikation von linearen Abbildungen wie Streckungen, Rotationen, Spiegelun-
gen und Projektionen im R2 und R3 zu erklären und anzuwenden.
> Bemerkung
Bedingungen (L1) und (L2) heißen Linearitätsbedingungen. Sie besagen, dass es bei
linearen Abbildungen keine Rolle spielt, ob man zuerst zwei Vektoren addiert und
dann deren Summe mit F abbildet oder zuerst die Vektoren separat abbildet und dann
die Summe der Resultate bildet (. Abb. 7.2). Das gleiche Prinzip gilt auch bei der
Skalarmultiplikation eines Vektors mit einer Zahl aus K.
Praxistipp
Die Linearitätsbedingungen (L1) und (L2) kann man zu einer einzigen äquivalenten
kompakten Bedingung zusammenfassen:
für alle v, w ∈ V und α, β ∈ K. In der Praxis kann man entweder Bedingungen (L1)
und (L2) oder die kompakte Bedingung (L) überprüfen.
7.1 • Lineare Abbildungen
371 7
Vektorraum Homomorphismen
Eine allgemeine lineare Abbildung F : V → W nennt man auch einen Homo-
morphismus zwischen den Vektorräumen V und W . Homomorphismen und lineare
Abbildungen sind synonym.
> Bemerkung
Das Wort Homomorphismus stammt aus dem Griechischen und bedeutet „homo =
gleiche“ und „morphé = Form“. Ein Homomorphismus ist also eine Abbildung, welche
„die Struktur unverändert lässst“. Da die lineare Algebra sich mit Vektorräumen
beschäftigt, wollen wir sicherstellen, dass solche Homomorphismen die Vektorraum-
struktur von V und W erhalten bzw. respektieren. Diese umfasst sowohl die additive
Struktur F(v + w) = F(v) + F(w) als auch die skalare Multiplikationsstruktur F(α v) =
α F(v). Man erkennt, dass ein Homomorphismus in der linearen Algebra nichts anderes
ist als ein anderer Begriff für lineare Abbildungen.
5 Die Zusammensetzung von linearen Abbildungen ist wiederum eine lineare Abbildung.
Genauer: Es seien F : V → W und G : W → Z linear. Dann ist die Komposition
G ◦ F : V → Z linear. $
# Beispiel
Alle lineare Abbildungen F : R → R sind von der Form F(x) = a x mit a ∈ R. Denn man
kann leicht die Linearitätsbedingungen (L1) und (L2) für F(x) = a x nachweisen:
(L1) Es seien x, y ∈ R. Dann gilt:
Def. Def.
F(x + y) = a(x + y) = a x + a y = F(x) + F(y) !
> Bemerkung
Beachte, dass F(x) = a x + b mit b ̸= 0 nicht linear ist. Tatsächlich ist z. B. Bedingung
(L1) nicht erfüllt:
Def. Def.
F(x + y) = a(x + y) + b aber F(x) + F(y) = (a x + b) + (a y + b) ✗
# Beispiel
Man betrachte die Abbildungen F1 : R2 → R2 und F2 : R2 → R3 definiert durch
⎡ ⎤
M% &N % & M% &N v2 − v22
v1 v1 − v2 v1 ⎢ 1 ⎥
F1 = , F2 = ⎣v1 + v2 ⎦ .
v2 v1 + v2 v2
1 − v2
F1 ist linear (vgl. Übung 7.1). F2 ist aber nicht linear. Die Probleme sind die quadratischen
Terme im ersten Eintrag und der konstante Term im dritten Eintrag (vgl. Übung 7.1). $
Praxistipp
Allgemein: Eine lineare Abbildung Rn → Rm darf grundsätzlich nur Terme der Form
α1 v1 +α2 v2 +· · · αn vn enthalten, aber keine quadratischen Terme oder höhere Potenzen,
ebenso keine konstanten Terme und nichtlineare Terme (wie sin(v1 ), ev1 +v2 log(v3 ),
usw.).
# Beispiel
Es sei V = Pn (R) der Vektorraum der reellen Polynome vom Grad ≤ n. Dann definiert die
Ableitung-Abbildung F : Pn (R) → Pn (R)
dp(x)
F(p(x)) = = p′ (x)
dx
# Beispiel
Es sei V = C 0 ([0, 1]) der Vektorraum der stetigen Funktionen über [0, 1]. Dann ist die
Abbildung F : C 0 ([0, 1]) → R definiert durch
T 1
F(ϕ(x)) = ϕ(x)dx
0
# Definition 7.2
5 F heißt Endomorphismus ⇔ F ist linear und W = V .
5 F heißt Isomorphismus ⇔ F ist linear und bijektiv.
5 F heißt Automorphismus (oder Monomorphismus) ⇔ F ist linear, bijektiv und W = V .
$
7.1 • Lineare Abbildungen
373 7
. Abb. 7.1 Zusammenhang der
Begriffe
Es ist leicht zu zeigen, dass die Abbildungen F + G und a F wieder linear sind,
d. h. F + G, a F ∈ Hom(V , W ) (vgl. Übung 7.7). Die Menge Hom(V , W ) ist
somit abgeschlossen bezüglich der Addition und Skalarmultiplikation von Funktionen.
Daraus folgt:
7.1.4 Beispiele
Übung 7.1
◦ ◦ ◦ Sind die folgenden Abbildungen linear?
a) F : R2 → R2 definiert durch
K v1 L 4 v1 −v2 5
F v2 = v1 +v2 .
b) F : R2 → R3 definiert durch
F G
K v1 L v21 −v22
F v2 = v1 +v2 .
1−v2
c) F : R4 → R2 definiert durch
D v1 E 9 :
v2 v1 −2v2 +3v3
F v3 = v1 +v3 .
v4
d) F : R3 → R3 definiert durch
(antrn) luntral
-
th
> v1 ? F
v1 −v2 +2
G
F(u+r) =
F v2 = v1 +v2 +1 .
v3 v1 −v3 +3
v Lösung
a) Ja. Wir müssen einfach nachweisen, dass F die Linearitätsbedingungen (L1) und
(L2) erfüllt. Es seien v = [v1 , v2 ]T ∈ R2 und w = [w1 , w2 ]T ∈ R2 sowie die Zahl
α ∈ R vorgegeben. Dann gilt:
% & % &
Def. v1 + w1 (v1 + w1 ) − (v2 + w2 )
(L1) F(v + w) = F =
v2 + w2 (v1 + w1 ) + (v2 + w2 )
% & % &
v1 − v2 w1 − w2
= +
v1 + v2 w1 + w2
Def.
= F(v) + F(w) !
% & % & % &
αv1 Def. αv1 − αv2 v1 − v2 Def.
(L2) F(αv) = F = =α = αF(v) !
αv2 αv1 αw2 v1 + v2
Die gegebene Abbildung ist somit nicht linear. Das Problem sind die quadratischen
Terme in der ersten Komponente sowie der konstante Term in der dritten Kompo-
nente.
c) Ja. Denn F erfüllt die Linearitätsbedingungen (L1) und (L2). Konkret seien v =
[v1 , v2 , v3 , v4 ]T ∈ R4 , w = [w1 , w2 , w3 , w4 ]T ∈ R4 und α ∈ R gegeben. Es gilt:
⎡ ⎤
v1 + w1 % &
⎢v + w ⎥
⎢ 2 ⎥ Def. (v1 + w1 ) − 2(v2 + w2 ) + 3(v3 + w3 )
(L1) F(v + w) = F ⎢ 2 ⎥ =
⎣v3 + w3 ⎦ (v1 + w1 ) + (v3 + w3 )
v4 + w4
% & % &
v1 − 2v2 + 3v3 w1 − 2w2 + 3w3 Def.
= + = F(v) + F(w) !
v1 + v3 w1 + w3
⎡ ⎤
αv1 % & % &
⎢αv ⎥
⎢ 2 ⎥ Def. αv1 − 2αv2 + 3αv3 v1 − 2v2 + 3v3
(L2) F(αv) = F ⎢ ⎥ = =α
⎣αv3 ⎦ αv1 + αv3 v1 + v3
αv4
Def.
= αF(v) !
aber
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
v1 − v2 + 2 w1 − w2 + 2 v1 + w1 − v2 − w2 + 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F(v) + F(w) = ⎣v1 + v2 + 1⎦ + ⎣w1 + w2 + 1⎦ = ⎣v1 + w1 + v2 + w2 + 2⎦
v1 − v3 + 3 w1 − w3 + 3 v1 + w1 − v3 − w3 + 6
d. h. F(v + w) ̸= F(v) + F(w). Das Problem sind die konstanten Terme. "
Übung 7.2
◦ ◦ ◦ Es sei A ∈ Km×n . Man zeige, dass die Abbildung F : Kn → Km , v → F(v) = Av
linear ist.
376 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
v Lösung
Wir weisen einfach die Linearitätsbedingungen (L1) und (L2) nach. Es seien v, w ∈ Kn
und α ∈ K. Mit den Rechenregeln für Matrizen und Vektoren folgt dann:
Def. Def.
(L1) F(v + w) = A(v + w) = Av + Aw = F(v) + F(w) !
Def. Def.
(L2) F(α v) = A(α v) = α Av = αF(v) !
Übung 7.3
◦ ◦ ◦ Sei Pn (R) die Menge aller reellen Polynome vom Grad ≤ n. Man zeige, dass die
Ableitung F : Pn (R) → Pn (R), F(p(x)) = dp(x) ′
dx = p (x) ein Homomorphismus ist. Ist
F ein Endomorphismus? Ist F ein Automorphismus?
v Lösung
Wir müssen nur überprüfen, dass die Linearitätsbedingungen (L1) und (L2) erfüllt sind.
Es seien also p(x), q(x) ∈ Pn (R) und α ∈ R. Dann gilt:
(L1) Weil man die Summe von Funktionen gliedweise differenzieren kann, haben wir:
Def. Def.
F(p(x) + q(x)) = (p(x) + q(x))′ = p′ (x) + q′ (x) = F(p(x)) + F(q(x)) !
Def. Def.
(L2) Es gilt: F(αp(x)) = (αp(x))′ = αp′ (x) = αF(p(x)) !
Somit ist F linear, also ein Homomorphismus. Weil der Ausgangs- und Zielvektorraum
übereinstimmen, ist F ein Endomorphismus. Beachte, dass F nicht injektiv ist, denn
Weil F nicht injektiv ist, kann F nicht bijektiv sein, also kein Automorphismus. "
Übung 7.4
◦ ◦ ◦ Es sei V = C 0 ([0, 1]) der Vektorraum der stetigen Funktionen auf [0, 1]. Man
verifiziere die Linearität der Abbildung F : C 0 ([0, 1]) → R definiert durch
T 1
F(ϕ(x)) = ϕ(x)dx.
0
v Lösung
Um eine vorgegebene Abbildung auf Linearität zu überprüfen, muss man entweder
(L1) und (L2) oder die äquivalente Bedingung (L) nachweisen. Um dies nochmals
deutlich zu machen, werden wir in diesem Beispiel die Bedingung (L) anwenden. Es
seien ϕ(x), ψ(x) ∈ C 0 ([0, 1]) und λ, µ ∈ R. Aus den Eigenschaften des Integrals
folgt:
7.1 • Lineare Abbildungen
377 7
T 1 T 1 T 1
Def.
F(λϕ(x) + µψ(x)) = (λϕ(x) + µψ(x))dx = λ ϕ(x)dx + µ ψ(x)dx
0 0 0
Def.
= λF(ϕ(x)) + µF(ψ(x)) !
Übung 7.5
• ◦ ◦ Welche der folgenden Abbildungen sind linear?
a) F : Rn×n → Rn×n , A → AT
S
b) F : Rn×n → R, A → Spur(A) = ni=1 aii
c) F : Rn×n → R, A → det(A)
d) F : Rn×n → Rn×n , A → AM mit M ∈ Rn×n
v Lösung
a) Ja. Es seien A, B ∈ Rn×n und α ∈ R gegeben. Es gilt:
(L1) F(A + B) = (A + B)T = AT + BT = F(A) + F(B) !
(L2) F(αA) = (αA)T = αAT = αF(A) !
Weil beide Linearitätsbedingungen (L1) und (L2) erfüllt sind, ist F linear.
b) Ja. Es seien A, B ∈ Rn×n und α ∈ R. Dann gilt:
n
'
(L1) F(A + B) = Spur(A + B) = (aii + bii )
i=1
n
' n
'
= aii + bii = Spur(A) + Spur(B) = F(A) + F(B) !
i=1 i=1
n
' n
'
(L2) F(α A) = Spur(α A) = (α aii ) = α aii = Spur(A) = αF(v) !
i=1 i=1
4 5
c) Nein. (L1) ist nicht erfüllt. Durch ein Gegenbeispiel zeigen wir das. Für A = 10 00 ,
40 05
B = 0 1 gilt det(A) = 0 und det(B) = 0 ⇒ det(A) + det(B) = 0. Andererseits ist
4 5
det(A + B) = det 10 01 = 1. Wegen det(A) + det(B) ̸= det(A + B) ist F nicht linear.
d) Ja. Wir zeigen, dass die Bedingung (L) erfüllt ist. Es seien A, B ∈ Rn×n und α, β ∈ R.
Aus den Regeln der Matrixmultiplikation folgt
Übung 7.6
• ◦ ◦ Man zeige: Für jede lineare Abbildung F : V → W gilt F(0) = 0.
378 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
v Lösung
(L1)
Dies folgt direkt aus (L1): F(0) = F(0 + 0) = F(0) + F(0) ⇒ F(0) = 0.
(L2)
Alternative: Dies folgt auch aus (L2) mit α = 0: F(0) = F(0 v) = 0 F(v) = 0. "
Übung 7.7
• ◦ ◦ Es seien F, G ∈ Hom(V , W ) und a ∈ K. Man zeige, dass die Abbildungen F + G
und a F linear sind.
v Lösung
Linearität von F + G: Wir überprüfen mittels (L). Es seien v, w ∈ V und α, β ∈ K.
Dann gilt wegen der Linearität von F und G:
Def.
(F + G)(αv + βw) = F(αv + βw) + G(αv + βw)
F,G linear
= α F(v) + β F(w) + α G(v) + β G(w)
K L K L
= α F(v) + G(v) + β F(w) + G(w)
Def.
= α (F + G)(v) + β (F + G)(w) !
Def. F linear K L
(a F)(αv + βw) = a F(αv + βw) = a α F(v) + β F(w)
K L K L Def.
= α a F(v) + β a F(w) = α (a F)(v) + β (a F)(w) !
Übung 7.8
• ◦ ◦ Man zeige, dass die Zusammensetzung von linearen Abbildungen wieder eine
lineare Abbildung ist.
v Lösung
Es seien F : V → W und G : W → Z linear. Zu zeigen ist, dass die Komposition
G ◦ F : V → Z, definiert durch (G ◦ F)(v) = G(F(v)), linear ist. Wir verifizieren die
Linearitätsbedingungen (L1) und (L2) erfüllt.
(L1) Es seien v1 , v2 ∈ V . Dann gilt:
Def. K L F linear K L
(G ◦ F)(v1 + v2 ) = G F(v1 + v2 ) = G F(v1 ) + F(v2 )
G linear K L K L Def.
= G F(v1 ) + G F(v2 ) = (G ◦ F)(v1 ) + (G ◦ F)(v2 ) !
7.2 • Matrixdarstellung von linearen Abbildungen
379 7
(L2) Es seien v ∈ V und α ∈ K. Dann ist:
Übung 7.9
• ◦ ◦ In dieser Aufgabe erfahren wir die Wichtigkeit der Körperwahl für die Linearität.
Es sei V = C und F : C → C, z → F(z) = z.
a) Man betrachte V = C als einen Vektorraum über K = R. Man zeige, dass F linear
ist.
b) Man betrachte nun V = C als einen Vektorraum über K = C. Ist F auch linear?
v Lösung
a) Wir verifizieren die Linearitätsbedingungen (L1) und (L2):
(L1) Es seien z1 , z2 ∈ C ⇒ F(z1 + z2 ) = z1 + z2 = z1 + z2 = F(z1 ) + F(z2 ). !
(L2) Es seien z ∈ C und α ∈ R (wichtig: ✿✿✿✿✿
α ∈ R, weil wir C als ein Vektorraum über
α∈R
R betrachten!). Dann gilt: F(α z) = α z = α z = α z = α F(z). !
Somit ist (L2) nicht erfüllt und F ist nicht linear. "
# Beispiel
Die lineare Abbildung (vgl. Übung 7.1)
% & % &
2 2v1 v1 − v2
F : R →R , v= → F (v) = (7.5)
v2 v1 + v2
Mit dieser Matrixdarstellung ist die Wirkung von F auf v ∈ R2 eindeutig als das Produkt
der Matrix A (die Darstellungsmatrix von F) mit v Beschrieben:
Eine lineare Abbildung ist durch Angabe auf einer Basis eindeutig
bestimmt
V und W seien in den folgenden Abschnitten endlich-dimensionale Vektorräume
über K mit dim(V ) = n und dim(W ) = m. Es seien jeweils B1 = {v1 , · · · , vn } eine
Basis von V und B2 = {w1 , · · · , wm } eine Basis von W . Da B1 eine Basis ist, kann
jeder v ∈ V in eindeutiger Weise als Linearkombination der Basisvektoren v1 , · · · , vn
dargestellt werden
⎡ ⎤
n α1
' ⎢ ⎥
v= αi vi = α1 v1 + · · · + αn vn ⇔ [v]B1 = ⎣ ... ⎦ . (7.8)
i=1 αn
α1 , · · · , αn sind dann die Koordinaten von v bezüglich der Basis B1 . Es sei nun F :
V → W eine lineare Abbildung. Wegen der Linearität von F gilt:
Machen wir hier eine Pause und fragen: Was sagt uns diese Gleichung? Sie besagt,
dass wir F(v) in eindeutiger Weise aus den Bilder F(v1 ), · · · , F(vn ) berechnen können
(α1 , · · · , αn sind ja bekannt).
i Merkregel
Mit anderen Worten: Eine lineare Abbildung F : V → W ist durch Angabe einer Basis
von V eindeutig bestimmt.
7.2 • Matrixdarstellung von linearen Abbildungen
381 7
. Abb. 7.2 Links: Ein Vektor v
ist eine lineare Kombination der
Standardbasisvektoren e1 , e2 .
Rechts: Der Vektor F(v) ist eine
lineare Kombination der
transformierten Basisvektoren
F(e1 ), F(e2 )
# Satz 7.3
Es sei B1 = {v1 , · · · , vn } eine Basis von V und seien u1 , · · · , un beliebige Vektoren aus W .
Dann gibt es eine eindeutig bestimmte lineare Abbildung F : V → W mit F(v1 ) = u1 , · · · ,
F(vn ) = un . $
# Beispiel
Die Linearität von Matrixtransformationen kann man wunderschön mithilfe eines Bei-
spiels visualisieren (. Abb. 7.2). Wir betrachten die lineare Abbildung F in Gl. (7.5) und
wir schauen uns an, wie F auf den Vektor v = [2, 3]T wirkt
% &% & % & % & % &
1 −1 2 −1 1 −1
F (v) = = =2 +3 . (7.10)
1 1 3 5 1 1
@ AB C @ABC @ AB C
=A =F(e1 ) =F(e2 )
Wir können zwei wichtige Eigenschaften dieser Operation visualisieren (. Abb. 7.2). Ers-
tens stellen die Spalten von A dar, wo die Standardbasisvektoren e1 , e2 im transformierten
Vektorraum landen. Zweitens ist der Vektor im neuen Vektorraum F(v) eine lineare
Kombination der transformierten Basisvektoren F(e1 ), F(e2 ). Um dies zu visualisieren,
können wir das Quadrat von den Standardbasisvektoren e1 , e2 einfärben und sehen, wie
dies transformiert wird. $
Diese Vektoren F(vi ) sind Elemente von W und können daher in eindeutiger Weise
als Linearkombination der Vektoren der Basis B2 ausgedrückt werden, konkret:
Die Koeffizienten aij sind die Koordinaten der Bilder F(v1 ), · · · , F(vn ) bezüglich der
Basis B2 , d. h.:
⎡ ⎤ ⎡ ⎤
a11 a1n
4 5 ⎢ ⎥ 4 5 ⎢ ⎥
F(v1 ) B2 = ⎣ ... ⎦ , ··· , F(vn ) B = ⎣ ... ⎦ .
2
am1 amn
Nun gilt:
Diese Gleichung besagt, dass F(v) die folgenden Koordinaten in der Basis B2 =
{w1 , · · · , wm } hat:
⎡ ⎤
a11 α1 + · · · + a1n αn
4 5 ⎢ .. ⎥
F(v) B2 =⎣ . ⎦. (7.12)
am1 α1 + · · · + amn αn
⎡ ⎤
| |
B ⎢4 5 4 5 ⎥
M B12 (F) := ⎣ F(v1 ) B · · · F(vn ) B ⎦ (7.14)
2 2
| |
B
Die Spalten der Darstellungsmatrix M B12 (F) sind die Koordinaten bezüglich der Zielbasis
B2 der Bilder der Vektoren der Ausgangsbasis B1 .
> Bemerkung
B
Wir werden die Darstellungsmatrix der Abbildung F mit der Notation M B12 (F) kenn-
zeichnen, um ihre Abhängigkeit von der Wahl der Basen von V und W hervorzuheben
B ← Ausgangsbasis
M B1
2 ← Zielbasis
Mithilfe der Darstellungsmatrix können wir die Wirkung einer linearen Abbildung F
vollständig beschreiben:
# Satz 7.4
B
Ist F : V → W eine lineare Abbildung mit Darstellungsmatrix M B12 (F) bezüglich der
Basen B1 und B2 . Dann gilt:
B
[F(v)]B2 = M B12 (F) [v]B1 (7.15)
i Merkregel
Der Koordinatenvektor von F(v) in der Basis B2 ist gleich dem Produkt der Darstel-
B
lungsmatrix M B12 (F) mit dem Koordinatenvektor von v in der Basis B1 .
Wie lautet die Darstellungsmatrix von F in der Standardbasis von R2 ? Die Standard-
basis von R2 ist
6 % & % &7
1 0
E = e1 = , e2 = .
0 1
384 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
Um die Darstellungsmatrix von F in dieser Basis zu ermitteln, müssen wir einfach die
Bilder der Basisvektoren bestimmen und diese als Spalten in einer Matrix aufschreiben:
M% &N % & % & M% &N % & % &
1 1−0 1 0 0−1 −1
F(e1 ) = F = = , F(e2 ) = F = = .
0 1+0 1 1 0+1 1
Mit der Darstellungsmatrix können wir nun das Bild eines beliebigen Vektors berech-
nen. Zum Beispiel:
M% &N % &% & % &
3 1 −1 3 5
F = = .
−2 1 1 −2 1
K L 9 : 455
3 3−(−2)
Probe mit der Definition von F: F −2 = 3+(−2) = 1 !
Als nächstes Beispiel betrachten wir dieselbe lineare Abbildung wie oben
% & % &
2 v1 2 v1 − v2
F : R →R , v= → F (v) = ,
v2 v1 + v2
aber wir fokussieren uns auf die folgenden zwei Basen von R2
6% & % &7 6
% & % &7
2 1 0 1
B1 = v1 = , v2 = B 2 = w1 = , w2 = .
1 −1 1 1
Wie lautet die Darstellungsmatrix von F bezüglich der Basen B1 und B2 ? Wir berechnen
die Bilder der Vektoren der Ausgangsbasis B1 :
M% &N % & % & M% &N % & % &
2 2−1 1 1 1+1 2
F(v1 ) = F = = , F(v2 ) = F = = .
1 2+1 3 −1 1−1 0
Sind wir fertig? Nein: Wir müssen noch die Koordinaten von F(v1 ) und F(v2 ) bezüglich
der Ankunftsbasis B2 bestimmen. Es gilt:
% & % & % & % &
1 0 1 2
F(v1 ) = =2 + = 2w1 + w2 ⇒ [F(v1 )]B2 =
3 1 1 1
7.2 • Matrixdarstellung von linearen Abbildungen
385 7
Es sei P3 (R) die Menge der reellen Polynome vom Grad ≤ 3. Man betrachte die
Ableitung
d dp(x)
: P3 (R) → P3 (R), p(x) → .
dx dx
Wie lautet die Darstellungsmatrix von F in der Standardbasis von P3 (R)? Die Stan-
d
dardbasis von P3 (R) ist E = {1, x, x2 , x3 }. Jetzt wenden wir dx auf jedes Basiselement
an:
Nun können wir die Darstellungsmatrix benutzen, um die Ableitung von p(x) = x3 +
2x2 − 4x zu berechnen. Die Koordinaten von p(x) in der Standardbasis lauten:
⎤ ⎡ ⎡ ⎤⎡ ⎤ ⎡ ⎤
0 0 1 0 0 0 −4
⎢−4⎥ F G ⎢0 0⎥
4 5 dp(x) ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ 0 2 ⎥ ⎢−4⎥ ⎢ 4 ⎥
p(x) E = ⎢ ⎥ ⇒ =⎢ ⎥⎢ ⎥ = ⎢ ⎥.
⎣2⎦ dx E ⎣0 0 0 3⎦ ⎣ 2 ⎦ ⎣ 3 ⎦
1 0 0 0 0 1 0
386 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
Wie kann man sich eine lineare Abbildung geometrisch vorstellen? Eine Konsequenz
der Linearität ist, dass lineare Abbildungen Vektoren nur auf bestimmte Weise
modifizieren können, beispielsweise durch Drehen, Reflektieren, Skalieren, Scheren
und Projizieren (. Abb. 7.3). Transformationen, welche Vektoren nicht linear „de-
formieren“, sind nicht gestattet.
. Abb. 7.3 Wie sehen lineare Abbildungen aus? Die Figur zeigt einige Beispiele von linearen und
nicht linearen Abbildungen. Lineare Abbildungen beschreiben Skalierungen, Rotationen, Scherungen,
Spiegelungen und Projektionen. Kompliziertere Abbildungen, welche Vektoren „deformieren“ sind nicht
linear
7.2 • Matrixdarstellung von linearen Abbildungen
387 7
a b c d
. Abb. 7.4 Geometrische Wirkung von Diagonalmatrizen. (a) Streckung der ersten Komponente,
(b) Spiegelung an der x1 -Achse, (c) Spiegelung an der x2 -Achse, (d) Punktspiegelung
Dies bedeutet, dass α1 bestimmt, wie sich die erste Komponente von v transformiert,
α2 bestimmt, wie sich die zweite Komponente von v transformiert, usw. Beispielsweise
können wir αi > 0 verwenden, um die i-te Komponente von v zu strecken. αi < 0
bedeutet, dass vi gespiegelt wird. Man kann Vektoren mit einer diagonalen Matrix
nicht scheren.
> Bemerkung
Die Tatsache, dass lineare Abbildungen in Diagonalform beonders „einfach“ darzu-
stellen sind, hat wichtige Folgerungen, wie wir in „Lineare Algebra, Band II“ genauer
erfahren werden. Insbesondere wird die folgende Frage uns lange Zeit beschäftigen:
Gegeben eine lineare Abbildung F ∈ End(V), gibt es eine Basis von V derart, dass
F durch eine Diagonalmatrix (d. h. durch eine möglichst einfache Matrix) dargestellt
wird?
> Bemerkung
Im Allgemeinen gilt: Es sei F : Rn → Rn linear und * ⊂ Rn ein Gebiet mit Volumen
(oder Flächeninhalt) Vol(*). Dann gilt für das Volumen (oder Flächeninhalt) des
Transformierten Gebiet F(*)
wobei A die Darstellungsmatrix von F ist. Wie wir in 7 Kap. 8 erfahren werden, ist der
Wert der Determinante der Darstellungsmatrizen von F bzgl. aller Basen von V gleich.
Die Determinante ist damit eine intrinsische Eigenschaft einer linearen Abbildung.
# Satz 7.5
Es seien F, G : V → W lineare Abbildungen und B1 , B2 Basen von V bzw. W . Es sei
α ∈ K. Dann gilt:
B B B
5 M B12 (F + G) = M B12 (F) + M B12 (G)
B B
5 M B12 (α F) = α M B12 (F) $
7.2 • Matrixdarstellung von linearen Abbildungen
389 7
i Merkregel
Die Summe und Skalarmultiplikation von linearen Abbildungen entspricht der Summe
bzw. Skalarmultiplikation der zugehörigen Darstellungsmatrizen.
# Satz 7.6
Es seien F : V → W und G : W → Z lineare Abbildungen. Es seien B1 , B2 und B3 Basen
von V , W bzw. Z. Dann gilt:
B B B
M B13 (G ◦ F) = M B23 (G) M B12 (F). (7.16)
i Merkregel
Die Matrixdarstellung von G◦F ist das Produkt der Darstellungsmatrizen von F und G.
n-Mal
B C@ A
Insbesondere für F : V → V definieren wir Fn
:= F ◦ F ◦ · · · ◦ F. Die Abbildung F n
ist linear, weil die Komposition von linearen Abbildungen es auch ist. Es gilt:
# Satz 7.7
Die Darstellungsmatrix von F n bezüglich der Basis B ist
> ?n
n
MB B
B (F ) = M B (F) . (7.17)
$
390 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
Inverse Abbildung
Die Matrixdarstellung von F −1 ist die Inverse der Darstellungsmatrix von F.
Genauer:
# Satz 7.8
Es sei F : V → V eine invertierbare lineare Abbildung. Sind B1 und B2 Basen von V , dann
gilt:
> ?−1
B B
M B21 (F −1 ) = M B12 (F) . (7.18)
i Merkregel
Die Matrixdarstellung von F −1 ist die Inverse der Darstellungsmatrix von F.
> Bemerkung
Beachte: F : V (mit Basis B1 ) → V (mit Basis B2 ) und F −1 : V (mit Basis B2 ) →
V (mit Basis B1 ).
7.2.5 Kochrezept
Für die Bestimmung der Darstellungsmatrix einer linearen Abbildung kann man in
der Praxis das folgende Kochrezept benutzen:
Die resultierende Matrix ist die gesuchte Darstellungsmatrix M EE (F) von F bezüglich
der Standardbasis E .
Fall 2: B1 und B2 sind allgemeine Basen.
Schritt 1 Man berechne F(v1 ), · · · , F(vn ).
Schritt 2 Man schreibe die Vektoren F(v1 ), · · · , F(vn ) als Linearkombination
der Basisvektoren w1 , · · · wm , d. h. man finde die Koordinaten von F(v1 ), · · · , F(vn )
bezüglich der Basis B2 .
7.2 • Matrixdarstellung von linearen Abbildungen
391 7
Schritt 3 Man schreibe die Koordinaten aus Schritt 2 als Spalten in einer Matrix
auf:
⎡ ⎤
| |
⎢ ⎥
⎢ Koordinaten Koordinaten ⎥
B ⎢ ⎥
M B12 (F) = ⎢ ⎥
⎢ von F(v1 ) · · · von F(vn ) ⎥ .
⎢ ⎥
⎣ in Basis B 2 in Basis B 2 ⎦
| |
B
Die resultierende Matrix ist die gesuchte Darstellungsmatrix M B12 (F) von F bezüglich
der Basen B1 und B2 .
Weitere Eigenschaften und Hinweise
5 Anzahl Spalten der Darstellungsmatrix = dim(V ) = n.
5 Anzahl Zeilen der Darstellungsmatrix = dim(W ) = m.
5 Um Fehler zu vermeiden, schlagen wir vor, die Basen von V und W immer
anzugeben, anhand derer die Darstellugsmatrix berechnet wird. Diese werden mit
einem oberen und einem unteren Index bezeichnet:
B ←Ausgangsbasis
M B1
2 ←Zielbasis
7.2.6 Beispiele
Übung 7.10
•◦◦ Es sei E = {e1 , e2 , e3 } die Standardbasis von R3 . Man finde die Darstellungsmatrix
der linearen Abbildung F : R3 → R2 gegeben durch
% & % & % &
2 1 3
F(e1 ) = , F(e2 ) = , F(e3 ) = .
1 −2 1
> 1
? > 1
?
Man berechne F −2 und F 1 .
1 −1
v Lösung
Die Spalten der Darstellungsmatrix von F in der Standardbasis sind genau die Bilder
der Basisvektoren e1 , e2 , e3 . In diesem Fall sind diese Bilder bereits gegeben. Die
gesuchte Darstellungsmatrix lautet somit:
% &
2 1 3
M EE (F) = .
1 −2 1
392 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
Übung 7.11
• ◦ ◦ Für welche α ∈ R gibt es eine lineare Abbildung F : R2 → R2 mit
/- .0 - . /- .0 - . /- .0 - .
1 2 0 −1 1 α+1
F = , F = , F = ?
0 4 1 2 2 8
v Lösung
Eine lineare Abbildung ist eindeutig durch die Bilder der Basisvektoren bestimmt
(Satz 7.3). Da wir die Bilder der Basiselemente e1 , e2 bereits kennen, können wir die
Darstellungsmatrix von F in der Standardbasis direkt hinschreiben:
- .
2 −1
M EE (F) = .
4 2
Übung 7.12
• ◦ ◦ Man bestimme die Darstellungsmatrix der folgenden linearen Abbildung in der
Standardbasis:
⎤ ⎡
v1 - .
3 2 ⎢ ⎥ F v1 − 2v2 + 3v3
F : R → R , v = ⎣ v2 ⎦ &−→ F(v) = .
v1 + v3
v3
v Lösung
Um die Darstellungsmatrix von F zu bestimmen, müssen wir zuerst die Bilder der
Standardbasisvektoren bestimmen:
⎛⎡ ⎤⎞ ⎛⎡ ⎤⎞ ⎛⎡ ⎤⎞
1 - . 0 - . 0 - . - .
⎜⎢ ⎥⎟ 1 ⎜⎢ ⎥⎟ −2 ⎜⎢ ⎥⎟ 3 1 −2 3
F ⎝⎣0⎦⎠ = , F ⎝⎣1⎦⎠ = , F ⎝⎣0⎦⎠ = ⇒ M EE (F) = .
1 0 1 1 0 1
0 0 1
!
7.2 • Matrixdarstellung von linearen Abbildungen
393 7
Übung 7.13
• ◦ ◦ Man betrachte die Abbildung F : R3 → R4 gegeben durch:
⎡ ⎤
⎛⎡ ⎤⎞ x1 − x2
x1 ⎢
⎜⎢ ⎥⎟ ⎢ x1 + x3 ⎥ ⎥
F ⎝⎣x2 ⎦⎠ = ⎢ ⎥.
⎣ x2 − x3 ⎦
x3
x1 − 2x2 + x3
a) Ist F linear?
b) Man bestimme die Darstellungsmatrix von F in der Standardbasis.
v Lösung
a) Ja. Wir verifizieren die Linearität von F durch direktes Nachrechnen:
(L1) Es seien x = (x1 , x2 , x3 )T und y = (y1 , y2 , y3 )T zwei Vektoren in R3 . Dann
gilt:
⎡ ⎤
⎛⎡ ⎤⎞ (x1 + y1 ) − (x2 + y2 )
x1 + y1 ⎢ ⎥
⎜⎢ ⎥⎟ ⎢ (x1 + y1 ) + (x3 + y3 ) ⎥
F(x + y) = F ⎝⎣x2 + y2 ⎦⎠ = ⎢ ⎥
⎣ (x2 + y2 ) − (x3 + y3 ) ⎦
x3 + y3
(x1 + y1 ) − 2(x2 + y2 ) + (x3 + y3 )
⎡ ⎤ ⎡ ⎤
x1 − x2 y1 − y2
⎢ ⎥ ⎢ ⎥
⎢ x1 + x3 ⎥ ⎢ y1 + y3 ⎥
=⎢ ⎥+⎢ ⎥ = F(x) + F(y) "
⎣ x2 − x3 ⎦ ⎣ y2 − y3 ⎦
x1 − 2x2 + x3 y1 − 2y2 + y3
= αF(x) "
Weil beide Bedingungen (i) und (ii) erfüllt sind, ist F linear.
b) Um die Darstellungsmatrix von F zu ermitteln, müssen wir einfach die Bilder der
Basisvektoren (in der Standardbasis) bestimmen und diese als Spalten in einer
Matrix aufschreiben:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎛⎡ ⎤⎞ 1 ⎛⎡ ⎤⎞ −1 ⎛⎡ ⎤⎞ 0
1 ⎢ ⎥ 0 ⎢ ⎥ 0 ⎢ ⎥
⎜⎢ ⎥⎟ ⎢1⎥ ⎜⎢ ⎥⎟ ⎢ 0 ⎥ ⎜⎢ ⎥⎟ ⎢ 1 ⎥
F ⎝⎣0⎦⎠ = ⎢ ⎥ , F ⎝⎣1⎦⎠ = ⎢ ⎥ , F ⎝⎣0⎦⎠ = ⎢ ⎥ .
⎣0⎦ ⎣1⎦ ⎣−1⎦
0 0 1
1 −2 1
394 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
⎡ ⎤
1 −1 0
⎢1
⎢ 0 1⎥⎥
Die Darstellungsmatrix von F lautet somit M EE (F) = ⎢ ⎥.
⎣0 1 −1⎦
1 −2 1
Alternative:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎛⎡ ⎤⎞ x1 − x2 1 −1 0 ⎡ ⎤ 1 −1 0
x1 ⎢ ⎥ ⎢ x
1⎥ ⎢1 1⎥
1
⎜⎢ ⎥⎟ ⎢ x1 + x3 ⎥ ⎢1 0 ⎥⎢ ⎥ ⎢ 0 ⎥
F ⎝⎣x2 ⎦⎠ = ⎢ ⎥=⎢ ⎥ ⎣x2 ⎦ ⇒ M EE (F) = ⎢ ⎥.
⎣ x2 − x3 ⎦ ⎣0 1 −1⎦ ⎣0 1 −1⎦
x3 x3
x1 − 2x2 + x3 1 −2 1 1 −2 1
Übung 7.14
•◦◦ Es seien V und W Vektorräume mit den Basen B1 = {v1 , v2 , v3 } bzw. B2 = {w1 , w2 }.
Man finde die Darstellungsmatrix der linearen Abbildung F : V → W gegeben durch
v Lösung
Die Spalten der gesuchten Darstellungsmatrix von F enthalten die Koordinaten von
F(v1 ), F(v2 ), F(v3 ) in der Basis w1 , w2 :
- . - .
2 −4
[F(v1 )]B2 = , [F(v2 )]B2 = ,
2 −2
- . - .
0 B 2 −4 0
[F(v3 )]B2 = ⇒ M B12 (F) = .
1 2 −2 1
⎡ ⎤
-. 3 - .
2 −4 0 ⎢ ⎥ −2
Daraus folgt F(3v1 + 2v2 − v3 ) = ⎣ 2 ⎦= = −2w1 + w2 . !
2 −2 1 1
−1
Übung 7.15
• ◦ ◦ Man bestimme die Darstellungsmatrix der folgenden linearen Abbildung in der
Standardbasis:
- . - .
2×2 2 ab F a − 3b
F :R →R , A= &−→ F(A) = .
cd 2c + 4d
7.2 • Matrixdarstellung von linearen Abbildungen
395 7
v Lösung
Die Standardbasis von R2×2 besteht aus den folgenden vier Matrizen:
- . - . -. - .
10 01 00 00
E11 = , E12 = , E21 = , E22 = .
00 00 10 01
Übung 7.16
• ◦ ◦ Man bestimme die Darstellungsmatrix der folgenden linearen Abbildung in der
Standardbasis:
- . - .
2×2 2×2 ab F a+d b−c
F :R →R , A= &−→ F(A) = .
cd b−c a+d
v Lösung
Wir wenden F auf jedes Basiselement an (Standardbasis von R2×2 wie in Übung 7.15)
und drücken diese Bilder in der Standardbasis von R2×2 aus:
⎡ ⎤
-. 1
⎢0⎥
1 0 ⎢ ⎥
F(E11 ) = = E11 + E22 ⇒ [F(E11 )]E = ⎢ ⎥
0 1 ⎣0⎦
1
⎡ ⎤
-. 0
⎢1⎥
0 1 ⎢ ⎥
F(E12 ) = = E12 + E21 ⇒ [F(E12 )]E = ⎢ ⎥
1 0 ⎣1⎦
0
⎡ ⎤
- . 0
⎢−1⎥
0 −1 ⎢ ⎥
F(E21 ) = = −E12 − E21 ⇒ [F(E21 )]E = ⎢ ⎥
−1 0 ⎣−1⎦
0
⎡ ⎤
-. 1
⎢0⎥
1 0 ⎢ ⎥
F(E22 ) = = E11 + E22 ⇒ [F(E22 )]E = ⎢ ⎥ .
0 1 ⎣0⎦
1
396 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
⎡ ⎤
1 0 0 1
⎢0
⎢ 1 −1 0⎥
⎥
Es gilt somit: M EE (F) = ⎢ ⎥. !
⎣0 1 −1 0⎦
1 0 0 1
Übung 7.17 5 6
1 −2
•◦◦ Es sei B = −3 4 . Man bestimme die Darstellungsmatrix der folgenden linearen
Abbildung in der Standardbasis:
v Lösung
Wir wenden F auf jedes Element der Standardbasis von R2×2 an und bestimmen die
Koordinaten dieser Bilder in der Standardbasis von R2×2 :
⎡ ⎤
- . 1
⎢−2⎥
1 −2 ⎢ ⎥
F(E11 ) = E11 B = = E11 − 2E12 ⇒ [F(E11 )]E = ⎢ ⎥
0 0 ⎣0⎦
1
⎡ ⎤
- . −3
⎢4⎥
−3 4 ⎢ ⎥
F(E12 ) = E12 B = = −3E11 + 4E12 ⇒ [F(E12 )]E = ⎢ ⎥
0 0 ⎣1⎦
0
⎡ ⎤
- . 0
⎢0⎥
0 0 ⎢ ⎥
F(E21 ) = E21 B = = E21 − 2E22 ⇒ [F(E21 )]E = ⎢ ⎥
1 −2 ⎣1⎦
−2
⎡ ⎤
- . 0
⎢0⎥
0 0 ⎢ ⎥
F(E22 ) = E22 B = = −3E21 + 4E22 ⇒ [F(E22 )]E = ⎢ ⎥
−3 4 ⎣−3⎦
4
⎡ ⎤
1 −2 0 0 - .
⎢−3
⎢ 4 0 0⎥⎥ B 0
Es gilt somit M EE (F) = ⎢ ⎥= . !
⎣0 0 1 −2⎦ 0 B
0 0 −3 4
7.2 • Matrixdarstellung von linearen Abbildungen
397 7
Übung 7.18
• • ◦ Es sei V = C2×2 mit der Basis (Pauli-Matrizen, vgl. Übung 1.13)
7 - . - . - . - .8
10 01 0 −i 1 0
B = σ0 = , σx = , σy = , σz =
01 10 i 0 0 −1
und sei
v Lösung
Wir berechnen die Bilder der Basisvektoren σ0 , σx , σy , σz unter F
F(σ0 ) = σ0 − Spur(σ0 )E
⎤ ⎡
- . - . - . −1
⎢0⎥
1 0 1 0 −1 0 ⎢ ⎥
= −2 = = −σ0 ⇒ [F(σ0 )]B = ⎢ ⎥
0 1 0 1 0 −1 ⎣0⎦
0
F(σx ) = σx − Spur(σx )E
⎡ ⎤
- . - . - . 0
⎢1⎥
0 1 1 0 0 1 ⎢ ⎥
= −0 = = σx ⇒ [F(σx )]B = ⎢ ⎥
1 0 0 1 1 0 ⎣0⎦
0
F(σy ) = σy − Spur(σy )E
⎡ ⎤
- . - . - . 0
⎢0⎥
0 −i 1 0 0 −i ⎢ ⎥
= −0 = = σy ⇒ [F(σy )]B = ⎢ ⎥
i 0 0 1 i 0 ⎣1⎦
0
F(σz ) = σz − Spur(σz )E
⎡ ⎤
- . - - . . 0
⎢0⎥
1 0 1 0 1 0 ⎢ ⎥
= −0 = = σz ⇒ [F(σz )]B = ⎢ ⎥
0 −1 0 1 0 −1 ⎣0⎦
1
⎡ ⎤
−1 0 0 0
⎢0
⎢ 1 0 0⎥
⎥
Somit lautet die gesuchte Darstellungsmatrix M B
B (F) = ⎢ ⎥. !
⎣0 0 1 0⎦
0 0 0 1
398 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
Übung 7.19
• ◦ ◦ Es sei V = ⟨sin(x), cos(x)⟩ versehen mit der Basis B = {sin(x), cos(x)}. Man
betrachte die lineare Abbildung F : V → V , ϕ → F(ϕ) = dϕdx .
a) Man finde die Darstellungsmatrix von F in der Basis B.
b) Man berechne die Ableitung von 2 sin(x) + 3 cos(x) mithilfe der in (a) bestimmten
Darstellungsmatrix.
v Lösung
a) Die Darstellungsmatrix von F in der Basis B = {sin(x), cos(x)} bestimmen wir
einfach, indem wir die Bilder der Basiselemente berechnen. Es gilt:
- .
d 0
F(sin(x)) = sin(x) = cos(x) ⇒ [F(sin(x))]B =
dx 1
- .
d −1
F(cos(x)) = cos(x) = − sin(x) ⇒ [F(cos(x))]B = .
dx 0
. -
0 −1
Die gesuchte Darstellungsmatrix lautet somit = MB
B (F)
.
1 0
b) Nun können wir mithilfe der in (a) bestimmten Darstellungsmatrix von F die
Ableitung von 3 cos(x) + 2 sin(x) berechnen
- . - .- . - .
2 0 −1 2 −3
[2 sin(x) + 3 cos(x)]B = ⇒ F(2 sin(x) + 3 cos(x)) = = .
3 1 0 3 2
Übung 7.20
• • ◦ Es sei P2 (R) der Vektorraum der reellen Polynome vom Grad ≤ 2 mit der
Standardbasis E = {1, x, x2 } und sei
v Lösung
a) Wir wenden F auf jedes Element der Basis E = {1, x, x2 } an:
⎡ ⎤−1 ⎡ ⎤
9 :−1 3 4 2 9 −12 26
⎢ ⎥ 1 ⎢ ⎥
M EE (F −1 ) = M EE (F) = ⎣0 3 8⎦ = ⎣0 9 −24⎦ .
27
0 0 3 0 0 9
x 1
⇒ p(x) = − .
3 9
Übung 7.21
• ◦ ◦ Sei P2 (R) der Vektorraum der reellen Polynome vom Grad ≤ 2. Wir betrachten
die folgende lineare Abbildung
/? 0
1
′ 2
F : P2 (R) → P2 (R), p(x) → F(p(x)) = p (x) − x p(y)dy .
0
Man bestimme die Darstellungsmatrix von F 2 +2F in der Standardbasis (bei F 2 handelt
es sich um F ◦ F, d. h. um die Komposition von F mit sich selbst).
400 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
v Lösung
Wir wenden F auf jedes Element der Standardbasis an:
⎤ ⎡
/? 0 0
1
⎢ ⎥
F(1) = 0 − x2 1 dy = −x2 ⇒ [F(1)]E = ⎣ 0 ⎦
0
−1
⎡ ⎤
/? 0 1
1 x2
2 ⎢ ⎥
F(x) = 1 − x y dy = 1 − ⇒ [F(x)]E = ⎣ 0 ⎦
0 2
− 12
⎡ ⎤
/? 0 0
1 x2
2 2 2 ⎢ ⎥
F(x ) = 2x − x y dy = 2x − ⇒ [F(x2 )]E = ⎣ 2 ⎦
0 3
− 13
Übung 7.22
• ◦ ◦ Es sei n ≥ 2. Man betrachte die linearen Abbildungen F1 , F2 , F3 : Pn (R) →
Pn+1 (R) definiert durch
?
dp(x) d 2 p(x) x
F1 (p(x)) = , F2 (p(x)) = , F3 (p(x)) = p(s)ds.
dx dx2 0
v Lösung
{F1 , F2 , F3 } sind linear unabhängig, wenn die Gleichung α F1 (p)+β F2 (p)+γ F3 (p) = 0
nur die triviale Lösung α = β = γ = 0 hat. Beachte, dass diese Gleichung für alle
p ∈ Pn (R) gilt. Insbesondere gilt sie für p(x) = 1, p(x) = x und p(x) = x2 :
p(x) = 1 ⇒ α F1 (1) + β F2 (1) + γ F3 (1) = γ x = 0
x2
p(x) = x ⇒ α F1 (x) + β F2 (x) + γ F3 (x) = α + γ =0
2
x3
p(x) = x2 ⇒ α F1 (x2 ) + β F2 (x2 ) + γ F3 (x2 ) = 2α x + 2β + γ = 0.
3
7.2 • Matrixdarstellung von linearen Abbildungen
401 7
Aus der ersten Gleichung folgt γ = 0. Aus der zweiten Gleichung folgt dann α = 0 und
die dritte Gleichung impliziert β = 0. Somit sind {F1 , F2 , F3 } linear unabhängig. !
Übung 7.23
• ◦ ◦ Man betrachte den R-Vektorraum V = C. Es sei f : C → C, z → f (z) = z
(vgl. Übung 7.9).
a) Man bestimme die Darstellungsmatrix von f bezüglich der Standardbasis E =
{1, i}.
b) Man berechne 2 + 3i mithilfe der in (a) bestimmten Darstellungsmatrix.
v Lösung
a) Wir berechnen das Bild der Basiselementen unter f :
- . - .
1 0
f (1) = 1 = 1 ⇒ [f (1)]E = , f (i) = i = −i ⇒ [f (i)]E =
0 −1
- .
1 0
Die Darstellungsmatrix von f ist somit M EE (f ) = .
0 −1
b) Es gilt:
- . - .- . - .
2 1 0 2 2
[2+3i]E = ⇒ f (2+3i) = = ⇒ f (2+3i) = 2−3i.
3 0 −1 3 −3
Probe: 2 + 3i = 2 − 3i " !
Übung 7.24
• • ◦ Man betrachte die folgenden linearen Abbildungen:
⎡ ⎤
a
⎢ ⎥ F1
F1 : R3 → P2 (R), ⎣b⎦ &−→ a + (a + b)x + (a + b + c)x2
c
- .
2×2 2 F2 a+b a+c
F2 : P2 (R) → R , a + bx + cx &−→ .
b−c b−c
v Lösung
a) Darstellungsmatrix von F1 . Wir wenden F1 auf jedes Standardbasiselement von R3
an:
⎛⎡ ⎤⎞ ⎛⎡ ⎤⎞ ⎛⎡ ⎤⎞
1 0 0
⎜⎢ ⎥⎟ ⎜⎢ ⎥⎟ ⎜⎢ ⎥⎟
F1 ⎝⎣0⎦⎠ = 1 + x + x2 , F1 ⎝⎣1⎦⎠ = x + x2 , F1 ⎝⎣0⎦⎠ = x2 .
0 0 1
In der Standardbasis von P2 (R) entsprechen diese Bilder den folgenden Koordina-
tenvektoren:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
5 6 1 5 6 0 5 6 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
1 + x + x2 = ⎣1⎦ , x + x2 = ⎣1⎦ , x2 = ⎣0⎦ .
E E E
1 1 1
⎤ ⎡
1 0 0
⎢ ⎥
Es gilt somit M EE (F1 ) = ⎣1 1 0⎦ .
1 1 1
Darstellungsmatrix von F2 . Es gilt:
⎡ ⎤
- . 1
⎢1⎥
11 ⎢ ⎥
F2 (1) = = E11 + E12 ⇒ [F2 (1)]E = ⎢ ⎥
00 ⎣0⎦
0
⎡ ⎤
- . 1
⎢0⎥
10 ⎢ ⎥
F2 (x) = = E11 + E21 + E22 ⇒ [F2 (x)]E = ⎢ ⎥
11 ⎣1⎦
1
⎡ ⎤
- . 0
⎢1⎥
0 1 ⎢ ⎥
F2 (x2 ) = = E12 − E21 − E22 ⇒ [F2 (x2 )]E = ⎢ ⎥ .
−1 −1 ⎣−1⎦
−1
⎡ ⎤
1 1 0
⎢1
⎢ 0 1⎥ ⎥
Die Darstellungsmatrix von F2 lautet somit M EE (F2 ) = ⎢ ⎥.
⎣0 1 −1⎦
0 1 −1
b) Die Darstellungsmatrix der Komposition F2 ◦ F1 ist einfach das Produkt der
Darstellungsmatrizen von F2 und F1 (Satz 7.6):
⎡ ⎤ ⎡ ⎤
1 1 0 ⎡ ⎤ 2 1 0
⎢1 1 0 0
0 1⎥ ⎢
E E E ⎢ ⎥⎢ ⎥ ⎢2 1 1⎥ ⎥
M E (F2 ◦ F1 ) = M E (F2 )M E (F1 ) = ⎢ ⎥ ⎣1 1 0⎦ = ⎢ ⎥.
⎣0 1 −1⎦ ⎣0 0 −1⎦
1 1 1
0 1 −1 0 0 −1 !
7.2 • Matrixdarstellung von linearen Abbildungen
403 7
Übung 7.25
• • ◦ Es sei P2,2 (R) der Vektorraum der reellen Polynome in den zwei Variablen x und
y mit Totalgrad ≤ 2 (vgl. Übung 6.25). Man betrachte die lineare Abbildung
@ A
∂ ∂
F : P2,2 (R) → P2,2 (R), p(x, y) → x −y p(x, y).
∂y ∂x
Man finde die Darstellungsmatrix von F bezüglich der Standardbasis von P2,2 (R).
v Lösung
Die Standardbasis von P2,2 (R) ist E = {1, x, y, x2 , xy, y2 } (vgl. Übung 6.25). Wie üblich
bestimmen wir die Bilder der Basisvektoren unter der Abbildung F:
⎡ ⎤
@ A 0
∂ ∂ ⎢0⎥
F(1) = x −y 1=0 ⇒ [F(1)]E = ⎣ 00 ⎦
∂y ∂x 0
0
⎡ ⎤
@ A 0
∂ ∂ 0
⎢ −1 ⎥
F(x) = x −y x = −y ⇒ [F(x)]E = ⎣ 0 ⎦
∂y ∂x 0
0
⎡0⎤
@ A 1
∂ ∂
F(y) = x −y y=x ⇒ [F(y)]E = ⎣ 00 ⎦
∂y ∂x 0
0
⎡ ⎤
@ A 0
∂ ∂ 0
⎢ 0 ⎥
F(x2 ) = x −y x2 = −2xy ⇒ [F(x2 )]E = ⎣ 0 ⎦
∂y ∂x −2
0
⎡ ⎤
@ A 0
∂ ∂ 0
⎢ 0 ⎥
F(xy) = x −y xy = x2 − y2 ⇒ [F(xy)]E = ⎣ 1 ⎦
∂y ∂x 0
−1
⎡0⎤
@ A 0
2 ∂ ∂
F(y ) = x −y y2 = 2xy 2
⇒ [F(y )]E = ⎣ 00 ⎦
∂y ∂x 2
0
⎡ ⎤
0 0 0 0 0 0
⎢ ⎥
⎢0 0 1 0 0 0⎥
⎢ ⎥
⎢0 −1 0 0 0 0⎥
Die Darstellungsmatrix von F lautet somit M E (F) = ⎢
E
⎢0
⎥. !
⎢ 0 0 0 1 0⎥⎥
⎢ ⎥
⎣0 0 0 −2 0 2⎦
0 0 0 0 −1 0
404 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
> Bemerkung
Beachte, dass die Darstellunsgmatrix in Übung 7.25 eine Blockdiagonalmatrix ist.
Grund dafür ist, dass F Polynome vom Totalgrad k auf Polynome vom Totalgrad
k abbildet. Wir können uns somit auf die Unterräume {1}, 2 2
B {x, y}C und {x , xy, y }
3 0 14 0 1 0
einschränken, wobei F durch die Matrizen 0, −1 0 bzw. −2 0 2 dargestellt wird.
0 −1 0
B C
E
3 0 14 0 1 0
Wegen Übung 5.28 können wir schreiben: M E (F) = 0 ⊕ −1 0 ⊕ −2 0 2 . Diese
0 −1 0
Eigenschaft hat mit sogenannten invarianten Unterräumen zu tun, welche wir im Band
II genauer unter die Lupe nehmen werden.
Übung 7.26
• • ◦ In der Kontinuumsmechanik ist das Hooke’sche Gesetz eine Beziehung zwischen
dem Verzerrungstensor ϵ und dem Spannungstensor σ :
σ = 2µ ϵ + λ Spur(ϵ) E
50 ϵ 06
b) Eine Scherung in der x1 x2 -Ebene ist durch ϵ = ϵ 00 beschrieben. Man bestimme
000
den entsprechenden Spannungstensor σ .
v Lösung
a) Wir wenden das Hooke’sche Gesetz auf jedes Basiselement an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 2µ 0 0 λ 0 0 2µ + λ 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
ϵ1 = ⎣0 0 0⎦ ⇒ σ1 = ⎣ 0 0 0⎦ + ⎣ 0 λ 0⎦ = ⎣ 0 λ 0⎦
0 0 0 0 0 0 0 0 λ 0 0 λ
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0 λ 0 0 λ 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
ϵ2 = ⎣0 1 0⎦ ⇒ σ2 = ⎣0 2µ 0⎦ + ⎣0 λ 0⎦ = ⎣0 2µ + λ 0⎦
0 0 0 0 0 0 0 0 λ 0 0 λ
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0 λ 0 0 λ 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
ϵ3 = ⎣0 0 0⎦ ⇒ σ3 = ⎣0 0 0 ⎦ + ⎣0 λ 0⎦ = ⎣0 λ 0 ⎦
0 0 1 0 0 2µ 0 0 λ 0 0 2µ + λ
⎡ ⎤ ⎡ ⎤
0 1 0 0 2µ 0
⎢ ⎥ ⎢ ⎥
ϵ4 = ⎣1 0 0⎦ ⇒ σ4 = ⎣2µ 0 0⎦
0 0 0 0 0 0
7.2 • Matrixdarstellung von linearen Abbildungen
405 7
⎡ ⎤ ⎡ ⎤
0 0 1 0 0 2µ
⎢ ⎥ ⎢ ⎥
ϵ5 = ⎣0 0 0⎦ ⇒ σ5 = ⎣ 0 0 0 ⎦
1 0 0 2µ 0 0
⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0
⎢ ⎥ ⎢ ⎥
ϵ6 = ⎣0 0 1⎦ ⇒ σ6 = ⎣0 0 2µ⎦
0 1 0 0 2µ 0
⎡ ⎤
0
⎡⎤ ⎡ ⎤ ⎢ ⎥
⎢0⎥
0ϵ0 010 ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢0⎥
b) Es gilt ϵ = ⎣ϵ 0 0⎦ = ϵ ⎣1 0 0⎦ = ϵ ϵ4 ⇒ [ϵ]B = ⎢ ⎥
⎢ϵ ⎥. Somit
⎢ ⎥
000 000 ⎢ ⎥
⎣0⎦
0
⎡ ⎤⎡ ⎤ ⎡ ⎤
2µ + λ λ λ 0 0 0 0 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ λ 2µ + λ λ 0 0 0 ⎥ ⎢0⎥ ⎢ 0 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ λ 2µ + λ 0 0 0⎥ ⎢ ⎥ ⎢ ⎥
σ =⎢
λ ⎥ ⎢0⎥ = ⎢ 0 ⎥ ⇒ σ
⎢ 0 0 0 2µ 0 0⎥ ⎢ϵ ⎥ ⎢2µϵ ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ 0 0 0 0 2µ 0 ⎦ ⎣0⎦ ⎣ 0 ⎦
0 0 0 0 0 2µ 0 0
⎡ ⎤
010
⎢ ⎥
= 2µϵ ⎣1 0 0⎦ .
000 !
Übung 7.27
• ◦ ◦ Es seien F : V → V linear und B1 , B2 Basen von V . Man zeige
9 :−1
B B
M B21 (F −1 ) = M B12 (F) .
406 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
v Lösung
B B
Es gilt: M B11 (id) = M B22 (id) = E (die Darstellungsmatrix der Identitätsabbildung ist
die Identitätsmatrix). Wegen id = F −1 ◦ F = F ◦ F −1 folgt mit der Regel für die
Komposition von Darstellungsmatrizen:
9 :−1
B B B B B B
E = M B11 (id) = M B11 (F −1 ◦ F) = M B21 (F −1 )M B12 (F) ⇒ M B21 (F −1 ) = M B12 (F) .
!
Übung 7.28
••◦ Sei V ein reeller Vektorraum mit Basis B = {ex , 1, x, x2 }. Man betrachte die lineare
Abbildung
v Lösung
a) Um die Darstellungsmatrix von L zu bestimmen, wenden wir L auf die verschiede-
nen Basiselementen von B an:
⎡ ⎤ ⎡ ⎤
2 0
⎢0⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥
L(ex ) = 2ex ⇒ [L(ex )]B = ⎢ ⎥, L(1) = 0 + 1 = 1 ⇒ [L(1)]B = ⎢ ⎥,
⎣0⎦ ⎣0⎦
0 0
⎡ ⎤ ⎡ ⎤
0 0
⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
L(x) = 1 + x ⇒ [L(x)]B = ⎢ ⎥, L(x2 ) = 2x + x2 ⇒ [L(x2 )]B = ⎢ ⎥ .
⎣1⎦ ⎣2⎦
0 1
⎡ ⎤
2000
⎢0 1 1 0⎥
⎢ ⎥
Die Darstellungsmatrix von L bezüglich der Basis B lautet M B B (L) = ⎢ ⎥.
⎣0 0 1 2⎦
0001
b) Die Differenzialgleichung ist L(y(x)) = ex +2x2 . Wir suchen eine Lösung der Form
y(x) = aex + b + cx + dx2 . In der Basis B entspricht dies dem Koordinatenvektor
[a, b, c, d]T . In der Basis B ausgedrückt entspricht die rechte Seite der Differenzial-
7.2 • Matrixdarstellung von linearen Abbildungen
407 7
gleichung dem Vektor [ex + 2x2 ]B = [1, 0, 0, 2]T . Mithilfe der Darstellungsmatrix
von L können wir die Differenzialgleichung in einem LGS umgewandeln
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 1 ⎤
2 0 0 0 a 1 a 2
⎢0 0⎥ ⎢ b ⎥ ⎢0⎥
⎥ ⎢ ⎥ ⎢ ⎢b⎥ ⎢ 4 ⎥ ex
⎢ 1 1 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥⎢ ⎥ = ⎢ ⎥ ⇒ ⎢ ⎥=⎢ ⎥ ⇒ y(x) = + 2x2 − 4x + 4.
⎣0 0 1 2⎦ ⎣ c ⎦ ⎣0⎦ ⎣ c ⎦ ⎣−4⎦ 2
0 0 0 1 d 2 d 2
ex
Die Lösung ist somit y(x) = 2 + 2x2 − 4x + 4. !
Übung 7.29
• • ◦ Sei V ein reeller Vektorraum mit Basis B = {1, ex , e2x , e3x }. Man betrachte die
lineare Abbildung
v Lösung
a) Wir gehen wie in Übung 7.28 vor und wenden L auf alle Basiselemente an:
⎡ ⎤ ⎡ ⎤
2 0
⎢0⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
L(1) = 2 ⇒ [L(1)]B = ⎢ ⎥ , L(ex ) = 0 ⇒ [L(ex )]B = ⎢ ⎥ ,
⎣0⎦ ⎣0⎦
0 0
⎡ ⎤ ⎡ ⎤
0 0
⎢0⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
L(e2x ) = 0 ⇒ [L(e2x )]B = ⎢ ⎥ , L(e3x ) = 2e3x ⇒ [L(e3x )]B = ⎢ ⎥
⎣0⎦ ⎣0⎦
0 2
⎡ ⎤
2 0 0 0
⎢0
⎢ 0 0 0⎥⎥
Somit M B
B (L) = ⎢ ⎥.
⎣0 0 0 0⎦
0 0 0 2
b) Die Differenzialgleichung ist L(y(x)) = ex + 2x2 . Wir suchen eine Lösung der Form
y(x) = a + bex + ce2x + de3x , was dem Koordinatenvektor [a, b, c, d]T entspricht. In
der Basis B ausgedrückt entspricht die rechte Seite der Differenzialgleichung dem
Vektor [e3x − 3]B = [−3, 0, 0, 1]T . Mithilfe der Darstellungsmatrix von L können
wir unsere Differenzialgleichung wie folgt schreiben:
408 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 3⎤ ⎡ ⎤ ⎡ ⎤
2 0 0 0 a −3 a −2 0 0
⎢0 0⎥ ⎢ ⎥ ⎢ ⎥ ⎢b⎥ ⎢ 0 ⎥ ⎢1⎥ ⎢0⎥
⎢ 0 0 ⎥ ⎢b⎥ ⎢ 0 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥⎢ ⎥ = ⎢ ⎥ ⇒ ⎢ ⎥ = ⎢ ⎥ + t ⎢ ⎥ + s ⎢ ⎥ , t, s ∈ R.
⎣0 0 0 0⎦ ⎣ c ⎦ ⎣ 0 ⎦ ⎣c⎦ ⎣ 0 ⎦ ⎣0⎦ ⎣1⎦
1
0 0 0 2 d 1 d 2 0 0
e3x − 3
y(x) = + t ex + s e2x , t, s ∈ R.
2
Beachte, dass die Lösung 2 freie Parameter t, s hat. Diese sind die Integrationskon-
stanten der Differenzialgleichung (werden durch Anfangs- oder Randbedingungen
festgelegt). !
- .
α 0
Streckung (Reskalierung) um Faktor α
0 α
- .
Reskalierung mit unterschiedlichen Faktoren (in α1 0
x1 -Richtung um α1 , in x2 -Richtung um α2 ) 0 α2
7.3 • Wichtige lineare Abbildungen
409 7
Spiegelungen
- .
1 0
Spiegelung an der x1 -Achse
0 −1
- .
−1 0
Spiegelung an der x2 -Achse
0 1
- .
−1 0
(Punkt-)Spiegelung am Nullpunkt (= Streckung
0 −1
um -1)
- .
01
Spiegelung an der Geraden x2 = x1 bzw. 45◦ -Achse
10
Rotationen
- .
cos(ϕ) − sin(ϕ)
Rotation um Winkel ϕ in positiver Richtung (Ge-
sin(ϕ) cos(ϕ)
genuhrzeigersinn)
Projektionen
- .
10
Projektion auf die x1 -Achse
00
- .
00
Projektion auf die x2 -Achse
01
Scherungen
- .
1β
Horizontale Scherung
0 1
- .
1 0
Vertikale Scherung
β 1
410 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
⎡ ⎤
α 0 0
⎢ ⎥
Streckung um α > 0 ⎣0 α 0⎦
0 0 α
⎡ ⎤
α1 0 0
⎢ ⎥
Reskalierung um α1 in x1 -Richtung, α2 in x2 - ⎣ 0 α2 0 ⎦
Richtung, und um α3 in x3 -Richtung 0 0 α3
Spiegelungen
⎡ ⎤
10 0
⎢ ⎥
Spiegelung an der x1 x2 -Ebene ⎣0 1 0 ⎦
0 0 −1
⎡ ⎤
1 0 0
⎢ ⎥
Spiegelung an der x1 x3 -Ebene ⎣0 −1 0⎦
0 0 1
⎡ ⎤
−1 0 0
⎢ ⎥
Spiegelung an der x2 x3 -Ebene ⎣ 0 1 0⎦
0 01
7.3 • Wichtige lineare Abbildungen
411 7
⎡ ⎤
−1 0 0
⎢ ⎥
(Punkt-)Spiegelung am Nullpunkt ⎣ 0 −1 0 ⎦
0 0 −1
Rotationen
⎡ ⎤
1 0 0
⎢ ⎥
Rotation um den Winkel ϕ um x1 -Achse in positi- ⎣0 cos(ϕ) − sin(ϕ)⎦
ver Richtung 0 sin(ϕ) cos(ϕ)
⎡ ⎤
cos(ϕ) 0 sin(ϕ)
⎢ ⎥
Rotation um den Winkel ϕ um x2 -Achse in positi- ⎣ 0 1 0 ⎦
ver Richtung − sin(ϕ) 0 cos(ϕ)
⎡ ⎤
cos(ϕ) − sin(ϕ) 0
⎢ ⎥
Rotation um ’ den Winkel ϕ um x3 -Achse in positi- ⎣ sin(ϕ) cos(ϕ) 0⎦
ver Richtung 0 0 1
Sherungen
⎡ ⎤
1β 0
⎢ ⎥
Scherung ⎣0 1 0⎦
0 0 1
⎡ ⎤
10β
⎢ ⎥
Scherung ⎣0 1 0 ⎦
00 1
⎡ ⎤
10 0
⎢ ⎥
Scherung ⎣0 1 β ⎦
00 1
412 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
Projektionen
⎡ ⎤
100
⎢ ⎥
Projektion auf die x1 x2 - ⎣0 1 0⎦
Ebene 000
⎡ ⎤
100
⎢ ⎥
Projektion auf die x1 x3 - ⎣0 0 0⎦
Ebene 001
⎡ ⎤
000
⎢ ⎥
Projektion auf die x2 x3 - ⎣0 1 0⎦
Ebene 001
Allgemeine Formeln
vvT
Spiegelung an Gerade x = 2 ||v||2 −E
t v (v = Richtungsvektor)
v vT
Projektion auf die Gerade ||v||2
x = t v (v = Richtungsvek-
tor)
cos(ϕ) E + T
Rotation um den Winkel
5 v1 ϕ6 C vv
B (1 − cos(ϕ))
0 −v3 v2
um Drehachse v = v2 + sin(ϕ) v3 0 −v1
v3
−v2 v1 0
(v muss ein Einheitsvektor
sein)
nn T
Spiegelung an Ebene x·n = E − 2 ||n||2
0 (n = Normale)
n nT
Projektion auf die Ebene x· E− ||n||2
n = 0 (n = Normale)
7.3 • Wichtige lineare Abbildungen
413 7
Übung 7.30
• ◦ ◦ Man bestimme die Darstellungsmatrizen der folgenden linearen Abbildungen in
der Standardbasis:
a) F1 = Streckung in R2 um α > 0.
b) F2 = Spiegelung in R2 an der Geraden x1 = x2 .
c) F3 = Rotation in R2 um Winkel ϕ.
d) F4 = Projektion in R3 auf die x2 x3 -Ebene.
e) F5 = Projektion in R3 auf den Vektor v = [a, b, c]T .
f) F6 = Spiegelung in R3 an dem Vektor v = [a, b, c]T .
v Lösung
Wir erinnern uns daran, dass die Darstellungsmatrix einer linearen Abbildung durch
deren Wirkung auf die Basiselemente bestimmt ist. Der Trick bei dieser Aufgabe ist
es also, die entsprechende Abbildung an den Standardbasisvektoren e1 , e2 des R2
bzw. e1 , e2 , e3 des R3 anzuwenden (mit Skizze).
a) Wir betrachten die Wirkung einer Streckung um α > 0 an den Basisvektoren e1 , e2 .
Jeder Basisvektor wird mit einen Faktor α multipliziert:
- . - .
α 0
F1 (e1 ) = , F1 (e2 ) = .
0 α
. -
α 0
Die Darstellungsmatrix von F1 lautet somit = M EE (F1 )
.
0α
b) Bei der Spiegelung an der Geraden x1 = x2 werden alle Vektoren an der Achse
x1 = x2 gespiegelt. Somit werden die Basisvektoren e1 , e2 wie folgt abgebildet:
- . - . - .
0 1 E 01
F2 (e1 ) = , F2 (e2 ) = ⇒ M E (F2 ) = .
1 0 10
d) Bei der Projektion auf die x2 x3 -Ebene werden die Basisvektoren e1 , e2 , e3 wie folgt
abgebildet:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 0 000
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F4 (e1 ) = ⎣0⎦ , F4 (e2 ) = ⎣1⎦ , F4 (e3 ) = ⎣0⎦ ⇒ M EE (F4 ) = ⎣0 1 0⎦ .
0 0 1 001
Alternative: Die auf die x2 x3 -Ebene ist F54 : R36→ R3 , [x1 , x2 , x3 ]T → [0, x2 , x3 ]T .
000
Die Darstellungsmatrix von F4 ist somit 010 .
001
414 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung
b c
e) Die Formel für die orthogonale Projektion eines Vektors x auf v = [a, b, c]T lautet
(vgl. Anhang A):
⎡ ⎤
a
x·v x·v ⎢ ⎥
Projv (x) = v = F ⎣ b⎦ .
||v||2 a2 + b2 + c2
c
Wenden wir diese Abbildung auf die Basisvektoren e1 , e2 , e3 an, so bekommen wir:
⎡ ⎤ ⎡ ⎤
1 a
⎢ ⎥ ⎢ ⎥
·
⎣0⎦ ⎣b⎦ ⎡ ⎤ ⎡ ⎤
a a
0 c ⎢ ⎥ a ⎢ ⎥
F5 (e1 ) = F ⎣b⎦ = 2 2 + c2 ⎣b⎦ ,
2 2
a +b +c 2 a + b
c c
⎡ ⎤ ⎡ ⎤
0 a
⎢ ⎥ ⎢ ⎥
⎣1⎦ · ⎣b⎦ ⎡ ⎤ ⎡ ⎤
a a
0 c ⎢ ⎥ b ⎢ ⎥
F5 (e2 ) = F ⎣b⎦ = 2 2 + c2 ⎣b⎦
2 2
a +b +c 2 a + b
c c
⎡ ⎤ ⎡ ⎤
0 a
⎢ ⎥ ⎢ ⎥
⎣0⎦ · ⎣b⎦ ⎡ ⎤ ⎡ ⎤
a a
1 c ⎢ ⎥ c ⎢ ⎥
F5 (e3 ) = F ⎣b⎦ = 2 ⎣b⎦ .
a2 + b2 + c2 a + b2 + c2
c c
7.3 • Wichtige lineare Abbildungen
415 7
. Abb. 7.8 Übung 7.30
Die Darstellungsmatrix der Spiegelung an dem Vektor [a, b, c]T lautet somit:
⎡ ⎤ ⎡ ⎤
a2 ab ac 1 0 0
2 ⎢ ⎥ ⎢ ⎥
M EE (F6 ) = 2 ⎣ab b2 bc⎦ − ⎣0 1 0⎦
a + b2 + c2 2
ac bc c 0 0 1
⎡ ⎤
a2 − b2 − c2 2ab 2ac
1 ⎢ ⎥
= 2 ⎣ 2ab b2 − a2 − c2 2bc ⎦.
a + b2 + c2 2 2 2
2ac 2bc c − a − b
Übung 7.31
• ◦ ◦ Welche Abbildungen werden von den folgenden Matrizen in der Standardbasis
dargestellt?
- √ .
1 1 3
a) 2 √
− 3 1
⎡ ⎤
√1 − √1 0
⎢ 2 2 ⎥
b) ⎢ 1 1 ⎥
⎣ √2 √2 0⎦
0 0 0
v Lösung
a) Es gilt
- √ . - 1 √ . - 1 2 1 2.
1 3
1 3 2√ 2 cos − π3 − sin − π3
√ = = 1 2 1 2 .
2 − 3 1 − 23 1
2
sin − π3 cos − π3
b) Wegen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
√1 − √1 0 √1 − √1 0 100
⎢ 2 2 ⎥ ⎢ 2 2 ⎥ ⎢ ⎥
⎢ √1 √1 0⎥ ⎢ √1 √1 0⎥
⎣ 2 2 ⎦= ⎣ 2 2 ⎦ ⎣0 1 0⎦
0 0 0 0 0 1 000
; <= > ; <= >
Rotation um ϕ= π4 Projektion auf x1 x2 -Ebene
repräsentiert die Matrix eine Projektion auf die x1 x2 -Ebene, gefolgt von einer
Drehung in dieser Ebene um 45◦ . !
Diese Klassifikationen lassen sich sehr schön auch anhand der Bilder in der Tabelle
von 7 Abschn. 7.3 nachvollziehen.
7.3 • Wichtige lineare Abbildungen
417 7
> Bemerkung
Die Bedingung AT A = E (A orthogonal) besagt, dass Drehungen und Spiegelungen die
Länge von Vektoren und die Winkel zwischen Vektoren invariant lassen (vgl. Lineare
Algebra II, Vektorräume mit Skalarprodukt). Die Bedingung det(A) = 1 besagt, dass
Drehungen orientierungserhaltend bleiben. Spiegelungen haben det(A) = −1, sie sind
orientierungsumkehrend. Die Bedingung A2 = A bedeutet, dass beim zweimalprojizie-
ren das zweite Mal nichts passiert.
Übung 7.32
• ◦ ◦ Man
⎡ betrachte⎤die Abbildungen mit den folgenden Darstellungsmatrizen
0 −1 0
⎢ ⎥
a) A = ⎣0 0 −1⎦ ,
1 0 0
⎡ ⎤
0 −1 −1
⎢ ⎥
b) A = ⎣−1 0 −1⎦
1 1 2
- .
1 a2 − b2 2ab
c) A = a2 +b2 ,
2ab b2 − a2
⎡ ⎤
1 −1 0
⎢ ⎥
d) A = ⎣−1 1 0⎦ .
1 1 2
v Lösung
a) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤
0 −1 0 0 0 1 100
⎢ ⎥⎢ ⎥ ⎢ ⎥
AT A = ⎣0 0 −1⎦ ⎣−1 0 0⎦ = ⎣0 1 0⎦ = E und det(A) = 1
1 0 0 0 −1 0 001
- .
1 a2 − b2 2ab −(a2 − b2 )2 − 4a2 b2
det(A) = 2 2 2
det 2 2
= = −1
(a + b ) 2ab b − a (a2 + b2 )2
repräsentiert A eine Spiegelung (es ist die Spiegelung an dem Vektor [a, b]T ).
d) Es gilt:
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 −1 0 1 −1 0 2 −2 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
A2 = ⎣−1 1 0⎦ ⎣−1 1 0⎦ = ⎣−2 2 0⎦ = 2A.
1 1 2 1 1 2 2 2 4
Was heißt dies? Es bedeutet, dass A „fast“ eine Projektion ist. Definieren wir P =
1
2 A, so haben wir genau eine Projektion
⎡ ⎤⎡ ⎤ ⎡ ⎤
1
− 21 0
2
1
2 −2 0
1 1
2 −2 0
1
⎢ ⎥⎢ ⎥ ⎢ ⎥
P = ⎣− 12 12 0⎦ ⎣− 12 12 0⎦ = ⎣− 12 12 0⎦ = P ⇒ P ist eine Projektion
1 1 1 1 1 1
2 2 1 2 2 1 2 2 1
Somit ist A = 2EP, d. h., A ist das Produkt einer Streckung (2E) und einer
Projektion (P). !
Übung 7.33
• ◦ ◦ Es sei E = {v ∈ R3 | v · n = 0} die Ebene mit der Normalen n. Die Projektion auf
E ist durch der folgenden Matrix beschrieben (7 vgl. Tabelle in Abschn. 7.3):
n nT
P=E− .
||n||2
v Lösung
a) Wir rechnen nach:
=||n||2
=>;<
@ A@ A
2 n nT n nT n nT n nT n nT
P = E− E− =E−2 +
||n||2 ||n||2 ||n||2 ||n||4
n nT n ||n||2 nT n nT n nT n nT
=E−2 + = E − 2 + = E − = P.
||n||2 ||n||4 ||n||2 ||n||2 ||n||2
> Bemerkung
Erinnerung: Für Vektoren in R3 gilt vT v = v · v = ||v||2 (vgl. Anhang BA.1.1).
7.3 • Wichtige lineare Abbildungen
419 7
Übung 7.34
• • ◦ Es sei n = [n1 , n2 , n3 ]T ein Einheitsvektor. Die Rotation um den Winkel ϕ um
Drehachse n ist gegeben durch die Matrixdarstellung
⎡ ⎤
0 −n3 n2
⎢ ⎥
R = cos ϕ E + sin ϕ N + (1 − cos ϕ)nnT , N = ⎣ n3 0 −n1 ⎦ .
−n2 n1 0
v Lösung
a) Wir rechnen nach:
⎡ ⎤ ⎡ ⎤
n1 5 6 n21 n1 n2 n1 n3
⎢ ⎥ ⎢ ⎥
nnT = ⎣n2 ⎦ n1 n2 n3 = ⎣n1 n2 n22 n2 n3 ⎦ .
n3 n1 n3 n2 n3 n23
1 2T
Man sieht, dass nnT symmetrisch ist ⇒ nnT = nnT . Alternativ kann man
1 T 2T 1 T 2T T
dies direkt nachweisen: nn = n n = nnT . Die Matrix N ist hingegen
schiefsymmetrisch
⎡ ⎤
0 n3 −n2
⎢ ⎥
N T = ⎣−n3 0 n1 ⎦ = −N.
n2 −n1 0
Wir erhalten:
@ 9 :T A
RT R = cos ϕ E + sin ϕ N T + (1 − cos ϕ) nnT
9 :
× cos ϕ E + sin ϕ N + (1 − cos ϕ)nnT
9 :9 :
= cos ϕ E − sin ϕ N + (1 − cos ϕ)nnT cos ϕ E + sin ϕ N + (1 − cos ϕ)nnT
Es gilt
⎡ ⎤⎡ ⎤ ⎡ ⎤
0 −n3 n2 n21 n1 n2 n1 n3 000
⎢ ⎥⎢ ⎥ ⎢ ⎥
NnnT = ⎣ n3 0 −n1 ⎦ ⎣n1 n2 n22 n2 n3 ⎦ = ⎣0 0 0⎦
−n2 n1 0 n1 n3 n2 n3 n23 000
⎡ ⎤⎡ ⎤ ⎡ ⎤
n21 n1 n2 n1 n3 0 −n3 n2 000
⎢ ⎥⎢ ⎥ ⎢ ⎥
nnT N = ⎣n1 n2 n22 n2 n3 ⎦ ⎣ n3 0 −n1 ⎦ = ⎣0 0 0⎦
n1 n3 n2 n3 n32 −n2 n1 0 000
⎡ ⎤
−n2 − n23 n1 n2 n1 n3
⎢ 2 ⎥
N = ⎣ n1 n2 −n21 − n23 n2 n3 ⎦ = nnT − (n21 + n22 + n23 ) E = nnT − E.
2
; <= >
n1 n3 n2 n3 −n21 − n22 =1
Spur(R) − 1
= 3 cos ϕ + 1 − cos ϕ = 1 − 2 cos ϕ ⇒ cos ϕ = .
2 !
421 8
n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 8 sind Sie in der Lage:
5 Kern und Bild einer linearen Abbildung erklären und zu bestimmen,
5 die Dimensionsformel für lineare Abbildungen bzw. Matrizen anzuwenden,
5 die Isomorphie von Vektorräumen zu erklären und zu zeigen,
5 kommutative Diagramme zu linearen Abbildungen zu erstellen,
5 Basiswechsel von linearen Abbildungen und deren Matrizen zu erstellen,
5 Äquivalenz und Ähnlichkeit von Matrizen zu erklären und zu unterscheiden.
> Bemerkung
Der Kern von F ist nichts anderes als das Urbild des Nullvektors (. Abb. 8.1)
d. h. die Menge aller Vektoren v ∈ V , die auf 0 abgebildet werden. Das Bild von F
ist die Menge aller Vektoren, die entsteht, wenn man F auf beliebige Vektoren aus V
anwendet (. Abb. 8.1).
F linear v,w∈Ker(F)
F(v + w) = F(v) + F(w) = 0 + 0 = 0 ⇒ v + w ∈ Ker(F).
8.1 • Kern und Bild
423 8
. Abb. 8.1 Der Kern einer
linearen Abbildung F : V → W
besteht aus allen Vektoren v ∈ V ,
welche unter F auf Null
abgebildet werden. Das Bild von
F ist die Menge aller Vektoren
w ∈ W , welche entstehen, wenn
man F auf beliebige Vektoren
v ∈ V anwendet
5 Ist v ein Element von Ker(F) und α ∈ K, so ist auch α v im Ker(F), weil
F linear v∈Ker(F)
F(α v) = α F(v) = α 0 = 0 ⇒ α v ∈ Ker(F).
Wir haben gezeigt, dass Ker(F) die drei Bedingungen (UR0)–(UR2) eines Unterrau-
mes erfüllt (7 vgl. Kap. 5). Folglich ist Ker(F) ein Unterraum von V , was Satz 8.1
ausdrückt:
# Satz 8.1
Ker(F) ist ein Unterraum von V . $
Ein analoges Resultat gilt auch für das Bild von F (vgl. Übung 8.13)
# Satz 8.2
Im(F) ist ein Unterraum von W . $
i Merkregel
In Worten besagt die Dimensionsformel: Je größer die Dimension des Kernes, desto
kleiner die Dimension des Bildes. Außerdem: Die Dimension von Im(F) ist nie größer
als die Dimension des Urbildraums V .
Wofür sind Aussagen über Kern und Bild von F gut? Sie erlauben uns, auf wichtige
Eigenschaften von F zu schließen, wie Injektivität, Surjektivität und Invertierbarkeit.
# Satz 8.4
Eine lineare Abbildung F : V → W ist genau dann injektiv, wenn Ker(F) = {0}. $
# Satz 8.5
Eine lineare Abbildung F : V → W ist genau dann surjektiv, wenn Im(F) = W . $
Isomorphismen
Eine lineare Abbildung (Homomorphismus) F : V → W heißt Isomorphismus, wenn
F injektiv und surjektiv ist. Beachte: Damit F ein Isomorphismus ist, muss dim(V ) =
dim(W ) gelten. In diesem Fall ist das folgende Kriterium sehr nützlich:
# Satz 8.6
Es sei F : V → W eine lineare Abbildung mit dim(V ) = dim(W ), dann gilt
$
8.1 • Kern und Bild
425 8
> Bemerkung
Dieses Kriterium gilt nur, weil V und W dieselbe Dimension haben. In diesem Fall
reicht die Injketivität von F aus, um auf die Surjektivität und sogar die Bijektivität von
F zu schließen.
Dass F : V → W ein Isomorphismus ist, kann man auch mithilfe der Darstellungs-
matrix nachweisen:
# Satz 8.7
Seien B eine geordnete Basis von V und B′ eine geordnete Basis von W . Dann ist die lineare
Abbildung F : V → W ein Isomorphismus genau dann, wenn die Darstellungsmatrix
′
MBB (F) invertierbar ist. $
Wie kann man den Rang einer linearen Abbildung konkret bestimmen? Mithilfe der
Darstellungsmatrix. Seien Basen B1 = {v1 , · · · , vn } und B2 = {w1 , · · · , wm } von V
B
bzw. W gegeben. Dann ist F vollstängig durch die Darstellungsmatrix M B12 (F) =: A
bestimmt (vgl. Satz 7.3). Die Spalten von A sind gerade die Koordinaten der Vektoren
F(v1 ), · · · , F(vn ) ausgedrückt in der Basis B2 . Nun ist das Bild von F erzeugt durch
denselben Vektoren F(v1 ), · · · , F(vn ), d. h.
G H
Im(F) = F(v1 ), · · · , F(vn ) = ⟨Spalten von A⟩ .
Diese Vektoren brauchen aber nicht linear unabhängig zu sein. Die Dimension von
Im(F) ist damit gleich der Anzahl linear unabhängiger Spalten der Darstellungsmatrix,
d. h. gleich dem Rang der Darstellungsmatrix (Rangkriterium, 7 Abschn. 6.4.1):
# Satz 8.8
Es sei A die Darstellungsmatrix von F durch gegebene Basen. Dann gilt:
$
426 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Praxistipp
Aus diesen Überlegungen ergibt sich eine praktische Methode zur Bestimmung von
Im(F): Die linear unabhängigen Spalten der Darstellungsmatrix von F bilden eine Basis
von Im(F). Es gibt zwei Arten, dies zu erreichen:
5 Man wendet Spaltenoperationen an der Darstellungsmatrix an, um die linear
unabhängigen Spalten zu bestimmen.
5 Man betrachtet die Transponierte der Darstellungsmatrix und bringt diese Matrix
auf Zeilenstufenform mittels Gauß-Algorithmus (Erinnerung: Beim Transponieren
werden Zeilen zu Spalten und Spalten zu Zeilen). Die von Null verschiedenen Zeilen
der Zielmatrix sind dann eine Basis von Im(F).
Obwohl die zwei Methoden äquivalent sind, ist die zweite Methode in der Praxis etwas
einfacher (vgl. Kochrezept 8.1).
Die Lösung ist x1 = x2 = 0. Der Kern von F besteht somit nur aus dem Nullvektor
Ker(F) = {0} .
Nun können wir das Bild direkt an den von Null verschiedenen Zeilen der gefunde-
nen Zielmatrix Z ablesen:
I- . - .J
1 0
Im(F) = , .
1 2
Da sich zwei linear unabhängige Vektoren im Bild befinden, ist dim(Im F) = 2. Dies
ist aber gleich der Dimension des Zielraumes R2 . Dies bedeutet, dass das Bild von
F ganz R2 ist, d. h. Im(F) = R2 .
8.1.5 Beispiele
Übung 8.1
• ◦ ◦ Welche der folgenden
- linearen
. Abbildungen sind injektiv, surjektiv, bijektiv?
1 2 3
a) F1 : R3 → R2 , v → v
456
- .
11
b) F2 : R2 → R2 , v → v
12
⎡ ⎤
14
⎢ ⎥
c) F3 : R2 → R3 , v → ⎣2 5⎦ v
36
v Lösung
a) Kern von F1 : Um den Kern von F1 zu bestimmen, lösen wir die Gleichung
F1 (v) = 0
- . - . - .
1 2 3 0 (Z2 ) − 4(Z1 ) 1 2 3 0 −(Z2 )/3 1 2 3 0
% % =Z
4 5 6 0 0 −3 −6 0 0 1 2 0
8.1 • Kern und Bild
429 8
Wir haben zwei Gleichungen für drei Unbekannte. Somit ist eine Unbekannte frei
wählbar, sagen wir x3 = t mit t ∈ R. Aus der zweiten Gleichung folgt dann x2 =
−2x3 = −2t. Aus der ersten Gleichung folgt dann x1 = −2x2 − 3x3 = t. Somit:
⎧ O ⎡ ⎤ ⎫ ⎡ ⎤
⎪ O 1 ⎪ I 1 J
⎨ O ⎬
O ⎢ ⎥ ⎢ ⎥
Ker(F1 ) = x ∈ R3 Ox = t ⎣−2⎦ , t ∈ R = ⎣−2⎦ .
⎪
⎩ O ⎪
⎭
O 1 1
= 3 − 1 = 2.
Da der Zielraum von F1 gleich R2 ist und dim(Im(F1 )) = 2 ist Im(F1 ) ganz R2 , d. h.
Im(F1 ) = R2 . Somit ist F1 surjektiv.
Alternative: Wir wenden Kochrezept 8.1 an. Wir betrachten die Transponierte
der Darstellungsmatrix von F1 und bestimmen deren Rang
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 4 (Z2 ) − 2(Z1 ) 1 4 −(Z2 )/3 1 4
⎢ ⎥ (Z3 ) − 3(Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⎣2 5⎦ % ⎣ 0 −3 ⎦ % ⎣0 1⎦ ⇒ Rang(A) = 2.
3 6 0 −6 0 0
= 2 − 0 = 2.
= 2 − 0 = 2.
Das Zielraum von F3 ist R3 (Dimension = 3). Die Dimension des Bildes von F3 ist
aber 2 ̸= 3. Somit ist F3 nicht surjektiv. !
Übung 8.2
• ◦ ◦ Man betrachte die folgende lineare Abbildung F : R3 → R3
⎡ ⎤ ⎡ ⎤
x x + 2y + 4z
⎢ ⎥ F ⎢ ⎥
v = ⎣ y ⎦ &−→ F(v) = ⎣ x + y + 2z ⎦ .
z x + y + 2z
v Lösung 51 2 46
a) Die Darstellungsmatrix von F in der Standardbasis ist A = 112 .
112
Kern von F: Wir lösen F(v) = 0, d. h. Av = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 4 0 (Z2 ) − (Z1 ) 1 2 4 0 1 2 4 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣1 1 2 0⎦ % ⎣ 0 −1 −2 0 ⎦ % ⎣ 0 −1 −2 0 ⎦ = Z.
1 1 2 0 0 −1 −2 0 0 0 0 0
Es sind zwei Gleichungen für drei Unbekannte. Setzen wir x3 = t, so erhalten wir
x2 = −2t und x1 = 0. Der Kern von F ist somit
⎧ O ⎡ ⎤ ⎫ ⎡ ⎤
⎪ O 0 ⎪ I 0 J
⎨ O ⎬
O ⎢ ⎥ ⎢ ⎥
Ker(F) = x ∈ R3 Ox = t ⎣−2⎦ , t ∈ R = ⎣−2⎦ .
⎪
⎩ O ⎪
⎭
O 1 1
Bild von F: Wir transponieren die Darstellungsmatrix von F und wenden den
Gauß-Algorithmus in zwei Schritte an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 (Z2 ) − 2(Z1 ) 1 1 1 1 1 1
⎢ ⎥ (Z3 ) − 4(Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⎣2 1 1⎦ % ⎣ 0 −1 −1 ⎦ % ⎣ 0 −1 −1 ⎦ ⇒ Rang(A) = 2.
4 2 2 0 −2 −2 0 0 0
8.1 • Kern und Bild
431 8
Das Bild von F hat also die Dimension 2. Eine Basis des Bildes können wir direkt
an den von Null verschiedenen Zeilen der Zielmatrix ablesen
⎡ ⎤ ⎡ ⎤
I 1 0 J
⎢ ⎥ ⎢ ⎥
Im(F) = ⎣1⎦ , ⎣−1⎦ .
1 −1
Übung 8.3
• ◦ ◦ Man betrachte die folgende lineare Abbildung:
. - - .
2×2 2 ab F a − 3b
F :R →R , A= & → F(A) =
− .
cd 2c + 4d
v Lösung
a) Um den Kern von F zu bestimmen, lösen wir F(A) = 0:
- . - .
a − 3b 0
= .
2c + 4d 0
Wir haben zwei Gleichungen mit vier Unbekannten. Somit sind zwei der Variablen
frei wählbar. Wir setzen b = s und d = t. Mithilfe der zweiten Zeile erhalten wir
c = −2t, und aus der ersten Gleichung erhalten wir a = 3s. Der Kern von F ist
7- . O- . - . 8
O
ab 2×2 O a b 3s s
Ker(F) = ∈R O = , s, t ∈ R .
cd O cd −2t t
b) Die Dimension von Ker(F) ist 2 (Ker(F) hat 2 freie Parameter). Aus der Dimensi-
onsformel leiten wir ab
= 4 − 2 = 2.
Das Bild von F hat somit Dimension 2. Weil der Zielvektorraum W = R2 auch
Dimension 2 hat, ist das Bild von F einfach ganz R2 , d. h. Im(F) = R2 .
c) Wegen Ker(F) ̸= {0} ist F nicht injektiv. Hingegen ist dim(Im(F)) = dim(W ) = 2.
Somit ist F surjektiv. !
432 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Übung 8.4
• ◦ ◦ Man betrachte folgende lineare Abbildung:
- . - .
2×2 2×2 ab F a+d b−c
F :R →R , A= &−→ F(A) = .
cd b−c a+d
v Lösung
In der Standardbasis von R2×2 wurde die Darstellungsmatrix von F bereits in
Übung 7.16 bestimmt:
⎡ ⎤
10 0 1
⎢0 1 −1 0⎥
⎢ ⎥
A=⎢ ⎥.
⎣0 1 −1 0⎦
10 0 1
Der Kern von F ist somit die Menge aller Matrizen der Form
7- . O- . - . 8
O
ab 2×2 O a b −t s
Ker(F) = ∈R O = , s, t ∈ R .
cd O cd s t
Bild von F: Wir transponieren die Darstellungsmatrix von F und wenden den
Gauß-Algorithmus in zwei Schritte an:
⎡ ⎤ ⎡ ⎤
1 0 0 1 1 0 0 1
(Z4 ) − (Z1 )
⎢0 0⎥ ⎢0
⎢ 1 1 ⎥ (Z3 ) + (Z2 ) ⎢ 1 1 0⎥⎥
⎢ ⎥ % ⎢ ⎥.
⎣0 −1 −1 0⎦ ⎣0 0 0 0⎦
1 0 0 1 0 0 0 0
8.1 • Kern und Bild
433 8
Das Bild lesen wir direkt von den von Null verschiedenen Zeilen der Zielmatrix ab:
⎡ ⎤ ⎡ ⎤
I 1 0 J
⎢0⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥
Im(F) = ⎢ ⎥ , ⎢ ⎥ .
⎣0⎦ ⎣1⎦
1 0
Das Bild von F besteht somit aus allen Matrizen von der Form
7- . O- . - . 8
O ab
ab O ts
Im(F) = ∈ R2×2 O = , s, t ∈ R .
cd O cd st
b) Wegen Ker(F) ̸= {0} und dim(Im(F)) = 2 ̸= 4 = dim(W ) ist F weder injektiv noch
surjektiv. !
Übung 8.5
• ◦ ◦ Es seien V = R2×2 und F : V → V , A → F(A) = A + 2AT .
a) Man bestimme die Darstellungsmatrix von F in der Standardbasis.
b) Ist F injektiv? Surjektiv? Bijektiv?
v Lösung
a) Wir wenden F auf jedes Element der Standardbasis von R2×2 an:
⎡ ⎤
.- - .T - . 3
⎢0⎥
10 10 30 ⎢ ⎥
F (E11 ) = +2 = ⇒ [F (E11 )]E = ⎢ ⎥
00 00 00 ⎣0⎦
0
⎡ ⎤
.- - .T - . 0
⎢1⎥
01 01 01 ⎢ ⎥
F (E12 ) = +2 = ⇒ [F (E12 )]E = ⎢ ⎥
00 00 20 ⎣2⎦
0
⎡ ⎤
- . - .T - . 0
⎢2⎥
00 00 02 ⎢ ⎥
F (E21 ) = +2 = ⇒ [F (E21 )]E = ⎢ ⎥
10 10 10 ⎣1⎦
0
⎡ ⎤
.- - .T - . 0
⎢0⎥
00 00 00 ⎢ ⎥
F (E22 ) = +2 = ⇒ [F (E22 )]E = ⎢ ⎥
01 01 03 ⎣0⎦
3
434 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
⎡ ⎤
3 0 0 0
⎢0
⎢ 1 2 0⎥⎥
Die gesuchte Darstellungsmatrix ist M EE (F) = ⎢ ⎥.
⎣0 2 1 0⎦
0 0 0 3
O O
O1
O 2OO
b) Die Darstellungsmatrix von F ist invertierbar, weil det M EE (F) = 3· O O ·3 = −27 ̸=
O2 1O
0. Somit ist F bijektiv, also sowohl injektiv als auch surjektiv. !
Übung 8.6
• ◦ ◦ Sei P3 (R) die Menge der reellen Polynome vom Grad ≤ 3. Man betrachte die
Ableitung dxd
: P3 (R) → P3 (R), p(x) &→ dp(x)
dx .
d
a) Man bestimme den Kern und das Bild von dx . Man interpretiere das Resultat.
d
b) Ist dx injektiv? Surjektiv?
v Lösung
d
In der Standardbasis lautet die Darstellungsmatrix von dx (vgl. Musterbeispiel 7.3):
⎡ ⎤
0 1 0 0
@ A ⎢0
d ⎢ 0 2 0⎥⎥
M EE =⎢ ⎥.
dx ⎣0 0 0 3⎦
0 0 0 0
d
a) Kern von dx : Wir lösen:
⎡ ⎤ ⎡ ⎤
0 1 0 0 0 I 1 J
⎢0 @ A
0⎥ d ⎢0⎥
⎢ 0 2 0 ⎥ ⎢ ⎥
⎢ ⎥ ⇒ Ker = ⎢ ⎥ = {p ∈ P3 (R) | p(x) = konstant} = P0 (R).
⎣0 0 0 3 0⎦ dx ⎣0⎦
0 0 0 0 0 0
d
Der Kern von dx ist die Menge der konstanten Polynomen (alle konstante Polynome
haben die Ableitung Null).
d
Bild von F: Wir bemerken, dass die Darstellungsmatrix von dx bereits in Zei-
lenstufenform ist. Somit können wir das Bild direkt an den von Null verschiedenen
Spaltenvektoren ablesen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
@ A I 1 0 0 J
d ⎢0⎥ ⎢2⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Im = ⎢ ⎥, ⎢ ⎥, ⎢ ⎥ = P2 (R).
dx ⎣0⎦ ⎣0⎦ ⎣3⎦
0 0 0
8.1 • Kern und Bild
435 8
d
Das Bild von dx besteht aus den Polynomen vom Grad ≤ 2 (beim Ableiten wird
der Grad um eine Stufe kleiner).
Bemerke, dass die Dimensionsformel erfüllt ist:
@ @ AA @ @ AA
d d
dim Ker + dim Im = dim(V ) ⇒ 1+3=4"
dx dx ; <= >
; <= > ; <= > =4
=1 =3
d d d
b) Wegen Ker( dx ) ̸= {0}, ist dx nicht injektiv. Außerdem, wegen dim(Im( dx )) = 3 ̸=
d
4 = dim(W ) ist dx auch nicht surjektiv. !
Übung 8.7
• ◦ ◦ Sei Pn (R) der Vektorraum der Polynome vom Grad ≤ n in der Variablen x. Man
betrachte die folgende Abbildung für n = 3:
v Lösung
a) Wir bestimmen die Bilder der Standardbasiselemente von P3 (R), d. h. E = {p0 =
1, p1 = x, p2 = x2 , p3 = x3 }:
⎡ ⎤
0
⎢ ⎥
F(p0 )(x) = p0 (x + 2) − p0 (x) = 1 − 1 = 0 ⇒ [F(p0 )]E = ⎣0⎦,
0
⎡ ⎤
2
⎢ ⎥
F(p1 )(x) = p1 (x + 2) − p2 (x) = (x + 2) − x = 2 ⇒ [F(p1 )]E = ⎣0⎦,
0
⎡ ⎤
4
⎢ ⎥
F(p2 )(x) = p2 (x + 2) − p2 (x) = (x + 2)2 − x2 = 4x + 4 ⇒ [F(p2 )]E = ⎣4⎦,
0
F(p3 )(x) = p3 (x + 2) − p3 (x) = (x + 2)3 − x3 = 6x2 + 12x + 8
⎡ ⎤
8
⎢ ⎥
⇒ [F(p3 )]E = ⎣12⎦.
6
⎡ ⎤
024 8
⎢ ⎥
Die gesuchte Darstellungsmatrix lautet somit M EE (F) = ⎣0 0 4 12⎦ .
000 6
436 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Aus der letzten Gleichung folgt x4 = 0. Daraus ergibt sich mit der ersten und der
zweiten Gleichung x2 = x3 = 0. Die Variable x1 ist frei wählbar. Somit ist
⎡ ⎤
I 1 J
⎢0⎥
⎢ ⎥
Ker(F) = ⎢ ⎥ = P0 (R).
⎣0⎦
0
Der Kern von F sind alle konstante Polynome. Da Ker(F) ̸= {0} ist F nicht injektiv.
Bild von F: Um das Bild von F zu bestimmen, betrachten wir die Dimensions-
formel:
= dim(V ) − dim(Ker(F)) = 4 − 1 = 3.
Da die Dimension des Zielraumes dim(P2 (R)) = 3 ist folgt, dass Im(F) = P2 (R).
Somit ist F surjektiv. !
Übung 8.8
• ◦ ◦ Welche der folgenden Abbildungen sind (i) Homomorphismen, (ii) Endomorphis-
men, (iii) Isomorphismen oder
B (iv)CAutomorphismen?
5 x1 6 x1 +x2
3 3
a) F1 : R → R , x2 → x1 +x3
x3 x2 +x3
B x +x C
3 4 1 2
b) F2 : R2 → R3 , xx12 → x12 −x22
x1 +x2
5 x1 6 3 4
c) F3 : R3 → R2 , x2 → x1x+x 2 +x3
1 −x3
x3
5α6
d) F4 : R3 → P2 (R), γβ → α + βx + γ x2
3 4 3 1 +x2 x2 4
e) F5 : R2 → R2×2 , xx12 → x−x 2 x1 −x2
v Lösung
a) F1 ist eine lineare Abbildung, also ein Homomorphismus. Weil V = R3 = W
(Ausgangsraum = Zielraum), ist F1 ein Endomorphismus.
5 6 Die Darstellungsmatrix
110
von F1 bezüglich der Standardbasis von R3 ist A = 101 . Wegen det(A) = −2 ̸= 0
011
ist A invertierbar. Somit ist F1 ein Isomorphismus und wegen V = R3 = W auch
ein Automorphismus.
8.1 • Kern und Bild
437 8
b) F2 ist keine lineare Abbildung, also kein Homomorphismus, Endomorphismus,
Isomorphismus oder Automorphismus.
c) F3 ist linear, somit ein Homomorphismus. In diesem Fall stimmen Ausgangsraum
und Zielraum nicht überein (V = R2 ̸= R3 = W ). Somit ist F3 sicher kein Endo-
morphismus und kein Automorphismus. Außerdem stimmen die Dimensionen von
V = R2 und W = R3 nicht, d. h., F3 kann kein Isomorphismus sein. Dies kann man
3 4
auch anhand der Darstellungsmatrix sehen: A = 11 10 −11 ist keine quadratische
Matrix, kann also nichtinvertierbar sein.
d) F4 ist eine lineare Abbildung, also ein Homomorphismus. Ausgangsraum und Ziel-
raum stimmen nicht, d. h., F4 kann kein Endomorphismus oder Automorphismus
5 6 100
sein. Die Darstellungsmatrix von F4 bezüglich der Standardbasis ist A = 010 .
001
Da A invertierbar ist, ist F4 ein Isomorphismus.
e) Weil F5 linear ist, ist F5 ein Homomorphismus. Ausgangsraum und Zielraum
stimmen nicht, d. h., F5 kann kein Endomorphismus oder Automorphismus sein.
Außerdem ist dim(V ) = dim(R2 ) = 2 ̸= 4 = dim(R2×2 ) = dim(W ). Somit kann F5
kein Isomorphismus sein. !
Übung 8.9 ⎡1
⎤
··· 0 1 0
. . .
⎢ 0 1 . . .. .. ⎥
⎢ ⎥
• • ◦ Man betrachte die (n × n)-Matrix: A = ⎢ . . . ⎥.
⎣ .. . . . . 0 1 ⎦
0 ··· 0 1 1
1 ··· 1 1α
a) Man bestimme den Kern von A.
b) Man bestimme Rang(A).
v Lösung
a) Um den Kern von A zu bestimmen, lösen wir
⎡ ⎤ ⎡ ⎤
1 0 ··· 0 1 0 1 0 ··· 0 1 0
⎢ .. .. .. ⎥ ⎢ .. ⎥
⎢ . ⎥ ⎢ . . .. ⎥
⎢ 0 1 .. . . . ⎥ ⎢ 0 1 . . .. . .⎥
⎢ ⎥ (Zn ) − (Z1 ) ⎢ ⎥ (Zn ) − (Z2 )
⎢ .. . . . . ⎥ % ⎢ .. . . . . ⎥ %
⎢ . 0
. . 1 0⎥ ⎢ . . . 0 1 0⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎣ 0 ··· 0 1 1 0⎦ ⎣ 0 ··· 0 1 1 0 ⎦
1 ··· 1 1 α 0 0 1 ··· 1 α − 1 0
⎡ ⎤ ⎡ ⎤
1 0 ··· 0 1 0 1 0 ··· 0 1 0
⎢ .. .. .. ⎥ ⎢ .. ⎥
⎢ . ⎥ ⎢ . . .. ⎥
⎢0 1 .. . . .⎥ ⎢ 0 1 . . .. . .⎥
⎢ ⎥ (Zn ) − (Zn−1 ) ⎢ ⎥
⎢ .. .. .. ⎥ % ⎢ .. . . . . ⎥ = Z.
⎢. . . 0 1 0⎥ ⎢. . . 0 1 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎣0 ··· 0 1 1 0⎦ ⎣ 0 ··· 0 1 1 0⎦
0 0 ··· 1 α − 2 0 0 0 · · · 0 α − (n − 1) 0
438 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Übung 8.10
•◦◦ Es sei F : V → W linear. Die Dimension des Kernes von F ist 2 und die Dimension
des Bildes von F ist 3. Wie viele linear unabhängige Vektoren muss eine Basis von V
enthalten?
v Lösung
Wegen der Dimensionsformel gilt: dim(V ) = dim(Ker(F)) + dim(Im(F)) = 2 + 3 = 5.
Es folgt dim(V ) = 5. Somit besteht jede Basis von V genau aus 5 linear unabhängigen
Vektoren. !
Übung 8.11
• ◦ ◦ Es sei F : V → W linear und dim(V ) = dim(W ). Man beweise:
F injektiv ⇔ F surjektiv.
8.1 • Kern und Bild
439 8
v Lösung
Aus der Dimensionsformel folgt:
Übung 8.12
• ◦ ◦ Es sei F : V → W linear. Man beweise:
a) F ist injektiv ⇒ dim(V ) ≤ dim(W ).
b) F ist surjektiv ⇒ dim(W ) ≤ dim(V ).
v Lösung
a) Ist F injektiv, so ist Ker(F) = {0} und somit dim(Ker(F)) = 0. Aus der Dimensi-
onsformel folgt dann
Das Bild von F ist ein Unterraum von W ⇒ dim(Im(F)) ≤ dim(W ). Daraus folgt:
b) Ist F ist surjektiv, so ist dim(Im(F)) = dim(W ). Aus der Dimensionsformel folgt
Übung 8.13
• ◦ ◦ Es sei F : V → W linear. Man zeige: Im(F) ist ein Unterraum von W .
v Lösung
Wir weisen einfach nach, dass Im(F) die drei Eigenschaften (UR0)–(UR2) eines
Unterraumes erfüllt (7 vgl. Abschn. 5.2):
5 Beweis von (UR0): Wegen F(0) = 0 ist 0 ∈ Im(F) "
5 Beweis von (UR1): Es seien w1 , w2 ∈ Im(F). Dann gibt es v1 , v2 ∈ V mit F(v1 ) = w1
und F(v2 ) = w2 . Aus der Linearität von F folgt dann:
5 Beweis von (UR2): Es seien w ∈ Im(F) und α ∈ K. Dann gibt es v ∈ V mit F(v) = w.
Daraus folgt F(αv) = α F(v) = α w ⇒ α w ∈ Im(F) "
Übung 8.14
• • ◦ Man beweise Satz 8.4.
v Lösung
“⇒” Es sei F injektiv und v ∈ Ker(F). Dann ist F(v) = 0. Da F linear ist gilt F(0) = 0.
Wir haben also zwei Vektoren, welche auf Null abgebildet werden: F(v) = 0 = F(0).
Da F injektiv ist folgt v = 0, also Ker(F) = {0}.
“⇐” Es sei umgekehrt Ker(F) = {0}. Weiter seien v, w ∈ V mit F(v) = F(w). Aus der
Linearität von F folgt 0 = F(v) − F(w) = F(v − w) ⇒ v − w ∈ Ker(F). Da Ker(F) = {0}
folgt v − w = 0 ⇒ v = w. Somit ist F injektiv. !
Übung 8.15
• • • Es seien V und W endlichdimensionale Vektorräume über einen Körper K. Es
sei F : V → W eine lineare Abbildung und B = {v1 , · · · , vn } eine Basis von V . Man
beweise die folgenden Aussagen:
a) Ist F injektiv, so sind F(v1 ), · · · , F(vn ) linear unabhängig.
b) Ist F surjektiv, so bilden F(v1 ), · · · , F(vn ) ein Erzeugendensystem.
c) Ist F ein Isomorphismus, so bilden F(v1 ), · · · , F(vn ) eine Basis von W .
v Lösung
a) Ist F injektiv, so gilt Ker(F) = {0} (Satz 8.4). Wir wollen zeigen, dass F(v1 ), · · · ,
F(vn ) linear unabhängig sind, d. h., wir müssen zeigen, dass
n
S
λi F(vi ) = 0 ⇒ λi = 0.
i=1
Um dies zu zeigen, gehen wir wie folgt vor: Wegen der Linearität von F gilt:
n
/ n 0 /n
0 n
S S S S
0= λi F(vi ) = F λi vi ⇒ F λi vi =0 ⇒ λi vi ∈ Ker(F).
i=1 i=1 i=1 i=1
n
S
λi vi = 0.
i=1
8.1 • Kern und Bild
441 8
Da v1 , · · · , vn eine Basis bilden, sind v1 , · · · , vn linear unabhängig. Daher hat die
T
Gleichung ni=1 λi vi = 0 nur die triviale Lösung λi = 0 für alle i = 1, · · · , n. Dies
war genau zu zeigen. Somit sind F(v1 ), · · · , F(vn ) linear unabhängig.
b) Da F surjektiv ist und da jedes v ∈ V sich als Linearkombination der Vektoren
v1 , · · · , vn darstellen lässt, ist auch jedes w ∈ W als Linearkombination von F(v1 ),
· · · , F(vn ) darstellbar. Somit bilden F(v1 ), · · · , F(vn ) ein Erzeugendensystem.
c) Aus (a) und (b) folgt: ist F bijektiv ⇒ F(v1 ), · · · , F(vn ) sind linear unabhängig und
bilden ein Erzeugendensystem ⇒ F(v1 ), · · · , F(vn ) bilden eine Basis von W . !
Übung 8.16
• • ◦ Es seien U und W zwei Unterräume eines endlichdimensionalen Vektorraum V .
Man betrachte die Abbildung F : U × W → U + W definiert durch
F(u, w) = u + w, u ∈ U, w ∈ W .
v Lösung
a) Es seien u1 , u2 ∈ U, w1 , w2 ∈ W und α ∈ K. Dann gilt:
1 2
(L1) F (u1 , w1 ) + (u2 , w2 ) = F(u1 + u2 , w1 + w2 ) = (u1 + u2 ) + (w1 + w2 )
= (u1 + w1 ) + (u2 + w2 ) = F(u1 , w1 ) + F(u2 , w2 )
1 2
(L2) F α(u1 , w1 ) = F(αu1 , αw1 ) = αu1 + αw1 = α(u1 + w1 ) = αF(u1 , w1 ).
Somit ist F linear.
b) Der Kern von F besteht aus den Elementen der Form (v, −v), weil F(v, −v) = v −
v = 0. Weil v sowohl im ersten wie auch im zweiten Eintrag vorkommt, muss v ∈ U
und v ∈ W , d. h. v ∈ U ∩ W . Folglich
dim(Ker(F)) = dim(U ∩ W ).
Übung 8.17
• • ◦ Es seien A, B ∈ Km×n . Man zeige:
v Lösung
Wegen (A + B)v = Av + Bv ist Im(A + B) ⊂ Im(A) + Im(B). Daraus folgt dim(Im(A +
1 2
B)) ≤ dim Im(A)+Im(B) . Mit der Formel dim(U +W ) = dim(U)+dim(W )−dim(U ∩
W ) finden wir dann:
1 2
Rang(A + B) = dim(Im(A + B)) ≤ dim Im(A) + Im(B)
1 2
= dim(Im(A)) + dim(Im(B)) − dim Im(A) ∩ Im(B)
≤ dim(Im(A)) + dim(Im(B)) = Rang(A) + Rang(B).
Übung 8.18
• • • Es seien A ∈ Km×n und B ∈ Kn×r . Man beweise die folgenden Ungleichungen:
a) Rang(AB) ≤ min{Rang(A), Rang(B)}.
b) Rang(AB) ≥ Rang(A) + Rang(B) − n.
Hinweis: Betrachte die Abbildung F : Im(B) → Kn , v → Av.
v Lösung
a) 5 Klarerweise ist Im(AB) ⊂ Im(A). Daraus folgt dim(Im(AB)) ≤ dim(Im(A)),
d. h. Rang(AB) ≤ Rang(A).
5 Wir betrachten die Abbildung F : Im(B) → Kn , v → Av. Das Bild von F ist
Im(F) = Im(AB). Somit ist dim(Im(F)) = dim(Im(AB)) = Rang(AB). Aus der
Dimensionsformel für F folgt dann:
also
Übung 8.19
• • ◦ Es seien A, B ∈ Kn×n mit det(AB) = 0. Können die Matrizen A und B gleichzeitig
vollen Rang haben?
v Lösung
Wir benutzen das Resultat aus Übung 8.18:
Wegen det(AB) = 0, hat AB nicht vollen Rang, d. h. Rang(AB) < n. Hätten die
Matrizen A und B gleichzeitig vollen Rang, d. h. Rang(A) = Rang(B) = n, so würde
Folgendes gelten
Übung 8.20
• • ◦ Es seien A, B ∈ Kn×n mit AB = E. Man zeige, dass Rang(A) = Rang(B) = n,
d. h. dass A und B invertierbar sind.
v Lösung
Aus der Ungleichung Rang(AB) ≤ Rang(A) folgt:
Da Rang(A) nie größer als n sein kann, folgt Rang(A) = n ⇒ A invertierbar. Mit
Rang(AB) ≤ Rang(B) folgt das Resultat für B. !
Übung 8.21
• • ◦ Es sei A ∈ Kn×n . Man zeige:
a) {0} ⊂ Ker(A) ⊂ Ker(A2 ) ⊂ · · · ⊂ Ker(Aj ) ⊂ · · ·
b) n ≥ Rang(A) ≥ Rang(A2 ) ≥ · · · ≥ Rang(Aj ) ≥ · · ·
v Lösung
a) Wir zeigen, dass Ker(Aj ) ⊂ Ker(Aj+1 ) für alle j = 0, 1, 2, · · · gilt. Es sei v ∈ Ker(Aj ),
d. h. Aj v = 0. Wenden wir nun A auf beiden Seiten der Gleichung an, so folgt
Aj+1 v = A0 = 0, d. h. v ∈ Ker(Aj+1 ). Somit ist Ker(Aj ) ⊂ Ker(Aj+1 ).
b) Wir zeigen, dass Im(Aj ) ⊃ Im(Aj+1 ) für alle j = 0, 1, 2, · · · gilt. Es sei w ∈ Im(Aj+1 ).
Dann gibt es v ∈ Kn mit Aj+1 v = w. Daraus folgt
Übung 8.22
• • ◦ Es sei A ∈ Rm×n .
a) Man zeige: Ker(AT A) = Ker(A).
b) Man folgere aus (a): Rang(AT A) = Rang(A).
v Lösung
a) Um Ker(AT A) = Ker(A) zu zeigen, zeigen wir Ker(AT A) ⊂ Ker(A) und Ker(A) ⊂
Ker(AT A) (7 vgl. Anhang B Abschn. B.1.1).
Beweis von Ker(AT A) ⊂ Ker(A): Es sei v ∈ Ker(A) ⇒ Av = 0. Multiplizieren
wir nun beide Seiten der Gleichung mit AT von links, so bekommen wir
vT AT Av = (Av)T (Av) = 0.
8.1 • Kern und Bild
445 8
(Av)T (Av) ist die Norm (Länge) von Av, d. h. (Av)T (Av) = ||Av||2 . Der einzige
Vektor mit Norm gleich Null ist der Nullvektor. Daraus folgt Av = 0, d. h. v ∈
Ker(A). Wir haben somit gezeigt, dass Ker(A) ⊂ Ker(AT A).
Übung 8.23
• • ◦ Man beweise die Dimensionsformel 8.3.
v Lösung
Es sei dim(V ) = n und dim(Ker(F)) = p. Es sei {v1 , · · · , vp } eine Basis von Ker(F). Da
Ker(F) ein Unterraum von V ist, gilt p ≤ n. Somit können wir die Basis von Ker(F)
zu einer Basis von V ergänzen. Wir fügen einfach n − p linear unabhängige Vektoren
hinzu, welche nicht in Ker(F) liegen:
{v1 , · · · , vp , w1 , · · · , wn−p }.
Für die Vektoren v1 , · · · , vp gilt F(v1 ) = · · · = F(vp ) = 0. Somit ist Im(F) durch den
Vektoren F(w1 ), · · · , F(wn−p ) aufgespannt. Wir müssen nur noch zeigen, dass diese
Vektoren linear unabhängig sind, d. h.
Somit ist α1 w1 + · · · + αn−p wn−p ∈ Ker(F). Die Vektoren w1 , · · · , wn−p liegen aber
nicht in Ker(F). Es muss also α1 = · · · = αn−p = 0 gelten. Somit sind die Vektoren
w1 , · · · , wn−p sind linear unabhängig und dim(Im(F)) = n − p. Insgesamt:
In diesem Abschnitt wollen wir den Begriff von isomorphen Vektorräumen einfüh-
ren. Bevor wir mit der Theorie loslegen, wollen wir zuerst ein einführendes Beispiel
diskutieren.
Als Beispiel betrachten wir den Vektorraum R2×2 der reellen (2 × 2)-Matrizen.
# Beispiel
Jede (2 × 2)-Matrix A ∈ R2×2 ist durch vier reellen Zahlen bestimmt. A ist also nichts
anderes als eine rechteckige Anordnung von vier Zahlen. Diese Anordnung unterscheidet
sich nicht wesentlich von einem Vektor im R4 , welcher grundsätzlich auch nur eine Liste
von vier Zahlen ist. Jede Matrix kann somit durch Umformen mit einem Spaltenvektor
identifiziert werden und umgekehrt:
Diese Identifizierung von R2×2 mit R4 hat eine interessante Eigenschaft: Sie respektiert die
Vektorraumstruktur von R2×2 und R4 . Man betrachte als Beispiel die folgenden Matrizen
⎡ ⎤ ⎤ ⎡
- . 1 - . 1
⎢2⎥ ⎢−1⎥
12 ⎢ ⎥ 1 −1 ⎢ ⎥
↔⎢ ⎥ und ↔ ⎢ ⎥.
34 ⎣3⎦ −1 2 ⎣−1⎦
4 2
Es gilt:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
- . - . - . 1 1 2
⎢2⎥ ⎢−1⎥ ⎢1⎥
12 1 −1 21 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
+ = ↔ ⎢ ⎥+⎢ ⎥=⎢ ⎥
34 −1 2 26 ⎣3⎦ ⎣−1⎦ ⎣2⎦
4 2 6
Summe in R2×2 = Summe in R4
Die Matrixaddition bleibt somit bei der Identifizierung von R2×2 mit R4 erhalten. Dasselbe
gilt für die Skalarmultiplikation:
⎡ ⎤ ⎡ ⎤
- . - . 1 −3
⎢−1⎥ ⎢ 3 ⎥
1 −1 −3 3 ⎢ ⎥ ⎢ ⎥
(−3) · = ↔ (−3) · ⎢ ⎥ = ⎢ ⎥
−1 2 3 −6 ⎣−1⎦ ⎣ 3 ⎦
2 −6
Skalarmultiplikation in R2×2 = Skalarmultiplikation in R4
8.2 • Isomorphe Vektorräume
447 8
Aus diesen einfachen Überlegungen folgt, dass wir nicht nur jede Matrix mit einem Vektor
identifizieren können, sondern auch, dass die beiden Vektorräume R2×2 und R4 die gleiche
„Struktur“ haben. In diesem Sinne ist es sinnvoll zu sagen, dass R2×2 und R4 „gleichwertig“
sind. Mathematisch sagen wir, dass R2×2 und R4 isomorph sind und wir schreiben:
R2×2 ∼
= R4 . $
Der Begriff von isomorphen Vektorräumen wird mithilfe von Isomorphismen formal
definiert:
V∼
=W ⇔ dim(V ) = dim(W ) $
# Satz 8.11
Jeder n-dimensionale Vektorraum über K ist isomorph zu Kn . $
> Bemerkung
Die Isomorphie von V und Kn erfolgt durch die Koordinatenabbildung ϕB von V zu
einer (festen) Basis B von V :
ϕB
ϕB : V → Kn , v &→ [v]B .
# Beispiel
Wegen dim(Pn (R)) = n + 1 = dim(Rn+1 ) ist Pn (R) ∼
= Rn+1 . $
# Beispiel
Wegen dim(Rm×n ) = m n ist Rm×n ∼
= Rm n . $
448 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
B B
M B12 : Hom(V , W ) → Km×n , F → M B12 (F).
# Satz 8.12
B
Die Abbildung M B12 : Hom(V , W ) → Km×n ist ein Isomorphismus. Daher ist:
Hom(V , W ) isomorph zu Km×n , d. h. Hom(V , W ) ∼
= Km×n . Insbesondere gilt
Die Identifizierung von Hom(V , W ) mit Km×n kann man durch sogenannte kommu-
tativen Diagramme veranschaulichen.
Definition
Was ist ein kommutatives Diagramm? Eine Abbildung F : V → W kann man mittels
Diagramm durch Pfeile darstellen (kurz Pfeildiagramm):
Wir könnten gleich direkt von V nach Z durch eine Abbildung H : V → Z gelangen:
Sind H und G ◦ F dieselben Abbildungen, so sagt man, dass das obige Diagramm
kommutiert. Bei einem kommutativen Diagramm spielt es also keine Rolle, welchen
Weg wir durchlaufen. In unserem Beispiel erhalten wir das gleiche Resultat, wenn wir
F und dann G anwenden oder gleich direkt H anwenden:
8.2 • Isomorphe Vektorräume
449 8
Allgemein:
ϕB1 und ϕB2 sind die Koordinatenabbildungen für die Basen B1 und B2 (7 vgl. Ab-
schn. 8.2.3). Satz 8.12 besagt, dass das obige Diagramm kommutiert, d. h.
II B
FI = ϕ −1 ◦ M B12 (F) ◦ ϕB1
; <= >I ; B2 <= >
1 2
450 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
oder
Darstellungsmatrix von F
= >; <
B 1 2 1 2
M B12 (F) ϕB1 (v) = ϕB2 F(v)
; <= > ; <= >
Koordinaten von v bzgl. B1 Koordinaten von F(v) bzgl. B2
Beispiel: Ableitung
Um dieses abstrakte Konzept etwas konkreter zu machen, betrachten wir als Beispiel
die Ableitung auf P2 (R).
# Beispiel
d
Die Ableitung kann man als eine lineare Abbildung dx von P2 (R) nach P2 (R) interpretieren
(direkter Weg). Diese lineare Abbildung können wir aber auch durch der Darstellungs-
matrix in der Standardbasis darstellen. Wählt man diesen alternativen Weg, so muss man
zuerst das Polynom p(x) in der Standardbasis darstellen (mit der Koordinatenabbildung
ϕE ), dann die Darstellungsmatrix bilden (vgl. Musterbeispiel 7.3) und das Resultat wieder
als Polynom in P2 (R) umschreiben (mittels ϕE−1 ). Es spielt keine Rolle, ob wir den direkten
oder den längeren Weg durchlaufen. Beide Wege stimmen überein, d. h., das folgende
Diagramm kommutiert:
Übung 8.24
• ◦ ◦ Man zeige R2×2 ∼
= R4 (man gebe einen Isomorphismus explizit an).
v Lösung
Wir betrachten die Abbildung F : R2×2 → R4 definiert durch
⎡ ⎤
/- .0 a
⎢ ⎥
ab ⎢b⎥
F = ⎢ ⎥.
cd ⎣c⎦
d
8.2 • Isomorphe Vektorräume
451 8
Es ist klar, dass F eine lineare Abbildung ist. Wir behaupten nun, dass F ein Isomor-
phismus von R2×2 nach R4 ist. - . - .
a1 b1 a2 b2
5 Ist F injektiv? Es seien A1 = und A2 = zwei Matrizen aus R2×2
c1 d1 c2 d2
mit F(A1 ) = F(A2 ). Aus der Linearität von F folgt dann F(A1 − A2 ) = 0, d. h.
⎡ ⎤ ⎡ ⎤
/- .0 a1 − a2 0 a1 = a2
⎢b − b ⎥ ⎢0⎥
a1 − a2 b1 − b2 ⎢ 1 2⎥ ! ⎢ ⎥ b1 = b2
F(A1 − A2 ) = F =⎢ ⎥=⎢ ⎥ ⇒
c1 − c2 d1 − d2 ⎣ c1 − c2 ⎦ ⎣0⎦ c1 = c2
d1 − d2 0 d1 = d2
Übung 8.25
• ◦ ◦ Man zeige Pn (R) ∼
= Rn+1 (man gebe einen Isomorphismus explizit an).
v Lösung
Wir betrachten die lineare Abbildung F : Pn (R) → Rn+1 definiert durch
⎡ ⎤
a0
⎢a ⎥
⎢ 1⎥
F(a0 + a1 x + · · · + an xn ) = ⎢ ⎥
⎢ .. ⎥ .
⎣.⎦
an
F ist somit ein Isomorphismus von Pn (R) nach Rn+1 und folglich Pn (R) ∼
= Rn+1 . !
452 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Übung 8.26
• ◦ ◦ Für welches n ∈ N ist R2×3 ∼
= Rn . Für dieses n man gebe einen Isomorphismus
explizit an.
v Lösung
Isomorphe Vektorräume haben dieselbe Dimension (Satz 8.10). Es gilt somit R2×3 ∼
=
R6 , d. h. n = 6. Ein Isomorphismus von R2×3 nach R6 ist
⎡ ⎤
a11
⎢ ⎥
.0 ⎢ a ⎥
/- ⎢ 12 ⎥
a11 a12 a13 ⎢a13 ⎥
F =⎢
⎢a ⎥ .
⎥
a21 a22 a23 ⎢ 21 ⎥
⎢ ⎥
⎣a22 ⎦
a23 !
Übung 8.27
• ◦ ◦ Welche der folgenden Vektorräumen sind zueinander isomorph?
a) R3×6 , R18
b) P3 (R), R3×3
c) C2 (als R Vektorraum), R2×2
d) Hom(R2 , R3 ), R6
e) ⟨ex , e2x , e3x ⟩, P2 (R)
f) ⟨sin(x), cos(x)⟩, R2×2
v Lösung
Wir wenden jeweils Satz 8.10 an.
a) Wegen dim(R3×6 ) = 3 · 6 = 18 = dim(R18 ) ist R3×6 ∼= R18 .
b) Wegen dim(P3 (R)) = 3 + 1 = 4 ̸= 9 = dim(R ) sind P3 (R) und R3×3 nicht
3×3
isomorph.
c) Wegen dimR (C2 ) = 2 · 2 = 4 = dim(R2×2 ) ist C2 ∼
= R2×2 .
d) Wegen dim(Hom(R , R )) = 2 · 3 = 6 = dim(R ) ist Hom(R2 , R3 ) ∼
2 3 6
= R6 .
e) Wegen dim(⟨e , e , e ⟩) = 3 = 2 + 1 = dim(P2 (R)) ist ⟨e , e , e ⟩ ∼
x 2x 3x x 2x 3x
= P2 (R).
f) Wegen dim(⟨sin(x), cos(x)⟩) = 2 ̸= 4 = dim(R2×2 ) sind ⟨sin(x), cos(x)⟩ und R2×2
nicht isomorph. !
Übung 8.28
• • • Man beweise Satz 8.10.
8.3 • Basiswechsel für lineare Abbildungen
453 8
v Lösung
Beweis von V ∼ = W ⇒ dim(V ) = dim(W ): V ∼ = W bedeutet, dass es ein Isomorphis-
mus F : V → W gibt. Es sei nun dim(V ) = n und es sei B = {v1 , · · · , vn } eine Basis von
V . Da F ein Isomorphismus ist, bilden die Vektoren F(v1 ), · · · , F(vn ) eine Basis von
W (vgl. Übung 8.15). Da diese Basis von W aus n Vektoren besteht, ist dim(W ) = n,
d. h. dim(V ) = dim(W ).
Beweis von V ∼= W ⇐ dim(V ) = dim(W ): Nehmen wir an, dass dim(V ) =
dim(W ) = n gilt. Es seien B = {v1 , · · · , vn } und B′ = {w1 , · · · , wn } Basen von V
bzw. W (wegen dim(V ) = dim(W ) haben die Basen B und B′ dieselbe Anzahl von
Elementen). Wir konstruieren nun ein Isomorphismus von V nach W wie folgt. Jeder
Vektor x ∈ V lässt sich in eindeutiger Weise als Linearkombination der Basiselementen
von B darstellen:
n
S
x = x1 v1 + · · · + xn vn = xi vi .
i=1
Es ist klar, dass F eine lineare Abbildung ist. Wir behaupten nun, dass F ein Isomor-
phismus ist.
5 Ist F injektiv? Es seien x, y zwei Vektoren in V mit den Koordinaten x1 , · · · , xn
bzw. y1 , · · · , yn in der Basis B. Es gelte F(x) = F(y). Aus der Linearität von F folgt
dann F(x − y) = 0, d. h.
n
/ 0 n n
S S S !
F(x − y) = F (xi − yi )vi = (xi − yi )F (vi ) = (xi − yi )wi = 0.
i=1 i=1 i=1
Aus der Eindeutigkeit der Koordinaten des Nullvektors in der Basis B′ impliziert
die obige Gleichung xi − yi = 0 für alle i = 1, · · · , n, d. h. x = y. Die Abbildung F
ist somit injektiv.
5 Ist F surjektiv? Wegen dim(V ) = dim(W ), impliziert Injektivität von F auch die
Surjektivität (Satz 8.6).
In 7 Kap. 7 haben wir erfahren, dass jede lineare Abbildung einer Matrix entspricht.
Diese Matrixdarstellung ist aber von der Basis bestimmt. Wir diskutieren nun, wie
sich die Matrixdarstellung einer linearen Abbildung ändert, wenn wir die Basis
ändern.
454 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Es sei F : V → W eine lineare Abbildung und es seien die folgenden Basen von V
bzw. W gegeben:
Wir fragen uns: Ist die Darstellungsmatrix von F bezüglich den alten Basen B1 und
B2 gegeben, wie lautet die Darstellungsmatrix von F bezüglich den neuen Basen B1′
und B2′ ? Gemäß Definition gilt:
B
[F(v)]B2 = M B12 (F)[v]B1 , (8.10)
B
[F(v)]B′ = M B1′ (F)[v]B′ . (8.11)
2 2 1
Mit dem Basiswechsel für Vektoren (7 vgl. Abschn. 6.5) transformieren wir die
Vektoren [v]B1 und [F(v)]B2 in den neuen Basen:
Somit
(8.13) (8.10) B
[F(v)]B′ = T B2 →B′ [F(v)]B2 = T B2 →B′ M B12 (F)[v]B1 (8.14)
2 2 2
(8.12) B B
= T B2 →B′ M B12 (F) T −1
B1 →B1′
[v]B′ ⇒ T B2 →B′ M B12 (F) T −1
B →B′
.
2 1 2 1 1
; <= >
B′
=M 1′ (F)
B
2
(8.15)
B′
M B1′ (F) = T B2 →B′ M B12 (F) T −1
B B
B →B′
= T B2 →B′ M B12 (F) T B′ →B1 (8.16)
2 2 1 1 2 1
$
8.3 • Basiswechsel für lineare Abbildungen
455 8
i Merkregel
Satz 8.13 kann man kompakt wie folgt ausdrücken
A′ = SAT −1 (8.17)
B B′
mit A = M B12 (F), A′ = M B1′ (F), S = T B2 →B′ und T = T B1 →B′ .
2 2 1
> Bemerkung
Ausgedrückt durch ein Diagramm besagt der Satz 8.13, dass es kommutiert:
# Satz 8.14
Es gilt:
′ −1
MB B B
B′ (F) = T B→B′ M B (F) T B→B′ = T B→B′ M B (F) T B′ →B (8.18)
i Merkregel
Satz 8.14 kann man kompakt wie folgt ausdrücken
A′ = TAT −1 (8.19)
′ ′
mit A = M B B
B (F), A = M B′ (F), T = T B→B′ .
> Bemerkung
Beachte: In der Gl. (8.17) gibt es zwei Transformationsmatrizen S und T. In der
Gl. (8.19) gibt es nur eine Transformationsmatrix T.
456 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Wie lautet die Darstellungsmatrix von F, wenn der Ausgangs- und Ankunftsraum mit
den Basen B1 bzw. B2 versehen sind? Diese Darstellungsmatrix haben wir bereits in
Musterbeispiel 7.2 bestimmt. Hier wollen wir diese mit einem Basiswechsel zwischen
der Standardbasis und B1 bzw. B2 bestimmen. Die Transformationsmatrix von B1 nach
der Standardbasis ist:
- .
2 1
T B1 →E = .
1 −1
woraus sich die Transformationsmatrix von der Standardbasis E nach B2 als Inverse
ergibt:
- .
−1 1
T E →B2 = T −1
B2 →E = .
1 0
Übung 8.29
• ◦ ◦ Sei V = R3 mit der Basis B = {v1 , v2 , v3 }, wobei
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎣0⎦ , v2 = ⎣1⎦ , v3 = ⎣0⎦ .
1 0 1
v Lösung
a) Da F durch ihrer Wirkung auf die Basiselemente der Basis B definiert ist, kann
man die Darstellungsmatrix von F in dieser Basis direkt bestimmen, indem wir die
Bilder der Basiselementen v1 , v2 und v3 in der Basis B als Spalten in einer Matrix
aufschreiben:
⎡ ⎤
2 02
⎢ ⎥
MB
B (F) = ⎣−1 1 0⎦ .
1 13
Mit der Formel für den Basiswechsel von linearen Abbildungen (Gl. (8.18)) finden
wir:
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 0 2 0 2 1 −1 0 −1 2 2
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
M EE (F) = T B→E M B
B (F)T E →B = ⎣0 1 0⎦ ⎣−1 1 0⎦ ⎣ 0 1 0⎦ = ⎣−1 2 0⎦ .
1 0 1 1 1 3 −1 1 1 −2 3 5
!
458 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Übung 8.30
• ◦ ◦ Sei V = R3 mit der Basis B = {b1 , b2 , b3 }, wobei
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 6
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b1 = ⎣0⎦ , b2 = ⎣1⎦ , b3 = ⎣4⎦ .
0 0 2
v Lösung
a) Darstellungsmatrix von F bezüglich B hat die Bilder der Basiselementen b1 , b2 und
b3 als Spalten
⎡ ⎤
000
⎢ ⎥
MB
B (F) = ⎣1 0 0⎦ .
010
Übung 8.31
• ◦ ◦ Es sei V = R2 . Man betrachte die folgenden linearen Abbildungen
5 F1 : R2 → R2 ist die Spiegelung an der Achse x1 = x2 .
5 F2 : R2 → R2 ist die Skalierung (Vergrösserung) um den Faktor 5.
8.3 • Basiswechsel für lineare Abbildungen
459 8
v Lösung
a) Mithilfe der Tabelle in Abschnitt 7.3.1 finden wir:
- . - .
01 50
M EE (F1 ) = , M EE (F2 ) = .
10 05
Übung 8.32
U3 1 4 3 1 4V
• ◦ ◦ Man betrachte V = R2 mit der Basis B = 0 , 1 . Es sei F : R2 → R3 eine
lineare Abbildung mit
⎡ ⎤ ⎡ ⎤
/- .0 1 /- .0 2
1 ⎢ ⎥ 1 ⎢ ⎥
F = ⎣1⎦ , F = ⎣3⎦ .
0 1
2 2
a) Man bestimme die Darstellungsmatrix von F, wenn R2 mit der Basis B und R3 mit
der Standardbasis versehen sind.
b) Man bestimme die Darstellungsmatrix von F in der Standardbasis.
v Lösung
a) Aus der Aufgabenstellung wissen wir bereits die Bilder der Basiselemente von B (in
der Standardbasis von R3 ausgedrückt). Die gesuchte Darstellungsmatrix lautet
somit:
460 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
⎡ ⎤
1 2
⎢ ⎥
MB
E (F) = ⎣1 3⎦ .
2 2
b) Es gilt:
- . - .−1 - .
11 11 1 −1
T B→E = ⇒ T E →B = T −1
B→E = = .
01 01 0 1
Übung 8.33
• ◦ ◦ Es seien
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫ ⎪ 1 1 1 1 ⎪
⎪ ⎪
⎨ 1
⎪ 1 1 ⎪
⎬ ⎪
⎨⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥⎪ ⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B1 = ⎣0⎦ , ⎣1⎦ , ⎣1⎦ , B2 = ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥
⎪
⎩ ⎪
⎭ ⎪
⎪⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦⎪ ⎪
0 0 1 ⎪
⎩ ⎪
⎭
0 0 0 1
Man bestimme die Darstellungsmatrix von F in den Basen B1 und B2 auf zwei Arten.
v Lösung
Möglichkeit 1: direkte Rechnung. Wir müssen die Bilder der Basisvektoren b1 , b2 , b3
der Basis B1 in der Basis B2 ausdrücken:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 1 1
⎢0⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥ ⎢−1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F(b1 ) = ⎢ ⎥ = ⎢ ⎥ − ⎢ ⎥ − ⎢ ⎥ + 2 ⎢ ⎥ ⇒ [F(b1 )]B2 =⎢ ⎥
⎣1⎦ ⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣−1⎦
2 0 0 0 1 2
8.3 • Basiswechsel für lineare Abbildungen
461 8
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 1 0
⎢1⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F(b2 ) = ⎢ ⎥ = 0 ⎢ ⎥ + 0 ⎢ ⎥ + 0 ⎢ ⎥ + ⎢ ⎥ ⇒ [F(b2 )]B2 =⎢ ⎥
⎣1⎦ ⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣0⎦
1 0 0 0 1 1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
3 1 1 1 1 3
⎢0⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥ ⎢−2⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F(b3 ) = ⎢ ⎥ = 3 ⎢ ⎥ − 2 ⎢ ⎥ − 3 ⎢ ⎥ + 5 ⎢ ⎥ ⇒ [F(b3 )]B2 =⎢ ⎥
⎣2⎦ ⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣−3⎦
5 0 0 0 1 5
Möglichkeit 2: Basiswechsel. Die Bilder der Basisvektoren von B1 unter F sind in der
Standardbasis E ausgedrückt. Wir können somit die Darstellungsmatrix von F ganz
einfach bestimmen, wenn R4 mit der Standardbasis versehen ist. Wir schreiben einfach
die Bilder als Spalten auf:
⎡ ⎤
1 1 3
⎢0
B ⎢ 1 0⎥⎥
M E 1 (F) = ⎢ ⎥.
⎣1 1 2⎦
2 1 5
B
Um M B12 (F) zu bestimmen, führen wir eine Basistransformation von der Standardbasis
nach B2 durch:
⎡ ⎤ ⎡ ⎤
1111 1 −1 0 0
⎢0 1 1 1⎥ ⎢0 1 −1 0 ⎥
⎢ ⎥ ⎢ ⎥
T B2 →E = ⎢ ⎥ ⇒ T E →B2 = T −1 B →E =⎢ ⎥.
⎣0 0 1 1⎦ 2 ⎣0 0 1 −1⎦
0001 0 0 0 1
Übung 8.34
• ◦ ◦ Es sei F : R5 → R3 eine lineare Abbildung definiert durch
⎛⎡ ⎤⎞
x1
⎜⎢ ⎥⎟ ⎡ ⎤
⎜⎢x2 ⎥⎟ x + 2x2 + 2x3 − x4 + x5
⎜⎢ ⎥⎟ ⎢ 1 ⎥
F⎜ ⎢ ⎥⎟
⎜⎢x3 ⎥⎟ = ⎣ x1 + 2x2 + x3 + x5 ⎦ .
⎜⎢ ⎥⎟
⎝⎣x4 ⎦⎠ x1 + x3 + 2x4 + x5
x5
v Lösung
a) Die Darstellungsmatrix von F in der Standardbasis ist:
⎡ ⎤
1 2 2 −1 1
⎢ ⎥
M EE (F) = ⎣1 2 1 0 1⎦ .
101 2 1
und
⎡ ⎤ ⎡ ⎤
1 1
101 2 2 − 12
⎢ ⎥ ⎢ 1 ⎥
T C →E = ⎣1 1 0⎦ ⇒ T E →C = T −1
C →E = ⎣− 2
1
2
1
2 ⎦.
1
011 2 − 12 1
2
Übung 8.35
• • ◦ Man betrachte die folgenden Homomorphismen auf R2×2
A + AT
F1 :R2×2 → R2×2 , A→
2
A − AT
F2 :R2×2 → R2×2 , A→ .
2
v Lösung
a) Darstellungsmatrix von F1 : Wir bestimmen die Bilder der Standardbasiselemente
von R2×2
464 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
- . - . ⎡ ⎤
10 10 1
+ - .
00 00 ⎢0⎥
10 ⎢ ⎥
F1 (E11 ) = = ⇒ [F1 (E11 )]E = ⎢ ⎥
2 00 ⎣0⎦
0
- . - . ⎡ ⎤
01 00 0
+ - .
00 10 0 1 ⎢1⎥
2 ⎢2⎥
F1 (E12 ) = = 1
⇒ [F1 (E12 )]E = ⎢ 1 ⎥
2 2 0 ⎣2⎦
0
- . - . ⎡ ⎤
00 01 0
+ - .
10 00 1 ⎢1⎥
0 2 ⎢ ⎥
F1 (E21 ) = = 1
⇒ [F1 (E21 )]E = ⎢ 21 ⎥
2 2 0 ⎣2⎦
0
- . - . ⎡ ⎤
00 00 0
+ - .
01 01 ⎢0⎥
00 ⎢ ⎥
F1 (E22 ) = = ⇒ [F1 (E22 )]E = ⎢ ⎥
2 01 ⎣0⎦
1
⎡ ⎤
1 0 0 0
⎢0 1 1
⎢ 0⎥⎥
Die gesuchte Darstellungsmatrix lautet somit M EE (F1 ) = ⎢ 21 12 ⎥.
⎣0 2 2 0⎦
0 0 0 1
Darstellungsmatrix von F2 : Für F2 gilt:
- . - . ⎡ ⎤
10 10 0
− - .
00 00 ⎢0⎥
00 ⎢ ⎥
F2 (E11 ) = = ⇒ [F2 (E11 )]E = ⎢ ⎥
2 00 ⎣0⎦
0
- . - . ⎡ ⎤
01 00 0
− - .
00 10 ⎢ 1 ⎥
0 12 ⎢ ⎥
F2 (E12 ) = = ⇒ [F2 (E12 )]E = ⎢ 21 ⎥
2 − 12 0 ⎣− 2 ⎦
0
- . - . ⎡ ⎤
00 01 0
− - .
10 00 ⎢− 1 ⎥
0 − 21 ⎢ ⎥
F2 (E21 ) = = 1
⇒ [F2 (E21 )]E = ⎢ 12 ⎥
2 2 0
⎣ 2 ⎦
0
- . - . ⎡ ⎤
00 00 0
− - .
01 01 ⎢0⎥
00 ⎢ ⎥
F2 (E22 ) = = ⇒ [F2 (E22 )]E = ⎢ ⎥
2 00 ⎣0⎦
0
8.3 • Basiswechsel für lineare Abbildungen
465 8
⎤ ⎡
0 0 0 0
⎢0 1 − 1 0⎥
⎢ ⎥
Die gesuchte Darstellungsmatrix lautet somit M EE (F2 ) = ⎢ 21 12 ⎥ .
⎣0 − 2 2 0⎦
0 0 0 0
b) Kern von F1 : Um den Kern von F1 zu bestimmen, lösen wir
⎡ ⎤ ⎡ ⎤
1 0 0 0 0 1 0 0 0 0
(Z3 ) − (Z2 )
⎢ ⎥ ⎢0
⎢ 0 12 12 0 0 ⎥ 2(Z2 ) ⎢ 1 1 0 0⎥⎥
⎢ ⎥ % ⎢ ⎥=Z
⎣ 0 12 12 0 0 ⎦ ⎣0 0 0 0 0⎦
0 0 0 1 0 0 0 0 1 0
Aus der letzten Gleichung folgt x4 = 0, während aus der ersten Gleichung x1 = 0
folgt. Aus der zweiten Gleichung sieht man, dass x2 frei wählbar ist. Wir setzen
x2 = t, dann folgt x3 = −x2 = −t. Somit ist
⎤⎡
0 J I-
I .J
⎢1⎥
⎢ ⎥ 0 1
Ker(F1 ) = ⎢ ⎥ ≡ = Skew2 (R)
⎣−1⎦ −1 0
0
Der Kern von F1 ist die Menge der schiefsymmetrischen Matrizen (vgl. Übung 6.52).
Bild von F1 : Um das Bild von F1 zu bestimmen, gehen wir wie im Kochrezept 8.1
vor: Wir bilden M EE (F1 )T , wenden den Gauß-Algorithmus an und lesen die von
Null verschiedenen Zeilen direkt aus.
⎡ ⎤ ⎡ ⎤
1 0 0 0 1 0 0 0
(Z3 ) − (Z2 )
⎢ ⎥ ⎢0
⎢ 0 12 12 0 ⎥ 2(Z2 ) ⎢ 1 1 0⎥⎥
⎢ ⎥ % ⎢ ⎥ = Z.
⎣ 0 12 12 0 ⎦ ⎣0 0 0 0⎦
0 0 0 1 0 0 0 1
Somit ist
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
I 1 0 0 J I- . - . - .J
⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 10 01 00
Im(F1 ) = ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ ≡ , , = Sym2 (R).
⎣0⎦ ⎣1⎦ ⎣0⎦ 00 10 01
0 0 1
Das Bild von von F1 ist die Menge der symmetrischen Matrizen Übung 6.52.
Kern von F2 : Um den Kern von F2 zu bestimmen, lösen wir
⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0 0 0 0 0
(Z3 ) + (Z2 )
⎢ ⎥ ⎢0 ⎥
⎢ 0 2 − 12
1
0 0 ⎥ 2(Z2 ) ⎢ 1 −1 0 0⎥
⎢ ⎥ % ⎢ ⎥ = Z.
⎣ 0 − 12 21 0 0 ⎦ ⎣0 0 0 0 0⎦
0 0 0 0 0 0 0 0 0 0
466 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Wir haben eine einzige Gleichung für 4 Unbekannte. Somit sind 3 Variablen frei
wählbar, x1 = t, x2 = s und x4 = p. Aus der zweiten Gleichung folgt dann x3 =
x2 = s. Somit ist
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
I 1 0 0 J I- . - . - .J
⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 10 01 00
Ker(F2 ) = ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ ≡ , , = Sym2 (R)
⎣0⎦ ⎣1⎦ ⎣0⎦ 00 10 01
0 0 1
Somit ist
⎤ ⎡
0 J I-
I .J
⎢1⎥
⎢ ⎥ 0 1
Im(F2 ) = ⎢ ⎥ ≡ = Skew2 (R).
⎣−1⎦ −1 0
0
Das Bild von von F2 ist die Menge der schiefsymmetrischen Matrizen.
c) Die Transformationsmatrix von B nach der Standardbasis E lautet:
⎡ ⎤
1 1 0 0
⎢0
⎢ 0 1 1⎥ ⎥
T B→E =⎢ ⎥.
⎣0 0 1 −1⎦
1 −1 0 0
Somit
⎡1 ⎤⎡ ⎤⎡ ⎤
0 0 12
2 1 0 0 0 1 1 0 0
⎢1 1⎥⎢ 1 1 ⎥ ⎢
⎢20 0 − 2 ⎥ ⎢0 2 2 0⎥ ⎢0 0 1 1⎥⎥
MB E
B (F1 ) = T E →B M E (F1 )T B→E = ⎢ ⎥⎢ ⎥⎢ ⎥
⎣ 0 12 21 0 ⎦ ⎣0 12 12 0⎦ ⎣0 0 1 −1⎦
0 12 − 12 0 0 0 0 1 1 −1 0 0
8.3 • Basiswechsel für lineare Abbildungen
467 8
⎡ ⎤
1 0 0 0
⎢0
⎢ 1 0 0⎥
⎥
=⎢ ⎥
⎣0 0 1 0⎦
0 0 0 0
⎡1 ⎤⎡ ⎤⎡ ⎤
20 0 12 0 0 0 0 1 1 0 0
⎢1 1⎥⎢ 1 ⎥⎢
⎢2
1
0 0 − 2 ⎥ ⎢0 2 − 2 0⎥ ⎢0 0 1 1⎥ ⎥
MB E
B (F2 ) = T E →B M E (F2 )T B→E = ⎢ ⎥⎢ ⎥⎢ ⎥
⎣ 0 12 12 0 ⎦ ⎣0 − 12 12 0⎦ ⎣0 0 1 −1⎦
0 12 − 12 0 0 0 0 0 1 −1 0 0
⎡ ⎤
0 0 0 0
⎢0
⎢ 0 0 0⎥
⎥
=⎢ ⎥.
⎣0 0 0 0⎦
0 0 0 1
Übung 8.36
• • ◦ Es sei V = C2×2 und
- .
11
F : C2×2 → C2×2 , X → F(X) = BX − XB, mit B = .
01
v Lösung
a) Wir berechnen die Bilder der Standardbasiselementen E11 , E12 , E21 , E22 unter F
⎡ ⎤
- .- . -
.- . - . 0
⎢−1⎥
11 10 10 11 0 −1 ⎢ ⎥
F(E11 ) = − = = −E12 ⇒ ⎢ ⎥
01 00 00 01 0 0 ⎣0⎦
0
⎡ ⎤
- .- . - .- . - . 0
⎢0⎥
11 01 01 11 00 ⎢ ⎥
F(E12 ) = − = =0 ⇒ ⎢ ⎥
01 00 00 01 00 ⎣0⎦
0
⎡ ⎤
- .- . -
.- . - . 1
⎢0⎥
11 00 00 11 1 0 ⎢ ⎥
F(E21 ) = − = = E11 − E22 ⇒ ⎢ ⎥
01 10 10 01 0 −1 ⎣0⎦
−1
⎡ ⎤
- .- . - .- . - . 0
⎢1⎥
11 00 00 11 01 ⎢ ⎥
F(E22 ) = − = = E12 ⇒ ⎢ ⎥
01 01 01 01 00 ⎣0⎦
0
Deren Inverse ist die Transformationsmatrix von der Standardbasis nach der
Basis B:
⎡1 1
⎤
2 0 0 2
⎢0 1 1 0 ⎥
⎢ 2 2 ⎥
T E →B = T −1
B→E = ⎢ ⎥.
⎣ 0 2i − 2i 0 ⎦
1
2 0 0 − 12
Übung 8.37
• • ◦ Sei P2 (R) der Vektorraum der reellen Polynome von Grad ≤ 2. Man betrachte die
lineare Abbildung
v Lösung
a) Die Standardbasis von P2 (R) ist {1, x, x2 }. Um die Darstellungsmatrix von F in
dieser Basis zu bestimmen, müssen wir die Bilder der Basiselemente ermitteln
⎡ ⎤
000
⎢ ⎥
M EE (F) = ⎣0 1 0⎦ .
002
Wir schreiben diese Vektoren als Spalten in einer Matrix auf und wenden den Gauß-
Algorithmus an, um den Rang von dieser Matrix zu bestimmen (Rang-Kriterium,
7 Abschn. 6.4.1)
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
001 1 2 3 1 2 3
⎢ ⎥ 1(Z ) ↔ (Z )
3 ⎢ (Z
⎥ 2 ) − (Z ) ⎢ ⎥
⎣1 1 2⎦ % ⎣1 1 2⎦ % 1 ⎣ 0 −1 −1 ⎦
123 0 0 1 0 0 1.
Die Matrix hat Rang 3. Somit sind die Polynome {x2 + x, 2x2 + x, 3x2 + 2x + 1}
linear unabhängig, also eine Basis von P2 (R).
Alternative: Mit dem Determinantenkriterium (7 vgl. Abschn. 6.4.2) erhalten
wir
⎡ ⎤
001 O O
O1
⎢ ⎥ O 1OO
det ⎣1 1 2⎦ = 1 · O O = 1 ̸= 0 ⇒ Basis.
O1 2O
123
e) Es gilt:
⎡ ⎤ ⎡ ⎤
001 −1 2 −1
⎢ ⎥ ⎢ ⎥
T B→E = ⎣1 1 2⎦ ⇒ T E →B = T −1
B→E = ⎣−1 −1 1 ⎦ .
123 1 0 0
8.3 • Basiswechsel für lineare Abbildungen
471 8
Mittels Gl. (8.18) erkennen wir:
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
−1 2 −1 0 0 0 0 0 1 0 −2 −2
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
MB E
B (F) = T E →B M E (F)T B→E = ⎣−1 −1 1 ⎦ ⎣0 1 0⎦ ⎣1 1 2⎦ = ⎣1 3 4 ⎦ .
1 0 0 0 0 2 1 2 3 0 0 0
Übung 8.38
• • ◦ Sei P3 (R) der Vektorraum der reellen Polynome vom Grad ≤ 3 mit der Basis
E = {1, x, x2 , x3 } und sei
v Lösung
a) Wir bestimmen das Bild aller Basiselemente:
⎡ ⎤ ⎡ ⎤
0 2
⎢0⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
F(1) = 0 ⇒ [F(1)]E = ⎢ ⎥ , F(x2 ) = 2 + 2x2 ⇒ [F(x2 )]E = ⎢ ⎥ ,
⎣0⎦ ⎣2⎦
0 0
⎡ ⎤ ⎡ ⎤
0 0
⎢1⎥ ⎢6⎥
⎢ ⎥ ⎢ ⎥
F(x) = x ⇒ [F(x)]E = ⎢ ⎥ , F(x3 ) = 6x + 3x3 ⇒ [F(x3 )]E = ⎢ ⎥ .
⎣0⎦ ⎣0⎦
0 3
⎡ ⎤
0020
⎢0 1 0 6⎥
⎢ ⎥
Also die Darstellungsmatrix von F ist M EE (F) = ⎢ ⎥.
⎣0 0 2 0⎦
0003
b) Die Polynome {1 + x3 , x − x2 , x2 + x3 , x3 } entsprechen in der Standardbasis die
folgenden Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0
⎢0⎥ ⎢1⎥ ⎢0⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[1 + x3 ]E = ⎢ ⎥ , [x − x2 ]E = ⎢ ⎥ , [x2 + x3 ]E = ⎢ ⎥ , [x3 ]E = ⎢ ⎥ .
⎣0⎦ ⎣−1⎦ ⎣1⎦ ⎣0⎦
1 0 1 1
⎡ ⎤ ⎡ ⎤
1 0 0 0 1 0 0 0
⎢0 0⎥ ⎢0
⎢ 1 0 ⎥ ⎢ 1 0 0⎥⎥
T B→E =⎢ ⎥ ⇒ T E →B = T −1
B→E =⎢ ⎥.
⎣0 −1 1 0⎦ ⎣0 1 1 0⎦
1 0 1 1 −1 −1 −1 1
Übung 8.39
• • • In dieser Aufgabe benutzen wir lineare Abbildungen und Basistransformationen,
um die Vandermonde-Determinante zu berechnen (vgl. Übung 3.32). Es sei V =
Pn−1 (R) der Vektorraum der reellen Polynome vom Grad ≤ n − 1 und es sei x =
[x1 , x2 , · · · , xn ]T ∈ Rn . Man betrachte die lineare Abbildung
⎡ p(x ) ⎤
1
n ⎢ p(x2 ) ⎥
F : Pn−1 (R) → R , p(x) → ⎣ . ⎦ .
..
p(xn )
c) Man bestimme die Transformationsmatrix T B→E von der Basis B nach E . Man
zeige, dass det(T B→E ) = 1.
d) Man folgere aus (a,b,c) die folgende Formel für die Vandermonde Determinante
⎡ ⎤
1 x1 x21 ··· xn−1
1
⎢ 1 x2 x22 ··· xn−1
⎥ W2
det ⎢ ⎥
⎣ .. .. .. . . .. ⎦ = (xj − xi ).
. . . . . i<j
1 xn xn−1
n ··· xn−1
n
8.3 • Basiswechsel für lineare Abbildungen
473 8
v Lösung
a) Die Standardbasis von Pn−1 (R) ist E = {1, x, x2 , · · · , xn−1 }. Um die Darstellungs-
matrix von F zu berechnen, bestimmen wir die Bilder der Basiselemente von E
unter F:
⎡ ⎤ ⎡ ⎤ ⎡ 2⎤ ⎡ n−1 ⎤
1 x1 x1 x1
⎢1⎥ ⎢x ⎥ ⎢x2 ⎥ ⎢xn−1 ⎥
⎢ ⎥ ⎢ 2⎥ 2
⎢ 2⎥ n−1
⎢ 2 ⎥
F(1) = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ , F(x) = ⎢ .. ⎥ , F(x ) = ⎢ .. ⎥ , · · · , F(x ) = ⎢ .. ⎥ .
⎣.⎦ ⎣.⎦ ⎣.⎦ ⎣ . ⎦
1 xn x2n xn−1
n
⎡ ⎤
1 x1 x21 ··· xn−1
1
⎢ 1 x2 ··· ⎥ x22 xn−1
2
Die gesuchte Darstellungsmatrix ist somit M EE (F) = ⎢ ⎥
⎣ .. .. .. . . .. ⎦. Diese
. . . . .
1 xn xn−1
n ··· xn−1
n
Matrix ist bekannt als Vandermonde-Matrix.
b) Wir gehen wie in (a) vor und wir bestimmen die Bilder der Basiselemente von B
unter F:
⎡ ⎤ ⎡ ⎤
1 0
⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢x2 − x1 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
F(1) = ⎢1⎥ , F(x − x1 ) = ⎢x3 − x1 ⎥ ,
⎢.⎥ ⎢ . ⎥
⎢.⎥ ⎢ . ⎥
⎣.⎦ ⎣ . ⎦
1 xn − x1
⎡ ⎤
0
⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢(x3 − x1 )(x3 − x2 )⎥
F((x − x1 )(x − x2 )) = ⎢ ⎥, ··· ,
⎢ .. ⎥
⎢ ⎥
⎣ . ⎦
(xn − x1 )(xn − x2 )
⎡ ⎤
0
⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢ 0 ⎥
F((x − x1 ) · · · (x − xn−1 )) = ⎢ ⎥.
⎢ .. ⎥
⎢ ⎥
⎣ . ⎦
(xn − x1 )(xn − x2 ) · · · (xn − xn−1 )
Die gesuchte Darstellungsmatrix ist somit (der Zielraum ist immer noch Rn mit der
Standardbasis):
⎡1 0 0 ··· 0
⎤
1 x2 −x1 0 ··· 0
⎢ 1 x3 −x1 (x3 −x1 )(x3 −x2 ) ··· 0 ⎥
M EB (F) =⎢
⎣ .. .. .. ..
⎥.
⎦
..
. . . . .
1 xn −x1 (xn −x1 )(xn −x2 ) ··· (xn −x1 )···(xn −xn−1 )
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −x1 x1 x2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢0⎥ ⎢ 1 ⎥ ⎢−(x1 + x2 )⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[1]E = ⎢0⎥ , [x − x1 ]E = ⎢ 0 ⎥ , [(x − x1 )(x − x2 )]E = ⎢ 1 ⎥ usw.
⎢.⎥ ⎢ . ⎥ ⎢ . ⎥
⎢.⎥ ⎢ . ⎥ ⎢ . ⎥
⎣.⎦ ⎣ . ⎦ ⎣ . ⎦
0 0 0
Um die Koordinaten von [(x−x1 )(x−x2 )]E zu bestimmen, haben wir (x−x1 )(x−x2 )
wie folgt umgeschrieben (x − x1 )(x − x2 ) = x2 − (x1 + x2 )x + x1 x2 . Die gesuchte
Transformationsmatrix lautet somit
⎡ ⎤
1 −x1 x1 x2 ··· ⋆
⎢ ⎥
⎢0 1 −(x1 + x2 ) · · · ⋆⎥
⎢ ⎥
⎢ · · · ⋆⎥
T B→E = ⎢0 0 1 ⎥.
⎢. . .. . . .. ⎥
⎢. . . .⎥
⎣. . . ⎦
0 0 0 ··· 1
# Satz 8.15
A, B ∈ Km×n sind äquivalent ⇔ Rang(A) = Rang(B). $
# Satz 8.16
Es sei A ∈ Km×n . Dann ist A äquivalent zu einer Blockmatrix der Form
- .
E r×r 0
, E r×r = (r × r)-Einheitsmatrix, (8.21)
0 0
Mit anderen Worten: Für jede lineare Abbildung F : V → W gibt es Basen B und B ′
von V bzw. W , bezüglich welcher die Darstellungsmatrix von F eine ganz spezielle
Form hat:
⎡ ⎤
1 ··· 0 0 ··· 0
⎢. . . . . .⎥
⎢ .. . . .. .. . . .. ⎥
⎢ ⎥
⎢ ⎥
⎢ 0 · · · 1 0 · · · 0 ⎥
MBB′ (F) = ⎢ ⎥. (8.22)
⎢0 ··· 0 0 ··· 0⎥
⎢ ⎥
⎢ .. . . .. .. . . .. ⎥
⎣. . . . . .⎦
0 ··· 0 0 ··· 0
Siehe Übung 8.42, welches eine Methode zur Konstruktion einer solchen Basistrans-
formation zeigt.
Im Spezialfall V = W nutzt man oft dieselbe Basis für den Ausgangsraum und den
Zielraum. In diesem Fall definiert man:
> Bemerkung
Beachte: Ähnliche Matrizen sind äquivalent (setze S = T), aber die Umkehrung gilt
im Allgemeinen nicht!
A und B äquivalent 9⇒
̸ A und B ähnlich. (8.24)
Die Ähnlichkeit von Matrizen ist somit eine stärkere Eigenschaft als die Äquiva-
lenz: Bei der Äquivalenz von Matrizen können zwei Basen variiert werden, bei der
Ähnlichkeit nur eine. Aus diesem Grund erfordert die Ähnlichkeit von Matrizen
fortgeschrittenere Hilfsmittel, wie z. B. Eigenwerte und Eigenvektoren, welche wir erst
im 7 Kap. 9 diskutieren werden.
Übung 8.40 ⎡ ⎤ ⎡ ⎤
111 1 2 2
⎢ ⎥ ⎢ ⎥
• ◦ ◦ Es seien A = ⎣1 2 2⎦ und B = ⎣−2 2 8 ⎦.
233 2 1 −2
v Lösung
a) A und B sind genau dann äquivalent, wenn sie denselben Rang haben (Satz 8.15).
Wegen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
111 (Z2 ) − (Z1 ) 111 111
⎢ ⎥ (Z3 ) − 2(Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣1 2 2⎦ % ⎣0 1 1⎦ % ⎣0 1 1⎦ ⇒ Rang(A) = 2
233 011 000
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 2 (Z2 ) + 2(Z1 ) 1 2 2 1 2 2
⎢ ⎥ (Z3 ) − 2(Z1 ) ⎢ ⎥ (Z3 ) + 2(Z2 ) ⎢ ⎥
⎣−2 2 8 ⎦ % ⎣0 6 12 ⎦ % ⎣0 6 12⎦ ⇒ Rang(B) = 2
2 1 −2 0 −3 −6 0 0 0
Übung 8.41
⎡ ⎤
0 1 k 2
⎢1
⎢ 1 0 2⎥ ⎥
• ◦ ◦ Für welche k ∈ R ist A = ⎢ ⎥ äquivalent zur folgenden Matrix?
⎣0 1 1 2⎦
−2 0 1 −1
⎡ ⎤
1 0 0 0
⎢0
⎢ 1 0 0⎥⎥
B=⎢ ⎥
⎣0 0 1 0⎦
0 0 0 0
v Lösung
a) Es gilt:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 k 2 −2 0 1 −1 −2 0 1 −1
⎢1 2⎥ ⎢1 1 0 2⎥ ⎢0
⎢ 1 0 ⎥ 1(Z ) ↔ (Z ) ⎢ ⎥ 2(Z2 ) + (Z1 ) ⎢ 2 1 3⎥ ⎥
⎢ ⎥ % 4 ⎢ ⎥ % ⎢ ⎥
⎣0 1 1 2⎦ ⎣0 1 1 2⎦ ⎣0 1 1 2⎦
−2 0 1 −1 0 1 k 2 0 1 k 2
⎡ ⎤ ⎡ ⎤
−2 0 1 −1 −2 0 1 −1
2(Z3 ) − (Z2 )
⎢ 3⎥ ⎢0
2(Z4 ) − (Z2 ) ⎢ 0 2 1 ⎥ (Z4 ) − (2k − 1)(Z3 ) ⎢ 2 1 3 ⎥⎥
% ⎢ ⎥ % ⎢ ⎥ = Z.
⎣0 0 1 1⎦ ⎣0 0 1 1 ⎦
0 0 2k − 1 1 0 0 0 2(1 − k)
Somit ist
⎧
⎨4, k ̸= 1
Rang(A) = .
⎩3, k = 1
Die Matrix B hat Rang 3. Folglich sind A und B nur für k = 1 äquivalent. !
Übung 8.42
• • • Es sei F : R3 → R3 linear mit Darstellungsmatrix
⎡ ⎤
−2 1 1
⎢ ⎥
A = ⎣ 1 −2 1 ⎦ .
1 1 −2
-.
E r×r 0
Man finde r ∈ N, sodass A zu B = äquivalent ist. Man finde explizite Basen
0 0
von R3 bezüglich welcher die Darstellungsmatrix von F diese Gestalt hat.
478 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
v Lösung
Wir bestimmen den Rang von A mit dem Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−2 1 1 2(Z2 ) + (Z1 ) −2 1 1 2 1 1
⎢ ⎥ 2(Z3 ) + (Z1 ) ⎢ ⎥ (Z3 ) + (Z2 ) ⎢ ⎥
⎣ 1 −2 1 ⎦ % ⎣ 0 −3 3 ⎦ % ⎣0 −3 3⎦ ⇒ Rang(A) = 2.
1 1 −2 0 3 −3 0 0 0
Aus Satz 8.16 folgt somit, dass A zur folgenden Matrix äquivalent ist:
⎡ ⎤
100
⎢ ⎥
B = ⎣0 1 0⎦
000
5 Schritt 2: Wir bestimmen die Bilder der ergänzten Vektoren e1 , · · · , er . Diese Bilder
ergänzen wir (rechts) mit n−r beliebigen Vektoren zu einer Basis B′ des Zielraumes:
Wir haben eine zwei Gleichungen für 3 Unbekannte bekommen. Somit ist eine Variable
frei wählbar, x3 = t. Daraus folgt x2 = t und x1 = t, d. h.
8.4 • Äquivalenz und Ähnlichkeit von Matrizen
479 8
⎡ ⎤
I 1 J
⎢ ⎥
Ker(A) = ⎣1⎦ .
1
Bezüglich der Basen B und B′ sollte die Darstellungsmatrix von F gleich B sein:
MB E
B′ (F) = T E →B′ M E (F) T B→E = T E →B′ A T B→E
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
0 13 23 −2 1 1 101 100
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
= ⎣0 − 13 31 ⎦ ⎣ 1 −2 1 ⎦ ⎣0 1 1⎦ = ⎣0 1 0⎦ = B "
1 1 1 1 1 −2 011 000 !
Übung 8.43 ⎡ ⎤ ⎡ ⎤
111 1 2 −1
⎢ ⎥ ⎢ ⎥
• • • Es seien A = ⎣1 1 1⎦ und B = ⎣−1 −2 1 ⎦.
111 2 4 −2
a) Sind A und B äquivalent?
b) Man gebe explizite invertierbare Matrizen S, T an mit B = SAT −1 .
c) Sind A und B ähnlich?
480 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
v Lösung
a) A und B sind genau dann äquivalent, wenn sie denselben Rang haben (Satz 8.15).
Wegen
⎡
⎤ ⎡ ⎤
111 (Z2 ) − (Z1 ) 111
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣1 1 1⎦ % ⎣0 0 0⎦ ⇒ Rang(A) = 1
111 000
⎡ ⎤ ⎡ ⎤
1 2 −1 (Z2 ) + (Z1 ) 1 2 −1
⎢ ⎥ (Z3 ) − 2(Z1 ) ⎢ ⎥
⎣−1 −2 1 ⎦ % ⎣0 0 0 ⎦ ⇒ Rang(B) = 1
2 4 −2 00 0
überführen. Denn A und B haben beide Rang 1. Nach Satz 8.16 sind A und B
äquivalent zu X. Diese Basistransformationen erzeugen wir mit derselben Methode
wie in Übung 8.42.
5 Basistransformation für A. Schritt 1: Wir bestimmen eine Basis von Ker(A)
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 0 (Z2 ) − (Z1 ) 1 1 1 0 I 1 1 J
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 1 1 0⎦ % ⎣ 0 0 0 0 ⎦ = Z ⇒ Ker(A) = ⎣−1⎦ , ⎣ 0 ⎦ .
1 1 1 0 0 0 0 0 0 −1
Mit der Basistransformation nach den Basen B1 und B1′ finden wir:
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
00 1 111 1 1 1 100
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
T E →B′ A T B1 →E = ⎣1 0 −1⎦ ⎣1 1 1⎦ ⎣0 −1 0 ⎦ = ⎣0 0 0⎦ "
1
0 1 −1 111 0 0 −1 000
Daraus folgt:
⎡ ⎤ ⎡ ⎤
1 10 0 0 12
⎢ ⎥ ⎢ ⎥
T B′ →E = ⎣−1 0 1⎦ ⇒ T E →B′ = T −1
B′ →E
= ⎣1 0 − 12 ⎦ .
2 2 2
1
2 00 01 2
Mit der Basistransformation nach den Basen B2 und B2′ finden wir:
482 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
0 0 12 1 2 −1 1 −2 1 100
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
T E →B′ B T B2 →E = ⎣1 0 − 21 ⎦ ⎣−1 −2 1 ⎦ ⎣0 1 0⎦ = ⎣0 0 0⎦ "
2
1
01 2 2 4 −2 0 0 1 000
Zusammenfassend:
⎡ ⎤
100
⎢ ⎥
⎣0 0 0⎦ = T E →B1′ A T B1 →E = T E →B2′ B T B2 →E
000
⇒ B = T −1 T ′ A T B →E T
E →B2′ E →B1 1
−1
B →E = SAT
−1
Probe:
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
10 0 111 1 3 0 1 2 −1
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
SAT −1 = ⎣0 1 −2⎦ ⎣1 1 1⎦ ⎣0 −1 0 ⎦ = ⎣−1 −2 1 ⎦ = B "
00 2 111 0 0 −1 2 4 −2
Übung 8.44
• • ◦ Es sei A ∈ Rm×n mit Rang(A) = r. Man zeige, dass es Matrizen B ∈ Rm×r und
C ∈ Rr×n gibt mit Rang(B) = Rang(C) = r und A = BC.
v Lösung . -
E r×r 0
Nach Satz 8.15 ist A äquivalent zu , wobei r = Rang(A). Es gibt also
0 0
invertierbare Matrizen S ∈ GL(m, R) und T ∈ GL(n, R) mit
- .
E r×r 0r×(n−r)
A=S T −1 .
0(m−r)×r 0(m−r)×(n−r)
Wegen
8.4 • Äquivalenz und Ähnlichkeit von Matrizen
483 8
- . - .
E r×r 5 6 E r×r 0r×(n−r)
E r×r 0r×(n−r) =
0(m−r)×r ; <= > 0(m−r)×r 0(m−r)×(n−r)
; <= > r×n ; <= >
m×r m×n
gilt
- . - .
E r×r 0r×(n−r) E r×r 5 6
−1
A=S T =S E r×r 0r×(n−r) T −1 .
0(m−r)×r 0(m−r)×(n−r) 0(m−r)×r ; <= >
; <= > =:C
=:B
Es ist damit A = BC. Weil S und T invertierbar sind haben B und C beide Rang r. !
Übung 8.45
• ◦ ◦ Man zeige: Ähnliche Matrizen haben gleiche Spur und Determinante.
v Lösung
Es seien A′ und A ähnlich. Dann gibt es eine Transformationsmatrix T ∈ GL(n, K) mit
A′ = TAT −1 .
Invarianz der Spur: Wegen der Zyklizität der Spur1 gilt:
1 2 1 2 1 2
Spur A′ = Spur TAT −1 = Spur T −1 TA = Spur(E A) = Spur(A).
Übung 8.46
• ◦ ◦ Es seien A, B ∈ Kn×n ähnlich. Man zeige, dass auch Am und Bm ähnlich sind.
v Lösung
Weil A und B ähnlich sind, gibt es eine invertierbare Matrix T mit B = TAT −1 . Für
Bm gilt dann:
1 2m
Bm = TAT −1 = TA ;T −1
<= T> A T
−1 −1 −1 m −1
; <= T> AT · · · TAT = TA T ,
=E =E
1 Erinnerung: Die Spur ist Invariant bezüglich zyklischer Vertauschungen der Matrizen,
d. h. Spur(ABC) = Spur(CAB) = Spur(BCA) (7 vgl. Kap. 1).
484 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel
Übung 8.47
• ◦ ◦ Man betrachte die folgende Relation für Matrizen in Kn×n :
v Lösung
Wir müssen die drei Eigenschaften der Definition einer Äquivalenzrelation überprüfen.
Es seien also A, B, C ∈ Kn×n . Dann gilt:
1) Reflexivität: Offenbar ist A = EAE −1 , d. h. A ∼ A. Somit erfüllt “∼” die
Reflexivität-Eigenschaft. "
2) Symmetrie: Ist A ∼ B, so gibt es eine invertierbare Matrix T mit B = TAT −1 .
Daraus folgt:
1 2−1
A = T −1 BT = T −1 B T −1 .
und PT ist invertierbar. Somit ist A ∼ C und die Transitivität von ∼ ist erfüllt. "
Die drei Eigenschaften der Definition einer Äquivalenzrelation sind erfüllt. Somit
definiert “∼” eine Äquivalenzrelation auf Kn×n . !
Übung 8.48
• ◦ ◦ Es seien A und B ∈ Kn×n und λ ∈ K. Man zeige:
v Lösung
Beweis von “⇒”: Nehmen wir an, dass A und B ähnlich sind. Dann gibt es eine
invertierbare Matrix T mit B = TAT −1 . Daraus folgt:
T (A − λE) T −1 = TAT −1
; <= > −λ TET
−1
; <= > = B − λE.
=B =E
= (B − λE) + λE = B.
Übung 8.49
• • ◦ Es seien A, B ∈ Rn×n ähnlich. Man zeige: Ker(A) ∼
= Ker(B).
v Lösung
Erinnerung: A, B ∈ Rn×n sind ähnlich, wenn es S ∈ GL(n, R) gibt mit B = SAS −1
bzw. A = S −1 BS. Zu zeigen ist, dass Ker(A) und Ker(B) isomorph sind. Um dies zu
beweisen, genügt es zu zeigen, dass es ein Isomorphismus zwischen Ker(A) und Ker(B)
gibt. Es sei v ∈ Ker(A) ⇒ Av = 0 ⇒ S −1 BSv = 0 ⇒ B(Sv) = 0 ⇒ Sv ∈ Ker(B).
Wir definieren somit eine Abbildung * : Ker(A) → Ker(B) durch *(v) = Sv.
Die „Hoffnung“ ist, dass * ein Isomorphismus ist. * ist eine lineare Abbildung. Die
Darstellunsgmatrix von * ist gleich der Matrix S. Weil S invertierbar ist, ist * ein
Isomorphismus. Somit sind Ker(A) und Ker(B) isomorph, d. h. Ker(A) ∼ = Ker(B). !
487 9
Eigenwerte und
Eigenvektoren
Inhaltsverzeichnis
n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 9 sind Sie in der Lage:
5 das Konzept der Eigenwerte und deren Eigenvektoren zu verstehen und zu erklären,
5 Eigenwerte und deren Eigenvektoren bzw. Eigenräumen einer gegebener Matrix zu
bestimmen,
5 das charakteristische Polynom einer Matrix inklusive algebraischer und geometri-
scher Vielfachheit der Eigenwerte zu bestimmen,
5 Eigenwerte und Eigenvektoren von Endomorphismen zu bestimmen.
In diesem Kapitel beschäftigen wir uns nur mit quadratischen Matrizen A ∈ Kn×n .
Av = λ v (9.1)
> Bemerkung
0 ∈ K kann ein Eigenwert sein (dies ist beispielsweise bei Projektionen der Fall), jedoch
der Nullvektor 0 ∈ Kn ist per Definition kein Eigenvektor.
9.1.2 Eigenraum
Wenn v ein Eigenvektor von A zum Eigenwert λ ist, fällt es leicht zu verifizieren, dass
auch alle Vielfache α v (α ∈ K) Eigenvektoren von A zum gleichen Eigenwert λ sind.
Sind weiter v und w Eigenvektoren von A zum selben Eigenwert λ sind so ist es auch
die Summe v + w. Die Eigenvektoren zum Eigenwert λ bilden zusammen mit dem
Nullvektor einen Unterraum von Kn , den sogenannten Eigenraum (vgl. Übung 9.15):
$
9.1 • Definition und erste Beispiele
489 9
> Bemerkung
Obwohl der Nullvektor 0 ∈ Kn selbst kein Eigenvektor ist, gehört er per Definition zu
Eigλ (A). Dies ist nötig, damit Eigλ (A) überhaupt ein Unterraum ist (vgl. Übung 9.15).
Die Eigenvektoren von A sind diejenigen Vektoren, welche bei der Multiplikation
mit A in einen Vektor der gleichen Richtung transformiert werden, d. h., Av ist
ein Vielfaches (λ-faches) von v. Ist der Eigenwert λ negativ, so erzeugt Av eine
Richtungsumkehr. Veranschaulicht ist der Vektor u in . Abb. 9.1 kein Eigenvektor
von A, während der Vektor v ein Eigenvektor ist. Im zweiten Fall sind alle Vielfache
von v Eigenvektoren von A.
# Beispiel
Es sei A eine Streckung um den Streckungsfaktor α > 0. Dann ist jeder Vektor ein
Eigenvektor von A zum Eigenwert α. $
# Beispiel
Es sei A die orthogonale Projektion auf eine Gerade oder eine Ebene (vgl. Übung 9.7). Dann
gilt
5 Alle Vektoren auf der Projektionsgerade/Projektionsebene werden auf sich selbst
abgebildet. Dies sind Eigenvektoren von A zum Eigenwert 1.
5 Alle Vektoren senkrecht zur Projektionsgerade/Projektionsebene werden auf Null ab-
gebildet. Dies sind Eigenvektoren von A zum Eigenwert 0. $
# Beispiel
Es sei A die Spiegelung an einer Geraden oder einer Ebene (vgl. Übung 9.7). Dann gilt
5 Alle Vektoren auf der Spiegelungsgerade/Spiegelungsebene werden auf sich selbst
abgebildet. Dies sind Eigenvektoren von A zum Eigenwert 1.
a b c
. Abb. 9.1 Geometrische Interpretation der Eigenwerte und Eigenvektoren einer Matrix A
490 Kapitel 9 • Eigenwerte und Eigenvektoren
# Beispiel
Es sei A eine Rotation im dreidimensionalen Raum R3 . Dann sind alle Vektoren entlang
der Rotationsachse Eigenvektoren von A zum Eigenwert 1 (vgl. Übung 9.6). $
5 Die Menge aller Eigenwerte von A ∈ Kn×n heißt das Spektrum von A, kurz σ (A):
5 Der Spektralradius von A (notiert mit ρ(A)) ist der Betrag des größten Eigenwertes von
A:
Für komplexe Matrizen hat der Spektralradius die folgende geometrische Interpreta-
tion: Ein Kreis in der komplexen Ebene mit Radius ρ(A) um 0 enthält alle Eigenwerte
von A (vgl. Übung 9.23) (. Abb. 9.2).
Übung 9.2
3 1
4 324 31 4
4
◦ ◦ ◦ Man zeige, dass v1 = −1 , v2 = 1 Eigenvektoren von A = 2 −1 sind. Man
6
berechne vT
1 A v2 .
v Lösung
a) Es gilt:
- .- . - .
1 4 1 −3
Av1 = = = (−3) v1 ⇒ v1 ist Eigenvektor zum Eigenwert -3,
2 −1 −1 3
- .- . - .
1 4 2 6
Av2 = = = 3 v2 ⇒ v2 ist Eigenvektor zum Eigenwert 3.
2 −1 1 3
b) Der Trick bei dieser Aufgabe ist: Wir wissen, dass v2 ein Eigenvektor von A zum
Eigenwert 3 ist, d. h. Av2 = 3 v2 . Nach mehrmaliger Anwendung von A folgt:
A6 v2 = A5 (Av2 ) = 3 A5 v2 = 3 A4 (Av2 ) = 32 A4 v2 = · · · = 36 v2 .
; <= > ; <= >
=3v2 =3v2
Übung 9.3
• ◦ ◦ Die reelle (2 × 2)-Matrix A besitze die Eigenwerte λ1 = 1 und λ2 = −2 mit
3 4 3 4
zugehörigen Eigenvektoren v1 = 12 , v2 = 21 . Wie lautet die Matrix A konkret?
v Lösung
3a b4
Es seien a, b, c, d die Einträge der gesuchten Matrix A ∈ R2×2 , d. h. A = cd . Ist v1
Eigenvektor von A zum Eigenwert 1, so gilt:
- .- . - . - .
ab 1 a + 2b ! 1
Av1 = v1 ⇒ = = .
cd 2 c + 2d 2
> Bemerkung - .
−3 5 6
Die Isomorphie von 2 ∼
= −3 2
haben wir im 7 Kap. 8 gezeigt.
−2 −2 2
2
Übung 9.4
• ◦ ◦ Die Matrix A ∈ Rn×n habe die folgende Eigenschaft: Jede Zeilensumme (Summe
aller Elementen in einer Zeile) betrage α. Man zeige: α ist ein Eigenwert von A zum
Eigenvektor v = [1, 1, · · · , 1]T .
i Merkregel
Wir halten folgende Merkregel fest: Ist jede Zeilensumme von A gleich α, so ist α ein
Eigenwert von A. Der zugehörige Eigenvektor ist [1, 1, · · · , 1]T .
Übung 9.5
• ◦ ◦ Es sei A ∈ Rn×n . Man zeige: Hat A2 − A den Eigenwert −1, so hat auch A3 den
Eigenwert −1.
v Lösung
A2 − A hat den Eigenwert −1, d. h. für v ̸= 0 gilt (A2 − A)v = −v. Nun wenden wir A
auf beiden Seiten der Gleichung an und erhalten:
Übung 9.6
⎡ 1 1 √1
⎤
2 2 2
1 1
• ◦ ◦ Man betrachte die Matrix A = ⎣ 2 2 − √1 ⎦.
2
− √ √1
1
0
2 2
a) Welche lineare Abbildung wird von A dargestellt?
494 Kapitel 9 • Eigenwerte und Eigenvektoren
b) Man zeige, dass der Vektor v = [1, 1, 0]T auf sich selbst abgebildet wird. Man
interpretiere das Resultat geometrisch.
v Lösung
a) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1
− √1 1 1 √1
100
⎢ 21 2
1
2⎥⎢ 2 2 2 ⎥
⎢ ⎥
AT A = ⎢ √1 ⎥ ⎢ 1 1
− √1 ⎥ = ⎣0 1 0⎦
⎣ 2 2 2 ⎦⎣ 2 2 2⎦
√1 − √1 0 − √1 √1 0 001
2 2 2 2
+ +
+ 1 1 √1 ++
+ 2 2 2 +
+
ist A orthogonal. Außerdem ist det(A) = ++ 21 1
2 − √1 ++ = 1. Somit beschreibt A
2
+ 1 1 +
+− √ √ 0 +
2 2
eine Rotation im R3 (7 vgl. Abschn. 7.3.3).
b) Es gilt:
⎡ ⎤
⎡ ⎤ ⎡ ⎤
1 1 √1
⎢ 2 2 2 ⎥ 1 1
1 1 ⎢ ⎥ ⎢ ⎥
Av = ⎢
⎣ 2 2 − √1 ⎥ ⎣1⎦ = ⎣1⎦ ⇒ Av = v.
2⎦
1 1 0 0
−√ √ 0
2 2
Übung 9.7
• ◦ ◦ Es sei E = {v ∈ R3 | v · n = 0} eine Ebene im R3 mit Normale n. Die orthogonale
Projektion P auf E und die Spiegelung S an E sind durch die folgenden Matrizen
beschrieben (7 vgl. Tabelle in Abschn. 7.3):
n nT n nT
P=E− bzw. S = E − 2 .
||n||2 ||n||2
a) Man zeige, dass alle Vielfachen von n Eigenvektoren von P und S sind. Wie lauten
die zugehörigen Eigenwerte?
b) Man zeige, dass alle Vektoren v ∈ E Eigenvektoren von P und S sind. Wie lauten
die zugehörigen Eigenwerte?
9.1 • Definition und erste Beispiele
495 9
v Lösung
a) Es sei v = α n mit α ∈ R. Wegen
, -
n nT n nT n n ||n||2
Pv = E − 2
(α n) = α En − α 2
= αn−α = αn−αn = 0
||n|| ||n|| ||n||2
Somit ist v ein Eigenvektor von P zum Eigenwert 1. Analog finden wir für S:
, -
n nT n nT v
Sv = E − 2 v = Ev − 2 = v − 0 = v.
||n||2 ||n||2
Somit ist v ein Eigenvektor von S zum Eigenwert 1. 7 Vgl. Abschn. 9.1.3 für die
geometrische Interpretation. !
> Bemerkung
Erinnerung: Für Vektoren in R3 gilt vT w = v · w (vgl. Anhang A.1.1).
Übung 9.8
• ◦ ◦ Es seien A ∈ Rn×n und α ∈ R. Man zeige: Ist λ ein Eigenwert von A, so ist λ + α
ein Eigenwert von A + αE.
v Lösung
Es sei v ̸= 0 ein Eigenvektor von A zum Eigenwert λ. Laut Definition heißt dies: Av =
λv. Es sei nun α ∈ R. Für die Matrix A + αE gilt dann:
Av +αEv = λv + αv = (λ + α)v.
(A + αE)v = '()*
=λv
Übung 9.9
• ◦ ◦ Man zeige:
a) Ist v ̸= 0 ein Eigenvektor von A ∈ Kn×n zum Eigenwert λ ∈ K, so ist v ein
Eigenvektor von Am zum Eigenwert λm (m ∈ N).
b) Ist v ̸= 0 ein Eigenvektor von A, B ∈ Kn×n zu den Eigenwerten λ bzw. µ, so ist v ein
Eigenvektor von AB und BA zum Eigenwert λµ.
v Lösung
a) Es sei λ ist ein Eigenwert von A mit Eigenvektor v ̸= 0, d. h. Av = λv. Nach
mehrmaliger Verwendung von A folgt:
Somit ist v ein Eigenvektor von Am zum Eigenwert λm (Alternative: Beweis durch
vollständigen Induktion).
b) Es sei v ̸= 0 ein Eigenvektor von A, B zu den Eigenwerten λ bzw. µ, d. h. Av = λv
bzw. Bv = µv. Daraus folgt:
Übung 9.10
• ◦ ◦ A ∈ Rn×n heißt idempotent, wenn A2 = A gilt. Wie lauten die möglichen
Eigenwerte einer idempotenten Matrix? Man interpretiere das Resultat geometrisch.
v Lösung
Es sei A ∈ Rn×n idempotent, d. h. A2 = A. Es sei λ ein Eigenwert von A mit Eigenvektor
v ̸= 0. Dann ist λ2 ein Eigenwert von A2 mit demselben Eigenvektor (vgl. Übung 9.9).
Wegen A2 = A müssen die Eigenwerte von A die folgende Gleichung erfüllen:
λ2 = λ ⇒ λ2 − λ = λ(λ − 1) = 0 ⇒ λ = 0, 1.
Eine idempotente Matrix kann somit nur die Eigenwerte λ = 0 und λ = 1 haben.
Geometrische Interpretation: Eine idempotente Matrix beschreibt geometrisch eine
orthogonale Projektion (7 vgl. Abschn. 7.3.3). Vektoren auf der Projektionsachse oder
Projektionsebene werden von der Projektion nicht geändert (⇒ Eigenwert 1). Vektoren,
welche senkrecht zur Projektionsachse oder Projektionsebene sind, werden auf Null
abgebildet (⇒ Eigenwert 0). !
9.1 • Definition und erste Beispiele
497 9
Übung 9.11
• ◦ ◦ A ∈ Rn×n heißt involutiv, wenn A2 = E gilt. Wie lauten die möglichen Eigenwerte
einer involutiven Matrix? Man interpretiere das Resultat geometrisch.
v Lösung
Es sei A ∈ Rn×n involutiv, d. h. A2 = E. Ist λ ein Eigenwert von A mit Eigenvektor v ̸=
0, so ist λ2 ein Eigenwert von A2 mit demselben Eigenvektor. Die Einheitsmatrix hat
nur den Eigenwert 1. Aus A2 = E folgt somit, dass die Eigenwerte von A die folgende
Gleichung erfüllen:
λ2 = 1 ⇒ λ2 − 1 = (λ + 1)(λ − 1) = 0 ⇒ λ = ±1.
Übung 9.12
• ◦ ◦ A ∈ Rn×n heißt nilpotent, wenn es ein m ∈ N gibt, sodass Am−1 ̸= 0 und Am = 0
gilt. m ist der Nilpotenzgrad. Wie lauten die möglichen Eigenwerte einer nilpotenten
Matrix?
v Lösung
Eine nilpotente Matrix mit Nilpotenzgrad m erfüllt
Am = 0.
Die Nullmatrix hat nur den Eigenwert 0. Somit ist 0 der einzige Eigenwert von Am . Aus
Übung 9.9 folgt somit: Ist λ ein Eigenwert von A, so ist λm = 0. Daraus folgt λ = 0.
Somit kann die Matrix A nur den Eigenwert 0 haben. !
Übung 9.13
• • ◦ Es sei A ∈ GL(n, K) invertierbar. Man zeige:
a) Alle Eigenwerte von A sind ungleich Null.
b) Ist λ ein Eigenwert von A, so ist 1/λ ein Eigenwert der Inversen A−1 .
498 Kapitel 9 • Eigenwerte und Eigenvektoren
v Lösung
a) Der Eigenraum von A zu λ = 0 ist per Definition:
1
Av = λv ⇒ v = λA−1 v ⇒ A−1 v = v,
λ
i Merkregel
Wir halten folgende Merkregel fest: Eine Matrix A ist genau dann invertierbar, wenn
alle Eigenwerte ungleich Null sind.
Übung 9.14
• • ◦ Man zeige: Eigenvektoren von A zu verschiedenen Eigenwerten sind linear
unabhängig.
v Lösung
Wir zeigen diese Aussage für zwei Eigenvektoren. Es seien v1 , v2 ̸= 0 Eigenvektoren
von A zu den Eigenwerten λ1 bzw. λ2 mit λ1 ̸= λ2 . Zu zeigen ist, dass v1 und v2 linear
unabhängig sind, d. h.
α1 v1 + α2 v2 = 0 ⇒ α1 = α2 = 0.
α1 (λ2 − λ1 )v1 = 0.
Wegen λ1 ̸= λ2 (die Eigenwerte sind verschieden) und v1 ̸= 0 (aus der Definition von
Eigenvektoren) folgt α1 = 0. Nun multiplizieren wir die erste Gleichung von (9.5) mit
λ1 und subtrahieren davon die zweite Gleichung von (9.5), so folgt
α2 (λ1 − λ2 )v2 = 0,
woraus sich α2 = 0 ergibt (wegen λ1 ̸= λ2 und v2 ̸= 0). Somit sind v1 und v2 linear
unabhängig. Per Induktion zeigt man, dass dies für n verschiedenen Eigenwerte gilt! !
Übung 9.15
• ◦ ◦ Es sei A ∈ Kn×n und λ ∈ K ein Eigenwert von A. Man zeige, dass der zugehörige
Eigenraum Eigλ (A) ein Unterraum von Kn ist.
v Lösung
Wir weisen einfach nach, dass Eigλ (A) die drei Eigenschaften (U1)–(U3) eines Unter-
raumes erfüllt (7 vgl. Abschn. 5.2):
5 Beweis von (UR0): Wegen A 0 = 0 = λ 0 ist 0 ∈ Eigλ (A) "
5 Beweis von (UR1): Es seien v, w ∈ Eigλ (A). Dann gilt Av = λ v und Aw = λ w.
Daraus folgt
5 Beweis von (UR2): Es seien v ∈ Eigλ (A) und α ∈ K. Dann gilt Av = λ v und somit
Übung 9.16
• • ◦ Die Matrix A ∈ Rn×n habe die Eigenschaft, dass jeder Vektor v ̸= 0 in Rn ein
Eigenvektor von A ist. Man zeige, dass dann A = λE für ein λ ∈ R.
500 Kapitel 9 • Eigenwerte und Eigenvektoren
Wie kann man die Eigenwerte und die zugehörigen Eigenvektoren und Eigenräume
einer gegebenen Matrix in der Praxis bestimmen?
Sei λ ∈ K ein Eigenwert von A ∈ Kn×n mit dem Eigenvektor v ̸= 0. Dann gilt gemäß
Definition
Av = λv. (9.6)
Die Lösungsmenge dieses homogenen LGS ist der Eigenraum von A zu λ, konkret:
# Satz 9.1
Der Eigenraum von A ∈ Kn×n zum Eigenwert λ ist der Kern von A − λE, d. h.
Mit anderen Worten: λ ∈ K ist genau dann ein Eigenwert von A ∈ Kn×n , wenn es ein
v ̸= 0 gibt mit (A − λE)v = 0. Dies ist äquivalent zu Ker(A − λE)v ̸= {0}.
Geometrische Vielfachheit
# Definition 9.4 (Geometrische Vielfachheit)
Die Dimension von Eigλ (A) nennt man die geometrische Vielfachheit des Eigenwertes λ. $
Praxistipp
Wenn wir die Dimensionsformel für Matrizen (Satz 8.9) auf A − λE anwenden, dann
erhalten wir die folgende nützliche Formel für die geometrische Vielfachheit von λ:
(9.9)
502 Kapitel 9 • Eigenwerte und Eigenvektoren
Im letzten Abschnitt haben wir die Bestimmung des Eigenraumes Eigλ (A) auf die
Lösung des folgenden homogenen LGS reduziert:
(A − λE)v = 0. (9.10)
> Bemerkung
Erinnerung: Aus 7 Abschn. 2.3.4 wissen wir, dass es 2 Möglichkeiten für die Lösung
eines homogenen LGS gibt:
5 Ist det(A − λE) ̸= 0, so hat (A − λE)v = 0 nur die triviale Lösung v = 0;
5 Ist det(A − λE) = 0, so hat (A − λE)v = 0 unendlich viele nichttriviale Lösungen
v ̸= 0.
Da der Nullvektor 0 ∈ Kn kein Eigenvektor von A ist, interessieren wir uns nur für den
zweiten Fall, d. h. wenn Av = λv eine nichttriviale Lösung v ̸= 0 hat. Dies impliziert
i Merkregel
Die Matrix A besitzt Eigenvektoren nur zu denjenigen λ ∈ K, welche det(A − λE) = 0
erfüllen.
Der Ausdruck pA (λ) := det(A − λE) ist ein Polynom vom Grad n in der Variablen λ
und wird charakteristisches Polynom von A benannt. Die Nullstellen des charakteris-
tisches Polynoms sind genau die Eigenwerte von A. Wir haben somit den folgenden
Satz motiviert:
# Satz 9.2
Die Eigenwerte von A ∈ Kn×n sind genau die in K liegenden Nullstellen des charakteristi-
schen Polynoms
Da ein Polynom vom Grad n höchstens n Nullstellen hat, erhalten wir direkt aus dem
obigen Satz 9.2 das folgende Resultat:
# Satz 9.3
Eine Matrix A ∈ Kn×n hat höchstens n Eigenwerte (mit entsprechender Vielfachheit
gezählt). $
(λ − 1)2 (λ − 5) = 0 (9.13)
hat beispielsweise zwei unterschiedliche Nullstellen 1 und 5. Wenn man diese Glei-
chung so aufschreibt
dann wird deutlich, dass 1 jeweils die Nullstelle von zwei Linearfaktoren ist. Man
sagt, dass 1 eine zweifache Nullstelle ist, bzw., dass 1 die Vielfachheit 2 hat. Im
Allgemeinen können wir die charakteristische Gl. (9.12) auf zwei äquivalenten Arten
festlegen
pA (λ) = an (λ − λ1 ) · · · (λ − λn ) = 0 (9.15)
pA (λ) = an (λ − λ1 )m1 · · · (λ − λr )mr = 0. (9.16)
In Gl. (9.15) werden alle n Eigenwerte explizit aufgeschrieben; ein bestimmtes λi kann
daher die Nullstelle von mehreren Linearfaktoren sein. In Gl. (9.16) werden nur die
unterschiedlichen Eigenwerte aufgeschrieben; die Potenz mi ist die Vielfachheit der
Nullstelle λi in pA (λ). Aus diesem Grund definiert man:
# Satz 9.5
Für jeden Eigenwert λ gilt (vgl. Übung 9.40):
i Merkregel
Die geometrische Vielfachheit eines Eigenwertes ist mindestens 1 und ist kleiner oder
gleich der algebraischen Vielfachheit. Diese Begriffe spielen eine zentrale Rolle bei der
Diagonalisierung von A (vgl. Prüfungstraining Lineare Algebra, Band II).
9.2.3 Kochrezept
Dies ist ein Polynom vom Grad n in λ. Für (2 × 2)-Matrizen kann man die Formel von
Vieta benutzen, um pA (λ) schnell zu bestimmen (Trick # 9.1):
Schritt 2: Die gesuchten Eigenwerte der Matrix A sind die Nullstellen des charakte-
ristischen Polynoms pA (λ).
Schritt 3: Um die Eigenvektoren/Eigenräume zu den verschiedenen Eigenwerten zu
bestimmen, löse man jeweils das LGS (A−λE)v = 0 mit dem Gauß-Algorithmus. Diese
Prozedur führt man mit allen im Schritt 2 bestimmten Eigenwerte separat durch.
Wir halten in der Folge einige interessante und praktische Tatsachen fest, die bei der
Eigenwertsuche sehr nützlich sind.
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
505 9
Trick # 9.1 Für jede Matrix A ∈ Kn×n ist pA (λ) ein Polynom vom Grad n, d. h.
Dies folgt direkt aus der Definition der Determinante (vgl. Übung 9.33). Für einige
Koeffizienten von pA (λ) gelten die Formeln von Vieta (die Formeln für die anderen
Koeffizienten sind etwas komplexer und werden in diesem Buch nicht behandelt, da sie
kaum prüfungsrelevant sind):
# Beispiel
1 2
» Die Matrix A =
12
21
erfüllt Spur(A) = 2 und det(A) = −3. Daher ist das
Trick # 9.2 Die Summe der n Eigenwerte (mit Vielfachheit gezählt) ist gleich der Spur
von A (vgl. Übung 9.27):
λ1 + · · · + λn = Spur(A) (9.21)
# Beispiel
⎡ ⎤
−3 1 −1
» ⎢ ⎥
Die Matrix A = ⎣−7 5 −1⎦ hat die Eigenwerte λ1,2 = −2 (mit algebraischer
−6 6 −2
Vielfachheit 2) und λ3 = 4. Die Spur von A ist Spur(A) = −3 + 5 − 2 = 0 und
stimmt mit der Summe der Eigenwerte überein λ1 + λ2 + λ3 = −2 − 2 + 4 = 0 ".
Beachte: Der Eigenwert −2 hat algebraische Vielfachheit 2 und wird somit zwei Mal in
der Summe mitgezählt. $
> Bemerkung
Trick 9.2 ist eine schnelle Kontrollmöglichkeit, ob wir die Eigenwerte richtig berechnet
haben.
Trick # 9.3 Das Produkt der n Eigenwerte von A ist gleich der Determinante von A
(vgl. Übung 9.27):
λ1 · · · λn = det(A) (9.22)
506 Kapitel 9 • Eigenwerte und Eigenvektoren
# Beispiel
⎡ ⎤
−3 1 −1
» ⎢ ⎥
Die Determinante der Matrix A = ⎣−7 5 −1⎦ ist det(A) = 16. Dies stimmt mit dem
−6 6 −2
Produkt der Eigenwerte überein λ1 · λ2 · λ3 = (−2) · (−2) · 4 = 16 ". Beachte: Der
Eigenwert −2 (algebraische Vielfachheit 2) wird zwei Mal mitgezählt. $
> Bemerkung
Nützliche Folgerung: Gilt det(A) = 0, so hat A mindestens einen Eigenwert gleich Null.
Trick # 9.4 Für Diagonalmatrizen und Dreiecksmatrizen sind die Eigenwerte genau die
Diagonaleinträge (vgl. Übung 9.25).
# Beispiel
⎡ ⎤
2 2 3
» ⎢ ⎥
Die Matrix A = ⎣0 −4 6⎦ hat die Eigenwerte 2, −4 und 5. $
0 0 5
darf man jeden Block A1 , · · · , Ap einzeln betrachten. Dies gilt auch bei Blockdreiecks-
matrizen.
# Beispiel
1 2 1 2
» A1 =
12
21
hat die Eigenwerte −1 und 3. Die Eigenwerte von A2 =
10
12
sind 1 und
⎡ ⎤
1200
⎢2 1 0 0⎥
⎢ ⎥
2. Daher hat die Blockdiagonalmatrix ⎢ ⎥ die Eigenwerte −1, 1, 2 und 3. $
⎣0 0 1 0⎦
0012
Trick # 9.6 Ist jede Spaltensumme (Summe aller Elementen in einer Spalte) oder jede
Zeilensumme (Summe aller Elementen in einer Zeile) von A ∈ Kn×n gleich α, so ist α
ein Eigenwert von A (vgl. Übung 9.4). Der zugehörige Eigenraum ist immer
⎡ ⎤
3 1 4
⎢1⎥
⎢ ⎥
Eigα (A) = ⎢ . ⎥ .
⎣ .. ⎦
1
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
507 9
# Beispiel
⎡ ⎤
021
» ⎢ ⎥
Für die Matrix A = ⎣1 0 2⎦ ist jede Zeilensumme gleich 3. Somit ist 3 ein Eigenwert
111
von A zum Eigenvektor [1, 1, 1]T (man mache die Probe!). $
und ist die Spur(A) ̸= 0, so hat A nur die Eigenwerte λ = 0 (mit algebraischer
Vielfachheit n − 1) and λ = Spur(A) (mit algebraischer Vielfachheit 1). Dieses
interessante Resultat beweisen wir in Übung 9.31.
# Beispiel
⎡ ⎤
1210
⎢1 2 1 0⎥
» Alle Zeilen der Matrix A = ⎢
⎢
⎣1 2 1 0⎦
⎥
⎥ sind identisch mit der Spur(A) = 4 ̸= 0. Die
1210
Eigenwerte von A sind somit 0 (algebraische Vielfachheit 3) und 4. $
# Beispiel
⎡ ⎤
123
» ⎢ ⎥
Die Matrix A = ⎣2 4 6⎦ hat Rang 1 und Spur(A) = 14 ̸= 0. Die Eigenwerte von A
369
sind somit 0 (algebraische Vielfachheit 2) und 14. $
> Bemerkung
Trick 9.7 ist im Allgemeinen für Matrizen mit Rang(A) = 1 und Spur(A) ̸= 0 gültig.
# Satz 9.6
Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig. $
> Bemerkung
Wegen λ1 + · · · + λn = Spur(A) und λ1 · · · λn = det(A) haben ähnliche Matrizen gleiche
Spur und Determinante.
Nützliche Folgerung: Haben A, B ungleiche Spuren oder unterschiedliche Determi-
nanten, so sind A, B nicht ähnlich.
Als Beispiel berechnen wir die Eigenwerte und Eigenvektoren der folgenden Matrix
über R:
1 2
21
A= .
12
= λ2 − 4λ + 3 = (λ − 3)(λ − 1).
Alternative: Mit der Formel von Vieta (Trick # 9.1) finden wir (Spur(A) = 4,
det(A) = 3) :
Schritt 2: Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms
pA (λ):
!
pA (λ) = (λ − 3)(λ − 1) = 0 ⇒ λ1 = 3, λ2 = 1.
Da jede Nullstelle von pA nur einmal vorkommt, haben beide Eigenwerte die algebrai-
sche Vielfachheit 1.
Kontrolle: λ1 + λ2 = 3 + 1 = Spur(A) = 2 + 2 = 4 "
Schritt 3: Wir bestimmen die zugehörigen Eigenvektoren/Eigenräume. Wir betrach-
ten die verschiedenen Eigenwerte separat.
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
509 9
Insbesondere ist dim(Eig3 (A)) = 1. Somit hat der Eigenwert λ1 = 3 die geometri-
sche Vielfachheit 1.
5 Eigenraum zu λ2 = 1. In diesem Fall lösen wir das LGS (A − E)v = 0:
1 2 1 2 1 2
2−1 1 0 1 1 0 (Z2 ) − (Z1 ) 1 1 0
= % = Z.
1 2−1 0 1 1 0 0 0 0
> Bemerkung
Der erste Eigenvektor-Repräsentant, den wir in Musterbeispiel 9.1 berechnet haben,
war [1, 1]T , aber das ist nur ein Punkt auf der Eigenvektorlinie (Eigenraum). Der
Eigenraum zum ersten Eigenwert ist somit eine Gerade mit Steigung 1. Der erste
Eigenwert war 3. Somit wird jeder Vektor entlang der Eigenvektorlinie um Faktor 3
verlängert, wenn er unter A transformiert wird. Der zweite Eigenvektor-Repräsentant,
den wir berechnet haben, war [−1, 1]T . Daher ist der Eigenraum zum zweiten Eigen-
wert eine Gerade mit Steigung −1. Der Eigenwert ist 1, sodass sich die Punkte entlang
der zweiten Eigenvektorlinie bei der Transformation durch A überhaupt nicht bewegen
(. Abb. 9.3).
510 Kapitel 9 • Eigenwerte und Eigenvektoren
Übung 9.17
• • ◦ 2 schwarze Punkte Man bestimme alle Eigenwerte und Eigenvektoren der
folgenden
1 2Matrizen über K:
1 1
a) , K=R
0 −1
1 2
53
b) , K=R
13
1 2
−1 2
c) , K = R, C
−3 1
⎡ ⎤
123
⎢ ⎥
d) ⎣0 3 1⎦ , K = R
004
⎡ ⎤
111
⎢ ⎥
e) ⎣1 1 1⎦ , K = R
111
⎡ ⎤
−3 1 −1
⎢ ⎥
f) ⎣−7 5 −1⎦ , K = R
−6 6 −2
⎡ ⎤
2 90 2
⎢−1 2 1 0 ⎥
⎢ ⎥
g) ⎢ ⎥ , K = R, C
⎣0 03 0⎦
0 0 2 −1
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
511 9
v Lösung
In allen Beispielen gehen wir nach dem Kochrezept 9.1 vor. Es ist den Lesern über-
lassen, mit welchen Methoden sie im Folgenden die Eigenwerte und die zugehörigen
Eigenräume bestimmt (Sarrus, Laplace-Entwicklung, Gauß-Algorithmus, und Spezial-
Methoden/Tricks aus diesem Kapitel).
a) Schritt 1: Wir berechnen das charakteristische Polynom
+ +
+1 − λ
+ 1 ++
pA (λ) = det(A − λE) = + + = (1 − λ)(−1 − λ) − 0 = (λ − 1)(λ + 1).
+ 0 −1 − λ+
Schritt 2: Die Eigenwerte von A sind die Nullstellen von pA (λ), d. h.1
!
pA (λ) = (λ − 1)(λ + 1) = 0 ⇒ λ1 = 1, λ2 = −1.
Da λ1 und λ2 einfache Nullstellen von pA (λ) sind, haben beide Eigenwerte algebrai-
sche Vielfachheit 1.
Schnellvariante: Weil A eine Dreiecksmatrix ist, sind die Diagonalelemente λ1 =
1 und λ2 = −1 schon die gesuchten Eigenwerte (Trick # 9.4).
Schritt 3: Um die Eigenvektoren zu den verschiedenen Eigenwerten zu bestim-
men, lösen wir jeweils das LGS (A − λE)v = 0. Wir betrachten die verschiedenen
Eigenwerte separat.
5 Eigenraum zu λ1 = 1: Wir lösen (A − E)v = 0 mit dem Gauß-Algorithmus:
1 2 1 2 1 2
1−1 1 0 0 1 0 (Z2 ) + 2(Z1 ) 0 1 0
= % = Z.
0 −1 − 1 0 0 −2 0 0 0 0
1 Als Kontrolle überprüfen wir, dass die Summe der gefundenen Eigenwerte gleich der Spur von A ist
(Trick # 9.2): λ1 + λ2 = 1 − 1 = 0 = Spur(A). "
512 Kapitel 9 • Eigenwerte und Eigenvektoren
= λ2 − 8λ + 12 = (λ − 2)(λ − 6).
Alternative: Mit der Formel von Vieta (Trick # 9.1) finden wir (Spur(A) = 8,
det(A) = 12):
!
pA (λ) = (λ − 2)(λ − 6) = 0 ⇒ λ1 = 2, λ2 = 6.
! √ √
pA (λ) = λ2 + 5 = 0 ⇒ λ1 = i 5, λ2 = −i 5
Es gilt dim(Eigi√5 (A)) = 1 (als komplexer Unterraum!). Somit ist die geometri-
√
sche Vielfachheit von λ√1 = i 5 gleich 1. √
5 Eigenraum zu λ2 = −i 5: Wir lösen (A + i 5 E)v = 0:
1 √ 2 √
1 √ 2
−1 + i 5 2 0 (1 − i 5)(Z2 ) − 3(Z1 ) −1 + i 5 2 0
√ % = Z.
−3 1+i 5 0 0 0 0
√
Wegen dim(Eig−i√5 (A)) = 1 hat λ2 = −i 5 geometrische Vielfachheit 1.
d) Schritt 1+2: Da A eine Dreiecksmatrix ist sind die Diagonalelemente λ1 = 1, λ2 = 3
und λ3 = 4 bereits die gesuchten Eigenwerte (Trick # 9.4). Alle Eigenwerte haben
algebraische Vielfachheit 1.
Schritt 3: Für jeden Eigenwert lösen wir jeweils (A − λE)v = 0 mit dem Gauß-
Algorithmus.
5 Eigenraum zu λ1 = 1: Wir lösen (A − E)v = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1−1 2 3 0 0 2 3 0 0 2 3 0
⎢ ⎥ ⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥
⎣ 0 3−1 1 0⎦=⎣0 2 1 0⎦ % ⎣ 0 0 −2 0 ⎦
0 0 4−1 0 0 0 3 0 0 0 3 0
⎡ ⎤
0 2 3 0
2(Z3 ) + 3(Z2 ) ⎢ ⎥
% ⎣ 0 0 −2 0 ⎦ = Z.
0 0 0 0
514 Kapitel 9 • Eigenwerte und Eigenvektoren
!
pA (λ) = −λ2 (λ − 3) = 0 ⇒ λ1,2 = 0 (doppelte Nullstelle), λ3 = 3.
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
515 9
In diesem Fall ist 0 eine doppelte Nullstelle. Somit hat der Eigenwert 0 algebraische
Vielfachheit 2. Die algebraische Vielfachheit von λ3 = 3 ist 1.
Elegante Alternative: Die Eigenwerte von A kann man auch mittels Tricks
bestimmen. Jede Zeilensumme ergibt 3. Somit ist 3 ein Eigenwert von A (Trick
# 9.6). Weiterhin ist die Determinante von A Null, d. h., 0 ist ein weiterer Eigenwert
von A (Trick # 9.3). Die Summe der Eigenwerte ist gleich der Spur von A (Trick
# 9.2). Wegen Spur(A) = 3 muss der letzte Eigenwert von A auch gleich 0 sein,
damit die Gesamtsumme aller Eigenwerte gleich 3 wird.
Zweite Alternative: Alle Zeilen von A sind identisch und Spur(A) = 3 ̸= 0.
Daher sind die Eigenwerte von A gleich λ1,2 = 0 (algebraische Vielfachheit 2) und
λ3 = 3 (Trick # 9.7).
Schritt 3:
5 Eigenraum zu λ1,2 = 0: Wir lösen (A − 0 E)v = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1−0 1 1 0 1 1 1 0 (Z2 ) − (Z1 ) 1 1 1 0
⎢ ⎥ ⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣ 1 1−0 1 0⎦=⎣1 1 1 0⎦ % ⎣ 0 0 0 0 ⎦ = Z.
1 1 1−0 0 1 1 1 0 0 0 0 0
Die Dimension von Eig0 (A) ist 2. Also hat 0 die geometrische Vielfachheit 2,
gleich wie die algebraische Vielfachheit.
5 Eigenraum zu λ3 = 3: Wir lösen (A − 3E)v = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1−3 1 1 0 −2 1 1 0 2(Z2 ) + (Z1 ) −2 1 1 0
⎢ ⎥ ⎢ ⎥ 2(Z3 ) + (Z1 ) ⎢ ⎥
⎣ 1 1 − 3 1 0 ⎦ = ⎣ 1 −2 1 0 ⎦ % ⎣ 0 −3 3 0 ⎦
1 1 1−3 0 1 1 −2 0 0 3 −3 0
⎡ ⎤
−2 1 1 0
(Z3 ) + (Z2 ) ⎢ ⎥
% ⎣ 0 −3 3 0 ⎦ = Z.
0 0 0 0
!
pA (λ) = −(λ − 4)(λ + 2)2 = 0 ⇒ λ1,2 = −2 (doppelte Nullstelle), λ3 = 4.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−3 + 2 1 −1 0 −1 1 −1 0 (Z2 ) − 7(Z1 ) −1 1 −1 0
⎢ ⎥ ⎢ ⎥ (Z3 ) − 6(Z1 ) ⎢ ⎥
⎣ −7 5 + 2 −1 0 ⎦ = ⎣ −7 7 −1 0 ⎦ % ⎣ 0 0 6 0⎦
−6 6 −2 + 2 0 −6 6 0 0 0 0 6 0
⎡ ⎤
−1 1 −1 0
(Z3 ) − (Z2 ) ⎢ ⎥
% ⎣ 0 0 6 0 ⎦ = Z.
0 0 0 0
2 Konsequenz: Die Matrix ist nicht diagonalisierbar (vgl. Prügungstraining Lineare Algebra, Band II).
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
517 9
g) Schritt 1: Wir stellen fest, dass
⎡ ⎤
2−λ 9 0 2
⎢ −1 2 − λ 1 0 ⎥
⎢ ⎥
A − λE = ⎢ ⎥
⎣ 0 0 3−λ 0 ⎦
0 0 2 −1 − λ
eine Blockdreiecksmatrix ist. Somit lässt sich das charakteristische Polynom von A
besonders leicht bestimmen (Trick # 9.5):
⎡ ⎤
2−λ 9 0 2
⎢ −1 2 − λ 1 0 ⎥
⎢ ⎥
pA (λ) = det(A − λE) = det ⎢ ⎥
⎣ 0 0 3−λ 0 ⎦
0 0 2 −1 − λ
1 2 1 2
2−λ 9 3−λ 0 ; <
= det det = (2 − λ)2 + 9 (λ − 3)(λ + 1).
−1 2 − λ 2 −1 − λ
⎡ ⎤ ⎡ ⎤
2+1 9 0 2 0 3 9 0 2 0
⎢ −1 2 + 1 1 0⎥ ⎢
⎢ 0 ⎥ ⎢ −1 3 1 0 0⎥⎥
⎢ ⎥=⎢ ⎥
⎣ 0 0 3+1 0 0⎦ ⎣ 0 0 4 0 0⎦
0 0 2 −1 + 1 0 0 0 2 0 0
⎡ ⎤
3 9 0 2 0
3(Z2 ) + (Z1 )
⎢
(Z4 ) − (Z3 ) ⎢ 0 18 3 2 0⎥⎥
% ⎢ ⎥ = Z.
⎣0 0 4 0 0⎦
0 0 0 0 0
⎡ ⎤ ⎡ ⎤
2−3 9 0 2 0 −1 9 0 2 0
⎢ −1 2 − 3 1 0⎥ ⎢ 0⎥
⎢ 0 ⎥ ⎢ −1 −1 1 0 ⎥
⎢ ⎥=⎢ ⎥
⎣ 0 0 3−3 0 0⎦ ⎣ 0 0 0 0 0⎦
0 0 2 −1 − 3 0 0 0 2 −4 0
⎡ ⎤
−1 9 0 2 0
⎢ ⎥
(Z2 ) − (Z1 ) ⎢ 0 −10 1 −2 0 ⎥
% ⎢ ⎥ = Z.
⎣ 0 0 0 0 0⎦
0 0 2 −4 0
⎡ ⎤
2 − (2 + 3i) 9 0 2 0
⎢
⎢ −1 2 − (2 + 3i) 1 0 0⎥⎥
⎢ ⎥
⎣ 0 0 3 − (2 + 3i) 0 0⎦
0 0 2 −1 − (2 + 3i) 0
⎡ ⎤
−3i 9 0 2 0
⎢ −1 −3i 1
⎢ 0 0⎥⎥
=⎢ ⎥
⎣ 0 0 1 − 3i 0 0⎦
0 0 2 −3 − 3i 0
⎡ ⎤
−3i 9 0 2 0
⎢ 0
3i (Z2 ) − (Z1 ) ⎢ 0 3i −2 0⎥⎥
% ⎢ ⎥ = Z.
⎣ 0 0 1 − 3i 0 0⎦
0 0 2 −3 − 3i 0
⎡ ⎤ ⎡ ⎤
2 − (2 − 3i) 9 0 2 0 3i 9 0 2 0
⎢ 0⎥ ⎢ 0⎥
⎢ −1 2 − (2 − 3i) 1 0 ⎥ ⎢ −1 3i 1 0 ⎥
⎢ ⎥=⎢ ⎥
⎣ 0 0 3 − (2 − 3i) 0 0⎦ ⎣ 0 0 1 + 3i 0 0⎦
0 0 2 −1 − (2 − 3i) 0 0 0 2 −3 + 3i 0
⎡ ⎤
3i 9 0 2 0
⎢
3i (Z2 ) + (Z1 ) ⎢ 0 0 3i 2 0⎥⎥
% ⎢ ⎥ = Z.
⎣ 0 0 1 + 3i 0 0⎦
0 0 2 −3 + 3i 0
Übung 9.18
• ◦ ◦ Für welche α ∈ R ist λ = 2 ein Eigenwert der folgenden Matrix?
1 2
1 1−α
A= .
−3 −1
Man bestimme den zugehörigen Eigenvektor. Wie lauten die weiteren Eigenwerte
von A?
v Lösung
Damit λ = 2 ein Eigenwert von A ist, muss λ = 2 eine Nullstelle des charakteristischen
Polynoms sein, d. h.
+ + + +
+1 − 2 1 − α + +−1 1 − α +
+ + + + !
det(A − 2E) = + +=+ + = 6 − 3α = 0 ⇒ α = 2.
+ −3 −1 − 2+ +−3 −3 +
Um den Eigenvektor zum Eigenwert λ = 2 zu bestimmen, lösen wir das folgende LGS:
520 Kapitel 9 • Eigenwerte und Eigenvektoren
1 2 1 2 1 2
1 − 2 −1 0 −1 −1 0 (Z2 ) − 3(Z1 ) −1 −1 0
= % = Z.
−3 −1 − 2 0 −3 −3 0 0 0 0
Da A eine (2 × 2)-Matrix ist, hat A höchstens 2 Eigenwerte. Die Summe der Eigenwerte
von A ist gleich der Spur(A) = 0 (Trick # 9.2). Der zweite Eigenwert von A muss −2
sein. !
Übung 9.19
• ◦ ◦ Für welche α ∈ R ist λ = 1 ein Eigenwert der folgenden Matrix?
⎡ ⎤
α 10
⎢ ⎥
A = ⎣1 − α 0 2 ⎦ .
1 1α
v Lösung
Damit λ = 1 ein Eigenwert der Matrix A ist, muss λ = 1 eine Nullstelle des
charakteristischen Polynoms sein, d. h.
+ +
+α − 1 1 0 ++
+
+ +
pA (λ) = det(A − E) = +1 − α 0 − 1 2 +
+ +
+ 1 1 α − 1+
+ + + + + +
+−1 2 + +1 0 + + 1 0+
+ + + + + +
= (α − 1) + + −(1 − α) + + +1 + +
+ 1 α − 1+ +1 α − 1+ +−1 2+
' () * ' () * ' () *
=−(α−1)−2 =α−1 =2
!
= −(α − 1)2 − 2(α − 1) − (α − 1)(1 − α) + 2 = 4 − 2α = 0 ⇒ α = 2.
⎤⎡
2 10
⎢ ⎥
Für α = 2 lautet die Matrix A = ⎣−1 0 2⎦ . Daraus folgt:
1 12
⎡
⎤
2 10
⎢ ⎥
Spur(A) = 4 und det(A) = det ⎣−1 0 2⎦ = 0.
1 12
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
521 9
Die Summe der Eigenwerte ist Spur(A) = 4 (Trick # 9.2) und deren Produkt ist
det(A) = 0 (Trick # 9.3). Wegen det(A) = 0 ist 0 ein Eigenwert von A. Der dritte
Eigenwert ist somit 3, weil 1 + 3 = 4. !
Übung 9.20
= >
• ◦ ◦ Die Eigenwerte der Matrix A = 01 10 sind λ1 = 1 und λ2 = −1. Ohne das
= >
charakteristische Polynom zu berechnen soll man die Eigenwerte von B = α1 α1 (α ∈
R) bestimmen.
v Lösung
Wir wenden den „Verschiebungstrick“ (Trick # 9.8) an. Es gilt:
1 2 1 2 1 2
α 1 01 α 0
B= = + = A + αE.
1α 10 0α
Übung 9.21
• ◦ ◦⎡Man ⎤bestimme möglichst geschickt die Eigenwerte der folgenden Matrizen:
120
⎢ ⎥
a) ⎣1 1 1⎦
120
⎡ ⎤
10 2
⎢ ⎥
b) ⎣0 3 −1⎦
00 2
⎡ ⎤100
011
⎢ ⎥
c) ⎣1 0 1⎦
110
⎡ ⎤
2222
⎢2 2 2 2⎥
⎢ ⎥
d) ⎢ ⎥
⎣2 2 2 2⎦
2222
⎡ ⎤
1 213
⎢−1 4 1 3⎥
⎢ ⎥
e) ⎢ ⎥
⎣−1 2 3 3⎦
−1 2 1 5
522 Kapitel 9 • Eigenwerte und Eigenvektoren
⎡ ⎤
16 0 0 0
⎢ ⎥
⎢1 0 0 0 0 ⎥
⎢ ⎥
f) ⎢ 3 ⎥
⎢0 0 2 1 2 ⎥
⎢ ⎥
⎣0 0 −2 1 − 12 ⎦
0 0 1 −1 0
Hinweis: Anwenden der Tricks # 9.1 – # 9.10.
v Lösung
a) Jede Zeilensumme von A ist 3
⎡ ⎤
1 2 0 ⇒ Summe = 3
⎢ ⎥
A = ⎣ 1 1 1 ⎦ ⇒ Summe = 3 .
1 2 0 ⇒ Summe = 3
Somit ist λ1 = 3 ein Eigenwert (Trick # 9.6). Wie lauten die anderen Eigenwerte
λ2 , λ3 ? Die Determinante und die Spur von A lauten:
+ +
+1 2 0+
+ +
+ +
det(A) = + 1 1 1 + = 0, Spur(A) = 1 + 1 + 0 = 2.
+ +
+1 2 0+
Das Produkt der Eigenwerte ist gleich det(A) und deren Summe ist Spur(A) (Tricks
# 9.2 und 9.3). Die gesuchten Eigenwerte erfüllen somit die folgenden Gleichungen:
λ1 · λ2 · λ3 = 3 · λ2 · λ3 = 0, λ1 + λ2 + λ3 = 3 + λ2 + λ3 = 2.
λ1 · λ2 · λ3 = 2 · λ2 · λ3 = 2 ⇒ λ2 · λ3 = 1
λ1 + λ2 + λ3 = 2 + λ2 + λ3 = 0 ⇒ λ2 + λ3 = −2.
Auf diese Idee kommt man, weil in jede Spalte das Diagonalelement um 2 von den
restlichen Spaltenelementen abweicht. Die Matrix A ist nun von der Form B + αE.
Aus dem Verschiebungstrick (Trick # 9.8) folgt, dass es genügt, die Eigenwerte von
B zu bestimmen, was in diesem Beispiel besonders einfach ist. Denn alle Zeilen von
B sind identisch (B hat Rang 1) und Spur(B) = 5 ̸= 0. Nach Trick # 9.7 sind die
Eigenwerte von B gleich 0 (Vielfachheit 3) und 5. Daraus ergeben sich mittels dem
Verschiebungstrick die Eigenwerte von A = B + 2E als
λ1,2,3 = 0 + 2 = 2 und λ4 = 5 + 2 = 7.
Wegen Trick # 9.5 können wir die zwei Blöcke getrennt betrachten. Wir beginnen
mit dem ersten Block A1 . Die Matrix A1 hat Determinante −6 und Spur 1. Die
Eigenwerte von A1 erfüllen somit λ1 λ2 = −6 und λ1 +λ2 = 1 (Tricks # 9.2 und 9.3).
Dies ergibt: λ1 = 3 und λ2 = −2. Nun betrachten wir den zweiten Block A2 . Wir
stellen fest, dass jede Spaltensumme 1 ergibt:
⎡ ⎤
2 1 32
⎢ ⎥
⎢ −2 1 − 1 ⎥
⎣ 2 ⎦
1 −1 0
⇓ ⇓ ⇓
Summe = 1 1 1
λ3 = 1 ist somit ein Eigenwert von A2 (Trick # 9.6). Die Determinante von A2 ist 0.
Somit ist λ4 = 0 ein weiterer Eigenwert von A2 . Ferner ist die Spur von A2 gleich 3.
Somit ist λ5 = 3−1 = 2 der letzte Eigenwert von A2 . Zusammenfassend: Die Matrix
A hat die Eigenwerte λ1 = 3, λ2 = −2, λ3 = 1, λ4 = 0 und λ5 = 2. Überzeugen
Sie sich von der Richtigkeit, in dem Sie mittels charakteristischen Polynom von A
zu den gleichen Eigenwerten gelangen. !
524 Kapitel 9 • Eigenwerte und Eigenvektoren
Übung 9.22
•◦◦
a) Man zeige, durch direkte Berechnung, dass das charakteristische Polynom einer (2×
2)-Matrix A lautet:
pA (λ) = λ2 − Spur(A) λ + det(A).
=1 2
>
b) Man benutze diese Formel, um das charakteristische Polynom von A = 3 −4 ,
? @
B = 75 −3
−2 schnell zu bestimmen.
v Lösung
=a b>
a) Es sei A = cd . Das charakteristische Polynom von A ist dann
+ +
+a − λ b +
+ +
pA (λ) = det (A − λE) = + + = (a − λ)(d − λ) − bc
+ c d − λ+
= λ2 − (a + d) λ + ad − bc = λ2 − Spur(A) λ + det(A).
' () * ' () *
=Spur(A) det(A)
Übung 9.23
• ◦ ◦ Man bestimme das Spektrum und den Spektralradius der folgenden Matrix
⎡ ⎤
2 0 0
⎢ ⎥
A = ⎣−2 1 −1⎦ .
1 3 −2
v Lösung
Das charakteristische Polynom von A ist
⎡ ⎤
2−λ 0 0
⎢ ⎥
pA (λ) = det(A − λE) = ⎣ −2 1 − λ −1 ⎦
1 3 −2 − λ
+ +
+1 − λ −1 +
+ +
= (2 − λ) + + = (2 − λ)(λ2 + λ + 1).
+ 3 −2 − λ+
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
525 9
. Abb. 9.4 Alle Eigenwerte der
Matrix A von Übung 9.23 in der
komplexen Ebene sind innerhalb
einer Kreisscheibe mit Radius
ρ(A) = 2 enthalten
Das Spektrum von A ist die Menge aller Eigenwerte von A, d. h. (7 Abb. 9.4)
5 √ √ 6
−1 + i 3 −1 − i 3
σ (A) = 2, , .
2 2
Um den Spektralradius von A zu bestimmen, vergleichen wir die Beträge der verschie-
denen Eigenwerte:
A A
1 3 1 3
|λ1 | = 2, |λ2 | = + = 1, |λ3 | = + =1 ⇒ ρ(A) = max{2, 1, 1} = 2.
4 4 4 4
!
Übung 9.24
• ◦ ◦ Es sei A ∈ Cn×n . Die folgende Matrix
; <−1
R(s) = sE − A , s ∈ C
heißt Resolvente von A und spielt eine wichtige Rolle bei der Lösung von Differenzial-
gleichungen (z. B. mittels der Laplace-Transformation).
a) Für welche s ∈ C ist die Resolvente von A definiert?
= >
b) Man berechne die Resolvente von A = 10 12 .
526 Kapitel 9 • Eigenwerte und Eigenvektoren
v Lösung
a) Die Resolvente ist die Inverse der Matrix sE − A. Diese Matrix ist genau dann
invertierbar, wenn
det (sE − A) ̸= 0.
1 2 1 2
1 1
; <−1 1 s−2 1
R(s) = sE − A = = s−1 (s−1)(s−2)
1
.
(s − 1)(s − 2) 0 s−1 0 s−2
Beachte: R(s) ist für alle s ∈ R \ {1, 2} definiert. λ1 = 1 und λ2 = 2 sind genau die
Eigenwerte von A. !
Übung 9.25
• ◦ ◦ Man bestimme die Eigenwerte einer oberen Dreiecksmatrix.
v Lösung
Für eine obere Dreiecksmatrix A gilt:
⎡ ⎤ + +
a11 a12 · · · a1n + a11 − λ a12 ··· a1n ++
+
⎢ 0 a ··· a2n ⎥ + 0 a22 − λ ··· a2n ++
⎢ 22 ⎥ +
A=⎢
⎢ .. .. . . .. ⎥
⎥ ⇒ det(A − λE) = ++ .. .. .. .. +
+
⎣ . . . . ⎦ + . . . . +
+ +
0 0 ··· ann + 0 0 · · · ann − λ +
Somit sind die Eigenwerte von A genau die Diagonaleinträge von A. Dies gilt auch für
untere Dreiecksmatrizen und Diagonalmatrizen (Trick # 9.4). !
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
527 9
Übung 9.26
• ◦ ◦ Es sei A ∈ Rn×n . Man zeige: Ist n ungerade, so hat A mindestens einen reellen
Eigenwert.
v Lösung
Das charakteristische Polynom von A ist ein reelles Polynom vom Grad n. Da jedes
reelle Polynom ungeraden Grades mindestens eine reelle Nullstelle hat (vgl. Anhang
C.3), hat A mindestens einen reellen Eigenwert. !
Übung 9.27
• • ◦ Es sei A ∈ Kn×n . Nehmen wir an, dass A die n Eigenwerte λ1 , · · · , λn besitzt. Man
zeige:
B
a) λ1 + · · · + λn = ni=1 λi = Spur(A)
Cn
b) λ1 · · · λn = i=1 λi = det(A)
Hinweis: Formeln von Vieta für das charakteristische Polynom.
v Lösung
Das charakteristische Polynom von A ist ein Polynom vom Grad n
Für die Koeffizienten an , an−1 und a0 gelten die Formeln von Vieta (Trick # 9.1)
Es ergeben sich daraus zwei Darstellungen von pA (λ): Gl. (9.23) und Gl. (9.24). Resultat
(a) und (b) erhalten wir jeweils durch geschicktes Vergleichen von Gl. (9.23) und
Gl. (9.24).
a) Durch Ausmultiplizieren von (9.23) erhalten wir:
an−1 Spur(A)
an−1 = −an (λ1 + · · · + λn ) ⇒ λ1 + · · · + λn = − = (−1)n
an (−1)n
= Spur(A).
528 Kapitel 9 • Eigenwerte und Eigenvektoren
b) Wir werten pA (λ) bei λ = 0 aus. So gewinnen wir aus Gl. (9.23) bzw. Gl. (9.24):
Übung 9.28 ? @
− sin(ϕ)
• • ◦ Man betrachte die Rotationsmatrix A = cos(ϕ)
sin(ϕ) cos(ϕ) .
a) Für welche ϕ ∈ R hat A reelle Eigenwerte? Man interpretiere das Resultat
geometrisch.
b) Man bestimme die Eigenwerte und Eigenvektoren von A auf C.
v Lösung
a) Das charakteristische Polynom von A ist:
+ +
+cos(ϕ) − λ − sin(ϕ) +
+ +
pA (λ) = det(A − λE) = + +
+ sin(ϕ) cos(ϕ) − λ+
Für ϕ ̸= 0, π gilt:
5 Eigenraum zu λ1 = eiϕ = cos(ϕ) + i sin(ϕ): Wir lösen (A − eiϕ E)v = 0 mit dem
Gauß-Algorithmus (sin(ϕ) ̸= 0):
1 2 1 2
cos(ϕ) − cos(ϕ) − i sin(ϕ) − sin(ϕ) 0 −i sin(ϕ) − sin(ϕ) 0
=
sin(ϕ) cos(ϕ) − cos(ϕ) − i sin(ϕ) 0 sin(ϕ) −i sin(ϕ) 0
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
529 9
1 2 1 2
i(Z2 ) + (Z1 ) −i sin(ϕ) − sin(ϕ) 0 (Z1 )/ sin(ϕ) −i −1 0
% % = Z.
0 0 0 0 0 0
Übung 9.29
••◦ Man bestimme das Spektrum und den Spektralradius der folgenden (n×n)-Matrix:
⎡ ⎤
0 0 ··· 0 1
⎢ ⎥
⎢ .. ⎥
⎢1 0 . 0 0⎥
⎢ ⎥
⎢ .. .. .. ⎥
A = ⎢0 1 . . .⎥ .
⎢ ⎥
⎢. .. .. ⎥
⎢. ⎥
⎣. . . 0 0⎦
0 ··· 0 1 0
v Lösung
Das charakteristische Polynom von A ist
+ +
+−λ 0 ··· 0 1 ++
+
+ +
+ . +
+ 1 −λ . . 0 0 +
+ +
+ . .. .. +
pA (λ) = det (A − λE) = + 0 1 .. . . ++ .
+
+ . .. .. +
+ . +
+ . . . −λ 0 +
+ +
+ 0 ··· 0 1 −λ+
530 Kapitel 9 • Eigenwerte und Eigenvektoren
n−1 n+1
= (−λ)(−λ) + (−1) = (−1) λ + (−1)(−1)n = (−1)n (λn − 1).
n n
Die Eigenwerte von A sind die Nullstellen von pA (λ), d. h. die n n-ten Wurzeln von 1
(vgl. Anhang C):
! 2πik
pA (λ) = (−1)n (λn − 1) = 0 ⇒ λn = 1 ⇒ λ=e n , k = 1, 2, · · · , n − 1.
Alle Eigenwerte liegen auf dem Einheitskreis in der komplexen Ebene (. Abb. 9.5).
Der Radius dieses Kreises ist genau der Spektralradius von A. Alle Eigenwerte haben
Betrag 1, d. h., der Spektralradius von A ist ρ(A) = 1.
Elegante Alternative: Durch direkte Berechnung zeigt man, dass An = E. Der
einzige Eigenwert von E ist 1 ⇒ An hat nur den Eigenwert 1. Daher sind die Eigenwerte
2πik
von A die n-ten Wurzeln von 1, d. h. e n mit k = 0, · · · , n − 1 (Trick # 9.8). Auf die
Idee, An zu betrachten, kommt man, weil A eine Permutationsmatrix ist. A schickt die
erste Spalte von E ganz nach rechts; A2 schickt dann die zweite Spalte von E ganz nach
rechts, usw.
⎡ ⎤ ⎡ ⎤
0 0 ··· 01 0 0 ··· 10
⎢ ⎥ ⎢ ⎥
⎢ . ⎥ ⎢ . ⎥
⎢1 0 . . 0
0⎥ ⎢0 0 . . 0 1⎥
⎢ ⎥ ⎢ ⎥
⎢ .. ⎥
.. ⎢ .. .. ⎥
A = ⎢0 1 . . . .⎥
. , A2 = ⎢1 0 . . . . .⎥ usw.
⎢ ⎥ ⎢ ⎥
⎢. . . ⎥ ⎢. . . ⎥
⎢. .. .. ⎥ ⎢. .. .. ⎥
⎣. 0 0⎦ ⎣. 0 0⎦
0 ··· 0 1 0 0 ··· 0 0 0
Übung 9.30
• • ◦ Man betrachte die folgende (n × n)-Matrix
⎡ ⎤
1 ··· 1
⎢. .. .. ⎥
A = αE + J, J=⎢
⎣ .. .
⎥
.⎦ .
1 ··· 1
v Lösung
a) λ ist ein Eigenwert von A genau dann, wenn det (A − λE) = 0. Für λ = α finden
wir:
+ +
+1 1 ··· 1++
+
+1 1 ··· 1++
+
det(A − αE) = det(J) = ++ . .. .. .. ++ = 0.
+ .. . . . ++
+
+1 1 · · · 1+
Somit ist α ein Eigenwert von A. Für λ = α + n finden wir (wir addieren alle Zeilen
(Z2 ), · · · , (Zn ) zur ersten Zeile (Z1 )):
532 Kapitel 9 • Eigenwerte und Eigenvektoren
+ +
+1 − n 1 · · · 1 +
+ +
+ +
; < + 1 1 − n · · · 1 + (Z1 ) + (Z2 ) + · · · + (Zn )
det A − (α + n)E = ++ . .. . . . ++ =
+ .. . . .. +
+ +
+ 1 1 · · · 1 − n+
+ +
+1 − n + (n − 1) 1 − n + (n − 1) · · · 1 − n + (n − 1)+
+ +
+ 1 1−n ··· 1 +
+ +
= ++ .. .. .. .. +
+
+ . . . . +
+ +
+ 1 1 ··· 1−n +
+ +
+0 0 · · · 0 +
+ +
+1 1 − n · · · 1 +
+ +
= ++ . . . . + = 0.
+ .. .. . . .. ++
+ +
+1 1 · · · 1 − n+
⎡ ⎤ (Z2 ) − (Z1 ) ⎡ ⎤
1 1 ··· 1 .
.
1 1 ··· 1
⎢1 1 ··· 1⎥
. ⎢0 0 ··· 0⎥
⎢ ⎥ (Zn ) − (Z1 ) ⎢ ⎥
A − αE = J = ⎢
⎢ .. .. .. .. ⎥
⎥ % ⎢.
⎢. .. .. .. ⎥
⎥.
⎣. . . .⎦ ⎣. . . .⎦
1 1 ··· 1 0 0 ··· 0
Um die Dimension des Eigenraumes zum Eigenwert α+n zu bestimmen, müssen wir
gar keine Arbeit leisten. Für jeden Eigenwert ist dim(Eigλ (A)) mindestens 1. Außer-
dem ist die Summe der Dimensionen aller Eigenräumen nie größer als n (Dimension
des ganzes Raumes). Wegen dim(Eigα (A)) = n − 1, muss dim(Eigα+n (A)) = 1
sein. !
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
533 9
Übung 9.31
• • ◦ Alle Zeilen der Matrix A ∈ Rn×n seien identisch, d. h.
⎡ ⎤
⎢ a1 a2 · · · an ⎥
⎢ ⎥
⎢ ⎥
⎢ ⎥
⎢ ⎥
⎢ a1 a2 · · · an ⎥
⎢ ⎥
A=⎢
⎢
⎥,
⎥
⎢ .. ⎥
⎢ ⎥
⎢ . ⎥
⎢ ⎥
⎢ ⎥
⎣ a1 a2 · · · an ⎦
v Lösung
a) Da alle Zeilen von A identisch sind, gilt für λ = 0:
+ +
+a1 a2 ··· an ++
+
+a a2 ··· an ++
+ 1
det(A − λE) = det(A) = ++ . .. .. .. ++ = 0.
+ .. . . . ++
+
+a a2 · · · an +
1
Somit ist 0 ein Eigenwert von A. Für λ = Spur(A) = a1 + · · · + an müssen wir etwas
mehr herumprobieren (wir addieren alle Spalten (S2 ), · · · , (Sn ) zur ersten Spalte
(S1 )):
+ +
+a1 − Spur(A) a2 ··· an +
+ +
+ a1 a2 − Spur(A) · · · an +
+ +
det(A − λE) = det(A − Spur(A)) = ++ .. .. .. . +
+
+ . . . .
. +
+ +
+ a1 a2 · · · an − Spur(A)+
+ +
+a1 + a2 + · · · + an − Spur(A) a2 ··· an +
+ +
+a + a + · · · + a − Spur(A) a − Spur(A) · · · an +
(S1 ) + (S2 ) + · · · + (Sn ) + 1 2 n 2 +
= + . . . +
+ . . .. . +
+ . . . . +
+ +
+a + a + · · · + a − Spur(A) a2 · · · an − Spur(A)+
1 2 n
+ +
+0 a2 ··· an +
+ +
+0 a − Spur(A) · · · an +
+ 2 +
= ++ . . .. . + = 0.
+
+. . .
. . .
. +
+ +
+0 a2 · · · an − Spur(A)+
534 Kapitel 9 • Eigenwerte und Eigenvektoren
⎡ ⎤ (Z2 ) − (Z1 ) ⎡ ⎤
a1 a2 ··· an 0 .
.
a1 a2 ··· an 0
⎢a a2 ··· an 0⎥
. ⎢ 0 0 ··· 0 0⎥
⎢ 1 ⎥ (Zn ) − (Z1 ) ⎢ ⎥
⎢ . .. ⎥ % ⎢ . .. ⎥
⎢ . .. .. .. ⎥ ⎢ . .. .. .. ⎥ = Z.
⎣ . . . . .⎦ ⎣ . . . . .⎦
a1 a2 · · · an 0 0 0 ··· 0 0
Nun nehmen wir ohne Beschränkung der Allgemeinheit an, dass an ̸= 0 ist (auf
diese Weise dürfen wir die erste Gleichung nach xn auflösen). Wäre an = 0, so löst
man einfach nach einem anderen xi mit ai ̸= 0 auf. Somit sind n − 1 Variablen frei
wählbar und wir setzen x1 = t1 ∈ R, x2 = t2 ∈ R, · · · , xn−1 = tn−1 ∈ R. Aus der
ersten Gleichung erhalten wir xn = −(a1 /an )t1 − (a2 /an )t2 − · · · − (an−1 /an )tn−1 .
Die Lösung ist bestimmt durch
⎡
⎤ ⎡ ⎤ ⎡ ⎤
1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
3⎢ 0 ⎥ ⎢ 1 ⎥ ⎢ 0 ⎥4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ . ⎥ ⎢ . ⎥ ⎢ .. ⎥
Eig0 (A) = ⎢ .. ⎥ , ⎢ .. ⎥ , · · · ,⎢ . ⎥ .
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 ⎦ ⎣ 0 ⎦ ⎣ 1 ⎦
an−1
− aa1n − aa2n − an
Der Eigenraum zum Eigenwert λ = 0 hat die Dimension n − 1. Da die Summe der
Dimensionen aller Eigenräumen nie größer als n (Dimension des ganzes Raumes)
sein kann, muss der Eigenraum zum Eigenwert λ = Spur(A) die Dimension 1
haben. !
Übung 9.32
• • ◦ Man betrachte die folgende (n × n)-Matrix
⎡ ⎤
0 0 ··· 0 a0
⎢ ⎥
⎢ . ⎥
⎢1 0 . . 0 a1 ⎥
⎢ ⎥
⎢ .. .. ⎥
A = ⎢0 1 . . . . . ⎥ .
⎢ ⎥
⎢. . . ⎥
⎢. .. .. ⎥
⎣. 0 an−2 ⎦
0 ··· 0 1 an−1
Dann addieren wir das λ2 -fache der dritten Zeile zur ersten Zeile
+ + + +
+0 −λ2 0 · · · 0 a + a λ+ +0 0 −λ3 · · · 0 a + a λ + a λ2 +
+ 0 1 + + 0 1 2 +
+ + + +
+ . + + .. +
+1 −λ 0 . . 0 a1 + +1 −λ 0 . 0 a1 +
+ + (Z ) + λ2 (Z ) + +
+ + 1 3 + . . +
+0 1 −λ . . . 0 a 2
+ = +0 1 −λ
.. .
. . .. +.
+ + + +
+. . + + +
+ . . . . . . . . . .. .. + + .. . . . . . . . . . +
+. . . + +. −λ an−2 +
+ + + +
+0 · · · · · · 0 1 an−1 − λ+ +0 · · · · · · 0 1 an−1 − λ +
Wir gehen auf dieser Art und Weise weiter, indem wir jeweils das λi−1 -fache der i-ten
Zeile zur ersten Zeile addieren. Am Ende bekommen wir
+ +
+0 0 · · · 0 P(λ) ++
+
+ +
+ . +
+1 −λ . . 0 a1 +
+ +
+ . .. +
pA (λ) = +0 1 . . . .. . +,
+ +
+. . . +
+. .. .. +
+. −λ an−2 +
+ +
+0 · · · 0 1 an−1 − λ+
wobei
Um diese Determinante zu bestimmen, entwicklen wir nach der ersten Zeile (da diese
meisten aus Nullen besteht) und erhalten
536 Kapitel 9 • Eigenwerte und Eigenvektoren
+ +
+1 −λ · · · +0
+ +
+ . +..
+0 +
n+1 + 1 .. + .
pA (λ) = (−1) P(λ) + + = (−1)n+1 P(λ)
+ .. .. .. +
+. . . −λ++
+
+0 ··· 0 1 +
' () *
=1 (Dreiecksmatrix)
G H
= (−1)n+1 a0 + a1 λ + a2 λ2 + · · · + an−2 λn−2 + (an−1 − λ)λn−1
G H
= (−1)n λn − an−1 λn−1 − an−1 λn−2 · · · − a1 λ − a0 . !
Übung 9.33
• • ◦ Man zeige: Für A ∈ Kn×n ist pA (λ) ein Polynom vom Grad n, d. h.
v Lösung
Aus der Definition pA (λ) = det(A − λE) folgt mit der Entwicklung nach der ersten
Spalte:
+ +
+a11 − λ a12 · · · a1n + + +
+ + +a − λ · · · a +
+ a + + 22 2n +
+ 21 a22 − λ · · · a2n + + . .. .. ++
pA (λ) = ++ . .. .. .. ++ = (a11 − λ) ++ .. . . +
+ . . . . . ++ + +
+ + an2 · · · ann − λ+
+ a an2 · · · ann − λ +
n1
+ + + +
+a · · · a + + a +
+ 12 1n + + 12 · · · a1n +
+ . . . + n−1
+ . .. . +
−a21 ++ .. . . .. ++ + · · · + (−1) an1 ++ .. . .. +
+
+ + + +
+an2 · · · ann − λ+ +an−1,2 · · · an−1n +
' () *
=q(λ)= Polynom vom Grad ≤n−2
..
.
= (a11 − λ)(a22 − λ)(ann − λ) + q(λ).
Somit ist pA (λ) ein Polynom vom Grad n. Ausmultiplizieren im ersten Term ergibt:
Die Formel a0 = det(A) erhalten wir, indem wir pA (λ) bei λ = 0 auswerten; denn es
gilt:
pA (λ = 0) = an 0n + an−1 0n−1 + · · · + a0 = a0 .
Übung 9.34
• • • Es sei K = Z2 .
a) Man bestimme alle Matrizen in (Z2 )2×2 .
b) Wie lauten die möglichen charakteristischen Polynome der Matrizen in (Z2 )2×2 ?
c) Welche Matrizen in (Z2 )2×2 haben Eigenwerte in Z2 ?
v Lösung
a) Da Z2 = {0, 1}, ist jede Komponente einer Matrix in (Z2 )2×2 entweder 0 order 1.
Es gibt somit 24 = 16 Matrizen in (Z2 )2×2 . Diese sind:
1 2 1 2 1 2 1 2 1 2 1 2 1 2 1 2
00 10 01 00 00 11 10 10
, , , , , , , ,
00 00 00 10 01 00 10 01
1 2 1 2 1 2 1 2 1 2 1 2 1 2 1 2
01 01 00 11 11 10 01 11
, , , , , , , .
10 01 11 10 01 11 11 11
b) Es sei A ∈ (Z2 )2×2 . Das charakteristische Polynom von A ist ein Polynom zweiten
Grades mit Koeffizienten aus Z2 :
pA (λ) = a0 + a1 λ + a2 λ2 , a0 , a1 , a2 ∈ Z2 .
a0 = det(A), a1 = Spur(A), a2 = 1.
λ2 0 0 (0,0)
λ2 + λ = λ(λ + 1) 1 0 (0,1)
λ2 + 1 = (λ + 1)2 0 1 (1,1)
λ2 + λ + 1 1 1 Keine Nullstellen in Z2
538 Kapitel 9 • Eigenwerte und Eigenvektoren
c) Aus dem Resultat und der Tabelle aus (b) erhalten wir folgende komplette Über-
sicht:
Übung 9.35
• • ◦ Es sei A ∈ Cn×n . Man zeige:
a) A und AT haben dieselben Eigenwerte.
b) Ist λ ein Eigenwert von A, so ist λ ein Eigenwert von A∗ .
v Lösung
a) Die Eigenwerte von A sind genau die Nullstellen ihres charakteristischen Polynoms
pA (λ) = det(A − λE). Wie lautet das charakteristische Polynom von AT ? Es gilt:
G H G H G H
pAT (λ) = det AT − λE = det AT − λE T = det (A − λE)T
Übung 9.36
• • ◦ A ∈ Rn×n heißt orthogonal, wenn AT A = E gilt. Wie lauten die möglichen Eigen-
werte einer reellen orthogonalen Matrix? Man interpretiere das Resultat geometrisch.
v Lösung
Es sei A ∈ Rn×n orthogonal, d. h. AT A = E. Weil A und AT dieselben Eigenwerte haben
(vgl. Übung 9.35), müssen die Eigenwerte einer orthogonalen Matrix die folgende
Gleichung erfüllen:
λ2 = 1 ⇒ λ2 − 1 = (λ + 1)(λ − 1) = 0 ⇒ λ = ±1.
Übung 9.37
• • ◦ A ∈ Cn×n heißt unitär, wenn A∗ A = E gilt. Wie lauten die möglichen Eigenwerte
einer unitären Matrix?
v Lösung
Wegen A∗ A = E, müssen die Eigenwerte von A die folgende Gleichung erfüllen
(vgl. Übung 9.35):
λλ = 1 ⇒ |λ|2 = 1 ⇒ |λ| = 1.
Die Eigenwerte einer unitären Matrix sind somit alle komplexe Zahlen λ ∈ C mit Betrag
|λ| = 1. Es sind somit alle Zahlen λ = eiϕ mit ϕ ∈ R (die Eigenwerte liegen auf dem
Einheitskreis in der komplexen Ebene, vgl. Übung 9.29). !
540 Kapitel 9 • Eigenwerte und Eigenvektoren
Übung 9.38
• • ◦ Sei A eine invertierbare (n × n)-Matrix mit charakteristischem Polynom pA (λ).
Man finde eine Formel für das charakteristische Polynom von A−1 .
v Lösung G H
Das charakteristische Polynom von A−1 ist pA−1 (λ) = det A−1 − λE . Mit E =
; <
A−1 A, det X −1 = 1/ det(X) und det(αX) = α n det(X) finden wir:
G H G G HH G G HH
pA−1 (λ) = det A−1 − λE = det E A−1 − λE = det A−1 A A−1 − λE
G G HH G H
= det A−1 AA−1 − λAE = det A−1 (E − λA)
G G HH
G H det(E − λA) det −λ A − λ1 E
= det A−1 det (E − λA) = =
det(A) det(A)
G H
(−λ)n det A − λ1 E (−1)n λn G H
= = pA λ−1 .
det(A) det(A) !
i Merkregel
Aus Übung 9.38 folgt, dass A−1 die Eigenwerte λ−1 −1
1 , · · · , λk hat, wenn λ1 , · · · , λk ̸= 0
die Eigenwerte von A sind.
Übung 9.39
• • ◦ Man zeige, dass ähnliche Matrizen das gleiche charakteristische Polynom haben.
v Lösung
A und B sind ähnlich, wenn es eine invertierbare Transformationsmatrix P gibt, sodass
; <
B = PAP−1 gilt (7 vgl. Kap. 8). Mit der Formel det X −1 = 1/ det(X) und det (XY) =
det(X) det(Y) finden wir für das charakteristische Polynom von B:
G H G H
pB (λ) = det (B − λE) = det PAP−1 − λE = det PAP−1 − λPEP−1
G H G H
= det P(A − λE)P−1 = det(P) det(A − λE) det P−1
det(P)
= det(A − λE) = det(A − λE) = pA (λ).
det(P)
Übung 9.40
• • ◦ Man beweise Satz 9.5: geometrische Vielfachheit ≤ algebraische Vielfachheit.
9.3 • Eigenwerte und Eigenvektoren von Endomorphismen
541 9
v Lösung
Es sei λ ∈ K ein Eigenwert von A ∈ Kn×n und es bezeichne Eigλ (A) den zugehörigen
Eigenraum. Es sei dim(Eigλ (A)) = k. Dann gibt es k linear unabhängige Eigenvektoren
von A zum Eigenwert λ (vgl. Übung 9.14). Wählt man diese Vektoren als den ersten Teil
einer Basis von Kn , so hat A bezüglich dieser neuen Basis die folgende Form:
⎡ ⎤
λ ··· 0 ⋆ ··· ⋆
⎢. .. .. .. .. .. ⎥
⎢. . . ⎥
⎢. . . .⎥
⎢ ⎥
⎢0 ··· λ ⋆ ··· ⋆⎥
⎢ ⎥.
⎢0 ··· 0 ⋆ ··· ⋆⎥
⎢ ⎥
⎢. .. .. .. ⎥
⎢. .. .. ⎥
⎣. . . . . .⎦
0 ··· 0 ⋆ ··· ⋆
9.3.1 Definition
F(v) = λ v (9.25)
$
542 Kapitel 9 • Eigenwerte und Eigenvektoren
> Bemerkung
Da die Darstellungsmatrix M B
B (F) von F von der Wahl der Basis B abhängig ist, könnte
man sich Folgendes fragen: Sind Eigenwerte von M B B (F) abhängig von der Wahl der
Basis? Die Antwort auf diese Frage ist nein! Ähnliche Matrizen besitzen dieselben
Eigenwerte (vgl. Übung 9.39). Weil ähnliche Matrizen denselben Endomorphismus
bezüglich unterschiedlichen Basen darstellen, bedeutet dies, dass die Eigenwerte von
MBB (F) unabhängig von der Wahl der Basis existieren.
Übung 9.41
• • ◦ Es seien P2 (R) der Vektorraum der reellen Polynomen vom Grad ≤ 2 und F :
P2 (R) → P2 (R), p(x) → F(p(x)) = p′ (x) − p(x). Man bestimme alle Eigenwerte und
Eigenvektoren von F.
v Lösung
Um die Eigenwerte von F berechnen zu können, müssen wir zuerst die Darstellungs-
matrix von F bezüglich einer Basis von P2 (R) bestimmen. Da die Eigenwerte von F
von der Wahl der Basis unabhängig sind, wählen wir hier die Standardbasis von P2 (R),
d. h. E = {1, x, x2 }. Wir bestimmen die Bilder der Basiselemente:
⎤ ⎡ ⎡ ⎤
−1 1
⎢ ⎥ ⎢ ⎥
F(1) = −1 ⇒ [F(1)]E = ⎣ 0 ⎦ , F(x) = 1 − x ⇒ [F(x)]E = ⎣−1⎦ ,
0 0
⎡ ⎤
0
⎢ ⎥
F(x2 ) = 2x − x2 ⇒ [F(x2 )]E = ⎣ 2 ⎦ .
−1
Weil M EE (F) eine obere Dreiecksmatrix ist hat F den Eigenwert −1 mit algebraischer
Vielfachheit 3. Um den zugehörigen Eigenraum zu bestimmen, lösen wir das LGS:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−1 + 1 1 0 0 0 1 0 0 3 1 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 −1 + 1 2 0 ⎦ = ⎣ 0 0 2 0 ⎦ ⇒ Eig−1 (F) = ⎣0⎦ = ⟨1⟩.
0 0 −1 + 1 0 0 0 0 0 0
9.3 • Eigenwerte und Eigenvektoren von Endomorphismen
543 9
Der Eigenraum zum Eigenwert −1 ist
Übung 9.42
• • ◦ Es sei V der Vektorraum mit Basis B = {ex , e−x , e2x , e−2x }.
d2 d
a) Man bestimme alle Eigenwerte des Differenzialoperators L = dx2
+ 3 dx + 2.
d2y dy
b) Man finde die allgemeine Lösung der Differenzialgleichung dx2
+ 3 dx + 2y = 0.
v Lösung
Wir berechnen die Darstellungsmatrix von L bezüglich der Basis B. Dazu bestimmen
wir die Bilder der Basiselementen:
⎡ ⎤
I J 6
; < d2 d = ; x <> ⎢0⎥
⎢ ⎥
L ex = +3 + 2 ex = ex + 3ex + 2ex = 6ex ⇒ L e B = ⎢ ⎥,
dx2 dx ⎣0⎦
0
⎡ ⎤
I J 0
; < d2 d = ; −x <> ⎢0⎥
⎢ ⎥
L e−x = +3 + 2 e−x = e−x − 3e−x + 2e−x =0 ⇒ L e = ⎢ ⎥,
dx2 dx B ⎣0⎦
0
I J
G H d2 d
L e2x = +3 + 2 e2x
dx2 dx
⎤ ⎡
0
? G H@ ⎢0⎥
⎢ ⎥
= 4e2x + 6e2x + 2e2x = 12e2x ⇒ L e2x = ⎢ ⎥,
B ⎣12⎦
0
I J
G H d2 d
L e−2x = 2
+3 + 2 e−2x
dx dx
⎡ ⎤
0
? G H@ ⎢0⎥
⎢ ⎥
= 4e−2x − 6e−2x + 2e−2x = 0 ⇒ L e−2x = ⎢ ⎥.
B ⎣0⎦
0
⎡ ⎤
6 0 0 0
⎢0
⎢ 0 0 0⎥⎥
MB
B (L) = ⎢ ⎥.
⎣0 0 12 0⎦
0 0 0 0
Weil M BB (L) eine Diagonalmatrix ist, sind die Eigenwerte genau die Diagonaleinträge.
L hat somit die folgenden Eigenwerte: 0 (mit algebraischer Vielfachheit 2), 6 und 12.
2
b) Die Differenzialgleichung ddxy2 + 3 dxdy
+ 2y = 0 ist äquivalent zu L(y) = 0,
d. h., wir suchen die Eigenvektoren von L zum Eigenwert 0. Um den Eigenraum zu
0 zu bestimmen, lösen wir das LGS:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
6 0 0 0 0 3 0 0 4
⎢0 0⎥ ⎢1⎥ ⎢0⎥
⎢ 0 0 0 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⇒ Eig0 (L) = ⎢ ⎥ , ⎢ ⎥ = ⟨e−x , e−2x ⟩.
⎣0 0 12 0 0⎦ ⎣0⎦ ⎣0⎦
0 0 0 0 0 0 1
Die Lösung
G 2 der Differenzialgleichung
H ist somit y = ⟨e−x , e−2x ⟩ = A e−x + B e−2x .
d d −x −2x
Probe: dx2 + 3 dx + 2 (A e + B e ) = 0 " !
Übung 9.43
=2 1> =0 0>
• • ◦ Es seien die folgenden Matrizen A = 12 ,B = 01 gegeben. Man betrachte die
folgende lineare Abbildung
v Lösung
a) Die Standardbasis von R2×2 ist
5 1
2 1 2 1 2 1 26
10 01 00 00
E = E11 = , E12 = , E21 = , E22 = .
00 00 10 01
b) Weil M EE (T) eine Blockdiagonalmatrix ist, lautet das charakteristische Polynom von
M EE (T)
+ +
+2−λ 1 0 0 ++ +
+ + + +
+ 1 2−λ 0 0 ++ ++2 − λ 1 ++ ++1 − λ 1 ++
+
pT (λ) = + +=+ +·+ +
+ 0
+ 0 1 − λ 1 ++ + 1 2 − λ+ + 1 1 − λ+
+ 0 0 1 1−λ+
⎡ ⎤
3 0 4
⎢0⎥
⎢ ⎥
Eig2 (T) = Ker(T − 2id) = Span ⎢ ⎥ ,
⎣1⎦
1
⎡ ⎤
3 1 4
⎢1⎥
⎢ ⎥
Eig3 (T) = Ker(T − 3id) = Span ⎢ ⎥
⎣0⎦
0 !
Übung 9.44
• • ◦ Es sei F : V → V linear. Man zeige:
v Lösung
Es gilt
F ist ein Isomorphismus genau dann, wenn Ker(F) = {0}. Wegen Eig0 (F) = Ker(F)
ist F genau dann ein Isomorphismus, wenn Eig0 (F) = {0}. Der Nullvektor ist jedoch
nach Definition nie ein Eigenvektor. Somit ist 0 kein Eigenwert von F. !
Übung 9.45
• • ◦ Es sei V ein Vektorraum der Dimension n und A die Darstellungsmatrix eines
Endomorphismus F : V → V . Man zeige, dass die folgenden Aussagen äquivalent
sind:
a) v ̸= 0 ist ein Eigenvektor von A zum Eigenwert λ.
b) (A − λE)v = 0 hat eine nichttriviale Lösung v ̸= 0.
c) det(A − λE) = 0.
d) Rang(A − λE) < n.
e) dim(Ker(A − λE)) ≥ 1.
f) dim(Eigλ (A)) ≥ 1.
v Lösung
a) ⇔ b) Es sei λ ein Eigenwert von A mit Eigenvektor v ̸= 0, d. h. Av = λv. Die
folgende Äquivalenz-Umformung liefert die Behauptung:
Av = λv ⇔ Av − λv = 0 ⇔ (A − λE)v = 0.
9.3 • Eigenwerte und Eigenvektoren von Endomorphismen
547 9
Dies ist ein homogenes LGS. Wegen v ̸= 0, sind die Eigenvektoren von A zum
Eigenwert λ genau die nichttrivialen Lösungen des LGS (A − λE)v = 0.
b) ⇔ c) Ein homogenes LGS Bx = 0 hat genau dann eine nichttriviale Lösung, wenn
det B = 0. In unserem Fall heißt dies: die Eigenvektoren von A zum Eigenwert
λ sind genau die nichttrivialen Lösungen des LGS (A − λE)v = 0. Diese
Lösungen gibt es nur dann, wenn det(A − λE) = 0.
c) ⇔ d) Wegen det(A − λE) = 0 ist die Matrix A − λE singulär. Insbesondere hat
A − λE nicht vollen Rang, d. h. Rang(A − λE) < n.
d) ⇔ e) Wegen Rang(A − λE) = dim(Im(A − λE)) folgt aus der Dimensionsformel:
a) ⇔ e) λ ist ein Eigenwert von A genau dann, wenn (A − λE)v = 0 eine nichttriviale
Lösung v ̸= 0 hat. Insbesondere ist v ̸= 0 ein Element des Kernes von A − λE.
Somit ist Ker(A − λE) ̸= {0}, d. h.
dim(Ker(A − λE)) ≥ 1.
f) Diese Aussage ist äquivalent zu (e), weil dim(Eigλ (A)) = dim(Ker(A − λE)).
!
549 10
Prüfungstrainer
Inhaltsverzeichnis
10.1 Multiple-Choice-Fragen
In diesem Teil befinden sich 150 Multiple-Choice-Fragen, welche perfekt zum Über-
prüfen des Linearen-Algebra-Basiswissens passen. Der Schwierigkeitsgrad der Fra-
gen variiert bewusst von einfach bis schwierig. Beachten Sie: Es können jeweils eine,
zwei oder mehrere Antworten richtig sein.
7 Kapitel 1
1 2
? @ 1 0 ? 3 5
@
1 −1 2 1 −2
1 ◦ ◦ ◦ Es seien A = 4 −1 2 , B = 5 1 ,C = 1 1 . Welche Produkte
5 −1 10 −2
existieren?
A A2 B AB C BA D AC E BC F CA
= 1 1
>
4 ◦ ◦ ◦ Die Inverse der Matrix A = −3 2 ist
= 2 −1 > K 1 1
L K2 L
A A−1 = − 51
3 1 B A−1 = 5 5
C A−1 = 5
− 53 2
5
3
5
1
5
10.1 • Multiple-Choice-Fragen
551 10
?0 0 0@
5 ◦ ◦ ◦ Die Matrix A = 010 ist ...
000
A Wahr B Falsch
A 0 B E C C T A−1 BC −T AB−1
; <−1 ; <−1
A A = 5E + 4B − 2DT (E − C) B A = (E − C) 5E + 4B − 2DT
552 Kapitel 10 • Prüfungstrainer
= > = >
13 • • ◦ Es seien A = 3 −3 2 und B = 4 3 −2 . Man berechne AT B auf (Z3 )3×3
K L ?0 0 0@ ?0 1 0@
12 9 −6
A −12 −9 6 B 000 C 010
8 6 −4 202 000
A 1 C 3
B 2 D 4
15 ◦ ◦ ◦ Welche der folgenden Aussagen sind für alle Matrizen A, B, C ∈ Rn×n
richtig?
A Wahr B Falsch
A Wahr B Falsch
? @ K L
1 = > 1 02 1 1 −2 2
A = √ 11 11 , B= −1 1 0 , C= 2 −1 −2
2 0 11 3 2 2 1
A A B B C C D Keine
K L
−i 0 i
20 • ◦ ◦ Für welche k ∈ C ist U = √1 1 √0 1 unitär?
2 k 20
√
A k=0 B k=i C k=1 D k= 2
? @ ?0 1 1@ 1 ?0 1 1@
1 −1
A= 1 −1 , B= 001 , C= 101
000 3 110
A A B B C C D Keine
22 • ◦ ◦ Sind A, B ∈ Rn×n nilpotent gleichen Grades (z. B. m), so ist es auch AB.
7 Kapitel 2
A Wahr B Falsch
?1 3 1
@ ?2@
26 • ◦ ◦ Es seien A = 12 0 und b = 2 . Für welche α ∈ R hat das LGS
0 0 2α+1 5
Ax = b keine Lösung?
A Wahr B Falsch
A Wahr B Falsch
?1 2 0 1
@
29 ◦ ◦ ◦ Für A = 25 4 4 hat das LGS Ax = 0
3 5 −6 4
31 • ◦ ◦ Es sei A ∈ Rn×n so, dass die Lösungsmenge von Ax = 0 eine Ebene ist.
Dann gilt:
32 ◦◦◦ Man bestimme die implizite Darstellung der Ebene durch den Punkt (1, 2, 3)
= >T
und senkrecht zur Geraden mit Richtungsvektor 2 −1 0 .
A 0 B π
6 C π
4 D π
2
A Wahr B Falsch
A Die Lösungsmenge ist eine Teil- D Die Lösungsmenge ist ein affiner
menge des R6 Raum
B Die Lösungsmenge ist eine Teil- E Es gibt jedenfalls die triviale Lö-
sung
menge des R3
F Die Summe von zwei Lösungen ist
C Die Lösungsmenge ist ein Unter-
wieder eine Lösung
raum
36 • ◦ ◦ Gegeben ist das LGS Ax = 0 mit A ∈ R2×8 . Welche Aussagen sind richtig?
A Die Lösungsmenge ist eine Teil- D Die Lösungsmenge ist ein affiner
menge des R2 Raum
B Die Lösungsmenge ist eine Teil- E Es gibt jedenfalls die triviale Lö-
sung
menge des R8
F Die Summe von zwei Lösungen ist
C Die Lösungsmenge ist ein Unter-
wieder eine Lösung
raum
A Wahr B Falsch
A Wahr B Falsch
A Wahr B Falsch
556 Kapitel 10 • Prüfungstrainer
K L
1 k+2 0
40 • ◦ ◦ Für die Matrix A = k2 −1 0 4−k (k ∈ R) gilt
1 2k−3 0
=1 2 2 0>
43 • • ◦ Man berechne den Rang von A = 2110 über dem Körper K
7 Kapitel 3
=1 1>
44 ◦ ◦ ◦ Die Inverse der Matrix A = 01 ist
= 1 −1 > =1 0>
A A−1 = 0 1 B A−1 = 11 C A−1 existiert nicht
= 1 −1 >
45 ◦ ◦ ◦ Es sei A = 1 1
∈ R2×2 . Gibt es eine Matrix B ∈ R2×2 mit AB = 7E?
A Ja B Nein
=4 2>
46 • ◦ ◦ Es sei A = 12 ∈ (Z2 )2×2 . Gibt es eine Matrix B ∈ (Z2 )2×2 mit AB = E?
A Ja B Nein
10.1 • Multiple-Choice-Fragen
557 10
47 • ◦ ◦ Es sei A ∈ Rn×n so, dass Ax = 0 nur die triviale Lösung besitzt. Dann gilt:
48 ◦◦◦ Welche der folgenden Aussagen über die Determinante sind für alle Matrizen
A, B ∈ Rn×n richtig?
49 ◦◦◦ Bei welchen Operationen bleibt die Determinante einer Matrix unverändert?
A 0 B 1 C 2 D 3
1 2
−10 11 5 4
51 • ◦ ◦ Was ist die Determinante von A = 2 1 10 −1 ?
0 0 0 0
1 1 10 4
A 0 B 10 C 50 D 100
⎡0 0 0 0 0 1⎤
000033
52 • ◦ ◦ Was ist die Determinante von A = ⎣ 00 00 01 43 62 52 ⎦?
021291
111798
A 0 B 12 C 24 D −24
558 Kapitel 10 • Prüfungstrainer
⎡1 n n ··· n
⎤
n 2 n ··· n
⎢ n n 3 ··· n ⎥
53 • • ◦ Was ist die Determinante von A = ⎣ . . . ⎦?
.. .. .. . . . ...
n n n ··· n
A 0 B n! C (−1)n−1 n! D (−1)n n!
+ +
+ 1 x x2 ··· xn +
+ a 1 x ··· xn−1 +
+ +
1 + a a 1 ··· xn−2 +
54 • • ◦ x = ist eine Nullstelle der Ordnung (n − 1) von p(x) = + . . . . +.
a + .. .. .. . . ... +
+ a a a ··· x +
+ +
a a a ··· 1
A Wahr B Falsch
?1 0 0@
55 ◦ ◦ ◦ Die Adjunkte adj(A) der Matrix A = 110 ist ...
111
?1 1 1@ K L K L K L
1 0 0 1 −1 0 1 0 0
A 011 B −1 1 0 C 0 1 −1 D −1 1 0
001 −1 −1 1 0 0 1 0 −1 1
A a ̸= 1, b ̸= 0 B a ̸= 0, b ̸= 1 C a ̸= 0, b ̸= 6 D a ̸= 3, b ̸= 2
10.1 • Multiple-Choice-Fragen
559 10
60 • • ◦ Die Matrix A ∈ R3×3 hat nur die Einträge ±1. Dann ist det(A) ≤ 6.
A Wahr B Falsch
7 Kapitel 4
?1 1 1@
61 ◦ ◦ ◦ Die obere Dreiecksmatrix bei der LR-Zerlegung von A = 101 ist ...
011
K L ?1 1 1
@ K L
11 1 1 1 1
A R= 0 1 −1 B R= 0 −1 0 C R= 0 −1 0
0 0 −1 0 0 1 0 0 −1
A Wahr B Falsch
=0 1>
65 • • ◦ Die Matrix A = 10
?0 1 1@
66 • ◦ ◦ P = 100 ist eine Permutationsmatrix
001
A Wahr B Falsch
67 • ◦ ◦ Wir suchen eine Matrix P ∈ R5×5 , welche bei der Multiplikation mit dem
Vektor v ∈ R5 genau den ersten und vierten Eintrag von v vertauscht. Für welche
der folgenden Möglichkeiten ist dies gegeben?
10 0 0 1 02 1 0 0 0 1 0 2T 10 0 0 1 02
0 0 1 0 0 0 1 0 0 0 0 1 0 0 0
A 0 1 0 0 0 B 0 0 1 0 0 C 0 0 1 0 0
1 0 0 0 0 1 0 0 0 0 1 0 0 0 0
0 0 0 0 1 0 0 0 0 1 0 0 0 0 1
10 0 1 0 02
1 0 0 0 0
68 • • ◦ Gegeben ist die Permutationsmatrix P = 0 1 0 0 0 . Was stimmt?
0 0 0 0 1
0 0 0 1 0
10 0 1 0 02
A det(P) = 1 1 0 0 0 0
10 1 0 0 02 D P−1 = 0 1 0 0 0
0 0 1 0 0 0 0 0 0 1
B P−1 = 1 0 0 0 0 0 0 0 1 0
0 0 0 0 1 E det(P) = −1
0 0 0 1 0
C P wird von der Permutation σ = F P wird von der Permutation σ =
=1 2 3 4 5>
τ12 τ13 τ45 erzeugt
2 3 1 5 4 erzeugt
for j = 2 to n do y1 = b1 /ℓ11 ;
sum =0 ; for j = 2 to n do
for k = 1 to j − 1 do sum =0 ;
A sum = sum +ℓjk yk
C for k = 2 to j − 1 do
end sum = sum +ℓjk yk
yj = (bj − sum)/ℓjj end
end yj = (bj − sum)/ℓjj
end
y1 = b1 /ℓ11 ;
for j = 2 to n do y1 = b1 /ℓ11 ;
sum =0 ; for j = 2 to n do
B for k = 1 to j − 1 do sum =0 ;
sum = sum +ℓjk yk for k = 1 to j do
D sum = sum +ℓjk yk
end
yj = (bj − sum)/ℓjj end
end yj = (bj − sum)/ℓjj
end
10.1 • Multiple-Choice-Fragen
561 10
70 ◦◦◦ Die LR-Zerlegung ist rechnerisch effizienter als der Gauß-Algorithmus zum
Lösen ...
7 Kapitel 5
M + = > N
71 • ◦ ◦ Die Menge G = A ∈ R2×2 + A = a0 bc , a, b, c ∈ R ist abgeschlossen
bezüglich der Matrizenaddition
A Wahr B Falsch
M + = > N
72 • • ◦ Die Menge G = A ∈ R2×2 + A = a0 bc , a, b, c ∈ N ist eine Gruppe
bezüglich der Matrizenmultiplikation
A Wahr B Falsch
74 ◦ ◦ ◦ U = {x ∈ R3 | x1 + 2x2 = 3(1 − x3 )} ⊂ R3
75 ◦ ◦ ◦ U = {x ∈ R3 | x1 + x2 + x3 = 0} ⊂ R3
A Wahr B Falsch
A Wahr B Falsch
A dim(U1 + U2 ) ≤ 4 C dim(U1 ∩ U2 ) ≤ 2
B dim(V ) = 4 D dim(U1 + U2 ) ≥ 2
7 Kapitel 6
A Wahr B Falsch
A Wahr B Falsch
10.1 • Multiple-Choice-Fragen
563 10
84 • ◦ ◦ Die Vektoren v1 , · · · , vn sind linear unabhängig genau dann, wenn sich ein
Vektor als Linearkombination der anderen darstellen lässt.
A Wahr B Falsch
?1@ ?1@ ?2@
85 ◦ ◦ ◦ Gegeben sind die Vektoren v1 = 2 , v2 = 0 und v3 = 2 . Welche
3 1 4
Aussagen sind richtig?
? @ K L ?0@
1 2
86 ◦ ◦ ◦ Gegeben sind die Vektoren v1 = −3 , v2 = −1 und v3 = 0 . Welche
7 −1 0
Aussagen sind richtig?
A k=1 B k ̸= 1 C k∈R
⎡ ⎤ 112 ⎡ ⎤
0 −1
1 0 2
88 • ◦ ◦ Gegeben sind die Vektoren v1 = ⎣ −1 ⎦, v2 = 1 , v3 = ⎣ −3 ⎦ und
0 0 0
1 k 0
102
0
v4 = 0 . Welche Aussagen sind richtig?
0
0
A v1 , v2 , v3 sind für k =
̸ 2 linear C v1 , v2 , v3 , v4 sind für alle k ∈ R
abhängig linear abhängig
B v1 , v2 , v3 sind für k = ̸ 2 linear D v1 , v2 , v3 , v4 sind für alle k ∈ R
unabhängig linear unabhängig
A Wahr B Falsch
564 Kapitel 10 • Prüfungstrainer
A Wahr B Falsch
?1@ ?2@ ? −1 @ ? 1
@
91 ◦ ◦ ◦ Gegeben sind die Vektoren v1 = 1 , v2 = 4 , v3 = 2 und v4 = 1 .
2 6 5 10
Dann ist v4 ∈ ⟨v1 , v2 , v3 ⟩.
A Wahr B Falsch
= 0 1
> =2 1> = 1 2
>
92 • ◦ ◦ D = −1 2 ist eine Linearkombination von A = 11 ,B= −1 3 ,C =
= −1 1 >
2 3
.
A Wahr B Falsch
A k ̸= 0 B k=0 C k∈R
A Wahr B Falsch
A Wahr B Falsch
A Wahr B Falsch
10.1 • Multiple-Choice-Fragen
565 10
96 •◦◦ Es sei V = P2 (R) der Vektorraum der reellen Polynome vom Grad ≤ 2. Man
finde eine Basis B und die Dimension des folgenden Unterraums U = {p(x) ∈
P2 (R) | p(1) = 0}.
A Wahr B Falsch
A 1 B 2 C 3 D 4
99 • ◦ ◦
a) Man berechne die TransformationsmatrizenE?
TE→ @ ?T B@F
@ B? und →E zwischen der
2 0 1
Standardbasis E von R3 und der Basis B = 1 , 1 , 0 .
0 0 1
?2 0 1@ 1 1
2
0 − 21
A T E →B = 1 1 0 2
? 02 0 1@ C T E →B = − 21 1 12
0 1 0 0 1
B T B→E = 1 1 0 1 1 1
2
0 0 1 2 0 −2
D T B→E = − 21 1 12
0 0 1
?1@
b) Der Vektor w hat die Koordinaten [w]E = 1 bezüglich der Standardbasis.
1
Wie lauten die Koordinaten von w bezüglich B ?
?2@ ?0@ ?1@
A 2 B 1 C 1
1 1 1
PK 1 L K 0 LQ PK −1 L K 2 LQ
0 1
100 • ◦ ◦ Gegeben sind die Unterräume U = 1 , 1 und W = 1 , 10 .
0
0 2 0 2
Was stimmt?
R? 1 @S R? 1 @ ? 0 @S
101 • ◦ ◦ Gegeben sind die Unterräume U = 1 und W = 0 , 0 . Dann ist
1 0 2
R3 = U ⊕ W .
A Wahr B Falsch
M
102 •◦◦ Man bestimme eine Basis des folgenden Unterraums W = A ∈ R3×3 | aij =
0 für i ≥ j}.
E? 0 1 0 @ ? 0 0 1 @ ? 0 0 0 @F E? 0 1 1 @ ? 0 0 1 @ ? 0 1 1 @F
A 000 , 000 , 001 B 000 , 001 , 001
000 000 000 000 000 000
7 Kapitel 7 und 8
104 ◦ ◦ ◦ Es sei F : V → W linear. Die Dimension des Kernes von F ist 3 und die
Dimension des Bildes von F ist 4. Welche Aussagen sind richtig?
A dim(W ) = 7 C dim(V ) = 7
B Jede Basis von V besteht aus 7 D Gilt dim(W ) = 4, so ist F surjektiv
Vektoren E F ist injektiv
1x 2
? x1 @ 1 +x2 +x3
x1 −x2 −x3
105 ◦ ◦ ◦ Gegeben ist die lineare Abbildung F : R3 → R4 , x2 → 2x1 +2x3 .
x3
x2 +x3
Man berechne die Darstellungsmatrix von F bezüglich der Standardbasis.
K L K1 1 1 L
1 1 20
A M EE (F) = 1 −1 0 1 B M EE (F) = 1 −1 −1
1 −1 2 1 2 0 2
0 1 1
107 • • ◦ Es seien V der Vektorraum der reellen Polynome und ϕ, ψ lineare Abbil-
dp
dungen definiert durch ϕ : p → dt und ψ : p → x p. Man berechne [ϕ, ψ].
A 0V B x C idV D 2ϕ
?2 2 k
@
108 • ◦ ◦ Für die Matrix A = 12 k (k ∈ R) gilt
0 0 3k
A Wahr B Falsch
A Wahr B Falsch
A F1 B F2 C F3 D F4 E F5 F F6
? @
cos(ϕ) sin(ϕ)
115 • ◦ ◦ Welche lineare Abbildung stellt die Matrix A = sin(ϕ) − cos(ϕ) dar?
A Wahr B Falsch
117 ◦ ◦ ◦ Welche Matrix beschreibt die lineare Abbildung in der Figur (dunkelrot →
hellrot)?
? @ ? @
1 0 − 23 0
A 2 C
? 0 − @3 ? 0 @1
1 0 0 1
B 0 23 D 2
3 0
118 ◦ ◦ ◦ Welche Matrix beschreibt die lineare Abbildung in der Figur (dunkelrot →
hellrot)?
K L K L
√1 − √1 − √1 − √1
A √1
2
√1
2
C 2 2
− √1 √1
K 2 2 L K 2 2 L
√1 √1 − √1 √1
B 2 2
D 2 2
− √1 √1 √1 √1
2 2 2 2
A Ja B Nein
10.1 • Multiple-Choice-Fragen
569 10
120 ◦◦◦ Die lineare Abbildung F : R3 → R3 ist definiert durch F(e1 ) = e1 −2e2 +e3 ,
F(e2 ) = 2e2 − e3 , F(e3 ) = e1 + e3 . Man bestimme die Darstellungsmatrix von
F −1 bezüglich der Standardbasis.
K L 1 2
1 0 1 1 − 12 −1
A M EE (F −1 ) = −2 2 0 B M EE (F −1 ) = 1 0 −1
1 −1 1
0 12 1
;= 1 >< ?1@
122 • ◦ ◦ Es sei F : R2 → R3 die lineare Abbildung definiert durch F 0 = 2 ,
1
;= >< ? 1 @ ?3@
F 01 = 0 . Ist w = 4 ∈ Im(F)?
−1 1
A Ja B Nein
A z → z̄ B z → iz C z → Re(z) D z → z + iz
?1 i 0
@
128 • ◦ ◦ Gegeben sind die lineare Abbildung F : C3 → C3 , z → Az mit A = i 10
E? 0 @ ? 1 @ ? 0 @F 101
und die Basis B = i , 0 , −2 . Was stimmt?
1 0 i
?1 i 0
@ ? 1 1 0
@
A MB
B (F) = i 10 B MB
B (F) = −1 1 −2i
101 0 0 1
129 • ◦ ◦ Die lineare Abbildung F : R3 → R2 , [x1 , x2 , x3 ]T → [x1 , 2x2 ]T ist ein ...
A Wahr B Falsch
133 • • ◦ A ∈ Kn×n und die Einheitsmatrix E ∈ Kn×n sind ähnlich. Dann ist A = E.
A Wahr B Falsch
A Wahr B Falsch
7 Kapitel 9
KL
1 0
135 ◦ ◦ ◦ Welche der folgenden Vektoren sind Eigenvektoren von A = ?
−1 3
K L K L K L K L
1 2 0 1
A B C D
1 1 1 0
? @
−3 2
136 ◦ ◦ ◦ Die Matrix A = −2 2 hat den Eigenwert 1. Wie lautet der andere
Eigenwert?
A 0 B 3 C 2 D -2
A Wahr B Falsch
?0 2 1@
138 • ◦ ◦ Das Spektrum der Matrix A = 102 ist ...
111
K L
−2 1 1
139 ◦ ◦ ◦ Sei A = 0 4 0 . Was stimmt?
0 0 −2
A 1, 1, 3, 3, 5 B 1, 2, 3, 4, 5 C 1, 1, 4, 4, 10
⎡ ⎤
1 1 0 0 0
1 1 0 0 0
141 • ◦ ◦ Der Spektralradius von A = ⎣0 0 −5 0 0⎦ ist ...
0 0 0 1 2
0 0 0 2 1
? 1 a −1 @ Kb 2 1 3L
A= 01 2 , B= 1011 .
a3 3 0011
1314
143 • • ◦ Die lineare Abbildung F habe das charakteristische Polynom (λ − 2)(λ − 3).
Welche Aussagen sind richtig?
A 1, 2, 3 B −1, −2, −3 C 1, 1, 2 D 0, 1, 3
146 ◦ ◦ ◦ Eine Matrix A ∈ Rn×n hat den Eigenwert 0 genau dann, wenn det(A) = 0
gilt.
A Wahr B Falsch
? @
5 −8
147 ◦ ◦ ◦ Man betrachte die Matrix A = −1 3 . Welche Aussagen sind richtig?
148 • ◦ ◦ Das Spektrum σ (A) einer unitären Matrix A ∈ Cn×n erfüllt ...
A det(A) = −1 C pA (x) = x2 − 1
B A hat die Eigenwerte 1 und −1
150 • • ◦ Es sei V der Vektorraum mit Basis B = {sin(x), cos(x)}. Welche Aussagen
df
über die lineare Abbildung F : V → V , f → dx sind richtig?
=0 1>
A MB
B (F) = 10 C eix ist ein Eigenvektor von F zum
B e−ix ist kein Eigenvektor von F Eigenwert i
D F ist ein Isomorphismus
574 Kapitel 10 • Prüfungstrainer
10.2 Musterprüfung 1
A 0 B 1 C 2 D 3 E -1
A Wahr B Falsch
R? 1 @ ? 0
@ ? 1 @S
d) Die Dimension des Unterraumes U = 0 , 1 , 1 ist
1 −1 0
A 1 B 2 C 3 D Keiner davon
10.2 • Musterprüfung 1
575 10
e) Die (n × n)-Matrix A erfüllt det(A) = 5. Welche Aussagen sind korrekt?
A Wahr B Falsch
a) Für welche a ∈ R hat das lineare Gleichungssystem genau eine Lösung? (3 Punkte)
b) Für welche a ∈ R hat das lineare Gleichungssystem keine Lösung? (3 Punkte)
c) Für welche a ∈ R hat das lineare Gleichungssystem unendlich viele Lösungen?
Was ist die Dimension der Lösungsmenge in diesem Fall? Man gebe eine geome-
trische Interpretation der Lösungsmenge. (4 Punkte)
10.3 Musterprüfung 2
A 1 B 0 C 6 D -6
c) Die Matrix A ∈ R4×4 hat die Eigenwerte 1, 2, 3, 4. Welche Aussagen sind korrekt?
A A ist regulär
B Rang(A) = 4
C Spur(A) = 10
D Die Diagonaleinträge von A sind alle ≥ 5
?1 1 1@
d) Die Inverse von A = 0 1 1 ist ...
001
?1 1 0@ K L K L
1 −1 0 1 −1 −1
A A−1 = 011 B A −1
= 0 1 −1 C A −1
= 0 1 −1
001 0 0 1 0 0 1
K1 2 3 2L
e) Es sei A = 1012 . Man gebe eine Matrix P an, welche durch PA die zweite
1121
0231
Zeile mit der dritten Zeile von A verstauscht.
K1 0 0 0L K0 1 0 0L
A P= 0010 B P= 1000
0100 0010
0001 0001
A F ist linear
= 1 1
>
B Die Darstellungsmatrix von F bezüglich der Standardbasis is −1 1
C F ist nichtlinear
=1 1
>
D Die Darstellungsmatrix von F bezüglich der Standardbasis is 1 −1
10.3 • Musterprüfung 2
579 10
i) Es sei F : R3 → R3 gegeben durch F(x1 , x2 , x3 ) = [0, x2 , x3 ]T . Welche Aussagen
sind korrekt?
A F beschreibt die Spiegelung an der x2 x3 -Ebene
B F hat den Eigenwert 0
C F beschreibt die Projektion auf die x2 x3 -Ebene
D Die Darstellungsmatrix von F ist invertierbar
j) Es sei v ∈ Rn ein Eigenvektor von A ∈ Rn×n zum Eigenwert λ ∈ R. Welche
Aussagen sind korrekt?
Jede Aussage (a)–(g) ist entweder wahr oder falsch. Machen Sie ein Kreuzchen in die
richtige Spalte.
Wahr Falsch
K √
3 1
L
a) 2 √2
beschreibt eine Drehung im R2 .
− 12 23
?1@ ?1@
g) Die Vektoren 5 , 3 sind linear abhängig.
7 4
erfüllen. (6 Punkte)
b) Es sei A die Matrix
⎡ ⎤
k −k 0 −1
A = ⎣1 −2 1 0 ⎦
0 1 k 1
Bestimmen Sie den Rang von A in Abhängigkeit des Parameters k ∈ R. Für welche
k ∈ R ist die Lösungsmenge des homogenen linearen Gleichungssystem Ax = 0
eine Gerade? (6 Punkte)
Es sei nun
⎡ ⎤
a b 0 1
⎢−b a −1 0 ⎥
A=⎢ ⎥
⎣ 0 1 a −b⎦ , a, b ∈ R.
−1 0 b a
c) Berechnen Sie det(A) und bestimmen Sie alle a, b ∈ R für welche A invertierbar
ist. (6 Punkte)
a) Es sei A ∈ R2×2 mit det(A) = 4 und Spur(A) = 5. Wie lauten die Eigenwerte von
2A + AT + 4A−1 ? (5 Punkte)
?α@
Es sei nun α = γβ ∈ R3 und F : R3 → R3 gegeben durch F(v) = α × v, wobei ×
das Kreuzprodukt von Vektoren ist.
b) Zeigen Sie, dass F linear ist. (5 Punkte)
10.3 • Musterprüfung 2
581 10
c) Zeigen Sie, dass die Darstellungsmatrix von F in der Standardbasis durch
⎡ ⎤
0 −γ β
A = ⎣ γ 0 −α ⎦
−β α 0
a) Bestimmen Sie eine Basis und die Dimension von U bzw. W . (5 Punkte)
b) Bestimmen Sie eine Basis von U ∩ W . Was ist dim(U ∩ W )? (5 Punkte)
Es sei nun V = P2 (R) der Vektorraum der reellen Polynome vom Grad ≤ 2.
c) Zeigen Sie, dass B = {1+x, 1+2x+x2 , x−x2 } eine Basis von P2 (R) ist. (5 Punkte)
d) Bestimmen Sie die Matrixdarstellung des Basiswechsels von der Standardbasis
E = {1, x, x2 } nach der Basis B . Bestimmen Sie damit die Koordinaten von
p(x) = x2 −Ex + 2 bezüglich
+ der Basis B . (8 Punkte)
F
+ O1
e) Es sei U = p ∈ P2 (R) + p(0) = 0, 0 p(x)dx = 0 . Bestimmen Sie eine Basis von
U. Was ist dim(U)? (5 Punkte)
Es sei V = R2×2 der Vektorraum der reellen (2 × 2)-Matrizen. Man betrachte die
folgende lineareM=Abbildung
> = 0 1 > F=:0V0 >→= 0V0 definiert
>N durch F(A) = 2A − AT .
1 0
a) Es sei E = 0 0 , 0 0 , 1 0 , 0 1 die Standardbasis von V . Bestimmen Sie
die Darstellungsmatrix von F bezüglich E . (5 Punkte)
b) Bestimmen Sie Ker(F). Ist F injektiv? (4 Punkte)
c) Bestimmen Sie Im(F). Ist F surjektiv? (4 Punkte)
d) Es sei nun U = {A ∈ R2×2 | Spur(A) = 0} die Teilmenge der Spurlosen (2 × 2)-
Matrizen. Zeigen Sie, dass U ein Unterraum von V ist. (5 Punkte)
e) Finden Sie eine Basis von U. Was ist die Dimension von U? (5 Punkte)
f) Bestimmen Sie die Darstellungsmatrix der Einschränkung von F auf U.
(5 Punkte)
582 Kapitel 10 • Prüfungstrainer
10.4 Musterprüfung 3
⎡ ⎤ 10 1 0 0 02
0 0 −1 0 0
−1 0 0 0 0 0 0 1 0 0 C A ist nichtinvertierbar
A ⎣ 0 1 0 0 0⎦ B 1 0 0 0 0
0 0 0 −1 0 0 0 0 0 1
0 0 0 0 1 0 0 0 1 0
A A(A + B) + B(A + B) C A2 + AB + BA + B2
B A2 + 2AB + B2 D (B + A)2
10.4 • Musterprüfung 3
583 10
?2 1@
e) Zu welcher linearen Abbildung gehört die Darstellungsmatrix A = 10
02
bezüglich der Standardbasis ?
A Wahr B Falsch
g) Für welche Werte von k ∈ R besitzt das folgende homogene lineare Gleichungs-
system
⎧
⎪
⎨kx1 + x2 = 0
⎪
−x + kx2 − 2x3 = 0
⎪ 1
⎪
⎩x + x = 0
1 3
A 0 B 1 C 2 D 3
B 0 1 , 11 , 00 1 , 0 , 1 , 0
0 , −1 D 1 1 0 0
−1 0 0 1 1 1 1 1
j) Es sei Pn (R) der Vektorraum der reellen Polynome vom Grad ≤ n. Welche der
folgenden Teilmengen sind Unterräume von Pn (R)?
k) Es sei P2 (R) versehen mit der geordneten Basis B = {(x + 1)2 , x2 − 1, (x − 1)2 }.
Wie lauten die Koordinaten von p(x) = 4x bezüglich der Basis B ?
584 Kapitel 10 • Prüfungstrainer
?1@ ? 1
@ ?1@ ? 0
@
A 0 B 0 C 1 D −1
1 −1 0 1
m) Es seien U1 , U2 ⊂ R50 mit dim(U1 ) = 30 und dim(U2 ) = 40. Dann kann dim(U1 ∩
U2 ) = 10 sein.
A Wahr B Falsch
A 0, 1 B −1, 1 C 0, −1
A Wahr B Falsch
j
T n
T
xi = 1 + xi , j = 1, · · · , n − 1
i=1 i=j+1
n
T
xi = 1.
i=1
a) Zeigen Sie: Für alle x ∈ R3 ist F(F(x)) = F(x), d. h. F ist idempotent (5 Punkte).
b) Bestimmen Sie eine Basis von Ker(F) und Bild(F). (5 Punkte)
c) Beweisen Sie: R3 = Ker(F) ⊕ Bild(F). (5 Punkte)
Sei Pn (R) der Vektorraum der reellen Polynome vom Grad ≤ n. Betrachten Sie die
lineare Abbildung
d2 G H
F : Pn (R) → Pn (R), p(x) → 2
(x + 1)2 p(x) .
dx
10.5 Musterprüfung 4
A Wahr B Falsch
=1 1>
b) Es sei A = 11 ∈ K2×2 . Im Folgenden sei K = R. Welche Aussagen sind
korrekt?
588 Kapitel 10 • Prüfungstrainer
A 1 B 3 C 6 D 9 E ∞
M= 0 > = 1 >N
e) U = 0 , 0 ist ein Unterraum von (Z3 )2 .
A Wahr B Falsch
g) Welche der folgenden Mengen von Vektoren aus R4 sind linear unabhängig?
UK 1 L K 1 L K 0 L K 0 LV UK 1 L K 1 L K 0 L K 0 LV
A 0 , 1 , 0 , 1 C 0 , 0 1
, −1 , 11
0 1 1 0 0 0
UK 11 L K 11 L K 10 L K −1
0 LV
1 −1 0 0
B 0 , 1 , 0 , 0
0 1 1 0
1 1 1 0
A F : R → R, x → x + 1
B F : R2 → R3 , [x, y]T → [0, x + y, x − y]T
C F : R2 → R3 , [x, y]T → [2, x + y, x − y]T
D F : R3 → P3 (R), [a, b, c]T → ax + bx2 + cx3
j) Es seien A, B ∈ Rn×n mit AB = E. Welche Aussagen sind korrekt?
A BA = E C B ist invertierbar
B A ist invertierbar D Keine der Aussagen ist richtig
A BA = E C B ist invertierbar
B A ist invertierbar D Keine der Aussagen ist richtig
=0 0>
A dim(Ker(F)) = 2 − Rang(A) C dim(Ker(F)) = 2 ⇔ A = 00
B dim(Ker(F)) = 2 − det(A) D dim(Ker(F)) = 1 ⇒ det(A) = 1
A Wahr B Falsch
A Wahr B Falsch
o) Man betrachte den Vektorraum P2 (R) mit den geordneten Basen B1 = {1, x, x2 }
und B2 = {x2 , (x + 1)2 , (x + 2)2 }. Die Transformationsmatrix von B1 nach B2 ist
...
?0 1 4@ K L
2 −3 4
A T B1 →B2 = 0 2 4 C T B1 →B2 = 1
−4 4 0
? 10 1 1@ 4
0 1 K 2 −1 0L
B T B1 →B2 = 1 2 1 1 2 −3 4
4 4 1 D T B1 →B2 = 4 −1 1 0
1 −4 0
590 Kapitel 10 • Prüfungstrainer
?1 1 4@ ?0 1 1@
p) Die Matrizen 124 und 110 sind ähnlich.
120 101
A Wahr B Falsch
?1 1 1
@
q) Welche der folgenden Matrizen sind äquivalent zu 1 −1 −1 ?
0 1 1
?1 1 1@ ?1 0 0@ ?1 1 1
@
A 111 B 010 C 2 0 −1
111 000 31 0
A Wahr B Falsch
s) Die Menge GL(n, K) der invertierbaren Matrizen A ∈ Kn×n ist ein Unterraum
von Kn×n .
A Wahr B Falsch
A Wahr B Falsch
A Wahr B Falsch
A Wahr B Falsch
a) Geben Sie die Definition der Determinante einer Matrix A ∈ Kn×n mittels
Leibniz-Formel. Kommen die Produkte a13 a24 a53 a41 a35 und a21 a13 a34 a55 a42 in
der Definitionsformel vor, wenn A ∈ K5×5 ? (3 Punkte)
b) Es sei
⎡ ⎤
a11 0 ··· 0
⎢ 0 a22 ··· 0 ⎥
⎢ ⎥
A=⎢ . .. .. .. ⎥ ∈ Kn×n
⎣ .. . . . ⎦
0 0 · · · ann
10.5 • Musterprüfung 4
591 10
eine Diagonalmatrix. Zeigen Sie mithilfe der Leibniz-Formel, dass det(A) =
a11 a22 · · · ann gilt. (5 Punkte)
c) Es sei x = [x1 , · · · , xn−1 ]T ∈ Rn−1 . Wir definieren die Matrix An ∈ Rn×n wie folgt
⎡ ⎤
0 x1 x2 · · · xn−1
⎢ x1 1 0 · · · 0 ⎥
⎢ ⎥
⎢ ⎥
An = ⎢ x2 0 1 · · · 0 ⎥ .
⎢ . . . . . ⎥
⎣ .. .. .. . . .. ⎦
xn−1 0 0 · · · 1
A ∈ Rn×n heißt stochastische Matrix, wenn B alle Einträge von A zwischen 0 und 1
liegen und jede Zeilensumme 1 ergibt, d. h. nj=1 aij = 1, ∀i = 1, · · · , n. Stochastische
Matrizen treten in der Wahrscheinlichkeitstheorie vor, wobei sie dort die Übergangs-
wahrscheinlichkeiten von Markow-Ketten ausdrücken.
a) Zeigen Sie, dass λ = 1 ein Eigenwert von A ist. (5 Punkte)
b) Es sei λ ein Eigenwert von A. Zeigen Sie |λ| ≤ 1. (5 Punkte)
c) Zeigen Sie, dass
⎡ ⎤
0 0 12 0 12
⎢0 0 1 0 0⎥
⎢ ⎥
⎢ 1 1⎥
A = ⎢ 14 1
4 0 4 4⎥
⎢ ⎥
⎣0 0 12 0 12 ⎦
0 0 0 0 1
eine stochastische Matrix ist. Bestimmen Sie alle Eigenwerte von A und verifizie-
ren Sie die Aussage aus Teilaufgabe (b). (5 Punkte)
592 Kapitel 10 • Prüfungstrainer
L = b + Eig0 (A),
Es sei V ein endlich dimensionaler Vektorraum über den Körper K und seien U1 und
U2 Unterräume von V .
a) Es sei V = U1 ⊕ U2 . Zeigen Sie: Jeder Vektor v ∈ V besitzt eine eindeutige
Zerlegung v = u1 + u2 mit u1 ∈ U1 und u2 ∈ U2 . (5 Punkte)
b) Es sei dim(U1 ) + dim(U2 ) = dim(V ). Zeigen Sie, dass die folgenden Aussagen
äquivalent sind. (5 Punkte):
(i) U1 + U2 = V
(ii) U1 ∩ U2 = {0}
3 3
Es seien @ ?V @=?R @S, U1 = {x ∈ R | x1 + x2 = 3 − k, (k − 1)x1 = (2 − k)x3 } und
R? nun
1 1 1
U2 = 0 , 2 , 1 .
1 1 1
c) Für welche k ∈ R ist U1 ein Unterraum? Man bestimme die Dimension und eine
Basis von U1 . (5 Punkte)
d) Man bestimme die Dimension und eine Basis von U2 . (3 Punkte)
e) Man zeige oder widerlege, dass R3 = U1 ⊕ U2 . (5 Punkte)
7 Kapitel 1
5 A B C D
T
6 A B C Die Adjungierte ist A∗ = A (komplexkonjugieren und transponie-
ren).
7 A B C D A ist normal falls AT A = AAT . Für eine (2 × 2)-Matrix:
K LK L K 2 L K L K LK L
ac ab a + c2 ab + cd ! a2 + b2 ac + bd ab ac
= = =
bd cd ab + cd b2 + d 2 ac + bd c2 + d 2 cd bd
⎧
' ( ' ( ⎪
⎪y11 = y22 = 0
⎨
x11 − iy11 x21 − iy21 ! x11 + iy11 x12 + iy12
= ⇒ x12 = x21
x12 − iy12 x22 − iy22 x21 + iy21 x22 + iy22 ⎪
⎪
⎩y = −y
12 21
Aus y11 = y22 folgt, dass die Diagonaleinträge reell sind. Außerdem hat je-
de Matrix in H2 (C) genau 4 freie Parameter (frei wählbare reelle Zahlen) ⇒
dimR H2 (C) = 4.
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 2 2 1 −2 2 100
19 A B C D C T C = 19 ⎣−2 −1 2⎦ ⎣2 −1 −2⎦ = ⎣0 1 0⎦ ⇒ C orthogo-
2 −2 1 2 2 1 001
nal. ⎡ √ ⎤ ⎡ ⎤
2√+ k2 2k 0 100
!
20 A B C D U ∗ U = 12 ⎣ 2k 2 0⎦ = ⎣0 1 0⎦ ⇒ k = 0.
0 0 2 001
! " )0 0 1*
21 A B C D A2 = 00 00 ⇒ A nilpotent mit Nilpotenzgrad 2. B2 = 0 0 0 ,
)0 0 0* 000
3
B = 0 0 0 ⇒ B nilpotent mit Nilpotenzgrad 3.
000
10.6 • Multiple-Choice Fragen – Lösungen
595 10
22 A B C A, B nilpotent mit Nilpotenzgrad m ⇒ Am = Bm = 0. Ist [A, B] = 0
Am 3456
(d. h. AB = BA), so gilt (AB)m = ABAB · · · AB = 3456 Bm = 0 ⇒ AB nilpotent.
=0 =0
23 A B C D A orthogonal ⇒ AT A = AAT = E. Insbesondere ist AT A =
AAT , d. h. A ist normal. A symmetrisch ⇒ AT = A. Daraus folgt AT A = AA =
AAT , d. h. A ist normal.
7 Kapitel 2
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
12 0 1 0 (Z2 ) − 2(Z1 ) 1 2 0 1 0 12 0 1 0
(Z3 ) − 3(Z1 ) (Z3 ) + (Z2 )
⎣2 5 4 4 0⎦ ! ⎣0 1 4 2 0⎦ ! ⎣0 1 4 2 0 ⎦ = Z.
3 5 −6 4 0 0 −1 −6 1 0 0 0 −2 3 0
Das LGS hat unendlich viele Lösungen mit 1 freien Parameter (L = Gerade)
7 8 ' x1 ( 9
8 x ! "
L = x ∈ R4 8 x2 = t 15 −8
8 x3
3
2 1 ,t∈R .
4
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
k k k2 4 1 2 3 2k (Z2 ) − (Z1 ) 1 2 3 2k
(Z1 ) ↔ (Z3 ) (Z3 ) − k(Z2 )
⎣1 1 k k ⎦ ! ⎣1 1 k k ⎦ ! ⎣ 0 −1 k − 3 −k ⎦ = Z.
1 2 3 2k k k k2 4 0 0 0 4 − k2
Wir wenden den Satz von Rouché-Capelli an. Insbesondere ist Rang(A) =
Rang(A|b) nur wenn k ̸= ±2. Wir machen eine Fallunterscheidung:
5 k = ±2 : Rang(A) = 2 ̸= 3 = Rang(A|b) ⇒ Das LGS hat keine Lösung.
5 k ̸= ±2 : Rang(A) = 2 = Rang(A|b) ⇒ Das LGS hat unendlich viele
Lösungen mit 3 − Rang(A) = 1 freien Parameter.
596 Kapitel 10 • Prüfungstrainer
⎧
: ⎪
x3 = 3 ⎨x1 = −2 − t
⎪
⇒ x2 = t (t ∈ R)
x1 + x2 = −2 ⎪
⎪
⎩x = 3
3
Wir zeigen nun, dass die Gerade E1 ∩E2 die Gleichung von E3 erfüllt: 3x1 +3x2 −
x3 + 9 = 3(−2 − t) + 3t − 3 + 9 = 0 " ⇒ E3 enthählt E1 ∩ E2 .
35 A B C D E F Weil A ∈ R3×6 ist x ∈ R6 . Daher ist die Lösungsmenge
eine Teilmenge von R6 . Die Lösungsmenge eines inhomogenen LGS Ax = b ist
ein affiner Raum aber kein Unterraum. Denn die Summe von zwei Lösungen ist
im Allgemeinen keine Lösung: A(x1 + x2 ) = Ax1 + Ax2 = b + b ✗.
36 A B C D E F Die Lösungsmenge eines homogenen LGS Ax = 0 ist
immer ein Unterraum (also auch ein affiner Raum). Denn die Summe von zwei
Lösungen ist wieder Lösung: A(x1 + x2 ) = Ax1 + Ax2 = 0 ".
37 A B Mit der Formel Rang(AB) ≤ min{Rang(A), Rang(B)} finden wir
⎡ ⎤ ⎡ ⎤
1 k+2 0 (Z2 ) − (k2 − 1)(Z1 ) 1 k+2 0
(Z3 ) − (Z1 )
⎣ k2 − 1 0 4−k⎦ ! ⎣ 0 −(k2 − 1)(k + 2) 4 − k ⎦ = Z.
1 2k − 3 0 0 k−5 0
10.6 • Multiple-Choice Fragen – Lösungen
597 10
Für k ̸= 4, 5 hat die Zielmatrix 3 Zeilen ̸= [0, 0, 0] ⇒ Rang(A) = 3. Für k = 4
oder k = 5 hat Z 2 Zeilen ̸= [0, 0, 0] ⇒ Rang(A) = 2.
41 A B C D In den Spezialfällen k = 0 oder k = 3 hat A 3 Zeilen ̸= [0, 0, 0]
⎡ ⎤
1 −4 2 (Z ) + 4(Z )
⎢0 0 −1⎥ (Z34 ) − (Z22)
⇒ Rang(A) = 3. Für k = −1 lautet die Matrix A = ⎢ ⎣0 0 −4⎦
⎥ !
0 0 −1
⎡ ⎤
1 −4 2
⎢0 0 −1⎥
⎢ ⎥
⎣0 0 0 ⎦ ⇒ Rang(A) = 2. Für alle andere k hat A Rang 3.
0 0 0
42 A B C D Wir erzeugen die Zeilenstufenform mit dem Gauß-Algorithmus:
⎡ ⎤ (Z ) − (Z ) ⎡ ⎤
1 1 3 −1 2 1
(Z3 ) − (Z1 )
1 1 3 −1
⎢ 1 0 −2 −2 ⎥ + 2(Z1 ) ⎢ 0 −1 −5 −1 ⎥
⎢ ⎥ (Z4 )! ⎢ ⎥
⎣ 1 2 8 k2 − 2k ⎦ ⎣0 1 5 k2 − 2k + 1 ⎦
−2 −1 k − 1 3 0 1 k+5 1
⎡ ⎤ ⎡ ⎤
(Z3 ) + (Z2 )
1 1 3 −1 1 1 3 −1
(Z4 ) + (Z2 ) ⎢ 0 −1 −5 −1 ⎥ ↔ (Z4 ) ⎢ 0 −1 −5 −1 ⎥
! ⎢ ⎥ (Z3 )! ⎢ ⎥ = Z.
⎣ 0 0 0 k2 − 2k ⎦ ⎣0 0 k 0 ⎦
0 0 k 0 0 0 0 k2 − 2k
7 Kapitel 3
1
! " ! 1 −1 "
44 A B C Mithilfe der Formel A−1 = det(A)
d −b
−c a ⇒ A−1 = 0 1
.
45 A B Wegen det(A) = 1 + 1 = 2 ̸= 0 ist A invertierbar. Somit B = 7A−1 E
46 A B Auf Z2 ist 6 = 0, d. h. det(A) = 8 − 2 = 6 = 0 ⇒ A nichtinvertierbar.
47 A B C D E F G H Ax = 0 hat nur die triviale Lösung, wenn A
invertierbar ist. Dies ist äquivalent zu det(A) ̸= 0 und Rang(A) = dim Im(A) = n.
598 Kapitel 10 • Prüfungstrainer
8 8 8 8
80 0 0 0 0 18 81 0 0 0 0 08
8 8 8 8
80 0 0 0 3 38 (S1 ) ↔ (S6 ) 83 3 0 0 0 08
8 8 (S2 ) ↔ (S5 )
8 8
8 8 8 8
80 0 0 4 6 58 (S3 ) ↔ (S4 ) 85 6 4 0 0 08
8 8 ! 8 8 = (−1)3 · 1 · 3 · 4 · 1 · 2 · 1 = −24.
80 0 1 3 2 28 82 2 3 1 0 08
8 8 8 8
80 2 1 2 9 18 81 9 2 1 2 08
8 8 8 8
81 1 1 7 9 88 88 9 7 1 1 18
8 8
8 8 81 − n 0 0 · · · 0 088
81 n n · · · n8 (Z1 ) − (Zn ) 8
8 8 (Z2 ) − (Zn )
8 0 2 − n 0 · · · 0 08
8n 2 n · · · n8 8 8
8 8 . 8 8
8n n 3 · · · n8
.
. 8 0 0 3 − n · · · 0 08
8 8 ! 8 . .. .. . . .. .. 88
8. . . . .8 8 .
8 .. .. .. . . .. 8 8 . . . . . .8
8 8 8 8
8n n n · · · n8 8 0 0 0 · · · −1 088
8
8 n n n · · · n n8
54 A B
8 8
81 x · · · xn 88
x2 8 8
8 (Z1 ) − x(Z2 ) 81 − ax 0 0 ··· 088
8a 1 · · · xn−1 88
x (Z2 ) − x(Z3 ) 8
8 8a − ax 1 − ax
8 8 0 ··· 088
· · · xn−2 8 8
.
8a a 1 .
8a − ax a − ax 1 − ax
p(x) = 88 . .. .. . 88 !
.
8 ··· 088 = (1 − ax)n−1 .
.. 8 .
8 .. . .. .. 8 8 .. .. .. .. .. 88
8 8 8 . . . .8
8a a a · · · x 88 8 a
8
8a a a · · · 18
a a ··· 1 8
1
a ist eine Nullstelle (n − 1)-ter Ordnung von p(x).
10.6 • Multiple-Choice Fragen – Lösungen
599 10
55 A B C D Es gilt:
⎡ 8 8 8 8 8 8 ⎤T
81 08 81 08 81 18
⎢ 81 18 − 881 188 881 188 ⎥
8 8
⎡ ⎤T ⎡ ⎤
⎢ 8 8 8 8 8 8⎥ 1 −1 0 1 0 0
⎢ 8 8 8 8 8 8⎥
⎢ 00 10 10⎥
adj(A) = ⎢− 88 88 88 88 − 88 88⎥ = ⎣0 1 −1⎦ = ⎣−1 1 0⎦ .
⎢ 8 1 18 18 1 8 8 1 18 ⎥
⎢ 8 8 81 08 81 08 ⎥ 0 0 1 0 −1 1
⎣ 80 08 8 8 8 8 ⎦
81 08 − 81 08 81 18
8 8 8 8 8 8
80 0 18 83 0 18 83 0 08
8 8 8 8 8 8
81 2 18 81 1 18 81 2 18
8 8 8 8 8 8
80 −1 28 −1 81 0 28 5 81 −1 08 3
x1 = = , x2 = = , x3 = =
det(A) 12 det(A) 12 det(A) 12
8 8
80 b 3 0 0 8
8 8 8 8
81 1 1 1 1 8 8b 3 08
8 8 8 8
80 1 1 1 −18 = (−1) · (−1) 82 1 08 = a(b − 6) ̸= 0 ⇒ a ̸= 0, b ̸= 6.
8 8 8 8
80 2 1 0 0 8 84 0 a8
8 8
80 4 0 a 0 8
⎡
⎤
a b c
60 A B Aus der Regel von Sarrus folgt det ⎣d e f ⎦ = aei + bfg + cdh − afh −
g h i
bdi − ceg. det(A) hat somit 6 Summanden. Weil A nur Einträge ±1 hat, ist jeder
Summand entweder 1 oder −1. Die Summe von 6 Zahlen ±1 kann nicht größer
als 6 sein.
600 Kapitel 10 • Prüfungstrainer
7 Kapitel 4
⎡ ⎤ ⎡ ⎤
1 0 0 1 1 1
61 A B C Die LR-Zerlegung von A lautet L = ⎣1 1 0⎦ und R = ⎣0 −1 0⎦.
0 −1 1 0 0 1
62 A B C Die LR-Zerlegung mit Zeilenvertauschung von A lautet L =
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0 1 2 3 1 0001
⎢2 1 0 0⎥ ⎢0 −3 −5 −2 ⎥ ⎢0 1 0 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣3 5 1 0⎦, R = ⎣0 0 − 2 − 2 ⎦ und P = ⎣1 0 0 0⎦.
3 3 3
2 1 32 1 0 0 0 2 0010
63 A B C D E F Die LR-Zerlegung von A lautet
⎡ ⎤
10
⎢2 1⎥ ' (
⎢ ⎥
⎢ ⎥ 1 1
L = ⎢3 2⎥ ∈ R5×2 , R = ∈ R2×2 (⇒ det(R) = −1).
⎢ ⎥ 0 −1
⎣4 3⎦
54
⎡ ⎤⎡ ⎤ ⎡ ⎤
00010 v1 v4
⎢0 0 1 0 0⎥ ⎢v ⎥ ⎢v ⎥
⎢ ⎥ ⎢ 2⎥ ⎢ 3⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢0 1 0 0 0⎥ ⎢v3 ⎥ = ⎢v2 ⎥ ✗
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣1 0 0 0 0⎦ ⎣v4 ⎦ ⎣v1 ⎦
00001 v5 v5
⎡ ⎤T ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
00010 v1 00010 v1 v4
⎢0 1 0 0 0⎥ ⎢v ⎥ ⎢0 1 0 0 0⎥ ⎢v ⎥ ⎢v ⎥
⎢ ⎥ ⎢ 2⎥ ⎢ ⎥ ⎢ 2⎥ ⎢ 2⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢0 0 1 0 0⎥ ⎢v3 ⎥ = ⎢0 0 1 0 0⎥ ⎢v3 ⎥ = ⎢v3 ⎥ "
⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣1 0 0 0 0⎦ ⎣v4 ⎦ ⎣1 0 0 0 0⎦ ⎣v4 ⎦ ⎣v1 ⎦
00001 v5 00001 v5 v5
10.6 • Multiple-Choice Fragen – Lösungen
601 10
68 A B C D E F Die Inverse einer Permutationsmatrix ist einfach die
@0 1 0 0 0A
0 0 1 0 0
Transponierte: P−1 = PT = 1 0 0 0 0 . P wird von der Permutation σ =
0 0 0 0 1
!1 2 3 4 5" 0 0 0 1 0
23154erzeugt. σ kann man als Produkt von Transpositionen wie folgt
darstellen σ = τ12 τ13 τ45 . Somit ist sign(σ ) = (−1)3 = −1. Die Determinante
von P ist det(P) = sign(σ ) = −1.
69 A B C D Beachte: L ist nicht normiert, d. h., die Diagonaleinträge von L
sind nicht unbedingt = 1.
70 A B C Bei der Lösung mehrerer LGS mit derselben Koeffizientenmatrix und
verschiedenen Vektoren auf der rechten Seite müssen wir die LR-Zerlegung der
Koeffizientenmatrix nur einmal durchführen. Die Vorwärtssubstitution und die
Rückwärtssubstitution müssen wir trotzdem jedes Mal durchführen.
7 Kapitel 5
' ( ' ( ' ( ' ( ' (
a1 b1 a2 b2 a1 b1 a2 b2 a1 + a2 b1 + b2
71 A B , ∈G⇒ + = ∈ G.
0 c1 0 c2 0 c1 0 c2 0 c + c2
' ( ' ( '1 1( 1
11 11
72 A B Gegenbeispiel: ∈ G, 12 ∈ R, aber 12 = 2 21 ∈ / G (Einträge
01 01 0 2
müssen ∈ N sein).
73 A B C D B: Nein, weil die Nullmatrix nichtinvertierbar ist, d. h. 0 ∈ / V.
74 A B C D Die Lösungsmenge eines LGS ist nur dann ein Unterraum, wenn
das LGS homogen ist. U ist somit kein Unterraum. U ist jedoch ein affiner Raum.
75 A B C D U ist die Lösungsmenge eines homogenen LGS. U ist somit ein
Unterraum (folglich auch ein affiner Raum).
76 A B C D Uα ist ein Unterraum, nur wenn Uα die Lösungsmenge eines
homogenen LGS ist. Das LGS in diesem Fall ist homogen falls α = 1.
77 A B C D Ein affiner Raum ist die Lösungsmenge eines beliebigen LGS
(homogen oder inhomogen). Uα ist somit ein affiner Raum für alle α ∈ R.
78 A B Es seien f (x) = a0 +a1 x+· · ·+an xn ∈ Pn (R), g(x) = b0 +b1 x+· · ·+bn xn ∈
Pn (R) und λ ∈ R. Wir verifizieren die 3 Bedingungen eines Unterraumes:
(U1) 0 ∈ Pn (R) "
(U2) f (x) + g(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn ∈ Pn (R) "
(U3) λf (x) + g(x) = λa0 + λa1 x + · · · + λan xn ∈ Pn (R) "
7 Kapitel 6
! "T
82 A B Es seien a1 , · · · , an die Spalten von A und x = x1 · · · xn . Dann ist das
LGS Ax = b äquivalent zu x1 a1 + · · · + xn an = b, d. h. b ∈ ⟨a1 , · · · , an ⟩ = Im(A).
83 A B A regulär ⇔ Zeilenrang(A) = Spaltenrang(A) = Rang(A) = n ⇔
ZR(A) = SR(A) = Rn ⇔ Zeilen und Spalten von A sind linear unabhängig
(sind Basis von Rn ).
84 A B Linear unabhängig heißt, dass die Gleichung α1 v1 +· · ·+αn vn = 0 nur die
Lösung α1 = · · · = αn = 0 hat. Wegen αi = 0, kann man nicht auflösen nach vi ,
d. h., man kann vi nicht als Linearkombination der anderen Vektoren darstellen.
85 A B C D Es gilt v1 + v2 = v3 . Die Vektoren v1 , v2 , v3 sind somit linear
abhängig.
86 A B C D Der Nullvektor ist immer linear abhängig. Mit anderen Worten:
Jede Menge von Vektoren, welche den Nullvektor enthält, ist linear abhängig.
Somit sind v1 , v2 , v3 linear abhängig. Wir lösen die Gleichung α1 v1 +α2 v2 +α3 v3 =
0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 0 (Z2 ) + 3(Z1 ) 1 2 0 0 1 2 0 0
(Z3 ) − 7(Z1 )
⎣ −3 −1 0 0 ⎦ ! ⎣ 0 −5 0 0 ⎦ ! ⎣ 0 −5 0 0 ⎦ = Z.
7 −1 0 0 0 13 0 0 0 0 0 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 3 0 (Z2 ) − 2(Z1 ) 1 1 3 0 1 1 3 0
(Z3 ) + (Z2 ) (Z3 ) − 2(Z2 )
⎣ 2 1 7 0⎦ ! ⎣ 0 −1 1 0⎦ ! ⎣ 0 −1 1 0 ⎦ = Z.
−2 −3 k − 6 0 0 −2 k + 1 0 0 0 k−1 0
⎧
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎪
1 2 −1 1 (Z2 ) − (Z1 )
(Z3 ) − 2(Z1 )
1 2 −1 1
(Z3 ) − (Z2 )
1 2 −1 1 ⎨α1 = 9
⎪
⎣1 4 2 1 ⎦ ! ⎣0 2 3 0⎦ ! ⎣ 0 2 3 0 ⎦ = Z ⇒ α2 = −3
⎪
⎪
2 6 5 10 02 7 8 00 4 2 ⎩α = 2
3
' ( ' (
α1 + 2α2 − α3 2α1 + α2 + α3 ! 0 1
=
−α1 + α2 + 2α3 3α1 + α2 + 3α3 −1 2
⎧
⎪
' ( ' ( ⎨kα1 = 0
⎪
α2 + kα3 kα2 + α3 ! 0 0
= ⇒ α2 = 0
kα1 − 2α2 − α3 α3 00 ⎪
⎪
⎩α = 0
3
Für k = 0 finden wir eine nichttriviale Lösung α1 = t ∈ R und die Matrizen sind
linear abhängig. Für k ̸= 0 gibt es nur die Lösung α1 = α2 = α3 = 0 und die
Matrizen sind linear unabhängig.
604 Kapitel 10 • Prüfungstrainer
!
94 A B C Wir lösen α1 (1 + x) + α2 (1 + 2x + x2 ) + α3 (x − x2 ) = x2 − x + 2 ⇒
!
(α2 − α3 )x2 + (α1 + 2α2 + α3 )x + α1 + α2 = x2 − x + 2. Es ergibt sich das folgende
LGS für α1 , α2 , α3 :
⎧
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎪
11 0 2
(Z2 ) − (Z1 )
11 0 2
(Z3 ) − (Z2 )
11 0 2 ⎨α1 = 3
⎪
⎣ 1 2 1 −1 ⎦ ! ⎣ 0 1 1 −3 ⎦ ! ⎣ 0 1 1 −3 ⎦ = Z ⇒ α2 = −1
⎪
⎪
0 1 −1 1 0 1 −1 1 0 0 −2 4 ⎩α = −2
3
! "T
Es folgt p(x) = 3(1 + x) − (1 + 2x + x2 ) − 2(x − x2 ), d. h. [p(x)]B = 3 −1 −2 .
95 a) A B dim P2 (R) = 3. Somit sind 4 Polynome in P2 (R) immer linear
abhängig.
b) A B Wir drücken die Polynome in der Standardbasis von P2 (R) aus
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0
[x + 1]E = ⎣1⎦ , [x − 1]E = ⎣−1⎦ , [x2 + x]E = ⎣1⎦ , [x2 − x]E = ⎣−1⎦
0 0 1 1
Da diese Matrix Rang 3 hat, bilden die vier Polynome ein Erzeugendensystem.
c) A B Die vier Polynome sind linear abhängig, also bilden keine Basis.
96 A B C D Es sei p(x) = a+bx+cx2 ∈ P2 (R). Aus p(1) = 0 folgt a+b+c = 0.
Wir können somit eine der Parameter als Funktion der anderen 2 ausdrücken.
Wir brauchen somit nur 2 Parameter, um p(x) zu beschreiben ⇒ dim(U) = 2.
Wir können beispielsweise nach b und c auflösen ⇒ a = −(b + c) ⇒ p(x) =
−(b + c) + bx + cx2 = b(x − 1) + c(x2 − 1) ⇒ B = {x − 1, x2 − 1} ist eine
Basis von U. Alternativ können wir nach a und c auflösen ⇒ b = −(a + c) ⇒
p(x) = a − (a + c)x + cx2 = a(1 − x) + c(x2 − x) ⇒ B = {1 − x, x2 − x} ist
eine weitere Basis von U. Eine andere Möglichkeit ist nach a und b aufzulösen
⇒ c = −(a + b) ⇒ p(x) = a + bx − (a + b)x2 = a(1 − x2 ) + b(x − x2 ) ⇒
B = {1 − x2 , x − x2 } ist eine dritte Wahl für die Basis von U.
97 A B Ein Erzeugendensystem von V kann mehr als 8 Vektoren besitzen. Eine
Basis von V muss jedoch genau 8 Vektoren enthalten.
98 A B C D Wir überlegen uns mithilfe der Anzahl freier Parameter. P3 (R)
hat Dimension 4 (d. h. hat 4 freie Parameter). Jedes Element in U muss 3
unabhängige Bedingungen erfüllen. Es bleiben somit nur 4 − 3 = 1 freie
Parameter zur Beschreibung der Elementen von U ⇒ dim(U) = 1.
10.6 • Multiple-Choice Fragen – Lösungen
605 10
99 a) A B C D T B→E enthält die Basisvektoren von B als Spalten ⇒
⎡ ⎤ ⎡ ⎤−1
201 201
T B→E = ⎣1 1 0⎦. T E →B ist die Inverse von T B→E ⇒ T E →B = ⎣1 1 0⎦ =
001 001
⎡ 1 1⎤
2 0 − 2
⎣− 1 1 1 ⎦.
2 2
0 0 1
⎡ 1 1⎤ ⎡ ⎤ ⎡ ⎤
2 0 −2 1 0
b) A B C [w]B = T E →B [w]E = ⎣− 12 1 12 ⎦ ⎣1⎦ = ⎣1⎦.
0 0 1 1 1
100 A B C D Die Dimension eines Unterraums ist der Rang der Matrix, die
aus den entsprechenden Vektoren aufgebaut wird. Wir bestimmen deren Rang
mit dem Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 0 (Z3 ) − (Z2 )
1 0
⎢0 1⎥ (Z3 ) − (Z1 ) ⎢0 1⎥ (Z4 ) − 2(Z2 ) ⎢0 1⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥ = Z.
⎣1 1⎦ ⎣0 1⎦ ⎣0 0⎦
0 2 0 2 0 0
Die Matrix hat Rang 2 ⇒ dim(U) = 2. Wir wenden dieselbe Prozedur für W an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−1 2 −1 2 −1 2
⎢ 1 1⎥ (Z2 ) + (Z1 ) ⎢ 0 3⎥ 3(Z4 ) − 2(Z2 ) ⎢ 0 3⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥ = Z.
⎣ 0 0⎦ ⎣ 0 0⎦ ⎣ 0 0⎦
0 2 0 2 0 0
⎡ ⎤ ⎡ ⎤
110 (Z2 ) − (Z1 ) 1 1 0
(Z3 ) − (Z1 )
A = ⎣1 0 0⎦ ! ⎣ 0 −1 0 ⎦ ⇒ Rang(A) = 3 ⇒ dim(U + W ) = 3.
102 0 0 2
Somit ist U + W = R3 .
U ∩ W = {0}? Es sei v ∈ U ∩ W . Dann ist v ∈ U und v ∈ W , d. h.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 0 1 −1 0 α 0
v = α ⎣1⎦ = β ⎣0⎦ + γ ⎣0⎦ ⇒ ⎣1 0 0 ⎦ ⎣β ⎦ = ⎣0⎦ .
1 0 2 1 0 −2 γ 0
7 Kapitel 7und 8
⎡ ⎤
0
'
(' ( ' (
01 10 00 ⎢0⎥
F(E11 ) = = ⇒ [F(E11 )]E = ⎢
⎣2⎦
⎥
20 00 20
0
⎡ ⎤
0
' (' ( ' (
01 01 00 ⎢0⎥
F(E12 ) = = ⇒ [F(E12 )]E = ⎢
⎣0⎦
⎥
20 00 02
2
⎡ ⎤
1
' (' ( ' (
01 00 10 ⎢0⎥
F(E21 ) = = ⇒ [F(E21 )]E = ⎢
⎣0⎦
⎥
20 10 00
0
⎡ ⎤
0
'
(' ( ' (
01 00 01 ⎢1⎥
F(E22 ) = = ⇒ [F(E22 )]E = ⎢
⎣0⎦
⎥
20 01 00
0
'0 0 1 0(
Die gesuchte Darstellungsmatrix von F lautet somit M EE (F) = 0001 .
2000
0200
107 A B C D [ϕ, ψ] = ϕψ −ψϕ = ϕ(xp)−ψ(p′ ) = (xp)′ −xp′ = p+xp′ −xp′ =
p ⇒ [ϕ, ψ] = idV .
108 A B C D Es gilt det(A) = 6k. Für k ̸= 0 ist det(A) ̸= 0, d. h. Rang(A) =
dim Im(A) = 3. Für k = 0 ist Rang(A) ≤ 2. Mit dem Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤
220 220
2(Z2 ) − (Z1 )
A = ⎣1 2 0⎦ ! ⎣ 0 2 0 ⎦ = Z ⇒ Rang(A) = 2.
000 000
⎡ ⎤ ⎡ ⎤
1 0 3 k (Z2 ) − 2(Z1 ) 10 3 k
(Z3 ) − k(Z1 )
⎣2 1 2 k+1⎦ ! ⎣ 0 1 −4 1 − k ⎦ = Z.
k 0k 0 0 0 −2k −k2
⎡ ⎤
1 1
M EE (F) = ⎣2 0 ⎦ .
1 −1
⎡ ⎤
1 −1 0 0
⎢ 1 1 0 0⎥
⎢ ⎥
⎢ ⎥
⎢ 0 1 0 0⎥ .
⎢ ⎥
⎣ 0 1 3 0⎦
−1 −1 0 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −1 0 0 (Z2 ) − (Z1 )
1 −1 0 0 1 −1 0 0
⎢ 1 1 0 0⎥ (Z4 ) − (Z3 )
⎢0 2 0 0⎥ ⎢0 2 0 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ (Z5 ) + (Z2 ) ⎢ ⎥ 2(Z3 ) − (Z2 ) ⎢ ⎥
⎢ 0 1 0 0⎥ ! ⎢0 1 0 0⎥ ! ⎢0 0 0 0 ⎥ = Z.
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 1 3 0⎦ ⎣0 0 3 0⎦ ⎣0 0 3 0⎦
−1 −1 0 0 0 0 0 0 0 0 0 0
⎡ ⎤
2k −1 0
⎢0 1 k⎥
⎢ ⎥.
⎣1 1 −1⎦
1 −1 0
⎡ ⎤ ⎡ ⎤
0 1 3 0 1 −1 0 1
⎢0 0 −2 1⎥⎥ ⎢ 0 1 3 0⎥
⎢ !⎢ ⎥ = Z.
⎣0 0 0 0⎦ ⎣0 0 −2 1⎦
1 −1 0 1 0 0 0 0
Aus der Zielmatrix sieht man, dass Rang(A) = 3. Die ersten 3 Spalten von
A
F' sind
( 'linear
( 'unabhängig
(G und bilden somit eine Basis des Bildes Im(F) =
0 1 3
0 , 0 , −2 . Man könnte auch die Spalten 1,2 und 4 als Basis nehmen
0 0 0
1 −1
F' ( 0
' ( ' 0 (G
0 1
Im(F) = 0 , 0 , 10 .
0 0
1 −1 1
126 A B Die Darstellungsmatrix von F in der Standardbasis ist M EE (F) =
⎡ ⎤
200
⎣0 1 0⎦. Die Transformationsmatrix T B→E hat die Basisvektoren von B
000
⎡ ⎤
1 0 1
als Spalten T B→E = ⎣0 1 1 ⎦. Somit M B E
E (F) = M E (F)T B→E =
1 −1 −1
⎡ ⎤⎡ ⎤ ⎡ ⎤
200 1 0 1 202
⎣0 1 0⎦ ⎣0 1 1 ⎦ = ⎣0 1 1⎦.
000 1 −1 −1 000
127 A B C D Die Bilder der Basiselemente {1, i} unter der Abbildung F : C →
C z → Re(z) sind
⎡ ⎤
0 i 2
d. h. T E →B = T −1B→E =
⎣1 0 0⎦. Somit M B (F) = T E →B M E (F)T B→E =
B E
0 −1 i
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
0 i 2 1 i 0 01 0 1 1 0
⎣1 0 0⎦ ⎣ i 1 0⎦ ⎣ i 0 −2⎦ = ⎣−1 1 −2i⎦.
0 −1 i 101 10 i 0 0 1
129 A B C Da dim(V ) = 3 ̸= 2 = dim(W ) ist F kein Endomorphismus. Bei
Isomorphismen muss auch dim(V ) = dim(W ) sein (damit Darstellungsmatrix
invertierbar ist).
130 A B C Es sei dim(V ) = n.
5 F ◦ G injektiv ⇒ Ker(F ◦ G) = {0}. Da F invertierbar ist, gilt Ker(F ◦ G) =
Ker(G) (dies sieht man wie folgt: (F ◦G)(v) = 0 ⇔ (F −1 ◦F ◦G)(v) = F −1 (0) =
0 ⇔ G(v) = 0). Daraus folgt Ker(G) = {0} ⇒ G injektiv.
5 F ◦ G surjektiv ⇒ Rang(F ◦ G) = n. Aus der Formel Rang(F ◦ G) ≤ Rang(G)
folgt n ≤ Rang(G). Da Rang(G) nicht grösser als n sein kann, gilt Rang(G) =
n ⇒ G surjektiv.
5 Die Aussage über Isomorphismen folgt aus den obigen zwei Punkten.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 k 2 1 1 0 1 (Z3 ) + 2(Z1 )
11 0 1
(Z1 ) als
⎢ 1 1 0 1 ⎥ ⎢ ⎥ − (Z2 ) ⎢ 0 1 1 2⎥
⎢ ⎥ letzte!Zeile ⎢ 0 1 1 2 ⎥ (Z4 )! ⎢ ⎥
⎣ 0 1 1 2 ⎦ ⎣ −2 0 1 −1 ⎦ ⎣0 2 1 3⎦
−2 0 1 −1 0 1k 2 0 0 k−1 0
⎡ ⎤ ⎡ ⎤
11 0 1 11 0 1
(Z3 ) − 2(Z2 ) ⎢0 1 1 2 ⎥ − 1)(Z3 ) ⎢ 0 1 1 2 ⎥
! ⎢ ⎥ (Z4 ) + (k
! ⎢ ⎥
⎣ 0 0 −1 −1 ⎦ ⎣ 0 0 −1 −1 ⎦ = Z.
0 0 k−1 0 0 0 0 1−k
8 8
82 − λ i 0 88 8 8
8 82 − λ i 8
8
145 a) A B C D det(A − λE) = 8 −i 2 − λ 0 8 = (2 − λ) 88 8 8=
8 0 8 −i 2 − λ8
0 2−λ
2
(2 − λ)(λ − 4λ + 3) = (1 − λ)(2 − λ)(3 − λ) = 0 ⇒ λ = 1, 2, 3.
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 i 0 i 3i i
b) A B C D ⎣−i 2 0⎦ ⎣1⎦ = ⎣ 3 ⎦ = 3 ⎣1⎦ ⇒ Eigenvektor zu λ = 3;
0 02 0 0 0
⎡ ⎤⎡ ⎤ ⎡ ⎤
2 i 0 −i −i
Analog ⎣−i 2 0⎦ ⎣ 1 ⎦ = ⎣ 1 ⎦ ⇒ Eigenvektor zu λ = 1.
0 02 0 0
146 A B λ ist ein Eigenwert von A ⇔ det(A − λE) = 0. Für λ = 0 ist dies genau
dann der Fall, wenn det(A − 0 · E) = det(A) = 0.
147 A B C D Die Eigenwerte von A sind 7 und 1. Die zugehörigen Eigenvek-
' ( ' (
4 2
toren sind beziehungsweise .
−1 1
148 A B Die Eigenwerte einer unitären Matrix sind komplexe Zahlen mit Modulus
1.
149 A B C D A ist eine Spiegelung falls AT A = E (d. h. A ist orthogonal) und
det(A) = −1 gilt. Orthogonale Matrizen haben nur 1 und −1 als Eigenwerte. Die
Determinante von A ist gleich dem Produkt ihrer zwei Eigenwerte (wir wissen,
es gibt 2 Eigenwerte, weil A ∈ R2×2 ). Somit hat A die Eigenwerte 1 und −1. Die
Eigenwerte von A sind die Nullstellen von pA (x) und pA (x) ist ein Polynom vom
Grad 2 (Koeffizient vor x2 ist 1) ⇒ pA (x) = (x − 1)(x + 1) = x2 − 1.
150 A B C D Die Bilder der Basiselemente {sin(x), cos(x)} unter F sind
' (
0
F(sin(x)) = cos(x) ⇒ [F(sin(x))]B = und
1
' (
−1
F(cos(x)) = − sin(x) ⇒ [F(cos(x))]B = .
0
' (
0 −1
Somit ist M B
B (F) = . Die Eigenwerte dieser Matrix sind i und −i. Der
1 0
' (
1
Eigenvektor zum Eigenwert i ist . Dies entspricht cos(x) + i sin(x) = eix
i
' (
d ix ix 1
(in der Tat dx e = ie ). Der Eigenvektor zum Eigenwert −i ist . Dies
−i
entspricht cos(x)−i sin(x) = e−ix . F ist ein Isomorphismus, weil 0 kein Eigenwert
ist (Alternative: det M B
B (F) = 1 ̸= 0).
10.7 • Musterprüfung 1 – Musterlösung
615 10
10.7 Musterprüfung 1 – Musterlösung
Aufgabe 1 ' (
2312
a) A B C D E Es gilt C = AB = ⇒ c23 = 1.
3413
b) A B C D AB = 2E ⇒ A = 2EB−1 ⇒ B−1 = 12 A.
c) A B v1 , v2 , v3 sind linear abhängig, weil v3 = v1 + v2 . Somit bilden sie keine
Basis von R3 . ⎡ ⎤
1 0 1
d) A B C D dim(U) = Rang ⎣0 1 1⎦ = 2.
1 −1 0
e) A B C D det(A) ̸= 0 ⇒ A ist invertierbar (regulär und hat Rang n).
Insbesondere ist für invertierbare lineare Abbildungen Ker(A) = {0}.
f) A B Die Darstellungsmatrix einer linearen Abbildung F : Rm → Rn gehört
zu Rn×m (m und n werden “vertauscht”).
g) A B C Die Darstellungsmatrix ist eine (4 × 5)-Matrix, also Rang(A) ≤ 4
(wegen der Formel Rang(A) ≤ min{m, n} für A ∈ Rm×n ).
Aufgabe 2
⎡ ⎤
( 0 −1
' ' (
T 0 1 2 ⎣ ⎦ 5 α+4
a) Direkte Berechnung AA = 1 α = ⇒
−1 α 2 α + 4 α2 + 5
2 2
⎡ ⎤ ⎡ 2 ⎤
α0 ' ( α α 2α
α 1 2
Spur(AAT ) = α 2 + 10. Analog BBT = ⎣ 1 α ⎦ = ⎣ α α 2 + 1 α + 2⎦ ⇒
0α1
2 1 2α α + 2 5
T T T
Spur(BB ) = 2α +6. Aus Spur(AA ) = Spur(BB ) folgt somit α 2 +10 = 2α 2 +6
2
⇒ α 2 = 4 ⇒ α = ±2.
b) A symmetrisch ⇒ AT = A. Mit der Regel (XY)T = Y T X T finden wir:
# $T
BBT AB−1 (BA)−1 BAT = B 3BT45
B−T6 AT A−1 B −1 T
AT A−1 3456
3 45 B6 A = B 3456 AT
=E =E =A =A
−1
= BA A
3 45 A6 = BA.
=E
# $T # $T
c) Zu zeigen ist C T = C. Es gilt: C T = A−1 BBT (A−1 )T = (A−1 )T (BT )T BT
(A−1 )T = A−1 BBT (A−1 )T = C. Somit ist C symmetrisch.
Aufgabe 3
a) v1 , v2 , v3 sind genau dann linear unabhängig, wenn die Determinante der Matrix
A = [v1 , v2 , v3 ] (die Spalten von A sind die gegebenen Vektoren) gleich Null ist.
616 Kapitel 10 • Prüfungstrainer
Wegen
⎡ ⎤
11 k 8 8 8 8
8k − 4 8 81 k8
det ⎣1 k − 45 ⎦ = 88 58 − 8 8 = k2 + 4k + 4 = (k + 2)2 =! 0 ⇒ k = −2
5 k 8 85 k8
05 k
Aufgabe 4 Wir berechnen den Rang der erweiterten Matrix [A|b] mit dem Gauß-
Algorithmus
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
111 3 1 1 1 3 11 1 3
(Z3 ) − 2(Z1 ) (Z3 ) − (a − 2)(Z2 )
⎣0 1 a 2⎦ ! ⎣0 1 a 2 ⎦ ! ⎣0 1 a 2 ⎦.
2a5 0 0 a − 2 3 −6 0 0 (a + 1)(3 − a) −2(a + 1)
a) Das lineare Gleichungssystem hat genau dann eine eindeutige Lösung, wenn
Rang(A) = Rang[A|b] = 3. Dies ist genau dann der Fall, wenn (a + 1)(3 − a) ̸= 0
(−2(a + 1) ̸= 0 kann beliebig sein) ⇒ a ̸= −1, 3.
b) Das lineare Gleichungssystem hat genau dann keine Lösung, wenn Rang(A) ̸=
Rang[A|b]. Dies ist genau dann der Fall, wenn (a+1)(3−a) = 0 aber −2(a+1) ̸= 0
⇒ a = 3.
c) Das lineare Gleichungssystem hat genau dann unendlich viele Lösungen, wenn
Rang(A) = Rang[A|b] < 3. Dies ist genau dann der Fall, wenn (a + 1)(3 − a) = 0
und −2(a + 1) = 0 ⇒ a = −1. In diesem Fall ist Rang(A) = 2 ⇒ die Dimension
des Lösungsraumes L ist n − Rang(A) = 3 − 2 = 1. L beschreibt eine Gerade im
dreidimensionalen Raum.
Aufgabe 5
a) Wir berechnen den Rang von A mit dem Gauß-Algorithmus
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1k 0 1 k 0 1k 0
(Z3 ) − 2(Z1 ) (Z3 ) + k(Z2 )
⎣0 1 k−4⎦ ! ⎣0 1 k−4⎦ ! ⎣0 1 k − 4 ⎦.
2k 0 0 −k 0 0 0 k(k − 4)
A ist genau dann invertierbar, wenn Rang(A) = 3. Dies ist genau dann der Fall,
wenn k(k − 4) ̸= 0 ⇒ k ̸= 0, 4.
10.7 • Musterprüfung 1 – Musterlösung
617 10
Alternative: Mit der Determinante (Entwicklung nach der dritten Spalte)
⎡ ⎤
1k 0 8 8
81 k8 !
det ⎣0 1 k − 4⎦ = −(k − 4) 88 88 = k(k − 4) ̸= 0 ⇒ k ̸= 0, 4.
2k
2k 0
b) Wir wenden den Gauß-Algorithmus auf die erweiterte Matrix [A|E] an
⎡ ⎤ ⎡ ⎤
1k 0 100 1 k 0 1 00
(Z3 ) − 2(Z1 )
⎣0 1 k−4 0 1 0⎦ ! ⎣0 1 k−4 0 1 0⎦
2k 0 001 0 −k 0 −2 01
⎡ ⎤
(Z3 ) + k(Z2 ) 10 0 −1 0 1
(Z1 ) + (Z3 )
! ⎣0 1 k−4 0 1 0⎦
0 0 k(k − 4) −2 k 1
⎡ ⎤ ⎡ ⎤
(Z2 ) − (Z3 )/k 1 0 0 −1 0 1 −1 0 1
(Z3 )/(k(k − 4)) ⎢
! ⎣0 1 0
2
k 0 − k1 ⎥
⎦ ⇒
⎢
A−1 = ⎣ k2 0 − k1 ⎥
⎦
2 1 1 2 1 1
0 0 1 − k(k−4) k−4 k(k−4) − k(k−4) k−4 k(k−4)
Aufgabe 6
a) U ist die Lösungsmenge eines homogenen linearen Gleichungssystem. Nach
Satz 5.2 ist U ein Unterraum von R4 . Alternative: Man weist die Unterraum-
Bedingungen explizit nach.
Aufgabe 7
⎡ ⎤
1 1 2 1
⎢ 1 2 4 1⎥
a) M EE (F) = ⎢
⎣ 2 2 4 3⎦
⎥
−1 −2 −4 2
b) Wir lösen F(x) = 0 mit dem Gauß-Algorithmus
⎡ ⎤ ⎡ ⎤
1 1 2 1 0 (Z2 ) − (Z1 )
(Z3 ) − 2(Z1 )
1 1 2 1 0
⎢ 1 2 4 1 0⎥ (Z4 ) + (Z1 ) ⎢0 1 2 0 0⎥
⎢ ⎥ ! ⎢ ⎥
⎣ 2 2 4 3 0⎦ ⎣0 0 0 1 0⎦
−1 −2 −4 2 0 0 −1 −2 3 0
618 Kapitel 10 • Prüfungstrainer
⎡ ⎤ ⎡ ⎤
1 1 2 1 0 1 1 2 1 0
(Z4 ) + (Z2 ) ⎢0 1 2 0 0⎥ (Z4 ) − 3(Z3 ) ⎢0 1 2 0 0⎥
! ⎢ ⎥ ! ⎢ ⎥.
⎣0 0 0 1 0⎦ ⎣0 0 0 1 0⎦
0 0 0 3 0 0 0 0 0 0
Aufgabe 8
a) λ ist ein Eigenwert von A genau dann, wenn det(A − λE) = 0. Wegen
⎤ ⎡ ⎡ ⎤
−4 3 0 −4 3 0
det(A − 4E) = det ⎣ 1 2 − 4 0 ⎦ = det ⎣ 1 −2 0⎦ = 0
0 5 4−4 0 5 0
ist λ = 4 ein Eigenwert von A (Determinante ist Null, weil eine Spalte ist gleich
Null ist). Alternative: Wir berechnen alle Eigenwerte von A mit dem charakteristi-
10.8 • Musterprüfung 2 – Musterlösung
619 10
⎡ ⎤
−λ 3 0
1
schen Polynoms det(A − λE) = det ⎣ 1 2 − λ 0 ⎦ = (4 − λ)(λ − 3)(λ + 1) = 0
0 5 4−λ
⇒ die Eigenwerte sind λ = −1, 3, 4.
b) Wir lösen (A − 4E)v = 0 mit dem Gauß-Algorithmus
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−4 3 0 0 −4 3 0 0 −4 3 0 0
4(Z2 ) + (Z1 )
⎣ 1 2 − 4 0 0 ⎦ = ⎣ 1 −2 0 0 ⎦ ! ⎣ 0 −5 0 0 ⎦
0 5 4−4 0 0 5 0 0 0 5 0 0
⎡ ⎤
−4 3 0 0
(Z3 ) + (Z2 )
! ⎣ 0 −5 0 0 ⎦ .
0 0 0 0
Aufgabe 1
a) A B C D det[3e2 , −e3 , 2e1 ] = −6 det[e2 , e3 , e1 ] = 6 det[e2 , e1 , e3 ] =
−6 det[e1 , e2 , e3 ] = −6.
b) A B C D Eine Teilmenge einer linear unabhängigen Menge ist immer linear
unabhängig. Mehr als 7 Vektoren in R7 sind linear abhängig.
c) A B C D A ist regulär, weil 0 kein Eigenwert ist. Daher hat A maximalen
Rang, d. h. Rang(A) = 4. Die Summe aller Eigenwerte ist gleich Spur(A). Daher
620 Kapitel 10 • Prüfungstrainer
Aufgabe 2
a) Wahr. Die Matrix beschreibt eine Drehung um ϕ = −π/6.
b) Falsch. Lineare Abbildungen F : Rn → Rn sind eindeutig durch die Angabe von
F(b1 ), · · · , F(bn ) bestimmt (wobei {b1 , · · · , bn } eine Basis von Rn ist).
c) Wahr. Aus der Dimensionsformel mit V = R4 und W = R3 folgt dim(V ) =
3 45 6
=4
dim(Ker(F)) + dim(Im(F)) ⇒ dim(Im(F)) = 4 − 1 = 3, gleich wie W ⇒ F ist
3 45 6
=1
surjektiv.
d) Falsch. P3 (R) hat die Dimension 4. Weniger als 4 Polynome bilden somit kein
Erzeugendensystem von P3 (R).
e) Wahr. Wegen! F(1, T T
" 0) = [1, 1] und F(0,
! 11) "= " 2]! 2 "ist die
! 1 [1, ! "Darstellungsmatrix
von F gleich 1 2 . Daher ist F(1, 1) = 1 2 1 = 3 ̸= 22 .
1 1 1
8 8
8 2 −2 −2 8
f) Wahr. Entwicklung nach der dritten Spalte (hat am meisten Nullen) 8 1 1 0 88 =
8
−3 4 0
8 1 18
8 8
(−2) −3 4 = (−2)(4 + 3) = −14.
)1 1*
g) Falsch. Wegen Rang 5 3 = 2 sind die Vektoren linear unabhängig.
74
Aufgabe 3
a) Wir beginnen mit dem Ausgangsschema [E|E|A] und wenden den Gauß-
Algorithmus mit Pivotstrategie an:
10.8 • Musterprüfung 2 – Musterlösung
621 10
⎡ ⎤ (Z2 ) − 1 (Z1 ) ⎡ ⎤
100 1 00 2 2 2 2
(Z3 ) + 1 (Z1 )
100 1 00 2 2 2
[E|E|A] = ⎣ 0 1 0 0 10 1 1 0 ⎦ ! 2 ⎣ 0 1 0 1 1 0 0 0 −1 ⎦
2
001 0 0 1 −1 −2 −2 0 0 1 − 12 0 1 0 −1 −1
⎡ ⎤
1 00 1 00 2 2 2
(Z3 ) ↔ (Z2 )
! ⎣0 0 1 − 12 1 0 0 −1 −1 ⎦ = [P|L|R]
0 1 0 12 0 1 0 0 −1
@ A ' (
)1 0 0* 1 00
2 2 2
Es folgt P = 0 0 1 , L = − 12 1 0 und R = 0 −1 −1 . Die Probe liefert PA =
010 1
01 0 0 −1
2
LR ".
b) Wir lösen zuerst Lz = Pb und danach Rx = y
⎡
⎤ ⎡ ⎤ ⎡ ⎤
2 1 00 2 2
Pb = ⎣−1⎦ ⇒ ⎣ − 12 1 0 −1 ⎦ ⇒ z = ⎣ 0 ⎦
1
−2 2 0 1 −2 −3
⎡ ⎤ ⎡ ⎤
2 2 2 2 1
⇒ ⎣ 0 −1 −1 0 ⎦ ⇒ x = ⎣−3⎦
0 0 −1 −3 3
Aufgabe 4
a) Entwicklung nach der ersten Spalte liefert
8 8
8(a1 − x) a2 a3 a4 8 8 8
8 8 8−x 0 0 8
8 0 −x 0 0 88 8 8
8
8 0 = (a1 −x) 8 1 −x 0 8 = (a1 −x)(−x)3 = (x−a1 )x3 .
8 1 −x 0 88 8
8 0 1 −x8
8
8 0 0 1 −x8 3 45 6
=(−x)(−x)(−x) Dreiecksmatrix
!
Aus (x − a1 )x3 = 0 folgt x = 0 oder x = a1 .
@ A@ A ⎡ ⎤
a b 0 1 a −b 0 −1 a2 +b2 +1 0 0 0
T −b a −1 0 b a 1 0 ⎣ 0 a2 +b2 +1 0 0 ⎦.
c) Es gilt AA = 0 1 a −b 0 −1 a b =
0 0 a2 +b2 +1 0
−1 0 b a 1 0 −b a 0 0 0 2 2
a +b +1
# $
2
Wegen det AAT = det(A) det(A) = 2 2
det(A) = (a + b + 1) finden wir 4
det(A) = ±(a2 + b2 + 1)2 . Wir müssen nur noch das Vorzeichen der Determinante
bestimmen, d. h. ob det(A) = (a2 + b2 + 1)2 oder det(A) = @ −(a2 + b2 A
+ 1)2 ist.
0 0 0 1
0 0 −1 0
Zu diesem Zweck setzen wir a = b = 0 in A ein. Wegen det 0 1 0 0 = 1 ist
−1 0 0 0
det(A) = (a2 + b2 + 1)2 die richtige Antwort.
Aufgabe 5
a) Die Summe der Eigenwerte ist Spur(A) und deren Produkt ist det(A). Es seien also
λ1 und λ2 die zwei Eigenwerte von A. Dann gilt λ1 + λ2 = 5 und λ1 · λ2 = 4 ⇒
λ1 = 1 und λ2 = 4. Die Eigenwerte von 2A + AT + 4A−1 sind 2λ1 + λ1 + 4/λ1 =
2 + 1 + 4 = 7 und 2λ2 + λ2 + 4/λ2 = 8 + 4 + 1 = 13.
b) Wir verifizieren die Linearitätsbedingung (L). Es seien v, w ∈ R3 und a, b ∈ R.
Wegen der Linearität des Kreuzproduktes gilt:
2 2 2
H α + β + γ ≥ 0 sind die Eigenwerte von A gleich λ1 = 0, λ2,3 =
Wegen
±i α 2 + β 2 + γ 2 . A hat reelle Eigenwerte nur für α = β = γ = 0; in allen
anderen Fällen hat A komplexe Eigenwerte.
Aufgabe 6
a) Es ist dim(U) = Rang[u1 , u2 , u3 ] bzw. dim(W ) = Rang[w1 , w2 , w3 ]. Mit dem
Gauß-Algorithmus finden wir
10.8 • Musterprüfung 2 – Musterlösung
623 10
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 (Z2 ) − 2(Z1 ) 1 1 1 1 1 1
(Z3 ) − (Z1 ) (Z3 ) − 2(Z2 )
⎣2 1 1⎦ ! ⎣ 0 −1 −1 ⎦ ! ⎣ 0 −1 −1 ⎦
1 −1 3 0 −2 2 0 0 4
⇒ Rang[u1 , u2 , u3 ] = 3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 2 (Z2 ) − (Z1 ) 112 112
⎣ 1 2 3 ⎦ (Z3 )!+ 3(Z1 )
⎣ 0 1 1 ⎦ (Z3 )!
− 5(Z2 )
⎣ 0 1 1 ⎦ ⇒ Rang[w1 , w2 , w3 ] = 2
−3 2 −1 055 000
Somit ist dim(U) = 3 und dim(W ) = 2. Wegen dim(U) = 3 ist {u1 , u2 , u3 } bereits
3
eine Basis von U. Wir bemerken, * ) U* = R . Daher eine weitere mögliche
) * ) dass 1 0 0
Basis ist die Standardbasis { 0 , 1 , 0 }. Wegen dim(W ) = 2 ist {w1 , w2 } eine
0 0 1
mögliche Basis von W .
b) Wegen U = R3 ist U ∩ W = R3 ∩ W = W . Also dim(U ∩ W ) = 2.
c) Wir schreiben die
) Basispolynome
* als Vektoren
) * in der Standardbasis
) * E = {1, x, x2 }
1 1 0
auf, [1 + x]E = 1 , [1 + 2x + x2 ]E = 2 , [x − x2 ]E = 1 , und schreiben diese
0 1 −1
Vektoren als Spalten in einer Matrix. Mit dem Gauß-Algorithmus bestimmen wir
den Rang dieser Matrix
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
11 0 11 0 11 0
(Z2 ) − (Z1 ) (Z3 ) − (Z2 )
⎣1 2 1 ⎦ ! ⎣0 1 1 ⎦ ! ⎣0 1 1 ⎦.
0 1 −1 0 1 −1 0 0 −2
Aufgabe 7
a) Wir wenden F auf jedes Element der Standardbasis von R2×2 an und bestimmen
die Koordinaten dieser Bilder in der Standardbasis von R2×2 :
⎡ ⎤
1
' (
' (T ' (
20 10 10 ⎢0⎥
F(E11 ) = − = = E11 ⇒ [F(E11 )]E = ⎢
⎣0⎦
⎥
00 00 00
0
⎡ ⎤
0
' (
' (T ' (
02 01 0 2 ⎢2⎥
F(E12 ) = − = = 2E12 − E21 ⇒ [F(E12 )]E = ⎢
⎣−1⎦
⎥
00 00 −1 0
0
⎡ ⎤
0
' ( ' (T ' (
00 00 0 −1 ⎢−1⎥
F(E21 ) = − = = −E12 + 2E21 ⇒ [F(E21 )]E = ⎢
⎣2⎦
⎥
20 10 2 0
0
⎡ ⎤
0
'( ' (T ' (
00 00 00 ⎢0⎥
F(E22 ) = − = = E22 ⇒ [F(E22 )]E = ⎢
⎣0⎦
⎥
02 01 01
1
⎡
⎤
1 0 0 0
⎢0 2 −1 0⎥
Es gilt somit M EE (F) = ⎢ ⎥
⎣0 −1 2 0⎦.
0 0 0 1
b) Wir lösen F(A) = 0 mit der Darstellungsmatrix
⎡ ⎤ ⎡ ⎤
1 0 0 0 0 1 0 0 0 0
⎢0 2 −1 0 0⎥ 2(Z3 ) + (Z2 ) ⎢0 2 −1 0 0⎥
⎢ ⎥ ! ⎢ ⎥ ⇒ Ker(F) = {0}.
⎣0 −1 2 0 0⎦ ⎣0 0 3 0 0⎦
0 0 0 1 0 0 0 0 1 0
Aufgabe 1
a) A B C D Wir vertauschen die erste Spalte mit der letzten, dann die zweite
Spalte mit der vorletzten usw. Bei jeder Vertauschung erhalten wir einen Faktor
(−1). Wir müssen n/2 Vertauschungen machen, und erhalten somit
626 Kapitel 10 • Prüfungstrainer
8 8 8 8
8 ⋆ ⋆ · · · ⋆ 28 82 ⋆ · · · ⋆ ⋆8
8 8 8 8
8 ⋆ ⋆ · · · 2 08 80 2 · · · 2 ⋆8
8 8 8 8
8 .. .. . . .. .. 8 n 8 .. .. . . .. .. 8 n
8 . . . . . 8 = (−1) 2 8 . . . . . 8 = (−1) 2 2n .
8 8 8 8
8 ⋆ 2 · · · 0 08 80 0 · · · 2 ⋆8
8 8 8 8
82 0 · · · 0 08 80 0 · · · 0 28
besitzt genau n Eigenwerte. Bei (D): Die komplexe Matrix 0 1 ist diagonal,
! "
jedoch ist 11 kein Eigenvektor.
m) A B Wir wenden die Formel dim(U1 ∩ U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 +
U2 ). Wir wissen auch, dass U1 + U2 ein Unterraum von R50 ist, d. h. dim(U1 +
U2 ) ≤ 50. Daraus folgt dim(U1 ∩ U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 + U2 ) =
30 + 40 − dim(U1 + U2 ) = 70 − dim(U1 + U2 ) ≥ 70 − 50 = 20. Daher ist
dim(U1 ∩ U2 ) ̸= 10.
n) A B C Eine orthogonale Projektion hat die Eigenwerte 0 und 1.
o) A B Die Wronski-Determinante ist
8 8 8 8
8y1 (x) y2 (x) y3 (x)8 8 e−ix 1 eix 8 8 ix
8
−ix 8
8 8 8 8 8
8y′ (x) y′ (x) y′ (x)8 = 8−ie−ix 0 ieix 8 = − 8 −ie ie 8 = −2i ̸= 0
8 1 2 3 8 8 8 8−e−ix −eix 8
8y′′ (x) y′′ (x) y′′ (x)8 8 −eix 0 −e−ix 8
1 2 3
Aufgabe 2
a) Für X ∈ Rm×n gilt Rang(X) ≤ min{m, n}. In unserem Fall sind A ∈ R7×1 und B ∈
R1×7 ⇒ Rang(A) ≤ 1 und Rang(B) ≤ 1. Außerdem mit der Formel Rang(XY) ≤
min{Rang(X), Rang(Y)} erhalten wir Rang(AB) ≤ 1. Daher hat AB ∈ R7×7 nicht
den vollen Rang und somit ist det(AB) = 0.
b) Wir addieren die zweite Spalte zur dritten Spalte und erhalten
628 Kapitel 10 • Prüfungstrainer
8 8 8 8 8 8
81 bc a(b + c)8 81 bc ab + ac + bc8 81 bc 18
8 8 (S3 ) + (S2 ) 8 8 8 8
81 ac b(a + c)8 = 81 ac ab + ac + bc8 = (ab + ac + bc) 81 ac 18 = 0.
8 8 8 8 8 8
81 ab c(a + b)8 81 ab ab + ac + bc8 81 ab 18
Die Determinante ist Null, weil zwei Spalten identisch sind. Wegen det(A) = 0 ist
die Matrix A für kein a, b, c ∈ R invertierbar.
c) Es sei D6 die Determinante (6 weil die Matrix 6 × 6 ist). Wir entwickeln nach der
ersten Spalte
8 8
8a 0 0 0 0 b 88 8 8 8 8
8 8a 0 0 b 08 80 0 0 0 b8
80 a 0 0 b 0 88 8 8 8 8
8 80 a b 0 0 88 8a 0 0 b 088
8 8 8 8
80 0 a b 0 08 80 c d 0
8 8 =a 8 0 88 −c 80 a b 0
8 088
80 0 c d 0 08 8c 0 0 d
8 8 8 0 88 80 c d 0
8 088
80 c 0 0 d 0 88 80 0 0 0
8
8c d8 8c 0 0 d 08
0 0 0 0 d8 3 45 6 3 45 6
3 45 6 entwicklen nach 5. Zeile entwicklen nach 1. Zeile
entwicklen nach 1. Spalte
8 8 8 8
8a 0 0 b 88 8a 0 0 b 88
8 8
80 a b 08 8 80 a b 0 88
= ad 88 8 −cb 8
80 c d = (ad − bc)D4 .
80 c d 08 8 0 88
8c 0 0 d 8 8c 0 0 d8
3 45 6 3 45 6
=D4 =D4
Wenden wir nun A−1 auf beiden Seiten der Gleichung an, so erhalten
# wir A = (n−
$
2)E + (n − 1)A ⇒ A − (n − 1)A = (n − 2)E. Daher ist det A − (n − 1)A−1 =
−1 −1
Die Lösungen von diesen linearen Gleichungssysteme erhalten wir aus (a)
) x11 * ) 1
* ) x12 * ) 1
* ) x13 * ) 1
*
x21 =t −2 , x22 =s −2 , x23 =p −2 , t, s, p ∈ R.
x31 1 x32 1 x33 1
' t s p
(
Somit ist X = −2t −2s −2p die gesuchte Matrix.
t s p
c) Wir betrachten die erweiterte Matrix und erzeugen die Zielmatrix mit dem Gauß-
Algorithmus
⎡ ⎤ ⎡ ⎤
1 −1 −1 ··· 1 −1 (Z2 ) − (Z1 ) 1 −1 −1 ··· −1 1
(Z3 ) − (Z1 )
⎢1 1 −1 ··· 1⎥ −1 ⎢0 2 0 ··· 0 0⎥
⎢ ⎥ usw. ⎢ ⎥
⎢ .. .. .. .. .. ⎥ .. (Zn ) − (Z1 ) ⎢0 0 2 ··· 0 0⎥
⎢. . . . .⎥ . ! ⎢ ⎥ = Z.
⎢ ⎥ ⎢. .. .. .. .. .. ⎥
⎣1 1 1 · · · −1 1 ⎦ ⎣ .. . . . . .⎦
1 1 1 ··· 1 1 0 0 0 ··· 2 0
Es folgt
⎧⎡ x⎤ = x3 = · · · = xn = 0 und x1 = 1. Die Lösungsmenge ist somit
2 ⎫
⎨ 10 ⎬
L = ⎣ .. ⎦ .
⎩ . ⎭
0
Aufgabe 4
a) Wir schreiben die gegebenen Vektoren als Spalten in einer Matrix auf und
bestimmen deren Rang mittels Gauß-Algorithmus
630 Kapitel 10 • Prüfungstrainer
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
12 1 1 2 1 1 2 1
(Z2 ) − (Z1 ) (Z3 ) + 2(Z2 )
⎣ 1 1 1 − 2t ⎦ ! ⎣ 0 −1 −2t ⎦ ! ⎣ 0 −1 −2t ⎦ .
02 t 0 2 t 0 0 −3t
:
2 für t = 0
Somit ist dim(U) = Rang(A) =
3 für t ̸= 0
b) t = 0 : In diesem Fall sind v1 , v2 , v3 keine Basis von R3 . Es gilt v1 = v3 . Wegen
w1 ̸= v3 kann es keine lineare Abbildung F : R3 → R4 geben mit F(v1 ) = w1 und
F(v3 ) = w3 .
t ̸= 0 : In diesem Fall sind v1 , v2 , v3 keine Basis von R3 . Daher gibt es nach
Satz 7.3 genau eine lineare Abbildung F : R3 → R4 mit F(vi ) = wi , i = 1, 2, 3.
c) Wird der Ausgangsraum R3 mit der Basis B = {v1 , v2 , v3 } versehen, so sind die
Vektoren w1 , w2 , w3 bereits die Spalten der Darstellungsmatrix, d. h. M EB (F) =
'1 1 0(
0 1 2 (Beachte: Der Zielraum ist mit der Standardbasis versehen). Die Trans-
201
131 )1 2 1 *
formationsmatrix von B nach der Standardbasis lautet T B→E = 1 1 −1 ⇒
@ A 02 1
1 0 −1
T E →B = T −1 − 31 1 2
B→E = 3 3 . Daraus wird
2
3 − 32 − 13
⎡2 1
⎤
3 3− 31
⎢ 1 −1 0 ⎥
M EE (F) = M EB (F)T E →B = ⎣ 8 2 7 ⎦.
3 −3 −3
2 1 2
3 3 3
⎡2 1
⎤
− 13 '1(
3 3 )1*
⎢ 1 −1 0 ⎥ 0
Probe: M EE (F)v1 =⎣ 8 2 7 ⎦ 1 = = w1 , usw. "
3 −3 −3 0 2
2 1 2 1
3 3 3
Aufgabe 5
a) '
Die Darstellungsmatrix
( von
' F bezüglich
( der Standardbasis von R3 ist A =
2 −1 −1 2 2 −1 −1
1 0 −1 . Wegen A = 1 0 −1 = A ist F idempotent. Alternative: Mit der
1 −1 0 1 −1 0 D' (E ' (
2x1 −x2 −x3 2x1 −x2 −x3
2
Definition von F rechnet man nach F (x) = F x1 −x3 = x1 −x3 =
x1 −x2 x1 −x2
F(x).
b) Kern: Mit dem Gauß-Algorithmus lösen wir Ax = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 −1 −1 0 2(Z2 ) − (Z1 ) 2 −1 −1 0 2 −1 −1 0
2(Z3 ) − (Z1 ) (Z3 ) + (Z2 )
⎣ 1 0 −1 0 ⎦ ! ⎣ 0 1 −1 0 ⎦ ! ⎣ 0 1 −1 0 ⎦ .
1 −1 0 0 0 −1 1 0 0 0 0 0
N) 1 *O
Es folgt x3 = t ⇒ x2 = t und x1 = t, d. h. Ker(F) = 1 .
1
Bild: Wir wenden unser Kochrezept 8.1 an. Wir betrachten die Transponierte
der Darstellungsmatrix von F und wenden den Gauß-Algorithmus an
10.9 • Musterprüfung 3 – Musterlösung
631 10
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 1 2(Z2 ) + (Z1 ) 2 1 1 21 1
2(Z3 ) + (Z1 ) (Z3 ) + (Z2 )
⎣ −1 0 −1 ⎦ ! ⎣ 0 1 −1 ⎦ ! ⎣ 0 1 −1 ⎦ ⇒ Rang(A) = 2.
−1 −1 0 0 −1 1 00 0
Das Bild von F hat die Dimension 2. Eine Basis des Bildes können N)
wir *direkt an
) 0 *O
2
den von Null verschiedenen Zeilen der Zielmatrix erkennen Im(F) = 1 , 1 .
1 −1
c) Wir müssen zwei Bedingungen nachweisen: (1) R3 = Ker(F) + Im(F) und (2)
Ker(F) ∩ Im(F) = {0}.
R3 = Ker(F) + Im(F)? Wir kombinieren alle erzeugenden Vektoren von
Ker(F) und Im(F) als Spalten in einer einzigen Matrix. Mit dem Gauß-
Algorithmus berechnen wir den Rang dieser Matrix und damit die Dimension
von Ker(F) + Im(F):
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
12 0 (Z2 ) − (Z1 ) 1 2 0 1 2 0
(Z3 ) − (Z1 ) (Z3 ) − (Z2 )
A = ⎣1 1 1 ⎦ ! ⎣ 0 −1 1 ⎦ ! ⎣ 0 −1 1 ⎦ ⇒ Rang(A) = 3.
1 1 −1 0 −1 −1 0 0 −2
Aufgabe 6
a) J! 2×2
Wir berechnen
" ! " !die "Transformationsmatrix
10 , 01 , 00 , 00
! "K von der
J!Standardbasis
1 0
" !R1 1 "KE =
" ! 1 1 " ! 1 von
1
00 00 10 01 nach der Basis B1 = 0 0 , 0 0 , 1 0 , 1 1 . Es
gilt:
⎡ ⎤ ⎡ ⎤
1111 1 −1 0 0
⎢0 1 1 1 ⎥ ⎢0 1 −1 0 ⎥
T B1 →E =⎢ ⎥
⎣0 0 1 1 ⎦ ⇒ T E →B1 = T −1
B1 →E =⎢ ⎥
⎣0 0 1 −1⎦ .
0001 0 0 0 1
632 Kapitel 10 • Prüfungstrainer
'a(
! "
Die Koordinaten von A = ac db in E sind [A]E = bc ⇒ [A]B1 = T E →B1 [A]E =
@ A' ( @ A d
1 −1 0 0 a a−b ! " !1 0" !1 1"
0 1 −1 0 b b−c ab
0 0 1 −1 c = c−d , d. h. A = c d = (a − b) 0 0 + (b − c) 0 0 + (c −
0! 0 "0 1 ! d" d
d) 11 10 + d 11 11 .
b) Wir bestimmen die 'Transformationsmatrix
( von B2 nach der Standardbasis
0 −1 1 B
von R3 : T B2 →E = 1 0 2 . Dann ist M EE (F) = T B2 →E M B21 (F)T E →B1 =
−2 2 0
' (
3 −3 −3 4
7 −3 −5 5 .
−2 6 4 −6
c) Wir berechnen den Rang der Darstellunsgsmatrix (z. B. in den alten Basen ist es
einfacher):
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 −1 0 1 0 −1 0 1 0 −1 0
(Z3 ) − 3(Z1 ) (Z3 ) − (Z2 )
⎣0 2 3 1⎦ ! ⎣0 2 3 1⎦ ! ⎣0 2 3 1⎦.
32 0 2 02 3 2 00 0 1
Aufgabe 7 # $ # $
d2 d
a) Wir rechnen nach dx2
(x + 1)2 p(x) = dx (x + 1)2 p′ (x) + 2(x + 1)p(x) = (x +
1)2 p′′ (x) + 4(x + 1)p′ (x) + 2p(x). Somit ist
F(1) = 2
F(x) = 6x + 4
F(x2 ) = 12x2 + 12x + 2
..
.
b) Die Darstellungsmatrix von F ist eine obere Dreiecksmatrix. Die Eigenwerte sind
bereits die Diagonaleinträge, also das Spektrum von F ist
d2 # 2
$ d2 # 2 k
$ d2
F(qk (x)) = (x + 1) q k (x) = (x + 1) (x + 1) = (x + 1)k+2
dx2 dx2 dx2
d # $
= (k + 2)(x + 1)k+1
dx
= (k + 1)(k + 2)(x + 1)k = (k + 1)(k + 2)qk (x).
Aufgabe 1
a) A B Für X ∈ Rm×n gilt Rang(X) ≤ min{m, n}. Wegen m > n heißt dies
in unserem Fall Rang(A) ≤ min{m, n} = n und Rang(B) ≤ min{m, n} = n.
Außerdem mit der Formel Rang(XY) ≤ min{Rang(X), Rang(Y)} erhalten wir
T T m×m nicht vollen Rang und somit ist
Rang(AB
# $ ) ≤ n. Daher hat AB ∈ R
det ABT = 0.
b) A B Auf R ist die Matrix symmetrisch aber nicht schiefsymmetrisch.
A B In Z2 ist −1 = 1. Daher ist die Matrix symmetrisch und auch
schiefsymmetrisch.
dem Rangkriterium:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0 (Z4 ) − (Z1 )
1 1 0 0 1 1 0 0
⎢0 0 1 1⎥ (Z3 ) + (Z2 ) ⎢0 0 1 1⎥⎥ ⎢ 0 −2 0 0⎥
⎢ ⎥ ! ⎢ !⎢ ⎥ ⇒ Rang(A) = 4.
⎣0 0 −1 1⎦ ⎣0 0 0 2⎦ ⎣0 0 1 1⎦
1 −1 0 0 0 −2 0 0 0 0 0 2
j) A B C D
! " )1 0*
k) A B C D Gegenbeispiel: Betrachte A = 10 01 00 und B = 0 1 . Dann ist
)1 0 0* 00
!1 0"
AB = 0 1 , aber BA = 0 1 0 . Außerdem sind A und B nichtinvertierbar.
000
)1 1 4*
p) A B Ähnliche Matrizen haben dieselbe Spur. Wegen Spur 124 = 3 ̸= 2 =
)0 1 1* 120
Spur 1 1 0 sind die gegebenen Matrizen nicht ähnlich.
101
q) A B C Zwei Matrizen sind genau dann äquivalent, wenn sie denselben Rang
)1 1 1 * )1 1 1* )1 0 0*
haben. Es gilt Rang 1 −1 −1 = 2, Rang 1 1 1 = 1, Rang 0 1 0 = 2 und
)1 1 1 * 0 1 1 ) * 111 ) 1 0 0 * 0 0) 01 1 1 *
1 1 1
Rang 2 0 −1 = 2. Somit ist 1 −1 −1 äquivalent zu 0 1 0 und 2 0 −1 .
31 0 0 1 1 000 31 0
10.10 • Musterprüfung 4 – Musterlösung
635 10
r) A B ⟨W ⟩ ist der kleinste Unterraum der W enthält. Ist W ein Unterraum, so
ist ⟨W ⟩ = W .
s) A B Die Nullmatrix ist nichtinvertierbar. Somit ist 0 ∈ / GL(n, K) und
GL(n, K) ist daher kein Unterraum.
P! "Q P! "Q P! "Q
t) A B Gegenbeispiel: Es seien V = R2 , W = 01 , U1 = 10 und U2 = 11 .
Dann ist R2 = U1 ⊕ W = U2 ⊕ W aber U1 ̸= U2 .
u) A B Wegen dim(P5 (R)) = 6 = dim(R2×3 ) sind P5 (R) und R2×3 isomorph.
v) A B Wegen Ker(F) ⊂ Ker(F 2 ) ist dim(Ker(F)) ≤ dim(Ker(F 2 )). Beweis von
“Ker(F) ⊂ Ker(F 2 )”: Es sei v ∈ Ker(F) ⇒ F 2 (v) = F(F(v)) = F(0) = 0 ⇒
v ∈ Ker(F 2 ).
Aufgabe 2 R
a) det(A) := σ ∈Sn sign(σ ) a1σ (1) a2σ (2) · · · anσ (n) . In der Definition von det(A) treten
Terme der Form a1σ (1) a2σ (2) · · · anσ (n) auf, wobei σ eine Permutation der Zahlen
1, 2, · · · , n ist (σ ∈ Sn ). Der Term a13 a24 a53 a41 a35 entspricht σ = (34315), was
keine Permutation ist (3 kommt zwei Mal vor) ⇒ a13 a24 a53 a41 a35 kommt nicht
vor. Der Term a21 a13 a34 a55 a42 entspricht σ = (13452), was eine Permutation ist,
⇒ a21 a13 a34 a55 a42 kommt vor. R
b) Vgl. Übung 3.35. Nach der Leibniz-Formel gilt: det(A) = σ ∈Sn sign(σ ) a1σ (1)
a2σ (2) · · · anσ (n) . Weil alle außerdiagonalen Elemente von A verschwinden,
d. h. aij = 0 für i ̸= j, sind alle Terme a1σ (1) a2σ (2) · · · anσ (n) in der obigen Summe
gleich Null, R außer für σ = e = (12 · · · n). Daraus folgt das gewünschte Resultat
det(A) = σ ∈Sn sign(σ ) a1σ (1) a2σ (2) · · · anσ (n) = a11 a22 · · · ann .
c) Wir entwickeln nach der letzten Spalte
8 8 8 8
8 0 x1 x2 · · · xn−1 8 8 x1 1 0 · · · 088
8 8 8
8 x1 1 0 · · · 0 8 8 x2 0 1 · · · 088
8 8 8
8 8 8 .. .. .. . . .. 8
Dn = 8 x2 0 1 · · · 0 8 = (−1)n+1 xn−1 8 . . . . . 88
8 . . . . 8 8
8 .. .. .. . . ... 8 8x 0 0 · · · 188
8 8 8 n−2
8x 8 8x 0 0 · · · 08
n−1 0 0 · · · 1 n−1
3 45 6
entwickeln nach der letzten Zeile
8 8
8 0 x1 x2 · · · xn−2 88
8
8 x1 1 0 · · · 0 88
8
2n 8 x2 0 1 · · · 0 88
+ (−1) 8
8 . .. .. . . . 8
8 .. . . . .. 88
8
8x 0 0 ··· 1 8
n−2
3 45 6
=Dn−1
8 8
81 0 · · · 08
8 8
80 1 · · · 08
8 8
= (−1)n+1 (−1)n x2n−1 8 . . . . 8 + (−1)2n Dn−1 = −x2n−1 + Dn−1
3 45 6 8 .. .. . . .. 8 3 45 6
=−1 8 8 =1
80 0 · · · 18
3 45 6
=1
636 Kapitel 10 • Prüfungstrainer
−||x||2 . # $
d) A schiefsymmetrisch ⇒ AT = −A. Daher ist det(A) = det AT = det(−A) =
(−1)n det(A). Wenn n ungerade ist, bedeutet dies det(A) = − det(A) ⇒ det(A) = 0.
e) Wir wenden den Gauß-Algorithmus an um die Determinante zu berechnen
(vgl. Übung 3.26):
8 8 8 8
85 4 4 ··· 488 85 4 4 ··· 488
8 8
8 . 8 (Z2 ) − (Z1 ) 8 . 8 (S1 ) + (S2 )
84
8 5 4 .. 488 (Z3 ) − (Z1 )
8−1
8 1 0 .. 088 (S1 ) + (S3 )
8 . 8 etc. 8 . 8 etc.
84 4 5 .. 488 = 8−1 0 1 .. 088 =
8 8
8. .. . . . ... 88 8 . .. . . . ... 88
8 .. . . . .8 8 .. . . . .8
8 8
84 4 4 · · · 58 8−1 0 0 · · · 18
8 8
85 + (n − 1)4 4 4 ··· 488
8
8 . 8
8
8 0 1 0 .. 088
8 . 8
8
8 0 0 1 .. 088 = 5 + 4(n − 1) = 4n + 1.
8 .. .. . . . ... 88
8 . . . . .8
8
8 0 0 0 · · · 18
A ist genau dann singulär, wenn det(A) = 0 gilt. In Zp gilt 4n + 1 = 0 nur dann,
wenn 4n + 1 durch p teilbar ist (d. h. 4n + 1 = 0 mod p). Daher ist A genau dann
singulär, wenn 4n + 1 durch p teilbar ist.
Aufgabe 3
a) Wegen a11 + · · · + a1n = · · · = an1 + · · · + ann = 1 gilt:
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 · · · a1n 1 a11 + · · · + a1n 1
⎢ .. . . .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥
⎣ . . . ⎦ ⎣.⎦ ⎣= . =
⎦ ⎣.⎦
an1 · · · ann 1 an1 + · · · + ann 1
@ A
1
Somit ist ... ein Eigenvektor von A zum Eigenwert 1.
1
b) Es sei λ ein Eigenwert von A und v ̸= 0 der zugehörige Eigenvektor. Dann ist
Av = λv. In Komponentenschreibweise heißt dies
10.10 • Musterprüfung 4 – Musterlösung
637 10
⎡ ⎤ ⎡ ⎤
a11 v1 + · · · + a1n vn λv1 n
⎢ .. ⎥ ⎢ .. ⎥ S
⎣ . ⎦ = ⎣ . ⎦ oder aij vj = λvi ∀i = 1, · · · , n.
an1 v1 + · · · + ann vn λvn j=1
Es sei nun |vk | der betragsgrößte Eintrag von v, d. h. |vk | = max{|v1 |, · · · , |vn |}.
Dann gilt:
8 8
8 n 8 n
8S 8 S
|λvk | = |λ| |vk | = 88 akj vj 88 ≤ akj |vj | (Dreiecksungleichung |x + y| ≤ |x| + |y| )
8 j=1 8 j=1
|vj |≤|vk | n
S n
S
≤ akj |vk | = |vk | akj = |vk |.
j=1 j=1
3 45 6
=1
Aufgabe 4
a) Wir gehen wie in Übung 9.10 vor. Es sei A ∈ Kn×n idempotent, d. h., A2 = A.
Es sei λ ein Eigenwert von A mit Eigenvektor v ̸= 0. Dann ist λ2 ein Eigenwert
von A2 mit demselben Eigenvektor (vgl. Übung 9.9). Wegen A2 = A müssen die
Eigenwerte von A die folgende Gleichung erfüllen:
λ2 = λ ⇒ λ2 − λ = λ(λ − 1) = 0 ⇒ λ = 0, 1.
A2 x = Ab
3456 ⇒ Ab = b.
=Ax=b
Beweis von (i). Wir zeigen Kn ⊂ Ker(A) + Im(A) und Kn ⊃ Ker(A) + Im(A).
“Kn ⊃ Ker(A) + Im(A)′′ Ker(A) und Im(A) sind Unterräume von Kn . Daher ist
deren Summe Ker(A)+Im(A) auch ein Unterraum von Kn , d. h. Ker(A)+Im(A) ⊂
Kn .
“Kn ⊂ Ker(A) + Im(A)′′ Es sei v ∈ Kn . Dann ist
v = v + Av − Av = 3456
Av + (v − Av)
3 45 6
=:y =:z
Der erste Term y = Av gehört (per Definition) zu Im(A). Der zweite Term z =
v − Av gehört zu Ker(A), weil
A2 =A
Az = A(v − Av) = Av − A2 v = Av − Av = 0 ⇒ z ∈ Ker(A).
Somit
A2 =A
0 = Av = A(Aw) = A2 w = Aw = v ⇒ v = 0.
Aufgabe 5
a) Es sei V = U1 ⊕ U2 . Per Definition heißt dies V = U1 + U2 und U1 ∩ U2 = {0}.
Es sei v ∈ V . Wegen V = U1 + U2 gibt es ja ein u1 ∈ U1 und u2 ∈ U2 mit
v = u1 + u2 . Wir zeigen, dass diese Zerlegung eindeutig ist. Zu diesem Zweck
betrachten wir eine weitere Zerlegung v = u′1 + u′2 mit u′1 ∈ U1 und u′2 ∈ U2 .
Dann ist v = u1 + u2 = u′1 + u′2 ⇒ u1 − u′1 = u2 − u′2 . Wegen u1 − u′1 ∈ U1 und
u2 −u′2 ∈ U2 impliziert die Gleichheit u1 −u′1 = u2 −u′2 , dass u1 −u′1 ∈ U1 ∩U2 und
u2 − u′2 ∈ U1 ∩ U2 . Wegen U1 ∩ U2 = {0} finden wir u1 − u′1 = 0 und u2 − u′2 = 0,
d. h. u1 = u′1 und u2 = u′2 . Die Zerlegung v = u1 + u2 ist somit eindeutig.
b) Wir betrachten die Dimensionsformel dim(U1 ) + dim(U2 ) = dim(U1 + U2 ) +
dim(U1 ∩ U2 ). Dann gilt: U1 ∩ U2 = {0} ⇔ dim(U1 ∩ U2 ) = 0 ⇔ dim(U1 ) +
dim(U1 )+dim(U2 )=dim(V )
dim(U2 ) = dim(U1 + U2 ) ⇔ U1 + U2 = V .
c) Unterräume sind genau die Lösungsmengen von homogenen linearen Gleichungs-
systemen. Somit ist U1 ein Unterraum für k = 3. Aus den Gleichungen x1 +x
F' 2 =(G0
1
und 2x1 = −x3 folgt dann x1 = t ⇒ x2 = −t ⇒ x3 = −2t, d. h. U1 = −1 .
' (−2
1
Somit ist dim(U1 ) = 1 und eine Basis von U1 besteht aus dem Vektor −1 .
−2
d) Mit dem Gauß-Algorithmus untersuchen wir die gegebenen Vektoren auf lineare
Unabhängigkeit:
⎡ ⎤ ⎡ ⎤
111 111
(Z3 ) − (Z1 )
A = ⎣0 2 1⎦ ! ⎣ 0 2 1 ⎦ ⇒ Rang(A) = 2 ⇒ dim(U2 ) = 2.
111 000
L) 1 * ) 1 *M
Eine mögliche Basis von U2 (es gibt mehrere Möglichkeiten) ist 0 , 1 .
1 1
e) R3 = U1 + U2 ? Wir kombinieren alle erzeugende Vektoren von U1 und U2 als
Spalten in einer einzigen Matrix. Mit dem Gauß-Algorithmus berechnen wir den
Rang dieser Matrix und somit auch die Dimension von U1 + U2 :
⎡ ⎤ ⎡ ⎤
11 1 11 1
(Z3 ) − (Z1 )
A = ⎣ 0 1 −1 ⎦ ! ⎣ 0 1 −1 ⎦ ⇒ Rang(A) = 3 ⇒ dim(U1 + U2 ) = 3.
1 1 −2 0 0 −3
640 Kapitel 10 • Prüfungstrainer
Somit ist U1 + U2 = R3 .
U1 ∩ U2 = {0}? Es sei v ∈ U1 ∩ U2 . Wegen v ∈ U1 und v ∈ U2 ist
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 1 1 1 −1 α 0
v = α ⎣0⎦ + β ⎣1⎦ = γ ⎣−1⎦ ⇒ ⎣0 1 1 ⎦ ⎣β ⎦ = ⎣0⎦ .
1 1 −2 11 2 γ 0
Aufgabe 6
a) Wir verifizieren die Unterraumbedingungen (UR0) und (UR).
Beweis von (UR0): Die Nullmatrix ist eine obere Dreiecksmatrix, d. h. 0 ∈
U. " !a a " ) *
Beweis von (UR): Es seien A = 01 a23 ∈ U, B = b01 bb2 ∈ U und α, β ∈ C.
) * 3
Somit gilt:
⎡ ⎤
3 2 − i 4i
MB E
B (F) = T E →B M E (F)[T B→E = ⎣0 1 0 ⎦.
2i 1 + 2i −3
e) Die Eigenwerte sind unabhängig von der Wahl der Basis. Wir berechnen das
charakteristische Polynom der Darstellungsmatrix bezüglich der Standardbasis
(ist einfacher)
⎡ ⎤
1−λ 0 0
!
det(A − λE) = ⎣ 1 −1 − λ −1 ⎦ = −(λ−1)2 (λ+1) = 0 ⇒ λ1,2 = 1, λ3 = −1.
0 0 1−λ
Aufgabe 7
a) Zwei Matrizen A, B ∈ Km×n heißen äquivalent, wenn es invertierbare Matrizen
S ∈ GL(m, K) und T ∈ GL(n, K) gibt mit
B = SAT −1 .
642 Kapitel 10 • Prüfungstrainer
Wir müssen die drei Eigenschaften der Definition einer Äquivalenzrelation über-
prüfen. Es seien also A, B, C ∈ Km×n . Dann gilt:
1) Reflexivität: Offenbar ist A = EAE −1 , d. h. A ∼ A. Somit erfüllt “∼” die
Reflexivität-Eigenschaft. "
2) Symmetrie: Ist A ∼ B, so gibt es invertierbare Matrizen S, T mit B =
SAT −1 . Daraus ergibt sich:
% &−1
A = S −1 BT = S −1 B T −1 .
Somit ist A ∼ C und auch die Transitivität von ∼ ist erfüllt. "
Die drei Eigenschaften der Definition einer Äquivalenzrelation sind somit erfüllt.
Also definiert “∼” eine Äquivalenzrelation auf Km×n .
b) Wir beweisen Im(AB) ⊂ Im(A) und Im(AB) ⊃ Im(A).
Beweis vonIm(AB) ⊂ Im(A) : Es sei v ∈ Im(AB). Dann gibt es ein w ∈ Kn mit
ABw = v. Setzen wir z = Bw, so gilt Az = v, d. h. v ∈ Im(A).
Beweis vonIm(AB) ⊃ Im(A) : Es sei nun v ∈ Im(A). Dann gibt es ein w ∈ Kn
mit Aw = v. Da B invertierbar ist definieren wir z = B−1 w. Dann ist ABz =
ABB−1 w = Aw = v, d. h. v ∈ Im(AB).
c) Zwei Matrizen sind genau dann äquivalent, wenn sie denselben Rang besitzen
(Satz 8.15). Wir suchen also alle k ∈ R, sodass Rang(A) = 2:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
k 1 2 1 1 1 (Z2 ) − k(Z1 ) 1 1 1
(Z2 ) ↔ (Z1 ) (Z3 ) + (Z1 )
A=⎣ 1 1 1 ⎦ ! ⎣ k 1 2 ⎦ ! ⎣0 1−k 2−k⎦
−1 1 1 − k −1 1 1 − k 0 2 2−k
⎡ ⎤ ⎡ ⎤
1 1 1 11 1
(Z2 ) ↔ (Z3 ) 2(Z3 ) − (1 − k)(Z2 )
! ⎣0 2 2−k⎦ ! ⎣0 2 2−k ⎦
0 1−k 2−k 0 0 (1 + k)(2 − k)
Serviceteil
Anhang A Analytische Geometrie – 644
Literaturverzeichnis – 678
Stichwortverzeichnis – 679
Mithilfe von Vektoren kann man geometrische Objekte wie Geraden oder Ebenen
mathematisch beschreiben. Dies ist der Inhalt der analytischen Geometrie. In diesem
Anhang werden kurz und bündig die wichtigsten Tatsachen in Erinnerung gerufen.
A.1 Vektoren
A.1.1 Skalarprodukt
# Definition A.1
@ u1 A @ v1 A
Für zwei Vektoren u = . , v = .. ∈ Rn definiert man das Skalarprodukt von u und
.
. .
un vn
v als
n
S
u · v = u1 v1 + u2 v2 + · · · + un vn = ui vi . (A.1)
i=1
> Bemerkung
Beachte: Das Skalarprodukt von u und v kann man auch wie folgt schreiben:
@ v1 A
T T
u · v = u v = v u = u1 . . . un .. . (A.2)
.
vn
# Definition A.2
@ u1 A
Die Länge eines Vektors u = .. ∈ Rn ist
.
un
T
U n
√ US
||u|| := u · u = V u2 i (A.3)
i=1
. Abb. A.1 (a) Geometrische Interpretation des Skalarproduktes zwischen zwei Vektoren u, v. (b) Wenn
u und v senkrecht zueinander stehen ist u · v = 0, denn das Projizieren von u auf v führt zu einem Vektor
mit Länge 0. (c) Winkel zwischen zwei Vektoren
u·v
cos θ := (A.4)
||u|| ||v||
Orthogonale Vektoren
Zwei Vektoren u, v ∈ Rn heißen orthogonal (oder senkrecht), wenn u · v = 0 gilt.
Geometrisch sind zwei Vektoren genau dann orthogonal, wenn ihr Zwischenwinkel
θ = π/2 beträgt (cos θ = 0) bzw. wenn sie senkrecht zueinander stehen. Man schreibt
dann u ⊥ v (. Abb. A.1).
Rechenregeln
Es gelten für Vektoren v, u folgende Rechenregeln:
Übung A.1
◦ ◦ ◦ Für welche s ∈ R ist u orthogonal zu v und w?
⎡ ⎤ ⎡ ⎤ ⎡
⎤
0 s s
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
u = ⎣1⎦ , v = ⎣1⎦ , w=⎣ s ⎦
s 2 −1
646 Anhang A Analytische Geometrie
v Lösung
Es gilt:
⎡ ⎤ ⎡ ⎤
0 s
⎢ ⎥ ⎢ ⎥ ! 1
u · v = ⎣1⎦ · ⎣1⎦ = 0 + 1 + 2s = 2s + 1 = 0 ⇒ s = −
2
s 2
⎡ ⎤ ⎡ ⎤
0 s
⎢ ⎥ ⎢ ⎥
u · w = ⎣1⎦ · ⎣ s ⎦ = 0 + s − s = 0 ".
s −1
Somit s = −1/2. %
Übung A.2
◦ ◦ ◦ Man betrachte die Vektoren u = [1, 1, 0]T und v = [0, −2, 2]T .
a) Man bestimme die Länge von u und v.
b) Man bestimme den Winkel zwischen u und v.
v Lösung
a) Es gilt:
⎡ ⎤ ⎡ ⎤
1 1 √
⎢ ⎥ ⎢ ⎥ √
u · u = ⎣1⎦ · ⎣1⎦ = 1 + 1 + 0 = 2 ⇒ ||u|| = u · u = 2
0 0
⎡ ⎤ ⎡ ⎤
0 0 √
⎢ ⎥ ⎢ ⎥ √
v · v = ⎣−2⎦ · ⎣−2⎦ = 0 + 4 + 4 = 8 ⇒ ||v|| = v · v = 2 2.
2 2
Übung A.3
• ◦ ◦ Man betrachte die Vektoren u = [1, 1, 1]T und v = [1, −1, −1]T . Man bestimme
alle Vektoren w ∈ R3 der Länge 1, welche orthogonal zu u und v sind.
Anhang A Analytische Geometrie
647 A
v Lösung
Es sei w = [x1 , x2 , x3 ] ∈ R3 der gesuchte Vektor. Dieser Vektor muss gleichzeitig w·u =
0 und w · v = 0 erfüllen, d. h.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x1 1 x1 1
⎢ ⎥ ⎢ ⎥ ! ⎢ ⎥ ⎢ ⎥ !
w · u = ⎣x2 ⎦ · ⎣1⎦ = x1 + x2 + x3 = 0, w · v = ⎣x2 ⎦ · ⎣−1⎦ = x1 − x2 − x3 = 0.
x3 1 x3 −1
Man erhält zwei Gleichungen mit drei Unbekannten. Wir setzen x3 = t. Daraus folgt
x2 = −x3 = −t und x1 = −x2 − x3 = 0. Es gilt somit:
⎡ ⎤ ⎡ ⎤
x1 0
⎢ ⎥ ⎢ ⎥
w = ⎣x2 ⎦ = t ⎣−1⎦ , t ∈ R.
x3 1
H √ √
Die Länge von w ist ||w|| = 02 + t2 + t2 = 2t2 . Aus ||w|| = 1 folgt somit 2t2 = 1
@ 0 A
√ √1
⇒ t = ±1/ 2. Die gesuchten Vektoren sind somit w = ± − 2 . %
√1
2
Eine wichtige Anwendung des Skalarprodukts ist die Bestimmung von orthogonalen
Projektionen. Man betrachte zwei Vektoren u, v ∈ Rn . Wir wollen den Vektor u in
einen zu v parallelen und einen dazu senkrechten Vektor zerlegen (. Abb. A.2).
# Definition A.4
Die orthogonale Projektion von u auf v ist
u·v
u∥ := Projv (u) = v. (A.5)
||v||2
u·v
u⊥ = u − u∥ = u − Projv (u) = u − v. (A.6)
||v||2
Es gilt u = u∥ + u⊥ . $
648 Anhang A Analytische Geometrie
Übung A.4
• ◦ ◦ Man finde die orthogonalen Projektionen von u = [1, 1, 2]T auf v = [0, −1, 1]T .
Übung A.5
• ◦ ◦ Man zeige, dass u⊥ orthogonal zu v ist.
v Lösung
Es gilt:
D E
u·v u·v
u⊥ · v = u − v ·v=u·v− v · v = u · v − u · v = 0.
||v||2 ||v||2 3456
=||v||2
Geometrische Deutung
u × v hat zwei geometrische Interpretationen (. Abb. A.3):
5 Der Vektor u × v ist sowohl zu u als auch zu v orthogonal.
5 Die Länge des Vektors u × v ist
wobei θ der Winkel zwischen u und v ist. ||u × v|| entspricht konkret dem
Flächeninhalt des von den Vektoren u und v aufgespannten Parallelogramms.
Rechenregeln
Es gelten folgende Rechenregeln:
Übung A.6
◦ ◦ ◦ Man bestimme das Kreuzprodukt der Vektoren u = [1, 2, 1]T und v = [3, 1, 2]T .
v Lösung ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 3 4−1 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Es gilt: u × v = ⎣2⎦ × ⎣1⎦ = ⎣3 − 2⎦ = ⎣ 1 ⎦ . %
1 2 1−6 −5
Übung A.7
• ◦ ◦ Man zeige, dass u × v sowohl zu u als auch zu v orthogonal ist.
650 Anhang A Analytische Geometrie
v Lösung
Es gilt:
⎡ ⎤ ⎡ ⎤
u1 u2 v3 − u3 v2
⎢ ⎥ ⎢ ⎥
u · (u × v) = ⎣u2 ⎦ · ⎣u3 v1 − u1 v3 ⎦ = u1 (u2 v3 − u3 v2 ) + u2 (u3 v1 − u1 v3 ) + u3 (u1 v2 − u2 v1 )
u3 u1 v2 − u2 v1
= u1 u2 v3 − u1 u3 v2 + u2 u3 v1 − u2 u1 v3 + u3 u1 v2 − u3 u2 v1
=0 ⇒ u ⊥ u × v.
Eine Gerade im Raum kann man auf zwei Arten beschreiben (. Abb. A.4): (1)
Parameterform oder (2) implizite Darstellung.
A.2.1 Parameterform
# Definition A.6 (Parameterform einer Gerade im Raum)
Die Gleichung
x = x0 + tv, t ∈ R (A.8)
beschreibt eine Gerade g, welche in Richtung v zeigt und durch den Punkt x0 geht. x0 heißt
Stützvektor und v heißt Richtungsvektor. $
Übung A.8
◦ ◦ ◦ Man bestimme die Parameterform der Gerade g, welche durch [1, 1, 1]T und
[1, 2, 3]T läuft.
a b
. Abb. A.4 (a) Parameterform und (b) implizite Darstellung einer Gerade g. In der Parameterform
werden Stützvektor x0 und Richtungsvektor v angegeben. Bei der impliziten Darstellung wird statt
Richtungsvektor die Normale n angegeben
Anhang A Analytische Geometrie
651 A
v Lösung
Wir setzen x0 = [1, 1, 1]T als Ausgangspunkt (Stützvektor) der Gerade. Der Rich-
tungsvektor ist dann
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v = ⎣2⎦ − ⎣1⎦ = ⎣1⎦ .
3 1 2
⎧ 8 ⎡ ⎤ ⎡ ⎤ ⎫
⎪ 8 1 0 ⎪
⎨ 8 ⎬
8 ⎢ ⎥ ⎢ ⎥
Daraus folgt g = x ∈ R3 8 x = ⎣1⎦ + t ⎣1⎦ , t ∈ R . %
⎪
⎩ 8 ⎪
⎭
8 1 2
a1 x1 + a2 x2 − b = 0 (A.9)
> Bemerkung
Geometrisch ist n = [a1 , a2 ]T die Normale (oder Normalenvektor) zur Geraden g. Denn
ein Punkt x = [x1 , x2 ]T liegt genau dann auf der Geraden g (durch x0 und mit der
Normale n), wenn
n · (x − x0 ) = 0. (A.10)
a1 x1 + a2 x2 − b = 0 mit b = n · x0 , (A.11)
Übung A.9
◦ ◦ ◦ Eine Gerade g durch den Punkt x0 = [0, 1]T hat den Normalenvektor n = [2, 3]T .
Man gebe die implizite Darstellung der Geraden an.
v Lösung
Mit x0 = [0, 1]T und n = [2, 3]T erhalten wir
@ A W@ A @ AX
2 x1 0
n · (x − x0 ) = 0 ⇒ · − = 2x1 + 3x2 − 3 = 0.
3 x2 1 %
652 Anhang A Analytische Geometrie
A.3 Ebenen im R3
Wie für Geraden kann man auch Ebenen in R3 auf mindestens zwei Arten beschrei-
ben (. Abb. A.5): (1) Parameterform oder (2) implizite Darstellung.
A.3.1 Parameterform
# Definition A.8 (Parameterform einer Ebene in R3 )
Die Gleichung
beschreibt die Ebene E, welche durch x0 geht und durch die zwei nicht parallelen (linear
unabhängigen) Vektoren v1 und v2 aufgespannt wird. $
Gl. (A.12) heißt Ebenengleichung in Parameterform. Die zwei Parameter sind t und s.
Wenn wir diese Parameter variieren, bewegen wir uns innerhalb der Ebene. x0 heißt
Stützvektor. v1 und v2 heißen Spannvektoren (oder Erzeugendessystem). Oft hat die
Lösung eines LGS diese Form.
Übung A.10
◦ ◦ ◦ Man bestimme die Parameterform der Ebene E, welche die Punkte [1, 0, 0]T ,
[1, 1, 1]T und [2, 1, 2]T beinhaltet.
v Lösung
Wir wählen x0 = [1, 0, 0]T als Ausgangspunkt (Stützvektor). Wir bilden die Spann-
vektoren v1 und v2 :
a b
. Abb. A.5 (a) Parameterform und (b) implizite Darstellung einer Ebene E. In der Parameterform werden
Stützvektor x0 und zwei Spannvektoren v1 , v2 angegeben. Bei der impliziten Darstellung wird statt den
Spannvektoren die Normale n angegeben
Anhang A Analytische Geometrie
653 A
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 2 1 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎣1⎦ − ⎣0⎦ = ⎣1⎦ , v2 = ⎣1⎦ − ⎣0⎦ = ⎣1⎦ .
1 0 1 2 0 2
⎧ 8 ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ 8 1 0 1 ⎪
⎨ 8 ⎬
8 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Daraus folgt E = x ∈ R3 8 x = ⎣0⎦ + t ⎣1⎦ + s ⎣1⎦ , t, s, ∈ R in Parameter-
⎪
⎩ 8 ⎪
⎭
8 0 1 2
form. %
a1 x1 + a2 x2 + a3 x3 − b = 0 (A.13)
> Bemerkung
Die geometrische Interpretation der Koordinatenform (A.13) ist die folgende: Sind v1
und v2 die Spannvektoren von E, so ist der Vektor
n = v1 × v2 (A.14)
normal zu E. n heißt die Normale zu E. Ein Punkt x liegt genau dann in der Ebene E,
wenn der Ortsvektor x − x0 normal zu n ist, d. h.
n · (x − x0 ) = 0. (A.15)
a1 x1 + a2 x2 + a3 x3 − b = 0. (A.16)
Übung A.11
• ◦ ◦ Man bestimme die Koordinatenform der Ebene E, welche durch die Punkte
[1, 0, 0]T , [1, 1, 1]T und [2, 1, 2]T läuft.
654 Anhang A Analytische Geometrie
v Lösung
1. Möglichkeit: Aus Übung A.10 kennen wir die Parameterform von E:
⎧ 8 ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ 8 1 0 1 ⎪
⎨ 8 ⎬
8 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E = x ∈ R3 8 x = ⎣0⎦ + t ⎣1⎦ + s ⎣1⎦ , t, s, ∈ R
⎪
⎩ 8 ⎪
⎭
8 0 1 2
Das LGS hat 3 Gleichungen mit 4 Unbekannten. Wir setzen b = t als freien Parameter.
Aus der dritten Gleichung folgt dann a3 = −b = −t. Einsetzen in der zweiten
Gleichung liefert a2 = −a3 = t. Ferner, aus der ersten Gleichung erhalten wir
a1 = b = t. Schlussendlich ergibt dies:
t x1 + t x2 − t x3 − t = 0 ⇒ x1 + x2 − x3 − 1 = 0. %
Anhang A Analytische Geometrie
655 A
Übung A.12
◦ ◦ ◦ Man bestimme die Parameterform der Ebene E mit der Gleichung x1 + 3x2 −
2x3 − 5 = 0 (Parameterform).
v Lösung
Die Ebene E definiert eine Gleichung mit 3 Unbekanntenn:
x1 + 3x2 − 2x3 − 5 = 0.
Die Komponenten von n sind genau die Koeffizienten von x1 , x2 , und x3 in der
Gleichung der Ebene E. %
Die Lösungsmenge eines LGS beschreibt oft eine Gerade oder eine Ebene im Raum.
Übung A.13
• ◦ ◦ Man beschreibe die Lösung des folgenden LGS geometrisch:
⎧
⎨x − 2x = 1
1 2
⎩2x + 2x = 0
1 2
v Lösung
⎧ @ A
⎨x − 2x = 1
1 2 1 −2 1
! [A|b] = .
⎩2x + 2x = 0
1 2 2 2 1
@ A @ A @ A @ A
2
1 −2 1 (Z2 ) − 2(Z1 ) 1 −2 1 x
! = Z ⇒ x = 1 = 31 .
2 2 1 0 6 −1 x2 −6
Die zwei Gleichungen des LGS, x1 − 2x2 = 1 und 2x1 + 2x2 = 0 beschreiben zwei
Geraden welche sich im Punkt [ 23 , − 16 ] schneiden. %
Übung A.14
• ◦ ◦ Man beschreibe die Lösung des folgenden LGS geometrisch:
⎧
⎨x + 2x = 3
1 2
⎩2x + 4x = 6
1 2
v Lösung
⎧ @ A
⎨x + 2x = 3
1 2 123
! [A|b] = .
⎩2x + 4x = 6
1 2 246
In diesem Fall hat das LGS unendlich viele Lösungen. Eine Variable ist frei wählbar.
Wir setzen x2 = t. Daraus folgt x1 = 3 − 2x2 = 3 − 2t. Die Lösungsmenge
:8@ A @ A @ A Y
8 x
8 1 3 −2
2
L= x∈R 8 = +t , t∈R
8 x2 0 1
ist somit eine Gerade. In der Tat, die zwei Gleichungen des LGS, x1 + 2x2 = 3 und
2x1 + 4x2 = 6 beschreiben dieselbe Gerade in R2 . %
Übung A.15
• ◦ ◦ Man interpretiere die Lösung des folgenden LGS geometrisch:
⎧
⎨x − 2x = 1
1 2
⎩x − 2x = −2
1 2
v Lösung
⎧ @ A
⎨x − 2x = 1
1 2 1 −2 1
! [A|b] = .
⎩x − 2x = −2
1 2 1 −2 −2
Anhang A Analytische Geometrie
657 A
Um das LGS zu lösen, nutzen wir den Gauß-Algorithmus:
@ A @ A
1 −2 1 (Z2 ) − (Z1 ) 1 −2 1
! = Z.
1 −2 −2 0 0 3
Das LGS hat keine Lösung. In der Tat, die zwei Gleichungen des LGS, x1 − 2x2 = 1
und x1 − 2x2 = −2 sind zwei disjunkte parallele Geraden im R2 . %
Übung A.16
• ◦ ◦ Man beschreibe die Lösung des folgenden LGS geometrisch:
⎧
⎨x + x + x = 1
1 2 3
⎩x + 2x + 2x = 1
1 2 3
v Lösung
⎧ @ A
⎨x + x + x = 1
1 2 3 1111
! [A|b] = .
⎩x + 2x + 2x = 1
1 2 3 1221
Man erhält zwei Gleichungen in drei Unbekannten. Wir setzen x3 = t als freien
Parameter. Daraus folgt x2 = 2 − x3 = 2 − t und x1 = 1 − x2 − x3 = −1. Die
Lösungsmenge
⎧ 8⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ 8 x −1 0 ⎪
⎨ 8 1 ⎬
8⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = x ∈ R3 8 ⎣x2 ⎦ = ⎣ 2 ⎦ + t ⎣−1⎦ , t ∈ R
⎪
⎩ 8 ⎪
⎭
8 x3 0 0
In diesem Anhang wollen wir kompakt die wichtigsten Tatsachen über Mengen,
Gruppen, Körper festhalten, ohne grosse mathematische Strenge.
B.1 Mengen
Eine Menge X ist eine Ansammlung von Elementen. Bekannte Beispiele von Mengen
sind (. Abb. B.1):
5 N = {0, 1, 2, 3, · · · } = natürliche Zahlen;
5 N∗ = {1, 2, 3, · · · } = natürliche Zahlen ohne Null;
5 Z = {· · · , −3, −2, −1, 0, 1, 2, 3, · · · } = ganze Zahlen;
5 Zp = ganze Zahlen modulo p;
5 Q = rationale Zahlen;
5 R = reelle Zahlen;
5 C = komplexe Zahlen;
5 ∅ = { } = leere Menge.
X =Y ⇔ X ⊂ Y und Y ⊂ X . (B.1)
Praxistipp
Nützlicher Trick beim Beweisen. Die obige Definition (B.1) wendet man oft an, um
Mengengleichheit in der Praxis zu zeigen. Will man beweisen, dass zwei Mengen X und
Y gleich sind, so zeigt man konkret, dass X ⊂ Y und Y ⊂ X gilt. Um X ⊂ Y zu
zeigen, geht man wie folgt vor: Man wählt ein beliebiges Element x ∈ X aus und zeigt,
dass x auch in Y enthalten ist (d. h. x ∈ Y ). Analog zeigt man Y ⊂ X .
X1 × · · · × Xn := {(x1 , · · · , xn ) | xi ∈ Xi , i = 1, · · · , n}.
X n := X × X × · · · × X .
3 45 6
n Mal
# Beispiel
Rn = R × · · · × R = Vektoren mit Komponenten aus R. $
3 45 6
n Mal
# Beispiel
Cn = C × · · · × C = Vektoren mit Komponenten aus C. $
3 45 6
n Mal
# Beispiel
(Z2 )n = Z2 × · · · × Z2 = Vektoren mit Komponenten aus Z2 . $
3 45 6
n Mal
X ∪ Y := {z | z ∈ X oder z ∈ Y } Vereinigung
X ∩ Y := {z | z ∈ X und z ∈ Y } Durchschnitt
X \ Y := {z | z ∈ X und z ∈
/ Y} Differenz
B.1.4 Äquivalenzrelationen
Sei X eine beliebige Menge. Eine Beziehung (Relation) „∼“ zwischen Elementen der
Menge X heißt Äquivalenzrelation, falls die folgenden Eigenschaften erfüllt sind:
1) ∀x ∈ X : x ∼ x (Reflexivität)
2) ∀x, y ∈ X : x ∼ y =⇒ y ∼ x (Symmetrie)
3) ∀x, y, z ∈ X : x ∼ y und y ∼ z =⇒ x ∼ z (Transitivität)
660 Anhang B Mengen, Gruppen und Körper
Der Ausdruck x ∼ y wird stets „x ist äquivalent zu y“ gelesen und falls x ∼ y gilt, so
nennt man x und y äquivalent (bezüglich der Äquivalenzrelation ∼).
Äquivalenzklassen
Sei nun ∼ eine Äquivalenzrelation auf X und x ∈ X ein beliebiges Element von X .
Die Menge aller Elemente y ∈ X , welche äquivalent zu x sind, bildet die sogenannte
Äquivalenzklasse von x, welche geschrieben wird als
[x] := {y ∈ X | x ∼ y}.
Falls y ∈ [x], so sind natürlich die von x und y erzeugten Äquivalenzklassen identisch,
weil nach der Transitivität alle Elemente von X , die äquivalent zu x sind, auch
äquivalent zu y sind, und umgekehrt. Mit anderen Worten
Da alle Elemente einer Äquivalenzklasse zueinander äquivalent sind, kann man als
Repräsentanten der Äquivalenzklasse jedes beliebige Element auswählen. Die Menge,
bestehend aus allen unterschiedlichen Äquivalenzklassen (jede wird nur einmal ge-
zählt), bezeichnet man mit
B.2 Gruppen
# Definition B.10 (Gruppe)
Eine Gruppe (G,o,e) (oder Kurz (G,o)) ist eine Menge G versehen mit einer Operation “◦”
◦ : G × G → G, (a, b) → a ◦ b
und einem neutralen Element e, sodass die folgenden drei Axiome erfüllt sind:
(G1) ∀a, b, c ∈ G gilt: a ◦ (b ◦ c) = (a ◦ b) ◦ c (Assoziativität);
(G2) ∀a ∈ G gilt e ◦ a = a (neutrales Element);
(G3) zu jedem Element a ∈ G gibt es ein eindeutig bestimmtes Element a′ ∈ G sodass
a′ ◦ a = e gilt (linksinverses Element). $
> Bemerkung
Ist ◦ = + (Addition), so nennt man G eine additive Gruppe. Ist ◦ = · (Multiplikation),
so nennt man G eine multiplikative Gruppe.
# Beispiel
Bekannte Beispiele von Gruppen sind (N, +, 0), (R, +, 0) und (R, ·, 1). $
Anhang B Mengen, Gruppen und Körper
661 B
B.2.1 Abelsche Gruppen
∀a, b ∈ G : a ◦ b = b ◦ a (Kommutativität)
# Beispiel
Zum Beispiel: (N, +, 0), (R, +, 0) und (R, ·, 1) sind abelsch. $
B.3 Körper
B.3.1 Definition
# Definition B.11 (Körper)
Ein Körper (K, +, ·) ist eine Menge K versehen mit einer Addition “+”
+ : K × K → K, (a, b) → a + b
· : K × K → K, (a, b) → a · b,
# Beispiel
Bekannte Beispiele von Körpern sind:
5 K = R (mit der üblichen Addition und Multiplikation von reellen Zahlen);
5 K = C (mit der üblichen Addition und Multiplikation von komplexen Zahlen);
5 K = Q (mit der üblichen Addition und Multiplikation von rationalen Zahlen);
5 Der Primkörper Zp , wobei p eine Primzahl ist. $
662 Anhang B Mengen, Gruppen und Körper
Es sei K ein Körper. Die Charakteristik von K ist die kleinste natürliche Zahl n ∈
N∗ = {1, 2, · · · } für welche n · 1 = 0 gilt. Mathematisch:
# Beispiel
Char(R) = 0, Char(C) = 0, Char(Q) = 0. $
# Beispiel
Ist p eine Primzahl, so ist Char(Zp ) = p. $
b = a + k p. (B.2)
# Beispiel
6 = 1 (mod 5), weil 6 = 1 + 1 · 5. $
# Beispiel
17 = 1 (mod 2), weil 17 = 1 + 8 · 2. $
# Beispiel
Für p = 2 ist Z2 der Körper der binären Zahlen Z2 = {0, 1} (auch Z2 = {0̄, 1̄} geschrieben)
mit den Operationen
+01 · 01
0 01 000
1 10 101
Z · · · −3 −2 −1 0 1 2 3 4 5 6 7 · · ·
$
Z2 · · · 1 0 1 0 1 0 1 0 1 0 1 · · ·
# Beispiel
Für p = 3 ist Z3 = {0, 1, 2} (auch Z3 = {0̄, 1̄, 2̄} geschrieben) mit den Operationen
+ 0 1 2 · 0 1 2
0 0 1 2 0 0 0 0
1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1
Z · · · −3 −2 −1 0 1 2 3 4 5 6 7 8 · · ·
$
Z3 · · · 0 1 2 0 1 2 0 1 2 0 1 2 · · ·
# Beispiel
Für p = 5 ist Z5 = {0, 1, 2, 3, 4} mit den Operationen
+ 0 1 2 3 4 · 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1
Z5 graphisch interpretiert:
Z · · · −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 8 9 · · ·
$
Z5 · · · 0 1 2 3 4 0 1 2 3 4 0 1 2 3 4 · · ·
664 Anhang B Mengen, Gruppen und Körper
Gleichungen über Zp
Wir lösen die Gleichung 11x + 6 = 5 über K = R, Z2 und Z5 .
5 Über K = R gilt: 11x + 6 = 5 ⇒ 11x = −1 ⇒ x = −1/11.
5 Über K = Z2 gilt: 11 = 1, 6 = 0 und 5 = 1. Daraus folgt x + 0 = 1 ⇒ x = 1.
5 Über K = Z5 gilt: 11 = 1, 6 = 1 und 5 = 0. Daraus folgt x+1 = 0 ⇒ x = −1 = 4.
Anhang C Die komplexen Zahlen
665 C
In diesem Anhang wollen wir konzentriert die wichtigsten Tatsachen über komplexen
Zahlen festhalten.
In der kartesischen Form wird die komplexe Zahl z ∈ C durch ihre (reellen)
Koordinaten x und y in der komplexen Ebene (Gausschen Zahlenebene) identifiziert
z = x + iy. (C.1)
Die x-Koordinate ist der Realteil von z, während y der Imaginärteil von z ist:
In der polaren bzw. trigonometrischen Darstellung wird die komplexe Zahl z durch
dem Betrag |z| = r und dem Argument Arg(z) = ϕ bestimmt. Der Betrag von z ist
der Abstand des Punktes z vom Ursprung (in der Gauß’schen Zahlenebene). Das
Argument von z ist der Winkel ϕ zwischen z und der positiven reellen Achse (der
Winkel hat positive Werte, wenn ϕ im Gegenuhrzeigersinn gemessen wird). Auf diese
Weise können wir schreiben:
wobei
Z
r = |z| = x2 + y2 = Betrag von z, (C.5)
#y$
ϕ = Arg(z) = arctan = Argument von z. (C.6)
x
Beachte: In der polaren bzw. trigonometrischen Darstellung von z gibt es eine gewisse
Freiheit für die Wahl von ϕ. Denn der Winkel ϕ ist nur Modulo 2π eindeutig, d. h., wir
können ein beliebiges Vielfaches von 2π (was eine volle Umdrehung in der komplexen
Ebene entspricht) zu ϕ addieren, ohne z zu ändern. Normalerweise werden Werte von
ϕ zwischen 0 und 2π gewählt.
können wir die komplexe Zahl z in Euler’schen Form (oder Exponentialform) darstel-
len:
z = reiϕ . (C.8)
In der Praxis wählt man das Argument aus einem bestimmten Intervall, z. B. ϕ ∈
(−π, π]. Dies wird bei der Definition des Hauptzweiges des Logarithmus oder der
Wurzel wichtig sein.
Übung C.17
◦ ◦ ◦ Man stelle die folgenden komplexen Zahlen in der komplexen Ebene dar: a) z1 =
3π
1 + i, b) z2 = 2ei 4 .
v Lösung
a) Die komplexe Zahl z1 = 1 + i hat die Euler’sche Darstellung
D E
H √ 1 π √ π
r= 12 + 12 = 2, ϕ = arctan = ⇒ z1 = 1 + i = 2ei 4 .
1 4
√
1 + i hat somit den Abstand 2 vom Ursprung und bildet den Winkel π/4 = 45◦
mit der reellen Achse.
3π
b) Die komplexe Zahl z2 = 2ei 4 ist bereits in Exponentialform. Der Betrag von w ist
2 und der Winkel mit der reellen Achse ist 3π/4 = 135◦ (. Abb. C.3). %
C.2.1 Summe
Das Addieren zweier komplexer Zahlen ist einfach: Die Realteile und die Imaginär-
teile werden separat addiert. Für z1 = x1 + iy1 und z2 = x2 + iy2 gilt
Daher wird die Summe von komplexen Zahlen am einfachsten in der kartesischen
Form durchgeführt. In der komplexen Ebene kann man die Summe von z1 und z2 als
die Summe der entsprechenden „Ortsvektoren“ interpretieren (. Abb. C.4).
Übung C.18
3π
◦ ◦ ◦ Man berechne z1 + z2 für z1 = 1 + i und z2 = 2ei 4 .
v Lösung
Die komplexe Zahl z1 = 1 + i ist bereits in kartesischen Form. Die komplexe Zahl
3π
z2 = 2ei 4 schreiben wir in kartesicher Form
D E D E √
3π √ 3π √ √
x2 = 2 cos = − 2, y2 = 2 sin = 2 ⇒ z2 = − 2 + i 2.
4 4
3 45 6 3 45 6
=− √1 = √1
2 2
(zu C.2.2) %
Für eine komplexe Zahl z = x + iy = r eiϕ , ist die konjugiert komplexe Zahl definiert
durch
z̄ = x − iy = r e−iϕ . (C.13)
Die komplexe Konjugation entspricht der Spiegelung von z an der reellen Achse
(Winkel ϕ wird zu −ϕ) (siehe . Abb. C.5).
> Bemerkung
Beachte, dass man Re(z) und Im(z) mithilfe der komplexen Konjugation auch wie folgt
schreiben kann:
z+z z−z
Re(z) = , Im(z) = . (C.14)
2 2i
C.2.3 Produkt
Kartesische Darstellung
In kartesischer Form bestimmt man das Produkt von zwei komplexen Zahlen z1 =
x1 + iy1 und z2 = x2 + iy2 mithilfe der Formel i2 = −1
> Bemerkung
Beachte:
Euler’sche Form
Die geometrische Interpretation des Produkts wird einleuchtender, wenn die kom-
plexen Zahlen in der Euler’schen Form dargestellt werden. Für z1 = r1 eiϕ1 mit
z2 = r2 eiϕ2 gilt:
Übung C.19
◦ ◦ ◦ Man berechne z1 z2 für: √ π
π
a) z1 = 1 + i und z2 = 1 − 2i, b) z1 = 2 ei 2 und z2 = 2 ei 3 .
v Lösung
a) Es gilt: z1 z2 = (1 + i)(1 − 2i) = 1 + 2 + i − 2i = 3 − i.
π π 5π
b) Es gilt: z1 z2 = 23/2 ei( 2 + 3 ) = 23/2 ei 6 . %
C.2.4 Division
Kartesische Darstellung
Mithilfe der Formel z z = |z|2 können wir immer eine Division elegant in ein Produkt
umwandeln
z1 z1 z2 z1 z2
= = . (C.18)
z2 z2 z2 |z2 |2
Euler’sche Darstellung
In der Euler’schen Darstellung ist die Division von z1 = r1 eiϕ1 mit z2 = r2 eiϕ2 sehr
einfach:
z1 r1
= ei(ϕ1 −ϕ2 ) . (C.19)
z2 r2
Anhang C Die komplexen Zahlen
671 C
Übung C.20
◦ ◦ ◦ Man berechne z1 /z2 für:
a) z1 = 1 + i und z2 = 1√− i,
π π
b) z1 = 2 ei 2 und z2 = 2 ei 3 .
v Lösung
z1 1+i (1+i) (1+i) (1+i)(1+i) 1−1+i+i
a) Es gilt: z2 = 1−i = (1−i) (1+i) = 12 +12
= 2 = i.
z1 iπ
2e 2
√ i( π
− π3
√ i π6
b) Es gilt: = √ iπ = 2e 2 )= 2e . %
z2 2e 3
C.2.5 Potenz
Wie wir gesehen haben, ist die Euler’sche Form besonders praktisch, wenn wir
Produkte oder Quotienten berechnen müssen. Beispielsweise erfolgt die Berechnung
des Quadrats einer komplexen Zahl z = r eiϕ elegant auf folgende Weise
z2 = r2 e2iϕ . (C.20)
In der komplexen Ebene entspricht die zweite Potenz z2 einer Verdopplung des Ar-
gumentes von z. Im Allgemeinen ist die n-te Potenz von z = r eiϕ gleich (. Abb. C.7)
zn = rn ei nϕ . (C.21)
Übung C.21
◦ ◦ ◦ Man schreibe die folgenden komplexen Zahlen in kartesischer Form, d. h. in der
Form z = x + iy:
a) (1 + i)8
b) (2 + 3i)3
# $80
c) 1+i√
2
d) (1 + 2i)720 .
v Lösung
a) Es ist viel einfacher, die Potenz einer komplexen Zahl zu bestimmen, wenn diese
Zahl in der Euler’schen Form vorliegt. Also bringen wir die Zahl die Zahl z = 1 + i
in die Eulerform.
√ D E
√ 1 π
Betrag: r = |1+i| = 1 + 1 = 2, Argument: ϕ = arctan = arctan(1) =
1 4
√ π
Mit z = 1 + i = 2ei 4 . Daher wird:
!√ π "8 π
(1 + i)8 = 2ei 4 = 24 ei 4 ·8 = 24 e4π i = 26 = 16.
b) In diesem Fall ist es ist schneller, die Potenz mittels 3. Binom zu bestimmen (es ist
nur eine dritte Potenz!):
1+i
c) Wir schreiben zuerst die Zahl z = √ in Exponentialform
2
8 8 [ D E
81 + i8 1 1 1 π
Betrag: r = 88 √ 88 = + = 1, Argument: ϕ = arctan = arctan(1) = .
2 2 2 1 4
1+i π
Somit z = √ = ei 4 . Wir erhalten
2
D E80
1+i π
√ = e80i 4 = e40πi = 1.
2
Also
√
z = 1 + 2i = 5 ei arctan(2) .
%
z720 = 5360 e720i arctan(2) .
Übung C.22
π
◦ ◦ ◦ Man berechne zn , n = 2, 3, 4, 5, 6 für z = 2 ei 3 .
Anhang C Die komplexen Zahlen
673 C
v Lösung
Es gilt:
π 2π 3π
z = 2 ei 3 z2 = 4 ei 3 z3 = 8 ei 3 = 8 eiπ = −8
4π 5π 6π
z4 = 16 ei 3 z5 = 32 ei 3 z6 = 64 ei 3 = 64 e2πi = 64. %
> Bemerkung
Anhand der letzten Beispiele sieht man, dass bei Potenzen z, z2 , z3 , · · · , zn , · · · einer
komplexen Zahl z die entsprechenden „Ortsvektoren“ um den Ursprung „gedreht“
werden. Wenn außerdem r > 1, dann bewegen sich die Potenzen nach „aussen“ (Betrag
wächst mit n). Ist r = 1, so bleiben die Potenzen auf dem Einheitskreis. Schließlich,
wenn r < 1, nähern sich die Potenzen dem Ursprung. Man spricht von:
5 r > 1 ⇒ Drehstreckung
5 r = 1 ⇒ Drehung
5 r > 1 ⇒ Drehschrumpfung
Auf C hat die Gleichung wn = z genau n Lösungen. Diese sind die n Wurzeln von z:
7 # $8 9
√ H i ϕ 2π k
n+ n
8
n
z := n
|z| e 8 k = 0, 1, · · · , n − 1 . (C.22)
8
In der komplexen Ebene liegen die n Wurzeln von z an den Eckpunkten eines
regelmäßigen n-Polygons oder n-Ecks.
> Bemerkung
√
Beachte, dass n
z eine Menge ist (mit n Elementen).
Übung C.23 √ √ √
3 4 6
◦ ◦ ◦ Man berechne: a) 1, b) −1, c) 1.
v Lösung
a) Wegen 1 = e0 ist
√
3 2π ki
1 = {e 3 | k = 0, 1, 2}
1+i
k=0: e0 = √
2
√
2π −1 + 3 i
k=1: ei 3 =
2
674 Anhang C Die komplexen Zahlen
√
4π −1 − 3 i
k=2: ei 3 =
2
Daraus folgt:
√ π 2πki
−1 = {ei 4 +
4
4 | k = 0, 1, 2, 3}.
π 1+i
k=0: ei 4 = √
2
π −1 + i
k=1: e3i 4 = √
2
π −1 − i
k=2: e5i 4 = √
2
π 1−i
k=3: e7i 4 = √ .
2
c) Wegen 1 = e0 ist
√
6 2πki
1 = {e 6 | k = 0, 1, 2, 3, 4, 5}.
Die 6 Wurzeln von z = 1 liegen auf den Ecken des regelmäßigen 6-Ecks
(. Abb. C.8–C.10). %
Anhang C Die komplexen Zahlen
675 C
. Abb. C.8 Übung C.23(a) a
Viele Probleme der Mathematik haben mit der Lösbarkeit von Gleichungen n-ter
Ordnung zu tun:
a0 + a1 z + a2 z2 + · · · + an zn = 0. (C.23)
Diese Frage ist äquivalent zur Bestimmung der Nullstellen des Polynoms
n
S
p(z) = a0 + a1 z + a2 z2 + · · · + an zn = a i zi . (C.24)
i=0
Aus dem Gymnasium wissen wir bereits, dass über R solche Gleichungen (C.24)
höchstens n Lösungen besitzen. In manchen Situationen gibt es sogar keine Lösung!
Insbesondere:
676 Anhang C Die komplexen Zahlen
5 Ist n ungerade, so hat die Gleichung mindestens eine reelle Lösung. Zum Beispiel,
das Polynom p(z) = z3 − 1 kann man wie folgt schreiben: p(z) = (z − 1)(z2 + z + 1).
Es gibt nur eine reelle Nullstelle λ = 1 (die anderen zwei Nullstellen sind komplex
2π 4π
ei 3 und ei 3 , genauer konjugiert komplex).
5 Ist n gerade, so kann die Gleichung über R unlösbar sein. Zum Beispiel, das
Polynom p(z) = z2 + 1 hat keine reelle Nullstellen (die Nullstellen sind komplex
±i).
Über C ist die Situation ganz anders: Alle Polynome vom Grad n ≥ 1 haben genau
n komplexe Nullstellen. Dies ist die Aussage des sogenannten Fundamentalsatzes der
Algebra.
Es sei p(z) ein Polynom vom Grad n ≥ 1 mit Koeffizienten aus dem Körper K. Eine
Nullstelle von p(z) ist eine Zahl λ ∈ K mit p(λ) = 0. Ist λ eine Nullstelle von p(z), so
lässt sich p(z) wie folgt schreiben
wobei q(z) ein Polynom vom Grad n−1 ist. Der Term (z−λ) nennt man Linearfaktor.
Im Sonderfall, dass p(z) genau n Nullstellen über K hat, kann man p(z) vollständig
in Linearfaktoren zerlegen:
> Bemerkung
Wir halten einen interessanten Fakt über komplexen Nullstellen fest: Ist λ eine kom-
plexe Nullstelle von p(z), so ist auch ihr komplex Konjugiertes λ̄ eine Nullstelle von
p(z).
Anhang C Die komplexen Zahlen
677 C
Algebraisch abgeschlossene Körper
Ein Körper K heißt algebraisch abgeschlossen, wenn jedes nicht konstantes Polynom
über K in Linearfaktoren zerfällt. Der Fundamentalsatz der Algebra besagt somit,
dass C algebraisch abgeschlossen ist.
Literaturverzeichnis
1. T. Bröcker, Lineare Algebra und Analytische Geometrie: Ein Lehrbuch für Physiker und Mathematiker.
Birkhäuser-Springer, 2013.
2. P. Gabriel, Matrizen, Geometrie, Lineare Algebra, Birkhäuser-Springer, 2013.
3. D. Wille, Repetitorium der Linearen Algebra Teil 1, Binomi, 1997.
4. M. Holz, D. Wille, Repetitorium der linearen Algebra Teil 2, Binomi, 1993.
5. K. Nipp, D. Stoffer, Lineare Algebra: eine Einführung für Ingenieure unter besonderer Berücksichtigung
numerischer Aspekte, vdf Hochschulverlag AG, 2002.
6. G. Strang, Lineare Algebra, Springer, 2003.
7. G.M. Gramlich, Lineare Algebra: Eine Einführung, Carl Hanser, 2014.
8. G. Fischer, Lernbuch lineare Algebra und analytische Geometrie, Vieweg+ Teubner, 2011.
9. A. Howard, R.C. Busby, Contemporary linear algebra, Wiley, 2003.
10. P. Furlan, Das gelbe Rechenbuch, Furlan, 1995.
11. K.F. Riley, M.P. Hobson, S.J. Bence, Mathematical Methods for Physics and Engineering, Cambridge
University Press, 2012.
12. H. Stoppel, B. Griese, Übungsbuch zur Linearen Algebra, Vieweg, 1998.
13. T. Arens, F. Hettlich, Ch. Karpfinger, U. Kockelkorn, K. Lichtenegger, H. Stachel, Mathematik, 2.
Aufl., Springer Spektrum, 2010.
14. T. Arens, F. Hettlich, Ch. Karpfinger, U. Kockelkorn, K. Lichtenegger, und H. Stachel, Arbeitsbuch
Mathematik, Springer Spektrum, 2010.
679
Stichwortverzeichnis
A E
Abgeschlossenheit 257 E 308
Addition 246 Ebene 59, 652
adj(A) 185 – Implizite Darstellung 653
Adjungierte 15 – Parameterform 652
Adjunkte Matrix 185 – Spannvektoren 652
Affiner Unterraum 259, 270 Eigenraum 488
– Parameterdarstellung 272 Eigenvektor 488
Ähnliche Matrizen 475 Eigenwert 488
Algebraische Vielfachheit 503 Elementare Zeilenoperationen 62
Antikommutator 24 Endomorphismus 372
Äquivalente Matrizen 474 End(V ) 373
Äquivalenzklasse 660 Erzeugendensystem 296
Äquivalenzrelation 659
Assoziativität 10, 12, 19
Automorphismus 372
F
Falksches Schema 17
B Formeln von Vieta 505
Fundamentalsatz der Algebra 675
Basis 307
Basiswechsel 350, 453
Bild 422
G
C Gauss-Algorithmus 63
– mit Pivotstrategie 225
C 665 Geometrische Vielfachheit 501
Charakteristik 662 Gerade 59, 650
Charakteristisches Polynom 502 – Implizite Darstellung 651
cof(A) 184 – Normale 651
Cramer’sche Regel 194 – Parameterform 650
– Richtungsvektor 650
– Stützvektor 650
D GL(n, K) 34
GL(n, R) 260
Darstellungsmatrix 379
Gruppe 660
det(A) 138
– Abelsch 661
Determinante 138
– allgemeine lineare Gruppe 34
– Gauß-Algorithmus 160
– orthogonale Gruppe 46
– Inverse Matrix 183
– unitäre Gruppe 49
Determinanten-Kriterium 325
Diagn (R) 260
Diagonalelemente 5
Dimension 6, 309 H
Dimensionsformel 423, 426
dim(V ) 309 Hn (C) 44
Direkte Summe 280 Homomorphismus 371, 372
Distributivität 12, 19 Hom(V , W ) 373
Durchschnitt 274 Hyperebene 59
680 Stichwortverzeichnis
– orthogonal 46 R
– Permutationsmatrix 222
– Produkt 16 Rang 106, 425
– quadratisch 7 Rang(A) 106
– Rang 106 Rang(F) 425
– reell 5 Rang-Kriterium 324
– regulär 33 Resolvente 525
– Rotationsmatrix 23, 47 ρ(A) 490
– schiefsymmetrisch 41 Rotation 408, 410, 416
– selbstadjungiert 44 Rouché-Capelli, Satz von 115, 123
– singulär 34
– skew symmetric 41
– Spektralradius 490
– Spektrum 490 S
– Subtraktion 9
⟨S⟩ 292
– symmetrisch 39
Sn 176
– Transformationsmatrix 350
Sarrus, Regel von 140
– Transponierte 13
σ (A) 490
– Treppenform 68
sign(σ ) 178
– unitär 49
Signum 178
– Zeilenstufenform 63
Skalar 11
– Zielmatrix 67
Skalarmultiplikation 11, 246
Matrixdarstellung
Skalarprodukt 644
– LGS 65
Skewn (K) 42
– Lineare Abbildung 379
Skewn (R) 260
Matrixeinträge 5
Spaltenvektor 8
Matrixelemente 5
Span 292
Matrixpolynom 27
Spannvektor 272
Matrizengleichungen 126
Spektralradius 490
Minoren 141
Spektrum 490
Möbius-Transformation 38
Spiegelung 408, 410, 416
Monomorphismus 372
Spur 31
Standardbasis 308
Streckungen 408, 410, 416
N Stützvektor 271
Summe 278
Nilpotenzgrad 53
Surjektivität 424
Normale 653
Symn (K) 39
Symn (R) 260
O Symmetrische Gruppe 176
On (K) 46
On (R) 260
Orthogonale Projektion 647
T
T B→C 350
τi,j 177
P Transformationsmatrix 350
Pauli-Matrizen 24, 45, 52 Transponierte 13
Permutation 174 Transposition 177
– Signum 178 Triviale Lösung 123
Permutationsmatrix 222
Pivotstrategie 226
Potenz 27 U
Primkörper 662
Produkt von Matrizen 16 Un (C) 49
Projektion 408, 410, 416 U ∩ W 274
682 Stichwortverzeichnis
W
V Wronski-Determinante 325
[v]B 316
Vandermonde Determinante 171 Z
Vektor
– Kreuzprodukt 648 Z 67
– Länge 644 z̄ 669
– Orthogonal 645 Zp 662
– Skalarprodukt 644 Zeilenstufenform 63
– Winkel 644 Zeilenvektor 8