0% fanden dieses Dokument nützlich (0 Abstimmungen)
1K Ansichten689 Seiten

Michaels

Hochgeladen von

xnmqxqtnbs
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
0% fanden dieses Dokument nützlich (0 Abstimmungen)
1K Ansichten689 Seiten

Michaels

Hochgeladen von

xnmqxqtnbs
Copyright
© © All Rights Reserved
Wir nehmen die Rechte an Inhalten ernst. Wenn Sie vermuten, dass dies Ihr Inhalt ist, beanspruchen Sie ihn hier.
Verfügbare Formate
Als PDF, TXT herunterladen oder online auf Scribd lesen
Sie sind auf Seite 1/ 689

Grundstudium Mathematik

Prüfungstraining

Thomas C. T. Michaels
Marcel Liechti

Prüfungstraining
Lineare Algebra
Band I:
Matrizen, Determinanten,
Lineare Gleichungssysteme,
Vektorräume, Lineare Abbildungen,
Eigenwerte und Eigenvektoren
Grundstudium Mathematik
Grundstudium Mathematik Prüfungstraining

Herausgegeben von
Thomas C. T. Michaels, Department of Physics and Astronomy,
University College London, London, UK
Marcel Liechti, Institut Mathematik-Coaching, Dübendorf,
Schweiz
Übung macht den Meister. Oder anders formuliert, zum Prüfungserfolg führen Üben, Lernen, Üben,
Trainieren.... Nur womit? Die Bände in der Reihe Grundstudium Mathematik Prüfungstraining
ergänzen ideal die gängigen Lehrbücher zum Bachelor-Studium Mathematik und die Mathematik-
Grundlagenvorlesungen für Ingenieur-, naturwissenschaftliche und wirtschaftswissenschaftliche
Studiengänge. Die Bücher folgen einem bewährten Konzept: Zum einen bieten sie eine Sammlung vieler
sorgfältig ausgewählter Aufgaben mit ausführlichen, gut verständlichen Lösungen und Beispielen. Aber
auch die Theorie kommt nicht zu kurz, der wesentliche Stoff wird kompakt wiederholt. Eine ideale
Kombination für die Prüfungsvorbereitung.

Weitere Bände in der Reihe: http://www.springer.com/series/5008


Thomas C. T. Michaels • Marcel Liechti

Prüfungstraining
Lineare Algebra
Band I: Matrizen, Determinanten, Lineare Gleichungssysteme,
Vektorräume, Lineare Abbildungen, Eigenwerte und
Eigenvektoren
Thomas C. T. Michaels Marcel Liechti
Department of Physics and Astronomy Institut Mathematik-Coaching
University College London Dübendorf, Schweiz
London, UK

ISSN 2504-3641 ISSN 2504-3668 (electronic)


Grundstudium Mathematik
ISBN 978-3-030-65885-4 ISBN 978-3-030-65886-1 (eBook)
https://doi.org/10.1007/978-3-030-65886-1

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie;


detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Birkhäuser
© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert an Springer Nature Switzerland AG
2022
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht
ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags.
Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in
diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur
Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte
des jeweiligen Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in
diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch
die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des
Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen
und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.

Planung/Lektorat: Sarah Annette Goob


Birkhäuser ist ein Imprint der eingetragenen Gesellschaft Springer Nature Switzerland AG und ist ein Teil
von Springer Nature.
Die Anschrift der Gesellschaft ist: Gewerbestrasse 11, 6330 Cham, Switzerland
V

Vorwort

Zu den vielen existierenden Büchern zur linearen Algebra gesellt sich hier ein weiteres,
aber sehr spezielles. Das vorliegende Buch soll vielen Studenten im Assessmentjahr
die lang ersehnte echte Hilfe zur effektiven Prüfungsvorbereitung liefern. Beim
Verfassen des Buches hatten die Autoren die folgenden Aspekte im Fokus:
5 Viele typische Aufgaben der linearen Algebra I, die sich rezeptartig und didak-
tisch transparent lösen lassen. Das Buch bietet eine Sammlung der wichtigsten
Lösungsrezepte und Tricks.
5 Eine übersichtliche Darstellung in Hauptthemen, die in ein oder zwei Semestern Li-
neare Algebra an Universitäten, Technischen Hochschulen oder Fachhochschulen
behandelt werden.
5 Eine Aufteilung des Stoffes in viele etwa gleich kurze Übungs- bzw. Lerneinheiten.
In jedem Kapitel werden die wichtigen Definitionen und Sätze kurz und einfach
zusammengefasst und diese Theorie wird anhand von ausführlich durchgerechne-
ten Musterbeispielen erklärt.
5 Zahlreiche Beispiele erklären die Theorie anschaulich und didaktisch transparent.
Sie untermauern das Anwenden der vorgeschlagenen „Kochrezepte“ durchge-
hend.
5 Ausführliche, verständliche Lösungsanleitungen mit verschiedenen Schwierig-
keitsgraden. Durch ◦ ◦ ◦ (leicht), • ◦ ◦, • • ◦, bis • • • (schwierig) wird ein
ungefährer Schwierigkeitsgrad der Aufgaben vorgeschlagen.
5 Es wurden bewusst Übungen gewählt, die sowohl für Studenten von anwen-
dungsorientierten Fachrichtungen wie für zukünftige Ingenieure, Wirtschafts-
wissenschafter, Naturwissenschafter, Informatiker als auch für theorieorientierte
Mathematiker und Physiker geeignet sind. Insbesondere befinden sich im Buch
zahlreiche Beweisaufgaben mit bekannten Tricks um die „Kunst“ des Beweisen
eintrainieren zu können.
5 Mittels 150 Multiple-Choice-Aufgaben, wie sie immer häufiger an Assessment-
Prüfungen aufzufinden sind, inklusive Lösungen, wird der erarbeitete Gesamt-
stoff nochmals repetiert und gefestigt.
5 Zu guter Letzt offerieren wir am Schluss, quasi als letzten Schliff, vier komplette
3- bis 4-stündige Musterprüfungen vom Schwierigkeitsgrad leichter • ◦ ◦ ◦ bis
schwierig • • • •; natürlich mit ausführlichen Lösungswegen!

Was darf man sich also vom vorliegenden Buch erwarten? Im Buch befinden sich
mehr als 600 prüfungsrelevante Übungen, alle ausführlich gelöst. Alle Lösungsschritte
werden akurat durchgerechnet und es gibt kein „trivial“ oder „man sieht leicht“.
Dieses Buch eignet sich also perfekt zum Trainieren und hilft zu verstehen, was
konkret hinter den abstrakten Definitionen und Sätzen der linearen Algebra steckt.
Es ist aus unserer Sicht das ideale Begleitbuch für jeden Studenten als Prüfungsvorbe-
reiter. Viele anspruchsvolle, weiterführende Themen und „härtere“ Beispiele wurden
bewusst in den Folgeband Prüfungstraining Lineare Algebra Band II ausgelagert.
Das Buch will ganz bewusst das ganze Spektrum von relativ elementaren bis
anspruchsvollen Beispielen abdecken. Unsere langjährige Erfahrung im Mathematik-
coaching an Hochschulen erlaubt uns, eine grobe Klassifizierung der Bearbeitungs-
VI Vorwort

gruppen vorzunehmen. Es ist uns klar, dass ein Wirtschaftsstudent nicht die gleichen
Anforderungen in lineare Algebra hat wie ein Physik- oder Mathematikstudent. Die
vorgeschlagene Tabelle ist als „Empfehlung“ zu verstehen, die jederzeit individuell
angepasst werden kann.

Wirtschaft, Architektur, Bauingenieur

Maschinenbau, Elektrotechnik

Naturwissenschaften

Mathematik, Physik
Lehramtsstudenten

Informatik
Teil I ••◦ ••◦ ••◦ ••• ••• •••
Teil II •◦◦ ••◦ ••◦ ••◦ ••◦ •••
Teil III •◦◦ ••◦ ••◦ ••◦ ••• •••
Beispiele in C – ••◦ ••◦ •◦◦ ••◦ •••
Beispiele in Pn (K) – •◦◦ ••◦ •◦◦ ••◦ •••

Ein Buch kann kaum alle Bedürfnisse gleichzeitig erfüllen: Es wird somit nicht auf
Exaktheit und Beweisvollständigkeit verzichtet. Wir haben überall dort, wo es uns
inhaltlich richtig erschien, Beweise in Form von Beispielen vollständig präsentiert.
Technische Beweise, welche nur lange Schreibarbeit erfordern, aber keinen wesentli-
chen Beitrag zum Verständnis beitragen, wurden bewusst weggelassen, wir verweisen
auf die umfangreiche entsprechende Literatur.
Wir wollen das Buch jetzt nicht weiter beschreiben: Sie haben es ja vor sich! Wir
sind überzeugt, dass Sie ein echtes Juwel in Ihren Händen tragen. Wir wünschen von
Herzen einen überzeugenden Prüfungserfolg und hoffentlich nimmt dieses Buch allen
Lesern die unnötige Angst, die sie möglicherweise vor der linearen Algebra haben!
Nicht vergessen wollen wir die vielen Studenten, die uns verschiedene gute Tipps und
Korrekturen mitgeteilt haben. Insbesondere die ETHZ-Mathematikstudenten Tanja
Kaister und Raphael Guido. Wir danken Claudia Flandoli (www.draw.science) für
die Herstellung aussagekräftiger Grafiken.
Thomas Michaels

Marcel Liechti
Mai 2021
VII

Inhaltsverzeichnis

I Grundlagen: Matrizen und lineare Gleichungssysteme


1 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1 Matrizen (Grundlagen) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1 Reelle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Matrizen auf beliebigen Körpern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.3 Die Menge Km×n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Wichtige Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Operationen auf und mit Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 Addition und Subtraktion von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 Skalarmultiplikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3 Transponierte Matrix AT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.4 Komplexe Konjugation A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.5 Adjungierte Matrix A* . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.6 Produkt von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.7 Blockmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.2.8 Potenzen von Matrizen und Matrixpolynome. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.2.9 Die Spur einer Matrix. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.3 Inverse Matrix und die Menge GL(n, K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.3.1 Singuläre Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.3.2 Die Menge GL(n, K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.3.3 Rechenregeln für inverse Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.4 Spezielle Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.4.1 Symmetrische Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.4.2 Schiefsymmetrische Matrizen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.4.3 Hermitesche oder selbstadjungierte Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.4.4 Orthogonale Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.4.5 Unitäre Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.4.6 Idempotente Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.4.7 Involutive Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
1.4.8 Nilpotente Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
1.4.9 Normale Matrizen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.1 Lineare Gleichungssysteme (LGS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.1.1 Lösungsmenge eines LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.1.2 LGS auf beliebigen Körpern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.1.3 Bestimmung der Lösungsmenge eines LGS durch elementare Zeilenoperationen . . . . . . . . . . . 61
2.2 Der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.2.1 Zeilenstufenform einer Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.2.2 Matrixdarstellung eines LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.2.3 Der konkrete Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.2.4 Kochrezept für Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
2.2.5 Weitere Beispiele zum Gauß-Algorithmus: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
VIII Inhaltsverzeichnis

2.2.6 Diskussion von LGS mit Parametern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88


2.2.7 LGS auf beliebigen Körpern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .101
2.2.8 Homogene und inhomogene LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .103
2.3 Rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .106
2.3.2 Berechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .107
2.3.3 Rang und LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .115
2.3.4 Homogene LGS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .123
2.4 Matrizengleichungen und inverse Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
2.4.1 Matrizengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .126
2.4.2 Bestimmung der inversen Matrix A-1 mithilfe des Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . .127

3 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
3.1 Definition und erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3.1.1 Determinante von (2 × 2)-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .138
3.1.2 Determinante von (3 × 3)-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .139
3.1.3 Determinante von (n × n)-Matrizen – Laplace-Entwicklung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .141
3.1.4 Rechenregeln für Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .145
3.1.5 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .146
3.2 Determinante und Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
3.3 Allgemeine Definition der Determinante – die Leibniz-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
3.3.1 Permutationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .174
3.3.2 Die Menge Sn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .176
3.3.3 Transpositionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .177
3.3.4 Darstellung von Parmutationen durch Transpositionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .177
3.3.5 Signum einer Permutation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .178
3.3.6 Leibniz-Formel für Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .179
3.4 Inverse Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
3.4.1 Invertierbarkeit und Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183
3.4.2 Inverse einer (2 × 2)-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .183
3.4.3 Inverse einer (n × n)-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .184
3.4.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .186
3.5 Cramer’sche Regel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
3.5.1 Homogene LGS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .199

4 LR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
4.1 LR-Zerlegung ohne Zeilenvertauschung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
4.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .202
4.1.2 Bestimmung der LR-Zerlegung (praktisch) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .203
4.1.3 Existenz und Eindeutigkeit der LR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .211
4.1.4 Lösung von LGS durch LR-Zerlegung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .217
4.2 LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
4.2.1 Permutationsmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .222
4.2.2 Eigenschaften von Permutationsmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .223
4.2.3 Gauß-Algorithmus mit Pivotstrategie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .225
4.2.4 LR-Zerlegung mit Zeilenvertauschung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .226
4.2.5 Lösung von LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .231
IX
Inhaltsverzeichnis

4.3 Zeilenvertauschung: ja oder nein? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234


4.3.1 Numerische Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .235
4.4 Komplexität der LR-Zerlegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238

II Vektorräume
5 Vektorräume und Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
5.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
5.1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .246
5.1.2 Beispiele von Vektorräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .247
5.2 Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
5.2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .257
5.2.2 Beispiele von Unterräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .259
5.2.3 Unterräume und LGS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .260
5.3 Affine Unterräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
5.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .270
5.3.2 Affine Unterräume und LGS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .271
5.3.3 Parameterdarstellung von affinen Unterräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .272
5.4 Operationen mit Unterräumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
5.4.1 Durchschnitt und Vereinigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .274
5.4.2 Summe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .278
5.4.3 Direkte Summe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .280

6 Vektorraumstruktur: Basis, Dimension und Koordinaten . . . . . . . . . . . . . . . . . . . . . . 287


6.1 Linearkombinationen, Span und Erzeugendensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
6.1.1 Linearkombinationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .289
6.1.2 Span . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .292
6.1.3 Erzeugendensysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .296
6.2 Lineare Abhängigkeit und Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297
6.3 Basis, Dimension und Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307
6.3.1 Basis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .307
6.3.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .309
6.3.3 Koordinaten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .316
6.3.4 Folgerung: Endlichdimensionale Vektorräume V sind isomorph zum Kn . . . . . . . . . . . . . . . . . . . . . . .322
6.4 Berechnungsmethoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323
6.4.1 Das Rangkriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .324
6.4.2 Das Determinantenkriterium . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .325
6.4.3 Lineare Unabhängigkeit von Abbildungen und die Wronski-Determinante . . . . . . . . . . . . . . . . . . . .325
6.4.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .327
6.5 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
6.5.1 Basiswechsel zwischen der Standardbasis E und einer anderen Basis B . . . . . . . . . . . . . . . . . . . . . . . .350
6.5.2 Basiswechsel zwischen zwei allgemeinen Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .353
6.5.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .356
X Inhaltsverzeichnis

III Lineare Abbildungen


7 Lineare Abbildungen I: Definition und Matrixdarstellung . . . . . . . . . . . . . . . . . . . . . 369
7.1 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
7.1.1 Definition einer linearen Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .370
7.1.2 Spezielle lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .372
7.1.3 Die Abbildungsräume Hom(V, W) und End(V) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .373
7.1.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .374
7.2 Matrixdarstellung von linearen Abbildungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
7.2.1 Einführendes Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .379
7.2.2 Die Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .380
7.2.3 Geometrische Interpretation linearer Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .386
7.2.4 Eigenschaften der Darstellungsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .388
7.2.5 Kochrezept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .390
7.2.6 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .391
7.3 Wichtige lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
7.3.1 Wichtige lineare Abbildungen R2 → R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .408
7.3.2 Wichtige lineare Abbildungen R3 → R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .410
7.3.3 Klassifikation von linearen Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .416

8 Lineare Abbildungen II: Kern, Bild und Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . 421


8.1 Kern und Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
8.1.1 Definition und Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .422
8.1.2 Dimensionsformel für lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .423
8.1.3 Injektivität, Surjektivität und Isomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .424
8.1.4 Rang einer linearen Abbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .425
8.1.5 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .428
8.2 Isomorphe Vektorräume. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446
8.2.1 Einführendes Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .446
8.2.2 Isomorphe Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .447
8.2.3 Endlichdimensionale Vektorräume sind isomorph zu Kn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .447
8.2.4 Hom(V, W) ist isomorph zu Km×n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .448
8.2.5 Kommutative Diagramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .448
8.3 Basiswechsel für lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
8.3.1 Konstruktion des Basiswechsels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .454
8.3.2 Basiswechsel für Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .455
8.3.3 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .457
8.4 Äquivalenz und Ähnlichkeit von Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474
8.4.1 Äquivalente Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .474
8.4.2 Ähnliche Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .475

9 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 487


9.1 Definition und erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 488
9.1.1 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .488
9.1.2 Eigenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .488
9.1.3 Geometrische Interpretation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .489
9.1.4 Spektrum und Spektralradius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .490
XI
Inhaltsverzeichnis

9.2 Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen . . . . . . . . . . . . . . . . . . 501


9.2.1 Bestimmung des Eigenraumes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .501
9.2.2 Bestimmung von Eigenwerten – das charakteristische Polynom . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .502
9.2.3 Kochrezept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .504
9.2.4 Weitere nützliche Eigenschaften und Tricks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .504
9.3 Eigenwerte und Eigenvektoren von Endomorphismen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 541
9.3.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .541
9.3.2 Zusammenhang mit Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .542

10 Prüfungstrainer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 549
10.1 Multiple-Choice-Fragen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550
10.2 Musterprüfung 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 574
10.3 Musterprüfung 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 577
10.4 Musterprüfung 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582
10.5 Musterprüfung 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587
10.6 Multiple-Choice Fragen – Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593
10.7 Musterprüfung 1 – Musterlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 615
10.8 Musterprüfung 2 – Musterlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 619
10.9 Musterprüfung 3 – Musterlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 625
10.10 Musterprüfung 4 – Musterlösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633

Serviceteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 643
Anhang A Analytische Geometrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 644
Anhang B Mengen, Gruppen und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 658
Anhang C Die komplexen Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 665
Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 678
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 679
1 I

Grundlagen:
Matrizen und lineare
Gleichungssysteme
Inhaltsverzeichnis

Kapitel 1 Matrizen – 3

Kapitel 2 Lineare Gleichungssysteme – 57

Kapitel 3 Determinanten – 137

Kapitel 4 LR-Zerlegung – 201


3 1

Matrizen
Inhaltsverzeichnis

1.1 Matrizen (Grundlagen) – 5


1.1.1 Reelle Matrizen – 5
1.1.2 Matrizen auf beliebigen Körpern – 6
1.1.3 Die Menge Km×n – 6
1.1.4 Wichtige Matrizen – 7

1.2 Operationen auf und mit Matrizen – 9


1.2.1 Addition und Subtraktion von Matrizen – 9
1.2.2 Skalarmultiplikation – 11
1.2.3 Transponierte Matrix AT – 13
1.2.4 Komplexe Konjugation A – 14
1.2.5 Adjungierte Matrix A* – 15
1.2.6 Produkt von Matrizen – 16
1.2.7 Blockmatrizen – 24
1.2.8 Potenzen von Matrizen und Matrixpolynome – 27
1.2.9 Die Spur einer Matrix – 31

1.3 Inverse Matrix und die Menge GL(n, K) – 33


1.3.1 Singuläre Matrizen – 34
1.3.2 Die Menge GL(n, K) – 34
1.3.3 Rechenregeln für inverse Matrizen – 34

1.4 Spezielle Matrizen – 39


1.4.1 Symmetrische Matrizen – 39
1.4.2 Schiefsymmetrische Matrizen – 41
1.4.3 Hermitesche oder selbstadjungierte Matrizen – 44
1.4.4 Orthogonale Matrizen – 46
1.4.5 Unitäre Matrizen – 49
1.4.6 Idempotente Matrizen – 50
1.4.7 Involutive Matrizen – 52

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_1
1.4.8 Nilpotente Matrizen – 53
1.4.9 Normale Matrizen – 55
1.1 • Matrizen (Grundlagen)
5 1
Bevor wir mit der eigentlichen linearen Algebra loslegen, wollen wir in diesem ersten
Kapitel kompakt, quasi als Vokabular, die wichtigsten Tatsachen über Matrizen
festhalten.

n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 1 sind Sie in der Lage:
5 Aufbau und Manipulation von Matrizen zu verstehen und zu erklären,
5 Eigenschaften von Matrizen wie Spur, Potenz, Transponierte, Adjungierte, Inverse,
etc. zu erklären und anzuwenden,
5 die wichtigsten Matrizentypen zu interpretieren und anzuwenden,
5 die wichtigsten Eigenschaften spezifischer Matrizen zu erklären und anzuwenden.

1.1 Matrizen (Grundlagen)

1.1.1 Reelle Matrizen

Eine reelle (m × n)-Matrix ist eine rechteckige Anordnung von reellen Zahlen in m
Zeilen und n Spalten. Eine beliebige reelle (m × n)-Matrix A sieht somit wie folgt aus:

⎡ ⎤⎫
a11 a12 · · · a1n ⎪ ⎪

⎢ a21 a22 · · · a2n ⎥⎪ ⎬
⎢ ⎥
A= ⎢ . . . . ⎥ m Zeilen (1.1)
⎣ .. .. . . .. ⎦⎪ ⎪


am1 am2 · · · amn ⎭
$ %& '
n Spalten

wobei die Zahlen aij ∈ R die Matrixelemente (auch Matrixeinträge) von A bezeich-
nen, kurz:

[A]ij = aij . (1.2)

Der erste Index i nummeriert die Zeilen von A, der zweite Index j die Spalten von A.
Das Matrixelement aij befindet sich somit an der Kreuzung der i-ten Zeile und j-ten
Spalte:
⎡ ⎤
..
⎢ . ⎥
⎢ ⎥
A = ⎢ · · · aij · · · ⎥ ← i-te Zeile (1.3)
⎣ ⎦
..
.

j -te Spalte

Die Matrixelemente aii (d. h. mit i = j) befinden sich auf der Hauptdiagonalen von
A und werden somit als Diagonalelemente bezeichnet.
6 Kapitel 1 • Matrizen

1.1.2 Matrizen auf beliebigen Körpern

Die Einträge einer Matrix A brauchen nicht immer reell zu sein. In der Tat kann man
beispielsweise auch komplexe Matrizen betrachten, deren Einträge komplexe Zahlen
sind. Im Allgemeinen kann man Matrizen auf beliebigen Körpern K definieren, wenn
die Matrixelemente zu K gehören.

> Bemerkung
In der Praxis finden wir oft K = R (reelle Matrizen), K = C (komplexe Matrizen),
K = Q (rationale Matrizen) oder K = Zp (Primkörper). Es ist wichtig, dass der Leser
sich mit den Rechenregeln auf solchen Körper vertraut macht (vgl. Übung 1.9 und
Anhang B.3).

1.1.3 Die Menge Km×n


! Definition 1.1
Die Menge aller (m × n)-Matrizen mit Einträgen aus K (wobei K = R, C, Q, usw.)
bezeichnet man mit

Km×n := {Alle (m × n)-Matrizen mit Einträgen aus K} (1.4)

"

! Beispiel
5 Rm×n = reelle Matrizen
5 Cm×n = komplexe Matrizen "

Dimension
Wir wollen nun kurz die Dimension von Km×n diskutieren. Wir werden den Begriff
der Dimension später in 7 Kap. 6 noch genauer definieren. Für die momentane
Betrachtung reicht es zu wissen, dass die Dimension einer Menge grundsätzlich die
Anzahl der freien Parameter ist, die man braucht, um diese Menge zu definieren. Um
eine reelle (m×n)-Matrix aufzustellen, muss man m·n reelle Zahlen angeben, d. h., eine
reelle (m × n)-Matrix hat m · n freie Parameter. Man sagt, dass die Menge aller reellen
(m × n)-Matrizen die Dimension m · n besitzt. Man schreibt dies:
/ 0
dim Rm×n = m · n. (1.5)

! Beispiel
dim(R2×2 ) = 4, dim(R3×3 ) = 9, usw. "

Für komplexwertige Matrizen muss man aufpassen:


5 Betrachtet man die Menge der komplexen (m × n)-Matrizen über R, so muss man
beachten, dass jede komplexe Zahl zwei freie Parameter hat: den Real- und den
1.1 • Matrizen (Grundlagen)
7 1
Imaginärteil. Daher benötigen wir für jeden Matrixeintrag zwei reelle Zahlen. Die
Dimension von Cm×n über R ist somit:
/ 0
dimR Cm×n = 2 m · n. (1.6)

5 Betrachtet man die komplexen (m×n)-Matrizen über C, so benötigen wir für jeden
Matrixeintrag eine komplexe Zahl. Daher ist die Dimension von Cm×n über C:
/ 0
dimC Cm×n = m · n. (1.7)

1.1.4 Wichtige Matrizen

Wir betrachten jetzt einige wichtige Beispiele von Matrizen.


5 Sind alle Elemente der Matrix A gleich Null (aij = 0 für alle i, j) so nennt man A
die Nullmatrix:
⎡ ⎤
0 0 ··· 0
⎢0 0 · · · 0⎥
⎢ ⎥
0 := ⎢ . . . . ⎥ . (1.8)
⎣ .. .. . . .. ⎦
0 0 ··· 0

5 Die Matrix
⎡ ⎤
1 0 ··· 0
⎢0 1 · · · 0⎥
⎢ ⎥
E := ⎢ . . . . ⎥ (1.9)
⎣ .. .. . . .. ⎦
0 0 ··· 1

heißt sinngemäß Einheitsmatrix (oder Identitätsmatrix). Die Einträge der Ein-


heitsmatrix sind wie folgt definiert:
1
1, i=j
[E]ij := δij = (1.10)
0, sonst

wobei δij das sogenannte Kronecker-Delta darstellt (nach dem Deutschen Mathe-
matiker Leopold Kronecker).
5 Eine Matrix A mit m = n (d. h. A hat die gleiche Anzahl Zeilen und Spalten) heißt
quadratisch:
⎡ ⎤
a11 a12 · · · a1n
⎢a21 a22 · · · a2n ⎥
⎢ ⎥
A=⎢ . .. . . .. ⎥ . (1.11)
⎣ .. . . . ⎦
an1 an2 · · · ann
8 Kapitel 1 • Matrizen

5 Eine Matrix mit aij = 0 für alle i < j heißt eine untere Dreiecksmatrix. Bei diesen
Matrizen sind alle Elemente über der Diagonalen gleich Null:
⎡ ⎤
a11 0 ··· 0
⎢a21 a22 ··· 0 ⎥
⎢ ⎥
A=⎢ . .. .. .. ⎥. (1.12)
⎣ .. . . . ⎦
an1 an2 · · · ann

5 Eine Matrix mit aij = 0 für alle i > j heißt eine obere Dreiecksmatrix. Mit anderen
Worten, alle Elemente unter der Diagonalen sind Null:
⎡ ⎤
a11 a12 · · · a1n
⎢ 0 a22 · · · a2n ⎥
⎢ ⎥
A=⎢ . .. . . .. ⎥ . (1.13)
⎣ .. . . . ⎦
0 0 · · · ann

5 Eine Matrix mit aij = 0 für alle i ̸= j heißt Diagonalmatrix. Bei diesen Matrizen
sind alle Elemente außer der Diagonalen gleich Null:
⎡ ⎤
a11 0 ··· 0
⎢ 0 a22 ··· 0 ⎥
⎢ ⎥
A=⎢ . .. .. .. ⎥ (1.14)
⎣ .. . . . ⎦
0 0 · · · ann

Notiert wird dies oft wie folgt:

A = diag[a11 , a22 , · · · , ann ]. (1.15)

5 Ein Zeilenvektor ist eine (1 × n)-Matrix, d. h. eine Matrix mit nur einer Zeile:
2 3
v = v1 v2 · · · vn . (1.16)

5 Ein Spaltenvektor ist eine (m × 1)-Matrix, d. h. eine Matrix mit nur einer Spalte:
⎡ ⎤
v1
⎢ v2 ⎥
⎢ ⎥
v = ⎢ . ⎥. (1.17)
⎣ .. ⎦
vm

5 Eine Blockdiagonalmatrix (oder Kästchenmatrix) ist eine Matrix in Diagonalge-


stalt, wobei die Diagonalelemente selbst Matrizen sind:
1.2 • Operationen auf und mit Matrizen
9 1
⎡ ⎤
A1 0 ··· 0
⎢ 0 A2 ··· 0 ⎥
⎢ ⎥
A = diag[A1 , A2 , · · · , Ap ] = ⎢ . .. .. .. ⎥. (1.18)
⎣ .. . . . ⎦
0 0 · · · Ap

Die Matrizen A1 , A2 , · · · , Ap sind die Blöcke von A. Zum Beispiel, die folgende
Matrix
⎡ ⎤
12300
⎢4 5 6 0 0⎥ 4 5
⎢ ⎥
⎢ ⎥ A1 0
⎢7 8 9 0 0⎥ =
⎢ ⎥ 0 A2
⎣0 0 0 1 2⎦
00003

ist eine Blockdiagonalmatrix mit (3 × 3)- und (2 × 2)-Blöcken. Man beachte, dass
eine Diagonalmatrix ein Spezialfall einer Blockdiagonalmatrix ist, welche nur aus
(1 × 1)-Blöcken besteht.

1.2 Operationen auf und mit Matrizen

Wir betrachten nun die wichtigsten Operationen bezüglich Matrizen.

1.2.1 Addition und Subtraktion von Matrizen

Für zwei Matrizen A, B ∈ Km×n , mit der gleichen Dimension, definiert man die
Summe oder Differenz A ± B ∈ Km×n wie folgt. Es seien aij und bij die Einträge
von A beziehungsweise B. Dann ist die Matrix A ± B durch

[A ± B]ij := aij ± bij (1.19)

definiert. Anders ausgedrückt, die Einträge von A und B werden einfach addiert oder
subtrahiert. Explizit:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 · · · a1n b11 · · · b1n a11 ± b11 · · · a1n ± b1n
⎢ .. . . . ⎥ ⎢ . .. . ⎥ ⎢ .. .. .. ⎥
⎣ . . .. ⎦ ± ⎣ .. . .. ⎦ = ⎣ . . . ⎦. (1.20)
am1 · · · amn bm1 · · · bmn am1 ± bm1 · · · amn ± bmn

! Beispiel
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−1 3 2 4 1 1 −1 + 4 3 + 1 2 + 1 3 4 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 4 0 1⎦ + ⎣3 2 −2⎦ = ⎣ 4 + 3 0 + 2 1 + (−2)⎦ = ⎣ 7 2 −1⎦ . "
−2 1 5 1 2 −3 −2 + 1 1 + 2 5 + (−3) −1 3 2
10 Kapitel 1 • Matrizen

! Satz 1.1 (Rechenregeln für Addition/Subtraktion von Matrizen)


Seien A, B, C ∈ Km×n Matrizen mit den gleichen Dimensionen. Dann gelten die folgenden
Rechenregeln:
(A1) A + B = B + A (Kommutativität der Addition)
(A2) (A + B) + C = A + (B + C) (Assoziativität der Addition)
(A3) A + 0 = A "

> Bemerkung
Aus Eigenschaft (A3) folgt, dass die Nullmatrix 0 das neutrale Element bezüglich der
Addition/Subtraktion von Matrizen ist.

Übung 1.1
◦ ◦ ◦ Man berechne (sofern möglich) A + B und A − B:
⎡ ⎤ ⎡ ⎤
2 04 1 3 1
⎢ ⎥ ⎢ ⎥
a) A = ⎣−1 4 5⎦, B = ⎣0 −1 2⎦ über K = R.
2 26 0 5 1
⎡ ⎤ ⎡ ⎤
110 2 4
⎢ ⎥ ⎢ ⎥
b) A = ⎣1 0 1⎦, B = ⎣−1 −1⎦ über K = R.
011 6 1
⎡ ⎤ ⎡ ⎤
i 1+i 1 2
⎢ ⎥ ⎢ ⎥
c) A = ⎣1 − i 1 ⎦, B = ⎣3i 4 ⎦ über K = C.
1 −1 5 6i
⎡ ⎤ ⎡ ⎤
1 2 1 1
⎢ ⎥ ⎢ ⎥
d) A = ⎣1 3⎦, B = ⎣−1 −1⎦ über K = Z3 .
0 1 2 4

v Lösung ⎤ ⎡ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 0 4 1 3 1 2+1 0+3 4+1 3 3 5
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) A + B = ⎣−1 4 5⎦ + ⎣0 −1 2⎦ = ⎣−1 + 0 4 + (−1) 5 + 2⎦ = ⎣−1 3 7⎦ ,
2 2 6 0 5 1 2+0 2+5 6+1 2 7 7
⎡⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 0 4 1 3 1 2−1 0−3 4−1 1 −3 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A − B = ⎣−1 4 5⎦ − ⎣0 −1 2⎦ = ⎣−1 − 0 4 − (−1) 5 − 2⎦ = ⎣−1 5 3⎦ .
2 2 6 0 5 1 2−0 2−5 6−1 2 −3 5

b) Die Matrizen A und B haben nicht die gleichen Dimensionen. Somit sind die
Operationen A + B und A − B nicht definiert.
1.2 • Operationen auf und mit Matrizen
11 1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
i 1+i 1 2 1+i 1+i+2 1+i 3+i
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
c) A+B = ⎣1 − i 1 ⎦ + ⎣3i 4 ⎦ = ⎣1 − i + 3i 1 + 4 ⎦ = ⎣1 + 2i 5 ⎦,
1 −1 5 6i 1+5 −1 + 6i 6 −1 + 6i
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
i 1+i 1 2 i−1 1+i−2 i−1 i−1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A − B = ⎣1 − i 1 ⎦ − ⎣3i 4 ⎦ = ⎣1 − i − 3i 1 − 4 ⎦ = ⎣1 − 4i −3 ⎦ .
1 −1 5 6i 1−5 −1 − 6i −4 −1 − 6i

d) Wir führen alle Rechnungen in Z3 durch (vgl. Anhang B.4). In Z3 ist 3 = 0, 5 = 2,


−2 = 1 und −3 = 0. Daher:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 1 1 23 20
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A + B = ⎣1 3⎦ + ⎣−1 −1⎦ = ⎣0 2⎦ = ⎣0 2⎦
0 1 2 4 25 22
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 1 1 0 1 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A − B = ⎣1 3⎦ − ⎣−1 −1⎦ = ⎣ 2 4 ⎦ = ⎣2 1⎦ .
0 1 2 4 −2 −3 1 0
#

Übung 1.2 ⎡ ⎤ ⎡ ⎤
1 −2 3 1 2 0
⎢ ⎥ ⎢ ⎥
◦ ◦ ◦ Man betrachte die reellen Matrizen A = ⎣0 5 −6⎦ , C = ⎣−1 5 2⎦ . Man
2 −1 4 2 1 3
bestimme eine Matrix B, sodass A + B = C gilt.

v Lösung ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 1 −2 3 0 4 −3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Aus A + B = C folgt B = C − A = ⎣−1 5 2⎦ − ⎣0 5 −6⎦ = ⎣−1 0 8 ⎦ . #
2 1 3 2 −1 4 0 2 −1

1.2.2 Skalarmultiplikation

Die Skalarmultiplikation beschreibt das Produkt einer beliebigen (m × n)-Matrix A


aus Km×n mit einer Zahl (Skalar) α ∈ K (in der Praxis ist K = R, C, Q, Zp , usw.).
Alle Einträge von A werden einfach mit α multipliziert, d. h., α A ist die Matrix mit
den Einträgen

[α A]ij := α aij . (1.21)


12 Kapitel 1 • Matrizen

Explizit:
⎡ ⎤ ⎡ ⎤
a11 a12 ··· a1n α a11 α a12 · · · α a1n
⎢ a21 a22 ··· ⎥ ⎢
a2n ⎥ ⎢ α a21 α a22 · · · α a2n ⎥
⎢ ⎥
α⎢ . .. .. .. ⎥ = ⎢ .. .. .. .. ⎥ . (1.22)
⎣ .. . . . ⎦ ⎣ . . . . ⎦
am1 am2 · · · amn α am1 α am2 · · · α amn

! Beispiel
6 7 6 7 6 7
12 6·1 6·2 6 12
6 = = ."
34 6·3 6·4 18 24

! Satz 1.2 (Rechenregeln für Skalarmultiplikation)


Seien A, B ∈ Km×n und α, β ∈ K. Dann gelten die folgenden Rechenregeln:
(S1) (αβ) A = α (β A) (Assoziativität der Skalarmultiplikation)
(S2) α (A + B) = α A + α B (Distributivität der Skalarmultiplikation)
(S3) α 0 = 0 "

Übung 1.3
◦ ◦ ◦ Man führe jeweils die Skalarmultiplikation über K durch:
⎡ ⎤ 6 7
1 2 i0 −i 9 6
⎢ ⎥ c) 3 , K=C
a) 2 ⎣−2 3⎦ , K = R i 1 3 −2i
⎡ ⎤
1 0 12
⎡ ⎤ ⎢ ⎥
2 0 −7 d) 2 ⎣0 2⎦ , K = Z5
⎢ ⎥
b) (−4) ⎣−4 3 2 ⎦ , K = R 34
−2 1 0

v Lösung
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 2·1 2·2 2 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) 2 ⎣−2 3⎦ = ⎣2 · (−2) 2 · 3⎦ = ⎣−4 6⎦ .
1 0 2·1 2·0 2 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 0 −7 (−4) · 2 (−4) · 0 (−4) · (−7) −8 0 28
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b) (−4) ⎣−4 3 2 ⎦ = ⎣(−4) · (−4) (−4) · 3 (−4) · 2 ⎦ = ⎣ 16 −12 −8⎦ .
−2 1 0 (−4) · (−2) (−4) · 1 (−4) · 0 8 −4 0
6 7 6 7 6 7
i i i i 1
0 −i 9 6 · 0 3 · (−i) 3 · 9 3 ·6 0 3 3i 2i
c) 3i = 3i = .
i 1 3 −2i 3 ·i
i
3 ·1
i i
3 · 3 3 · (−2i) − 31 3i i 23
1.2 • Operationen auf und mit Matrizen
13 1
d) Wir führen alle Rechnungen in Z5 durch (vgl. Anhang B.4). In Z5 ist 6 = 1 und
8 = 3. Daher:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 2 4 2 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
2 ⎣0 2⎦ = ⎣0 4⎦ = ⎣0 4⎦ .
3 4 6 8 1 3 #

1.2.3 Transponierte Matrix AT

Sei A eine (m × n)-Matrix mit Einträgen aij . Die Transponierte von A, notiert als AT ,
ist die (n × m)-Matrix mit den Einträgen
8 9
AT := aji . (1.23)
ij

Beachte, dass bei AT die Indices i und j vertauscht werden. Die Zeilen von AT sind
somit die Spalten von A und, vice versa, die Spalten von AT sind die Zeilen von A:
⎡ ⎤ ⎡ ⎤
a11 a12 · · · a1n a11 a21 · · · am1
⎢ a21 a22 · · · a2n ⎥ ⎢ a12 a22 · · · am2 ⎥
⎢ ⎥ ⎢ ⎥
A=⎢ . .. . . .. ⎥ ⇒ AT = ⎢ . .. . . .. ⎥ . (1.24)
⎣ .. . . . ⎦ ⎣ .. . . . ⎦
am1 am2 · · · amn a1n a2n · · · amn
$ %& ' $ %& '
m×n n×m

Praxistipp

Das Vertauschen der Indizes i und j bei der Transponierten AT entspricht der Spiege-
lung von A an der Hauptdiagonale aii von oben links nach unten rechts

! Beispiel
⎡ ⎤
⎡ ⎤ 1 5 9
1 2 3 4 ⎢2
⎢ ⎥ ⎢ 6 10⎥⎥
A = ⎣5 6 7 8 ⎦ ⇒ AT = ⎢ ⎥. "
⎣3 7 11⎦
9 10 11 12
$ %& ' 4 8 12
3×4 $ %& '
4×3
14 Kapitel 1 • Matrizen

! Satz 1.3 (Rechenregeln für Transponierte AT )


Seien A, B ∈ Km×n Matrizen mit gleichen Dimensionen und α ∈ K. Dann gelten die
folgenden Rechenregeln:
(T1) (A + B)T = AT + BT
: ;T
(T2) AT =A
(T3) (αA)T = αAT "

Übung 1.4
◦ ◦ ◦ Man bestimme zu jeder der folgenden Matrizen die Transponierte:
⎡ ⎤ ⎡ ⎤
13 0 6 7 1 −2i 0
⎢ ⎥ 1 3 2 3 ⎢ ⎥
A = ⎣3 4 −1⎦ , B = , C = ⎣2i i 0 ⎦
3 −4 0 1
2 5 −3 0 0 −1
⎡ ⎤
⎡ ⎤ 0 31 ⎡ ⎤
2 ⎢ 3 0 5⎥ 1 0 −3 2 11
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
D = ⎣ 0 ⎦, E = ⎢ ⎥, F = ⎣30 −10 0 5 7 ⎦ .
⎣−1 5 0⎦
−1 2 1 −15 0 1
1 11

v Lösung
⎡⎤
⎡ 1⎤ 3 ⎡ ⎤
1 3 2 ⎢3 ⎥ 1 2i 0
⎢ ⎥ ⎢ −4⎥ T ⎢ ⎥
AT = ⎣3 4 5 ⎦ , BT = ⎢ ⎥, C = ⎣−2i i 0 ⎦,
⎣2 0⎦
0 −1 −3 0 0 −1
3 1
⎡ ⎤
1 30 2
⎡ ⎤ ⎢ ⎥
8 9 0 3 −1 1 ⎢ 0 −10 1 ⎥
⎢ ⎥ ⎢ ⎥
DT = 2 0 −1 , E T = ⎣3 0 5 1⎦ , F T = ⎢
⎢−3 0 −15⎥.
⎥ #
⎢ ⎥
15 0 1 ⎣2 5 0 ⎦
11 7 1

1.2.4 Komplexe Konjugation A

Bei einer komplexwertigen (m × n)-Matrix A ∈ Cm×n , definiert man die komplexe


Konjugation A durch
8 9
A := aij . (1.25)
ij
1.2 • Operationen auf und mit Matrizen
15 1
Praxistipp

Bei A werden alle Matrixeinträge komplex konjugiert. Erinnerung: Für eine komplexe
Zahl z = x + iy, ist die konjugiert komplexe Zahl z̄ = x − iy (vgl. Anhang B.4.2). Zum
Beispiel 1 + 2i = 1 − 2i.

> Bemerkung
Man beachte, dass für reellwertige Matrizen A = A gilt.

! Beispiel
6 7 6 7
2 + 3i 1 2 − 3i 1
A= ⇒ A= . "
i 1 + 2i −i 1 − 2i

Übung 1.5
◦ ◦ ◦ Man führe für jede der folgenden Matrizen die komplexe Konjugation durch:
⎡ ⎤ ⎡ ⎤
6 7 i 1+i 1 2 + 2i
0 −i 9 6 ⎢ ⎥ ⎢ ⎥
A= , B = ⎣1 − i 1 ⎦ , C = ⎣2 − 3i 4 ⎦ .
i 1 3 −2i
1 −1 5 1 − 6i

v Lösung ⎡⎤ ⎡ ⎤
6 7 −i 1 − i 1 2 − 2i
0 i 9 6 ⎢ ⎥ ⎢ ⎥
A= , B = ⎣1 + i 1 ⎦ , C = ⎣2 + 3i 4 ⎦ . #
−i 1 3 2i
1 −1 5 1 + 6i

1.2.5 Adjungierte Matrix A*

Sei A ∈ Cm×n eine komplexwertige (m × n)-Matrix mit Einträgen aij . Die Adjungierte
von A, bezeichnet mit A∗ , ist die (n × m)-Matrix definiert durch

T 2 3
A∗ := A , d. h. A∗ ij
= aji . (1.26)

Bei der Adjungierten A∗ werden somit alle Einträge komplex konjugiert und Zeilen
mit Spalten vertauscht:
⎡ ⎤ ⎡ ⎤
a11 a12 · · · a1n a11 a21 · · · am1
⎢ a21 a22 · · · a2n ⎥ ⎢ a12 a22 · · · am2 ⎥
⎢ ⎥ T ⎢ ⎥
A=⎢ . .. .. .. ⎥ ⇒ A∗ = A = ⎢ . .. .. .. ⎥ . (1.27)
⎣ .. . . . ⎦ ⎣ .. . . . ⎦
am1 am2 · · · amn a1n a2n · · · amn
16 Kapitel 1 • Matrizen

> Bemerkung
Beachte, dass für reellwertige Matrizen A∗ = AT gilt.

! Beispiel
6 7 6 7T 6 7
2 + 3i 1 ∗ T 2 − 3i 1 2 − 3i −i
A= ⇒ A =A = = . "
i 1 + 2i −i 1 − 2i 1 1 − 2i

! Satz 1.4 (Rechenregeln für Adjungierte A∗ )


Seien A, B ∈ Cm×n komplexwertigen Matrizen mit gleichen Dimensionen und α ∈ C. Dann
gelten die folgenden Rechenregeln:
(A1) (A + B)∗ = A∗ + B∗
/ 0∗
(A2) A∗ = A
(A3) (α A)∗ = α A∗ "

Übung 1.6
◦ ◦ ◦ Man bestimme zu jeder der folgenden Matrizen die adjungierte Matrix:
⎡ ⎤ ⎡ ⎤
6 7 i 1+i 1 2 + 2i
0 −i 9 6 ⎢ ⎥ ⎢ ⎥
A= , B = ⎣1 − i 1 ⎦ , C = ⎣2 − 3i 4 ⎦ .
i 1 3 −2i
1 −1 5 1 − 6i

v Lösung
⎡ ⎤
0 −i 6 7 6 7
⎢i
∗ ⎢ 1⎥ ⎥ ∗−i 1 + i 1 ∗ 1 2 + 3i 5
A =⎢ ⎥, B = , C = .
⎣9 3⎦ 1 − i 1 −1 2 − 2i 4 1 + 6i
6 2i #

1.2.6 Produkt von Matrizen

Es seien A ∈ Km×n und B ∈ Kp×q . Falls n = p (und nur in diesem Fall!) definiert
man das Produkt AB (A und B in dieser Reihenfolge) als die (m × q)-Matrix mit den
Einträgen:

n
<
[AB]ij := ai1 b1j + ai2 b2j + · · · + ain bnj = aik bkj (1.28)
k=1
1.2 • Operationen auf und mit Matrizen
17 1
Praxistipp

Der (i, j)-Eintrag des Produktes AB ist nichts anderes als das Skalarprodukt der i-ten
Zeile von A mit der j-ten Spalte von B:
⎡ ⎤
b1j
⎢ b ⎥
⎢ 2j ⎥
⎢ . ⎥
⎢ . ⎥
⎣ . ⎦
bnj
⎡ ⎤⎡ ⎤
⎢ ⎥⎢ ⎥
⎢ ⎥⎢ ⎥ n
⎢ ⎥⎢ ⎥ <
⎢ ai1 ai2 · · · ain ⎥ ⎢ cij ⎥ , wobei cij = aik bkj . (1.29)
⎢ ⎥⎢ ⎥
⎢ ⎥⎢ ⎥ k=1
⎣ ⎦⎣ ⎦

Die Anordnung in Gl. (1.29) ist bekannt als Falk’sches Schema, nach dem deutschen
Ingenieur Sigurd Falk.

> Bemerkung
Das Produkt von zwei Matrizen A und B ist nur dann definiert, wenn die Anzahl Spalten
von A gleich der Anzahl Zeilen von B ist (d. h. n = p), ansonsten ist es nicht möglich, das
Skalarprodukt zwischen den Zeilen von A und den Spalten von B zu bilden. Durch die
Multiplikation einer (m × n)-Matrix A mit einer (n × q)-Matrix B entsteht eine (m × q)-
Matrix. Das Produkt AB hat dann so viele Zeilen wie A und so viele Spalten wie B. Der
gemeinsame Index n verschwindet bei der Multiplikation. Es gilt folgende Faustregel:

A( m ×n) (n× q ) B ⇒ AB(m×q)


✄ ✄

! Beispiel
21 1 13 81 59
Als erstes Beispiel betrachten wir das Produkt der Matrizen A = 230 ,B = 23 . Da
01
A eine (2 × 3)-Matrix und B eine (3 × 2)-Matrix ist, ergibt sich bei der Multiplikation AB
eine (2 × 2)-Matrix (s. auch Faustregel):

A( 2 ×3) (3× 2 ) B ⇒ AB(2×2) .


✄ ✄
Der (1, 1)-Eintrag des Produktes AB erhält man aus dem Skalarprodukt der ersten Zeile
von A mit der ersten Spalte von B. Analog, der (1, 2) Eintrag von AB ist das Skalarprodukt
der ersten Zeile von A mit der zweiten Spalte von B, usw.
18 Kapitel 1 • Matrizen

⎡⎤ ⎡⎤
15 15
⎢ ⎥ ⎢ ⎥
⎣2 3⎦ ⎣2 3⎦
01 01
6 76 7 6 76 7
111 3 111 9
230 230

⎡ ⎤ ⎡ ⎤
15 15
⎢ ⎥ ⎢ ⎥
⎣2 3⎦ ⎣2 3⎦
01 01
6 76 7 6 76 7
111 111
230 8 230 19

Also
⎡ ⎤
6 7 1 5 6 7
111 ⎢ ⎥ 3 9
AB = ⎣2 3⎦ = .
230 8 19
0 1
80 2 19
Als zweites Beispiel betrachten wir die Multiplikation der Matrizen A = 1 1 0 und B =
21 1 0 13 111
1 2 1 0 . Das Produkt AB ist in diesem Fall nicht definiert (s. auch Faustregel):

A(3× 3 ) ( 2 ×4) B ist nicht definiert, weil 2 ̸= 3. "

Produkt von Matrix mit Vektor


Ein besonders wichtiger Spezialfall des Produktes von Matrizen ist die Multiplikation
einer (m × n)-Matrix mit einem n-komponentigen Spaltenvektor (d. h. einer (n × 1)-
Matrix), woraus ein m-komponentiger Spaltenvektor (d. h. eine (m × 1)-Matrix)
resultiert.

! Beispiel
6 7
1
−1
6 76 7
1 2 −1
4 −2 6 "

Beachte: Matrixmultiplikation ist nicht kommutativ, d. h. AB ̸= BA


Im Unterschied zu der Multiplikation von reellen oder komplexen Zahlen ist das
Produkt von Matrizen im Allgemeinen nicht kommutativ, d. h., AB ist im Allgemeinen
nicht dasselbe wie BA.
1.2 • Operationen auf und mit Matrizen
19 1
! Beispiel
2 1 −1 3 20 13
Bei der Multiplikation der beiden Matrizen A = 2 0
,B= 11 ergibt die Multiplika-
tion AB das folgende Resultat:
6 76 7 6 7 6 7
1 −1 01 1 · 0 + (−1) · 1 1 · 1 + (−1) · 1 −1 0
AB = = = ,
2 0 11 2·0+0·1 2·1+0·1 0 2

während das Produkt BA Folgendes ergibt:


676 7 6 7 6 7
0 1 1 −1 0 · 1 + 1 · 2 0 · (−1) + 1 · 0 2 0
BA = = = .
11 2 0 1 · 1 + 1 · 2 1 · (−1) + 1 · 0 3 −1

Es ist offensichtlich, dass BA nicht dasselbe wie AB ist. "

Kommutator
Die Kommutativität von Matrizen spielt eine wichtige Rolle in der linearen Algebra,
weshalb es sogar einen eigenen Begriff erhält: den Kommutator. Für zwei quadrati-
schen Matrizen A und B definiert man deren Kommutator [A, B] wie folgt

[A, B] := AB − BA (1.30)

5 A und B kommutieren genau dann wenn ihr Kommutator gleich Null ist, d. h. wenn
[A, B] = 0 ⇒ AB = BA.
5 Zwei Matrizen mit [A, B] ̸= 0 (⇒ AB ̸= BA) heißen nicht kommutativ.

! Satz 1.5 (Rechenregeln für Produkte von Matrizen A, B und C)


Seien A, B und C Matrizen, sodass deren Produkte definiert sind. Dann gilt:
(P1) EA = AE = A
(P2) 0A = A 0 = 0
(P3) A(B + C) = AB + AC, (A + B)C = AC + BC (Distributivgesetz)
(P4) A(BC) = (AB)C (Assoziativgesetz)
(P5) (AB)T = BT AT (Beachte, dass die Reihenfolge des Produktes sich vertauscht!)

Außerdem gilt für komplexwertige Matrizen:


(P6) (AB)∗ = B∗ A∗ (auch hier wechselt die Reihenfolge des Produktes) "

i Merkregel
Bei der Transponierten eines Produktes wird die Reihenfolge der Matrizen vertauscht,
zum Beispiel (ABCD)T = DT C T BT AT .

> Bemerkung
Wegen (P1) und (P2) spielen die Nullmatrix 0 und die Identitätsmatrix E eine ana-
loge Rolle wie 0 und 1 im Rahmen der üblichen Multiplikation von reellen Zahlen
(vgl. 7 Kap. 5).
20 Kapitel 1 • Matrizen

Übung 1.7
• ◦ ◦ Man bilde jeweils (sofern wie möglich) alle Produkte von je zwei der folgenden
Matrizen, also A2 , AB, AC, BA usw.
⎡ ⎤ ⎡ ⎤
8 9 3 2 0 −2
⎢ ⎥ ⎢ ⎥
A = 4 3 −2 , B = ⎣−1⎦ , C =⎣ 1 3 2 ⎦
2 −2 1 0

v Lösung ⎡⎤ ⎡ ⎤
8 9 3 8 9 2 0 −2 8 9
⎢ ⎥ ⎢ ⎥
AB = 4 3 −2 ⎣−1⎦ = 5, AC = 4 3 −2 ⎣ 1 3 2 ⎦ = 15 7 −2 , CB =
2 −2 1 0
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 0 −2 3 2 3 8 9 12 9 −6
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 3 2 ⎦ ⎣−1⎦ = ⎣ 4 ⎦, BA = ⎣−1⎦ 4 3 −2 = ⎣−4 −3 2 ⎦, C 2 =
−2 1 0 2 −7 2 8 6 −4
⎡ ⎤⎡ ⎤ ⎡ ⎤
2 0 −2 2 0 −2 8 −2 −4
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣1 3 2 ⎦ ⎣ 1 3 2 ⎦ = ⎣ 1 11 4 ⎦ #
−2 1 0 −2 1 0 −3 3 6

Übung 1.8
• ◦ ◦ Man betrachte die folgenden Matrizen:
⎡ ⎤
⎡ ⎤ 5 0
−1 2 5 −3 6 7
⎢−1
⎢ ⎥ 0 −2 5 ⎢ 2⎥⎥
A = ⎣ 3 −1 0 2 ⎦ , B= , C =⎢ ⎥
4 −3 2 ⎣4 5⎦
4 0 0 −2
5 −1
⎡ ⎤ ⎡ ⎤
3 5 −2 4 1 6 7
⎢ ⎥ ⎢ ⎥ −3 1 −1
D = ⎣−1 10⎦ , E = ⎣−4 4 4⎦ , F= .
−8 5 3
−2 0 0 00

Welche der folgenden Produkte A2 , AB, AC usw. existieren?

v Lösung
⎡ ⎤
−2 32 6 7 6 7
⎢ ⎥ 14 2 0 −14 −8 −20
AC = ⎣ 26 −4⎦ , BA = , BD =
−5 11 20 −22 11 −10
10 2
⎡ ⎤ ⎡ ⎤
6 7 0 −10 25 −15 5 −5
⎢8 −1⎥ ⎢−13
8 −8 −8 ⎢ −4 ⎥ ⎢ 9 7⎥⎥
BE = , CB = ⎢ ⎥, CF = ⎢ ⎥
4 4 −8 ⎣ 20 −23 30 ⎦ ⎣−52 29 11 ⎦
−4 −7 23 −7 0 −8
1.2 • Operationen auf und mit Matrizen
21 1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
20 −21 25 −49 28 12 18 −8 −10 12
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
DB = ⎣40 −28 15 ⎦ , DF = ⎣−77 49 31⎦ , EA = ⎣32 −12 −20 12⎦
0 4 −10 6 −2 2 0 0 0 0
⎡ ⎤ ⎡ ⎤
−12 30 −12 8 14 6 7
⎢ ⎥ ⎢ ⎥ 2 −7 −15 13
ED = ⎣−24 20⎦ , E 2 = ⎣ −8 0 12⎦ , FA =
35 −21 −40 28
0 0 0 0 0
6 7 6 7
−8 −5 2 −8 1
FD = , FE =
−35 10 −4 −12 12 #

Übung 1.9
21 23
• ◦ ◦ Sei K = Z3 . Man betrachte die folgenden Matrizen auf K2×2 : A = 01 ,B =
22 03 2
2 1 . Man berechne A − AB.

v Lösung
Mit diesem Beispiel wollen wir die Situation betrachten, wo die Matrizen nicht wie
üblich auf K = R oder K = C definiert sind, sondern die Einträge in einem etwas
speziellen Körper liegen (K = Z3 in diesem Fall). Der einzige Unterschied hier ist, dass
wir alle Operationen in K = Z3 durchführen müssen, wo andere Rechenregel zu R
oder C gelten (vgl. Anhang B.4). Zum Beispiel, in Z3 ist 1 + 2 = 3 = 0, 2 + 2 = 4 = 1,
2 + 2 + 1 = 5 = 2, 2 − 1 = −1 = 2, usw. Es gilt somit
6 76 7 6 7 6 7 6 76 7 6 7 6 7
12 12 14 11 12 20 62 02
A2 = = = , AB = = =
01 01 01 01 01 21 21 21
6 7 6 7 6 7 6 7
11 02 1 −1 12
⇒ A2 − BA = − = =
01 21 −2 0 10 #

Übung 1.10
◦ ◦ ◦ Man berechne den Kommutator [A, B] der folgenden Matrizen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 −1 0 1 2 3 1 2 3 1 1 −1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) A = ⎣1 0 0⎦, B = ⎣2 4 6⎦ b) A = ⎣4 5 6⎦, B = ⎣0 0 0 ⎦
0 1 0 1 0 1 5 7 9 0 0 0

v Lösung ⎡⎤ ⎡ ⎤ ⎡ ⎤
0 0 0 4 2 0 −4 −2 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) [A, B] = AB − BA = ⎣1 2 3⎦ − ⎣8 4 0⎦ = ⎣−7 −2 3⎦ ≠ 0. Es folgt: A und B
2 4 6 2 0 0 0 4 6
kommutieren nicht.
22 Kapitel 1 • Matrizen

⎤ ⎡ ⎡ ⎤ ⎡ ⎤
1 1 −1 0 0 0 1 1 −1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b) [A, B] = AB − BA = ⎣4 4 −4⎦ − ⎣0 0 0⎦ = ⎣4 4 −4⎦ ̸= 0. Es folgt: A und B
5 5 −5 0 0 0 5 5 −5
kommutieren nicht. #

Übung 1.11
••◦
a) Man zeige, durch direkte Berechnung, dass für reelle (2 × 2)-Matrizen A und B gilt
(AB)T = BT AT .
b) Man beweise diese Formel für allgemeine (n × n)-Matrizen A, B ∈ Kn×n .

v Lösung 8 9
2 a12 3
a) Wir betrachten die (2 × 2)-Matrizen A = aa11 21 a22
, B = bb11 bb12 . Wir rechnen
21 22
zuerst das Produkt AB aus
6 76 7 6 7
a11 a12 b11 b12 a11 b11 + a12 b21 a11 b12 + a12 b22
AB = = .
a21 a22 b21 b22 a21 b11 + a22 b21 a21 b12 + a22 b22

Daraus folgt
6 7
a11 b11 + a12 b21 a21 b11 + a22 b21
(AB)T = .
a11 b12 + a12 b22 a21 b12 + a22 b22

2 a21 3 T 8 9
Nun betrachten wir den Ausdruck BT AT . Wegen AT = aa11 12 a22
, B = bb11 b21
b22
12
ist:
6 76 7 6 7
T T b11 b21 a11 a21 a11 b11 + a12 b21 a21 b11 + a22 b21
B A = = .
b12 b22 a12 a22 a11 b12 + a12 b22 a21 b12 + a22 b22

Dies ist dasselbe wie (AB)T . Somit ist die Formel (AB)T = BT AT für (2 × 2)-
Matrizen bewiesen, da A und B beliebig waren.
b) Wir rechnen komponentenweise. Es seien [A]ij = aij und [B]ij = bij die Komponen-
ten von A beziehungsweise B. Dann gilt

n
< 8 9 n
<
[AB]ij = aik bkj ⇒ (AB)T = [AB]ji = ajk bki .
ij
k=1 k=1

8 9 2 3
Anderseits, ist AT = [A]ji = aji und BT ij = [B]ji = bji , d. h.
ij

8 9 n 8
< 9 8 9 n
< n
< 8 9
BT AT = BT AT = bki ajk = ajk bki = (AB)T .
ij ik kj ij
k=1 k=1 k=1

Somit ist die Formel (AB)T = BT AT auch für (n × n)-Matrizen bewiesen. #


1.2 • Operationen auf und mit Matrizen
23 1

Übung 1.12 6 7
cos(ϕ) − sin(ϕ)
• • ◦ Die Matrix R(ϕ) = beschreibt eine Drehung in R2 um den
sin(ϕ) cos(ϕ)
Winkel ϕ in positiver Richtung (Gegenuhrzeiger). Man zeige, dass R(ϕ1 )R(ϕ2 ) =
R(ϕ2 )R(ϕ1 ) = R(ϕ1 + ϕ2 ) gilt, und man interpretiere das Resultat geometrisch.

v Lösung
Wegen
6 76 7
cos(ϕ1 ) − sin(ϕ1 ) cos(ϕ2 ) − sin(ϕ2 )
R(ϕ1 )R(ϕ2 ) =
sin(ϕ1 ) cos(ϕ1 ) sin(ϕ2 ) cos(ϕ2 )
6 7
cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 ) − cos(ϕ1 ) sin(ϕ2 ) − sin(ϕ1 ) cos(ϕ2 )
=
sin(ϕ1 ) cos(ϕ2 ) + cos(ϕ1 ) sin(ϕ2 ) cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 )
und
6 76 7
cos(ϕ2 ) − sin(ϕ2 ) cos(ϕ1 ) − sin(ϕ1 )
R(ϕ2 )R(ϕ1 ) =
sin(ϕ2 ) cos(ϕ2 ) sin(ϕ1 ) cos(ϕ1 )
6 7
cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 ) − sin(ϕ1 ) cos(ϕ2 ) − cos(ϕ1 ) sin(ϕ2 )
=
sin(ϕ1 ) cos(ϕ2 ) + cos(ϕ1 ) sin(ϕ2 ) cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 )

ist R(ϕ1 )R(ϕ2 ) = R(ϕ2 )R(ϕ1 ). Unter Einbezug der trigonometrischen Formeln (Addi-
tionstheorem) cos(ϕ1 ) cos(ϕ2 ) − sin(ϕ1 ) sin(ϕ2 ) = cos(ϕ1 + ϕ2 ) und sin(ϕ1 ) cos(ϕ2 ) +
cos(ϕ1 ) sin(ϕ2 ) = sin(ϕ1 + ϕ2 ) finden wir
6 7
cos(ϕ1 + ϕ2 ) − sin(ϕ1 + ϕ2 )
R(ϕ1 )R(ϕ2 ) = = R(ϕ1 + ϕ2 ),
sin(ϕ1 + ϕ2 ) cos(ϕ1 + ϕ2 )

d. h., R(ϕ1 )R(ϕ2 ) beschreibt eine Gesamtdrehung um den Winkel ϕ1 + ϕ2 in positiver


(Gegenuhrzeiger) Richtung (. Abb. 1.1). #

. Abb. 1.1 Geometrische Interpretation von Übung 1.12


24 Kapitel 1 • Matrizen

Übung 1.13 6 7 6 7 6 7
01 0 −i 1 0
• • ◦ Die sogenannten Pauli-Matrizen σx = , σy = , σz = spielen
10 i 0 0 −1
eine wichtige Rolle in der Quantenmechanik.
a) Man zeige: [σx , σy ] = 2iσz , [σy , σz ] = 2iσx , [σz , σx ] = 2iσy .
b) Der Antikommutator für zwei Matrizen A und B ist definiert durch {A, B} := AB +
BA. Man zeige: {σx , σy } = {σy , σz } = {σz , σx } = 0.

v Lösung
a) Eine direkte Berechnung zeigt:
6 7 6 7 6 7 6 7
i 0 −i 0 2i 0 1 0
[σx , σy ] = σx σy − σy σx = − = = 2i = 2iσz
0 −i 0 i 0 −2i 0 −1
6 7 6 7 6 7 6 7
0 i 0 −i 0 2i 01
[σy , σz ] = σy σz − σz σy = − = = 2i = 2iσx
i 0 −i 0 2i 0 10
6 7 6 7 6 7 6 7
0 1 0 −1 0 2 0 −i
[σz , σx ] = σz σx − σx σz = − = = 2i = 2iσy
−1 0 1 0 −2 0 i 0

b) Eine weitere direkte Rechnung zeigt:


6 7 6 7 6 7
i 0 −i 0 00
{σx , σy } = σx σy + σy σx = + = =0
0 −i 0 i 00
6 7 6 7 6 7
0 i 0 −i 00
{σy , σz } = σy σz + σz σy = + = =0
i 0 −i 0 00
6 7 6 7 6 7
0 1 0 −1 00
{σz , σx } = σz σx + σx σz = + = =0
−1 0 1 0 00

1.2.7 Blockmatrizen

Jede Matrix kann man in Teilmatrizen aufteilen. Zum Beispiel:


⎡ ⎤
1 2 3 4 5
⎢6 7 8 9 10 ⎥
⎢ ⎥
⎢ ⎥
⎢ 11 12 13 14 15 ⎥ .
⎢ ⎥
⎣ 16 17 18 19 20 ⎦
21 22 23 24 25
1.2 • Operationen auf und mit Matrizen
25 1
Diese Aufteilung in Teilmatrizen ist offenbar nicht eindeutig. Zum Beispiel man kann
die obige Matrix auf mehreren Arten in Teilmatrizen aufteilen:
⎡ ⎤ ⎡ ⎤
1 2 3 4 5 1 2 3 4 5
⎢6 7 8 ⎥
9 10 ⎥ ⎢ 8 9 10 ⎥
⎢ ⎢6 7 ⎥
⎢ ⎥ ⎢ ⎥
⎢ 11 12 13 14 15 ⎥ oder ⎢ 11 12 13 14 15 ⎥ usw.
⎢ ⎥ ⎢ ⎥
⎣ 16 17 18 19 20 ⎦ ⎣ 16 17 18 19 20 ⎦
21 22 23 24 25 21 22 23 24 25

Teilt man eine Matrix in Teilmatrizen auf, so spricht man von einer Blockmatrix oder
einer Matrix in Blockform. Die Teilmatrizen heißen Blöcke.

Praxis Tip

Operationen mit Blockmatrizen. Für die Manipulation von Blockmatrizen kann man
grundsätzlich jeden Block als einen „einzigen Matrixeintrag“ betrachten und mit den
üblichen Rechenregeln für Matrizen rechnen.
Summe
6 7 6 7 6 7
A1 B1 A2 B2 A1 + A2 B1 + B2
+ = (1.31)
C1 D1 C2 D2 C1 + C2 D1 + D2

Produkt
6 76 7 6 7
A1 B1 A2 B2 A1 A2 + B1 C2 A1 B2 + B1 D2
= (1.32)
C1 D1 C2 D2 C1 A2 + D1 D2 C1 B2 + D1 D2

Transponierte
6 7T 6 7
A B AT C T
= (1.33)
C D BT DT

Die Transponierte einer Blockmatrix entsteht durch Spiegelung aller Blöcke an der
Hauptdiagonale und Transposition jedes Blocks.

Spezielle Blockmatrizen
Die Aufteilung von Matrizen in Blockmatrizen ist besonders nützlich, wenn einige
Blöcke gleich Null sind, wie in den folgenden Situationen:
4 5
A 0
Blockdiagonalmatrix (1.34)
0 D
4 5
AB
(obere) Blockdreiecksmatrix (1.35)
0 D
26 Kapitel 1 • Matrizen

4 5
A 0
(untere) Blockdreiecksmatrix (1.36)
C D

Das Rechnen mit Blockmatrizen ist besonders einfach, wie man in den folgenden
Beispielen erfahren wird:

Übung 1.14
◦ ◦ ◦ Man berechne (möglichst geschickt) die folgende Produkte AB:
⎡ ⎤ ⎡ ⎤
0012 0 0 2 −1
⎢0 0 0 1⎥ ⎢0 0 1 1 ⎥
⎢ ⎥ ⎢ ⎥
a) A = ⎢ ⎥, B = ⎢ ⎥
⎣1 0 0 0⎦ ⎣2 4 0 0 ⎦
0100 100 0
⎡ ⎤ ⎡ ⎤
1 −1 0 0 0 0 2 1 0 0 0 0
⎢ ⎥ ⎢ ⎥
⎢1 −1 0 0 0 0⎥ ⎢1 0 0 0 0 0⎥
⎢ ⎥ ⎢ ⎥
⎢0 0 1 1 0 0⎥ ⎢ 0⎥
b) A = ⎢ ⎥, B = ⎢0 0 0 1 0 ⎥.
⎢0 0 2 1 0 0⎥⎥ ⎢0 0 1 0 0 0⎥
⎢ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎣0 0 0 0 −1 1⎦ ⎣0 0 0 0 1 1⎦
0 0 0 0 1 3 0 0 0 0 1 0

v Lösung
a) Man kann die Matrizen geschickt in Teilmatrizen aufteilen und diese Teilmatrizen
als einzige Matrixeinträge betrachten:
⎡ ⎤⎡ ⎤
0 0 1 2 0 0 2 −1
⎢0 0 0 1⎥ ⎢ 1 ⎥
⎢ ⎥⎢0 0 1 ⎥
AB = ⎢ ⎥⎢ ⎥
⎣1 0 0 0⎦⎣2 4 0 0 ⎦
0 1 0 0 1 0 0 0
⎡ ⎤
62 7 4 4 0 0
322 43 ⎢1
12
01 10 0 ⎢ 0 0 0 ⎥

= 2 1 0 3 2 2 −1 3 =⎢ ⎥.
0 01 1 1
⎣0 0 2 −1 ⎦
0 0 1 1

b) Die Matrizen sind Blockdiagonal. Somit können wir die (2 × 2)-Blöcke auf der
Hauptdiagonale als einzige Matrixeinträge sehen:
⎡ ⎤⎡ ⎤
1 −1 0 0 0 0 2 1 0 0 0 0
⎢ ⎥⎢ ⎥
⎢1 −1 0 0 0 0⎥⎢1 0 0 0 0 0⎥
⎢ ⎥⎢ ⎥
⎢0 0 1 1 0 0⎥ ⎢ 0⎥
AB = ⎢ ⎥⎢0 0 0 1 0 ⎥.
⎢0 0 2 1 0 0⎥ ⎢ 0⎥
⎢ ⎥⎢0 0 1 0 0 ⎥
⎢ ⎥⎢ ⎥
⎣0 0 0 0 −1 1⎦⎣0 0 0 0 1 1⎦
0 0 0 0 1 3 0 0 0 0 1 0
1.2 • Operationen auf und mit Matrizen
27 1
2 1 −1 3 2 2 1 3 21 13 21 1320 13 2 3 2 1321 13
Wir rechnen nach: 1 −1 10 = 11 , 21 10 = 11 12 , −1
1 3 10 =
2 0 −1 3
4 1
. Somit

⎡ ⎤
1 1 0 0 0 0
⎢ ⎥
⎢1 1 0 0 0 0 ⎥
⎢ ⎥
⎢0 0 1 1 0 0 ⎥
AB = ⎢
⎢0
⎥.
⎢ 0 1 2 0 0 ⎥⎥
⎢ ⎥
⎣0 0 0 0 0 −1 ⎦
0 0 0 0 4 1 #

> Bemerkung
Beachte: Bei der Addition/Subtraktion sowie Multiplikation von Blockmatrizen gelten
die gleichen Regeln bzgl. der Dimension wie bei den üblichen Matrizen!

Übung 1.15
⎡ ⎤T
0 0 2 −1
⎢0
⎢ 0 1 1⎥⎥
◦ ◦ ◦ Man berechne ⎢ ⎥ (als Blockmatrix).
⎣2 4 0 0⎦
1 0 0 0

v Lösung
Man kann die gegebene Matrix geschickt in Teilmatrizen aufteilen und diese Teilma-
trizen als einzige Matrixeinträge betrachten:

⎡ ⎤T ⎡ ⎤
0 0 2 −1 6 7 0 0 2 1
⎢0 ⎥ 2 3 T ⎢
⎢ 0 1 1 ⎥ 0 2 4
⎢ 0 0 4 0⎥⎥
⎢ ⎥ = 2 2 −1 3T 1 0 =⎢ ⎥.
⎣2 4 0 0 ⎦ 0 ⎣ 2 1 0 0⎦
1 1
1 0 0 0 −1 1 0 0 #

1.2.8 Potenzen von Matrizen und Matrixpolynome

Es sei A ∈ Kn×n eine quadratische (n × n)-Matrix. Die k-te Potenz von A ist wie folgt
definiert

A0 := E, Ak := AA · · · A'
$ %& (1.37)
k Mal

Wie bei reellen und komplexen Zahlen, kann man auch Polynome von Matrizen
definieren. Ein Matrixpolynom ist ein Ausdruck der Form:
28 Kapitel 1 • Matrizen

k
<
p(A) := ak Ak + ak−1 Ak−1 + · · · + a2 A2 + a1 A + a0 E = a i Ai (1.38)
i=0

> Bemerkung
Das Argument bzw. Variable des Matrixpolynoms sind Matrizen. Außerdem ist das
Resultat p(A) selbst eine Matrix. Daher wird bei Matrixpolynomen der konstante Term
a0 mit der Einheitsmatrix multipliziert a0 → a0 E (das Endresultat muss eine Matrix
sein).

Übung 1.16 ⎡ ⎤
112
⎢ ⎥
• ◦ ◦ Man berechne A3 − 2A2 + A − A0 für A = ⎣1 1 1⎦ .
211

v Lösung
Wir berechnen zuerst die Potenzen der Matrix A. Es gilt A0 = E. Außerdem haben wir
⎡ ⎤⎡ ⎤ ⎡ ⎤
112 11 2 645
⎢ ⎥⎢ ⎥ ⎢ ⎥
A2 = ⎣1 1 1⎦ ⎣1 1 1⎦ = ⎣4 3 4⎦ ,
211 21 1 546
⎡ ⎤⎡ ⎤ ⎡ ⎤
645 112 20 15 21
⎢ ⎥⎢ ⎥ ⎢ ⎥
A3 = A2 A = ⎣4 3 4⎦ ⎣1 1 1⎦ = ⎣15 11 15⎦ .
546 211 21 15 20

Daraus folgt
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
20 15 21 6 4 5 1 1 2 1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A3 − 2A2 + A − A0 = ⎣15 11 15⎦ − 2 ⎣4 3 4⎦ + ⎣1 1 1⎦ − ⎣0 1 0⎦
21 15 20 5 4 6 2 1 1 0 0 1
⎡ ⎤
8 8 13
⎢ ⎥
=⎣8 5 8 ⎦.
13 8 8 #

Übung 1.17
• ◦ ◦ Es seien A, B ∈ Kn×n mit [A, B] = 0. Man zeige
a) (AB)2 = A2 B2
b) (A2 + B2 )(A2 − B2 ) = A4 − B4
1.2 • Operationen auf und mit Matrizen
29 1
v Lösung
a) Wegen [A, B] = 0, gilt AB = BA. Daraus folgt

(AB)2 = (AB)(AB) = A($%&'


BA )B = AABB = A2 B2 .
=AB

b) Mit Teilaufgabe (a) finden wir

(A2 + B2 )(A2 − B2 ) = A2 A2 − A2 B2 + B2 A2 − B2 B2

= A4 − ($%&'
AB )2 + (BA)2 − B4 = A4 − B4 .
=BA #

Übung 1.18
• ◦ ◦ Es sei A ∈ Kn×n diagonal.
a) Man zeige, dass A2 diagonal ist.
b) Man beweise, dass Ak diagonal ist. Wie kann man somit effizient die k-te Potenz
einer Diagonalmatrix berechnen? ⎡ ⎤
1 0 0
⎢ ⎥
c) Man berechne A2 , A3 , A1000 für A = ⎣0 −1 0⎦ .
0 0 2

v Lösung ⎡ ⎤
λ1 ··· 0
⎢. .. .. ⎥

a) Es sei A = ⎣ .. ⎥
. . ⎦. Dann ist:
0 · · · λn
⎡ ⎤⎡ ⎤ ⎡ ⎤
λ1 · · · 0 λ1 · · · 0 λ21 · · · 0
⎢. . .. ⎥ ⎢ .. . . .. ⎥ ⎢ .. . . .. ⎥
⎥ ⎢ ⎥ ⎢
A2 = ⎢
⎣ .. . . . ⎦⎣ . . .⎦=⎣. . .⎦
⎥ ⇒ A2 ist diagonal.
0 ··· λn 0 · · · λn 0 · · · λ2n

b) Nun rechnen wir einige weitere Potenzen von A aus, um ein Gefühl für die Situation
zu bekommen:
⎡ ⎤⎡ ⎤ ⎡ ⎤
λ21 · · · 0 λ1 · · · 0 λ31 · · · 0
⎢. . .⎥ ⎢ .⎥ ⎢ .⎥
A3 = A2 A = ⎢ ⎥⎢ . . ⎥ ⎢. . ⎥
⎣ .. . . .. ⎦ ⎣ .. . . .. ⎦ = ⎣ .. . . .. ⎦ ,
0 · · · λ2n 0 · · · λn 0 · · · λ3n
30 Kapitel 1 • Matrizen

⎡ ⎤⎡ ⎤ ⎡ ⎤
λ31 ··· 0 λ1 ··· 0 λ41 ··· 0
⎢ . .. ⎥ ⎢ ⎥ ⎢ .. ⎥
A4 = A3 A = ⎢ .. ⎥ ⎢ .. .. .. ⎥ ⎢ .. .. ⎥
⎣ .. . . ⎦⎣ . . .⎦=⎣. . . ⎦,
0 · · · λ3n 0 · · · λn 0 · · · λ4n

und so weiter. Man sieht also, dass im Allgemeinen


⎡ ⎤
λk1 ··· 0
⎢ . .. ⎥
Ak = ⎢
⎣ ..
..
. .⎦
⎥ (1.39)
0 · · · λkn

gilt. Kritische Leser werden eindecken, dass Formel (1.39) z. B. per vollständige
Induktion bewiesen werden muss:
5 k = 1 (Verankerung): A ist bereits diagonal und Gleichung (1.39) ist somit
erfüllt. $
5 k ⇒ k + 1 (Induktionsschritt): Wir nehmen an, dass Formel (1.39) für Ak
stimmt (Induktionsannahme) und zeigen, dass die Aussage auch für Ak+1
stimmt. Mithilfe der Induktionsannahme finden wir
⎡ ⎤⎡ ⎤ ⎡ k+1 ⎤
λ1 ··· 0 λk ··· 0 λ ··· 0
⎢. .. ⎥ ⎢ .1 .. ⎥ ⎢ 1 .. ⎥
Ak+1 = AAk = ⎢ .. ⎥⎢ .. ⎥ = ⎢ .. .. ⎥
⎣ .. . . ⎦ ⎣ .. . .⎦ ⎣ . . . ⎦ $
0 · · · λn 0 · · · λkn 0 · · · λk+1
n

c) Die gegebene Matrix ist diagonal. Um A2 , A3 , A1000 zu bestimmen müssen wir


einfach die Diagonalelemente zur 2., 3., 1000. Potenz erheben:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
12 0 0 1 0 0 13 0 0 1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A2 = ⎣ 0 (−1)2 0 ⎦ = ⎣0 1 0⎦ A3 = ⎣ 0 (−1)3 0 ⎦ = ⎣0 −1 0⎦
0 0 2 2 0 0 4 0 0 2 3 0 0 8
⎡ ⎤ ⎡ ⎤
11000 0 0 1 0 0
1000 ⎢ ⎥ ⎢ ⎥
A = ⎣ 0 (−1)1000 0 ⎦ = ⎣0 1 0 ⎦ .
0 0 21000 0 0 21000 #

i Merkregel
Um die k-te Potenz einer Diagonalmatrix zu bestimmen, genügt es, alle Diagonalele-
mente zur k-ten Potenz zu berechnen:
⎡ ⎤k ⎡ ⎤
λ1 ··· 0 λk ··· 0
⎢. .. .. ⎥ ⎢ .1 .. .. ⎥
⎢. ⎥ ⎢ ⎥
⎣. . . ⎦ = ⎣ .. . . ⎦.
0 · · · λn 0 · · · λkn
1.2 • Operationen auf und mit Matrizen
31 1
1.2.9 Die Spur einer Matrix

Für eine (n × n)-Matrix A ∈ Kn×n definiert man deren Spur als die Summe der
Diagonaleinträge von A, konkret:

n
<
Spur(A) := a11 + a22 + · · · + ann = aii (1.40)
i=1

! Beispiel
⎡ ⎤
1 2 3 4
⎢2 5 6 7 ⎥
⎢ ⎥
Spur ⎢ ⎥ = 1 + 5 + 8 + 10 = 24. "
⎣3 6 8 9 ⎦
4 7 9 10

! Satz 1.6 (Rechenregeln für die Spur einer Matrix)


Für die Spur gelten die folgenden Rechenregeln
(S1) Spur(A + B) = Spur(A) + Spur(B)
(S2) Spur(αA) = α Spur(A)
(S3) Spur(AB) = Spur(BA)
(S4) Spur(ABC) = Spur(BCA) = Spur(CAB) (zyklische Permutation von ABC)
(S5) Spur(AT ) = Spur(A)

Für komplexwertige Matrizen gilt:


(S6) Spur(A∗ ) = Spur(A) "

> Bemerkung
Eigenschaften (S1) und (S2) implizieren, dass die Spur linear ist (vgl. 7 Kap. 7).

Übung 1.19
• ◦ ◦ Man betrachte die Matrizen A und B von Übung 1.10(a). Man berechne Spur(A +
B), Spur(2A), Spur(AT ), Spur(AB), Spur(BA) und Spur([A, B]).

v Lösung
Es gilt:
⎡ ⎤
313
⎢ ⎥
A + B = ⎣3 4 6⎦ ⇒ Spur(A + B) = 3 + 4 + 1 = 8.
111
32 Kapitel 1 • Matrizen

Alternative: Mit Rechenregel (S1) finden wir:


=
Spur(A) = 2 + 0 + 0 = 2
⇒ Spur(A + B) = Spur(A) + Spur(B) = 2 + 6 = 8 $
Spur(B) = 1 + 4 + 1 = 6

Für Spur(2A) finden wir:


⎡ ⎤
4 −2 0
⎢ ⎥
2A = ⎣2 0 0⎦ ⇒ Spur(2A) = 4 + 0 + 0 = 4.
0 2 0

Alternative: Aus Rechenregel (S2) folgt Spur(A) = 2 ⇒ Spur(2A) = 2 Spur(A) = 4 $.


Für Spur(AT ) gilt:
⎡ ⎤
2 10
⎢ ⎥
AT = ⎣−1 0 1⎦ ⇒ Spur(AT ) = 2 + 0 + 0 = 2.
0 00

Alternative: Aus Rechenregel (S5) folgt Spur(A) = 2 ⇒ Spur(AT ) = Spur(A) = 2 $.


In Übung 1.10(a), haben wir gezeigt, dass
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
000 420 −4 −2 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
AB = ⎣1 2 3⎦ , BA = ⎣8 4 0⎦ , [A, B] = ⎣−7 −2 3⎦
246 200 0 4 6

gilt. Es folgt somit:

Spur(AB) = 0 + 2 + 6 = 8, Spur(BA) = 4 + 4 + 0 = 8.

Beachte, dass Spur(AB) = Spur(BA), obwohl AB ̸= BA (dies ist Rechenregel (S3)).


Beachte auch, dass aus Spur(AB) = Spur(BA) folgt sofort Spur([A, B]) = 0. Dies
kann man auch direkt nachweisen:
⎡ ⎤
−4 −2 0
⎢ ⎥
Spur([A, B]) = Spur ⎣−7 −2 3⎦ = −4 − 2 + 6 = 0 $
0 4 6 #

Übung 1.20
• • ◦ Es seien A, B, C ∈ Kn×n . Man zeige:
a) Spur(AB) = Spur(BA)
b) Spur([A, B]) = 0
c) Spur(ABC) = Spur(CAB) = Spur(BCA).
1.3 • Inverse Matrix und die Menge GL(n, K)
33 1
v Lösung
a) Es seien A, B ∈ Kn×n mit Einträgen aij bzw. bij . Dann gilt:

n
! m
! m !
! n
[AB]ij = aik bkj ⇒ Spur(AB) = [AB]ii = aik bki
k=1 i=1 i=1 k=1
n
! m
! m !
! n m !
! n
[BA]ij = bik akj ⇒ Spur(BA) = [BA]ii = bik aki = aik bki
k=1 i=1 i=1 k=1 i=1 k=1

Somit ist Spur(AB) = Spur(BA).

b) Aus Teilaufgabe (a) folgt direkt (zusammen mit der Linearität der Spur), dass

Spur([A, B]) = Spur(AB − BA) = Spur(AB) − Spur(BA)


= Spur(AB) − Spur(AB) = 0.

c) Aus Teilaufgabe (a) folgt genau so:


" # " #
Spur(ABC) = Spur (AB)C = Spur C(AB) = Spur(CAB),
" # " #
Spur(ABC) = Spur A(BC) = Spur (BC)A = Spur(BCA). !

i Merkregel
Die Spur ist invariant bezüglich zyklischer Vertauschungen der Matrizen in einem
Produkt (d. h., die Matrizen werden im „Kreis“ vertauscht). Zum Beispiel:

Spur(ABCD) = Spur(DABC) = Spur(CDAB) = Spur(BCDA).

1.3 Inverse Matrix und die Menge GL(n, K)


" Definition 1.2
Es sei A ∈ Kn×n eine (n × n)-Matrix. Falls eine (n × n)-Matrix B ∈ Kn×n existiert für die

AB = BA = E (1.41)

gilt, so heißt die Matrix A invertierbar oder regulär. Die Matrix B heißt dann die Inverse
von A, kurz:

B = A−1 . (1.42)

#
34 Kapitel 1 • Matrizen

In Komponentenschreibweise lautet die Bedingung (1.2) wie folgt:

n n
$
! ! 1, für i = j
aik bkj = bik akj = δij = (1.43)
k=1 k=1
0, für i ̸= j

wobei aij und bij die Komponenten von A bzw. B sind. Beachte, dass für reguläre
Matrizen ihre Inverse eindeutig ist (siehe Übung 1.27).

" Beispiel
%1 2& ' (
−2 1
Die (2 × 2)-Matrix A = 34 ist invertierbar mit Inverse A−1 = 3 1 . Denn es gilt
2 −2

) *) * *) ) *) * ) *
−1 12 −2 1 10 −1 −2 1 12 10
AA = 3 1
= , A A= 3 1
= .#
34 2 −2 01 2 −2 34 01

1.3.1 Singuläre Matrizen

Beachte, dass nicht alle Matrizen eine Inverse besitzen. Solche Matrizen% & heißen
nichtinvertierbar oder singulär. Ein solches Beispiel ist die Matrix A = 10 00 .

1.3.2 Die Menge GL(n, K)


" Definition 1.3
Die Menge aller invertierbaren (regulären) (n × n)-Matrizen in Kn×n wird mit

GL(n, K) := {A ∈ Kn×n | A ist invertiebar} (1.44)

bezeichnet. GL(n, K) nennt man die allgemeine lineare Gruppe (auf English: General
Linear Group). #

1.3.3 Rechenregeln für inverse Matrizen


" Satz 1.7 (Rechenregeln für inverse Matrizen)
Für invertierbare quadratische Matrizen A, B ∈ GL(n, K) gelten die folgenden Gesetze
bzw. Rechenregeln:
+ ,−1
(I1) A−1 = A;
+ ,−1 + ,T
(I2) AT = A−1 ;
(I3) (AB)−1 = B−1 A−1 (Beachte: die Reihenfolge der Matrizen wird vertauscht!).
) *−1 ) *
A 0 A−1 0
(I4) Für Blockdiagonalmatrizen gilt: = .
0 B 0 B−1
1.3 • Inverse Matrix und die Menge GL(n, K)
35 1
Außerdem für komplexwertigen Matrizen gilt:
" #−1 + −1 ,∗
(I5) A∗ = A .#

> Bemerkung
Aufpassen:
5 AB = C ⇒ B = A−1 C (Inverse wird links multipliziert);
5 BA = C ⇒ B = CA−1 (Inverse wird rechts multipliziert).

Übung 1.21
◦ ◦ ◦ Man zeige jeweils, dass B die Inverse von A⎡ist ⎤ ⎡ ⎤
) * ) * 1 0 1 1 0 −1
5 3 2 −3 ⎢ ⎥ ⎢ ⎥
a) A = , B= b) A = ⎣2 3 4⎦ , B = ⎣− 23 13 − 32 ⎦
3 2 −3 5
0 0 1 0 0 1

v Lösung
a) Wir müssen einfach nachweisen, dass AB = BA = E gilt. Wegen
)*) * ) * ) *) * ) *
53 2 −3 10 2 −3 53 10
AB = = , BA = =
3 2 −3 5 01 −3 5 32 01

ist B die Inverse von A.

b) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤
10 1 1 0 −1 1 0 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
AB = ⎣2 3 4⎦ ⎣− 23 13 − 23 ⎦ = ⎣0 1 0⎦
00 1 0 0 1 0 0 1
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 −1 101 1 00
⎢ 2⎥⎢ ⎥ ⎢ ⎥
BA = ⎣− 23 1
3 − 3 ⎦ ⎣ 2 3 4 ⎦ = ⎣0 1 0⎦
0 0 1 001 0 01

ist B die Inverse von A. !

Übung 1.22
• ◦ ◦ Für welche Werte von α ∈ R ist B die Inverse von A?
) * ) *
1
1+α 4 5 − 25
A= , B= 1 3
−1 α 10 10
36 Kapitel 1 • Matrizen

v Lösung
Damit B die Inverse von A ist, muss AB = E gelten. Wir rechnen nach:
) *) * ) * )
*
1
1+α 4 5 − 25 α+3 4−2α
5 5 ! 10
AB = 1 3
= α−2 3α+4
= .
−1 α 10 10 10 10 01

4−2α 3α+4
Koeffizientenvergleich: aus α+3
5 = 1, 5 = 0, α−2
10 = 0 und 10 = 1 folgt α = 2. !

Übung 1.23
• ◦ ◦ Sei A ∈ GL(n, K) invertierbar. Man zeige:
a) (A−1 )−1 = A
b) (AT )−1 = (A−1 )T

v Lösung
a) Wegen AA−1 = E ist A die Inverse von A−1 , d. h. (A−1 )−1 = A.
" #T
b) Wegen (AB)T = BT AT ist (A−1 )T AT = AA−1 = E T = E. Somit ist (A−1 )T die
Inverse von AT , d. h. (AT )−1 = (A−1 )T . !

Übung 1.24
• ◦ ◦ Seien A, B ∈ GL(n, K) invertierbare Matrizen.
a) Man zeige, dass AB ∈ GL(n, K) (d. h. dass AB invertiebar ist) und dass für die
Inverse (AB)−1 = B−1 A−1 gilt.
b) Sei C ∈ GL(n, K) invertierbar. Man finde eine Formel für (ABC)−1 .

v Lösung
a) Wegen (B−1 A−1 )(AB) = B−1 (A−1 A)B = B−1 EB = B−1 B = E ist B−1 A−1 die
Inverse von AB, d. h. AB ist invertierbar und (AB)−1 = B−1 A−1 .
b) Wir wenden die Formel (AB)−1 = B−1 A−1 zwei Mal an und finden: (ABC)−1 =
" #−1
(AB)C = C −1 (AB)−1 = C −1 B−1 A−1 . !

i Merkregel
Bei der Bildung der Inversen eines beliebigen Produktes wird die Reihenfolge immer
vertauscht. Zum Beispiel, (ABCDEF)−1 = F −1 E −1 D−1 C −1 B−1 A−1 .

Übung 1.25
• ◦ ◦ Es seien A, B ∈ GL(n, K). Man löse die Matrizengleichung A + 2AB + 2B =
+ ,T
BT BAT + B nach A auf.
1.3 • Inverse Matrix und die Menge GL(n, K)
37 1
v Lösung
+ ,T
Es gilt: A + 2AB + 2B = BT BAT + B ⇔ A(E + 2B) + 2B = ABT B + BT ⇔
" # " #" #−1
A E + 2B − BT B = BT −2B. Es ergibt sich somit A = BT − 2B E + 2B − BT B =
" T #" #
B − 2B E + 2B−1 − B−1 B−T . !

Übung 1.26
• ◦ ◦ Es seien A, B ∈ GL(n, K). Man zeige Spur(A−1 BA) = Spur(B).

v Lösung
−1
Es ist Spur(A−1 BA) = Spur(B AA
3 45 6) = Spur(BE) = Spur(B). !
=E

Übung 1.27
• ◦ ◦ Sei A ∈ GL(n, K) eine invertierbare (n × n)-Matrix. Man zeige, dass die Inverse
A−1 eindeutig ist.

v Lösung
Wir nehmen an, dass A zwei Inverse B und C hat, d. h. dass es zwei Matrizen B und C
gibt mit BA = AB = E und CA = AC = E. Dann gilt B = BE = B(AC) = (BA)C =
EC = C. Daraus folgt B = C, d. h., die Inverse von A ist eindeutig. !

Übung 1.28
• ◦ ◦ Es seien A ∈ GL(n, K) und B ∈ GL(r, K) invertierbar. Man zeige:
) *−1 ) *
A 0 A−1 0
= .
0 B 0 B−1

v Lösung
Mit den Rechenregeln für Blockmatrizen (7 vgl. Abschn. 1.2.7) finden wir:
) *) * ) *
A−1 0 A 0 A−1 A + 0 A−1 0 + 0B
=
0 B−1 0 B 0A + B−1 0 0 + B−1 B
) *
E n×n 0
= = E (n+r)×(n+r) .
0 E r×r

) *−1 ) *
A 0 A−1 0
Somit ist = . !
0 B 0 B−1
38 Kapitel 1 • Matrizen

Ein etwas anspruchsvolles Beispiel aus der komplexen Analysis:

Übung 1.29
• • • Eine (normierte) Möbius-Transformation ist eine Abbildung M : C ∪ {∞} →
az+b
C ∪ {∞}, z → M(z) = cz+d , wobei ad − bc = 1. Möbius-Transformationen kann man
mit (2 × 2)-Matrizen wie folgt darstellen:
) *
az + b ab
M(z) = ↔ [M] = .
cz + d cd

a) Welche Möbius-Transformation wird von der Einheitsmatrix E erzeugt?


b) Ist die Darstellung von Möbius-Transformationen mit Matrizen eindeutig?
c) Es sei M(z) eine Möbius-Transformation mit Matrixdarstellung [M]. Wie lautet die
Matrixdarstellung von M −1 (z)?
d) Es seien M1 (z) und M2 (z) Möbius-Transformationen mit Matrixdarstellungen [M1 ]
bzw. [M2 ]. Man zeige, dass die Matrixdarstellung von M2 ◦ M1 ist
[M2 ◦ M1 ] = [M2 ][M1 ].

v Lösung
a) Es gilt
) *
10 1·z+0
[M] = → M(z) = = z.
01 0·z+1

Die Einheitsmatrix erzeugt die Identität M(z) = z.

b) Die Matrixdarstellung von Möbius-Transformationen ist nicht eindeutig. Denn


[M] und −[M] erzeugen dieselbe Möbius-Transformation:
)
*
ab az + b
[M] = → M(z) =
cd cz + d
) *
−a −b −az − b az + b
−[M] = → M(z) = = .
−c −d −cz − d cz + d

c) Es gilt
) *
az + b dy − b dy − b d −b
y= ⇒ z= ⇒ M −1 (y) = ⇒ [M −1 ] = .
cz + d −cy + a −cy + a −c a

Wegen ad − bc = 1 ist [M −1 ] (Matrixdarstellung von M −1 ) genau die Inverse von


[M] (Matrixdarstellung von M):
) *) * ) * ) *
−1 d −b ab ad − bc bd − bd 10
[M ][M] = = = .
−c a cd −ac + ac ad − bc 01
1.4 • Spezielle Matrizen
39 1
Mit anderen Worten [M −1 ] = [M]−1 .

d) Es seien M1 und M2 Möbius-Transformationen mit Matrizen [M1 ] bzw. [M2 ]:


) * ) *
a b a1 z + b1 a2 b2 a2 z + b2
[M1 ] = 1 1 → M1 (z) = , [M2 ] = → M2 (z) =
c1 d1 c1 z + d1 c2 d2 c2 z + d2

Es gilt:

7 8 z+b1
a2 ac1 z+d + b2
a1 z + b1 1 1
(M2 ◦ M1 )(z) = M2 (M1 (z)) = M2 =
c1 z + d1 z+b1
c2 ac1 z+d + d2
1 1

a2 (a1 z + b1 ) + b2 (c1 z + d1 ) (a2 a1 + b2 c1 )z + (a2 b1 + b2 d1 )


= =
c2 (a1 z + b1 ) + d2 (c1 z + d1 ) (c2 a1 + d2 c1 )z + (c2 b1 + d2 d1 )

Beachte, dass
) *) * ) *
a2 b2 a1 b1 a2 a1 + b2 c1 a2 b1 + b2 d1
[M2 ][M1 ] = = .
c2 d2 c1 d1 c2 a1 + d2 c1 c2 b1 + d2 d1

Die Matrixdarstellung der Komposition M2 ◦ M1 ist somit gleich dem Produkt der
Darstellungsmatrizen von M2 und M1 , d. h. [M2 ◦ M1 ] = [M2 ][M1 ]. !

1.4 Spezielle Matrizen

Anschließend diskutieren wir noch einige spezielle Typen quadratischer Matrizen,


welche eine wichtige Rolle in der linearen Algebra spielen.

1.4.1 Symmetrische Matrizen

Eine (n × n)-Matrix A ∈ Kn×n mit der Eigenschaft

AT = A (1.45)

heißt symmetrisch. Eine Matrix ist somit genau dann symmetrisch, wenn A bezüglich
der Diagonalen symmetrisch ist, d. h. wenn für die Einträge von A

aij = aji (1.46)

gilt. Man beachte dass, aufgrund der Dimensionen, symmetrische Matrizen notwen-
digerweise quadratisch sein müssen.
40 Kapitel 1 • Matrizen

" Definition 1.4


Die Menge aller symmetrischen (n × n)-Matrizen in Kn×n wird mit

Symn (K) := {A ∈ Kn×n | A ist symmetrisch} (1.47)

bezeichnet. #

> Bemerkung
Beachte: Symn (K) ist keine Gruppe, weil für symmetrische Matrizen A, B ∈ Symn (K)
im Allgemeinen AB ∈ / Symn (K) gilt (vgl. Übung 1.32).

Übung 1.30
⎡ ⎤
1 2 3 4
⎢2
⎢ 5 6 7⎥⎥
◦ ◦ ◦ Ist A = ⎢ ⎥ symmetrisch?
⎣3 6 8 9⎦
4 7 9 10

v Lösung
⎡ ⎤
123 4
⎢2 5 6 7 ⎥
⎢ ⎥
Wegen AT = ⎢ ⎥ = A ist A symmetrisch. Man sieht dies auch direkt, weil die
⎣3 6 8 9 ⎦
4 7 9 10
Matrix bezüglich der Diagonalen symmetrisch ist. !

Übung 1.31 ⎡ ⎤
120
⎢ ⎥
• ◦ ◦ Berechne die Produkte A2 , AAT und AT A für A = ⎣3 0 1⎦. Welche der Matrizen
101
A2 , AAT und AT A sind symmetrisch?

v Lösung
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 2 0 1 2 0 722
⎢ ⎥⎢ ⎥ ⎢ ⎥
A2 = ⎣3 0 1⎦ ⎣3 0 1⎦ = ⎣4 6 1⎦
1 0 1 1 0 1 221
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 2 0 1 3 1 5 3 1
⎢ ⎥⎢ ⎥ ⎢ ⎥
AAT = ⎣3 0 1⎦ ⎣2 0 0⎦ = ⎣3 10 4⎦
1 0 1 0 1 1 1 4 2
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 3 1 1 2 0 11 2 4
⎢ ⎥⎢ ⎥ ⎢ ⎥
AT A = ⎣2 0 0⎦ ⎣3 0 1⎦ = ⎣ 2 4 0⎦
0 1 1 1 0 1 4 02

Die Matrizen AAT und AT A sind symmetrisch, während A2 nicht symmetrisch ist. !
1.4 • Spezielle Matrizen
41 1

Übung 1.32
• ◦ ◦ Für welche Werte von α ∈ R ist das Produkt AB symmetrisch?
) * ) *
α 1 0 1−α
A= , B=
2 −1 1 1

Ist das Produkt symmetrischer Matrizen immer symmetrisch?

v Lösung
Wir berechnen das Produkt aus
) *) * ) *
α 1 0 1−α 1 α(1 − α) + 1
AB = =
2 −1 1 1 −1 2(1 − α) − 1

Die Matrix ist symmetrisch wenn α(1−α)+1 = −1, d. h. α 2 −α −2 = 0 ⇒ α = {−1, 2}.


Das Produkt symmetrischer Matrizen ist im Allgemeinen nicht symmetrisch. Zum
% & % &
Beispiel, die Matrizen A = 21 11 , B = 11 12 sind symmetrisch. Deren Produkt
%3 4&
AB = 2 3 ist aber nicht symmetrisch. Aus diesem Grund ist Symn (K) keine Gruppe
bezüglich der Matrixmultiplikation (vgl. Anhang B). !

Übung 1.33
• ◦ ◦ Sei A ∈ Kn×n eine (n × n)-Matrix. Man beweise, dass AAT und AT A immer
symmetrisch sind.

v Lösung
Es ist:

(AAT )T = (AT )T AT = AAT ⇒ AAT symmetrisch


(AT A)T = AT (AT )T = AT A ⇒ AT A symmetrisch !

1.4.2 Schiefsymmetrische Matrizen

Eine (n × n)-Matrix A ∈ Kn×n , welche

AT = −A (1.48)

erfüllt, heißt schiefsymmetrisch oder antisymmetrisch (auf Englisch: skew symmetric).


Mit anderen Worten, eine Matrix ist schiefsymmetrisch, wenn für ihre Einträge

aij = −aji (1.49)


42 Kapitel 1 • Matrizen

gilt. Beachte, dass bei einer schiefsymmetrischen Matrix alle Diagonaleinträge gleich
Null sind. Denn aus Gl. (1.49) mit i = j folgt

aii = −aii ⇒ aii = 0. (1.50)

" Definition 1.5


Die Menge aller schiefsymmetrischen (n × n)-Matrizen in Kn×n wird mit

Skewn (K) := {A ∈ Kn×n | A ist schiefsymmetrisch} (1.51)

bezeichnet. #

Übung 1.34
⎡ ⎤
0 2 −3 4
⎢−2
⎢ 0 −6 −7⎥

◦ ◦ ◦ Man zeige, dass die Matrix A = ⎢ ⎥ schiefsymmetrisch ist.
⎣3 6 0 9⎦
−4 7 −9 0

v Lösung
⎡ ⎤
0 −2 3 −4
⎢2 0 6 7⎥
⎢ ⎥
Wegen AT = ⎢ ⎥ = −A ist A schiefsymmetrisch. !
⎣−3 −6 0 −9⎦
4 −7 9 0

Übung 1.35
••◦
a) Man zeige: Jede (n × n)-Matrix A ∈ Kn×n kann als Summe einer symmetrischen
und einer schiefsymmetrischen
⎡ Matrix
⎤ geschrieben werden.
23 1
⎢ ⎥
b) Man stelle die Matrix A = ⎣5 6 −6⎦ als Summe einer symmetrischen und einer
3 9 −3
schiefsymmetrischen Matrix dar.

v Lösung
a) Wir schreiben A wie folgt:

1 1 1 1 1 1 A + AT A − AT
A= A + A = A + A + AT − AT = + = S + T.
2 2 2 2 2 2 2 6 3 45
3 45 2 6
=S =T

Die Matrix S ist symmetrisch, weil


1.4 • Spezielle Matrizen
43 1
9 :T
T A + AT AT + (AT )T AT + A A + AT
S = = = = = S.
2 2 2 2

Die Matrix T ist schiefsymmetrisch, weil


9 :T
T A − AT AT − (AT )T AT − A A − AT
T = = = =− = −T.
2 2 2 2

b) Aus Teilaufgabe (a) wissen wir, dass jede (n × n)-Matrix A als Summe einer
symmetrischen und einer schiefsymmetrischen Matrix darstellbar ist:

A + AT A − AT
A = S + T, wobei S = und T = .
2 2

In diesem Fall
⎡ ⎤ ⎡ ⎤
23 1 2 5 3
⎢ ⎥ ⎢ ⎥
A = ⎣5 6 −6⎦ ⇒ AT = ⎣3 6 9 ⎦
3 9 −3 1 −6 −3
⎡ ⎤ ⎡ ⎤
T 4 8 4 2 4 2
A+A 1⎢ ⎥ ⎢ ⎥
⇒ S= = ⎣8 12 3 ⎦ = ⎣4 6 32 ⎦ symmetrisch
2 2
4 3 −6 2 32 −3
⎡ ⎤ ⎡ ⎤
0 −2 −2 0 −1 −1
A − AT 1⎢ ⎥ ⎢ ⎥
⇒ T= = ⎣2 0 −15⎦ = ⎣1 0 − 15 2 ⎦
schiefsymmetrisch
2 2 15
2 15 0 1 2 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 4 2 0 −1 −1 23 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Probe: S + T = ⎣4 6 32 ⎦ + ⎣1 0 − 15
2 ⎦
= ⎣5 6 −6⎦ = A $ !
3 15
2 2 −3 1 2 0 3 9 −3

i Merkregel
Jede (n × n)-Matrix A ∈ Kn×n kann man wie folgt als Summe einer symmetrischen und
einer schiefsymmetrischen Matrix zerlegen:

A + AT A − AT
A = S + T, wobei S = und T = .
2 2

Diese Darstellung ist in vielen Situationen nützlich (vgl. Übung 5.26).

> Bemerkung
Analoge Zerlegungen treten in mehreren Bereichen der Mathematik auf. Zum Beispiel
kann man jede Funktion f in einen geraden Teil g (mit g(−x) = g(x)) und einen
ungeraden Teil h (mit h(−x) = −h(x)) zerlegen:
44 Kapitel 1 • Matrizen

f (x) + f (−x) f (x) − f (−x)


f (x) = g(x) + h(x), g(x) = , h(x) = .
2 2

Ein weiteres Beispiel ist die Zerlegung einer komplexen Zahl z ∈ C in einen reellen Teil
x (mit x̄ = x) und einen imaginären Teil iy (mit iy = −iy):

z + z̄ z − z̄
z = x + iy, x= , iy = .
2 2

1.4.3 Hermitesche oder selbstadjungierte Matrizen

Eine komplexwertige (n × n)-Matrix A ∈ Cn×n heißt hermitesch oder selbstadjungiert


wenn

A∗ = A (1.52)

gilt, wobei A∗ die adjungierte Matrix von A bezeichnet. Anders ausgedrückt, A ist
genau dann hermitesch, wenn für ihre Einträge

aij = aji (1.53)

gilt. Beachte, dass die Diagonalelemente einer hermiteschen Matrix immer reell sein
müssen. Denn aus Gl. (1.53) mit i = j folgt

aii = aii ⇒ aii ∈ R. (1.54)

" Definition 1.6


Die Menge aller hermiteschen (n × n)-Matrizen in Cn×n wird mit

Hn (C) := {A ∈ Cn×n | A ist hermitesch}

bezeichnet. #

Übung 1.36 ⎤⎡
1 i 0
⎢ ⎥
◦ ◦ ◦ Man zeige, dass A = ⎣−i 0 1⎦ hermitesch ist.
0 11

v Lösung ⎡
⎤ ⎡ ⎤
1 −i 0 1 i 0
T ⎢ ⎥ ⎢ ⎥
Wegen A∗ = A = ⎣ i 0 1⎦ = ⎣−i 0 1⎦ = A ist A hermitesch. !
0 1 1 0 11
1.4 • Spezielle Matrizen
45 1

Übung 1.37 ) * ) *
01 0 −i
• • ◦ Man zeige, dass die Pauli-Matrizen (vgl. Übung 1.13) σx = , σy = ,
10 i 0
) *
1 0
σz = hermitesch sind.
0 −1

v Lösung
Eine direkte Rechnung zeigt:
) *T ) * ) *T ) *
∗ T 01 01 ∗ T 0 i 0 −i
σx = σx = = = σx σy = σy = = = σy
10 10 −i 0 i 0
) *T ) *
1 0 1 0
σz ∗ = σz T = = = σz ⇒ σx , σy , σz sind hermitesch. !
0 −1 0 −1

Übung 1.38
• ◦ ◦ Für welche α, β, γ ∈ C ist die folgende Matrix hermitesch?
⎡ ⎤
1 α + 2i γ
⎢ ⎥
A = ⎣1 − 2i 0 1 + βi⎦
βi 2 − αi −2

v Lösung
Es gilt
⎡ ⎤
1 1 + 2i −βi
⎢ T ⎥
A∗ = A = ⎣α − 2i 0 2 + αi⎦ .
γ 1 − βi −2

Damit A hermitesch ist, muss A∗ gleich A sein. Daraus folgt

1 + 2i = α + 2i ⇒ α=1
1 − βi = 2 − αi = 2 − i ⇒ βi = −1 + i ⇒ β =1−i
γ = βi = 1 + i ⇒ γ = 1 − i.
⎡ ⎤
1 1 + 2i 1 − i
⎢ ⎥
Die gesuchte Matrix lautet somit A = ⎣ 1 − 2i 0 2 + i ⎦ . !
1 + i 2 − i −2
46 Kapitel 1 • Matrizen

1.4.4 Orthogonale Matrizen

Eine (n × n)-Matrix A ∈ Kn×n heißt orthogonal wenn

AT A = E (1.55)

gilt. Beachte, dass diese Bedingung äquivalent zu

A−1 = AT (1.56)

ist, d. h., eine orthogonale Matrix A ist immer invertierbar und die Inverse von A ist
gleich AT .

" Definition 1.7


Die Menge aller orthogonalen (n × n)-Matrizen in Kn×n wird mit

On (K) := {A ∈ Kn×n | A ist orthogonal} (1.57)

bezeichnet. On (K) heißt orthogonale Gruppe (auf Englisch: Orthogonal group). #

> Bemerkung
Dass On (K) eine Gruppe bezüglich der Matrixmultiplikation ist, folgt aus Übung 1.41.

Übung 1.39
•◦◦ Man zeige, dass die folgenden Matrizen orthogonal sind und man bestimme jeweils
die Inverse:
⎡ ⎤ ⎡ ⎤
⎡ ⎤ 1 1 1 1
1 2 2 − √1 √1 − √1
1⎢ ⎥ ⎢ 2 3 6⎥
1⎢⎢1 −1 −1 1⎥⎥
A= ⎣ 2 1 −2⎦ , B=⎢
⎣ 0 √1 √2 ⎥ , C= ⎢ ⎥
3 3 6 ⎦ 2 ⎣−1 −1 1 1⎦
−2 2 −1 √1 √1 − √1
2 3 6 −1 1 −1 1

v Lösung
a) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 −2 1 2 2 90 0 100
1⎢ ⎥⎢ ⎥ 1⎢ ⎥ ⎢ ⎥
AT A = ⎣2 1 2 ⎦ ⎣ 2 1 −2⎦ = ⎣0 9 0⎦ = ⎣0 1 0⎦
9 9
2 −2 −1 −2 2 −1 00 9 001

ist⎡A orthogonal.
⎤ Da für orthogonale Matrizen A−1 = AT gilt, ist A−1 = AT =
1 2 −2
1⎢ ⎥
3 2 1 2 ⎦.

2 −2 −1
1.4 • Spezielle Matrizen
47 1
b) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤
− √1 √1 0 − √1 √1 − √1 100
⎢ 1 2 2 ⎥⎢ 2 3 6⎥
BT B = ⎢ √ √1 √1 ⎥ ⎢ 0 √1 √2 ⎥=⎢ ⎥
⎣ 3 3 3 ⎦⎣ 3 6 ⎦ ⎣0 1 0⎦
− √1 √2 − √1 √1 √1 − √1 001
6 6 6 2 3 6

⎡ ⎤
− √1 0 √1
⎢ 2 2 ⎥
ist B orthogonal. Daher ist B−1 = BT = ⎢ √1 √1 √1 ⎥.
⎣ 3 3 3 ⎦
− √1 √2 − √1
6 6 6

c) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 −1 −1 1 1 1 1 4 0 0 0 1 0 0 0
⎢1 1⎥ ⎢ ⎥ ⎢ 0⎥
1 ⎢ ⎥
⎢ −1 −1 ⎥ ⎢ 1 −1 −1 1⎥ 1 ⎢0 4 0 ⎥ ⎢0 1 0 0⎥
CT C = ⎢ ⎥⎢ ⎥= ⎢ ⎥=⎢ ⎥
4 ⎣1 −1 1 −1⎦ ⎣−1 −1 1 1⎦ 4 ⎣0 0 4 0⎦ ⎣0 0 1 0⎦
1 1 1 1 −1 1 −1 1 0 0 0 4 0 0 0 1

⎡ ⎤
1 1 −1 −1
⎢1
⎢ −1 −1 1⎥ ⎥
ist C orthogonal. Da C orthogonal ist, gilt: C −1 = C T = 12 ⎢ ⎥. !
⎣1 −1 1 −1⎦
1 1 1 1

Übung 1.40 ) *
cos(ϕ) − sin(ϕ)
• ◦ ◦ Die Matrix R(ϕ) = beschreibt eine Drehung im R2 um den
sin(ϕ) cos(ϕ)
Winkel ϕ in positiver Richtung (vgl. Übung 1.12).
a) Man zeige, dass R(ϕ) orthogonal ist.
b) Man bestimme die Inverse R−1 (ϕ) und interpretiere das Resultat geometrisch.

v Lösung
a) Wegen cos2 (ϕ) + sin2 (ϕ) = 1 ist
) *) *
T cos(ϕ) sin(ϕ) cos(ϕ) − sin(ϕ)
R(ϕ) R(ϕ) =
− sin(ϕ) cos(ϕ) sin(ϕ) cos(ϕ)
) *
cos2 (ϕ) + sin2 (ϕ) 0
=
0 cos2 (ϕ) + sin2 (ϕ)
) *
1 0
= ⇒ R(ϕ) ist orthogonal.
0 1
48 Kapitel 1 • Matrizen

b) Da R(ϕ) orthogonal ist, ist R−1 (ϕ) = R(ϕ)T


) *
−1 T cos(ϕ) sin(ϕ)
R(ϕ) = R(ϕ) = .
− sin(ϕ) cos(ϕ)

Wegen sin(−ϕ) = − sin(ϕ) und cos(−ϕ) = cos(ϕ) können wir R(ϕ)−1 wie folgt
umschreiben
) *
cos(−ϕ) − sin(−ϕ)
R(ϕ)−1 = = R(−ϕ),
sin(−ϕ) cos(−ϕ)

d. h., R (ϕ)−1 beschreibt eine Drehung um den Winkel −ϕ. Dies bedeutet, dass
R(ϕ)−1 eine Drehung um den gleichen Winkel ϕ in Gegenrichtung ist. !

Übung 1.41
• ◦ ◦ Seien A und B zwei orthogonale (n × n)-Matrizen. Man zeige, dass auch AB
orthogonal ist.

v Lösung
Wegen (AB)T = BT AT gilt (AB)T AB = BT AT AB. Da A und B orthogonal sind, ist
AT A = BT B = E. Daraus folgt:

(AB)T AB = BT (AT A)B = BT EBT = BT BT = E.

Somit ist AB orthogonal. Daraus folgt, dass On (K) eine Gruppe bezüglich der Matrix-
multiplikation ist. !

Übung 1.42
• ◦ ◦ Sei A schiefsymmetrisch und seien A + E und A − E invertierbar. Man zeige, dass
(E + A)(E − A)−1 orthogonal ist.

v Lösung
A ist schiefsymmetrisch ⇒ AT = −A. Mit der Formel (AB)T = BT AT finden wir dann
(beachte E T = E):
+ ,T
(E + A)(E − A)−1 (E + A)(E − A)−1 = (E − A)−T (E + A)T (E + A)(E − A)−1

= (E − AT )−1 (E + AT )(E + A)(E − A)−1 = (E + A)−1 (E − A)(E + A)(E − A)−1

Nun würden wir gerne die Terme (E − A) und (E + A) vertauschen können. Dies ist
nur möglich, wenn (E − A) und (E + A) kommutieren. Wegen

(E − A)(E + A) = E + EA − AE − A2 = E − A2
1.4 • Spezielle Matrizen
49 1
(E + A)(E − A) = E − EA + AE − A2 = E − A2

ist (E − A)(E + A) = (E + A)(E − A). Daraus folgt


+ ,T
(E + A)(E − A)−1 (E + A)(E − A)−1 = (E + A)−1 (E − A)(E + A)(E − A)−1

= (E + A)−1 (E + A) (E − A)(E − A)−1 = E.


3 45 63 45 6
=E =E

Somit ist (E + A)(E − A)−1 orthogonal. !

1.4.5 Unitäre Matrizen

Eine komplexwertige (n × n)-Matrix A ∈ Cn×n heißt unitär, wenn

A∗ A = E. (1.58)

Wie für orthogonale Matrizen aus Gl. (1.58) folgt insbesondere, dass unitäre Matri-
zen invertierbar sind. Die Inverse von A ist A∗ . Somit ist A genau dann unitär, wenn
gilt:

A−1 = A∗ . (1.59)

" Definition 1.8


Die Menge aller unitären (n × n)-Matrizen in Cn×n wird mit

Un (C) := {A ∈ Cn×n | A ist unitär} (1.60)

bezeichnet. Un (C) nennt man die unitäre Gruppe. #

Übung 1.43 ⎡ ⎤
2 −2 −2
1 ⎢ √ √ ⎥
◦ ◦ ◦ Man zeige, dass A = √ ⎣ 3−i 3 + i −2i⎦ unitär ist.
2 3 √ √
1 − 3i −1 − 3i 2
50 Kapitel 1 • Matrizen

v Lösung
Wegen
⎡ √ √ ⎤⎡ ⎤
2 3 + i 1 + 3i 2 −2 −2
1 ⎢ √ √ ⎥⎢ √ √ ⎥
A∗ A = ⎣−2 3 − i −1 + 3i⎦ ⎣ 3 − i 3 + i −2i⎦
12 √ √
−2 2i 2 1 − 3i −1 − 3i 2
⎡ ⎤ ⎡ ⎤
12 0 0 1 0 0
1 ⎢ ⎥ ⎢ ⎥
= ⎣ 0 12 0 =
⎦ ⎣0 1 0⎦
12
0 0 12 0 0 1

ist A unitär. !

Übung 1.44
• ◦ ◦ Seien A ∈ Kn×n hermitesch und U ∈ Kn×n unitär. Man zeige, dass U −1 AU
hermitesch ist.

v Lösung
A ist hermitesch ⇒ A∗ = A. Außerdem ist U unitär ⇒ U ∗ = U −1 . Daher ist
" −1 #∗ " #∗ " #−1 " #−1
U AU = U ∗ A∗ U −1 = U −1 A U ∗ = U −1 A U −1 = U −1 AU ⇒
−1
U AU ist hermitesch. !

1.4.6 Idempotente Matrizen

Eine (n × n)-Matrix A ∈ Kn×n , für welche

A2 = A (1.61)

gilt, heißt idempotent.

Übung 1.45
• ◦ ◦ Man bestimme alle reellen idempotenten (2 × 2)-Matrizen.
1.4 • Spezielle Matrizen
51 1
v Lösung
%a b&
A= cd ist genau dann idempotent, wenn

⎪ 2
) *) * ) * ) * ⎪a + bc = a



⎨ab + bd = b
ab ab a2 + bc ab + bd ! a b
A2 = = 2
= =A ⇒
cd cd ac + cd bc + d cd ⎪
⎪ ac + cd = c




bc + d 2 = d

Aus der zweiten und dritten Gleichung folgt

ab + bd = b ⇒ b(a + d − 1) = 0 ⇒ b = 0 oder a + d = 1
ac + cd = c ⇒ c(a + d − 1) = 0 ⇒ c = 0 oder a + d = 1.

5 Gilt c = b = 0, so ist A diagonal und aus den Bedingungen a2 + bc = a und


bc + d 2 = d folgt a2 = a und d 2 = d. Das heißt, a und d sind entweder gleich 0 oder
1. Daraus ergeben sich die folgenden vier Möglichkeiten
) * ) * ) * ) *
10 10 00 00
, , , .
01 00 01 00

5 Ist c, b ̸= 0 und d = 1−a, so folgt aus der ersten (oder vierten) Gleichung bc = a−a2
2
⇒ c = a−a b und b ̸= 0 ist beliebig. Das heißt, A sieht wie folgt aus
) *
a b
a−a2
, a ∈ R, b ̸= 0.
b 1−a
!

Übung 1.46
+ ,−1
• ◦ ◦ Es sei A ∈ GL(n, K). Man zeige, dass H = A AT A AT symmetrisch und
idempotent ist.

v Lösung
+ ,T + ,−T 7 + ,T 8−1 + ,−1
Wegen H T = AT AT A AT = A AT AT AT = A AT A AT = H
+ ,−1 + ,−1 + ,−1
ist H symmetrisch. Wegen H 2 = A AT A AT A AT A AT = A AT A AT =
3 45 6
=E
H ist H idempotent.
+ ,−1
Alternative: Man erkennt, dass H = A AT A AT = AA−1 A−T AT = E. Die
Einheitsmatrix E ist sowohl symmetrisch als auch idempotent. !
52 Kapitel 1 • Matrizen

1.4.7 Involutive Matrizen

Eine (n × n)-Matrix A ∈ Kn×n heißt involutiv, wenn

A2 = E (1.62)

gilt. Aus Gl. (1.62) folgt, dass jede involutive Matrix A invertierbar ist und

A−1 = A. (1.63)

Übung 1.47 * ) * )
01 0 −i
◦ ◦ ◦ Man zeige, dass die Pauli Matrizen (vgl. Übung 1.13) σx = , σy = ,
10 i 0
) *
1 0
σz = involutiv sind, und man bestimme deren Inversen.
0 −1

v Lösung
Es gilt
) *) * ) * ) *) * ) *
2 0 1 01 10 2 0 −i 0 −i 10
σx = = = E, σy = = = E,
1 0 10 01 i 0 i 0 01
) *) * ) *
1 0 1 0 10
σz 2 = = =E ⇒ σx , σy , σz sind involutiv.
0 −1 0 −1 01

Daraus folgt
) * ) * ) *
01 0 −i 1 0
σx −1 = σx = , σy −1 = σy = , σz −1 = σz = .
10 i 0 0 −1 !

Übung 1.48
• ◦ ◦ Man bestimme alle reellen involutiven (2 × 2)-Matrizen.

v Lösung
%a b&
A= cd ist genau dann involutiv, wenn



⎪ a2 + bc = 1
) *) * ) * ) * ⎪


ab ab a2 + bc ab + bd ! 1 0 ab + bd = 0
A2 = = 2
= =E ⇒
cd cd ac + cd bc + d 01 ⎪

⎪ ac + cd = 0



bc + d 2 = 1
1.4 • Spezielle Matrizen
53 1
Aus der zweiten und dritten Gleichung folgt

b(a + d) = 0 ⇒ b = 0 oder a = −d
c(a + d) = 0 ⇒ c = 0 oder a = −d.

5 Gilt c = b = 0, so ist A diagonal und aus den Bedingungen a2 + bc = 1 und


bc + d 2 = 1 folgt a2 = 1 und d 2 = 1. Das heißt, a und d sind entweder gleich 1 oder
−1. Daraus ergeben sich die folgenden vier Möglichkeiten
) * ) * ) * ) *
10 1 0 −1 0 −1 0
, , , .
01 0 −1 0 1 0 −1

5 Ist c, b ̸= 0 und d = −a, so folgt aus der ersten (oder vierten) Gleichung bc = 1 − a2
2
⇒ c = 1−a b . D. h. A sieht wie folgt aus
) *
a b
1−a2
, a ∈ R, b ̸= 0.
b −a
!

1.4.8 Nilpotente Matrizen

Eine (n × n)-Matrix A ∈ Kn×n heißt nilpotent, wenn es ein m ∈ N gibt, sodass

Am = 0, Am−1 ̸= 0 (1.64)

gilt. Die kleinste solche Zahl m heißt Nilpotenzgrad (oder Nilpotenzindex).

> Bemerkung
Für den Nilpotenzgrad m einer quadratischen (n × n)-Matrix gilt m ≤ n (vgl. Satz von
Cayley-Hamilton, Band II).

Übung 1.49
⎡ ⎤
⎡ ⎤ 0 1 1 1
2 2 −10 ⎢0
⎢ ⎥ ⎢ 0 1 1⎥⎥
◦ ◦ ◦ Man zeige, dass A = ⎣1 2 −7 ⎦ und B = ⎢ ⎥ nilpotent sind. Man
⎣0 0 0 1⎦
0 2 −4
0 0 0 0
bestimme den Nilpotenzgrad.
54 Kapitel 1 • Matrizen

v Lösung
Wegen
⎡ ⎤ ⎡ ⎤
6 −12 6 000
⎢ ⎥ ⎢ ⎥
A2 = ⎣4 −8 4⎦ , A3 = ⎣0 0 0⎦
2 −4 2 000

ist A nilpotent mit Nilpotenzgrad 3. Für B gilt:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 1 2 0 0 0 1 0 0 0 0
⎢0 1⎥ ⎢0 0⎥ ⎢0
⎢ 0 0 ⎥ ⎢ 0 0 ⎥ ⎢ 0 0 0⎥

B2 = ⎢ ⎥, B3 = ⎢ ⎥ B4 = ⎢ ⎥
⎣0 0 0 0⎦ ⎣0 0 0 0⎦ ⎣0 0 0 0⎦
0 0 0 0 0 0 0 0 0 0 0 0

B ist nilpotent mit Nilpotenzgrad 4. !

Übung 1.50
•◦◦
a) Man bestimme alle reellen nilpotenten (2 × 2)-Matrizen.
b) Sei K = Z2 . Man bestimme alle nilpotenten Matrizen in K2×2 .

v Lösung
%a b&
a) A = cd ist genau dann nilpotent, wenn



⎪ a2 + bc = 0
) *) * ) * ) * ⎪

⎨b(a + d) = 0
ab ab a2 + bc ab + bd ! 0 0
A2 = = = ⇒
cd cd ac + cd bc + d 2 00 ⎪
⎪c(a + d) = 0




bc + d 2 = 0

Aus der zweiten und dritten Gleichung folgt entweder b = 0 und c = 0 oder a = −d.
5 Ist b = c = 0, so folgt aus der ersten und vierten Gleichung a2 = 0 und d 2 = 0,
d. h. a = d = 0. Daraus ergibt sich die foldende nilpotente Matrix
) *
00
.
00

5 Ist b = 0 aber c ̸= 0 so muss a = −d sein. Aus der ersten Gleichung folgt dann
a2 = bc = 0 ⇒ a = 0. Daraus ergibt sich die foldende Matrix
) *
00
, c ∈ R.
c0
1.4 • Spezielle Matrizen
55 1
5 Ist c = 0 aber b ̸= 0 so ergibt sich die foldende Matrix
) *
0b
, b ∈ R.
00

5 Ist a = −d mit b, c ̸= 0, so folgt aus der ersten (oder vierten) Gleichung bc =


−a2 ⇒ c = −a2 /b. D. h. A sieht wie folgt aus
) *
a b
−a2
, a ∈ R, b ̸= 0.
b −a

Zusammenfassend ergeben sich die folgenden vier Möglichkeiten


) * ) * ) * ) *
00 00 0b a b
, , , −a2
.
00 c0 00 b −a

b) Z2 besteht nur aus den Elementen 0 und 1 (vgl. Anhang B.4). Matrizen in Z2×2 2
haben also nur 0 oder 1 als Einträge. Außerdem in Z2 gilt −1 = 1. Aus Teilaufgabe
(a) ergeben sich somit die folgenden vier nilpotente Matrizen
) * ) * ) * ) *
00 00 01 11
, , , .
00 10 00 11 !

Übung 1.51
• • ◦ Sei A ∈ Kn×n nilpotent mit Nilpotenzgrad m. Man zeige, dass E − A invertierbar
ist mit Inverse (E − A)−1 = E + A + A2 + · · · + Am−1 .

v Lösung
A ∈ Kn×n ist nilpotent mit Nilpotenzgrad m ⇒ Am = 0. Daher ist

(E − A)(E + A + A2 + · · · + Am−1 ) = E + A + A2 + · · · + Am−1


− A − A2 − · · · − Am−1 − Am
= E − Am = E

d. h. E + A + A2 + · · · + Am−1 ist die Inverse von E − A. !

1.4.9 Normale Matrizen

Eine reelle (n × n)-Matrix A ∈ Rn×n , welche

AT A = AAT (1.65)
56 Kapitel 1 • Matrizen

erfüllt, heißt normal. Anders ausgedrückt: Eine Matrix A ist normal, wenn sie mit
ihrer Transponierten kommutiert, d. h.

[A, AT ] = 0. (1.66)

Bei komplexwertigen Matrizen muss man bei der obigen Definition die Transponierte
mit der Adjungierten ersetzen. Eine komplexwertigen (n × n)-Matrix A ∈ Cn×n , heißt
normal, falls

A∗ A = AA∗ . (1.67)

Übung 1.52 ⎡ ⎤
0 −1 1 ) *
⎢ ⎥ 1+i 1−i
◦ ◦ ◦ Man zeige, dass A = ⎣ 1 0 −1⎦ und B = normal sind.
1−i 1+i
−1 1 0

v Lösung ⎡ ⎤ ⎡ ⎤
2 −1 −1 2 −1 −1
⎢ ⎥ ⎢ ⎥
Wegen AT A = ⎣−1 2 −1⎦ und AAT = ⎣−1 2 −1⎦ ist A normal. Wegen:
−1 −1 2 −1 −1 2
) *) * ) * ) *
∗1+i 1−i 1−i 1+i 40 ∗ 40
BB = = , B B=
1−i 1+i 1+i 1−i 04 04

ist B normal. !

Übung 1.53
• ◦ ◦ Sei A ∈ Rn×n . Man zeige:
a) Ist A symmetrisch, dann ist A normal.
b) Ist A schiefsymmetrisch, dann ist A normal.
c) Ist A orthogonal, dann ist A normal.

v Lösung
a) Ist A symmetrisch, so gilt AT = A. Daraus folgt AT A = AA = AAT ⇒ A ist
normal.
b) Ist A schiefsymmetrisch, so gilt AT = −A. Daraus folgt AT A = (−A)A = A(−A) =
AAT ⇒ A ist normal.
c) Ist A orthogonal, so gilt AT A = E = AAT . Somit ist A normal. !
57 2

Lineare Gleichungssysteme
Inhaltsverzeichnis

2.1 Lineare Gleichungssysteme (LGS) – 58


2.1.1 Lösungsmenge eines LGS – 58
2.1.2 LGS auf beliebigen Körpern – 61
2.1.3 Bestimmung der Lösungsmenge eines LGS durch
elementare Zeilenoperationen – 61

2.2 Der Gauß-Algorithmus – 63


2.2.1 Zeilenstufenform einer Matrix – 63
2.2.2 Matrixdarstellung eines LGS – 65
2.2.3 Der konkrete Gauß-Algorithmus – 67
2.2.4 Kochrezept für Gauß-Algorithmus – 78
2.2.5 Weitere Beispiele zum Gauß-Algorithmus: – 79
2.2.6 Diskussion von LGS mit Parametern – 88
2.2.7 LGS auf beliebigen Körpern – 101
2.2.8 Homogene und inhomogene LGS – 103

2.3 Rang – 106


2.3.1 Definition – 106
2.3.2 Berechnung – 107
2.3.3 Rang und LGS – 115
2.3.4 Homogene LGS – 123

2.4 Matrizengleichungen und inverse


Matrix – 126
2.4.1 Matrizengleichungen – 126
2.4.2 Bestimmung der inversen Matrix A-1 mithilfe des
Gauß-Algorithmus – 127

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_2
58 Kapitel 2 • Lineare Gleichungssysteme

In diesem Kapitel diskutieren wir eine zentrale Anwendung von Matrizen auf die
Lösung von linearen Gleichungssystemen (LGS).

n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 2 sind Sie in der Lage:
5 ein lineares Gleichungssystem (LGS) in Matrixform schreiben und mittels Gauß-
Algorithmus zu lösen,
5 die Lösungen eines LGS als Menge darstellen und grafisch zu interpretieren,
5 LGS mit Parameteren zu diskutieren,
5 den Rang eines LGS bestimmen und die Lösungen konkret nach dem Satz von
Rouché-Capelli zu klassifizieren,
5 LGS auf beliebigen Körpern (R, Q, C, Z2 , Z3 , · · · ) zu lösen,
5 den Zusammenhang zwischen Gesamtlösung sowie homogenen und partikulären
Lösungen eines LGS zu erklären und anzuwenden,
5 die Inverse einer Matrix mittels Gauß-Algorithmus zu bestimmen,
5 Kriterien für die Existenz einer inversen Matrix zu kennen und anzuwenden.

2.1 Lineare Gleichungssysteme (LGS)

Ein reelles lineares Gleichungssystem (LGS) mit m Gleichungen und n Unbekannten


hat die folgende Form:


⎪ a11 x1 + a12 x2 + · · · + a1n xn = b1

⎨ a21 x1 + a22 x2 + · · · + a2n xn = b2
.. .. .. .. (2.1)

⎪ . . . .


am1 x1 + am2 x2 + · · · + amn xn = bm

x1 , x2 , · · · , xn sind die n Unbekannten. Die Koeffizienten aij , bi sind reelle Zahlen.


Weitere Definitionen sind:
5 Falls b1 = b2 = · · · = bm = 0, heißt das LGS (2.1) homogen. Sonst heißt das LGS
inhomogen.
5 Ein LGS mit m = n heißt quadratisch oder bestimmt. Wenn m > n heißt das LGS
überbestimmt, während für m < n es unterbestimmt heißt.

2.1.1 Lösungsmenge eines LGS

Die Lösungsmenge L des LGSs (2.1) besteht aus allen Tupeln (x1 , x2 , · · · , xn ), welche
alle Gleichungen in (2.1) gleichzeitig erfüllen. Es gibt drei Möglichkeiten für L:
5 In einigen Situationen besitzt das LGS (2.1) keine Lösung. In diesem Fall ist die
Lösungsmenge L leer
?@
L=∅= .
2.1 • Lineare Gleichungssysteme (LGS)
59 2
a b c

. Abb. 2.1 (a) Wenn das LGS (2.1) eine eindeutige Lösung besitzt, besteht L aus einem einzigen Punkt
x0 im Raum. (b) Hat L als Lösungsmenge einen einzigen freien Parameter, dann ist L eine Gerade, welche
durch den Punkt x0 geht und in die Richtung v1 zeigt. (c) Hat die Lösungsmenge zwei freie Parameter, dann
ist L eine Ebene, welche den Punkt x0 enthält und durch die Vektoren v1 , v2 aufgespannt ist (vgl. Anhang A)

5 Wenn das LGS (2.1) eine eindeutige Lösung besitzt, dann besteht die Lösungsmen-
ge aus einem einzigen Punkt x0 im Raum (. Abb. 2.1a)
⎧⎡ ⎤ A⎡ ⎤ ⎫
A x1
⎨ x1
⎪ A ⎪

⎢ .. ⎥ n A ⎢ .. ⎥
L = ⎣ . ⎦ ∈ R A ⎣ . ⎦ = x0 = {x0 } .

⎩ A ⎪

xn A x
n

5 In einigen Situationen besitzt das LGS (2.1) unendlich viele Lösungen. Die Lö-
sungsmenge ist in diesem Fall durch ein oder mehrere freie Parameter t, s, · · ·
beschrieben:
⎧⎡ ⎤ A⎡ ⎤ ⎫
A x1
⎨ x1
⎪ A ⎪

⎢ ⎥ A⎢ ⎥
L = ⎣ ... ⎦ ∈ Rn A ⎣ ... ⎦ = x0 + t v1 + s v2 + · · · mit t, s, · · · ∈ R .

⎩ A ⎪

xn A x
n

– Gibt es einen einzigen freien Parameter, dann beschreibt die Lösungsmenge L


eine Gerade im Raum (. Abb. 2.1b).
– Gibt es zwei freie Parameter, dann beschreibt L eine Ebene im Raum
(. Abb. 2.1c).
– Bei drei oder mehreren freien Parametern, beschreibt L eine Hyperebene im Rn .
60 Kapitel 2 • Lineare Gleichungssysteme

> Bemerkung
Eine Hyperebene ist eine Verallgemeinerung des Begriffs der Ebene auf beliebige
Dimension, was aber schwierig bis unmöglich mit einer Zeichnung darzustellen ist.

Geometrische Deutung eines LGS


Welche geometrische Interpretation hat die Lösungsmenge eines LGSs?
5 Ein LGS mit 2 Gleichungen und 2 Unbekannten beschreibt den Schnitt von
zwei Geraden im R2 (jede Gleichung im LGS beschreibt eine Gerade). Alle drei
Lösbarkeitsfälle sind dann möglich:
– Eindeutige Lösung: In diesem Fall ist die Lösung der Schnittpunkt zwischen 2
nicht parallelen Geraden (. Abb. 2.2a).
– Unendlich viele Lösungen: In diesem Fall liegen die 2 Geraden aufeinander
(. Abb. 2.2b).
– Keine Lösung tritt ein, wenn die 2 Geraden parallel sind, also keinen gemeinsa-
men Schnittpunkt haben (. Abb. 2.2c).
5 Ein LGS mit 3 Gleichungen und 3 Unbekannten beschreibt den Schnitt von drei
Ebenen im R3 (jede Gleichung im LGS beschreibt eine Ebene). Drei Lösbarkeits-
fälle unterscheiden sich dann:
– Eindeutige Lösung: In diesem Fall ist die Lösung ein Punkt im R3 , wo alle drei
Ebenen sich schneiden (. Abb. 2.3a).
– Unendlich viele Lösungen mit einem Parameter: Die Lösung ist eine Gerade in
der sich drei nicht parallele Ebenen schneiden. Falls alle Ebenen aufeinander
liegen, hat die Lösung 2 freie Parameter (. Abb. 2.3b).
– Keine Lösung: In diesem Fall gibt es keine gemeinsame Schnittpunkte zwischen
den drei Ebenen (z. B. wenn die drei Ebenen parallel sind, . Abb. 2.3c).

a b c

. Abb. 2.2 Grafische Interpretation der drei Lösbarkeitsfälle eines (2×2)-LGSs. Jede Gleichung im LGS
entspricht einer Geraden
2.1 • Lineare Gleichungssysteme (LGS)
61 2
a b

. Abb. 2.3 Grafische Interpretation der drei Lösbarkeitsfälle eines (3 × 3)-LGSs. Jede Gleichung im
LGS entspricht einer Ebene. Abhängig davon, wie sich diese Ebenen schneiden, hat das LGS (a) genau
eine Lösung, (b) unendlich viele Lösungen, oder (c) keine Lösung

2.1.2 LGS auf beliebigen Körpern

Man kann ein LGS auch auf einem beliebigen Körper K definieren. Im diesem Fall
sind die Koeffizienten aij und bi in (2.1) Elemente aus K. In der Praxis ist K = R, C.
Es können aber auch kompliziertere Situationen auftreten, wie zum Beispiel K = Zp
(7 vgl. Abschn. B.4).

2.1.3 Bestimmung der Lösungsmenge eines LGS durch elementare


Zeilenoperationen

Um Berechnungen anschaulicher zu machen, ist es oft nützlich, die verschiedenen


Gleichungen (Zeilen) eines LGS mit (Z1 ), (Z2 ), · · · , (Zm ) zu nummerieren:


⎪ a11 x1 + a12 x2 + · · · + a1n xn = b1 (Z1 )

⎨ a21 x1 + a22 x2 + · · · + a2n xn = b2 (Z2 )
.. .. .. .. .. (2.2)

⎪ . . . . .


am1 x1 + am2 x2 + · · · + amn xn = bm (Zm )
62 Kapitel 2 • Lineare Gleichungssysteme

Die Lösungsmenge L des LGS (2.2) wird dann durch die folgenden elementaren
Zeilenoperationen nicht verändert:
5 Vertauschen von zwei Zeilen (Gleichungen)

(Zi ) (Zi′ ) = (Zj )


%
(Zj ) (Zj′ ) = (Zi )

5 Eine Zeile (Gleichung) mit einer beliebigen Zahl (Skalar) α ̸= 0 multiplizieren

(Zj ) % (Zj′ ) = α(Zj )

5 Ein beliebiges Vielfaches einer Zeile (Gleichung) zu einer anderen Zeile (Glei-
chung) addieren oder subtrahieren

(Zj ) % (Zj′ ) = (Zj ) + β(Zi ), i ̸= j

In diesem Fall darf β = 0 sein.

Aus diesen Tatsachen resultiert eine allgemeine Strategie, um LGS zu lösen. Man wen-
det die obigen elementaren Zeilenoperationen an, um ein gegebenes LGS schrittweise
auf ein einfacheres äquivalenten LGS zu bringen (Diagonalform oder Treppenform),
woraus sich dann die Lösungsmenge direkt ablesen lässt.

Übung 2.1
◦ ◦ ◦ Man löse das folgende LGS mittels elementaren Zeilenoperationen:


⎨x1 − x3 = 1

2x1 + 4x2 + 4x3 = 4



−x1 + 3x2 + 4x3 = 0

v Lösung
⎧ ⎧
⎨ x1
⎪ − x3 = 1 (Z1 ) ⎨ x1
⎪ − x3 = 1 (Z1′ ) = (Z1 )
2x1 + 4x2 + 4x3 = 4 (Z2 ) % 4x2 + 6x3 = 2 (Z2′ ) = (Z2 ) − 2(Z1 )

⎩ ⎪

−x1 + 3x2 + 4x3 = 0 (Z3 ) 3x2 + 3x3 = 1 (Z3′ ) = (Z3 ) + (Z1 )

⎨ x1
⎪ − x3 = 1 (Z1′′ ) = (Z1′ )
% 4x2 + 6x3 = 2 (Z2′′ ) = (Z2′ )

⎩ 3 1
− 2 x3 = − 2 (Z3′′ ) = (Z3′ ) − 34 (Z2′ )

⎨ x1
⎪ − x3 = 1 (Z1′′′ ) = (Z1′′ )
3 1
% x2 + 2 x3 = 2 (Z2′′′ ) = 14 (Z2′′ )

⎩ 1
x3 = 3 (Z3′′′ ) = − 23 (Z3′′ )
2.2 • Der Gauß-Algorithmus
63 2
Nun können wir die Lösung des LGS direkt ablesen (von unten nach oben)
⎧ ⎧ ⎧⎡ ⎤⎫
4 4
⎨ x1
⎪ − x3 = 1 ⎨ x1 = 1 + x3 = 3
⎪ ⎪
⎨ 3 ⎪ ⎬
⎢ ⎥
x2 + 32 x3 = 12 % x2 = 12 − 32 x2 = 0 ⇒ L = ⎣0⎦ .

⎩ ⎪
⎩ ⎪
⎩ 1 ⎪ ⎭
x3 = 13 x3 = 13 3 !

2.2 Der Gauß-Algorithmus

Der Gauß-Algorithmus ist ein allgemeines Verfahren zur Lösung eines LGS. Der
Gauß-Algorithmus besteht aus einer Sequenz von elementaren Zeilenoperationen,
welche direkt auf die Matrixdarstellung eines LGS angewandt werden können.

2.2.1 Zeilenstufenform einer Matrix

Bevor wir den Gauß-Algorithmus detailliert anwenden, wollen wir die Zeilenstufen-
form einer Matrix erklären.

" Satz 2.1


Jede Matrix A ∈ Km×n lässt sich durch elementare Zeilenoperationen auf sogenannte
Zeilenstufenform bringen:

Z= (2.3)

> Bemerkung
Das Sternchen ⋆ dient als Platzhalter für eine beliebige Zahl. Es können auch Nullen
vorkommen.

Die Zeilenstufenform einer Matrix A erhält man, indem man eine Kombination der
folgenden elementaren Zeilenoperationen auf die Zeilen der Matrix A anwendet.
64 Kapitel 2 • Lineare Gleichungssysteme

Elementare Zeilenoperationen
5 Vertauschen der i-ten mit der j-ten Zeile.

5 Ersetzen der j-ten Zeile (Zj ) durch α(Zj ), wobei α ̸= 0.

5 Ersetzen der j-ten Zeile durch (Zj ) + β(Zi ), j ̸= i (es darf β = 0 sein).

Die Zeile, welche addiert wird, heißt Pivotzeile. Die Spalte die „ausgeräumt“ werden
muss heißt Pivotspalte. Der Koeffizient an der Kreuzung der Pivotzeile mit der
Pivotspalte heißt Pivotelement oder Pivot.

> Bemerkung
Beachte: Die Pivotspalte besteht nur aus dem Pivot und den Elementen unter dem
Pivot.
2.2 • Der Gauß-Algorithmus
65 2

Übung 2.2
◦ ◦ ◦ Man bringe die folgende Matrix mittels elementarer Zeilenoperationen auf
Zeilenstufenform:
⎡ ⎤
0 1 2 2 1
⎢0
⎢ −1 −2 1 2⎥ ⎥
A=⎢ ⎥.
⎣0 2 4 −1 −3⎦
0 4 8 3 −1

v Lösung
⎡ ⎤ ⎡ ⎤
0 1 2 2 1 (Z2 ) + (Z1 ) 012 2 1
⎢0 ⎥ (Z1 ) (Z3 ) − 2(Z1 ) ⎢
⎢ −1 −2 1 2⎥ (Z4 ) − 4(Z1 ) ⎢0 0 0 3 3⎥⎥
⎢ ⎥ (Z2 ) % ⎢ ⎥
⎣0 2 4 −1 −3⎦ ⎣0 0 0 −5 −5⎦
(Z3 )
0 4 8 3 −1 0 0 0 −5 −5
⎡ ⎤ ⎡ ⎤
(Z3 ) + 5 (Z2 )
01221 01221
3 ⎢ ⎥ 1 ⎢
(Z4 ) − (Z3 ) ⎢0 0 0 3 3⎥ 3 (Z2 ) ⎢0 0 0 1 1⎥

% ⎢ ⎥ % ⎢ ⎥ = Z.
⎣0 0 0 0 0⎦ ⎣0 0 0 0 0⎦
00000 00000

Die gesuchte Zeilenstufenform von A lautet somit:

2.2.2 Matrixdarstellung eines LGS

Jedes LGS


⎪ a11 x1 + a12 x2 + · · · + a1n xn = b1 (Z1 )

⎨ a21 x1 + a22 x2 + · · · + a2n xn = b2 (Z2 )
.. .. .. .. .. (2.4)

⎪ . . . . .


am1 x1 + am2 x2 + · · · + amn xn = bm (Zm )
66 Kapitel 2 • Lineare Gleichungssysteme

kann man in Matrixschreibweise Ax = b umschreiben:


⎡ ⎤⎡ ⎤ ⎡ ⎤
a11 a12 · · · a1n x1 b1
⎢ a21 a22 · · · a2n ⎥ ⎢x2 ⎥ ⎢ b2 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ . .. . . .. ⎥ ⎢ .. ⎥ = ⎢ .. ⎥ . (2.5)
⎣ .. . . . ⎦⎣ . ⎦ ⎣ . ⎦
am1 am2 · · · amn xn bm
3 45 6 3 45 6 3 45 6
A x b

Die (m × n)-Matrix A heißt Darstellungsmatrix (auch Koeffizientenmatrix) des LGS


und der Vektor b heißt Lösungsvektor. In kompakter Form kann man also das LGS
in einer einzigen Matrix zusammenfassen:
⎡ ⎤
a11 a12 · · · a1n b1
⎢ a21 a22 · · · a2n b2 ⎥
⎢ ⎥
[A|b] = ⎢ . .. . . .. .. ⎥. (2.6)
⎣ .. . . . . ⎦
am1 am2 · · · amn bm
3 45 6 3456
A b

Die Matrix [A|b] heißt erweiterte Matrix (auch erweiterte Koeffizientenmatrix) des
LGS.

> Bemerkung
Der vertikale Strich in der erweiterten Matrix hat keine mathematische Bedeutung; er
dient einfach dazu, Berechnungen übersichtlicher zu machen.

" Beispiel
⎧ ⎡ ⎤
⎨ 2x1 + 2x2 + 4x3 = 4
⎪ (Z1 ) 2 2 4 4
⎢ ⎥
x1 − x3 = 1 (Z2 ) % [A|b] = ⎣ 1 0 −1 1 ⎦ . #


−x1 + 3x2 + 4x3 = 0 (Z3 ) −1 3 4 0

Übung 2.3
◦ ◦ ◦ Man schreibe die folgenden LGS in Matrixform um. Man gebe jeweils die
erweiterte Matrix an.

⎨x − 3x = 2
1 2
a)
⎩2x + x = −1
⎧ 1 2
⎨x + x = 0
1 2
b)
⎩x = x
⎧ 1 2
⎨6x + 2x + x + x = 0
1 2 3 4
c)
⎩x − x − x = x
3 1 2 4
2.2 • Der Gauß-Algorithmus
67 2



⎨−3x1 − 2x2 − x3 + 4x4 = 3

d) 15x1 − 4x3 − x4 = 0



2x1 + 5x3 − 3x4 − 1 = 2

v Lösung
⎡ ⎤
) * ) * ) * −3 −2 −1 4 3
1 −3 2 1 1 0 6 2 1 1 0 ⎢ ⎥
a) , b) , c) , d) ⎣ 15 0 −4 −1 0 ⎦ .
2 1 −1 1 −1 0 −1 −1 1 −1 0
2 0 5 −3 3
!

2.2.3 Der konkrete Gauß-Algorithmus

Gegeben sei ein LGS mit erweiterter Matrix [A|b]. Mittels elementarer Zeilenopera-
tionen kann man [A|b] wie folgt in Zeilenstufenform bringen:

⎡ ⎤
a11 a12 · · · a1n b1
⎢ a21 a22 · · · a2n b2 ⎥
⎢ ⎥
[A|b] = ⎢ . .. . . .. .. ⎥ % Z=
⎣ .. . . . . ⎦
am1 am2 · · · amn bm
3 45 6 3456
A b

(2.7)
Die so erzeugte Matrix Z heißt Zielmatrix. Hat man die erweiterte Matrix [A|b]
auf Zeilenstufenform gebracht, so kann man die folgenden Fallunterscheidungen
vornehmen, um die Lösungsmenge des LGS aus der Zielmatrix Z zu bestimmen.
5 Fall 1: Hat die Zielmatrix Z das folgende Aussehen (Dreiecksform)

Z= (2.8)

so hat das LGS genau eine Lösung. Es gibt genauso viele von Null verschiedene
Gleichungen als Unbekannte. Die eindeutige Lösung wird in diesem Fall einfach
durch Rückwärtseinsetzen bestimmt.
68 Kapitel 2 • Lineare Gleichungssysteme

" Beispiel
Das LGS mit Zielmatrix
) *
121
Z=
013

hat genau eine Lösung (Fall 1). Die Lösung wird durch Rückwärtseinsetzen bestimmt. Aus
der zweiten Zeile folgt x2 = 3. Einsetzen in die erste Zeile liefert x1 + 2x2 = 1 ⇒ x1 =
1 − 2x2 = 1 − 2 · 3 = −5. Die Lösungsmenge besteht somit aus dem einzigen Vektor:
$) *E
−5
L= .#
3

5 Fall 2: Wenn die Zielmatrix Z wie folgt aussieht (Treppenform)

Z= (2.9)

dann hat das LGS unendlich viele Lösungen. In diesem Fall ist die Anzahl von
Null verschieden Gleichungen kleiner als die Anzahl von Unbekannten. Einige
Variablen sind somit frei wählbar. Die Lösungsmenge ist durch k1 + k2 + · · · + kr
frei wählbare Parameter beschrieben.

Praxistipp

Eine alternative Formel für die Anzahl freier Parameter ist:

Anzahl freie Parameter = n − Anzahl von Null verschiedenen Zeilen in Z (2.10)

wobei n die Anzahl der Unbekannten ist.


2.2 • Der Gauß-Algorithmus
69 2
" Beispiel
Das LGS mit Zielmatrix
) *
112
Z=
000

hat unendlich viele Lösungen (Fall 2). Es gibt einen freien Parameter; setzen wir, beispiels-
weise, x2 = t, dann folgt x1 = 2 − x2 = 2 − t. Die Lösungsmenge ist somit:
$) * A) * ) * ) * E
A
x1 2 A x1 2 −1
L= ∈R A = +t , t∈R .#
x2 A x2 0 1

" Beispiel
Das LGS mit Zielmatrix
⎡ ⎤
1 2 0 1 1 0 1
⎢0
⎢ 0 1 0 1 0 1⎥⎥
Z=⎢ ⎥
⎣0 0 0 1 1 9 1⎦
0 0 0 0 0 0 0

hat unendlich viele Lösungen mit drei freien Parametern: x2 = t, x5 = s und x6 = r. Alle
Variablen direkt neben den markierten Elementen sind freie Variablen:

x1 x2 x3 x4 x5 x6
1 2 0 1 1 0 1
0 0 1 0 1 0 1
0 0 0 1 1 9 1
0 0 0 0 0 0 0
↑ ↑ ↑

⇒ x2 = t, x5 = s, und x6 = r freie Variablen.

Aus der dritten Zeile folgt dann: x4 = 1 − x5 − 9x6 = 1 − s − 9r. Aus der zweiten Zeile folgt:
x3 = 1−x5 = 1−s. Ferner folgt aus der ersten Zeile folgt: x1 = 1−2x2 −x4 −x5 = −2t+9r.
Die Lösungsmenge ist somit:
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 A x1 0 −2 0 9 ⎪

⎪ A ⎪


⎪ ⎢ ⎥ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪


⎪ ⎢ x 2 ⎥ A ⎢x 2 ⎥ ⎢ 0 ⎥ ⎢ 1 ⎥ ⎢ 0 ⎥ ⎢ 0 ⎥ ⎪

⎪⎢ ⎥
⎨ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪

⎢x3 ⎥ A ⎢
6 A ⎢x3 ⎥
⎥ ⎢ 1⎥⎥ ⎢ 0⎥⎥ ⎢−1⎥⎥ ⎢ 0⎥⎥
⎢ ⎥ ⎢ ⎢ ⎢ ⎢
L = ⎢ ⎥ ∈ R A ⎢ ⎥ = ⎢ ⎥ + t ⎢ ⎥ + s ⎢ ⎥ + r ⎢ ⎥ , t, s, r ∈ R . #


⎪ ⎢x4 ⎥ A ⎢x4 ⎥ ⎢1⎥ ⎢0⎥ ⎢−1⎥ ⎢−9⎥ ⎪



⎪ ⎢ ⎥ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪


⎪ ⎣ x 5 ⎦ A ⎣x 5 ⎦ ⎣ 0 ⎦ ⎣ 0 ⎦ ⎣ 1 ⎦ ⎣ 0 ⎦ ⎪


⎩ A ⎪

x6 A x6 0 0 0 1
70 Kapitel 2 • Lineare Gleichungssysteme

5 Fall 3: Falls

Z= mit ! ̸= 0 (2.11)

dann hat das LGS keine Lösung, weil die letzten k Gleichungen 0 = ! lauten, was
wegen ! ̸= 0 unmöglich ist.

> Bemerkung
! dient als Platzhalter für eine von Null verschiedene Zahl. Es genügt schon, dass ein
! ̸= 0 ist!

" Beispiel
Das LGS mit Zielmatrix
) *
1 −1 2
Z=
0 0 1

hat keine Lösung (Fall 3). Denn die Gleichung 0 = 1 ist nie erfüllt. Die Lösungsmenge ist
?@
leer L = . #

Übung 2.4
• ◦ ◦ Man
⎡ betrachte⎤die folgenden Zielmatrizen:
12 1 4
⎢ ⎥
a) Z = ⎣ 0 1 −2 2 ⎦
00 1 3
⎡ ⎤
130 5
⎢ ⎥
b) Z = ⎣ 0 1 3 −1 ⎦
000 1
⎡ ⎤
1 −1 1 0
⎢ ⎥
c) Z = ⎣ 0 0 0 0 ⎦
0 0 00
⎡ ⎤
1 −1 1 5
⎢ ⎥
d) Z = ⎣ 0 1 7 2 ⎦
0 0 00
Man entscheide, ob die zugehörigen LGS (i) eine, (ii) keine oder (iii) unendlich viele
Lösungen besitzen. Man bestimme jeweils die Lösungsmenge.
2.2 • Der Gauß-Algorithmus
71 2
v Lösung
⎡ ⎤
12 1 4
⎢ ⎥
a) ⎣ 0 1 −2 2 ⎦ ⇒ genau eine Lösung (Fall 1).
00 1 3
Die Lösung erhalten wir durch Rückwärtseinsetzen. Aus der dritten Zeile folgt:
x3 = 3. Einsetzen in die zweite Gleichung liefert: x2 = 2 + 2x3 = 8. Aus der
ersten
⎧Zeile
⎡ folgt
⎤⎫ dann: x1 = 4 − 2x2 − x3 = −15. Die Lösungsmenge ist eindeutig:
⎨ −15 ⎪
⎪ ⎬
⎢ ⎥
L= ⎣ 8 ⎦ .

⎩ ⎪

3
⎡ ⎤
130 5
⎢ ⎥
b) ⎣ 0 1 3 −1 ⎦ ⇒ keine Lösung (Fall 3).
000 1
⎡ ⎤
1 −1 1 0
⎢ ⎥
c) ⎣ 0 0 0 0 ⎦ ⇒ unendlich viele Lösungen (2 freie Parameter, Fall 2).
0 0 00
Wir setzen x2 = t und x3 = s. Dann folgt aus der ersten Zeile: x1 = x2 − x3 =
t − s. Die Lösungsmenge ist somit
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
A x 1
⎨ x1
⎪ A 1 −1 ⎪

⎢ ⎥ 3A ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R A ⎣x2 ⎦ = t ⎣1⎦ + s ⎣ 0 ⎦ , t, s ∈ R .

⎩ A ⎪

x3 A x3 0 1

⎡ ⎤
1 −1 1 5
⎢ ⎥
d) ⎣ 0 1 7 2 ⎦ ⇒ unendlich viele Lösungen (1 freier Parameter, Fall 2).
0 0 00
Wir setzen x3 = t. Dann folgt aus der zweiten Zeile: x2 = 2 − 7x3 = 2 − 7t.
Einsetzen in die erste Gleichung liefert: x1 = 5+x2 −x3 = 7−8t. Die Lösungsmenge
ist somit
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
A x 7
⎨ x1
⎪ A 1 −8 ⎪

⎢ ⎥ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R3 A ⎣x2 ⎦ = ⎣2⎦ + t ⎣−7⎦ , t ∈ R .

⎩ A ⎪

x3 A x3 0 1 !

Musterbeispiel 1: LGS mit genau einer eindeutigen Lösung


Nun betrachten wir einige Musterbeispiele zum Gauß-Algorithmus. Wir werden
immer an geeigneten Stellen auf praktische Tipps und Optimierungsmöglichkeiten
hinweisen. Manchmal geben wir ganze Kochrezepte an. Siehe in diesem Fall Kochre-
zept 2.1.
72 Kapitel 2 • Lineare Gleichungssysteme

Musterbeispiel 2.1 (LGS mit genau einer eindeutigen Lösung)

Wir betrachten das folgende LGS:



⎨3x1 − 3x2 + x3 = 1

−x1 + x2 + 2x3 = 2


2x1 + x2 − 3x3 = 0

Schritt 1 Als erstes ordnen wir dem Gleichungssystem die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ 3x1 − 3x2 + x3 = 1 (Z1 ) 3 −3 1 1
−x1 + x2 + 2x3 = 2 (Z2 ) % [A|b] = ⎣ −1 1 2 2 ⎦ .

2x1 + x2 − 3x3 = 0 (Z3 ) 2 1 −3 0

Schritt 2 Jetzt wenden wir den Gauß-Algorithmus an: Das Ziel ist es, die erweiterte Matrix
[A|b] mittels elementarer Zeilenoperationen in die Zeilenstufenform (2.2.3) zu bringen.
Durch das Vertauschen der ersten Zeile mit der zweiten Zeile und die Multiplikation der
ersten Zeile mit -1 erhalten wir eine 1 als erste Ziffer, auch Pivot genannt:
⎡ ⎤ ⎡ ⎤
3 −3 1 1 1 −1 −2 −2
(Z1 ) ↔ −(Z2 ) ⎢ ⎥
⎣ −1 1 2 2 ⎦ % ⎣ 3 −3 1 1 ⎦ .
2 1 −3 0 2 1 −3 0

Nun erzeugen wir Nullen an der ersten Position der zweiten und dritten Zeile durch
(Z2 ) − 3(Z1 ) und (Z3 ) − 2(Z1 ):
⎡ ⎤ ⎡ ⎤
1 −1 −2 −2 (Z2 ) − 3(Z1 ) 1 −1 −2 −2
(Z ) − 2(Z )
⎣ 3 −3 1 1 ⎦ 3 % 1 ⎢ ⎣ 0 0 7 7 ⎦.

2 1 −3 0 0 3 1 4

Dann vertauschen wir die zweite Zeile mit der dritten Zeile, damit wir zwei Nullen in der
untersten Zeile erhalten
⎡ ⎤ ⎡ ⎤
1 −1 −2 −2 1 −1 −2 −2
(Z2 ) ↔ (Z3 )
⎣0 0 7 7 ⎦ % ⎣ 0 3 1 4 ⎦.
0 3 1 4 0 0 7 7

Weiter wollen wir alles Einsen auf der Hauptdiagonale erzeugen. Also dividieren wir die
zweite Zeile durch 3 und die dritte durch 7:

⎡ ⎤ 1 (Z ) ⎡ ⎤
3 2 1 −1 −2 −2
1 −1 −2 −2 1 (Z )
7 3 ⎢ ⎥
⎣0 3 1 4 ⎦ % ⎣ 0 1 13 43 ⎦ = Z.
0 0 7 7 0 0 1 1

Die Zielmatrix Z ist jetzt eine obere Dreiecksmatrix. Der Gauß-Algorithmus hat somit sein
Ziel erreicht. Die Zielmatrix Z entspricht Fall 1: Das gegebene LGS hat genau eine Lösung.
Schritt 3 Aus der Zielmatrix Z können wir nun die Lösung direkt ableiten:
⎧ ⎧
⎨x1 − x2 − 2x3 = −2
⎪ ⎨x1 = −2 + x2 + 2x3 = 1

x2 + 13 x3 = 43 ⇒ x2 = 43 − 13 x3 = 1

⎩ ⎪

x3 = 1 x3 = 1
2.2 • Der Gauß-Algorithmus
73 2

⎧ ⎡ ⎤⎫
⎨ 1 ⎬
Die eindeutige Lösung des LGS lautet somit L = ⎣1⎦ . Die Lösungsmenge ist ein Punkt
⎩ ⎭
1
wo die drei Ebenen (Gleichungen) sich schneiden (. Abb. 2.4).

> Bemerkung
Beim Gauß-Algorithmus darf man je zwei Zeilen vertauschen, ohne die Lösungsmenge
zu verändern. Dies folgt direkt aus der Tatsache, dass es keine Rolle spielt, in welcher
Ordnung die einzelnen Gleichungen in einem LGS auftreten (vgl. elementare Zeilen-
operationen). Zum Beispiel
⎧ ⎧
⎨x + x = 1 ⎨x + 2x = 2
1 2 1 2
ist dasselbe LGS wie
⎩x + 2x = 2 ⎩x + x = 1
1 2 1 2

Musterbeispiel 2: LGS mit unendlich vielen Lösungen


Als nächtes Musterbeispiel betrachten wir ein LGS, das unendlich viele Lösungen
besitzt.

. Abb. 2.4 Grafische Darstellung der Lösung von Musterbeispiel 2.1


74 Kapitel 2 • Lineare Gleichungssysteme

Musterbeispiel 2.2 (LGS mit unendlich vielen Lösungen)

Wir betrachten das folgende LGS:



⎨x1 + x2 − x3 = 4

2x1 − x2 + 3x3 = 7


4x1 + x2 + x3 = 15

Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ x1 + x2 − x3 = 4 (Z1 ) 1 1 −1 4
2x − x2 + 3x3 = 7 (Z2 ) % [A|b] = ⎣ 2 −1 3 7 ⎦ .
⎩ 1
4x1 + x2 + x3 = 15 (Z3 ) 4 1 1 15

Schritt 2 Dann wenden wir den Gauß-Algorithmus an. Wir erzeugen Nullen an der ersten
Position der zweiten und dritten Zeile durch (Z2 ) − 2(Z1 ) und (Z3 ) − 4(Z1 ):
⎡ ⎤ (Z ) − 2(Z ) ⎡ ⎤
1 1 −1 4 2 1 1 1 −1 4
(Z3 ) − 4(Z1 ) ⎢ ⎥
⎣ 2 −1 3 7 ⎦ % ⎣ 0 −3 5 −1 ⎦ .
4 1 1 15 0 −3 5 −1

Nun erkennen wir, dass die letzten zwei Zeilen gleich sind. Also durch (Z3 ) − (Z2 ) erhalten
wir
⎡ ⎤ ⎡ ⎤
1 1 −1 4 1 1 −1 4
(Z3 ) − (Z2 )
⎣ 0 −3 5 −1 ⎦ % ⎣ 0 −3 5 −1 ⎦ .
0 −3 5 −1 0 0 0 0

Schließlich dividieren wir die zweite Zeile durch (-3):


⎡ ⎤ ⎡ ⎤
1 1 −1 4 − 1 (Z2 ) ⎢
1 1 −1 4
⎣ 0 −3 5 −1 ⎦ % ⎣ 0 1 − 5 1 ⎥
3
⎦ = Z.
3 3
0 0 0 0 0 0 0 0

Die Zielmatrix ist vom Typ 2. Das LGS hat somit unendlich viele Lösungen mit einem freien
Parameter.
Schritt 3 Herauslesen der Lösung
$
x1 + x2 − x3 = 4
x2 − 53 x3 = 1
3

Es sind 2 Gleichungen für 3 Unbekannte, x1 , x2 , x3 : Es gibt somit unendlich viele Lösungen,


weil eine der 3 Unbekannten beliebig ist. In solchen Situationen wählt man x3 = t, wobei
t ein freier Parameter ist, und schreibt die anderen Variablen in Abhängigkeit von t. Aus
der zweiten Gleichung folgt x2 = 13 + 53 x3 = 13 + 53 t. Aus der ersten Gleichung folgt x1 =
4 − x2 + x3 = 11 2
3 − 3 t. Die Lösung ist somit
⎧ ⎫

⎪⎡ ⎤ ⎪


⎪ A ⎡ ⎤ ⎡ 11 ⎤ ⎡ 2 ⎤ ⎪


⎨ x1 A x1 − ⎪

A
3A ⎣ ⎦
3
1 5
3
L= ⎣ ⎦ ⎣ ⎦
x2 ∈ R A x2 = 3 +t 3 , t ∈ R .⎣ ⎦

⎪ A x ⎪


⎪ x3 3 0 1 ⎪


⎩ 3 45 6 3 45 6 ⎪

=x0 =v1

Die Lösungsmenge ist eine Gerade im R3 in der sich 3 Ebenen schneiden (. Abb. 2.5).
2.2 • Der Gauß-Algorithmus
75 2

. Abb. 2.5 Grafische Darstellung der Lösung von Musterbeispiel 2.2

Praxistipp

Alle Variablen direkt neben den markierten Elementen (Pivots) sind freie Variablen

x1 x2 x3
1 1 −1 4
0 1 − 53 13
0 0 0 0

0 · x3 = 0 ⇒ x3 = t freie Variable.

> Bemerkung
Dem aufmerksamen Leser fällt sicher auf, dass die dritte Gleichung des LGSs im
Musterbeispiel 2.2 eine Linearkombination der ersten und zweiten Gleichung ist.
Genauer: (Z3 ) = 2(Z1 )+(Z2 ). Daher hat das LGS unendlich viele Lösungen mit einem
freien Parameter.
76 Kapitel 2 • Lineare Gleichungssysteme

Musterbeispiel 3: LGS mit keiner Lösung


Als nächstes Beispiel betrachten wir ein LGS, welches keine Lösung besitzt.

Musterbeispiel 2.3 (LGS mit keiner Lösung)

Man löse das folgende LGS mit dem Gauß-Algorithmus:



⎨x1 + x2 − x3 = −3

2x1 + 2x2 + x3 = 0


5x1 + 5x2 − 3x3 = −8

Schritt 1 Zunächst stellen wir die erweiterte Matrix [A|b] des LGS auf:
⎧ ⎡ ⎤
⎨ x1 + x2 − x3 = 3 (Z1 ) 1 1 −1 −3
2x + 2x2 + x3 = 0 (Z2 ) % [A|b] = ⎣ 2 2 1 0 ⎦ .
⎩ 1
5x1 + 5x2 − 3x3 = −8 (Z3 ) 5 5 −3 −8

Schritt 2 Wir wenden den Gauß-Algorithmus in 3 Schritten an:


⎡ ⎤ (Z2 ) − 2(Z1 )
⎡ ⎤ ⎡ ⎤
1 1 −1 −3 1 1 −1 −3 1 (Z ) 1 1 −1 −3
(Z3 ) − 5(Z1 ) 3 2
⎣2 2 1 0 ⎦ % ⎣0 0 3 6 ⎦ % ⎣0 0 1 2 ⎦
5 5 −3 −8 0 0 2 7 0 0 2 7
⎡ ⎤
1 1 −1 −3
(Z3 ) − 2(Z2 ) ⎢0
% ⎣ 0 1 2 ⎥ ⎦ = Z.
0 0 0 3

Die Zielmatrix ist vom Typ 3. Das LGS hat somit keine Lösung (die letzte Gleichung ist
0 = 3, was unmöglich ist) (. Abb. 2.6).

. Abb. 2.6 Grafische Darstellung der Lösung von Musterbeispiel 2.3


2.2 • Der Gauß-Algorithmus
77 2
Musterbeispiel 4: Gleichzeitige Lösung mehrerer LGS
Mit dem Gauß-Algorithmus kann man mehrere LGS mit der selben Darstellungs-
matrix A, aber verschiedenen Lösungsvektoren b1 , b2 , · · · , br gleichzeitig (simultan)
lösen:

Ax = b1 , Ax = b2 , ··· , Ax = br . (2.12)

In kompakter Form kann man die verschiedenen LGS mithilfe einer einzigen erwei-
terten Matrix zusammenfassen:
⎡ ⎤
a11 a12 ··· a1n b11 b21 ··· br1
⎢ a21 a22 ··· a2n b12 b22 ··· br2 ⎥
⎢ ⎥
[A|b1 · · · br ] = ⎢ .. .. .. .. .. .. .. .. ⎥. (2.13)
⎣ . . . . . . . . ⎦
am1 am2 · · · amn b1m b2m · · · brm

Musterbeispiel 2.4 (Gleichzeitige Lösung mehrerer LGS)

Man löse die zwei folgenden LGS mit dem Gauß-Algorithmus simultan:
⎧ ⎧
⎨x1 + 4x2 + 3x3 = 1
⎪ ⎨x1 + 4x2 + 3x3 = −1

2x1 + 5x2 + 4x3 = 4 und 2x1 + 5x2 + 4x3 = 0

⎩ ⎪

x1 + x2 + x3 = 3 x1 + x2 + x3 = 2

Schritt 1 Bei der gleichzeitigen Lösung mehreren LGS Ax = b1 und Ax = b2 , kann man die
erweiterte Matrix [A|b1 b2 ] aufstellen (beachte, dass es jetzt zwei Spalten nach dem vertikalen
Strich | gibt):
⎧ ⎡ ⎤
⎨ x1 + 4x2 + 3x3 = 1 und −1 (Z1 ) 1 4 3 1 −1
2x + 5x2 + 4x3 = 4 und 0 (Z2 ) % ⎣ 2 5 4 4 0 ⎦ .
⎩ 1
x1 + x2 + x3 = 3 und 2 (Z3 ) 1 1 1 3 2

Schritt 2 Wir führen den Gauß-Algorithmus wie gehabt durch:


⎡ ⎤ ⎡ ⎤
1 4 3 1 −1 (Z2 ) − 2(Z1 ) 1 4 3 1 −1
(Z3 ) − (Z1 )
⎣2 5 4 4 0 ⎦ % ⎣ 0 −3 −2 2 2 ⎦
111 3 2 0 −3 −2 2 3
⎡ ⎤ ⎡ ⎤
1 4 3 1 −1 − 1 (Z ) 1 4 3 1 −1
(Z3 ) − (Z2 ) 3 2
% ⎣ 0 −3 −2 2 2 ⎦ % ⎣ 0 1 2 − 2 − 2 ⎦ = Z.
3 3 3
0 0 0 0 1 0 0 0 0 1

Schritt 3 Herauslesen der Lösungen:


5 Die Zielmatrix für den ersten LGS ist vom Typ 2 (Trapezform). Das erste LGS hat somit
undendlich viele Lösungen mit einem freien Parameter (eine Gerade im R3 ):
⎧⎡ ⎤ A ⎡ ⎤ ⎡ 11 ⎤ ⎡ 1⎤ ⎫
⎨ x1 A x1 −3 ⎬
A 3
L = ⎣x2 ⎦ ∈ R3 AA ⎣x2 ⎦ = ⎣− 23 ⎦ + t ⎣− 23 ⎦ , t ∈ R .
⎩ A x ⎭
x3 3 0 1
78 Kapitel 2 • Lineare Gleichungssysteme

5 Die Zielmatrix für den zweiten LGS ist vom Typ 3. Das zweite LGS hat somit keine
Lösung (die letzte Gleichung, 0 = 1, ist unmöglich).

2.2.4 Kochrezept für Gauß-Algorithmus

Kochrezept 2.1 (Gauß-Algorithmus)


Schritt 1 Man bestimme die erweiterte Matrix [A|b] des LGS:
⎧ ⎡ ⎤

⎪ a x + · · · + a1n xn = b1 (Z1 ) a11 · · · a1n b1
⎨ 11 1 ⎢ .
.. .. .. .. .. . .. ⎥
. . . . % [A|b] = ⎢
⎣ .. . ..

. ⎦.



am1 x1 + · · · + amn xn = bm (Zm ) am1 · · · amn bm

Beachte: Der vertikale Strich in der erweiterten Matrix hat keine mathematische
Bedeutung, aber hilft, Berechnungen übersichtlicher zu gestalten.
Schritt 2 Man forme die erweiterte Matrix [A|b] mittels elementarer Zeilenoperationen
um, bis man die Zielmatrix Z bekommt. Dabei sind folgende Zeilenoperationen
erlaubt:
5 vertauschen von zwei Zeilen;
5 eine Zeile mit einer beliebigen Zahl α ̸= 0 multiplizieren;
5 ein beliebiges Vielfaches einer Zeile zu einer anderen Zeile addieren oder subtrahie-
ren.

Es resultieren 3 mögliche Fälle für die Zielmatrix Z:


2.2 • Der Gauß-Algorithmus
79 2

5 ⋆ = Platzhalter für eine beliebige Zahl (Null auch erlaubt).


5 ! = Platzhalter für eine von Null verschiedene Zahl (! ̸= 0).

Schritt 3 Aus der Zielmatrix Z kann die Lösungsmenge direkt abgeleitet werden.
5 Fall 1. Die Lösung erhalten wir durch Rückwärtseinsetzen. Man beginnt mit der
letzten (untersten) Gleichung, welche nach xn aufgelöst wird. Dann setzt man diese
Lösung in der zweitletzten Gleichung ein und löst nach xn−1 auf. So geht man weiter,
bis x1 gefunden ist.
5 Fall 2. Man braucht k freie Parameter t, s, · · · . Man setzt die freien Unbekannten
gleich t, s, · · · und löst die n − k von Null verschiedenen Gleichungen auf. Somit
erhält man die allgemeine Lösungsmenge, welche von t, s, · · · abhängt. Es gilt:

Anzahl freie Parameter = n − Anzahl von Null verschiedenen Zeilen in Z,

wobei n die Anzahl der Unbekannten ist.


5 Fall 3. Die Lösungsmenge ist leer.

2.2.5 Weitere Beispiele zum Gauß-Algorithmus:

Nun betrachten wir weitere typische Beispiele zum Gauß-Algorithmus. In allen


Beispielen gehen wir nach dem Kochrezept 2.1 vor.

Übung 2.5
◦ ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:

⎨x − 3x = −6
1 2
⎩x − 2x = 4
1 2
80 Kapitel 2 • Lineare Gleichungssysteme

v Lösung
Wir gehen nach dem Kochrezept 2.1 vor.
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|b] zu:
$ ) *
x1 − 3x2 = −6 (Z1 ) 1 −3 −6
% [A|b] = .
x1 − 2x2 = 4 (Z2 ) 1 −2 4

Schritt 2 Wir realisieren den Gauß-Algorithmus in einem Schritt:


) * ) *
1 −3 −6 (Z2 ) − (Z1 ) 1 −3 −6
% = Z.
1 −2 4 0 1 10

Die Zielmatrix ist vom Typ 1 (Dreiecksform). Das LGS hat somit genau eine Lösung.
Schritt 3 Herauslesen der Lösung direkt aus dem Endschema Z (durch Rückwärts-
einsetzen):
⎧ ⎧ $) *E
⎨x − 3x = −6 ⎨x = −6 + 3 · 10 = 24
1 2 1 24
⇒ ⇒ L= .
⎩x = 10
2
⎩x = 10
2 10
!

Übung 2.6
◦ ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:

⎨x + 2x = 4
1 2
⎩2x + 4x = 6
1 2

v Lösung
Schritt 1 Wir stellen zuerst die erweiterte Matrix [A|E] auf:
$ ) *
x1 + 2x2 = 4 (Z1 ) 1 2 4
% [A|b] = .
2x1 + 4x2 = 6 (Z2 ) 2 4 6

Schritt 2 Wir realisieren den Gauß-Algorithmus in einem Schritt:


) * ) *
1 2 4 (Z2 ) − 2(Z1 ) 1 2 4
% = Z.
2 4 6 0 0 −2
? @
Die Zielmatrix ist vom Typ 3. Das LGS hat somit keine Lösung, d. h. L = . !
2.2 • Der Gauß-Algorithmus
81 2

Übung 2.7
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:


⎨x1 + 2x2 + x3 = 1

3x1 + 9x2 + 4x3 = 5



x1 + 3x2 + 2x3 = 3

v Lösung
Schritt 1 Als erstes bestimmen wir die erweiterte Matrix [A|b] des LGS:
⎧ ⎡ ⎤
⎨ x1 + 2x2 + x3 = 1
⎪ (Z1 ) 1 2 1 1
⎢ ⎥
3x1 + 9x2 + 4x3 = 5 (Z2 ) % [A|b] = ⎣ 3 9 4 5 ⎦ .


x1 + 3x2 + 2x3 = 3 (Z3 ) 1 3 2 3

Schritt 2 Wir führen den Gauß-Algorithmus in drei Schritten durch:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 1 1 (Z2 ) − 3(Z1 ) 1 2 1 1 1 2 1 1 (Z2 )/3 1 2 1 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ 3(Z3 ) − (Z2 ) ⎢ (Z
⎥ 3 ⎢)/2 ⎥
⎣3 9 4 5⎦ % ⎣0 3 1 2⎦ % ⎣ 0 3 1 2 ⎦ % ⎣ 0 1 13 23 ⎦ = Z.
1 3 2 3 0 1 1 2 0 0 2 4 0 0 1 2

Die Zielmatrix ist vom Typ 1 (Diagonalform). Das LGS hat somit eine eindeutige
Lösung.
Schritt 3 Herauslesen der Lösung aus dem Endschema Z
⎧ ⎧ ⎧⎡ ⎤⎫
⎪ ⎪
⎨x1 + 2x2 + x3 = 1
⎪ ⎨x1 = −1
⎪ ⎨ −1 ⎪
⎪ ⎬
⎢ ⎥
x2 + 13 x3 = 23 ⇒ x2 = 0 ⇒ L= ⎣ 0 ⎦ .

⎪ ⎪
⎪ ⎪
⎩ ⎪

⎩ ⎩ 2
x3 = 2 x3 = 2 !

Übung 2.8
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:


⎨x2 − 3x3 = 2

x1 + 2x2 + x3 = 1



x1 + x2 + 4x3 = 2
82 Kapitel 2 • Lineare Gleichungssysteme

v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤

⎨ x2 − 3x3 = 2 (Z1 ) 0 1 −3 2
⎢ ⎥
x1 + 2x2 + x3 = 1 (Z2 ) % [A|b] = ⎣ 1 2 1 1 ⎦ .


x1 + x2 + 4x3 = 2 (Z3 ) 1 1 4 2

Schritt 2 Wir wenden den Gauß-Algorithmus in drei Schritten an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 −3 2 1 2 1 1 1 2 1 1
⎢ ⎥ (Z1 ) ↔ (Z2 ) ⎢ (Z
⎥ 3 ) − (Z )
1 ⎢ ⎥
⎣1 2 1 1⎦ % ⎣ 0 1 −3 2 ⎦ % ⎣ 0 1 −3 2 ⎦
1 1 4 2 1 1 4 2 0 −1 3 1
⎡ ⎤
12 1 1
(Z3 ) + (Z2 ) ⎢ ⎥
% ⎣ 0 1 −3 2 ⎦ = Z.
00 0 3
? @
Die Zielmatrix ist vom Typ 3. Das LGS hat somit keine Lösung, d. h. L = . !

Übung 2.9
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:


⎨x1 + 3x2 + x3 = 1

3x1 + 9x2 + 4x3 = 5



x1 + 3x2 + 2x3 = 3

v Lösung
Schritt 1 Wir bestimmen die erweiterte Matrix [A|b] des LGS:
⎧ ⎡ ⎤
⎨ x1 + 3x2 + x3 = 1
⎪ (Z1 ) 1 3 1 1
⎢ ⎥
3x1 + 9x2 + 4x3 = 5 (Z2 ) % [A|b] = ⎣ 3 9 4 5 ⎦ .


x1 + 3x2 + 2x3 = 3 (Z3 ) 1 3 2 3

Schritt 2 Wir realisieren den Gauß-Algorithmus in zwei Schritten:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 3 1 1 (Z2 ) − 3(Z1 ) 1 2 1 1 1 2 1 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣3 9 4 5⎦ % ⎣0 0 1 2⎦ % ⎣ 0 0 1 2 ⎦ = Z.
1 3 2 3 0 0 1 2 0 0 0 0

Die Zielmatrix ist vom Typ 2 (Trapezform). Das LGS hat somit unendlich viele Lösungen
mit einem freien Parameter.
2.2 • Der Gauß-Algorithmus
83 2
Schritt 3 Aus der zweiten Gleichung folgt x3 = 2. Dann setzen wir x2 = t als freien
Parameter. Aus der ersten Gleichung folgt dann x1 = 1 − 2x2 − x3 = −2t − 1. Als
Lösung erhalten wir somit eine Gerade im R3 :
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
A x
⎨ x1
⎪ A 1 −1 −2 ⎪

⎢ ⎥ A⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R3 A ⎣x2 ⎦ = ⎣ 0 ⎦ + t ⎣ 1 ⎦ , t ∈ R .

⎩ A ⎪

x3 A x3 2 0 !

Übung 2.10
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:


⎨x1 + x2 + x3 = 1

2x1 + 2x2 + 2x3 = 2



3x1 + 3x2 + 3x3 = 3

v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x 1 + x2 + x 3 = 1
⎪ (Z1 ) 1 1 1 1
⎢ ⎥
2x1 + 2x2 + 2x3 = 2 (Z2 ) % [A|b] = ⎣ 2 2 2 2 ⎦ .


3x1 + 3x2 + 3x3 = 3 (Z3 ) 3 3 3 3

Schritt 2 Wir führen den Gauß-Algorithmus durch:


⎡ ⎤ ⎡ ⎤
1 1 1 1 (Z2 ) − 2(Z1 ) 1 1 1 1
⎢ ⎥ (Z3 ) − 3(Z1 ) ⎢ ⎥
⎣2 2 2 2⎦ % ⎣ 0 0 0 0 ⎦ = Z.
3 3 3 3 0 0 0 0

Die Zielmatrix ist vom Typ 2, d. h., das LGS hat unendlich viele Lösungen mit zwei freien
Parametern t, s.
Schritt 3 Wir setzen x2 = t und x3 = s als freie Parameter. Aus der ersten Gleichung
im Endschema Z erhalten wir x1 = 1 − x2 − x3 = 1 − t − s. Als Lösung erhalten wir
somit eine Ebene im R3
⎧⎡ ⎤ A⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
A x 1
⎨ x1
⎪ A 1 −1 −1 ⎪

⎢ ⎥ 3A ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R A ⎣x2 ⎦ = ⎣0⎦ + t ⎣ 1 ⎦ + s ⎣ 0 ⎦ , t, s ∈ R .

⎩ A ⎪

x3 A x3 0 0 1 !
84 Kapitel 2 • Lineare Gleichungssysteme

Praxistipp

Alle Variablen direkt neben dem ersten Pivot sind freie Variablen

x1 x2 x3
1 1 1 1
0 0 0 0
0 0 0 0
↑ ↑

x2 = t, x3 = s freie Variablen.

Übung 2.11
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:


⎨x1 + 2x2 + x4 = 0

2x1 + 5x2 + 4x3 + 4x4 = 0



3x1 + 5x2 − 6x3 + 4x4 = 0

v Lösung
Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ x1 + 2x2
⎪ + x4 = 0 (Z1 ) 1 2 0 1 0
⎢ ⎥
2x1 + 5x2 + 4x3 + 4x4 = 0 (Z2 ) % [A|b] = ⎣ 2 5 4 4 0 ⎦ .


3x1 + 5x2 − 6x3 + 4x4 = 0 (Z3 ) 3 5 −6 4 0

Schritt 2 Wir wenden den Gauß-Algorithmus in drei Schritten an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 1 0 (Z2 ) − 2(Z1 ) 1 2 0 1 0 1 2 0 1 0
⎢ ⎥ (Z3 ) − 3(Z1 )
⎢ (Z
⎥ 3 ) + (Z )
2 ⎢ ⎥
⎣2 5 4 4 0⎦ % ⎣0 1 4 2 0⎦ % ⎣0 1 4 2 0⎦
3 5 −6 4 0 0 −1 −6 1 0 0 0 −2 3 0
⎡ ⎤
1 2 0 1 0
− 1 (Z3 ) ⎢ ⎥
2
% ⎣ 0 1 4 2 0 ⎦ = Z.
0 0 1 − 32 0

Die Zielmatrix ist vom Typ 2 (Trapezform). Das LGS hat somit unendlich viele Lösungen
mit einem freien Parameter.
Schritt 3 Wir setzen x4 = t als freien Parameter. Aus der dritten Gleichung im
Endschema Z erhalten wir x3 = 32 x4 = 32 t. Aus der zweiten Gleichung folgt x2 =
−4x3 − 2x4 = −8t. Aus der ersten Gleichung folgt x1 = −2x2 − x4 = 15t. Als Lösung
erhalten wir somit eine Gerade durch den Nullpunkt:
2.2 • Der Gauß-Algorithmus
85 2
⎧⎡ ⎤ A ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 A x1 15 ⎪

⎪ A ⎪

⎨ ⎢x ⎥ A ⎢ ⎥ ⎢−8⎥ ⎬
⎢ ⎥ A ⎢x2 ⎥ ⎢ ⎥
L = ⎢ 2 ⎥ ∈ R4 A ⎢ ⎥ = t ⎢ 3 ⎥ , t ∈ R .

⎪ ⎣ x 3 ⎦ A ⎣x3 ⎦ ⎣ 2 ⎦ ⎪


⎩ A ⎪

x4 A x4 1 !

Übung 2.12
• ◦ ◦ Man löse das folgende homogene LGS:


⎪ 2x1 + x2 + 5x3 + 5x4 = 0



⎨x − x + 2x − x = 0
1 2 3 4

⎪ x1 + 2x3 + 3x4 = 0




2x2 + x3 + 4x4 = 0

v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤

⎪ 2x1 + x2 + 5x3 + 5x4 =0 (Z1 ) 2 1 5 5 0

⎨ x − ⎢ ⎥
1 x2 + 2x3 − x4 =0 (Z2 ) ⎢ 1 −1 2 −1 0 ⎥
% [A|b] = ⎢ ⎥.
⎪ x1

⎪ + 2x3 + 3x4 =0 (Z3 ) ⎣ 1 0 2 3 0 ⎦

2x2 + x3 + 4x4 =0 (Z3 ) 0 2 1 4 0

Schritt 2 Wir führen den Gauß-Algorithmus in mehreren Schitten durch:

⎡ ⎤ ⎡ ⎤ (Z1 )/2 ⎡ ⎤
2 1 5 5 0 2 1 5 5 0 −(Z2 )/31 12 52 52 0
2(Z2 ) − (Z1 ) −(Z3 )
⎢ ⎥ ⎢ ⎥ ⎢0 1 1 7 0⎥
⎢ 1 −1 2 −1 0 ⎥ 2(Z3 ) − (Z1 ) ⎢ 0 −3 −1 −7 0⎥ (Z4 )/2
⎢ ⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ 3 3 ⎥
⎣ 1 0 2 3 0 ⎦ ⎣ 0 −1 −1 1 0⎦ ⎣ 0 1 1 −1 0 ⎦
0 2 1 4 0 0 2 1 4 0 0 1 12 2 0
⎡ 1 5 5
⎤ ⎡ 1 5 5 ⎤
1 2 2 2 0 3 (Z ) 1 2 2 2 0
(Z3 ) − (Z2 ) 2 3 ⎢
⎢ 0⎥
(Z4 ) − (Z2 ) ⎢ 0 1
1 7 1 7 ⎥
⎥ 6(Z4 ) ⎢ 0 1 3 3 0 ⎥
% ⎢ 3 3 ⎥ % ⎢ ⎥
⎣ 0 0 23 − 103 0
⎦ ⎣ 0 0 1 −5 0 ⎦
0 0 16 − 31 0 0 0 1 −2 0
⎡ 1 5 5
⎤ ⎡ ⎤
1 2 2 2 0 1 12 52 52 0

(Z4 ) − (Z3 ) ⎢ 0 1
1 7 ⎥ (Z )/3 ⎢ 0 1 1 7 0 ⎥
% ⎢ 3 3 0⎥ 4
⎥ % ⎢
⎢ 3 3 ⎥
⎥=Z
⎣0 0 1 −5 0 ⎦ ⎣ 0 0 1 −5 0 ⎦
0 0 0 3 0 0 0 0 1 0

Die Zielmatrix ist vom Typ 1 (Diagonalform). Das LGS hat somit genau eine Lösung.
86 Kapitel 2 • Lineare Gleichungssysteme

Schritt 3 Herauslesen der Lösung aus dem Endschema Z (Rückwärtseinsetzen):


⎧ ⎧
⎪ 1 5 5 ⎪ ⎧⎡ ⎤⎫
⎪x1 + 2 x2 + 2 x3 + 2 x4 = 0

⎪ ⎪x1


=0 ⎪
⎪ 0 ⎪⎪

⎨x + 1 x + 7 x = 0 ⎪
⎨x ⎪
⎨⎢0⎥⎪ ⎬
2 3 3 3 4 2 =0 ⎢ ⎥
⇒ ⇒ L= ⎢ ⎥ .

⎪ x 3 − 5x 4 = 0 ⎪
⎪ x 3 =0 ⎪
⎪ ⎣0⎦⎪⎪

⎪ ⎪
⎪ ⎪
⎩ ⎪


⎩ ⎪
⎩ 0
x4 = 0 x4 =0 !

> Bemerkung
In den 7 Abschns. 2.3.4 und 3.5.1 werden wir die Theorie der homogenen LGS genauer
anschauen. Im Allgemeinen hat ein homogenes LGS immer die Triviale Lösung = 0.
Das LGS hat eine nichttriviale Lösung ̸= 0 genau dann, wenn det(A) = 0 gilt. Für
die Matrix in Übung 2.12 ist det(A) ̸= 0. Aus diesem Grund ist 0 die einzige Lösung
des LGS.

Übung 2.13
• ◦ ◦ Man löse das folgende LGS mit dem Gauß-Algorithmus:


⎪x1 + x2 + x3 + 6x4 = 0



⎨x + x + 2x + 8x = 0
1 2 3 4

⎪ 2x1 + 2x2 + 8x4 = 0




2x3 + 4x4 + x5 = 0

v Lösung
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎪ x + x2 + x3 + 6x4 =0 (Z1 ) 1 1 1 6 0 0
⎪ 1

⎨ ⎢
x1 + x2 + 2x3 + 8x4 =0 (Z2 ) ⎢1 1 2 8 0 0⎥⎥
% [A|b] = ⎢ ⎥.


⎪ 2x 1 + 2x 2 + 8x 4 = 0 (Z 3 ) ⎣2 2 0 8 0 0⎦

2x3 + 4x4 + x5 = 0 (Z4 ) 0 0 2 4 1 0

Schritt 2 Wir wenden den Gauß-Algorithmus an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 6 0 0 1 1 1 6 0 0 1 1 1 6 0 0
(Z2 ) − (Z1 ) −(Z3 )/2
⎢ ⎥ ⎢0 0 1 0 0⎥ ⎢0 0 1 2 0 0⎥
⎢ 1 1 2 8 0 0 ⎥ (Z3 ) − 2(Z1 ) ⎢ 2 ⎥ (Z4 )/2 ⎢ ⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥
⎣ 2 2 0 8 0 0 ⎦ ⎣ 0 0 −2 −4 0 0⎦ ⎣0 0 1 2 0 0⎦
0 0 2 4 1 0 0 0 2 4 1 0 0 0 1 2 12 0
⎡ ⎤ ⎡ ⎤
1 1 1 6 0 0 1 1 1 6 0 0
(Z3 ) − (Z2 )
⎢0 0 1 2 0 0⎥
(Z4 ) − (Z2 ) (Z3 ) ↔ 2(Z4 )
⎢0 0 1 2 0 0⎥
⎢ ⎥ ⎢ ⎥
% ⎢ ⎥ % ⎢ ⎥ = Z.
⎣0 0 0 0 0 0⎦ ⎣0 0 0 0 1 0⎦
1
0 0 0 0 2 0 0 0 0 0 0 0

Die Zielmatrix ist vom Typ 2 (Trapezform). Das LGS hat somit unendlich viele Lösungen
mit 2 freien Parametern.
2.2 • Der Gauß-Algorithmus
87 2
Schritt 3 Herauslesen der Lösung aus dem Endschema Z:


⎧ ⎪x1 = −t − 4s




⎪ ⎪
⎨x1 + x2 + x3 + 6x4 = 0
⎪ ⎨x2 = t

x3 + 2x4 = 0 ⇒ x3 = −2s

⎪ ⎪

⎩ ⎪

x5 = 0 ⎪ x =s
⎪ 4



x5 = 0

Als Lösung erhalten wir somit:


⎧⎡ ⎤ A ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 A x1 −1 −4 ⎪

⎪ A ⎪


⎪ ⎢ ⎥ A ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪


⎨⎢ x2 ⎥ A ⎢x2 ⎥ ⎢1⎥ ⎢0⎥ ⎪

⎢ ⎥ A
5A
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥
L = ⎢x3 ⎥ ∈ R A ⎢x3 ⎥ = t ⎢ 0 ⎥ + s ⎢−2⎥ , t, s ∈ R .
⎪ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪
⎪⎢ ⎥
⎪ A ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎪


⎪ ⎣x4 ⎦ A ⎣x4 ⎦ ⎣0⎦ ⎣1⎦ ⎪


⎩ A ⎪

x5 A x5 0 0 !

Praxistipp

Alle Variablen direkt neben den markierten Elementen sind freie Variablen

x1 x2 x3 x4 x5
1 1 1 6 0 0
0 0 1 2 0 0
0 0 0 0 1 0
0 0 0 0 0 0
↑ ↑

x2 = t, x4 = s freie Variablen.

Übung 2.14
• • ◦ Eine Matrix A ∈ Rn×n heißt magisches Quadrat, wenn alle Zeilen, Spalten und
Diagonalen dieselbe Summe α ergeben. Diese Zahl α heißt magische Summe. Man finde
alle (2 × 2)-magische Quadrate.

v Lösung )
*
ab
Es sei A = . Damit A ein magisches Quadrat ist, müssen alle Zeilen, Spalten und
cd
Diagonalen dieselbe Summe α ergeben, d. h.
88 Kapitel 2 • Lineare Gleichungssysteme



⎪a+b=α ⎡ ⎤

⎪ 1 1 0 0 α



⎪c+d =α ⎢ ⎥

⎪ ⎢ 0 0 1 1 α ⎥

⎨a + c = α ⎢ ⎥
⎢ 1 0 1 0 α ⎥
% [A|b] = ⎢

⎥.



⎪b+d =α ⎢ 0 1 0 1 α ⎥

⎪ ⎢ ⎥

⎪a+d =α
⎣ 1 0 0 1 α ⎦



⎪ 0 1 1 0 α

c+b=α

Wir bekommen somit ein LGS für die Matrixeinträge a, b, c, d. Dies lösen wir mittels
Gauß-Algorithmus.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0 α 1 1 0 0 α 1 1 0 0 α
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ 0 0 1 1 α ⎥ ⎢0 0 1 1 α⎥ ⎢0 1 1 0 α⎥
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ ⎢ ⎥
⎢ 1 0 1 0 α ⎥ (Z5 ) − (Z1 ) ⎢0 −1 1 0 0⎥ (Z2 ) ↔ (Z6 ) ⎢0 −1 1 0 0⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥
⎢ 0 1 0 1 α ⎥ ⎢0 1 0 1 α⎥ ⎢0 1 0 1 α⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 1 0 0 1 α ⎦ ⎣0 −1 0 1 0⎦ ⎣0 −1 0 1 0⎦
0 1 1 0 α 0 1 1 0 α 0 0 1 1 α
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0 α 1 1 0 0 α 1 1 0 0 α
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
(Z3 ) + (Z2 ) ⎢0 1 1 0 α⎥ 2(Z4 ) + (Z3 ) ⎢0 1 1 0 α⎥ ⎢0 1 1 0 α⎥
(Z4 ) − (Z2 ) ⎢ ⎥ 2(Z5 ) − (Z3 ) ⎢ ⎥ ⎢ ⎥
(Z5 ) + (Z2 ) ⎢0 0 2 0 α⎥ (Z6 ) − (Z5 ) ⎢0 0 2 0 α⎥ (Z5 ) − (Z4 ) ⎢0 0 2 0 α⎥
% ⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥ = Z.
⎢0 0 −1 1 0⎥ ⎢0 0 0 2 α⎥ ⎢0 0 0 2 α⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0 0 1 1 α⎦ ⎣0 0 0 2 α⎦ ⎣0 0 0 0 0⎦
0 0 1 1 α 0 0 0 0 0 0 0 0 0 0

Die Zielmatrix ist vom Typ 1, d. h., das LGS hat genau eine Lösung. Die Lösung lesen
wir direkt aus dem Endschema Z heraus: a = b = c = d = α2 . Alle (2 × 2)-magische
Quadrate sehen somit wie folgt aus:
) *
α α
A= 2 2 .
α α
2 2 !

2.2.6 Diskussion von LGS mit Parametern

Nun diskutieren wir LGS mit Parametern.

Praxistipp

In solchen Situationen geht man gemäß Kochrezept 2.1 vor. Im Schritt 2 muss man
aufpassen, dass man keine Zeile mit Null multipliziert. Wenn es vorkommt, dass für
einige spezifische Werte des Parameters mit Null multipliziert wird, kann man diese
Spezialfälle mit einer Fallunterscheidung separat untersuchen.
2.2 • Der Gauß-Algorithmus
89 2

Übung 2.15
• ◦ ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat:

⎨2x + 4x = −2a
1 2
⎩x + (a + 2)x = 1 − a
1 2

v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
$ ) *
2x1 + 4x2 = −2a (Z1 ) 2 4 −2a
% [A|b] = .
x1 + (a + 2)x2 = 1 − a (Z2 ) 1 a+2 1−a

Schritt 2 Wir führen den Gauß-Algorithmus in zwei Schritten durch:


) * ) * ) *
2 4 −2a (Z1 )/2 1 2 −a (Z2 ) − (Z1 ) 1 2 −a
% % = Z.
1 a+2 1−a 1 a+2 1−a 0 a 1

Wir stellen fest, dass je nach Wert von a, die Zielmatrix entweder vom Typ 1 (Drei-
ecksform, wenn a ̸= 0) oder vom Typ 3 (wenn a = 0) ist. Wir führen somit eine
Fallunterscheidung durch:
5 Fall a = 0: In diesem Fall ist die Zielmatrix vom Typ 3
) *
120
Z= .
001
? @
Das LGS hat somit keine Lösung, d. h. L = .
5 Fall a ̸= 0: In diesem Fall ist die Zielmatrix vom Typ 1. Das LGS hat somit genau
eine Lösung:
⎧ ⎧ $) *E
⎨x + 2x = −a ⎨x = −a − 2 2
1 2 1 a − a a+2
⇒ ⇒ L= 1
.
⎩ax = 1 ⎩x = 1
2 2 a a !

> Bemerkung
In Übung 2.15 ist der dritte Fall (unendlich viele Lösungen) nicht möglich, weil die
zweite Komponente = 1 ist, also verschieden von Null!
90 Kapitel 2 • Lineare Gleichungssysteme

Übung 2.16
• ◦ ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat

⎨x + a2 x = 1
1 2
⎩a2 x + x = a
1 2

v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
$ % &
x1 + a2 x2 = 1 (Z1 ) 1 a2 1
2
! [A|b] = .
a x1 + x2 = a (Z2 ) a2 1 a

Schritt 2 Wir wenden den Gauß-Algorithmus in einem Schritt an:


% & % &
1 a2 1 (Z2 ) − a2 (Z1 ) 1 a2 1
! = Z.
a2 1 a 0 1 − a a − a2
4

Je nach Wert von a ist die Zielmatrix entweder vom Typ 1 (wenn 1−a4 ̸= 0), Typ 2 (wenn
1−a4 = 0 und a−a2 = 0) oder vom Typ 3 (wenn 1−a4 = 0 und a−a2 ̸= 0). Wir machen
somit diverse Fallunterscheidungen. Mit der Gleichung 1 − a4 = (1 − a2 )(1 + a2 ) =
(1 − a)(1 + a)(1 + a2 ) erhalten wir:
% &
1 a2 1
Z= .
0 (1 − a)(1 + a)(1 + a2 ) a(1 − a)

5 Fall a = 1: Hier ist die Zielmatrix vom Typ 2 (Trapezform)


% &
111
Z= .
000

Das LGS hat somit unendlich viele Lösungen mit einem freien Parameter. Wir setzen
x2 = t und mithilfe der ersten Gleichung im Endschema erhalten wir x1 = 1 − x2 =
1 − t. Als Lösung erhalten wir eine Gerade:
$% & '% & % & % & (
' x
x1 ' 1 1 −1
L= ∈ R2 ' = +t ,t∈R .
x2 ' x2 0 1

5 Fall a = −1: In diesem Fall ist die Zielmatrix vom Typ 3


% &
11 1
Z= .
0 0 −2
) *
Das LGS hat somit keine Lösung, d. h. L = .
2.2 • Der Gauß-Algorithmus
91 2
5 Fall a = 0: Die Zielmatrix ist vom Typ 1 (Diagonalform):
% &
101
Z= .
010
$% &(
1
Das LGS hat somit genau eine Lösung L = .
0
5 Fall a ̸= 0, ±1: Die Zielmatrix ist vom Typ 1 (Diagonalform), d. h., das LGS hat
genau eine Lösung (. Abb. 2.7):
⎧ ⎧
⎨x + a2 x = 1 ⎨x1 = 1 − a2 x2 = 1+a+a2
1 2 (1+a)(1+a2 )

⎩(1 + a)(1 + a2 )x = a ⎩x = a
2 2 (1+a)(1+a2 )
⎧⎡ ⎤⎫
⎨ 1+a+a2 ⎬
2)
⇒ L = ⎣ (1+a)(1+a
a
⎦ .
⎩ ⎭
2
(1+a)(1+a ) "

a b

c d

. Abb. 2.7 Grafische Darstellung der Lösung von Übung 2.16 in Abhängigkeit des Parameters a
92 Kapitel 2 • Lineare Gleichungssysteme

Übung 2.17
• ◦ ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat


⎨2x1 + 4x2 + ax3 = 5

3x1 + (a + 5)x2 + x3 = 7



x1 + 2x2 + ax3 = 3

v Lösung
Schritt 1 Wir stellen zuerst die erweiterte Matrix [A|E] auf:
⎧ ⎡ ⎤
⎨ 2x1 +
⎪ 4x2 + ax3 = 5 (Z1 ) 2 4 a 5
⎢ ⎥
3x1 + (a + 5)x2 + x3 = 7 (Z2 ) ! [A|b] = ⎣ 3 a + 5 1 7 ⎦ .


x1 + 2x2 + ax3 = 3 (Z3 ) 1 2 a 3

Schritt 2 Wir führen den Gauß-Algorithmus in zwei Schritten durch:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 4 a 5 1 2 a2 52 (Z2 ) − 3(Z1 ) 1 2 a
2
5
2
⎢ (Z
⎥ 1 ⎢)/2 ⎥ (Z3 ) − (Z1 ) ⎢ 1 ⎥ = Z.
⎣3 a+5 1 7⎦ ! ⎣3 a+5 1 7 ⎦ ! ⎣ 0 a − 1 1 − 3a
2 −2 ⎦
a 1
1 2 a 3 1 2 a 3 0 0 2 2

Problematische Werte von a sind a = 0 und a = 1. Wir machen somit geeignete


Fallunterscheidungen:
5 Fall a = 0: In diesem Fall ist die Zielmatrix vom Typ 3
⎡ ⎤
1 2 0 52
⎢ ⎥
Z = ⎣ 0 −1 1 − 12 ⎦ .
0 0 0 12
) *
Das LGS hat keine Lösung, d. h. L = .
5 Fall a = 1: Hier sind die zweite und dritte Gleichungen identisch und dadurch ist
die Zielmatrix vom Typ 2 (Trapezform)
⎡ ⎤ ⎡ ⎤
1 2 12 52 (Z3 ) + (Z2 ) 1 2 12 52
⎢ ⎥ −2(Z2 ) ⎢ ⎥
⎣ 0 0 − 21 − 21 ⎦ ! ⎣0 0 1 1 ⎦.
1 1
00 2 2 00 0 0

Das LGS hat offensichtlich unendlich viele Lösungen mit dem freien Parameter t:

⎧ ⎪ 5 1
⎨x + 2x + 1 x = 5 ⎨x1 = 2 − 2x2 − 2 x3 = 2 − 2t

1 2 2 3 2 ⇒ x2 = t
⎩x = 1 ⎪

3 ⎩
x3 = 1
2.2 • Der Gauß-Algorithmus
93 2
Als Lösung erhalten wir eine Gerade im dreidimensionalen Raum R3 :
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 2
⎨ x1
⎪ ' 1 −2 ⎪

⎢ ⎥ 3' ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R ' ⎣x2 ⎦ = ⎣0⎦ + t ⎣ 1 ⎦ , t ∈ R .

⎩ ' ⎪

x3 ' x3 1 0

5 Fall a ̸= 0, 1: Die Zielmatrix ist vom Typ 1 (Diagonalform) und das LGS hat genau
eine Lösung:
⎧ ⎧
5 2(a−1)

⎪ x + 2x2 + a2 x3 = 52 ⎪
⎪x1 = 2 − 2x2 − a2 x3 =
⎨ 1
⎪ 5 6 ⎪
⎨ 5 6 a
1− 3a 1
2 x3 + 2
(a − 1)x2 + 1 − 3a x3 = − 12 ⇒ 1


2 ⎪x2 = −
⎪ a−1 = a

⎩ax = 1 ⎪

2 3 2 x3 = 1a
⎧ ⎡ ⎤⎫

⎨ 2(a − 1) ⎪⎬
⎢ ⎥
Als Lösung erhalten wir den einzigen Vektor L = 1a ⎣ 1 ⎦ . "

⎩ ⎪

1

Übung 2.18
• ◦ ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat


⎨x1 + x3 = 0

x1 + a x2 + (a + 1)x3 = 2a



3x1 + a x2 + (a + 3)x3 = 2a

v Lösung
Wir gehen nach unserem bekannten Kochrezept 2.1 vor.
Schritt 1 Als Erstes ordnen wir dem Gleichungssystem die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ x1
⎪ + x3 = 0 (Z1 ) 1 0 1 0
⎢ ⎥
x1 + a x2 + (a + 1)x3 = 2a (Z2 ) ! [A|b] = ⎣ 1 a a + 1 2a ⎦ .


3x1 + a x2 + (a + 3)x3 = 2a (Z3 ) 3 a a + 3 2a

Schritt 2 Wir führen den Gauß-Algorithmus in zwei Schritten durch:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 0 (Z2 ) − (Z1 ) 1 0 1 0 1 0 1 0
⎢ ⎥ (Z3 ) − 3(Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣ 1 a a + 1 2a ⎦ ! ⎣ 0 a a 2a ⎦ ! ⎣ 0 a a 2a ⎦ = Z.
3 a a + 3 2a 0 a a 2a 0 0 0 0

Wir führen zwei Fallunterscheidungen durch:


94 Kapitel 2 • Lineare Gleichungssysteme

5 Fall a = 0: Die Zielmatrix ist vom Typ 2 (Trapezform):


⎡ ⎤
1010
⎢ ⎥
Z = ⎣0 0 0 0⎦.
0000

Das LGS hat somit unendlich viele Lösungen mit zwei freien Parametern. Die
Variable x2 ist frei wählbar, genauso wie x3 . Setzen wir x3 = t und x2 = s, so
erhalten wir aus der ersten Gleichung x1 = −x3 = −t. Als Lösung erhalten wir
eine Ebene durch den Nullpunkt:
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0
⎨ x1
⎪ ' 1 −1 ⎪

⎢ ⎥ 3' ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R ' ⎣x2 ⎦ = t ⎣ 0 ⎦ + s ⎣1⎦ , t, s ∈ R .

⎩ ' ⎪

x3 ' x3 1 0

5 Fall a ̸= 0: Die Zielmatrix ist vom Typ 2 (Trapezform):


⎡ ⎤
101 0
⎢ ⎥
Z = ⎣ 0 a a 2a ⎦ .
000 0

Das LGS hat somit unendlich viele Lösungen mit einem freien Parameter. Setzen
wir x3 = t, so folgt aus der zweiten Gleichung x2 = 2 − x3 = 2 − t. Aus der ersten
Gleichung folgt x1 = −x3 = −t. Als Lösung erhalten wir eine (affine) Gerade durch
[0, 2, 0]T :
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0
⎨ x1
⎪ ' 1 −1 ⎪

⎢ ⎥ 3' ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R ' ⎣x2 ⎦ = ⎣2⎦ + t ⎣−1⎦ , t ∈ R .

⎩ ' ⎪

x3 ' x3 0 1 "

Übung 2.19
• • ◦ Man untersuche in Abhängigkeit von a ∈ R, ob das folgende LGS keine, genau
eine oder unendlich viele Lösungen hat


⎨x1 + ax2 + 3x3 = a

x1 + (a − 2)x2 + (2a + 3)x3 = −a2



x2 − ax3 = 1
2.2 • Der Gauß-Algorithmus
95 2
v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 +
⎪ ax2 + 3x3 = a (Z1 ) 1 a 3 a
⎢ ⎥
x1 + (a − 2)x2 + (2a + 3)x3 = −a2 (Z2 ) ! [A|b] = ⎣ 1 a − 2 2a + 3 −a2 ⎦ .


x2 − ax3 = 1 (Z3 ) 0 1 −a 1

Schritt 2 Wir führen wie immer den Gauß-Algorithmus durch:


⎡ ⎤ ⎡ ⎤
1 a 3 a 1 a 3 a
⎢ (Z
⎥ 2 ) − (Z ) ⎢ ⎥
⎣ 1 a − 2 2a + 3 −a2 ⎦ ! 1 ⎣ 0 −2 2a −a2 − a ⎦
0 1 −a 1 0 1 −a 1
⎡ ⎤ ⎡ ⎤
1 a 3 a 1 a 3 a
(Z3 ) ↔ (Z2 ) ⎢ ⎥ (Z3 ) + 2(Z2 ) ⎢ ⎥
! ⎣ 0 1 −a 1 ⎦ ! ⎣ 0 1 −a 1 ⎦ = Z.
0 −2 2a −a2 − a 0 0 0 −a2 − a + 2

Wegen 2 − a − a2 = −(a − 1)(a + 2), machen wir 3 Fallunterscheidungen zwischen (1)


a = 1, (2) a = −2 und (3) a ̸= 1, −2:
5 Fall a = 1: Die Zielmatrix ist vom Typ 2 (Trapezform):
⎡ ⎤
11 3 1
⎢ ⎥
Z = ⎣ 0 1 −1 1 ⎦ .
00 0 0

Das LGS hat bekanntlich unendlich viele Lösungen mit einem freien Parameter t.
Setzen wir x3 = t, so erhalten wir aus der zweiten Gleichung x2 = 1 + x3 = 1 + t.
Aus der ersten Gleichung folgt x1 = 1 − x2 − 3x3 = −4t. Als Lösung erhalten wir:
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0
⎨ x1
⎪ ' 1 −4 ⎪

⎢ ⎥ 3' ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R ' ⎣x2 ⎦ = ⎣1⎦ + t ⎣ 1 ⎦ , t ∈ R .

⎩ ' ⎪

x3 ' x3 0 1

5 Fall a = −2: in diesem Fall, ist die Zielmatrix vom Typ 2 (Trapezform)
⎡ ⎤
1 −2 3 −2
⎢ ⎥
Z = ⎣0 1 2 1 ⎦.
0 0 0 0

Das LGS hat ebenso unendlich viele Lösungen mit einem freien Parameter. Wir
setzen x3 = t als freien Parameter. Es folgt x2 = 1 − 2x3 = 1 − 2t und x1 =
−2 + 2x2 − 3x3 = −7t. Als Lösung erhalten wir:
96 Kapitel 2 • Lineare Gleichungssysteme

⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0
⎨ x1
⎪ ' 1 −7 ⎪

⎢ ⎥ '⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R3 ' ⎣x2 ⎦ = ⎣1⎦ + t ⎣−2⎦ , t ∈ R .

⎩ ' ⎪

x3 ' x3 0 1
) *
5 Fall a ̸= 1, −2: Die Zielmatrix ist vom Typ 3. Das LGS hat keine Lösung, L = .
"

Übung 2.20
••◦

⎪ 2
⎨kx1 + kx2 + k x3 = 4

x1 + x2 + kx3 = k



x1 + 2x2 + 3x3 = 2k

Für welche Werte von k ∈ R hat das LGS eine eindeutige Lösung, unendlich viele
Lösungen oder keine Lösung? Man bestimme gegebenfalls konkret die Lösung(en).

v Lösung
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
2 k k k2 4
⎨ kx1 + kx2 + k x3 = 4
⎪ (Z1 )
⎢ ⎥
x1 + x2 + kx3 = k (Z2 ) ! [A|b] = ⎣ 1 1 k k ⎦ .


x1 + 2x2 + 3x3 = 2k (Z3 ) 1 2 3 2k

Schritt 2 Wir wenden den Gauß-Algorithmus in zwei Schritten an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
k k k2 4 1 2 3 2k (Z2 ) − (Z1 ) 1 2 3 2k
⎢ ⎥ (Z3 ) ↔ (Z1 ) ⎢ ⎥ (Z3 ) − k(Z2 ) ⎢ ⎥
⎣1 1 k k ⎦ ! ⎣1 1 k k ⎦ ! ⎣ 0 −1 k − 3 −k ⎦ = Z.
1 2 3 2k k k k2 4 0 0 0 4 − k2

Wegen 4 − k2 = (2 − k)(2 + k), führen wir Fallunterscheidungen zwischen (1) k = 2,


(2) k = −2 und (3) k ̸= ±2 durch:
5 Fall k = 2: Die Zielmatrix ist vom Typ 2 (Trapezform):
⎡ ⎤
1 2 3 4
⎢ ⎥
Z = ⎣ 0 −1 −1 −2 ⎦ .
0 0 0 0

Das LGS hat somit unendlich viele Lösungen mit einem freien Parameter. Setzen wir
x3 = t, so erhalten wir:
2.2 • Der Gauß-Algorithmus
97 2
⎧ ⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎨x1 = 4 − 2x2 − 3x3 = −t
⎪ ⎨ x1 ' x1
' 0 −1 ⎬
⎣ ⎦ 3' ⎣ ⎦ ⎣ ⎦ ⎣ ⎦
x2 = 2 − x3 = 2 − t ⇒L= x2 ∈ R ' x2 = 2 + t −1 , t ∈ R .

⎩ ⎩ ' x ⎭
x3 = t x3 3 0 1

5 Fall k = −2: Die Zielmatrix ist vom Typ 2 (Trapezform):

⎡ ⎤
1 2 3 −4
Z = ⎣ 0 −1 −5 2 ⎦ .
0 0 0 0

Das LGS hat somit unendlich viele Lösungen mit einem freien Parameter x3 = t:


⎨x1 = −4 − 2x2 − 3x3 = 7t

x2 = −2 − 5x3 = −2 − 5t



x3 = t
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0 7
⎨ x1
⎪ ' 1 ⎪

⎢ ⎥ '⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⇒ L = ⎣x2 ⎦ ∈ R3 ' ⎣x2 ⎦ = ⎣−2⎦ + t ⎣−5⎦ , t ∈ R .

⎩ ' ⎪

x3 ' x3 0 1
) *
5 Fall k ̸= ±2: Die Zielmatrix ist vom Typ 3. Das LGS hat keine Lösung, L = .
"

> Bemerkung
In Übung 2.20 ist es wichtig, dass wir zuerst die erste Zeile mit der dritten Zeile
vertauschen. Wenn wir diese Operation nicht durchführen würden, wären Operationen
wie k(Z2 ) − (Z1 ) oder k(Z3 ) − (Z1 ) nötig, um den ersten Schritt des Gauß-Algorithmus
durchzuführen. Wie im Kochrezept 2.1 erklärt, sind diese Operationen für k = 0 nicht
erlaubt!

i Merkregel
Im Allgemeinen muss man aufpassen, wenn ein Parameter als Pivotelement vorkommt.
In einem solchen Fall ist es oft eine gute Idee, Zeilen zu vertauschen. Alternativ kann
man problematische Situationen separat mit einer Fallunterscheidung betrachten.

Übung 2.21
••◦


⎨x1 + x2 = 1

kx1 + x2 + x3 = 1 − k



x2 + (1 − k)x3 = 1
98 Kapitel 2 • Lineare Gleichungssysteme

Für welche Werte von k ∈ R hat das LGS genau eine Lösung, unendlich viele Lösungen
oder keine Lösung? Man bestimme gegebenfalls die Lösung(en).

v Lösung
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 + x2
⎪ =1 (Z1 ) 1 1 0 1
⎢ ⎥
kx1 + x2 + x3 = 1 − k (Z2 ) ! [A|b] = ⎣ k 1 1 1 − k ⎦ .


x2 + (1 − k)x3 = 1 (Z3 ) 0 1 1−k 1

Schritt 2 Wir wenden den Gauß-Algorithmus in drei Schritten an:


⎡ ⎤ ⎡ ⎤
1 1 0 1 1 1 0 1
⎢ (Z
⎥ 2 ) − k(Z ) ⎢ ⎥ (Z3 ) ↔ (Z2 )
⎣k 1 1 1−k⎦ ! 1 ⎣ 0 1 − k 1 1 − 2k ⎦ !
0 1 1−k 1 0 1 1−k 1
⎡ ⎤ ⎡ ⎤
1 1 0 1 1 1 0 1
⎢ ⎥ (Z3 ) − (1 − k)(Z2 ) ⎢ ⎥
⎣0 1 1 − k 1 ⎦ ! ⎣0 1 1−k 1 ⎦ = Z.
0 1 − k 1 1 − 2k 0 0 −k2 + 2k −k

Wegen −k2 + 2k = −k(k − 2), machen wir die nötigen Fallunterscheidungen zwischen
(1) k = 0, (2) k = 2 und (3) k ̸= 0, 2:
5 Fall k = 0: Die Zielmatrix ist vom Typ 2 (Trapezform):
⎡ ⎤
1101
⎢ ⎥
Z = ⎣0 1 1 1⎦.
0000

Das LGS hat unendlich viele Lösungen mit einem freien Parameter t:

⎧ ⎪
⎨x + x = 1 ⎨x1 = t

1 2
⇒ x2 = 1 − t
⎩x + x = 1 ⎪

2 3 ⎩
x3 = t

Als Lösung erhalten wir:


⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 0 1
⎨ x1
⎪ ' 1 ⎪

⎢ ⎥ 3' ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R ' ⎣x2 ⎦ = ⎣1⎦ + t ⎣−1⎦ , t ∈ R .

⎩ ' ⎪

x3 ' x3 0 1
2.2 • Der Gauß-Algorithmus
99 2
5 Fall k = 2: Die Zielmatrix ist vom Typ 3:
⎡ ⎤
11 0 1
⎢ ⎥
Z = ⎣ 0 1 −1 1 ⎦ .
0 0 0 −2
) *
Das LGS hat keine Lösung, L = .
5 Fall k ̸= 0, 2: Die Zielmatrix ist vom Typ 1 (Diagonalform). Das LGS hat genau
eine Lösung:
⎧ ⎧ ⎧ ⎡ ⎤⎫
⎪ ⎪ 1−k
⎨x1 + x2 = 1
⎪ ⎨x1 =
⎪ k−2 ⎪
⎨ 1 ⎢
1−k ⎪ ⎬
2k−3 ⎥
x2 − (k − 1)x3 = 1 ⇒ x2 = ⇒ L= ⎣2k − 3⎦ .






k−2
⎩k − 2
⎪ ⎪

−k(k − 2)x3 = −k x3 = 1 1
k−2
"

> Bemerkung
Auch in Übung 2.21 ist es wichtig, dass wir beim zweiten Schritt des Gauß-Algorithmus
die zweite und dritte Zeile vertauschen. Ohne diese Transformation müssten wir die
Operation (1 − k)(Z3 ) − (Z2 ) anwenden, was wegen k = 1 nicht erlaubt ist. Alternativ
könnte man mit dem Gauß-Algorithmus weiter verfahren, ohne Zeilen zu vertauschen,
und den Spezialfall k = 1 separat betrachten.

Übung 2.22
••◦


⎪ x1 + 2x4 = 1



⎨x + x + 3x + 2x = 1
1 2 3 4
⎪2x + x + (k + 2)x + 4x = 2

⎪ 1 2 3 4



x1 + x2 + 3x3 + (k2 − k + 2)x4 = k

Für welche Werte von k ∈ R hat das LGS eine eindeutige Lösung, unendlich viele
Lösungen oder keine Lösung? Man bestimme die konkreten Lösung(en).

v Lösung
Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:


⎪ x1 + 2x4 =1 (Z1 )

⎨ x + x +
1 2 3x3 + 2x4 =1 (Z2 )


⎪ 2x1 + x2 + (k + 2)x3 + 4x4 =2 (Z3 )

x1 + x2 + 3x3 + (k2 − k + 2)x4 =k (Z4 )
100 Kapitel 2 • Lineare Gleichungssysteme

⎡ ⎤
1 0 0 2 1
⎢1
⎢ 1 3 2 1⎥⎥
! [A|b] = ⎢ ⎥.
⎣2 1 k+2 4 2⎦
1 1 3 k2 − k + 2 k

Schritt 2 Wir wenden den Gauß-Algorithmus in zwei Schritten an:


⎡ ⎤ ⎡ ⎤
1 0 0 2 1 (Z2 ) − (Z1 ) 1 0 0 2 1
(Z3 ) − 2(Z1 )
⎢1 1 3 2 1⎥ (Z4 ) − (Z2 )
⎢0 1 3 0 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ! ⎢ ⎥
⎣2 1 k+2 4 2⎦ ⎣0 1 k+2 0 0 ⎦
1 1 3 k2 − k + 2 k 0 0 0 k2 − k k − 1
⎡ ⎤
1 0 0 2 1
⎢0 1 3
(Z3 ) − (Z2 ) ⎢ 0 0 ⎥ ⎥
! ⎢ ⎥ = Z.
⎣0 0 k−1 0 0 ⎦
0 0 0 k2 − k k − 1

Wegen k2 − k = k(k − 1), machen wir Fallunterscheidungen zwischen (1) k = 0, (2)


k = 1 und (3) k ̸= 0, 1:
5 Fall k = 0: Die Zielmatrix ist vom Typ 3 und das LGS hat somit keine Lösung
⎡ ⎤
1 0 0 2 1
⎢0
⎢ 1 3 0 0 ⎥
⎥ ) *
Z=⎢ ⎥ ⇒ L= .
⎣0 0 −1 0 0 ⎦
0 0 0 0 −1

5 Fall k = 1: Die Zielmatrix vom Typ 2 (Trapezform):


⎡ ⎤
1 0 0 2 1
⎢0
⎢ 1 3 0 0⎥⎥
Z=⎢ ⎥.
⎣0 0 0 0 0⎦
0 0 0 0 0

Das LGS hat unendlich viele Lösungen mit zwei freien Parametern, z. B. t, s:

⎪ = 1 − 2t
⎧ ⎪x1


⎨x + 2x = 1 ⎪
⎨x
1 4 2 = −3s

⎩x + 3x = 0 ⎪
⎪ x3 =s
2 3 ⎪



x4 =t

Als Lösungsmenge erhalten wir:


2.2 • Der Gauß-Algorithmus
101 2
⎧⎡ ⎤ ' ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 ' x1 1 −2 0 ⎪

⎪ ' ⎪

⎨ ⎢x ⎥ ' ⎢ ⎥ ⎢ ⎥ ⎢0⎥ ⎢−3⎥ ⎬
⎢ ⎥ ' ⎢x2 ⎥ ⎢0⎥ ⎢ ⎥ ⎢ ⎥
L = ⎢ 2 ⎥ ∈ R4 ' =
⎢ ⎥ ⎢ ⎥ + t ⎢ ⎥ + s ⎢ ⎥ , t, s ∈ R .

⎪ ⎣ x 3 ⎦ ' ⎣x3 ⎦ ⎣0⎦ ⎣0⎦ ⎣1⎦ ⎪


⎩ ' ⎪

x4 ' x4 0 1 0

5 Fall k ̸= 0, 1: Die Zielmatrix vom Typ 1 (Diagonalform). Das LGS hat genau eine
Lösung:
⎧ ⎧
⎪ ⎪ k−2 ⎧ ⎡ ⎤⎫
⎪x1 + 2x4 = 1

⎪ ⎪x1


= k ⎪
⎪ k−2 ⎪


⎨x + 3x = 0 ⎪
⎨x ⎨ 1 ⎢ 0 ⎥⎪
⎪ ⎬
2 3 2 =0 ⎢ ⎥
⇒ ⇒ L= ⎢ ⎥ .

⎪(k − 1)x3 = 0 ⎪
⎪ x3 =0 ⎪
⎪ k ⎣ 0 ⎦⎪⎪

⎪ ⎪
⎪ ⎪
⎩ ⎪


⎩ ⎪
⎩ 1 1
k(k − 1)x4 = k − 1 x4 = k "

2.2.7 LGS auf beliebigen Körpern

Im Folgenden betrachten wir Beispiele von LGS auf beliebigen Körpern K. Es ist
wichtig, dass der Leser sich mit solchen Konzepten vertraut macht (vgl. Anhang B.3).

Übung 2.23
• • ◦ Man betrachte das folgende LGS auf K = C

⎨z + iz = 2 − i
1 2
⎩iz + z = 0
1 2

a) Man bestimme die Lösungsmenge des LGS (auf C).


b) Man zeige, dass das LGS zu einem reellen (4 × 4)-LGS äquivalent ist.

v Lösung
a) Wir gehen nach dem Kochrezept 2.1 vor, aber führen alle Rechnungen in C durch!
Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:
$ % &
z1 + iz2 = 2 − i (Z1 ) 1 i 2−i
! [A|b] = .
iz1 + z2 = 0 (Z2 ) i 1 0

Schritt 2 Wir führen den Gauß-Algorithmus einmal durch:


% & % &
1 i 2−i (Z2 ) − i(Z1 ) 1 i 2−i
! = Z.
i 1 0 0 2 −1 − 2i

Die Zielmatrix ist vom Typ 1 (Dreiecksform). Das LGS hat somit genau eine
Lösung.
102 Kapitel 2 • Lineare Gleichungssysteme

Schritt 3 Herauslesen der Lösung direkt aus dem Endschema Z (durch Rückwärts
auflösen):
⎧ ⎧
⎨z + iz = 2 − i ⎨z = 2 − i − iz = 1 − i
1 2 1 2 2

⎩2z = −1 − 2i ⎩z = − 1 − i
2 2 2

Als einzige Lösung erhalten wir:


$% & % & (
z1 1 − 2i 2
L= = ∈ C .
z2 − 12 − i

b) Ist etwas anspruchsvoller. Wir schreiben z1 = x1 + iy1 und z2 = x2 + iy2 , wobei


x1 , y1 , x2 , y2 ∈ R. Das LGS hat dann folgende Form:

z1 + iz2 = (x1 + iy1 ) + i(x2 + iy2 )



⎨x − y = 2
! 1 2
= (x1 − y2 ) + i(x2 + y1 ) = 2 − i ⇒
⎩x + y = −1
2 1

⎨x − y = 0
2 1
!
iz1 + z2 = i(x1 + iy1 ) + (x2 + iy2 ) = (x2 − y1 ) + i(x1 + y2 ) = 0 ⇒
⎩x + y = 0
1 2

Es ergibt sich somit ein (4 × 4)-LGS für die 4 Unbekannten x1 , y1 , x2 , y2 :


⎧ ⎡ ⎤

⎪ x1 − y2 = 2 (Z1 ) 1 0 0 −1 2

⎨ ⎢0
y1 + x2 = −1 (Z2 ) ⎢ 1 1 0 −1 ⎥

! [A|b] = ⎢ ⎥.


⎪ − y 1 + x 2 =0 (Z3 ) ⎣0 −1 1 0 0 ⎦

x1 + y2 = 0 (Z4 ) 1 0 0 1 0

Wir wenden den Gauß-Algorithmus einmal an:


⎡ ⎤ ⎡ ⎤
1 0 0 −1 2 1 0 0 −1 2
(Z4 ) − (Z1 )
⎢0 −1 ⎥ ⎢0
⎢ 1 1 0 ⎥ (Z3 ) + (Z2 ) ⎢ 1 1 0 −1 ⎥

⎢ ⎥ ! ⎢ ⎥ = Z.
⎣0 −1 1 0 0 ⎦ ⎣0 0 2 0 −1 ⎦
1 0 0 1 0 0 0 0 2 −2

Wir erhalten die einzige Lösung:


⎧⎡ ⎤ ⎡ ⎤ ⎫

⎪ x1 1 ⎪


⎨⎢y ⎥ ⎢− 1 ⎥ ⎪

⎢ 1⎥ ⎢ 2 ⎥
L = ⎢ ⎥ = ⎢ 1 ⎥ ∈ R4 .

⎪ ⎣x2 ⎦ ⎣− 2 ⎦ ⎪


⎩ ⎪

y2 −1

Diese Lösung ist äquivalent zur Lösung von Teilaufgabe (a), weil z1 = x1 + iy1 =
1 − 2i und z2 = x2 + iy2 = − 12 − i. "
2.2 • Der Gauß-Algorithmus
103 2

Übung 2.24
• • ◦ Man löse das folgende LGS auf K = Z5

⎨3x + 4x = 501 (mod 5)
1 2
⎩x + 3x = 17 (mod 5)
1 2

v Lösung
Wir gehen wie üblich vor, aber führen alle Rechnungen in Z5 durch (vgl. Anhang B.4).
In Z5 gilt 501 = 1 und 17 = 2. Somit müssen wir das LGS
$ % &
3x1 + 4x2 = 1 (Z1 ) 3 4 1
! [A|b] = .
x1 + 3x2 = 2 (Z2 ) 1 3 2

in Z5 lösen. Wir führen den Gauß-Algorithmus einmal durch:


% & % & % &
3 4 1 3(Z2 ) − (Z1 ) 3 4 1 3 4 1
! = = Z.
1 3 2 0 5 5 0 0 0

Hier haben wir die Tatsache benutzt, dass in Z5 5 = 0 gilt. Das LGS hat somit unendlich
viele Lösungen mit einem freien Parameter (in Z5 ). Setzen wir x2 = t ∈ Z5 als freien
Parameter, so erhalten wir mit den Rechenregeln in Z5 :

3x1 + 4t = 1 ⇒ x1 = 3−1 (1 − 4t) = 2 (1 − 4t) = 2 (1 + t) = 2 + 2t.

Die gesuchte Lösung des LGS ist somit


$% & '% & % & % & (
' x
x1 ' 1 2 2
L= ∈ Z25 ' = +t , t ∈ Z5 .
x2 ' x2 0 1 "

> Bemerkung
Auf Z5 gilt 3−1 = 2 weil 2 · 3 = 6 = 1. Außerdem ist −4 = 1

2.2.8 Homogene und inhomogene LGS

Grundprinzip für inhomogene LGS


Ein LGS Ax = b heißt homogen, falls b = 0, oder inhomogen, falls b ̸= 0. Zu einem
inhomogenen LGS Ax = b gehört immer ein homogenes LGS, wenn man b = 0
setzt. Das inhomogene LGS Ax = b und das zugehörige homogene LGS Ax = 0
gehören zusammen und diese Ähnlichkeit übeträgt sich auch auf die entsprechenden
Lösungen. In der Tat kann man die allgemeine Lösung eines inhomogenen LGS Ax =
b wie folgt beschreiben:
104 Kapitel 2 • Lineare Gleichungssysteme

a b

. Abb. 2.8 Grundprinzip für inhomogene LGS. Die allgemeine Lösung eines inhomogenen LGS ist
gleich der Lösung des zugehörigen homogenen Problems xHomo , welche von einer partikulären Lösung xp
verschoben wird. (a) Wenn die homogene Lösung eine Gerade durch den Nullpunkt ist, dann beschreibt
die allgemeine Lösung des inhomogenen LGS eine parallele Gerade durch den Punkt xp . (b) Ist die
Lösungsmenge des homogenen Problems eine Ebene durch den Nullpunkt, so ist die allgemeine Lösung
des inhomogenen Problems eine Ebene, welche xp enthält

x
789: = xHomo + xp (2.14)
7 89 : 789:
Gesamtlösung allgemeine Lösung partikuläre Lösung
des homogenen des inhomogenen
Problems Problems

wobei xHomo die allgemeine Lösung des zugehörigen homogenen LGS (d. h. Ax =
0) und xp eine partikuläre Lösung des inhomogenen Problems ist. Das Lösen von
inhomogenen LGS erfolgt zuerst durch die Lösung des zugehörigen homogenen
Problems und anschließend durch die Suche einer partikulären Lösung, welche das
inhomogene LGS erfüllt (. Abb. 2.8).

# Beispiel
Man betrachte das inhomogene LGS

⎧ ⎡ ⎤
⎨x + x + x = 2 1112
1 2 3 ⎢ ⎥
! [A|b] = ⎣ 0 1 2 1 ⎦ .
⎩x + 2x = 1
2 3 0000

Für die Lösung dieses LGS benutzen wir den Grundsatz 2.2.8, d. h. x = xHomo + xp . Es
wird also zuerst die Lösung des zugehörigen homogenen LGS gefunden. Das zugehörige
homogene LGS lautet

⎧ ⎡ ⎤
⎨x + x + x = 0 1110
1 2 3 ⎢ ⎥
! [A|0] = ⎣ 0 1 2 0 ⎦ .
⎩x + 2x = 0
2 3 0000
2.2 • Der Gauß-Algorithmus
105 2
Die Lösung des homogenen Problems ist
⎡ ⎤
1
⎢ ⎥
xHomo = t ⎣−2⎦ , t ∈ R.
1

Dann wird eine partikuläre Lösung des inhomogenen LGS gesucht. Eine Möglichkeit
für das Aufsuchen einer partikulären Lösung ist einfach zu erraten. Wir probieren einige
Zahlen aus und stellen fest, dass eine Lösung
⎡ ⎤
1
⎢ ⎥
xp = ⎣1⎦
0

ist. Die Gesamtlösung des inhomogenen LGS lautet also


⎤ ⎡ ⎡ ⎤
1 1
⎢ ⎥ ⎢ ⎥
x = xHomo + xp = t ⎣−2⎦ + ⎣1⎦ , t ∈ R. $
1 0
7 89 : 789:
homogene partikuläre
Lösung Lösung

> Bemerkung
Für die partikuläre Lösung xp gibt es natürlich mehrere Möglichkeiten. In unserem
; 2 <
Fall hätten wir beispielsweise auch xp = −1 als eine mögliche partikuläre Lösung
1
wählen können.

Übung 2.25
• ◦ ◦ Es sei Ax = b ein inhomogenes LGS mit partikulärer Lösung xp . Man zeige, dass
die allgemeine Lösung des inhomogenen LGS Ax = b durch x = xHomo + xp gegeben
ist, wobei xHomo die allgemeine Lösung des zugehörigen homogenen LGS Ax = 0 ist.

v Lösung
xp ist eine partikuläre Lösung von Ax = b ⇒ Axp = b. Analog ist xHomo die allgemeine
Lösung des zugehörigen homogenen LGS Ax = 0 ⇒ AxHomo = 0. Daraus folgt:
= >
Ax = A xHomo + xp = AxHomo + Axp = 0 + b = b.
7 89 : 789:
=0 =b

x ist somit die allgemeine Lösung des inhomogenen LGS Ax = b. "


106 Kapitel 2 • Lineare Gleichungssysteme

Übung 2.26
• ◦ ◦ Man bestimme die allgemeine Lösung des folgenden inhomogenen LGS

⎨x + x = 0
1 3
.
⎩x − 2x = 1
2 3

v Lösung
Wir betrachten zuerst das zugehörige homogene LGS

⎧ ⎡ ⎤
⎨x + x = 0 10 1 0
1 3 ⎢ ⎥
! [A|0] = ⎣ 0 1 −2 0 ⎦ .
⎩x − 2x = 0
2 3 00 0 0

Die allgemeine Lösung des homogenen Problems ist


⎡ ⎤
−1
⎢ ⎥
xHomo = t ⎣ 2 ⎦ , t ∈ R.
1

Dann suchen wir eine partikuläre Lösung ; 0 < des inhomogenen LGS. Nach einigem
Ausprobieren stellen wir fest, dass xp = 1 eine Lösung ist. Die Gesamtlösung des
0
inhomogenen LGS ist
⎡ ⎤ ⎡ ⎤
−1 0
⎢ ⎥ ⎢ ⎥
x = xHomo + xp = t ⎣ 2 ⎦ + ⎣1⎦ , t ∈ R.
1 0
7 89 : 789:
homogene partikuläre
Lösung Lösung "

2.3 Rang

Ein wichtiger Begriff beim Lösen eines LGS ist der Rang einer Matrix. In diesem
Abschnitt werden wir den Rang einer Matrix vorerst einmal einführen; eine genauere
Definition dieses Begriffes werden wir später im 7 Abschn. 8.1.4 vornehmen.

2.3.1 Definition

Es sei A ∈ Km×n eine (m × n)-Matrix. Den Rang von A (bezeichnet mit Rang(A))
definiert man wie folgt:
2.3 • Rang
107 2
# Definition 2.1
Es sei Z die bereits definierte Zielmatrix einer durch den Gauß-Algorithmus reduzierte
Matrix A. Dann ist:

Rang(A) = Rang(Z)
= Anzahl von Null verschiedenen Zeilen in der Zielmatrix Z. $

2.3.2 Berechnung
Praxistipp

In der Praxis, um den Rang der Matrix A zu bestimmen, bringt man zuerst mittels
Gauß-Algorithmus die Matrix A in Zeilenstufenform Z. Der Rang von A entspricht
dann der Anzahl der Zeilenvektoren von Z, die ungleich Null sind.

Musterbeispiel 2.5 (Rang bestimmen)

⎡ ⎤
1 −1 1
Man betrachte A = ⎣0 0 1⎦ . Mittels des Gauß-Algorithmus erzeugen wir die Zielma-
1 −1 0
trix Z
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −1 1 1 −1 1 1 −1 1
(Z ) − (Z ) (Z ) + (Z )
⎣0 0 1⎦ 3 ! 1 ⎣0 0 1 ⎦ 3 ! 2 ⎣0 0 1⎦ = Z.
1 −1 0 0 0 −1 0 0 0

Die Zielmatrix Z besteht aus genau 2 Zeilen ̸= [0, 0, 0]. Somit nach Definition:

Rang(A) = 2.

Rechenregeln für Rang


# Satz 2.2 (Rechenregeln für Rang)
Es seien A, B ∈ Km×n und C ∈ Kn×r . Außerdem seien 0 die Nullmatrix und E n ∈ Kn×n die
(n × n)-Einheitsmatrix. Dann gelten die folgenden Rechenregeln:
(R1) Rang(0) = 0;
(R2) Rang(E n ) = n;
(R3) Rang(A) ≤ min{m, n}. Bei Gleichheit sagt man: A hat maximalen Rang;
(R4) Rang(AT ) = Rang(A);
(R5) Rang(A + B) ≤ Rang(A) + Rang(B);
(R6) Rang(AC) ≤ min{Rang(A), Rang(C)};
(R7) Rang(AC) ≥ Rang(A) + Rang(C) − n. $
108 Kapitel 2 • Lineare Gleichungssysteme

Übung 2.27
◦ ◦ ◦ Man bestimme den Rang der folgenden Matrix
⎡ ⎤
1 −2 −3
⎢ ⎥
⎢3 0 3⎥
⎢ ⎥
A=⎢
⎢7 −3 1⎥⎥.
⎢ ⎥
⎣2 1 4⎦
1 −2 −3

v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −2 −3 (Z2 ) − 3(Z1 ) 1 −2 −3 1 −2 −3
⎢ ⎥ (Z3 ) − 7(Z1 ) ⎢ ⎥ (Z2 )/6 ⎢ ⎥
⎢3 0 3⎥ (Z4 ) − 2(Z1 ) ⎢0 6 12 ⎥ (Z3 )/11 ⎢0 1 2⎥
⎢ ⎥ (Z5 ) − (Z1 ) ⎢ ⎥ (Z4 )/5 ⎢ ⎥
⎢7 −3 1⎥ ! ⎢0 11 22 ⎥ ! ⎢0 1 2⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣2 1 4⎦ ⎣0 5 10 ⎦ ⎣0 1 2⎦
1 −2 −3 0 0 0 0 0 0
⎡ ⎤
1 −2 −3
⎢ ⎥
(Z3 ) − (Z2 ) ⎢0 1 2⎥
(Z4 ) − (Z2 ) ⎢ ⎥
! ⎢0 0⎥
⎢ 0 ⎥ = Z.
⎢ ⎥
⎣0 0 0⎦
0 0 0

Die Zielmatrix Z besteht aus genau 2 Zeilen ̸= [0, 0, 0]. Somit Rang(A) = 2. "

Übung 2.28
◦ ◦ ◦ Man berechne den Rang der folgenden Matrix
⎡ ⎤
1 3 7 2 1
⎢ ⎥
A = ⎣−2 0 −3 1 −2⎦ .
−3 3 1 4 −3

v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 3 7 2 1 (Z2 ) + 2(Z1 ) 1 3 7 2 1 1 3 7 2 1
⎢ ⎥ (Z3 ) + 3(Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⎣−2 0 −3 1 −2⎦ ! ⎣0 6 11 5 0⎦ ! ⎣0 6 11 5 0⎦ = Z.
−3 3 1 4 −3 0 12 22 10 0 0 0 0 0 0

Die Zielmatrix Z besteht aus genau 2 Zeilen ̸= [0, 0, 0, 0, 0]. Somit Rang(A) = 2. "
2.3 • Rang
109 2

Übung 2.29
◦ ◦ ◦ Man berechne den Rang der folgenden Matrix
⎡ ⎤
1 0 2
⎢−1
⎢ 2 −3⎥⎥
A=⎢ ⎥.
⎣1 3 1⎦
1 −1 −1

v Lösung
Wir erzeugen die Zielmatrix Z mit dem Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 2 (Z2 ) + (Z1 ) 1 0 2 1 0 2
(Z3 ) − (Z1 ) 2(Z3 ) − 3(Z2 )
⎢−1 −3⎥ ⎢0 −1⎥ ⎢0
⎢ 2 ⎥ (Z4 ) − (Z1 ) ⎢ 2 ⎥ 2(Z4 ) + (Z2 ) ⎢ 2 −1⎥⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥
⎣1 3 1⎦ ⎣0 3 −1⎦ ⎣0 0 1⎦
1 −1 −1 0 −1 −3 0 0 −7
⎡ ⎤
1 0 2

(Z4 ) + 7(Z3 ) ⎢0 2 −1⎥⎥
! ⎢ ⎥ = Z.
⎣0 0 1⎦
0 0 0

Die Zielmatrix Z besteht aus genau 3 Zeilen ̸= [0, 0, 0]. Somit beträgt Rang(A) = 3. "

Übung 2.30
• ◦ ◦ Man betrachte die folgenden Matrizen
⎡ ⎤
% & 1201
11 1 ⎢ ⎥
A= , B = ⎣0 1 1 1⎦ .
2 0 −1
1312

Man verifiziere, dass Rang(AB) ≤ min{Rang(A), Rang(B)} gilt.

v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z für A:
% & % &
1 1 1 (Z2 ) − 2(Z1 ) 1 1 1
! =Z ⇒ Rang(A) = 2.
2 0 −1 0 −2 −3

Für die Matrix B bekommen wir:


110 Kapitel 2 • Lineare Gleichungssysteme

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 1 1 2 0 1 1 2 0 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣0 1 1 1⎦ ! ⎣0 1 1 1⎦ ! ⎣0 1 1 1⎦ = Z ⇒ Rang(B) = 2.
1 3 1 2 0 1 1 1 0 0 0 0

Für das Produkt AB haben wir


⎡ ⎤
% & 1 2 0 1 % &
1 1 1 ⎢ ⎥ 2 6 2 4
AB = ⎣0 1 1 1⎦ = .
2 0 −1 1 1 −1 0
1 3 1 2

Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix für AB:


% & % &
26 2 4 2(Z2 ) − (Z1 ) 2 6 2 4
! =Z ⇒ Rang(AB) = 2.
1 1 −1 0 0 −4 −4 −4

Rang(AB) = 2 ist gleich min{Rang(A), Rang(B)} = min{2, 2} = 2. Somit ist die


Ungleichung Rang(AB) ≤ min{Rang(A), Rang(B)} erfüllt. "

Übung 2.31
• ◦ ◦ Man bestimme den Rang der folgenden Matrix in Abhängigkeit des Parameters
k∈R
⎡ ⎤
1 −4 0
⎢ ⎥
A = ⎣0 k + 1 −1 ⎦ .
0 0 k−2

v Lösung
Die gegebene Matrix ist bereits in Zeilenstufenform. Wir machen somit folgende
Fallunterscheidungen:
5 Fall k ̸= −1, 2: Die Zielmatrix hat 3 Zeilen ̸= [0, 0, 0]. Somit Rang(A) = 3.
? @
1 −4 0
5 Fall k = 2: Z = 0 3 −1 hat 2 Zeilen ̸= [0, 0, 0]. Ssomit Rang(A) = 2.
0 0 0
5 Fall k = −1: Die Zielmatrix lautet:
⎡ ⎤ ⎡ ⎤
1 −4 0 1 −4 0
⎢ ⎥ (Z3 ) − 3(Z2 ) ⎢ ⎥
⎣0 0 −1⎦ ! ⎣0 0 −1⎦ = Z.
0 0 −3 0 0 0

Die Zielmatrix besteht somit aus 2 Zeilen ̸= [0, 0, 0], d. h. Rang(A) = 2. "
2.3 • Rang
111 2

Übung 2.32
• ◦ ◦ Man bestimme den Rang der folgenden Matrix in Abhängigkeit von k ∈ R
⎡ ⎤
−1 3 0
⎢ ⎥
A = ⎣ 1 2 −1 ⎦ .
0 0 2k + 1

v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤
−1 3 0 −1 3 0
⎢ ⎥ (Z2 ) + (Z1 ) ⎢ ⎥
⎣ 1 2 −1 ⎦ ! ⎣ 0 5 −1 ⎦ = Z.
0 0 2k + 1 0 0 2k + 1

Nun machen wir die üblichen


? Fallunterscheidungen:
@
−1 3 0
5 Fall k = − 12 : Z = 0 5 −1 hat 2 Zeilen ̸= [0, 0, 0]. Somit Rang(A) = 2.
0 0 0
5 Fall k ̸= − 12 : Die Zielmatrix hat 3 Zeilen ̸= [0, 0, 0]. Somit Rang(A) = 3. "

Übung 2.33
• ◦ ◦ Man bestimme den Rang der Matrix in Abhängigkeit von k ∈ R
⎡ ⎤
−1 3 0 1
⎢ ⎥
A = ⎣ 1 2 −1 0⎦ .
0 5 k+2 k

v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−1 3 0 1 −1 3 0 1 −1 3 0 1
⎢ ⎥ (Z2 ) + (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣ 1 2 −1 0⎦ ! ⎣ 0 5 −1 1⎦ ! ⎣ 0 5 −1 1 ⎦ = Z.
0 5 k+2 k 0 5 k+2 k 0 0 k+3 k−1

Die Zielmatrix besteht immer aus 3 Zeilen ̸= [0, 0, 0, 0], weil die Einträge k + 3 und
k − 1 nie gleichzeitig Null sind. Daraus folgt Rang(A) = 3 für alle k ∈ R. "
112 Kapitel 2 • Lineare Gleichungssysteme

Übung 2.34
• • ◦ Man bestimme den Rang der folgenden Matrix in Abhängigkeit des Parameters
k∈R
⎡ ⎤
1 −4 2
⎢ 0 k + 1 −1 ⎥
⎢ ⎥
A=⎢ ⎥.
⎣−1 4 k − 5⎦
2 −8 k + 4

v Lösung
Mit dem Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤
1 −4 2 1 −4 2
(Z3 ) + (Z1 )
⎢ 0 k + 1 −1 ⎥ (Z4 ) − 2(Z1 )
⎢0 k + 1 −1 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ! ⎢ ⎥ = Z.
⎣−1 4 k − 5⎦ ⎣0 0 k − 3⎦
2 −8 k + 4 0 0 k

Nun machen wir Fallunterscheidungen:


% &
1 −4 2
5 Fall k = 3: Z = 0 4 −1 hat genau 3 Zeilen ̸= [0, 0, 0]. Somit Rang(A) = 3.
0 0 0
%0 0 3 &
1 −4 2
5 Fall k = 0: Z = 0 1 −1 besteht aus 3 Zeilen ̸= [0, 0, 0]. Somit Rang(A) = 3.
0 0 −3
0 0 0
5 Fall k = −1: Die Zielmatrix ist:
⎡ ⎤ ⎡ ⎤
1 −4 2 1 −4 2
(Z3 ) − 4(Z2 )
⎢0 −1⎥ ⎢0
⎢ 0 ⎥ (Z4 ) − (Z2 ) ⎢ 0 −1⎥⎥
⎢ ⎥ ! ⎢ ⎥ = Z.
⎣0 0 −4⎦ ⎣0 0 0⎦
0 0 −1 0 0 0

Die Zielmatrix besteht aus 2 Zeilen ̸= [0, 0, 0]. Somit Rang(A) = 2.


5 Fall k ̸= −1, 0, 3: In diesem Fall dürfen wir mithilfe des Gaus-Algorithmus die
vierte Zeile eliminieren:
⎡ ⎤ ⎡ ⎤
1 −4 2 1 −4 2
⎢0 k + 1 −1 ⎥ (k − 3)(Z4 ) − k(Z3 )
⎢0 k + 1 −1 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ! ⎢ ⎥ = Z.
⎣0 0 k − 3⎦ ⎣0 0 k − 3⎦
0 0 k 0 0 0

Die Zielmatrix besteht aus 3 Zeilen ̸= [0, 0, 0], d. h. Rang(A) = 3. "

> Bemerkung
In Übung 2.34 beachte, dass die Zeilenoperation (k − 3)(Z4 ) − k(Z3 ) für k ̸= 3 erlaubt
ist (vgl. Kochrezept 2.1).
2.3 • Rang
113 2

Übung 2.35
• ◦ ◦ Man bestimme den Rang der folgenden Matrix in Abhängigkeit des Parameters
k∈R
⎡ ⎤
103 k
⎢ ⎥
A = ⎣2 1 2 k + 1⎦ .
k0k 0

v Lösung
Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤
1 0 3 k (Z2 ) − 2(Z1 ) 1 0 3 k
⎢ ⎥ (Z3 ) − k(Z1 ) ⎢ ⎥
⎣2 1 2 k + 1⎦ ! ⎣0 1 −4 1 − k⎦ = Z.
k 0 k 0 0 0 −2k −k2

Nun machen wir zwei Fallunterscheidungen:


5 Fall k ̸= 0: Die Zielmatrix besteht aus 3 Zeilen ̸= [0, 0, 0, 0]. Somit Rang(A) = 3.
;1 0 3 0<
5 Fall k = 0: Z = 0 1 −4 1 hat 2 Zeilen ̸= [0, 0, 0, 0]. Somit Rang(A) = 2. "
00 0 0

Übung 2.36 ⎡ ⎤
1 1 1 −1
⎢ ⎥
• • ◦ Es sei A = ⎣1 1 0 0 ⎦ .
001 1
a) Man bestimme den Rang von A über dem Körper R.
b) Man bestimme den Rang von A über dem Körper Z2 .

v Lösung
a) Mittels Gauß-Algorithmus erzeugen wir die Zielmatrix Z:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 −1 1 1 1 −1 1 1 1 −1
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) + (Z2 ) ⎢ ⎥
⎣1 1 0 0 ⎦ ! ⎣0 0 −1 1 ⎦ ! ⎣0 0 −1 1 ⎦ = Z.
0 0 1 1 0 0 1 1 0 0 0 2

Die Zielmatrix besteht aus 3 Zeilen ̸= [0, 0, 0, 0]. Somit Rang(A) = 3.

b) Wir gehen wie in Teilaufgabe (a) vor, aber führen alle Rechnungen in Z2 durch, wo
−1 = 1 gilt:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 −1 1 1 1 1 1 1 1 1 1 1 1 1
⎢ ⎥ ⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ ⎢ ⎥
⎣1 1 0 0 ⎦ = ⎣1 1 0 0⎦ ! ⎣0 0 −1 −1⎦ = ⎣0 0 1 1⎦
0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
114 Kapitel 2 • Lineare Gleichungssysteme

⎡ ⎤
1 1 1 1
(Z3 ) − (Z2 ) ⎢ ⎥
! ⎣0 0 1 1⎦ = Z.
0 0 0 0

Die Zielmatrix besteht in diesem Fall aus 2 Zeilen ̸= [0, 0, 0, 0]. Somit Rang(A) = 2.
"

Übung 2.37
⎡ ⎤
12 0 −5
⎢0 1 2
⎢ 0 ⎥ ⎥
• • • Es sei A = ⎢ ⎥.
⎣0 0 a + 1 −2 ⎦
0 0 0 a2 + 3a
a) Man bestimme den Rang von A über R in Abhängigkeit von a ∈ R.
b) Man bestimme den Rang von A über Z2 in Abhängigkeit von a ∈ Z2 .

v Lösung
a) Die vorgegebene Matrix ist bereits in Zeilenstufenform. Wir machen eine Fallun-
terscheidung:
5 a + 1 = 0 ⇒ a = −1. In diesem Fall lautet A wie folgt
⎡ ⎤ ⎡ ⎤
1 2 0 −5 1 2 0 −5
⎢0 0⎥ ⎢0
⎢ 1 2 ⎥ (Z4 ) − (Z3 ) ⎢ 1 2 0⎥ ⎥
A=⎢ ⎥ ! ⎢ ⎥ = Z ⇒ Rang(A) = 3.
⎣0 0 0 −2⎦ ⎣0 0 0 −2⎦
0 0 0 −2 0 0 0 0

5 a(a + 3) = 0 ⇒ a = 0 oder a = −3. A hat drei Zeilen ̸= [0, 0, 0, 0] ⇒


Rang(A) = 3.
5 a ̸= 0, −1, −3. In diesem Fall hat A Rang 4.
b) Ist a ∈ Z2 , so kann a nur die Werte a = 0 oder a = 1 annehmen. Ist a = 0 so ist
a2 + 3a = 0. Ist a = 1 so ist a2 + 3a = 4 = 0. Außerdem gilt über Z2 : 2 = 0 und
−5 = 1.
⎡ ⎤
1 0 0 1
⎢0
⎢ 1 0 0⎥

A=⎢ ⎥.
⎣0 0 a+1 0⎦
0 0 0 0

Wir unterscheiden zwei Fälle:


5 a + 1 = 0 ⇒ a = −1 = 1. A hat zwei Zeilen ̸= [0, 0, 0, 0], also Rang(A) = 2.
5 a + 1 ̸= 0 ⇒ a = 0. A hat drei Zeilen ̸= [0, 0, 0, 0]. Somit Rang(A) = 3. "
2.3 • Rang
115 2
2.3.3 Rang und LGS

Der Begriff des Ranges einer Matrix findet wichtige Anwendungen bei der Lösung
eines LGS. Eine solche Anwendung ist der Satz von Rouché-Capelli.

Der Satz von Rouché-Capelli


Es sei Ax = b ein LGS mit Darstellungsmatrix A ∈ Km×n und Lösungsvektor b ∈
Km . In 7 Abschn. 2.2.2 haben wir die erweiterte Matrix [A|b] des LGS wie folgt
eingeführt:
⎡ ⎤
a11 a12 · · · a1n b1
⎢ a21 a22 · · · a2n b2 ⎥
⎢ ⎥
[A|b] = ⎢ . .. . . .. .. ⎥.
⎣ .. . . . . ⎦
am1 am2 · · · amn bm

Mithilfe des Gauß-Algorithmus können wir den Rang von A und [A|b] bestimmen.
In Abhängigkeit vom Wert von Rang(A) und Rang(A|b) können wir feststellen, ob
das LGS genau eine, keine oder unendlich viele Lösungen besitzt. Dies ist der Inhalt
des Satzes von Rouché-Capelli (. Abb. 2.9):

# Satz 2.3
Rouché-Capelli Sei Ax = b ein LGS mit m Gleichungen und n Unbekannten. Dann gilt:
5 Rang(A|b) = Rang(A) ⇔ LGS lösbar;
5 Rang(A|b) ̸= Rang(A) ⇔ keine Lösung.

Ist das LGS lösbar, dann:


5 Rang(A|b) = Rang(A) = n ⇔ genau eine Lösung;
5 Rang(A|b) = Rang(A) < n ⇔ unendlich viele Lösungen.
In diesem Fall gilt für die Anzahl freier Parameter in der Lösungsmenge:

Anzahl freie Parameter = n − Rang(A).

Diese Formel entspricht Gl. (2.10). $

> Bemerkung
Wie wir später (7 Kap. 5) erfahren werden, ist die Lösungsmenge ein affiner Raum der
Dimension n − Rang(A).

> Bemerkung
Der Satz von Rouché-Capelli ist auch bekannt als Satz von Kronecker-Capelli, Satz
von Rouché-Fontené, Satz von Rouché-Frobenius oder Satz von Frobenius.

Berechnung
Der Satz von Rouché-Capelli bietet eine einfache Methode, die Lösung eines gegebe-
nen LGS zu diskutieren. Das Schema in . Abb. 2.9 zeigt dies eindrücklich.
116 Kapitel 2 • Lineare Gleichungssysteme

. Abb. 2.9 Schnellentscheid


über Lösung eines LGS mit Rang

Musterbeispiel 2.6 (LGS mit Rang lösen)

Man untersuche die Lösungen des folgenden LGS mithilfe des Satzes von Rouché-Capelli

⎨x1 + 2x2 + x4 = 1

2x1 + 4x2 + x3 = 3


x1 + 2x2 + x3 − x4 = 2

Das LGS hat m = 3 Gleichungen und n = 4 Unbekannte.


Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ x1 + 2x2 + x4 = 1 (Z1 ) 1 2 0 1 1
2x + 4x2 + x3 =3 (Z2 ) ! [A|b] = ⎣ 2 4 1 0 3 ⎦ .
⎩ 1
x1 + 2x2 + x3 − x4 = 2 (Z3 ) 1 2 1 −1 2

Schritt 2 Wir benötigen den Gauß-Algorithmus in zwei Schritten:


⎡ ⎤ (Z2 ) − 2(Z1 )
⎡ ⎤ ⎡ ⎤
1 2 0 1 1 1 2 0 1 1 1 2 0 1 1
(Z3 ) − (Z1 ) (Z3 ) − (Z2 )
⎣2 4 1 0 3⎦ ! ⎣ 0 0 1 −2 1 ⎦ ! ⎣ 0 0 1 −2 1 ⎦ = Z.
1 2 1 −1 2 0 0 1 −2 1 0 0 0 0 0

Wegen Rang(A) = Rang(A|b) = 2 < n = 4 hat das LGS unendlich viele Lösungen. Die
Lösungsmenge hat 2 freie Parameter, weil n − Rang(A) = 4 − 2 = 2. In der Tat ist die
Lösung
⎧⎡ ⎤ ' ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 ' x1 1 −2 −1 ⎪

⎨⎢ ⎥ ' ⎪

' ⎢x2 ⎥ ⎢0⎥ ⎢ ⎥ ⎢ ⎥
⎢ x2 ⎥
L= ⎣ ⎦∈R ' 4' ⎢ ⎥ = ⎢ ⎥ + t ⎢ 1 ⎥ + s ⎢ 0 ⎥ , t, s ∈ R .
⎪ x ⎣x3 ⎦ ⎣1⎦ ⎣0⎦ ⎣2⎦ ⎪
⎩ 3
⎪ '
'


x4 x4 0 0 1
2.3 • Rang
117 2

Übung 2.38
•◦◦ Man untersuche die Lösungen des folgenden LGS mithilfe des Satzes von Rouché-
Capelli


⎨x1 + x2 + x3 = 1

−x1 + x2 + 5x3 = 0



2x2 + 6x3 = 0

v Lösung
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤

⎨ x1 + x2 + x3 = 1 (Z1 ) 1 1 1 1
⎢ ⎥
−x1 + x2 + 5x3 = 0 (Z2 ) ! [A|b] = ⎣ −1 1 5 0 ⎦ .


2x2 + 6x3 = 0 (Z3 ) 0 2 6 0

Schritt 2 Wir wenden den Gauß-Algorithmus in zwei Schritten an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 1 1 1 1 1 1 1 1
⎢ ⎥ (Z2 ) + (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣ −1 1 5 0 ⎦ ! ⎣0 2 6 1⎦ ! ⎣ 0 2 6 1 ⎦ = Z.
0 2 6 0 0 2 6 0 0 0 0 −1

Wegen Rang(A) = 2 ̸= Rang(A|b) = 3 hat das LGS keine Lösung. "

Übung 2.39
• • ◦ Man untersuche die Lösungen des folgenden LGS in Abhängigkeit der Parameter
α, β ∈ R

⎨x + x = α
1 2
⎩2x + x = β
1 2

v Lösung
Das LGS hat m = 2 Gleichungen und n = 2 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
$ % &
x 1 + x2 = α (Z1 ) 1 1 α
! [A|b] = .
2x1 + x2 = β (Z2 ) 2 1 β

Schritt 2 Wir führen den Gauß-Algorithmus in einem Schritt durch:


% & % &
1 1 α (Z2 ) − 2(Z1 ) 1 1 α
! = Z.
2 1 β 0 −1 β − 2α
118 Kapitel 2 • Lineare Gleichungssysteme

Wegen Rang(A) = Rang(A|b) = n $% LGS genau eine Lösung für alle α, β ∈ R.


= 2 hat das&(
β −α
Die eindeutige Lösung lautet L = . "
2α − β

Übung 2.40
• • ◦ Für welche k ∈ R hat das folgende LGS eine eindeutige Lösung?


⎨x1 + x2 = 1

kx1 + x2 + x3 = 1 − k



x2 + (1 − k)x3 = 1

v Lösung
Das LGS hat m = 3 Gleichungen und n = 3 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|b] des LGS lautet:
⎧ ⎡ ⎤
⎨ x1 + x2
⎪ =1 (Z1 ) 1 1 0 1
⎢ ⎥
kx1 + x2 + x3 = 1 − k (Z2 ) ! [A|b] = ⎣ k 1 1 1 − k ⎦ .


x2 + (1 − k)x3 = 1 (Z3 ) 0 1 1−k 1

Schritt 2 Wir wenden den Gauß-Algorithmus an:


⎡ ⎤ ⎡ ⎤
1 1 0 1 1 1 0 1
⎢ ⎥ (Z2 ) − k(Z1 ) ⎢ ⎥ (Z3 ) ↔ (Z2 )
⎣ k 1 1 1−k⎦ ! ⎣ 0 1 − k 1 1 − 2k ⎦ !
0 1 1−k 1 0 1 1−k 1
⎡ ⎤ ⎡ ⎤
1 1 0 1 1 1 0 1
⎢ ⎥ 3 (Z ) − (1 − k)(Z )
2 ⎢ ⎥
⎣0 1 1−k 1 ⎦ ! ⎣0 1 1−k 1 ⎦ = Z.
0 1 − k 1 1 − 2k 2
0 0 −k + 2k −k

Nach dem Satz von Rouché-Capelli wissen wir, dass das gegebene LGS genau dann,
eine eindeutige Lösung besitzt, wenn Rang(A) = Rang(A|b) = n = 3 gilt. Dies gilt
genau dann wenn −k2 + 2k ̸= 0, d. h. k ̸= 0, 2. "

> Bemerkung
In Übung 2.40 müssen wir im zweiten Schritt die zweite Zeile mit der dritten Zeile
vertauschen, weil die Operation (1 − k)(Z3 ) − (Z2 ) für k = 1 nicht erlaubt ist.
2.3 • Rang
119 2

Übung 2.41
• • ◦ Für welche k ∈ R hat das folgende LGS keine Lösung?

⎪ 2
⎨2x1 + kx2 + 3x3 = k

2x2 + 2kx3 = 2(k + 1)



x1 + kx3 = 32

v Lösung
Das LGS hat m = 3 Gleichungen und n = 3 Unbekannte.
Schritt 1 Wir ordnen dem LGS die erweiterte Matrix [A|b] zu:
⎧ ⎡ ⎤
⎨ 2x1 + kx2 + 3x3
⎪ = k2 (Z1 ) 2 k 3 k2
⎢ ⎥
2x2 + 2kx3 = 2(k + 1) (Z2 ) ! [A|b] = ⎣ 0 2 2k 2(k + 1) ⎦ .


x1 + kx3 = 32 (Z3 ) 1 0 k 3
2

Schritt 2 Wir benötigen den Gauß-Algorithmus in zwei Schritten:


⎡ ⎤ ⎡ ⎤
2 k 3 k2 2 k 3 k2
⎢ ⎥ 2(Z3 ) − (Z1 ) ⎢ ⎥
⎣ 0 2 2k 2(k + 1) ⎦ ! ⎣0 2 2k 2(k + 1) ⎦
3 2
1 0 k 2 0 −k 2k − 3 3 − k
⎡ ⎤
2 k 3 k2
(Z3 ) + k (Z2 ) ⎢ ⎥
!2 ⎣0 2 2k 2(k + 1) ⎦ = Z.
2
0 0 k + 2k − 3 k + 3

Nach dem Satz von Rouché-Capelli wissen wir, dass das gegebene LGS genau dann
keine Lösung besitzt, wenn Rang(A) ̸= Rang(A|b) gilt. Wegen k2 +2k−3 = (k+3)(k−1)
ist dies für k = 1 der Fall:
⎡ ⎤
2131
⎢ ⎥
Z = ⎣0 2 2 4⎦.
0004

Konkret Rang(A) = 2 ̸= Rang(A|b) = 3. "

Übung 2.42
• • ◦ Für welche k ∈ R hat das folgende LGS keine, genau eine oder unendlich viele
Lösungen?


⎨2x1 + 2x2 + 4x3 = 10

3x1 + kx2 + 10x3 = 12



−x2 − kx3 = 3
120 Kapitel 2 • Lineare Gleichungssysteme

v Lösung
Das LGS hat m = 3 Gleichungen und n = 3 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ 2x1 + 2x2 + 4x3 = 10
⎪ (Z1 ) 2 2 4 10
⎢ ⎥
3x1 + kx2 + 10x3 = 12 (Z2 ) ! [A|b] = ⎣ 3 k 10 12 ⎦ .


− x2 − kx3 = 3 (Z3 ) 0 −1 −k 3

Schritt 2 Wir wenden den Gauß-Algorithmus an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 2 4 10 2 2 4 10 2 2 4 10
⎢ ⎥ 2(Z2 ) − 3(Z1 ) ⎢ (Z
⎥ 3 ) ↔ (Z )
2 ⎢ ⎥
⎣ 3 k 10 12 ⎦ ! ⎣ 0 2(k − 3) 8 −6 ⎦ ! ⎣ 0 −1 −k 3 ⎦
0 −1 −k 3 0 −1 −k 3 0 2(k − 3) 8 −6
⎡ ⎤
−(Z2 ) 22 4 10
(Z3 ) + 2(k − 3)(Z2 ) ⎢ ⎥
! ⎣0 1 k −3 ⎦ = Z
0 0 −2(k + 1)(k − 4) 6(k − 4)

Wir unterscheiden 3 Fälle: ⎤ ⎡


2 2 4 10
⎢ ⎥
5 Fall k = 4: Die Zielmatrix lautet: Z = ⎣ 0 1 4 −3 ⎦. Es folgt Rang(A) =
000 0
Rang(A|b) = 2 < n = 3. Das LGS hat somit unendlich viele Lösungen mit einem
freien Parameter t:
⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
' x 8 2
⎨ x1
⎪ ' 1 ⎪

⎢ ⎥ '⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R3 ' ⎣x2 ⎦ = ⎣−3⎦ + t ⎣−4⎦ , t ∈ R .

⎩ ' ⎪

x3 ' x3 0 1

Denn n − Rang(A) = 3 − 2 = 1. ⎡ ⎤
2 2 4 10
⎢ ⎥
5 Fall k = −1: Die Zielmatrix ist: Z = ⎣ 0 1 −1 −3 ⎦. Es folgt Rang(A) = 2 aber
0 0 0 −30
Rang(A|b) = n = 3. Das LGS hat somit keine Lösung.
5 Fall k ̸= −1, 4: In diesem Fall ist Rang(A) = Rang(A|b) = 3. Das LGS hat genau
eine Lösung. "

> Bemerkung
In Übung 2.42 müssen wir im zweiten Schritt die zweite Zeile mit der dritten Zeile
vertauschen, weil die Operation 2(k − 3)(Z3 ) + (Z2 ) für k = 3 nicht erlaubt ist.
2.3 • Rang
121 2

Übung 2.43
••◦ Man untersuche die Lösungen des folgenden LGS in Abhängigkeit des Parameters
k∈R


⎪ x1 + 2x4 = 1



⎨x + 2x + x + 4x = −1
1 2 3 4

⎪2x2 + 2x3 + 3x4 = −1




x1 − 2x2 + k2 x4 = k + 3

v Lösung
Das LGS hat m = 4 Gleichungen und n = 4 Unbekannte.
Schritt 1 Wir stellen zuerst die erweiterte Matrix [A|E] auf:
⎧ ⎡ ⎤
⎪ x + 2x4 = 1 (Z1 ) 1 0 0 2 1
⎪ 1

⎨ ⎢1
x1 + 2x2 + x3 + 4x4 = −1 (Z2 ) ⎢ 2 1 4 −1 ⎥ ⎥
! [A|b] = ⎢ ⎥.


⎪ 2x2 + 2x3 + 3x4 = −1 (Z3 ) ⎣0 2 2 3 −1 ⎦

x1 − 2x2 + k2 x4 = k+3 (Z4 ) 1 −2 0 k2 k + 3

Schritt 2 Wir benötigen den Gauß-Algorithmus:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 2 1 1 0 0 2 1 1 0 0 2 1
(Z2 ) − (Z1 ) (Z3 ) − (Z2 )
⎢1 4 −1 ⎥ ⎢0 −2 ⎥ ⎢0
⎢ 2 1 ⎥ (Z4 ) − (Z1 ) ⎢ 2 1 2 ⎥ (Z4 ) + (Z2 ) ⎢ 2 1 2 −2 ⎥

⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥
⎣0 2 2 3 −1 ⎦ ⎣0 2 2 3 −1 ⎦ ⎣0 0 1 1 1 ⎦
1 −2 0 k2 k + 3 0 −2 0 k2 − 2 k + 2 0 0 1 k2 k
⎡ ⎤
1 0 0 2 1
(Z4 ) − (Z3 )
⎢0 2 1 2 −2 ⎥
⎢ ⎥
! ⎢ ⎥ = Z.
⎣0 0 1 1 1 ⎦
0 0 0 k2 − 1 k − 1

Wegen k2 − 1 = (k − 1)(k + 1), unterscheiden wir 3 Fälle:


⎡ ⎤
1002 1
⎢ 0 2 1 2 −2 ⎥
⎢ ⎥
5 Fall k = 1: Aus Z = ⎢ ⎥ folgt Rang(A) = Rang(A|b) = 3 < n = 4. Das
⎣0 0 1 1 1 ⎦
0000 0
LGS hat somit unendlich viele Lösungen mit einem freien Parameter
⎧⎡ ⎤ ' ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 ' x1 1 −2 ⎪

⎪ ' ⎪

⎨ ⎢x ⎥ ' ⎢x ⎥ ⎢− 3 ⎥ ⎢− 1 ⎥ ⎬
⎢ 2⎥ 4' ⎢ 2⎥ ⎢ 2 ⎥ ⎢ 2⎥
L= ⎢ ⎥∈R ' ⎢ ⎥ = ⎢ ⎥ + t⎢ ⎥, t ∈ R .

⎪ ⎣x3 ⎦ ' ⎣x3 ⎦ ⎣ 1 ⎦ ⎣ −1 ⎦ ⎪


⎩ ' ⎪

x4 ' x4 0 1

Denn n − Rang(A) = 4 − 3 = 1.
122 Kapitel 2 • Lineare Gleichungssysteme

⎡ ⎤
1002 1
⎢ 0 2 1 2 −2 ⎥
⎢ ⎥
5 Fall k = −1: Die Zielmatrix ist Z = ⎢ ⎥. Es folgt Rang(A) = 3, aber
⎣0 0 1 1 1 ⎦
0 0 0 0 −2
Rang(A|b) = 4. Das LGS hat somit keine Lösung.
5 Fall k ̸= ±1: In diesem Fall ist Rang(A) = Rang(A|b) = n = 4. Das LGS hat genau
⎧ ⎡ ⎤⎫

⎪ k−1 ⎪ ⎪

⎨ ⎢ 3 ⎥⎪

1 ⎢− 2 k − 2⎥
eine Lösung L = 1+k ⎢ ⎥ . "

⎪ ⎣ k ⎦⎪


⎩ ⎪

1

Übung 2.44
••◦ Man untersuche die Lösungen des folgenden LGS in Abhängigkeit des Parameters
k∈R


⎨x1 + x2 − x3 + x4 = 1

2x1 + x2 − x3 + 3x4 = 0



x1 + (k2 − k)x4 = k

v Lösung
Das LGS hat m = 3 Gleichungen und n = 4 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 + x2 − x3 +
⎪ x4 = 1 (Z1 ) 1 1 −1 1 1
⎢ ⎥
2x1 + x2 − x3 + 3x4 = 0 (Z2 ) ! [A|b] = ⎣ 2 1 −1 3 0 ⎦.


x1 + (k2 − k)x4 = k (Z3 ) 1 0 0 k2 − k k

Schritt 2 Wir wenden den Gauß-Algorithmus an:


⎡ ⎤ ⎡ ⎤
1 1 −1 1 1 (Z2 ) − 2(Z1 ) 1 1 −1 1 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣ 2 1 −1 3 0⎦ ! ⎣ 0 −1 1 1 −2 ⎦
1 0 0 k2 − k k 0 −1 1 k2 − k − 1 k − 1
⎡ ⎤
1 1 −1 1 1
(Z3 ) − (Z2 ) ⎢ ⎥
! ⎣ 0 −1 1 1 −2 ⎦ = Z.
0 0 0 k2 − k − 2 k + 1

Wegen k2 − k − 2 = (k + 1)(k
⎡ − 2), unterscheiden
⎤ wir 3 Fälle:
1 1 −1 1 1
⎢ ⎥
5 Fall k = −1: Aus Z = ⎣ 0 −1 1 1 −2 ⎦ folgt Rang(A) = Rang(A|b) = 2 < n =
0 0 0 0 0
4. Das LGS hat unendlich viele Lösungen mit 2 freien Parametern t, s:
2.3 • Rang
123 2
⎧⎡ ⎤ ' ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 ' x1 −1 0 −2 ⎪

⎪ ' ⎪

⎨ ⎢x ⎥ ' ⎢ ⎥ ⎢ ⎥ ⎢1⎥ ⎢1⎥ ⎬
⎢ ⎥ ' ⎢x2 ⎥ ⎢ 2 ⎥ ⎢ ⎥ ⎢ ⎥
L = ⎢ 2 ⎥ ∈ R4 ' =
⎢ ⎥ ⎢ ⎥ + t ⎢ ⎥ + s ⎢ ⎥ , t, s ∈ R .

⎪ ⎣ x 3 ⎦ ' ⎣x3 ⎦ ⎣ 0 ⎦ ⎣1⎦ ⎣0⎦ ⎪


⎩ ' ⎪

x4 ' x4 0 0 1

Denn n − Rang(A) = 4 − ⎡ 2 = 2. ⎤
1 1 −1 1 1
⎢ ⎥
5 Fall k = 2: Wegen Z = ⎣ 0 −1 1 1 −2 ⎦ ist Rang(A) = 2 aber Rang(A|b) = 3.
0 0 0 0 3
Das LGS hat somit keine Lösung.
5 Fall k ̸= −1, 2: In diesem Fall ist Rang(A) = Rang(A|b) = 3 < n = 4. Das LGS hat
unendlich viele Lösungen mit einem freien Parameter t, weil n−Rang(A) = 4−3 = 1:
⎧⎡ ⎤ ' ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ x1 ' x1 −k 0 ⎪

⎪ ' ⎪

⎨⎢ ⎥ ' ⎢x ⎥ 1 ⎢2k − 3⎥ ⎢1⎥ ⎬
⎢x2 ⎥ 4' ⎢ 2⎥ ⎢ ⎥ ⎢ ⎥
L= ⎢ ⎥∈R ' ⎢ ⎥= ⎢ ⎥ + t⎢ ⎥, t ∈ R .

⎪ ⎣x3 ⎦ ' ⎣x3 ⎦ k − 2 ⎣ 0 ⎦ ⎣1⎦ ⎪


⎩ ' ⎪

x4 ' x4 1 0 "

2.3.4 Homogene LGS

In diesem Abschnitt diskutieren wir eine Variante des Satzes von Rouché-Capelli für
homogene LGS Ax = 0. Solche LGS haben immer eine Lösung: den Nullvektor
x = 0. Diese Lösung heißt triviale Lösung. In 7 Abschn. 2.1.1 haben wir gelernt,
dass es 3 Möglichkeiten für die Lösung eines LGS gibt:
1) das LGS besitzt genau eine Lösung;
2) das LGS besitzt unendlich viele Lösungen;
3) das LGS ist nicht lösbar.

Da Ax = 0 immer die triviale Lösung besitzt, tritt Fall (3) nie für homogene LGS
auf. Die folgende Variante des Satzes von Rouché-Capelli bietet ein Kriterium an,
um zwischen Fall (1) und Fall (2) zu entscheiden.

# Satz 2.4 (Rouché-Capelli für homogene LGS)


Es sei Ax = 0 ein homogenes LGS mit m Gleichungen und n Unbekannten. Dann gilt:

Ax = 0 hat eine nichttriviale Lösung x ̸= 0 ⇔ Rang(A) < n

Die Anzahl von freien Parametern in der Lösungsmenge ist n − Rang(A). $

> Bemerkung
Äquivalent dazu: Das LGS hat genau dann nur die triviale Lösung x = 0, wenn gilt:

Rang(A) = n.
124 Kapitel 2 • Lineare Gleichungssysteme

Übung 2.45
• ◦ ◦ Man bestimme die Lösungsmenge des folgenden homogenen LGS


⎨x1 + 2x2 + x3 = 0

2x1 − 2x2 + 5x3 = 0



x1 + 2x3 = 0

v Lösung
Das LGS hat m = 3 Gleichungen für n = 3 Unbekannte.
Schritt 1 Als Erstes ordnen wir dem LGS die erweiterte Matrix [A|0] zu:
⎧ ⎡ ⎤
⎨ x1 + 2x2 + x3 = 0
⎪ (Z1 ) 1 2 1 0
⎢ ⎥
2x1 − 2x2 + 5x3 = 0 (Z2 ) ! [A|b] = ⎣ 2 −2 5 0 ⎦ .


x1 + 2x3 = 0 (Z3 ) 1 0 2 0

Schritt 2 Wir wenden den Gauß-Algorithmus in zwei Schritten an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 1 0 (Z2 ) − 2(Z1 ) 1 2 1 0 1 2 1 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ 3(Z3 ) − (Z2 ) ⎢ ⎥
⎣ 2 −2 5 0 ⎦ ! ⎣ 0 −6 3 0 ⎦ ! ⎣ 0 −6 3 0 ⎦ = Z.
1 0 2 0 0 −2 1 0 0 0 0 0

In diesem Fall gilt Rang(A) = 2 < n = 3. Aus dem Satz von Rouché-Capelli 2.4
folgt, dass das LGS unendlich viele Lösungen hat. Die Lösungsmenge hat einen freien
Parameter, weil n − Rang(A) = 3 − 2 = 1.
Herauslesen der Lösung:

⎧ ⎪
⎨x + 2x + x = 0 ⎨x1 = −2x2 − x3 = −4t

1 2 3
⇒ x2 = t
⎩−6x + 3x = 0 ⎪

2 3 ⎩
x3 = 2x3 = 2t

Als Lösung erhalten wir somit:


⎧⎡ ⎤ '⎡ ⎤ ⎡ ⎤ ⎫
' x
⎨ x1
⎪ ' 1 −4 ⎪

⎢ ⎥ '⎢ ⎥ ⎢ ⎥
L = ⎣x2 ⎦ ∈ R3 ' ⎣x2 ⎦ = t ⎣ 1 ⎦ , t ∈ R .

⎩ ' ⎪

x3 ' x3 2 "
2.3 • Rang
125 2

Übung 2.46
• ◦ ◦ Man bestimme die Lösungsmenge des folgenden homogenen LGS


⎨x1 + x2 + x3 = 0

x1 − x3 = 0



2x2 + x3 = 0

v Lösung
Das LGS hat m = 3 Gleichungen für n = 3 Unbekannte.
Schritt 1 Die erweiterte Matrix [A|0] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 + x2 + x3 = 0
⎪ (Z1 ) 1 1 1 0
⎢ ⎥
x1 − x3 = 0 (Z2 ) ! [A|b] = ⎣ 1 0 −1 0 ⎦ .


2x2 + x3 = 0 (Z3 ) 0 2 1 0

Schritt 2 Wir benötigen den Gauß-Algorithmus:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 0 1 1 1 0 1 1 1 0
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) + 2(Z2 ) ⎢ ⎥
⎣ 1 0 −1 0 ⎦ ! ⎣ 0 −1 −2 0 ⎦ ! ⎣ 0 −1 −2 0 ⎦ = Z.
0 2 1 0 0 2 1 0 0 0 −3 0
⎧⎡ ⎤⎫
⎨ 0 ⎪
⎪ ⎬
⎢ ⎥
Es ist Rang(A) = n = 3, d. h., das LGS hat nur die triviale Lösung L = ⎣0⎦ . "

⎩ ⎪

0

Übung 2.47
• • ◦ Für welche k ∈ R besitzt das folgende homogene LGS nichttriviale Lösungen?


⎨x1 + 2kx2 + 2x3 = 0

x1 + 3kx3 = 0



x2 + kx3 = 0

v Lösung
Das LGS hat m = 3 Gleichungen und n = 3 Unbekannte.
Schritt 1 Wir bestimmen die erweiterte Matrix [A|0] des LGS:
⎧ ⎡ ⎤
⎨ x1 + 2kx2 + 2x3 = 0
⎪ (Z1 ) 1 2k 2 0
⎢ ⎥
x1 + 3kx3 = 0 (Z2 ) ! [A|b] = ⎣ 1 0 3k 0 ⎦ .


x2 + kx3 = 0 (Z3 ) 0 1 k 0
126 Kapitel 2 • Lineare Gleichungssysteme

Schritt 2 Wir wenden den Gauß-Algorithmus in drei Schritten an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2k 2 0 1 2k 2 0 1 2k 2 0
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) ↔ (Z2 ) ⎢ ⎥
⎣ 1 0 3k 0 ⎦ ! ⎣ 0 −2k 3k − 2 0 ⎦ ! ⎣0 1 k 0⎦
0 1 k 0 0 1 k 0 0 −2k 3k − 2 0
⎡ ⎤
1 2k 2 0
(Z3 ) + 2k(Z2 ) ⎢ ⎥
! ⎣0 1 k 0 ⎦ = Z.
2
0 0 2k + 3k − 2 0

Das LGS besitzt genau dann eine nichttriviale Lösung, wenn Rang(A) < n = 3. Dies
ist für 2k2 + 3k − 2 = 0 der Fall. Daraus folgt, k = −2 oder k = 1/2. Das LGS besitzt
somit eine nichttriviale Lösung für k = {−2, 1/2}. Für alle andere k ∈ R hat das LGS
nur die triviale Lösung. "

> Bemerkung
In Übung 2.47 haben wir im zweiten Schritt die zweite Zeile mit der dritten Zeile
vertauscht, weil die Operation 2k(Z3 ) + (Z2 ) für k = 0 nicht gestattet ist.

2.4 Matrizengleichungen und inverse Matrix

2.4.1 Matrizengleichungen

Mithilfe des Gauß-Algorithmus kann man auch Matrizengleichungen der folgenden


Art einfach lösen.

Übung 2.48
• ◦ ◦ Man löse
⎡ ⎤ ⎡ ⎤
110 −1 1 0
⎢ ⎥ ⎢ ⎥
AX = B, für A = ⎣1 1 2⎦ , B = ⎣−2 −1 1⎦ .
011 0 −1 1

v Lösung
Wir stellen zuerst die erweiterte Matrix [A|B] auf
⎡ ⎤
1 1 0 −1 1 0
⎢ ⎥
[A|B] = ⎣ 1 1 2 −2 −1 1 ⎦
0 1 1 0 −1 1

und wenden den Gauß-Algorithmus an, bis die linke Matrix in die Identitätsmatrix E
übergeführt worden ist:
2.4 • Matrizengleichungen und inverse Matrix
127 2
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 −1 1 0 1 1 0 −1 1 0 1 1 0 −1 1 0
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ 3 (Z ) ↔ (Z )
2 ⎢ ⎥
⎣ 1 1 2 −2 −1 1 ⎦ ! ⎣ 0 0 2 −1 −2 1 ⎦ ! ⎣ 0 1 1 0 −1 1 ⎦
0 1 1 0 −1 1 0 1 1 0 −1 1 0 0 2 −1 −2 1
⎡ ⎤ ⎡ ⎤
1 1 0 −1 1 0 1 1 0 −1 1 0
(Z3 )/2 ⎢ ⎥ (Z2 ) − (Z3 ) ⎢ ⎥
! ⎣ 0 1 1 0 −1 1 ⎦ ! ⎣ 0 1 0 12 0 12 ⎦
0 0 1 − 12 −1 12 0 0 1 − 12 −1 12
⎡ ⎤
1 0 0 − 32 1 − 21
(Z1 ) − (Z2 ) ⎢ ⎥
! ⎣ 0 1 0 12 0 12 ⎦ = [E|X].
0 0 1 − 12 −1 1
2

⎡ ⎤
− 23 1 − 12
⎢ ⎥
Die Lösung lautet somit: X = ⎣ 21 0 12 ⎦ . "
1 1
− 2 −1 2

2.4.2 Bestimmung der inversen Matrix A-1 mithilfe des


Gauß-Algorithmus

Wir analysieren jetzt die Bestimmung der inversen Matrix mithilfe des Gauß-
Algorithmus. Sei
⎡ ⎤
a11 · · · a1n
⎢ .. . . .. ⎥
A=⎣ . . . ⎦
an1 · · · ann

invertierbar. Wir suchen nach einer Matrix


⎡ ⎤
b11 · · · b1n
⎢ ⎥
B = ⎣ ... . . . ... ⎦ ,
bn1 · · · bnn

welche die Matrizengleichung AB = E erfüllt. B ist dann die gesuchte Inverse von A,
d. h. B = A−1 . In Komponenten lautet die Matrizengleichung AB = E:
⎡ ⎤ ⎡ ⎤
a11 b11 + · · · + a1n bn1 · · · a11 b1n + · · · + a1n bnn 1 ··· 0
⎢ .. .. .. ⎥ ! ⎢ .. . . .. ⎥
AB = ⎣ . . . ⎦ = ⎣. . .⎦ .
an1 b11 + · · · + ann bn1 · · · an1 b1n + · · · + ann bnn 0 ··· 1

Dies entspricht n linearen Gleichungssysteme


128 Kapitel 2 • Lineare Gleichungssysteme



⎪ a11 b11 + · · · + a1n bn1 = 1

⎨ a21 b11 + · · · + a2n bn1 = 0
⎪ .. .. ..

⎪ . . .

an1 b11 + · · · + ann bn1 = 0

..
.


⎪ a11 b1n + · · · + a1n bnn = 0


⎨ a21 b1n + · · · + a2n bnn = 0
⎪ .. .. ..

⎪ . . .

an1 b1n + · · · + ann bnn = 1

welche wir gleichzeitig lösen müssen (7 vgl. Abschn. 2.4.1). Wir stellen zuerst die
erweiterte Matrix auf:
⎡ ⎤
a11 · · · a1n 1 · · · 0
⎢ ⎥
[A|E] = ⎣ ... . . . ... ... . . . ... ⎦ .
an1 · · · ann 0 · · · 1

Dann bringen wir mittels Gauß-Algorithmus die Matrix [A|E] durch elementarer
Zeilenoperationen in die folgende Form:
⎡ ⎤
1 ··· 0 b11 · · · b1n
⎢ .. . . .. .. . . .. ⎥ = [E|B].
⎣. . . . . . ⎦
0 · · · 1 bn1 · · · bnn

Die Matrix B, welche am Ende des Verfahrens auf der rechten Seite steht, ist genau
die gesuchte Inverse A−1 der Matrix A, d. h. B = A−1 .

Musterbeispiel: invertierbare (3 × 3)-Matrix


Musterbeispiel 2.7 (Inverse mit Gauß-Algorithmus bestimmen)

;1 1 1<
Man bestimme die Inverse der Matrix A = 123 . Wir stellen zuerst die erweiterte Matrix
011
[A|E] auf
⎡ ⎤
1 1 1 1 0 0
[A|E] = ⎣ 1 2 3 0 1 0 ⎦ .
0 1 1 0 0 1

und wenden den Gauß-Algorithmus an, bis die linke Matrix in die Einheitsmatrix E
überführt wurde:
2.4 • Matrizengleichungen und inverse Matrix
129 2
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 0 0 1 1 1 1 0 0 1 1 1 1 0 0
(Z2 ) − (Z1 ) (Z3 ) − (Z2 )
⎣1 2 3 0 1 0⎦ ! ⎣ 0 1 2 −1 1 0 ⎦ ! ⎣ 0 1 2 −1 1 0 ⎦
0 1 1 0 0 1 0 1 1 0 0 1 0 0 −1 1 −1 1
⎡ ⎤ ⎡ ⎤
1 1 1 1 0 0 1 1 0 2 −1 1
−(Z3 ) (Z1 ) − (Z3 ) (Z ) − 2(Z )
! ⎣ 0 1 2 −1 1 0 ⎦ ! ⎣ 0 1 2 −1 1 0 ⎦ 2 ! 3
0 0 1 −1 1 −1 0 0 1 −1 1 −1
⎡ ⎤ ⎡ ⎤
1 1 0 2 −1 1 1 0 0 1 0 −1
(Z1 ) − (Z2 )
⎣ 0 1 0 1 −1 2 ⎦ ! ⎣ 0 1 0 1 −1 2 ⎦ = [E|A−1 ].
0 0 1 −1 1 −1 0 0 1 −1 1 −1

Wir haben somit die erweiterte Matrix [A|E] in die Form [E|A−1 ] überführt. Wir können die
Inverse A−1 direkt aus der rechten Seite des Endschemas ablesen:
⎡ ⎤
1 0 −1
A−1 = ⎣ 1 −1 2 ⎦ .
−1 1 −1

Somit ist A invertierbar und die Inverse ist A−1 .

Musterbeispiel: nichtinvertierbare (3 × 3)-Matrix


Was passiert wenn die vorgelegte Matrix nichtinvertierbar ist? Das nächste Beispiel
soll diese Situation erläutern.

Musterbeispiel 2.8 (Inverse mit Gauß-Algorithmus bestimmen)

;1 2 3<
Man bestimme die Inverse von A = 112 . Die erweiterte Matrix [A|E] ist
011
⎡ ⎤
1 2 3 1 0 0
[A|E] = ⎣ 1 1 2 0 1 0 ⎦ .
0 1 1 0 0 1

und führen den Gauß-Algorithmus durch, bis die linke Matrix in die Einheitsmatrix E
umgewandelt wurde (oder auch nicht!):
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 3 1 0 0 1 2 3 1 0 0 1 2 3 1 0 0
(Z2 ) − (Z1 ) −(Z2 )
⎣1 1 2 0 1 0⎦ ! ⎣0 −1 −1 −1 1 0 ⎦ ! ⎣ 0 1 1 1 −1 0 ⎦
0 1 1 0 0 1 0 1 1 0 0 1 0 1 1 0 0 1
⎡ ⎤
1 2 3 1 0 0
(Z3 ) − (Z2 )
! ⎣0 1 1 1 −1 0 ⎦ .
0 0 0 −1 1 1

In diesem Fall, ist es nicht möglich, die erweiterte Matrix [A|E] in der Form [E|A−1 ]
überzuführen. Der Grund dafür ist, dass A nichtinvertierbar ist. In 7 Kap. 3 werden wir
mittels Determinante dies bald vorher feststellen!
130 Kapitel 2 • Lineare Gleichungssysteme

Übung 2.49
• ◦ ◦ Man bestimme mittels des Gauß-Algorithmus die Inverse von
%
&
53
A= .
32

v Lösung % &
5 3 1 0
Wir stellen die erweiterte Matrix auf [A|E] = und wenden den Gauß-
3 2 0 1
Algorithmus an:
% & % & % &
5 3 1 0 (Z1 )/5 1 35 15 0 (Z2 ) − 3(Z1 ) 1 35 15 0
! !
3 2 0 1 3 2 0 1 0 15 − 35 1
% & % &
(Z1 ) − 3(Z2 ) 1 0 2 −3 5(Z1 ) 1 0 2 −3
! ! = [E|A−1 ].
0 15 − 35 1 0 1 −3 5
% &
−1 −1 2 −3
Die gesuchte Inverse A lautet somit A = . Machen Sie die Probe! "
−3 5

Übung 2.50 & %


3 4
• ◦ ◦ Man bestimme die Inverse der Matrix A = .
−1 2

v Lösung % &
3 4 1 0
Die erweiterte Matrix ist [A|E] = . Mit dem Gauß-Algorithmus finden
−1 2 0 1
wir:
% & % & % & % &
3 4 1 0 (Z1 )/3 1 43 13 0 (Z2 ) + (Z1 ) 1 43 1
0 3 (Z )
10 2 1 43 1
3 0
! ! 3 !
−1 2 0 1 −1 2 0 1 0 10
3
1
3 1 0 1 1 3
10 10
% & % &
1 2 1
4
(Z1 ) − (Z2 )
3 1 0 5 −5 − 52
! 1 3
= [E|A−1 ] ⇒ A −1
= 5
1 3
.
0 1 10 10 10 10 "

Übung 2.51 & %


11
• ◦ ◦ Man bestimme die Inverse der Matrix A = .
23
2.4 • Matrizengleichungen und inverse Matrix
131 2
v Lösung % &
1 1 1 0
Wir stellen die erweiterte Matrix [A|E] auf, [A|E] = , und führen den
2 3 0 1
Gauß-Algorithmus durch:
% & % & % &
1 1 1 0 1 1 1 0
(Z2 ) − 2(Z1 ) (Z1 ) − (Z2 ) 1 0 3 −1
! ! = [E|A−1 ]
2 3 0 1 0 1 −2 1 0 1 −2 1
% &
3 −1
⇒ A−1 = .
−2 1 "

Übung 2.52 ⎤ ⎡
2 0 0
⎢ ⎥
• ◦ ◦ Man bestimme die Inverse der Matrix A = ⎣0 −5 0 ⎦ .
0 0 12

v Lösung ⎤ ⎡
2 0 0 1 0 0
⎢ ⎥
Die erweiterte Matrix [A|E] ist [A|E] = ⎣ 0 −5 0 0 1 0 ⎦ . Mit dem Gauß-
1
0 0 2 0 0 1
Algorithmus finden wir:

1 (Z )
⎡ ⎤ 2 1 ⎡ ⎤ ⎡ ⎤
2 0 0 1 0 0 − 1 (Z2 ) 1 0 0 12 0 0 1
5
2(Z3 ) 2 0 0
⎢ ⎥ ⎢ ⎥ −1 −1 ⎢ ⎥
⎣ 0 −5 0 0 1 0 ⎦ ! ⎣ 0 1 0 0 − 51 0 ⎦ = [E|A ] ⇒ A = ⎣ 0 − 15 0 ⎦
1
0 0 2 0 0 1 0 0 1 0 0 2 0 0 2
"

i Merkregel
Im Allgemeinen ist die Inverse einer Diagonalmatrix
⎡ ⎤ ⎡1 ⎤
λ1 ··· 0 λ ··· 0
⎢. .. ⎥ ⎢ 1 .. ⎥

A = ⎣ .. .. ⎥ ⇒ A−1 = ⎢ .. .. ⎥
. .⎦ ⎣. . .⎦
1
0 · · · λn 0 ··· λn

vorausgesetzt λ1 , · · · , λn ̸= 0.

Übung 2.53 ⎤ ⎡
1 −4 2
⎢ ⎥
• ◦ ◦ Man bestimme die Inverse der Matrix A = ⎣0 2 −1⎦ .
0 0 5
132 Kapitel 2 • Lineare Gleichungssysteme

v Lösung ⎡ ⎤
1 −4 2 1 0 0
⎢ ⎥
Wir stellen zuerst die erweiterte Matrix [A|E] auf: [A|E] = ⎣ 0 2 −1 0 1 0 ⎦ . Dann
0 0 5 0 0 1
wenden wir den Gauß-Algorithmus an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −4 2 1 0 0 (Z2 )/2 1 −4 2 1 0 0 1 −4 2 1 0 0
⎢ ⎥ (Z3 )/5 ⎢ ⎥ (Z2 ) + (Z3 )/2 ⎢ 1 ⎥
⎣ 0 2 −1 0 1 0 ⎦ ! ⎣ 0 1 − 12 0 12 0 ⎦ ! ⎣ 0 1 0 0 12 10 ⎦
0 0 5 0 0 1 0 0 1 0 0 15 0 0 1 0 0 15
⎡ ⎤ ⎡ ⎤
1 0 2 1 2 25 1 0 0 1 2 0
(Z1 ) + 4(Z2 ) ⎢ (Z1 ) − 2(Z3 )
1 ⎥ ⎢ 1 ⎥ = [E|A−1 ].
! ⎣ 0 1 0 0 12 10 ⎦ ! ⎣ 0 1 0 0 12 10 ⎦
0 0 1 0 0 15 0 0 1 0 0 15

Die gesuchte Inverse A−1 ist:


⎡ ⎤
1 2 0
⎢ 1 ⎥.
A−1 = ⎣ 0 12 10 ⎦
0 0 15 "

Übung 2.54 ⎤ ⎡
101
⎢ ⎥
• ◦ ◦ Man bestimme die Inverse der Matrix A = ⎣0 1 1⎦ .
002

v Lösung
Wir stellen zuerst die erweiterte Matrix [A|E] auf und führen den Gauß-Algorithmus
durch:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 1 0 0 1 0 1 1 0 0 1 0 0 1 0 − 12
⎢ ⎥ (Z3 )/2 ⎢ (Z
⎥ 1 ) − (Z )
3 ⎢ ⎥
⎣0 1 1 0 1 0⎦ ! ⎣0 1 1 0 1 0 ⎦ ! ⎣0 1 1 0 1 0 ⎦
0 0 2 0 0 1 0 0 1 0 0 12 0 0 1 0 0 1
2
⎡ ⎤ ⎡ ⎤
1 0 0 1 0 − 21 1 0 − 12
(Z2 ) − (Z3 ) ⎢
! 1 ⎥ = [E|A−1 ] −1 ⎢
⇒ A = ⎣ 0 1 − 12

⎣0 1 0 0 1 −2 ⎦ ⎦.
1 1
0 0 1 0 0 2 0 0 2 "

Übung 2.55 ⎤ ⎡
2 −1 3
⎢ ⎥
• ◦ ◦ Man bestimme die Inverse der Matrix A = ⎣ 7 3 0 ⎦.
−1 2 −4
2.4 • Matrizengleichungen und inverse Matrix
133 2
v Lösung
Wir wenden den Gauß-Algorithmus an:

⎡ ⎤ ⎡ ⎤ −(Z1 )
2 −1 3 1 0 0 −1 2 −4 0 0 1 (Z2 ) + 2(Z1 )
⎢ (Z
⎥ 1 ) → (Z 2 ) → (Z )
3 ⎢ ⎥ (Z3 ) + 7(Z1 )
⎣ 7 3 0 0 1 0⎦ ! ⎣ 2 −1 3 1 0 0⎦ !
−1 2 −4 0 0 1 7 3 0 0 1 0
⎡ ⎤ ⎡ ⎤
1 −2 4 0 0 −1 3 1 −2 4 0 0 −1
⎢ ⎥ − 17 (Z3 ) + (Z2 ) ⎢ ⎥ −17(Z3 )
⎣ 0 3 −5 1 0 2 ⎦ ! ⎣ 0 3 −5 1 0 2 ⎦ !
1 3 13
0 17 −28 0 1 7 0 0 − 17 1 − 17 17
⎡ ⎤ ⎡ ⎤
1 −2 4 0 0 −1 1 −2 4 0 0 −1
⎢ ⎥ (Z2 ) + 5(Z3 ) ⎢ ⎥ (Z2 )/3
⎣ 0 3 −5 1 0 2 ⎦ ! ⎣ 0 3 0 −84 15 −63 ⎦ !
0 0 1 −17 3 −13 0 0 1 −17 3 −13
⎡ ⎤ ⎡ ⎤
1 −2 4 0 0 −1 1 0 4 −56 10 −43
⎢ ⎥ (Z1 ) + 2(Z2 ) ⎢ ⎥ (Z1 ) − 4(Z3 )
⎣0 1 0 −28 5 −21 ⎦ ! ⎣0 1 0 −28 5 −21 ⎦ !
0 0 1 −17 3 −13 0 0 1 −17 3 −13
⎡ ⎤ ⎡ ⎤
1 0 0 12 −2 9 12 −2 9
⎢ ⎥ ⎢ ⎥
⎣0 1 0 −28 5 −21 ⎦ = [E|A−1 ] ⇒ A−1 = ⎣ −28 5 −21 ⎦ .
0 0 1 −17 3 −13 −17 3 −13 "

Übung 2.56
⎤ ⎡
0 0 1 0
⎢0 −1 0 −3⎥
⎢ ⎥
• • ◦ Man bestimme die Inverse der Matrix A = ⎢ ⎥.
⎣1 2 0 6 ⎦
0 0 0 1

v Lösung
Wir bestimmen die erweiterte Matrix [A|E] und mit dem Gauß-Algorithmus finden
wir:
⎡ ⎤ ⎡ ⎤
0 0 1 0 1 0 0 0 1 2 0 6 0 0 1 0
⎢0 0⎥ ⎢0
⎢ −1 0 −3 0 1 0 ⎥ (Z1 ) ↔ (Z3 ) ⎢ −1 0 −3 0 1 0 0⎥⎥ (Z1 ) + 2(Z2 )
⎢ ⎥ ! ⎢ ⎥ !
⎣1 2 0 6 0 0 1 0⎦ ⎣0 0 1 0 1 0 0 0⎦
0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1
⎡ ⎤ ⎡ ⎤
1 0 0 0 0 2 1 0 1 0 0 0 0 2 1 0
⎢0 0⎥ ⎢0
⎢ −1 0 −3 0 1 0 ⎥ (Z2 ) + 3(Z4 ) ⎢ −1 0 0 0 1 0 3⎥⎥ −(Z2 )
⎢ ⎥ ! ⎢ ⎥ !
⎣0 0 1 0 1 0 0 0⎦ ⎣0 0 1 0 1 0 0 0⎦
0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1
134 Kapitel 2 • Lineare Gleichungssysteme

⎡ ⎤ ⎡ ⎤
1 0 0 0 0 2 1 0 0 2 1 0
⎢0 −3 ⎥ ⎢0
⎢ 1 0 0 0 −1 0 ⎥ ⎢ −1 0 −3 ⎥

⎢ ⎥ = [E|A−1 ] ⇒ A−1 =⎢ ⎥.
⎣0 0 1 0 1 0 0 0 ⎦ ⎣1 0 0 0 ⎦
0 0 0 1 0 0 0 1 0 0 0 1 "

Übung 2.57
• • ◦ Man bestimme die Inverse der folgenden (n × n)-Matrix
⎡ ⎤
1 2 3 ··· n
⎢ ⎥
⎢0 1 0 ··· 0⎥
⎢ ⎥
⎢ 0⎥
A = ⎢0 0 1 ··· ⎥.
⎢. .. .. .. .. ⎥
⎢. . ⎥
⎣. . . .⎦
0 0 0 ··· 1

v Lösung
Wir bestimmen die erweiterte Matrix [A|E] und führen den Gauß-Algorithmus durch:
⎡ ⎤ ⎡ ⎤
1 2 3 ··· n 1 0 0 ··· 0 1 0 3 · · · n 1 −2 0 · · · 0
⎢ ⎥ ⎢ ⎥
⎢0 1 0 ··· 0 0 1 0 ··· 0⎥ ⎢0 1 0 ··· 0 0 1 0 ··· 0⎥
⎢ ⎥ (Z1 ) − 2(Z2 )
⎢ ⎥ (Z ) − 3(Z )
⎢0 0 1 ··· 0 0 0 1 ··· 0⎥ ⎢0 0 1 ··· 0 0 0 1 ··· 0⎥ 1 3
⎢ ⎥ ! ⎢ ⎥ !
⎢. .. .. .. .. .. .. .. .. .. ⎥ ⎢. .. .. . . .. .. .. .. . . .. ⎥
⎢. . . ⎥ ⎢. ⎥
⎣. . . . . . . .⎦ ⎣. . . . . . . . . .⎦
0 0 0 ··· 1 0 0 0 ··· 1 0 0 0 ··· 1 0 0 0 ··· 1
⎡ ⎤ ⎡ ⎤
1 0 0 ··· n 1 −2 −3 ··· 0 1 0 0 · · · 0 1 −2 −3 · · · −n
⎢ ⎥ ⎢ ⎥
⎢0 1 0 ··· 0 0 1 0 ··· 0⎥ ⎢0 1 0 ··· 0 0 1 0 ··· 0 ⎥
⎢ ⎥ (Z1 ) − n(Zn )
⎢ ⎥
⎢0 0 1 ··· 0 0 0 1 ··· 0⎥ ⎢0 0 1 ··· 0 0 0 1 ··· 0 ⎥
⎢ ⎥ ! ⎢ ⎥ = [E|A−1 ].
⎢. .. .. .. .. .. .. .. .. .. ⎥ ⎢. . . . . . . . . . ⎥
⎢. . . ⎥ ⎢ . . . .. . . . . .. . ⎥
⎣. . . . . . . .⎦ ⎣. . . . . . . . ⎦
0 0 0 ··· 1 0 0 0 ··· 1 0 0 0 ··· 1 0 0 0 ··· 1

Die gesuchte Inverse A−1 lautet somit:


⎡ ⎤
1 −2 −3 ···−n
⎢ ⎥
⎢0 1 0 ··· 0⎥
⎢ ⎥
⎢ 0⎥
A−1 = ⎢0 0 1 ··· ⎥.
⎢. .. .. .. .. ⎥
⎢. . ⎥
⎣. . . . ⎦
0 0 0 ··· 1 "
2.4 • Matrizengleichungen und inverse Matrix
135 2

Übung 2.58
• • ◦ Man betrachte die sogenannte Heisenberg-Gruppe
⎧⎡ ⎤' ⎫
'
⎨ 1xz '
⎪ ⎪

⎢ ⎥'
H3 (R) = ⎣0 1 y⎦ ' x, y, z ∈ R .

⎩ ' ⎪

001 '

a) Es sei A ∈ H3 (R). Man berechne A−1 .


b) Man zeige, dass H3 (R) eine Gruppe bezüglich der üblichen Matrixmultiplikation
ist.
c) Ist H3 (R) abelsh?

v Lösung ? @
1xz
a) Es sei A = 01y ∈ H3 (R). Mit dem erweiterten Schema [A|E] und dem Gauß-
001
Algorithmus finden wir:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 x z 1 0 0 1 x z 1 0 0 1 0 z 1 −x xy
⎢ ⎥ (Z2 ) − y(Z3 ) ⎢ ⎥ (Z1 ) − x(Z2 ) ⎢ ⎥
⎣0 1 y 0 1 0⎦ ! ⎣ 0 1 0 0 1 −y ⎦ ! ⎣0 1 0 0 1 −y ⎦
0 0 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 1
⎡ ⎤ ⎡ ⎤
1 0 0 1 −x xy − z 1 −x xy − z
(Z1 ) − z(Z3 ) ⎢ ⎥ ⎢ ⎥
! ⎣0 1 0 0 1 −y ⎦ = [E|A−1 ] ⇒ A−1 = ⎣0 1 −y ⎦ .
0 0 1 0 0 1 0 0 1

Beachte, dass A−1 ∈ H3 (R).

b) Zunächst stellen wir?fest, dass


@ die Matrixmultiplikation
? “·”
@ auf H3 (R) wohldefiniert
1 x 1 z1 1 x 2 z2
ist. Denn für A1 = 0 1 y1 ∈ H3 (R) und A2 = 0 1 y2 ∈ H3 (R) gilt
0 0 1 0 0 1

⎡ ⎤⎡ ⎤ ⎡ ⎤
1 x1 z1 1 x2 z2 1 x1 + x2 z1 + z2 + x1 y2
⎢ ⎥⎢ ⎥ ⎢ ⎥
A1 A2 = ⎣0 1 y1 ⎦ ⎣0 1 y2 ⎦ = ⎣0 1 y1 + y2 ⎦ ∈ H3 (R),
0 0 1 0 0 1 0 0 1

d. h. “·” ordnet zwei Matrizen in H3 (R) einem Element von H3 (R) zu. Dann
zeigen wir, dass die H3 (R) mit “·” drei Axiome einer Gruppe (G1)–(G3) erfüllt
(vgl. Anhang B.2):
5 Beweis von (G1): Die Assoziativität folgt direkt aus den Rechenregeln für die
Matrixmultiplikation. %
5 Beweis von (G2): Das neutrale Element der Matrixmultiplikation ist die Ein-
heitsmatrix, welche in H3 (R) enthalten ist (setze x = y = z = 0). Somit besitzt
H3 (R) das neutrale Element. %
5 Beweis von (G3): Für jede Matrix A ∈ H3 (R) gilt A−1 ∈ H3 (R)
136 Kapitel 2 • Lineare Gleichungssysteme

⎡ ⎤ ⎡ ⎤
1xz 1 −x xy − z
⎢ ⎥ ⎢ ⎥
A = ⎣0 1 y⎦ ∈ H3 (R) ⇒ A−1 = ⎣0 1 −y ⎦ ∈ H3 (R).
001 0 0 1

Somit hat jedes Element in H3 (R) ein eindeutig bestimmtes inverses Element in
H3 (R). %
H3 (R) ist somit eine Gruppe bezüglich der Matrixmultiplikation.

c) Die Matrixmultiplikation auf H3 (R) ist nicht kommutativ. Denn:


⎡ ⎤⎡ ⎤ ⎡ ⎤
1 x1 z1 1 x2 z2 1 x1 + x2 z1 + z2 + x1 y2
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣0 1 y1 ⎦ ⎣0 1 y2 ⎦ = ⎣0 1 y1 + y2 ⎦
0 0 1 0 0 1 0 0 1
⎡ ⎤ ⎡ ⎤⎡ ⎤
1 x1 + x2 z1 + z2 + x2 y1 1 x2 z2 1 x1 z1
⎢ ⎥ ⎢ ⎥⎢ ⎥
̸= ⎣0 1 y1 + y2 ⎦ = ⎣0 1 y2 ⎦ ⎣0 1 y1 ⎦ .
0 0 1 0 0 1 0 0 1

H3 (R) ist somit nicht abelsch. "


137 3

Determinanten
Inhaltsverzeichnis

3.1 Definition und erste Beispiele – 138


3.1.1 Determinante von (2 × 2)-Matrizen – 138
3.1.2 Determinante von (3 × 3)-Matrizen – 139
3.1.3 Determinante von (n × n)-Matrizen –
Laplace-Entwicklung – 141
3.1.4 Rechenregeln für Determinanten – 145
3.1.5 Beispiele – 146

3.2 Determinante und Gauß-Algorithmus – 160


3.3 Allgemeine Definition der Determinante – die
Leibniz-Formel – 174
3.3.1 Permutationen – 174
3.3.2 Die Menge Sn – 176
3.3.3 Transpositionen – 177
3.3.4 Darstellung von Parmutationen durch
Transpositionen – 177
3.3.5 Signum einer Permutation – 178
3.3.6 Leibniz-Formel für Determinante – 179

3.4 Inverse Matrix – 183


3.4.1 Invertierbarkeit und Determinante – 183
3.4.2 Inverse einer (2 × 2)-Matrix – 183
3.4.3 Inverse einer (n × n)-Matrix – 184
3.4.4 Beispiele – 186

3.5 Cramer’sche Regel – 194


3.5.1 Homogene LGS – 199

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_3
138 Kapitel 3 • Determinanten

In diesem Kapitel studieren wir sogenannte Determinaten. Die Determinante ist eine
Zahl, welche man jeder quadratischer Matrix eindeutig zuordnen kann und eine
zentrale Rolle in der linearen Algebra spielt. Wir werden zunächst die Determinante
für eine (2 × 2)-Matrix einführen und dann diese Definition auf (n × n)-Matrizen
verallgemeinern. Ferner diskutieren wir einige Anwendungen von Determinanten:
Berechnung der inversen Matrix, Untersuchung von Matrizen auf Invertierbarkeit
und Lösung von LGS.

n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 3 sind Sie in der Lage:
5 das Konzept der Determinante einer Matrix verstehen und geometrisch zu interpre-
tieren,
5 die Regel von Sarrus und den Laplace-Entwicklungssatz anzuwenden,
5 eine Determinante mittels Gauß-Algorithmus (vor allem bei großen Matrizen) zu
berechnen,
5 Permutationen und Leibniz-Formel für Determinanten zu erklären,
5 das Determinantenkriterium für Invertierbarkeit anwenden und die Inverse einer
Matrix mithilfe der Determinante zu bestimmen,
5 die Cramer’sche Regel konkret anzuwenden,
5 das Determinantenkriterium für die Lösung von homogenen LGS anzuwenden,
5 die Komplexität der Determinantenberechnung erkennen und zu diskutieren.

3.1 Definition und erste Beispiele

3.1.1 Determinante von (2 × 2)-Matrizen


# Definition 3.1 (Determinante von (2 × 2)-Matrizen)
A a11 a12 B
Für A = a21 a22 ∈ K2×2 definiert man die Determinante (Notation: det(A) oder |A|) wie
folgt:
' '
'a a '
' 11 12 '
det(A) := ' ' = a11 a22 − a12 a21 . (3.1)
' a21 a22 '

# Beispiel
% & ' '
' 10
10 1 ' 1''
A= ⇒ det(A) = ' ' = 10 · 2 − (−3) · 1 = 23. $
−3 2 '−3 2'
3.1 • Definition und erste Beispiele
139 3
a b

. Abb. 3.1 (a) Geometrische Deutung der Determinante einer (2 × 2)-Matrix A. (b) Beweis ohne
Worte, dass det(A) dem Flächeninhalt des durch die Vektoren [a11 , a21 ]T , [a12 , a22 ]T aufgespannten
Parallelogramms entspricht

Geometrische Deutung
A a12 B A B
Für A = aa11
21 a22
entspricht det(A) dem Flächeninhalt des durch die Vektoren aa11
21
,
A a12 B
a22 aufgespannten Parallelogramms (Übung 3.9). Wir liefern hier einen „Beweis
ohne Worte“ (. vgl. Abb. 3.1).

3.1.2 Determinante von (3 × 3)-Matrizen


# Definition 3.2 (Determinante von (3 × 3)-Matrizen)
; a11 a12 a13 <
Für A = a21 a22 a23 ∈ K3×3 definiert man die Determinante rekursiv wie folgt:
a31 a32 a33

' '
'a a a ' ' ' ' ' ' '
' 11 12 13 ' 'a a ' 'a a ' 'a a '
' ' ' 22 23 ' ' 12 13 ' ' 12 13 '
det(A) := ' a21 a22 a23 ' = a11 ' ' − a21 ' ' + a31 ' ' (3.2)
' ' ' a32 a33 ' ' a32 a33 ' ' a22 a23 '
' a31 a32 a33 '

Die (2 × 2)-Determinanten in dieser Formel werden mithilfe der Regel für (2 × 2)-Matrizen
bestimmt. Man erhält die folgende explizite Formel

det(A) = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 . (3.3)

$
140 Kapitel 3 • Determinanten

Praxistipp

Die Determinante einer (3 × 3)-Matrix erhält man in drei Schritten wie folgt:
' ' ' ' ' '
' ' ' ' ' '
' a11 a12 a13 ' ' a11 a12 a13 ' ' a11 a12 a13 '
' ' ' ' ' '
det(A) = a11 '' a a a
' − a21 '
' ' a 21 a 22 a 23
' + a31 '
' ' a 21 a 22 a 23
'
'
' 21 22 23 ' ' ' ' '
' a31 a32 a33 ' ' a31 a32 a33 ' ' a31 a32 a33 '

Wie wir im 7 Abschn. 3.1.3 erfahren werden, entspricht diese Prozedur der Entwick-
lung der Determinante nach der ersten Spalte.

# Beispiel
⎡ ⎤
1 2 3
⎢ ⎥
Für A = ⎣−3 −2 −1⎦ ist
1 0 −1
' ' ' ' ' ' ' '
'1 2 3' ' ' ' ' ' '
' ' ' ' ' '
'
'
'
' '1 2 3' ' 1 2 3' '1 2 3'
det(A) = '−3 −2 −1' = 1 ''−3 −2 −1'' − (−3) '' −3 −2 −1'' + 1 ''−3 −2 −1''
' ' ' ' ' ' ' '
' 1 0 −1' ' 1 0 −1' ' 1 0 −1' ' 1 0 −1'
' ' ' ' ' '
' −2 −1 ' '2 3 ' ' 2 3 '
' ' ' ' ' '
=1' ' −(−3) ' ' +1 ' ' = 2 − 6 + 4 = 0. $
' 0 −1 ' ' 0 −1 ' ' −2 −1 '
7 89 : 7 89 : 7 89 :
=2−0 =−2−0 =−2+6

Praxistipp

Die Regel von Sarrus. Eine mnemotechnische Methode, die Determinanten einer (3×3)-
Matrix zu bestimmen, ist die Regel von Sarrus. Gemäß dieser Regel ist die Determinante
die Summe von Produkten, die den verschiedenen Diagonalen entsprechen. Wir notie-
ren die Matrix auf, wie unten illustriert:

Die Determinante von A erhält man wie folgt: Man addiert die Produkte der durch die
nach rechts zeigenden Pfeile verbundenen Elementen und subtrahiert die 3 Produkte
der Elemente, die durch die nach links zeigenden Pfeile verbunden sind:
⎡ ⎤
abc
⎢ ⎥
det ⎣d e f ⎦ = aei + bfg + cdh − afh − bdi − ceg. (3.4)
gh i
3.1 • Definition und erste Beispiele
141 3
. Abb. 3.2 Geometrische
Deutung der Determinante einer
(3 × 3)-Matrix A

Geometrische Deutung
; a11 a12 a13 <
Die Determinante von A = a21 a22 a23 ist gleich dem Volumen des durch die
; a11 < ; a12 < ; a13 < a31 a32 a33
Vektoren a21 , a22 , a23 aufgespannten Parallelepipeds (. Abb. 3.2).
a31 a32 a33

3.1.3 Determinante von (n × n)-Matrizen – Laplace-Entwicklung

Die Determinante einer beliebigen (n × n)-Matrix wird rekursiv definiert: Die Be-
rechnung einer (n × n)-Determinante wird auf die Berechnung von (n − 1) × (n −
1)-Determinanten zurückgeführt, welche selbst die Berechnung von (n − 2) × (n −
2)-Determinanten beinhaltet, usw. Auf diese Art und Weise wird die Berechnung
einer (n × n)-Determinante nach maximal n − 2 Schritten auf die Berechnung von
Determinanten von (2 × 2)-Matrizen zurückgeführt.

Minoren
# Definition 3.3
Sei A eine (n × n)-Matrix. Im Folgenden bezeichnen wir mit Aij die (n − 1) × (n − 1)-
Untermatrix, die man erhält, wenn man die i-te Zeile und j-te Spalte streicht
⎡ ⎤
⎢ a11 ··· a1j ··· a1n ⎥
⎢ . .. .. .. .. ⎥
⎢ . ⎥
⎢ . . . . . ⎥
⎢ ⎥
Aij = ⎢ a ··· aij ··· ain ⎥ (3.5)
⎢ i1 ⎥
⎢ . .. .. .. .. ⎥
⎢ . . . ⎥
⎣ . . . ⎦
am1 ··· amj ··· amn

Die Determinanten dieser Untermatrizen Aij heißen Minoren von A. $


142 Kapitel 3 • Determinanten

# Beispiel
⎡ ⎤
123
⎢ ⎥
Für A = ⎣4 5 6⎦ sind
789
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & % & % &
⎢ 1 2 3 ⎥ 5 6 ⎢ 1 2 3 ⎥ 4 6 ⎢ 1 2 3 ⎥ 4 5
A11 ⎢ ⎥
= ⎣4 5 6⎦ = , A12 ⎢ ⎥
= ⎣4 5 6⎦ = , A13 ⎢ ⎥
= ⎣4 5 6⎦ = ,
8 9 7 9 7 8
7 8 9 7 8 9 7 8 9
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & % & % &
⎢1 2 3⎥ ⎢1 2 3⎥ ⎢1 2 3⎥
A21 =⎢ ⎥= 2 3 , A22 =⎢ ⎥= 1 3 , A23 =⎢ ⎥= 1 2 ,
⎣4 5 6⎦ 8 9 ⎣4 5 6⎦ 7 9 ⎣4 5 6⎦ 7 8
7 8 9 7 8 9 7 8 9
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & % & % &
⎢1 2 3⎥ 2 3 ⎢1 2 3⎥ 1 3 ⎢1 2 3⎥ 1 2
A31 =⎢ ⎥
⎣4 5 6⎦ = 5 6 , A32 =⎢ ⎥
⎣4 5 6⎦ = 4 6 , A33 =⎢ ⎥
⎣4 5 6⎦ = 4 5 .
7 8 9 7 8 9 7 8 9

Die entsprechenden Minoren von A sind:


' ' ' ' ' '
'5 6'' '4 6'' '4 5'
' ' ' '
det(A11 ) = ' ' = −3, det(A12 ) = ' ' = −6, det(A13 ) = ' ' = −3,
'8 9' '7 9' '7 8'
' ' ' ' ' '
'2 3'' '1 3'' '1 2'
' ' ' '
det(A21 ) = ' ' = −6, det(A22 ) = ' ' = −12, det(A23 ) = ' ' = −6,
'8 9' '7 9' '7 8'
' ' ' ' ' '
'2 3'' '1 3'' '1 2'
' ' ' '
det(A31 ) = ' ' = −3, det(A32 ) = ' ' = −6, det(A33 ) = ' ' = −3. $
'5 6' '4 6' '4 5'

Laplace-Entwicklung
Die Determinante einer Matrix A ∈ Kn×n definiert man als Summe von n Minoren
(d. h. Determinanten der Ordnung n − 1) wie folgt rekursiv:

det(A) := a11 det(A11 ) − a21 det(A21 ) + · · · + (−1)n+1 an1 det(An1 )


n
C
= (−1)i+1 ai1 det(Ai1 ), (3.6)
i=1
= >
wobei die Minoren det Aij im letzten Abschnitt eingeführt wurden. Man beachte
das alternierende Vorzeichen, wegen des Terms (−1)i+1 . Da in dieser Formel jede
Unterdeterminante jeweils mit den Elementen ai1 multipliziert wird, entspricht dies
der Entwicklung von det(A) nach der ersten Spalte. Im Allgemeinen kann man
det(A) durch Entwicklung nach einer beliebigen Spalte oder Zeile definieren. Der
Entwicklungssatz von Laplace besagt dann, dass das Endresultat nicht von der Wahl
der Entwicklungsspalte oder Entwicklungszeile abhängt.
3.1 • Definition und erste Beispiele
143 3
# Satz 3.1 (Laplace-Entwicklung)
Sei A ∈ Kn×n . Dann gilt:
5 Für alle i = 1, 2, · · · , n:

n
C = >
det(A) := (−1)i+j aij det Aij (3.7)
j=1

Dies entspricht der Entwicklung nach der i-ten Zeile.


5 Für alle j = 1, 2, · · · , n:

n
C = >
det(A) := (−1)i+j aij det Aij (3.8)
i=1

Dies entspricht der Entwicklung nach der j-ten Spalte. $

Praxistipp

Für die Bestimmung der richtigen Vorzeichenreihe in der Laplace-Entwicklung von


det(A) kann man das folgende Schachbrettschema benutzen:
⎡ ⎤
+ − + − ···
⎢ ⎥
⎢− + − + · · ·⎥
⎢ ⎥
⎢+ − + − · · ·⎥
⎢ ⎥.
⎢ ⎥
⎢− + − + · · ·⎥
⎣. . . . ⎦
.. .. .. .. . . .

Dies entspricht der Matrix mit den Einträgen (−1)i+j .

Musterbeispiel 3.1 ((4 × 4)-Determinante bestimmen)

Als Beispiel berechnen wir die Determinante der folgenden (4 × 4)-Matrix


⎡ ⎤
1 −1 0 1
⎢0 −1 0 2⎥
A=⎢ ⎥
⎣3 −2 2 1⎦ .
1 4 21

Ein möglicher Lösungsweg ist, die Determinante nach der ersten Spalte zu entwickeln:
' ' ' ' ' ' ' '
' ' ' ' ' ' ' '
' 1 −1 0 1' ' 1 −1 0 1' ' 1 −1 0 1' ' 1 −1 0 1'
' ' ' ' ' ' ' '
' 0 −1 0 2'' − 0 · '' 0 −1 0 2'' + 3 · '' 0 −1 0 2' ' 0 −1 0 2'
det(A) = 1 · ' '−1·' '
'
' 3 −2 2 1'' '
' 3 −2 2 1'' '
' 3 −2 2 1'' '
' 3 −2 2 1''
' 1 4 2 1' ' 1 4 2 1' ' 1 4 2 1' ' 1 4 2 1'
144 Kapitel 3 • Determinanten

' ' ' ' ' '


'−1 0 2' '−1 0 1' '−1 0 1'
' ' ' ' ' '
= 1 · ''−2 2 1'' − 0 + 3 · ''−1 0 2'' − 1 · ''−1 0 2'' .
' 4 2 1' ' 4 2 1' '−2 2 1'

Für die Bestimmung der richtigen Vorzeichenreihe, haben wir folgendes Schema benutzt
⎡ ⎤
+ − + −
⎢ − + − +⎥
⎢ ⎥
⎢ ⎥.
⎣ + − + −⎦
− + − +

Nun' müssen' wir 3 Determinanten von (3 × 3)-Matrizen berechnen:


'−1 0 2' ' ' ' ' ' '
' ' '2 1' '0 2 ' '0 2'
5 ''−2 2 1'' = (−1) · '' '' −(−2) · '' '' +4 · '' '' = −24.
' 4 2 1' 2 1 2 1 2 1
7 89 : 7 89 : 7 89 :
=2−2=0 =0−4=−4 =0−4=−4
' '
'−1 0 1' ' ' ' ' ' '
' ' '0 2' '0 1' '0 1'
5 ''−1 0 2'' = (−1) · '' '' −(−1) · '' '' +4 · '' '' = 2.
' 4 2 1' 2 1 2 1 0 2
7 89 : 7 89 : 7 89 :
=0−4=−4 =0−2=−2 =0−0=0
' '
'−1 0 1' ' ' ' ' ' '
' ' '0 2' '0 1' '0 1 '
5 ''−1 0 2'' = (−1) · '' '' −(−1) · '' '' +(−2) · '' '' = 2.
'−2 2 1' 2 1 2 1 0 2
7 89 : 7 89 : 7 89 :
=0−4=−4 =0−2=−2 =0−0=0

Zusammenfassend:
' '
'1 −1 0 1' ' ' ' ' ' '
' ' '−1 0 2'' '−1 0 1'' '−1 0 1''
'0 −1 0 2' ' ' '
'
det(A) = ' ' = 1 · '−2 2 1' −0 + 3 · ''−1 0
' 2' −1 · ''−1 0
' 2'' = −20.
3 −2 2 1 ' '
' ' '4 2 1' '4 2 1' '−2 2 1'
'1 4 2 1'
7 89 : 7 89 : 7 89 :
=−24 =2 =2

Alternative: Aus dem Entwicklungssatz von Laplace folgt, dass wir die Determinante einer
Matrix bezüglich einer beliebigen Spalte oder Zeile entwicklen können. In der Praxis wählt
man die Spalte oder Zeile aus, welche am meisten Nullen enthält. Im vorliegenden Beispiel
könnten wir det(A) beispielsweise nach der dritten Spalten entwicklen, weil diese Spalte zwei
Nullen enthält:
' ' ' ' ' ' ' '
' ' ' ' ' ' ' '
'1 −1 0 1' '1 −1 0 1' '1 −1 0 1' '1 −1 0 1'
' ' ' ' ' ' ' '
' ' ' ' '0 −1 0 2' '0 −1 0 2'
det(A) = 0 · '0 −1 0 2' − 0 · '0 −1 0 2' + 2 · ' '−2·' '
'3 −2 2 1' '3 −2 2 1' '3 −2 2 1' '3 −2 2 1'
' ' ' ' ' ' ' '
'1 4 2 1' '1 4 2 1' '1 4 2 1' '1 4 2 1 '
' ' ' '
'1 −1 1' '1 −1 1'
' ' ' '
' '
= 2 · '0 −1 2' − 2 · '0 −1 2'' = −20.
'
'1 4 1 ' '3 −2 1'

Für die Bestimmung der richtigen Vorzeichenreihe bei der Entwicklung nach der dritten
Spalte haben wir folgendes Schema benutzt:
⎡ ⎤
+− + −
⎢− + − +⎥
⎢ ⎥
⎢ ⎥.
⎣+ − + −⎦
−+ − +
3.1 • Definition und erste Beispiele
145 3
Komplexität der Determinantenberechnung
Es reicht aus, die Determinante einer (4 × 4)-Matrix als Beispiel zu berechnen, um
zu erkennen, dass die Berechnung der Determinante für große Matrizen schnell
zu einem äußerst komplexen Unterfangen wird. Wie komplex ist die Berechnung
der Determinante einer (n × n)-Matrix in Abhängigkeit von n? Mit der Laplace-
Entwicklung führt man die Berechnung der Determinante einer (n × n)-Matrix auf
die Berechnung von n Determinanten von (n − 1) × (n − 1)-Matrizen zurück. Jede
von dieser Determinanten der Ordnung n − 1 wird dann auf die Berechnung von
n − 1 Determinanten der Ordnung n − 2 zurückgeführt usw. Insgesamt müssen wir
n(n − 1)(n − 2) · · · 2 = n! Determinanten der Ordnung 1 berechnen. Es folgt, dass es
Ordnung

O(n!) (3.9)

Operationen braucht, um die Determinante einer (n × n)-Matrix mit der Definition


(Laplace-Entwicklung) zu bestimmen. Sogar nur für eine (10 × 10)-Matrix sind es
10! = 3628800 Operationen. Wie wir in 7 Abschn. 3.2 sehen werden, kann man
diese Anzahl Operationen auf die Ordnung

O(n3 ) (3.10)

reduzieren, wenn man die Determinante mithilfe des Gauß-Algorithmus berechnet.

> Bemerkung
Trotz der Komplexität der Determinantenberechnung, ist die Laplace-Entwicklung gut
geeignet bei kleinen Matrizen (2 × 2 und 3 × 3) oder bei größeren Matrizen mit vielen
Nullen.

3.1.4 Rechenregeln für Determinanten


# Satz 3.2 (Rechenregeln für Determinanten)
Es seien A, B ∈ Kn×n und α ∈ K. Dann gelten die folgenden Rechenregel:
(D1) det(AB)
5 6= det(A) det(B).
(D2) det AT = det(A), d. h. die Determinante ändert sich beim Transponieren nicht.
5 6
1
(D3) A invertierbar ⇔ det(A) ̸= 0. In diesem Fall ist det A−1 = det(A) .
(D4) Vertauschen wir zwei Zeilen oder Spalten, dann ändert die Determinante das Vor-
zeichen.
(D5) Multiplizieren wir eine Zeile oder Spalte mit einer Zahl α ∈ K, so wird die Deter-
minante entsprechend mit α multipliziert. Wird die ganze Matrix mit α multipliziert
(d. h. jede Zeile und Spalte), so wird die Determinante mit α n multipliziert:

det(αA) = α n det(A).

(D6) det(0) = 0, det(E) = 1.


146 Kapitel 3 • Determinanten

(D7) In den folgenden Situationen ist det(A) = 0:


5 A beinhaltet eine Nullzeile oder eine Nullspalte;
5 zwei Zeilen oder Spalten von A sind identisch;
5 zwei Zeilen oder Spalten von A sind Vielfache voneinander.
(D8) Die Determinante einer Dreiecksmatrix oder Diagonalmatrix ist gleich dem Produkt
der Diagonalelementen:
⎡ ⎤
a11 a12 ··· a1n
⎢ ⎥

⎢ 0 a22 ··· a2n ⎥

det ⎢ .. .. .. .. ⎥ = a11 · a22 · · · ann .
⎢ . ⎥
⎣ . . . ⎦
0 0 ··· ann

(D9) Für Blockdreiecksmatrizen oder Blockdiagonalmatrizen ist die Determinante gleich


dem Produkt der Determinanten der Diagonalblöcken:
% & % &
A B A 0
det = det = det(A) det(D). $
0 D C D

> Bemerkung
Beachte, dass im Allgemeinen det(A + B) ̸= det(A) + det(B). Außerdem aus det(A) = 0
folgt nicht unbedingt A = 0.

# Beispiel
⎡ ⎤
2 −1 1
⎢ ⎥
det ⎣ 0 3 1 ⎦ = 2 · 3 · 1 = 6. $
0 0 1

# Beispiel
⎡ ⎤
1 2 3 0 0 ' '
⎢ ⎥ '1 2 3' ' '
⎢4 5 6 0 0⎥ ' ' '1
⎢ ⎥ ' ' ' 2''
A=⎢
⎢7 8 9 0 0⎥⎥ ⇒ det(A) = ' 4 5 6 '·' '. $
'7 8 9' 0 3'
⎢ ⎥ ' ' '
⎣0 0 0 1 2⎦
0 0 0 0 3

3.1.5 Beispiele

Übung 3.1
◦ ◦ ◦ Man
% berechne
& die Determinante der folgenden Matrizen
6 2
a) A =
3 −1
3.1 • Definition und erste Beispiele
147 3

% &
1 −6
b) B =
−2 12
% &
i 2−i
c) C =
1 + 3i −i

v Lösung ' '


'6 2 '
' '
a) det(A) = ' ' = 6 · (−1) − 3 · 2 = −6 − 6 = −12.
'3 −1'
' '
' 1 −6'
' '
b) det(B) = ' ' = 1 · 12 − (−2) · (−6) = 12 − 12 = 0.
'−2 12 '
' '
' i 2 − i'
' '
c) det(C) = ' ' = i · (−i) − (1 + 3i) · (2 − i) = 1 − (5 + 5i) = −4 − 5i. "
'1 + 3i −i '

Übung 3.2 % & % &


12 24
• ◦ ◦ Betrachte die Matrizen A = , B = . Man berechne det(A),
34 12
5 6
det(B), det(AB) und det A−1 . Verifiziere durch explizite Berechnung, dass det(AB) =
det(A) det(B) gilt.

v Lösung % & % &


12 24
Es ist det(A) = det = 4 − 6 = −2, det(B) = det = 4 − 4 = 0. Daraus folgt
34 12
5 6
1
det(AB) = det(A) det(B) = (−2) · 0 = 0 und det A−1 = det(A) = − 12 .
D% & % &E % &
12 24 4 8
Explizite Rechnung: det(AB) = det · = det = 80 − 80 = 0. "
34 12 10 20

Übung 3.3
◦ ◦ ◦ Man
⎡ berechne ⎤
die Determinanten der folgenden Matrizen
2 3 −1
⎢ ⎥
a) A = ⎣1 −1 0 ⎦
0 3 −10
⎡ ⎤
2 1 0
⎢ ⎥
b) B = ⎣ 1 1 −3⎦
−1 −2 2
⎡ ⎤
3 0 1
⎢ ⎥
c) C = ⎣1 2 1⎦
1 −1 2
148 Kapitel 3 • Determinanten

⎡ ⎤
1 4 1
⎢ ⎥
d) D = ⎣ 2 5 0⎦
−1 −2 2

v Lösung ' '


' 2 3 −1 ' ' ' ' ' ' '
' ' ' −1 0 ' ' 3 −1 ' ' 3 −1 '
' ' ' ' ' ' ' '
a) det(A) = ' 1 −1 0 ' = 2 · ' ' −1 · ' ' +0 · ' ' = 47.
' ' ' 3 −10 ' ' 3 −10 ' ' −1 0 '
' 0 3 −10 ' 7 89 : 7 89 : 7 89 :
' ' =10−0 =−30+3 0−1
' 2 1 0 ' ' ' ' ' ' '
' ' ' 1 −3 ' ' 1 0' '1 0 '
' ' ' ' ' ' ' '
b) det(B) = ' 1 1 −3 ' = 2 · ' ' −1 · ' ' +(−1) · ' ' = −7.
' ' ' −2 2 ' ' −2 2 ' ' 1 −3 '
' −1 −2 2 ' 7 89 : 7 89 : 7 89 :
' ' =2−6 =2−0 =−3−0
'3 0 1' ' ' ' ' ' '
' ' ' 2 1' ' 0 1' '0 1'
' ' ' ' ' ' ' '
c) det(C) = ' 1 2 1 ' = 3 · ' ' −1 · ' ' +1 · ' ' = 12.
' ' ' −1 2 ' ' −1 2 ' '2 1'
' 1 −1 2 ' 7 89 : 7 89 : 7 89 :
' ' =4+1 =0+1 =0−2
' 1 4 1' ' ' ' ' ' '
' ' ' 5 0' ' 4 1' '4 1'
' ' ' ' ' ' ' '
d) det(D) = ' 2 5 0 ' = 1 · ' ' −2 · ' ' +(−1) · ' ' = −5. "
' ' ' −2 2 ' ' −2 2 ' '5 0'
' −1 −2 2 ' 7 89 : 7 89 : 7 89 :
=10−0 =8+2 =0−5

Übung 3.4
• ◦5◦ Sind
6 die folgenden Matrizen invertierbar? Man berechne jeweils (sofern möglich)
det A−1 .
⎡ ⎤
3 2 −1
⎢ ⎥
a) A = ⎣1 0 1 ⎦ ,
1 −1 2
⎡ ⎤
3 2 −1
⎢ ⎥
b) B = ⎣1 2 1 ⎦ ,
13 2
⎡ ⎤
1 12
⎢ ⎥
c) C = ⎣−1 4 5⎦.
1 23

v Lösung ⎡ ⎤
3 2 −1
⎢ ⎥ = >
a) det(A) = det ⎣1 0 1 ⎦ = 2 ̸= 0 ⇒ A invertierbar. Daraus folgt det A−1 =
1 −1 2
1 1
det(A) = 2 .
3.1 • Definition und erste Beispiele
149 3
⎡ ⎤
3 2 −1
⎢ ⎥
b) det(B) = det ⎣1 2 1 ⎦ = 0 ⇒ B nichtinvertierbar.
13 2
⎡ ⎤
1 1 2
⎢ ⎥ = > 1
c) det(C) = det ⎣−1 4 5⎦ = −2 ̸= 0 ⇒ C invertierbar ⇒ det C −1 = det(C) =
1 2 3
− 12 . "

Übung 3.5
• ◦ ◦ Man betrachte die folgenden Matrizen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 1 0 1 1 2 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A = ⎣ 1 1 2⎦ , B = ⎣−3 1 2⎦ , C = ⎣ 1 −3 2⎦ .
−1 −2 2 2 −2 2 −1 2 2
5 6 5 6
Man bestimme: det(A), det(B), det(C), det(AB), det(AC), det(BC), det AT , det A3 ,
5 6 5 6 5 6 5 6
det A−1 , det A−1 B−1 , det A3 B−1 C und det AB−2 C T BT .

v Lösung
Wir lösen die Aufgabe, indem wir zuerst die Determinanten der Matrizen A, B und C
bestimmen. Mit der Formel für Determinanten von (3 × 3)-Matrizen bestimmen wir:
' '
' 2 1 1'
' '
' '
det(A) = ' 1 1 2 ' = 7
' '
' −1 −2 2 '
' '
' 0 1 1'
' '
' '
det(B) = ' −3 1 2 ' = 14
' '
' 2 −2 2 '
' '
' 2 0 1'
' '
' '
det(C) = ' 1 −3 2 ' = −21
' '
' −1 2 2 '

Mithilfe der Rechenregeln für Determinanten finden wir:

det(AB) = det(A) det(B) = 7 · 14 = 98,


det(AC) = det(A) det(C) = 7 · (−21) = −147,
det(BC) = det(B) det(C) = 14 · (−21) = −294,
5 6
det AT = det(A) = 7,
5 6
det A3 = det(A)3 = 73 = 343,
150 Kapitel 3 • Determinanten

5 6 1 1
det A−1 = = ,
det(A) 7
5 6 5 6 5 6 1 1 1 1 1
det A−1 B−1 = det A−1 det B−1 = = = ,
det(A) det(B) 7 14 98
5 6 5 6 5 6 det(A)3 det(C) 1029
det A3 B−1 C = det A3 det B−1 det(C) = =− ,
det(B) 2
5 6 1 det(A) det(C) 21
det AB−2 C T BT = det(A) 2
det(C) det(B) = =− . "
det(B) det(B) 2

Übung 3.6
• ◦ ◦ Für welche Werte von k ∈ R ist det(A) ̸= 0?
⎡ ⎤
k−2 0 6
⎢ ⎥
A = ⎣ −1 4 k + 3⎦ .
0 −2 0

v Lösung
Wir berechnen die Determinante von A in Abhängigkeit von k
' '
'k − 2 0 6 '' ' ' ' '
' ' 4 k + 3' ' 0 6'
' ' ' ' ' '
det(A) = ' −1 4 k + 3 ' = (k − 2) · ' ' −(−1) · ' ' +0
' ' ' −2 0 ' ' −2 0 '
' 0 −2 0 ' 7 89 : 7 89 :
=0+2(k+3) =0+12

2
= (k − 2) · (2k + 6) + 12 = 2k + 2k.

Die Determinante von A ist ungleich Null, wenn 2k2 +2k ̸= 0, d. h. wenn 2k(k+1) ̸= 0,
also für k ̸= 0, −1. "

Übung 3.7
⎤ von α ∈ R sind die folgenden Matrizen invertierbar?
• ◦ ◦ Für⎡welche Werte
2 −1 2
⎢ ⎥
a) A = ⎣ 3 3 1 ⎦
−4 2 α
⎡ ⎤
2 3 4
⎢ ⎥
b) B = ⎣1 0 3 ⎦
0 α −2
⎡ ⎤
2 −1 1 − α
⎢ ⎥
c) C = ⎣1 1 6 ⎦
2 2 α
3.1 • Definition und erste Beispiele
151 3
v Lösung ' '
' 2 −1 2 ' ' '
' ' '3 1'
' ' ' '
a) A ist invertierbar ⇔ det(A) ̸= 0. Daraus folgt det(A) = ' 3 3 1 ' = 2 ' '−
' ' '2 α'
' −4 2 α '
' ' ' '
' −1 2 ' ' −1 2 ' !
' ' ' '
3' ' − 4' ' = 2(3α − 2) + 3(α + 4) + 28 = 9α + 36 ̸= 0 ⇒ α ̸= −4.
' 2 α' ' 3 1'
' '
'2 3 4 ' ' ' ' ' ' '
' ' '0 3 ' '3 4 ' '3 4'
' ' ' ' ' ' ' '
b) det(B) = ' 1 0 3 ' = 2 ' '−1' '+0' ' = −6α + (6 + 4α) =
' ' ' α −2 ' ' α −2 ' '0 3'
' 0 α −2 '
!
6 − 2α ̸= 0' ⇒ α ̸= 3. '
'2 −1 1 − α '' ' ' ' ' ' '
' '1 6' ' −1 1 − α ' ' −1 1 − α '
' ' ' ' ' ' ' '
c) det(C) = ' 1 1 6 ' = 2' '−1 ' '+2 ' ' = 2(α −
' ' '2 α' ' 2 α ' ' 1 6 '
'2 2 α '
!
12) + α + 2(1 − α) + 2(−6 + α − 1) = 3α − 36 ̸= 0 ⇒ α ̸= 12. "

Übung 3.8
• ◦ ◦⎡Man bestimme
⎤ möglichst geschickt die folgenden Determinanten
0 0 2
⎢ ⎥
a) ⎣3 3 0⎦ ,
4 2 0
⎡ ⎤
2 3 4
⎢ ⎥
b) ⎣0 1 3 ⎦ ,
0 0 −2
⎡ ⎤
1 2 3
⎢ ⎥
c) ⎣3 0 1⎦ ,
1 0 1
⎡ ⎤
1 0 0 0
⎢0 2 0 0 ⎥
⎢ ⎥
d) ⎢ ⎥
⎣0 0 −10 0 ⎦
0 0 0 −2
⎡ ⎤
1 1 0 0 0
⎢ ⎥
⎢−1 2 0 0 0 ⎥
⎢ ⎥
e) ⎢ 0 0 −10 0 0 ⎥ ,
⎢ ⎥
⎢ ⎥
⎣ 0 0 2 −2 0 ⎦
0 0 1 −1 10
⎡ ⎤
1 1 0 0
⎢ 0 2 0 0⎥
⎢ ⎥
f) ⎢ ⎥.
⎣ 100 8 −10 0 ⎦
−22 19 2 −2
152 Kapitel 3 • Determinanten

v Lösung
a) In diesem Fall hat die letzte Spalte viele Nullen. Somit entwickeln wir die Determi-
nante nach der dritten Spalte und bekommen
⎡ ⎤
002 ' '
'3
⎢ ⎥ ' 3''
det ⎣3 3 0⎦ = 2 · ' ' = 2 · (6 − 12) = −12.
'4 2'
420

Für die Bestimmung des richtigen Vorzeichens bei dieser Entwicklung haben wir
das folgende Schema benutzt:
⎡ ⎤
+− +
⎢ ⎥
⎣− + − ⎦ .
+− +

b) In diesem Fall befindet sich die Matrix in Dreiecksform. Somit ist die Determinante
einfach als Produkt der Diagonalelemente (Regel D8), konkret:
⎡ ⎤
23 4
⎢ ⎥
det ⎣0 1 3 ⎦ = 2 · 1 · (−2) = −4.
0 0 −2

c) Die zweite Spalte hat am meisten Nullen. Wir entwickeln die Determinante nach
dieser Spalte und erhalten:
⎡ ⎤
123 ' '
'3
⎢ ⎥ ' 1''
det ⎣3 0 1⎦ = −2 · ' ' = (−2) · (3 − 1) = −4.
'1 1'
101

Für die Bestimmung des richtigen Vorzeichens benutzen wir unser bekanntes
Schema:
⎡ ⎤
+ − +
⎢ ⎥
⎣− + −⎦ .
+ − +

d) Die Matrix befindet sich bereits in Diagonalform. Somit ist die Determinante
einfach das Produkt der Diagonalelementen (Regel D8):
⎡ ⎤
1 0 0 0
⎢0
⎢ 2 0 0⎥⎥
det ⎢ ⎥ = 1 · 2 · (−10) · (−2) = 40.
⎣0 0 −10 0⎦
0 0 0 −2
3.1 • Definition und erste Beispiele
153 3
e) Die Matrix befindet sich in Blockdiagonalform und es gilt die Regel D9:
⎡ ⎤
1 1 0 0 0 ' '
⎢ ⎥
⎢ −1 2 0 0 0 ⎥ '' ' '−10 0 0 '
' ' '
⎢ ⎥ ' 1 1' ' '
det ⎢
⎢ 0 0 −10 0 0 ⎥
⎥ = ''−1 2'' · '' 2 −2 0 '' = 600.
⎢ ⎥
⎣ 0 0 2 −2 0 ⎦ 7 89 : ' 1 −1 10'
2+1=3 7 89 :
0 0 1 −1 10 (−10)·(−2)·10=200

f) Die Matrix ist eine Blockdreiecksmatrix. Somit (Regel D9)


⎡ ⎤
1 1 0 0 ' ' ' '
⎢ 0 2 0 0 ⎥ ' ' ' '
⎢ ⎥ '1 1' '−10 0 '
det ⎢ ⎥ = ' '· ' ' = 40.
⎣ 100 8 −10 0 ⎦ '0 2' ' 2 −2'
789: 7 89 :
−22 19 2 −2 1·2=2 (−10)·(−2)=20 "

Übung 3.9
• ◦ ◦ Man zeige durch explizite Rechnung, dass die Determinante einer (2 × 2)-
Matrix A gleich dem Flächeninhalt des von den Spaltenvektoren von A aufgespannten
Parallelogramms ist.

v Lösung &%
ab
Wir betrachten A = und das von den Spaltenvektoren [a, c]T , [b, d]T
cd
aufgespannten Parallelogram (. Abb. 3.3). Der Flächeninhalt dieses Parallelogramm
ist gleich dem Flächeninhalt des großen Rechteckes (mit Seitenlängen a + b und
c + d) minus dem Flächeninhalt der 4 Dreiecken und der 2 kleinen Rechtecken. Der
Flächeninhalt des großen Rechteckes beträgt

(a + b)(c + d) = ac + ad + bc + bd.

Zu diesem Ergebnis müssen wir die Flächen der 4 Dreiecken und der 2 kleinen
Rechtecken abziehen. Die 4 Dreiecke haben den Flächeninhalt

. Abb. 3.3 Übung 3.9


154 Kapitel 3 • Determinanten

ac bd
2× +2× = ac + bd.
2 2

Die kleinen Rechtecke haben den Flächeninhalt 2 × cb. Zusammenfassend: Der


Flächeninhalt des von den Spaltenvektoren von A aufgespannten Parallelogramms ist:

F = (a + b)(c + d) − ac − bd − 2cb
ac + ad + bc + ❩
=✚ b❩ ac − ❩
d −✚ b❩
d − 2cb = ad − cb = det(A). "

Übung 3.10
• ◦ ◦ Man zeige durch Ausrechnen, dass für (2 × 2)-Matrizen A und B Folgendes gilt:

det(AB) = det(A) det(B).

v Lösung % & % &


a11 a12 b11 b12
Es seien A = und B = . Einerseits haben wir:
a21 a22 b21 b22
D% &% &E
a11 a12 b11 b12
det(AB) = det
a21 a22 b21 b22
D% &E
a11 b11 + a12 b21 a11 b12 + a12 b22
= det
a21 b11 + a22 b21 a21 b12 + a22 b22

= (a11 b11 + a12 b21 )(a21 b12 + a22 b22 ) − (a21 b11 + a22 b21 )(a11 b12 + a12 b22 )
a21✭
a11✭
=✭ b11

✭b12 + a11 a22 b11 b22 + a12 a21 b21 b12 + a12❤ ❤
a22❤ ❤b❤
b21 22

a21✭
a11✭

✭b12 − a12 a21 b11 b22 − a11 a22 b21 b12 − a12❤ ❤
a22❤
−✭ b11 ❤b❤
b21 22

= a11 a22 b11 b22 + a12 a21 b12 b21 − a12 a21 b11 b22 − a11 a22 b12 b21 .

Andererseits gilt:
D% &E D% &E
a11 a12 b11 b12
det(A) det(B) = det det
a21 a22 b21 b22

= (a11 a22 − a12 a21 )(b11 b22 − b12 b21 )


= a11 a22 b11 b22 + a12 a21 b12 b21 − a12 a21 b11 b22 − a11 a22 b12 b21 .

Damit stimmen beiden Seiten der Gleichung überein. "


3.1 • Definition und erste Beispiele
155 3

Übung 3.11
• ◦ ◦ Man zeige, dass für eine (2 × 2)-Matrix A Folgendes gilt:
5 6
det AT = det(A).

v Lösung % &
a11 a12
Es sei A = . Mit der Definition der Determinante einer (2 × 2)-Matrix
a21 a22
erhalten wir:
' ' ' '
5 6 'a a ' 'a a '
T ' 11 21 ' ' 11 12 '
det A = ' ' = a11 a22 − a21 a12 = a11 a22 − a12 a21 = ' ' = det(A).
' a12 a22 ' ' a21 a22 '

Somit haben A und AT dieselbe Determinante. "

Übung 3.12
• • ◦ Man zeige, dass für eine (2 × 2)-Matrix A Folgendes gilt:

A2 = Spur(A) A − det(A) E.

v Lösung % &
a11 a12
Es sei A = . Wegen Spur(A) = a11 + a22 und det(A) = a11 a22 − a12 a21 ist:
a21 a22
% &% & % &
2 a11 a12 a11 a12 a11 a12
A − Spur(A) A + det(A) E = − (a11 + a22 )
a21 a22 a21 a22 a21 a22
% &
10
+ (a11 a22 − a12 a21 )
01
% & % &
a211 + a12 a21 a11 a12 + a12 a22 a211 + a11 a22 a11 a12 + a12 a22
= −
a11 a21 + a21 a22 a12 a21 + a222 a11 a21 + a21 a22 a11 a22 + a222
% & % &
a11 a22 − a12 a21 0 00
+ = .
0 a11 a22 − a12 a21 00

Somit A2 = Spur(A) A − det(A) E, was zu zeigen war. "


156 Kapitel 3 • Determinanten

Übung 3.13
• ◦ ◦ Man zeige durch ein Gegenbeispiel, dass im Allgemeinen

det(A + B) ̸= det(A) + det(B).

v Lösung % & % &


20 01
Wir betrachten zum Beispiel die Matrizen A = und B = . Es gilt det(A) =
10 02
' ' ' ' ' '
'2 0' '0 1' '2 1'
' ' ' ' ' '
' ' = 0 − 0 = 0 und det(B) = ' ' = 0 − 0 = 0, aber det(A + B) = ' ' = 4−1 =
'1 0' '0 2' '1 2'
3. Dies Beispiel zeigt, dass im Allgemeinen det(A + B) ̸= det(A) + det(B) gilt. "

Übung 3.14
5 seien A, B6∈ Gl=n (K) invertierbare (n >× n)-Matrizen.
• • ◦ Es 5 6 Man berechne
−T −1 −1
a) det BA B det E + (A − E)(A + E) det A
= >
b) det E + A−T B−1 (AB)T

v Lösung
a) Zuerst vereinfachen wir den folgenden Ausdruck
E + (A − E)(A + E) = E + A2 − EA + AE − E 2

= E + A2 − A + A − E = A2 .
Mit den Rechenregeln für Determinanten finden wir:
5 6 = > 5 6
det BA−T B−1 det E + (A − E)(A + E) det A−1

1 1 = > 1
= det(B) det A2
det(A) det(B) det(A)
1 1
✘✘ ✘✘✘ ✘✘ 1 ✘ = 1.
=✘
det(B)
✘ ✘✘ ✘
det(A) ✘✘✘
det(B)
det(A)det(A)
✘ ✘
det(A)
= > = >
b) det E + A−T B−1 (ABT )T = det E + A−T B−1 (BT )T AT
= > = >
= det E + A−T B−1 BAT = det E + A−T EAT
= >
= det E + A−T AT = det(E + E) = det(2E) = 2n det(E) = 2n .
7 89 :
=1 "
3.1 • Definition und erste Beispiele
157 3

Übung 3.15
• ◦ ◦ Sei A ∈ Gln (K) eine invertierbare (n × n)-Matrix. Man zeige:
5 6 1
det A−1 = .
det(A)

v Lösung
Aus der Definition der inversen Matrix folgt E = AA−1 . Aus der Produktregel für
Determinanten (Regel D1) folgt
5 6 5 6 5 6 1
1 = det(E) = det AA−1 = det(A) · det A−1 ⇒ det A−1 = .
det(A) "

Übung 3.16
• • ◦ Sei A eine schiefsymmetrische (n × n)-Matrix. Man zeige, dass für ungerades n

det(A) = 0

ist. Ist diese Aussage auch richtig für n gerade?

v Lösung
Da A schiefsymmetrisch ist, gilt AT = −A. Aus den Rechenregeln für Determinanten
(Regel D2) folgt unmittelbar:
5 6
det(A) = det AT = det(−A) = (−1)n det(A).

Ist n ungerade, so gilt (−1)n = −1, d. h.

det(A) = − det(A) ⇒ det(A) = 0.

Für gerades n ist (−1)n = 1. Wir erhalten also die triviale Aussage det(A) = det(A). In
der Tat muss für gerades n nicht det(A) = 0 gelten. Zum Beispiel, die (2 × 2)-Matrix
A 0 2B
A = −2 0 ist schiefsymmetrisch, trotzdem det(A) = 2. "

Übung 3.17
• ◦ ◦ Die Matrix A ∈ R3×3 hat nur die Einträge 1 oder −1. Man zeige, dass det(A) ≤ 6
ist.
158 Kapitel 3 • Determinanten

v Lösung
Wegen der Formel für (3 × 3)-Determinanten (Sarrus, Gl. (3.3))

det(A) = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 .

besteht det(A) aus 6 Summanden. Jeder Summand ist entweder 1 oder −1. Die Summe
von 6 Zahlen ±1 kann sicher nicht größer als 6 sein, d. h. det(A) ≤ 6. "

Übung 3.18
•◦◦ Es sei A ∈ Rn×n invertierbar. Außerdem haben A und A−1 nur ganzzahlige Einträge.
Welche Werte kann det(A) annehmen?

v Lösung 5 6
Bestehen A und A−1 nur aus ganzzahligen Elementen, dann sind det(A) und det A−1
offensichtlich ganzzahlig (det(A)
5 entsteht
6 aus der Multiplikation
5 6 und Addition von
ganzen Zahlen). Weil 1 = det AA−1 = det(A) det A−1 gibt es nur zwei Möglich-
keiten: det(A) = ±1. "

Übung 3.19
•••
a) Man zeige, dass für Blockdiagonalmatrizen
% &
Am×m 0m×r
det = det(A) det(B)
0r×m Br×r

gilt.
b) Man wende dies Resultat, um die Determinante der folgenden Matrizen zu bestim-
men
⎡ ⎤
⎡ ⎤ 2 0 0 0 0 0
1 1 0 0 0 ⎢ ⎥
⎢ ⎥ ⎢ 2 2 1 0 0 0⎥
⎢−1 2 0 0 0⎥ ⎢ ⎥
⎢ ⎥ ⎢ 3 −1 2 0 0 0⎥
⎢0 0 −10 0 0⎥ ⎢ ⎥
⎢ ⎥, ⎢−45 10 π −2 1 0⎥
⎢ ⎥ ⎢ √ ⎥
⎣0 0 2 −2 0⎦ ⎢ ⎥
⎣ 230 23 3 −1 1 1⎦
0 0 1 −1 10
31 e2 2 0 1 1

v Lösung
a) Es gilt
% & % &% &
Am×m 0m×r Am×m 0m×r E m×m 0m×r
= ,
0r×m Br×r 0r×m E r×r 0r×m Br×r
3.1 • Definition und erste Beispiele
159 3
d. h.
% & % &% & % & % &
A 0 A 0 E 0 A 0 E 0
det = det = det det .
0 B 0 E 0 B 0 E 0 B

Mittels Spaltenentwicklung der Determinante finden wir:


' '
'A 0 '
% & '' '
'
A 0 ' 1 ··· 0'
det = '' .. .. .. '' = det(A) · 1 · · · 1 = det(A).
0 E '0 . . . ''
'
' 0 ··· 1'

Analog, gilt:
' '
'1 ··· 0 ''
% & '' . .. ''
E 0 '. ..
det = '' . . . 0 ' = 1 · · · 1 · det(B) = det(B).
0 B '
'0 · · · 1 ''
'
' 0 B'
& %
A 0
Daraus folgt det = det(A) det(B).
0 B
b) Wir verwenden das Resultat aus Teilaufgabe (a) auf die gegebenen Matrizen an
⎡ ⎤
1 1 0 0 0
⎢ ⎥ ⎡ ⎤
⎢ −1 2 0 0 0 ⎥ % & −10 0 0
⎢ ⎥ 1 1 ⎢ ⎥
det ⎢ ⎥
⎢ 0 0 −10 0 0 ⎥ = det −1 2 det ⎣ 2 −2 0 ⎦ = 600,
⎢ ⎥
⎣ 0 0 2 −2 0 ⎦ 7 89 : 1 −1 10
=3 7 89 :
0 0 1 −1 10 =200
⎡ ⎤
2 0 0 0 00
⎢ ⎥ ⎡ ⎤
⎢ 2 2 1 0 0 0⎥ % &
⎢ ⎥ −2 1 0
⎢ 3 −1 2 0 0 0 ⎥ 2 1 ⎢ ⎥
det ⎢ ⎥
⎢ −45 10 π −2 1 0 ⎥ = 2 · det −1 2 det ⎣−1 1 1⎦ = 10.
⎢ √ ⎥
⎢ ⎥ 7 89 : 0 11
⎣ 230 23 3 −1 1 1 ⎦ =5 7 89 :
=1
31 e2 2 0 1 1
"

Praxistipp

Erinnerung: Bei Blockmatrizen kann man jeden Block als einen „einzigen Matrixein-
trag“ betrachten (7 vgl. Abschn. 1.2.7).
160 Kapitel 3 • Determinanten

3.2 Determinante und Gauß-Algorithmus

Für die Berechnung von großen Determinanten ist die explizite Formel mittels
der Laplace-Entwicklung eher unpraktisch. Der Gauß-Algorithmus bietet oft eine
schnellere Methode solche Determinanten zu berechnen.

Praxistipp

Die grundlegende Idee dieser Methode ist, die Determinante auf Dreiecksform mittels
elementaren Zeilenoperationen zu transformieren. Dabei muss beachtet werden:
5 Wenn man zwei Zeilen oder Spalten vertauscht, ändert die Determinante das
Vorzeichen (Vertauschen).
5 Wird eine Zeile oder Spalte mit einer Zahl k multipliziert, so wird die Determinante
mit k multipliziert (Skalierung).
5 Die Determinante ändert sich nicht, wenn man das Vielfache einer Zeile oder Spalte
zu einer anderen Zeile oder Spalte addiert (Addition).

Mittels Gauß-Algorithmus lässt sich die Berechnung von großen Determinanten oft
auf Rekursionsrelationen zurückführen (vgl. Übung 3.28).

Musterbeispiel 3.2 (Determinante mittels Gauß-Algorithmus bestimmen)

Als Beispiel betrachten wir die folgende Determinante:


⎡ ⎤
0 1 0 0
⎢1 0 2 0⎥
det ⎢
⎣0

2 1 3⎦
0 0 3 1

Die Berechnung der Determinante mittels Laplace-Entwicklung wäre ziemlich mühsam.


Mit dem Gauß-Algorithmus kann man diese Determinante viel effizienter berechnen. Dazu
wenden wir den Gauß-Algorithmus in 3 Schritte an:
' ' ' ' ' '
'0 1 0 0'' '1 0 2 0' '1 0 2 0''
' ' ' '
'1 0 2 0'' (Z1 ) ↔ (Z2 ) '0 1 0 0' (Z3 ) − 2(Z2 ) '0 1 0 0''
' = (−1) '' ' = (−1) '
'0 2 1 3'' ' '0 0 3''
' '0 2 1 3' ' 1
'0 0 3 1' '0 0 3 1' '0 0 3 1'
' '
'1 0 2 0 '
' '
(Z4 ) − 3(Z3 ) '0 1 0 0 '
= (−1) '' '
'
'0 0 1 3 '
'0 0 0 −8'

5 Wir haben zunächst die erste und zweite Zeile vertauscht. Dabei ändert sich die Deter-
minante um den Faktor (−1).
5 Bei den Operationen (Z3 )−2(Z2 ) und (Z4 )−3(Z3 ) wird die Determinante nicht geändert.
3.2 • Determinante und Gauß-Algorithmus
161 3

Nun ist die Zielmatrix in Diagonalform, sodass man die Determinante ganz einfach als
Produkt der Diagonaleinträge bestimmen kann:
' ' ' '
'0 1 0 0'' '1 0 2 0 ''
' '
'1 0 2 0'' '0 1 0 0 ''
' = (−1) ' = (−1) · 1 · 1 · 1 · (−8) = 8.
'0 2 1 3'' '0 0 1 3 ''
' '
'0 0 3 1 ' '0 0 0 −8 '

Übung 3.20
⎡ ⎤
1 2 4 8
⎢1
⎢ 3 9 27 ⎥

• ◦ ◦ Man berechne det ⎢ ⎥.
⎣1 4 16 64 ⎦
1 5 25 125

v Lösung
Wir wenden den Gauß-Algorithmus in 3 Schritte an:
' ' ' ' ' ' ' '
'1 2 4 8 '' (Z2 ) − (Z1 ) '1 2 4 8 '' '1 2 4 8 '' '1 2 4 8 ''
' (Z3 ) − (Z1 ) ' (Z3 ) − 2(Z2 ) ' '
'1 27 '' '0 19 '' '0 19'' '0
' 3 9 (Z4 ) − (Z1 ) ' 1 5 (Z4 ) − 3(Z2 ) ' 1 5 (Z4 ) − 3(Z3 ) ' 1 5 19''
' ' = ' ' = ' ' = ' '.
'1 4 16 64 '' '0 2 12 56 '' '0 0 2 18'' '0 0 2 18''
' ' ' '
'1 5 25 125' '0 3 21 117' '0 0 6 60' '0 0 0 6'

' ' ' '


'1 2 4 8 '' ''1 2 4 8 ''
'
'1
' 3 9 27 '' ''0 1 5 19''
Wir erhalten ' '=' ' = 1 · 1 · 2 · 6 = 12. "
'1 4 16 64 '' ''0 0 2 18''
'
'1 5 25 125' '0 0 0 6'

> Bemerkung
Die Determinante in Übung 3.20 ist eine Vandermonde-Determinante (vgl. Übung 3.32)
mit x1 = 2, x2 = 3, x3 = 4 und x4 = 5. Daher lautet die Determinante (x2 − x1 )(x3 −
x1 )(x3 − x2 )(x4 − x1 )(x4 − x2 )(x4 − x3 ) = (5 − 4)(5 − 3)(5 − 2)(4 − 3)(4 − 2)(3 − 2) = 12.

Übung 3.21 ⎡ ⎤
0 −1 0 0 0
⎢ ⎥
⎢1 0 1 0 0⎥
⎢ ⎥
• ◦ ◦ Man berechne det ⎢
⎢0 1 0 −1 0⎥⎥.
⎢ ⎥
⎣0 1 −1 0 1⎦
0 0 0 1 0
162 Kapitel 3 • Determinanten

v Lösung
Wir wenden den Gauß-Algorithmus an:
' ' ' ' ' '
'0 −1 0 0 0'' '1 0 1 0 0'' '1 0 1 0 0''
' ' '
' ' ' ' ' '
'1 0 1 0 0' '0 −1 0 0 0' (Z3 ) + (Z2 ) '0 −1 0 0 0'
' ' (Z1 ) ↔ (Z2 ) ' ' (Z4 ) + (Z2 ) ' '
'0 1 0 −1 0'' = (−1) ''0 1 0 −1 0'' = (−1) ''0 0 0 −1 0''
'
' ' ' ' ' '
'0 1 −1 0 1' '0 1 −1 0 1' '0 0 −1 0 1'
' ' ' ' ' '
'0 0 0 1 0' '0 0 0 1 0 ' '0 0 0 1 0'
' ' ' '
'1 0 1 0 0'' '1 0 1 0 0'
' ' '
' ' ' '
'0 −1 0 0 0' '0 −1 0 0 0'
(Z3 ) ↔ (Z4 ) ' ' (Z5 ) + (Z4 ) ' '
= (−1)2 ''0 0 −1 0 1'' = (−1)2 ''0 0 −1 0 1'' = 0.
' ' ' '
'0 0 0 −1 0' '0 0 0 −1 0'
' ' ' '
'0 0 0 1 0' '0 0 0 0 0'

Die Determinante ist Null, weil die Zielmatrix eine Nullzeile hat. "

Übung 3.22 ⎡ ⎤
0 1 0 0 0 0
⎢ ⎥
⎢1 0 0 0 0 0⎥
⎢ ⎥
⎢0 0 0 0 0 1⎥
• ◦ ◦ Man berechne det ⎢
⎢0
⎥.
⎢ 0 0 1 0 0⎥⎥
⎢ ⎥
⎣0 0 1 0 0 0⎦
0 0 0 0 1 0

v Lösung
Wir wenden den Gauß-Algorithmus in 3 Schritte an:
' ' ' '
'0 0 0 0 0''
1 '1 0 0 0 0 0'
' ' '
' ' ' '
'1 0
0 0 0 0' '0 1 0 0 0 0'
' ' ' '
'0 0 0 0 1'' (S1 )↔(S2 )
0 '0 0 0 0 0 1' (S3 )↔(S6 )
' = (−1) ' ' =
'0 0 1 0 0''
0 '0 0 0 1 0 0'
' ' '
' ' ' '
'0 0
1 0 0 0' '0 0 1 0 0 0'
' ' ' '
'0 0 0 1 0'
0 '0 0 0 0 1 0'
' ' ' '
'1 0 0 0 0 0' '1 0 0 0 0 0'
' ' ' '
' ' ' '
'0 1 0 0 0 0' '0 1 0 0 0 0'
' ' ' '
'0 0 1 0 0 0' (S5 )↔(S6 ) '
3 '0 0 1 0 0 0'
'
(−1)2 '' '
' = (−1) '
3
' = (−1) · 1 = −1.
'0 0 0 1 0 0' '0 0 0 1 0 0'
' ' ' '
'0 0 0 0 0 1' '0 0 0 0 1 0'
' ' ' '
'0 0 0 0 1 0' '0 0 0 0 0 1'
"
3.2 • Determinante und Gauß-Algorithmus
163 3
> Bemerkung
Die Matrix in Übung 3.22 ist eine Permutationsmatrix (7 vgl. Abschn. 4.2.1) mit
Signum −1. Daher ist die Determinante gleich −1.

Übung 3.23
• ◦ ◦ Man berechne die folgende Determinante mittels Skalierung:
⎡ ⎤
1 1 1 1
⎢ π
⎢ 2π 0 −π ⎥ ⎥
det ⎢ ⎥.
⎣ e −e −e 2e ⎦
sin(1) 7 sin(1) − sin(1) 4 sin(1)

v Lösung
Man erkennt, dass die zweite, dritte und vierte Zeile einen gemeinsamen Faktor haben
(π , e, beziehungsweise, sin(1)). Somit gilt (Skalierung):
' ' ' '
' 1 1 1 1 '' '1 1 1 1 ''
' '
' π ' '1
' 2π 0 −π ' ' 2 0 −1''
' ' = πe sin(1) ' '.
' e
' −e −e 2e '
'
'1
' −1 −1 2 ''
'sin(1) 7 sin(1) − sin(1) 4 sin(1)' '1 7 −1 4'

Dann führen wir den Gauß-Algorithmus durch:


' ' ' ' ' '
'1 1 1 1 '' (Z2 ) − (Z1 ) '1 1 1 1 '' '1 1 1 1 ''
' (Z3 ) − (Z1 ) ' (Z3 ) + 2(Z2 ) ' ' '
'1 −1'' '0 −2'' '0 −2'' '−4 −3'
' 2 0 (Z4 ) − (Z1 ) ' 1 −1 (Z4 ) − 6(Z2 ) ' 1 −1 ' '
' ' = ' ' = ' '=1·1·' ' = −48.
'1 −1 −1 2 '' '0 −2 −2 1 '' '0 0 −4 −3'' ' 4 15 '
' ' '
'1 7 −1 4' '0 6 −2 3' '0 0 4 15 '

Somit:
' ' ' '
' 1 1 1 1 '' '1 1 1 1 ''
' '
' π ' '1
' 2π 0 −π ' ' 2 0 −1''
' ' = πe sin(1) ' ' = −48π e sin(1).
' e
' −e −e 2e '
'
'1
' −1 −1 2 ''
'sin(1) 7 sin(1) − sin(1) 4 sin(1)' '1 7 −1 4' "

Übung 3.24
• • ◦ Die Einträge 1443, 1560, 1690, 1963 sind alle durch 13 teilbar. Man zeige ohne
explizite Berechnung der Determinanten, dass
164 Kapitel 3 • Determinanten

⎡ ⎤
1 4 4 3
⎢1
⎢ 5 6 0⎥⎥
D = det ⎢ ⎥
⎣1 6 9 0⎦
1 9 6 3

ebenfalls durch 13 teilbar ist.

v Lösung
Der Trick bei dieser Aufgabe ist es, die Zahlen 1443, 1560, 1690, 1963 als Einträge einer
Spalten zu erhalten. Wie kann man das tun? Man kann diese Zahlen so umschreiben:
1442 = 2 + 40 + 400 + 1000 = 2 + 4 · 10 + 4 · 100 + 1 · 1000 usw. Diese Bemerkung
suggeriert, 10 Mal die dritte Spalte, 100 Mal die zweite Spalte und 1000 Mal die erste
Spalte zur letzten Spalte zu addieren:
' ' ' '
'1 4 4 3'' '1 4 4 1443''
' '
'1 0'' '1
' 5 6 (S4 ) + 10(S3 ) + 100(S2 ) + 1000(S1 ) ' 5 6 1560''
D=' ' = ' '.
'1 6 9 0'' '1 6 9 1690''
' '
'1 9 6 3' '1 9 6 1963'

Weil 1443, 1560, 1690, 1963 sind alle durch 13 teilbar sind, gilt
' ' ' ' ' '
'1 4 4 1443'' ''1 4 4 111 · 13'' '1 4 4 111''
' '
'1 1560'' ''1 ' '1
' 5 6 5 6 120 · 13' ' 5 6 120''
D=' '=' ' = 13 ' '.
'1 6 9 1690'' ''1 6 9 130 · 13'' '1 6 9 130''
' '
'1 9 6 1963' '1 9 6 151 · 13 ' '1 9 6 151'

Somit ist D gleich 13·(ganzzahliger Faktor), d. h., D ist durch 13 teilbar. Kontrollieren
Sie das Resultat, indem Sie die Determinante in gewohnter Manier berechnen. Das
Resultat ist D = 39, welches durch 13 teilbar ist. "

Übung 3.25
• • ◦ Man berechne die folgende Determinante
⎡ ⎤
1 0 0 1 2 0
⎢ ⎥
⎢ 1 −1 1 2 −3 −2⎥
⎢ ⎥
⎢ −6 1 1 3 5 −2⎥
det ⎢
⎢ 1

⎢ 0 0 3 −1 0⎥ ⎥
⎢ ⎥
⎣ 2 0 0 5 1 0⎦
−199 2 1 1 7 1

(Hinweis: man versuche, die Matrix durch Spalten- und Zeilenpermutationen in Block-
form zu schreiben).
3.2 • Determinante und Gauß-Algorithmus
165 3
v Lösung
Im ersten Augenblick sieht diese Determinante sehr kompliziert aus. Bei näherer
Betrachtung stellen wir jedoch fest, dass es viele Nullen gibt. Eine solche Matrix,
welche aus vielen Nullen besteht, nennt man dünnbesetzt. In solchen Situationen ist
es oft möglich, die Matrix durch Zeilen- oder Spaltenvertauschungen geeignet auf
Blockform zu bringen. In diesem Fall kann man die zweite und dritte Zeile mit der
vierten und fünften Zeile vertauschen. Außerdem kann man die zweite und dritte Spalte
mit der vierten und fünften Spalte vertauschen. Dies ergibt die gewünschte Matrix in
Blockform, für welche man die Determinante einfach bestimmen kann:
' ' ' '
' 1 0 0 1 2 0 '' ' 1 0 0 1 2 0 ''
' '
' ' ' '
' 1 −1 1 2 −3 −2 ' ' 1 0 0 3 −1 0 '
' ' (Z2 ) ↔ (Z4 ) ' ' (S2 ) ↔ (S4 )
' −6 1 1 3 5 −2 '' (Z3 ) ↔ (Z5 ) ' 2 0 0 5 1 0 '' (S3 ) ↔ (S5 )
' = ' =
' 1 0 0 3 −1 0 '' ' 1 −1 1 2 −3 −2 ''
' '
' ' ' '
' 2 0 0 5 1 0 ' ' −6 1 1 3 5 −2 '
' ' ' '
' −199 2 1 1 7 1 ' ' −199 2 1 1 7 1 '
' '
' 1 1 2 0 0 0 ''
'
' '
' 1 3 −1 0 0 0 ' '' '' '
' ' 1 1 2 '' ''−1 1 −2''
' 2
' 5 1 0 0 0 '' '' '' '
' 1 = '1 3 −1' ' 1 1 −2' = 3 · (−6) = −18.
' 2 −3 −1 1 −2 '' '' '' '
' ' 2 5 1 '' 2 1 1 '
' −6
' 3 5 1 1 −2 ''
' −199 1 7 2 1 1 ' "

Übung 3.26
••◦ ⎡β
··· α ⎤ α
⎢ β β . . ... ⎥
.
a) Man berechne det ⎢
⎣. . .
⎥ für α, β ∈ R.

.. . . . . α
β ··· β β
b) Man benutze das Resultat, um die Determinante der folgenden Matrizen zu bestim-
men
⎡ ⎤
⎡ ⎤ 1 5 ··· 5
2 5 5 5 ⎢ ⎥
⎢2 .
5⎥ ⎢1
⎢ 2 5 ⎥ ⎢ 1 .. 5⎥ ⎥
A=⎢ ⎥, B=⎢
.. ⎥
.
⎣2 2 2 5⎦ ⎢ .. .. .. ⎥
⎣. . . .⎦
2 2 2 2
1 1 ··· 1

v Lösung
a) Um diese anscheinend komplizierte Determinante zu berechnen, genügt es, einen
Schritt des Gauß-Algorithmus anzuwenden. Wir subtrahieren die erste Zeile von
alle anderen Zeilen:
166 Kapitel 3 • Determinanten

' ' ' '


'β α α · · · α '' 'β α α ··· α ''
' '
' ' ' '
' .. ' (Z2 ) − (Z1 ) ' .. '
'β β α . α' (Z3 ) − (Z1 ) '0 β − α 0 . 0 '
' ' ' '
' .. .' etc ' '
D = 'β β β . .. '' = '0 β − α β − α . . . 0 '.
' ' '
'. .. . . . . ' '. .. .. .. .. ''
'. . . α '' '. . .
'. . '. . . '
' ' ' '
'β β · · · β β' ' 0 β − α · · · β − α β − α'

Nun entwickeln wir nach der ersten Spalte (hat viele Nullen) und erhalten eine
Dreiecksmatrix:
' '
'β − α 0 ··· 0 ''
'
' '
'β − α β − α . . .
' 0 ''
D=β' = β(β − α)n−1 .
' .. .. .. .. ''
' . . . . ''
'
'β − α · · · β − α β − α '

b) Wenden wir nun das obige Resultat mit n = 4, α = 5 und β = 2 (für A) bzw. α = 5
und β = 1 (für B), so erhalten wir:
' '
' ' '1 5 ··· 5''
'2 5 5 5'' '
' ' . '
'2 5'' '1
' 2 5 ' 1 .. 5''
' ' = 2 · (2 − 5)3 = −54, '. .. . . .. ''
= 1 · (1 − 5)n−1 = (−4)n−1 .
'2 2 2 5'' '.
' '. . . .' '
'2 2 2 2' '
'1 1 ··· 1' "

Übung 3.27
••◦ ⎡β
··· α ⎤α
⎢ α β . . ... ⎥
.
a) Man berechne det ⎢
⎣. . .
⎥ für α, β ∈ R.

.. . . . . α
α ··· α β
b) Man benutze das Resultat aus (a), um die Determinante der folgenden Matrix zu
bestimmen
⎡ ⎤
−3 1 1 1
⎢1
⎢ −3 1 1⎥⎥
A=⎢ ⎥.
⎣1 1 −3 1⎦
1 1 1 −3
3.2 • Determinante und Gauß-Algorithmus
167 3
v Lösung
a) Wir wenden den Gauß-Algorithmus an und bekommen:
' ' ' '
'β α α · · · α ' ' β α α · · · α ''
' ' '
' ' ' '
' .. ' 2 ) − (Z1 ) ' .. '
'α β α . α ' (Z ' α − β β − α 0 . 0 '
' ' (Z3 )etc.
− (Z1 ) ' '
' . . ' ' . ' (S1 )+(S2 )
'α α β . . .. ' = 'α − β 0 β − α . . 0 ' =
' ' ' '
'. . . ' ' '
'. . . . . . . α '' ' .. .. .. ..
. . .. ''
.
'. . ' . .
' ' ' '
'α α · · · α β ' 'α − β 0 · · · 0 β − α'
' ' ' '
'β + α α α · · · α '' 'β + 2α α α · · · α ''
' '
' ' ' '
' .. ' ' .. '
' 0 β −α 0 . 0 ' ' 0 β −α 0 . 0 '
' ' ' '
' '(S1 )+(S3 )' ' (S1 )+(Sn )
'α − β 0 β − α . . . 0 ' = ' 0 0 β − α
..
. 0 '= · · · =
' ' ' '
' . .. . ' ' '
' . .. ..
. . .. '' ' .. .. .. ..
.
.
. .. ''
' . . ' . .
' ' ' '
'α − β 0 · · · 0 β − α' 'α−β 0 · · · 0 β − α'
' '
'β + (n − 1)α α α · · · α ''
'
' '
' .. '
' 0 β −α 0 . 0 '
' ' A B
' '
' 0 0 β − α
..
. 0 ' = β + (n − 1)α (β − α)n−1 .
' '
' .. .. .. .. .. ''
' . .
' . . . '
' '
' 0 0 · · · 0 β − α'

b) Benutzen wir das obige Resultat mit n = 4, α = 1 und β = −3, so erhalten wir
' '
'−3 1 1 1 ''
'
'1
' −3 1 1 '' A B
' ' = − 3 + (4 − 1) (−3 − 1)3 = 0.
'1 1 −3 1 ''
'
'1 1 1 −3' "

Übung 3.28
• • ◦ Man berechne die Determinante der folgenden (n × n)-Matrix
⎡ ⎤
1 1 1 ··· 1 1
⎢ ⎥
⎢−1 2 1 ··· 1 1⎥
⎢ ⎥
⎢−1 −1 3 ··· 1 1⎥
⎢ ⎥
det ⎢ . .. .. .. .. .. ⎥ , n ≥ 2.
⎢ .. . . . . .⎥
⎢ ⎥
⎢ ⎥
⎣−1 −1 −1 ··· n − 1 1⎦
−1 −1 −1 · · · −1 n
168 Kapitel 3 • Determinanten

v Lösung
Es sei Dn die zu bestimmende Determinante. Wir wenden den ersten Schritt des Gauß-
Algorithmus an, indem wir die erste Zeile zur letzten Zeile addieren:
' ' ' '
'1 1 1 ··· 1 1'' '1 1 1 ··· 1 1 ''
' '
' ' ' '
'−1 2 1 ··· 1 1' '−1 2 1 ··· 1 1 '
' ' ' '
'−1 −1 3 ··· 1 1'' '−1 −1 3 ··· 1 1 ''
' (Zn ) + (Z1 ) '
Dn = ' . .. .. .. .. .. '' = ' . .. .. .. .. .. ''
' .. . . . . .' ' .. . . . . . '
' '
' ' ' '
'−1 −1 −1 ··· n − 1 1' '−1 −1 −1 ··· n − 1 1 '
' ' ' '
'−1 −1 −1 · · · −1 n' '0 0 0 · · · 0 n + 1'

Dann entwicklen wir nach der letzten Zeile (hat viele Nullen) und erhalten:
' '
'1 1 1 ··· 1 1 '' ' '
' '1 1 1 · · · 1 ''
' ' '
'−1 2 1 ··· 1 1 ' ' '
' ' '−1 2 1 ··· 1 '
'−1 −1 3 ··· 1 1 '' ' '
' ' 3 · · · 1 '' = (n + 1) Dn−1 .
Dn = ' .
' .. .. .. .. .. .. '' = (n + 1) ''−1 −1
' . . . . . ' ' .. .. .. . . . '
' ' ' . . . . .. ''
'−1 −1 −1 ··· n − 1 1 ' ' '
' ' '−1 −1 −1 · · · n − 1'
'0 0 0 ··· 0 n + 1 ' 7 89 :
=Dn−1

Wir erhalten eine Rekursionsformel für die Determinante Dn . Wenden wir diese Formel
rekursiv an, so bekommen wir

Dn = (n + 1) Dn−1 = (n + 1) · n Dn−2
= (n + 1) · n · (n − 1) Dn−3 = · · · = (n + 1) · n · (n − 1) · · · 4 D2 .
' '
'1
' 1''
Wir berechnen D2 explizit, D2 = ' ' = 2 + 1 = 3, und erhalten
'−1 2'

Dn = (n + 1) · n · (n − 1) · · · 4D2 = (n + 1) · n · (n − 1) · · · 4 · 3
(n + 1) · n · (n − 1) · · · 4 · 3 · 2 (n + 1)!
= = .
2 2 "

Übung 3.29
• • • Man berechne die folgende Determinante:
⎡ ⎤
0 0 ··· 0 a1
⎢ ⎥
⎢0 0 ··· a2 0⎥
⎢ ⎥
⎢. . . .. .. ⎥
det ⎢ .. .. .. . .⎥ .
⎢ ⎥
⎢ ⎥
⎣ 0 an−1 ··· 0 0⎦
an 0 ··· 0 0
3.2 • Determinante und Gauß-Algorithmus
169 3
v Lösung
Es sei Dn die zu bestimmende Determinante. Wir entwickeln zuerst nach der ersten
Spalte
' '
'0 0 ··· 0 a1 '' ' '
' ' 0
' ' ' ··· 0 a1 ''
'0 0 ··· a2 0' ' 0
'
'. . .. .. '
' ' ··· a2 0 ''
. n+1 ' . n+1
Dn = ' .. ..
' .. . . '' = (−1) an ' . . .. .. '' = (−1) an Dn−1 .
' ' ' . .. . . ''
' 0 an−1 ··· 0 0' '
' ' 'a ··· 0 0'
'an 0 n−1
··· 0 0' 7 89 :
=Dn−1

Dies ist eine Rekursionsformel für die Determinante Dn . Wenden wir diese Formel
rekursiv an, so wird:

Dn = (−1)n+1 an Dn−1 = (−1)(n+1)+n an an−1 Dn−2 = (−1)(n+1)+n+(n−1) an an−1 an−2 Dn−3

= · · · = (−1)(n+1)+n+(n−1)+···+2 an an−1 an−2 · · · a1 .

Fn n(n+1)
Mit der Formel j=1 j = 2 erhalten wir:
⎛ ⎞
n+1 n+1
C C (n + 1)(n + 2) n2 + 3n
(n + 1) + n + (n − 1) + · · · + 2 = j=⎝ j⎠ − 1 = −1= .
2 2
j=2 j=1

Wir fassen zusammen:


' '
' 0 0 ··· 0 a '
' 1'
' '
' 0 0 · · · a2 0 '
' ' n2 +3n
' .. .. . .'
' . . . . . .. .. ' = (−1) 2 a1 · · · an .
' '
' '
' 0 an−1 · · · 0 0 '
' '
'an 0 · · · 0 0 '
"

Übung 3.30
• • ◦ Man berechne die Determinante der (n × n)-Matrix A mit den Komponenten

aij = min{i, j}, i, j = 1, · · · , n.


170 Kapitel 3 • Determinanten

v Lösung
Die Matrix A lautet explizit
⎡ ⎤ ⎡ ⎤
min{1, 1} min{1, 2} min{1, 3} · · · min{1, n} 111 ··· 1
⎢ ⎥ ⎢ ⎥
⎢min{2, 1} min{2, 2} min{2, 3} · · · min{2, n}⎥ ⎢1 2 2 ··· 2⎥
⎢ ⎥ ⎢ ⎥
⎢ · · · min{3, n}⎥ ⎢ 3⎥
A = ⎢min{3, 1} min{3, 2} min{3, 3} ⎥ = ⎢1 2 3 ··· ⎥.
⎢ .. .. .. .. .. ⎥ ⎢. . . .. .. ⎥
⎢ . ⎥ ⎢. . . . ⎥
⎣ . . . . ⎦ ⎣. . . .⎦
min{n, 1} min{n, 2} min{n, 3} · · · min{n, n} 123 ··· n

Es sei Dn die zu bestimmende Determinante. Mit einigen Zeilenoperationen erzielen


wir:
' ' (Z ) − (Z ) ' '
'1 1 1 · · · 1' (Z23 ) − (Z11 ) '1 1 1 · · · 1 '
' ' ' '
' ' . ' '
'1 2 2 · · · 2' . ' 0 1 1 · · · 1 '
' ' (Z ) −. (Z ) ' '
'1 2 3 · · · 3' n 1 '0 1 2 · · · 2 '
Dn = ' ' = ' '.
'. . . . .' '. . . . . '
'. . . .. .' '. . . .. . '
'. . . .' '. . . . '
' ' ' '
'1 2 3 · · · n' '0 1 2 · · · n − 1'

Nun entwicklen wir nach der ersten Spalte (hat viele Nullen):
' '
'1 1 1 ··· 1 '' ' '
' '1
' ' ' 1 ··· 1 ''
'0 1 1 ··· 1 ' '1
'
'
' ' 2 ··· 2 ''
Dn = '0 1 2 ··· 2 '' = 1 · ' . .. .. '' = Dn−1 .
'. '. ..
'. .. .. .. .. '' '. . . . ''
'. . . . . ' '
' ' '1 2 · · · n − 1'
'0 1 2 · · · n − 1' 7 89 :
=Dn−1

Wir erhalten eine Rekursionsformel für die Determinante Dn und zwar Dn = Dn−1 . Aus
dieser Formel folgt unmittelbar Dn = Dn−1 = Dn−2 = · · · D1 . Wegen D1 = det[1] = 1,
gilt Dn = 1, ∀n ∈ N. "

Übung 3.31
• • ◦ Man berechne die Determinante der (n × n)-Matrix A mit den Komponenten

i
aij = δi,j + , i, j = 1, · · · , n.
j
3.2 • Determinante und Gauß-Algorithmus
171 3
v Lösung
Die Matrix A lautet explizit
⎡ ⎤ ⎡ ⎤
1 1 1 1 1 1 1
1+ 1 2 3 ··· n 2 2 3 ··· n
⎢ 2 2 2 2 ⎥ ⎢ 2⎥
⎢ 1 1+ 2 3 ··· n
⎥ ⎢2 2 23 ··· n⎥

⎢ ⎥ ⎢
⎢ 3 3
1+ 3 3 ⎥ ⎢3 3 3⎥
A=⎢ 1 2 3 ··· n ⎥=⎢ 2 2 ··· n⎥.
⎢ . .. .. .. .. ⎥ ⎢. .. .. . . .. ⎥
⎢ . . ⎥ ⎢. ⎥
⎣ . . . . ⎦ ⎣. . . . .⎦
n n n n n n
1 2 3 ··· 1 + n n 2 3 ··· 2

Mit einigen Zeilen-/Spaltenoperationen erzeugen wir:

' ' (Z ) − 2(Z ) ' '


'2 1 1 1 ' (Z2 ) − 3(Z1 ) '2 1 1 1'
' 2 3 ··· n' 3 1 ' 2 3 ··· n'
' 2 '' . ' '
'2 2 23 ··· n'
.
. '−2 1 0 ··· 0'
' ' '
'3 3 3 ' (Zn ) − n(Z1 ) '−3
' 2 2 ··· n ' = ' 0 1 ··· 0 ''
'. .. .. . . .. '' ' . .. .. .. .. ''
'. ' .
'. . . . .' ' . . . . .'
' n n
' ' '
'n 2' '−n 0 0 ··· 1'
2 3 ···
(S1 ) + 2(S2 ) ' '
(S1 ) + 3(S3 ) 'n + 1 1 1
··· 1'
' 2 3 n'
. ' '
.
. ' 0 1 0 ··· 0'
' '
(S1 ) + n(Sn ) ' 0 0 1 ··· 0 '' = n + 1.
= '
' . .. .... .. ''
' . .
' . . . .'
' '
' 0 0 0 ··· 1' "

Übung 3.32
• • • Ziel dieser Aufgabe ist die sogenannte Vandermonde-Determinante
⎡ ⎤
1 x1 x21 · · · xn−1
1
⎢1 x2 x22 · · · xn−1 ⎥
⎢ 2 ⎥
Vn (x1 , x2 , · · · , xn ) = det ⎢
⎢ .. .. .. .. . ⎥⎥
⎣. . . . .. ⎦
1 xn x2n · · · xn−1
n

zu berechnen. Man gehe wie folgt vor:


a) Zeige, durch eine geschickte Spaltenentwicklung, dass Vn ein Polynom vom Grad
n − 1 in der Variable xn ist.
b) Man folgere aus (a), dass

Vn (x1 , · · · , xn ) = (xn − x1 )(xn − x2 ) · · · (xn − xn−1 )Vn−1 (x1 , · · · , xn−1 )

gilt. (Hinweis: Man definiere die Funktion pn (z) = Vn (x1 , · · · , xn−1 , z). Was sind
die Nullstellen von pn (z)?)
c) Man bestimme Vn explizit und zeige
172 Kapitel 3 • Determinanten

⎡ ⎤
1 x1 x21 · · · xn−1
1
⎢1 x2 x22 · · · xn−1 ⎥ K
⎢ 2 ⎥
det ⎢
⎢ .. .. .. .. . ⎥⎥= (xj − xi ).
⎣. . . . .. ⎦ i<j
1 xn x2n · · · xn−1
n

v Lösung
a) Mittels Spaltenentwicklung der Determinante nach der letzten Zeile gilt:
' '
' 1 x1 x21 ··· xn−1
1 '
' '
' 1 x2 x22 ··· xn−1
2 '
Vn (x1 , x2 , · · · , xn ) = '' . . . . '
'
' .. .. . . .. '
' n−1 '
1 xn x2n ··· xn
=:a =:a
9 :70 8 9 :71 8
' ' ' '
' x1 x21 ··· xn−1
1 ' ' 1 x21 ··· xn−1
1 '
' 2 n−1 ' ' 2 n−1 '
' x2 x2 ··· x2 ' ' 1 x2 ··· x2 '
= (−1)n+1 · '' . .. . . .. '' +xn · (−1)
n+2 ' '
' .. .. . . .. ' + · · ·
' .. . . . ' '. . . . '
' x x2 ··· xn−1 ' ' 1 x2 ··· xn−1 '
n−1 n−1 n−1 n−1 n−1

=:an−1
9 :7 8
' '
' 1 x1 x21 ··· xn−2
1 '
' '
' 1 x2 x22 ··· xn−2
2 '
n−1 2n ' n−1
+ xn (−1) · ' . .
7 89 : ' .. .. .. . . .. '' = a0 + a1 xn + · · · + an−1 xn .
. . . '
=1 '1 x x2 ··· xn−2
'
n−1 n−1 n−1

Vn (x1 , x2 , · · · , xn ) ist somit ein Polynom in der Variable xn vom Grad n − 1. Die
Koeffizienten a0 , a1 , · · · , an−1 sind Funktionen der anderen Variablen x1 , x2 , · · · ,
xn−1 .
b) Die Idee ist, xn als eine neue Variable z aufzufassen:
' '
'1 x x21 · · · xn−1 '
' 1 1 '
' n−1 ''
'1 x2 x22 · · · x2
' '
'. . .. .. . '
pn (z) = ' .. .. . . .. '' .
'
' '
'1 xn−1 x2n−1 · · · xn−1
n−1 ''
'
'1 z z2 ··· z 'n−1

Aus Teilaufgabe (a) wissen wir, dass pn (z) ein Polynom vom Grad n − 1 in z ist.
Werten wir dieses Polynom an der Stelle z = x1 aus, so erhalten wir:
' '
'1 x1 x21 · · · xn−1 '
' 1 '
' n−1 ''
'1 x2 x22 · · · x2
' '
'. .. .. .. .. '
pn (z = x1 ) = ' .. . . . . '' = 0,
'
' '
'1 xn−1 x2n−1 · · · xn−1
n−1 ''
' n−1 '
'1 x1 x21 ··· x 1
3.2 • Determinante und Gauß-Algorithmus
173 3
weil die erste und letzte Zeile identisch sind. Analog gilt:
' '
'1 x1 x21 · · · xn−1 '
' 1 '
' n−1 ''
'1 x2 x22 · · · x2
' '
'. .. .. .. . '
pn (z = x2 ) = ' .. . . . .. '' = 0
'
' '
'1 xn−1 x2n−1 · · · xn−1
n−1 ''
'
'1 x2 x22 · · · xn−1
2
'

usw. bis
' '
'1 x1 x21 · · · xn−1 '
' 1 '
' n−1 ''
'1 x2 x22 · · · x2
' '
'. .. .. .. .. '
pn (z = xn−1 ) = ' .. . . . . '' = 0.
'
' '
'1 xn−1 x2n−1 · · · xn−1
n−1 ''
' n−1 '
'1 xn−1 x2n−1 ··· x n−1

Somit hat das Polynom pn (z) genau n − 1 Nullstellen: z = x1 , z = x2 , · · · , z = xn−1 .


Folglich ist pn (z) von der Form pn (z) = C(z − x1 )(z − x2 ) · · · (z − xn−1 ). Wegen
pn (z) = C(z − x1 )(z − x2 ) · · · (z − xn−1 ) = Czn−1 + · · · ist die Konstante C gleich
dem Koeffizient von pn (z) zu zn−1 , d. h. C = an−1
' '
'1 x1 x2
' 1 · · · xn−2
1 '
'
'1 x x22 · · · xn−2 '
' 2 2 ''
C = an−1 = '' . . .. .. . ' = Vn−1 (x1 , · · · , xn−1 ).
' .. .. . . .. '
' '
'1 x x2 · · · xn−2 '
n−1 n−1 n−1

Daraus folgt Vn (x1 , · · · , xn ) = (xn −x1 )(xn −x2 ) · · · (xn −xn−1 )Vn−1 (x1 , · · · , xn−1 ).
c) In Teilaufgabe (b) haben wir eine Rekursionsrelation für Vn (x1 , · · · , xn ) erhalten.
Wenden wir diese Relation an so erhalten wir:

Vn (x1 , · · · , xn ) = (xn − x1 )(xn − x2 ) · · · (xn − xn−1 )Vn−1 (x1 , · · · , xn−1 )


= (xn − x1 )(xn − x2 ) · · · (xn − xn−1 )(xn−1 − x1 ) · · · (xn−1 − xn−2 )
Vn−2 (x1 , · · · , xn−2 )
..
.
= (xn − x1 )(xn − x2 ) · · · (xn − xn−1 ) · · · (x3 − x1 )(x3 − x2 )V2 (x1 , x2 ).

Wir müssen nur noch V2 (x1 , x2 ) bestimmen:


' '
'1 x '
' 1'
V2 (x1 , x2 ) = ' ' = x2 − x1 .
'1 x2 '
174 Kapitel 3 • Determinanten

Somit gilt:

Vn (x1 , · · · , xn ) = (xn − x1 )(xn − x2 ) · · · (xn − xn−1 ) · · · (x3 − x1 )(x3 − x2 )(x2 − x1 )


K
= (xj − xi ).
i<j "

3.3 Allgemeine Definition der Determinante – die Leibniz-Formel

In den vorausgegangenen Abschnitten haben wir die Determinante praktisch einge-


führt und viele Beispiele dazu bearbeitet. Jetzt wollen wir die Determinante etwas
formaler definieren. Dies erfolgt axiomatisch durch die sogenannten Axiome von
Weierstraß. Man kann zeigen, dass es genau eine Determinantenfunktion gibt,
welche die Axiome von Weierstraß erfüllt. Diese Determinantenfunktion ist durch
die sogenannte Leibniz-Formel gegeben, welche in der Praxis genau den Definitionen
der vorausgegangenen Abschnitten entspricht. Bevor wir mit der Leibniz-Formel
loslegen, müssen wir zuerst den Begriff der Permutationen einführen.

3.3.1 Permutationen

Eine Permutation beschreibt das Vertauschen der Reihenfolge von n Objekten (wie
Zahlen, Buchstaben, geometrische Figuren usw.), . Abb. 3.4. Diese Operation kann
man mathematisch durch eine bijektive Abbildung σ von der Menge {1, 2, · · · , n} in
sich selbst beschreiben:

σ : {1, 2, · · · , n} → {1, 2, · · · , n}, i .→ σ (i). (3.11)

Eine Permutation ordnet somit jeder Zahl i ∈ {1, 2, · · · , n} genau eine Zahl σ (i) in
derselben Menge {1, 2, · · · , n} zu, aber in einer anderen Reihenfolge. Permutationen
kann man in Matrixschreibweise wie folgt beschreiben
? @
1 2 ··· n
σ = . (3.12)
σ (1) σ (2) · · · σ (n)

In der ersten Zeile stehen die natürlichen Zahlen von 1 bis n (Ausgangspunkt).
Unter jeder Zahl steht in der zweiten Zeile das Bild σ (i). Weil jede Permutation σ
nur die Reihenfolge der Zahlen von 1 bis n ändert, kommt jeder i ∈ {1, 2, · · · , n}

. Abb. 3.4 Permutation von


vier Objekten gemäß
1 .→ σ (1) = 3, 2 .→ σ (2) =
1, 3 .→ σ (3) = 4, 4 .→ σ (4) = 2
3.3 • Allgemeine Definition der Determinante – die Leibniz-Formel
175 3
in der zweiten Zeile genau 1 Mal vor. Eine alternative (einfachere) Notation von
Permutationen betrachtet nur die Bilder unter σ :
= >
σ = σ (1) σ (2) · · · σ (n) . (3.13)

# Beispiel

5 Die folgende Permutation σ der Zahlen {1, 2, 3, 4, 5}

1 .→ σ (1) = 4, 2 .→ σ (2) = 1, 3 .→ σ (3) = 5, 4 .→ σ (4) = 2, 5 .→ σ (5) = 3

A B 5 6
wird in Matrixschreibweise wie folgt dargestellt σ = 14 21 35 42 53 = 4 1 5 2 3 .
A B 5 6
5 Bei der Permutation σ = 12 23 31 44 = 2 3 1 4 geht 1 zu 2, 2 geht zu 3, 3 zu 1 und 4
zu 4.
5 Die Permutation, die kein Element bewegt, heißt identische Permutation, oft mit e
bezeichnet:
% &
1 2 ··· n 5 6
e= = 1 2 ··· n . $
1 2 ··· n

Zusammensetzung von Permutationen


Permutationen können zusammengesetzt werden.

# Definition 3.4
Die Zusammensetzung der Permutationen σ und π wird mit dem Symbol π ◦ σ bezeichnet.
In diesem Fall werden die Permutationen π und σ nacheinander ausgeführt (von rechts
nach links, d. h. zuerst σ und dann π). Das Ergebnis ist wieder eine Permutation. $

# Beispiel
A1 2 3 4B A1 2 3 4B A1 2 3 4B
Die Komposition von σ = 2314 und π = 1423 ergibt π ◦ σ = 4213 .$

Praxis Tip

Zur praktischen Berechnung von π ◦ σ kann man einfach den Weg aller Elemente
1, 2, 3, 4 unter σ und dann π individuell verfolgen:

σ π
1 .→ 2 .→ 4 1 2 3 4
σ π
2 .→ 3 .→ 2 σ ↓ ↓ ↓ ↓
σ π
3 .→ 1 .→ 1 oder 2 3 1 4
σ π
4 .→ 4 .→ 3 π ↓ ↓ ↓ ↓
4 2 1 3
176 Kapitel 3 • Determinanten

Inverse Permutation
# Definition 3.5
π heißt Inverse von σ , wenn π ◦ σ = σ ◦ π = e gilt. Geschrieben wird π = σ −1 . $

# Beispiel
A B A B A B
Die Komposition von σ = 14 21 35 42 53 und π = 12 24 35 41 53 ergibt π ◦ σ = 11 22 33 44 55 = e. π
ist somit die Inverse von σ , d. h. σ −1 = π . $

Praxis Tip

In der Praxis kann man π ◦ σ berechnen, indem man man den Weg aller Elemente
1, 2, 3, 4, 5 unter σ und dann π individuell verfolgt:

σ π
1 .→ 4 .→ 1 1 2 3 4 5
σ π
2 .→ 1 .→ 2 σ ↓ ↓ ↓ ↓ ↓
σ π
3 .→ 5 .→ 3 oder 4 1 5 2 3
σ π
4 .→ 2 .→ 4 π ↓ ↓ ↓ ↓ ↓
σ π
5 .→ 3 .→ 5 1 2 3 4 5

3.3.2 Die Menge Sn


# Definition 3.6
Die Menge aller Permutationen der Zahlen {1, · · · , n} wird mit Sn bezeichnet und heißt die
symmetrische Gruppe

Sn = {σ | σ ist eine Permutation von {1, 2, · · · , n}} (3.14)

# Satz 3.3
Die Ordnung von Sn (d. h., die Anzahl Elemente von Sn ) ist

|Sn | = n! (3.15)

d. h. es gibt n! Permutationen von n Zahlen. $

# Beispiel

5 S2 enthält 2! = 2 Permutationen. Diese sind e = (12) und (21).


5 S3 hat 3! = 6 Elemente. Diese sind e = (123), (312), (231), (132), (321) und (213). $
3.3 • Allgemeine Definition der Determinante – die Leibniz-Formel
177 3
3.3.3 Transpositionen
# Definition 3.7
Eine Transposition ist eine Permutation σ , welche nur zwei Zahlen i und j vertauscht, aber
sonst alle anderen Zahlen invariant lässt, d. h.

σ (i) = j, σ (j) = i, und σ (k) = k sonst. (3.16)

Die Transposition, welche i und j vertauscht, wird mit τij bezeichnet. $

# Beispiel
;1 2 3 4 5 <
Die Permutationσ = 1 5 3 4 2 vertauscht nur die Zahlen 2 und 5. σ ist daher eine
Transposition und wir schreiben σ = τ25 . $

3.3.4 Darstellung von Parmutationen durch Transpositionen


# Satz 3.4
Jede Permutation lässt sich als Produkt von Transpositionen darstellen. $

# Beispiel
A B 5 6
Die Permutation σ = 12 23 31 = 2 3 1 kann man wie folgt als Produkt von Transposi-
tionen schreiben σ = τ12 τ13 , wie man leicht nachrechnet:

> Bemerkung
Beachte, dass die Darstellung einer Permutation als Produkt von Transpositionen nicht
eindeutig ist. Jede solche Darstellung kann man immer durch Multiplikation mit dem
Paar τji τij = e in ein weiteres Produkt überführen, ohne dass sich das Endresultat
ändert. Zum Beispiel:

σ = τ12 τ13 = τ12 τ13 τ21 τ12 = τ12 τ13 τ21 τ12 τ32 τ23 = usw.
7 89 : 7 89 : 7 89 :
=e =e =e
178 Kapitel 3 • Determinanten

Grafisch:

3.3.5 Signum einer Permutation

Im vorigen Abschnitt haben wir gesehen, dass wir jede Permutation als Produkt von
Transpositionen darstellen können. Obwohl diese Darstellung nicht eindeutig ist, ist
die Anzahl der nötigen Transpositionen für eine Permutation immer gerade oder
ungerade. Aus diesem Grund, definieren wir das Signum einer Permutation σ (notiert
sign(σ )) als:
$
+1 σ ist Produkt einer geraden Anzahl von Transpositionen
sign(σ ) =
−1 σ ist Produkt einer ungeraden Anzahl von Transpositionen

Das Signum ist eine Vorzeichenfunktion für Permutationen:


5 Permutationen mit sign(σ ) = +1 heißen gerade
5 Permutationen mit sign(σ ) = −1 heißen ungerade

# Satz 3.5 (Rechenregeln für Signum)

5 Das Signum einer Transposition ist −1;


5 sign(σ ◦ π) = sign(σ ) sign(π);
5 sign(σ −1 ) = sign(σ );
5 Die Hälfte der Permutationen von Sn ist gerade. Die andere Hälfte ist ungerade. $

> Bemerkung
Die Formel sign(σ −1 ) = sign(σ ) kann man intuitiv wie folgt verstehen. Es gilt: σ ◦
σ −1 = e. Die Identität e hat keine Transpositionen. Um σ −1 zu erzeugen, müssen
wir alle Transpositionen von σ rückwärts anwenden. σ −1 besteht somit aus derselben
Anzahl Transpoitionen wie σ , also hat σ −1 desselbe Signum wie σ .

# Beispiel

5 Die identische Permutation e = (12345) enthält keine Transposition. Daraus folgt


sign(e) = (−1)0 = 1.
5 Die Permutation σ = (132) entsteht aus der Transposition von 2 und 3. Daraus folgt
sign(σ ) = (−1)1 = −1.
3.3 • Allgemeine Definition der Determinante – die Leibniz-Formel
179 3
5 σ = (312) ist gleich dem Produkt von 2 Transpositionen σ = τ13 τ12 . Daraus folgt
sign(σ ) = (−1)2 = 1.

5 Die Permutation σ = (51243) kann man als Produkt von 4 Transpositionen schreiben
A B
σ = 15 21 32 44 53 = τ35 τ25 τ15 . Somit sign(σ ) = (−1)3 = −1.

5 Die Permutation σ = (2345671) kann man wie folgt als Produkt von Transpositionen
A B
schreiben σ = 12 23 34 45 56 67 71 = τ67 τ56 τ45 τ34 τ23 τ12 . Somit sign(σ ) = (−1)6 = 1.

5 S2 enthält 2! = 2 Permutationen. Diese sind die Identität e = (12) und (21). Es ist
sign(e) = +1 und sign(21) = −1
5 S3 enthält 3! = 6 Permutationen. 3 davon sind gerade; die anderen 3 sind ungerade:

σ = (123) ⇒ sign(σ ) = +1 σ = (213) ⇒ sign(σ ) = −1


σ = (312) ⇒ sign(σ ) = +1 σ = (321) ⇒ sign(σ ) = −1
σ = (231) ⇒ sign(σ ) = +1 σ = (132) ⇒ sign(σ ) = −1

3.3.6 Leibniz-Formel für Determinante

Die Determinante einer allgemeinen Matrix A ∈ Kn×n kann man mithilfe von
Permutationen wie folgt definieren:
180 Kapitel 3 • Determinanten

# Definition 3.8 (Leibniz-Formel)

C
det(A) := sign(σ ) a1σ (1) a2σ (2) · · · anσ (n)
σ ∈Sn

Diese Formel ist als Leibniz-Formel bekannt. Die Summe läuft über alle Permuta-
tionen σ ∈ Sn . Wegen |Sn | = n! enthält die Leibniz-Formel n! Summanden, was die
Berechnung der Determinante bei großes n sehr aufwendig macht. Aus diesem Grund
wird die Leibniz-Formel in der Praxis nicht zur Berechnung von Determinanten
verwendet. Die Formel ist stattdessen nützlich für theoretische Beweise, an denen die
Determinante beteiligt ist (vgl. z. B. Übung 3.36). Für die praktische Berechnung von
Determinanten benutzt man die Methoden, die wir in den vorherigen Abschnitten
untersucht haben. Denn die Leibniz-Formel entspricht genau der Definitionen von
7 Abschn. 3.1 (vgl. Übungen 3.33 und 3.34). Als Übung betrachten wir jetzt einige
Anwendungen der Leibniz-Formel.

Übung 3.33
• ◦ ◦ Mithilfe der Leibniz-Formel leite man die Formel der Determinante einer (2 × 2)-
Matrix her (Formel (3.1)).

v Lösung
Nach der Leibniz-Formel ist die Determinante einer (2 × 2)-Matrix A ∈ K2×2
C
det(A) = sign(σ ) a1σ (1) a2σ (2) .
σ ∈S2

Die Menge S2 enthält 2! = 2 Permutationen, und zwar:

σ = (12) = e ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) = a11 a22


σ = (21) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) = a12 a21

Somit erhalten wir Formel (3.1)


C
det(A) = sign(σ ) a1σ (1) a2σ (2) = (+1) a11 a22 + (−1) a12 a21 = a11 a22 − a12 a21 .
σ ∈S2 "

Übung 3.34
• ◦ ◦ Mithilfe der Leibniz-Formel leite man die Formel der Determinante einer (3 × 3)-
Matrix her (Formel (3.3)).
3.3 • Allgemeine Definition der Determinante – die Leibniz-Formel
181 3
v Lösung
Nach der Leibniz-Formel ist die Determinante einer (3 × 3)-Matrix A ∈ K3×3
C
det(A) = sign(σ ) a1σ (1) a2σ (2) a3σ (3) .
σ ∈S3

Die Menge S3 enthält 3! = 6 Permutationen. Diese sind:

σ = (123) = e ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a11 a22 a33
σ = (312) ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a13 a21 a32
σ = (231) ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a12 a23 a31
σ = (213) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a12 a21 a33
σ = (321) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a13 a22 a31
σ = (132) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a11 a23 a32

Wir erhalten somit Formel (3.3):


C
det(A) = sign(σ ) a1σ (1) a2σ (2) a3σ (3)
σ ∈S3

= a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a12 a21 a33 − a13 a22 a31 − a11 a23 a32 . "

Übung 3.35
• ◦ ◦ Man zeige mithilfe der Leibniz-Formel, dass für Diagonalmatrizen A =
% a11 ··· 0 &
.. . . .. gilt det(A) = a11 · · · ann .
. . .
0 ··· ann

v Lösung
Um ein Gefühl für die Situation zu bekommen,
? @beweisen wir die Aussage zuerst für
a11 0 0
eine (3 × 3)-Diagonalmatrix A = 0 a22 0 . Nach der Leibniz-Formel ist die
0 0 a33
Determinante von A durch
C
det(A) = sign(σ ) a1σ (1) a2σ (2) a3σ (3)
σ ∈S3

gegeben. Da S3 genau 3! = 6 Permutationen enthält, erhalten wir die folgenden


Kombinationen:

σ = (123) = e ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a11 a22 a33
σ = (312) ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a13 a21 a32 = 0
σ = (231) ⇒ sign(σ ) = +1 und a1σ (1) a2σ (2) a3σ (3) = a12 a23 a31 = 0
σ = (213) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a12 a21 a33 = 0
182 Kapitel 3 • Determinanten

σ = (321) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a13 a22 a31 = 0
σ = (132) ⇒ sign(σ ) = −1 und a1σ (1) a2σ (2) a3σ (3) = a11 a23 a32 = 0

Dabei haben wir die Tatsache benutzt, dass alle außerdiagonalen Elemente von A
verschwinden, d. h. a12 = a13 = a23 = · · · = 0. Aus der Leibniz-Formel folgt somit das
gewünschte Resultat det(A) = a11 a22 a33 .
Jetzt wiederholen wir das obige Argument für eine (n × n)-Diagonalmatrix. Nach der
Leibniz-Formel gilt:
C
det(A) = sign(σ ) a1σ (1) a2σ (2) · · · anσ (n) .
σ ∈Sn

Weil alle außerdiagonalen Elemente von A verschwinden, d. h. aij = 0 für i ̸= j, sind alle
Terme a1σ (1) a2σ (2) · · · anσ (n) in der obigen Summe gleich Null, außer für e = (12 · · · n).
Daraus folgt
C
det(A) = sign(σ ) a1σ (1) a2σ (2) · · · anσ (n) = a11 a22 · · · ann .
σ ∈Sn "

Übung 3.36
• • ◦ Man zeige: Vertauscht man zwei Spalten, dann ändert die Determinante ihr
Vorzeichen.

v Lösung
Es sei A ∈ Kn×n und es sei B ∈ Kn×n die Matrix, die durch Vertauschen der p-ten
und q-ten Spalten von A entstanden ist. Wie können wir nun den Link zwischen A und
B mithilfe von Permutationen darstellen? Bei der Matrix B sind die Spalten p und q
vertauscht. Es sei also τpq die Transposition, welche p und q vertauscht. Dann hat B die
Einträge bij = aiτpq (j) . Somit ist
C
det(B) = sign(σ ) b1σ (1) b2σ (2) · · · bnσ (n)
σ ∈Sn
C
= sign(σ ) a1(τpq ◦σ )(1) a2(τpq ◦σ )(2) · · · an(τpq ◦σ )(n) .
σ ∈Sn

Für Transpositionen ist sign(τpq ) = −1. Daraus folgt sign(τpq ◦σ ) = sign(τpq ) sign(σ ) =
−sign(σ ), so gilt:
C
det(B) = − sign(τpq ◦ σ ) a1(τp,q ◦σ )(1) a2(τpq ◦σ )(2) · · · an(τpq ◦σ )(n)
σ ∈Sn
C
=− sign(σ ′ ) a1σ ′ (1) a2σ ′ (2) · · · anσ ′ (n) = − det(A).
σ ′ ∈Sn
3.4 • Inverse Matrix
183 3
Im letzten Schritt haben wir benutzt, dass mit σ auch σ ′ = τpq ◦ σ ganz Sn durchläuft.
"

Übung 3.37 5 6
• • ◦ Es sei A ∈ Kn×n . Man zeige: det AT = det(A).

v Lösung ; <
Es sei B = AT . Hat A die Einträge aij , so hat B die Einträge [B]ij = AT = aji . Somit
ij
gilt:
5 6 C
det AT = det(B) = sign(σ ) b1σ (1) b2σ (2) · · · bnσ (n)
σ ∈Sn
C C
= sign(σ ) aσ (1)1 aσ (2)2 · · · aσ (n)n = sign(σ ) a1σ −1 (1) a2σ −1 (2) · · · anσ −1 (n) .
σ ∈Sn σ ∈Sn

Wegen sign(σ −1 ) = sign(σ ) gilt


5 6 C
det AT = sign(σ −1 ) a1σ −1 (1) a2σ −1 (2) · · · anσ −1 (n)
σ ∈Sn
C
= sign(σ ′ ) a1σ ′ (1) a2σ ′ (2) · · · anσ ′ (n) = det(A).
σ ′ ∈Sn

Im letzten Schritt haben wir benutzt, dass mit σ auch σ ′ = σ −1 ganz Sn durchläuft. "

3.4 Inverse Matrix

Eine wichtige Anwendung der Determinante ist die Berechnung der inversen Matrix.

3.4.1 Invertierbarkeit und Determinante

Mithilfe der Determinante det(A) charakterisiert man, ob die Matrix A invertierbar


(d. h. regulär) oder nichtinvertierbar (d. h. singulär) ist.

# Satz 3.6
A ∈ Kn×n ist genau dann invertierbar (d. h. regulär), wenn det(A) ̸= 0. Ist det(A) = 0, so
ist A nichtinvertierbar (d. h. singulär). $

3.4.2 Inverse einer (2 × 2)-Matrix

Für (2 × 2)-Matrizen ist die Berechnung der Inversen besonders einfach. Es gilt
folgende Formel (vgl. Bsp. 3.44):
184 Kapitel 3 • Determinanten

# Satz 3.7
A a12 B
Eine (2 × 2)-Matrix A = aa1121 a22 ist genau dann invertierbar, wenn det(A) ̸= 0 gilt. Die
Inverse ist bestimmt durch:
% &
−1 1 a22 −a12
A = (3.17)
det(A) −a21 a11

i Merkregel
Bei A−1 werden die Diagonaleinträge vertauscht, während die Nebendiagonalelemente
mit (−1) multipliziert werden
⎡ ⎤
% &−1 a22 − a12
a11 a12 1 ⎢ ⎥
= ⎣ ↘
↖ ⎦
a21 a22 det(A)
− a21 a11

# Beispiel
' '
A1 2B '1 2''
A= ist invertierbar, weil det(A) = '' = 1 · 2 − 0 · 2 = 2 ̸= 0. Die Inverse ist (Satz (3.7)):
02 0 2'
? @ ? @ ? @
1 a22 −a12 1 2 −2 1 −1
A−1 = = = 1 .$
det(A) −a21 a11 2 0 1 0 2

3.4.3 Inverse einer (n × n)-Matrix

Bevor wir die Formel für die Inverse einer (n × n)-Matrix diskutieren können, müssen
wir zuerst die Kofaktormatrix und die adjunkte Matrix einführen.

Kofaktormatrix
# Definition 3.9
Es sei A ∈ Kn×n . Wir definieren die Kofaktormatrix cof(A) von A wie folgt:
⎡ ⎤
[cof(A)]11 · · · [cof(A)]1n
⎢ .. .. .. ⎥

cof(A) = ⎣ ⎥, (3.18)
. . . ⎦
[cof(A)]n1 · · · [cof(A)]nn

wobei
= >
[cof(A)]ij = (−1)i+j det Aij . (3.19)

Aij ist die Matrix, welche man erhält, wenn man die i-te Zeile und die j-te Spalte von A
streicht (7 vgl. Abschn. 3.1.3):
3.4 • Inverse Matrix
185 3
⎡ ⎤
⎢ a11 ··· a1j ··· a1n ⎥
⎢ . .. .. .. .. ⎥
⎢ . ⎥
⎢ . . . . . ⎥
⎢ ⎥
Aij = ⎢ a ··· aij ··· ain ⎥ (3.20)
⎢ i1 ⎥
⎢ . .. .. .. .. ⎥
⎢ . . . ⎥
⎣ . . . ⎦
am1 ··· amj ··· amn

Adjunkte Matrix
# Definition 3.10
Die Transponierte von cof(A) heißt adjunkte Matrix:

adj(A) = cof(A)T . (3.21)

! Achtung
Die adjunkte Matrix ist nicht mit der adjungierten Matrix (vgl. 7 Kap. 1) zu verwech-
seln.

Inverse einer (n × n)-Matrix


Die Inverse einer (n × n)-Matrix kann man jetzt mithilfe der Kofaktormatrix oder
adjunkten Matrix wie folgt bestimmen:

# Satz 3.8
Eine (n × n)-Matrix A ist genau dann invertierbar, wenn det(A) ̸= 0. Außerdem ist die
Inverse

cof(A)T adj(A)
A−1 = = (3.22)
det(A) det(A)

cof(A) ist die Kofaktormatrix von A und adj(A) ist die adjunkte Matrix. $

Musterbeispiel 3.3 (Inverse von (3 × 3)-Matrix)

⎡ ⎤
1 −4 2
A = 0 2 −1⎦ ist invertierbar, weil

0 0 5
186 Kapitel 3 • Determinanten

' '
' 1 −4 2 '
' '
det(A) = '' 0 2 −1 '' = 1 · 2 · 5 = 10 ̸= 0.
'0 0 5 '

Um die Inverse zu berechnen, rechnen wir die Kofaktormatrix


⎡ ' ' ' ' ' '⎤
' 2 −1 ' ' ' ' '
(−1)1+1 '' ' (−1)1+2 ' 0 −1 ' (−1)1+3 ' 0 2 '
⎢ 0 5 ' ' 0 5 ' ' 0 0 '⎥ ⎡ ⎤
⎢ ' ' ' ' ' '⎥ 10 0 0
⎢ 2+1
' −4 2 ' 2+2
' 1 2 ' 2+3
' 1 −4 '⎥
cof(A) = ⎢
⎢ (−1)
'
'
' (−1)
'
'
'
' (−1)
'
' '⎥ ⎣
' 0 0 '⎥ = 20 5 0 .


⎣ ' 0 5 ' ' 0 5 ' ' '⎥
⎦ 0 1 2
' −4 2 ' ' ' ' '
(−1)3+1 '' ' (−1)3+2 ' 1 2 ' (−1)3+3 ' 1 −4 '
2 −1 ' ' 0 −1 ' '0 2 '

Die inverse Matrix lautet somit (Satz (3.8)):


⎡ ⎤T ⎡ ⎤ ⎡ ⎤
10 0 0 10 20 0 1 2 0
cof(A)T 1 ⎣ 1
A−1 = = 20 5 0⎦ = ⎣ 0 5 1⎦ = ⎣0 1 1 ⎦ .
2 10
det(A) 10 10
0 12 0 0 2 0 0 15

> Bemerkung
Wie man im Musterbeispiel 3.3 sieht, ist für große Matrizen die Bestimmung der
inversen Matrix im Allgemeinen leichter mit dem Gauß-Algorithmus (vgl. 2.4.2) als
mit der expliziten Satz (3.8). Für (2 × 2)-Matrizen ist die Formel vom Satz 3.7 aber
ganz praktisch.

3.4.4 Beispiele

Übung 3.38
•◦◦ Untersuche die folgenden Matrizen auf Invertierbarkeit und bestimme gegebenfalls
die inverse Matrix:
% &
23
a) A =
35
% &
−2 −1
b) B =
4 −3
% &
12
c) C =
36

v Lösung
a) Um A auf Invertierbarkeit
' ' zu untersuchen, müssen wir einfach die Determinante
'2 3'
' '
bestimmen det A = ' ' = 10 − 9 = 1. Wegen det A ̸= 0 ist A invertierbar. Nun
'3 5'
wenden wir Satz (3.7) an und erhalten
3.4 • Inverse Matrix
187 3
% & % & % &
−1 1 a22 −a12 1 5 −3 5 −3
A = = = .
det(A) −a21 a11 1 −3 2 −3 2
' '
' −2 −1 '
' '
b) Wegen det(B) = ' ' = 6 + 4 = 10 ̸= 0 ist B invertierbar. Mit Satz (3.7)
' 4 −3 '
finden wir
% & % & % &
1 1 −3 1 3 1
−1 b22 −b12 − 10 10 .
B = = =
det(B) −b21 b11 10 −4 −2 − 25 − 15
' '
'1 2 '
' '
c) Wegen det(C) = ' ' = 6 − 6 = 0 ist C nichtinvertierbar. Die inverse Matrix
'3 6 '
C −1 existiert folglich nicht. "

Übung 3.39
• ◦ ◦ Für welche α ∈ R sind die folgenden Matrizen invertierbar? Man bestimme
gegebenfalls die Inverse.
% &
α0
a) A =
21
% &
2 1 − α2
b) B = 1
0 2
% &
1−α 2
c) C =
− 32 1 + α

v Lösung
a) Um die Matrix A in Abhängigkeit des Parameters α auf Invertierbarkeit ' ' zu
'α 0'
' '
untersuchen, müssen wir einfach die Determinante bestimmen det(A) = ' '=
'2 1'
α − 0 = α. Nun wissen wir, dass die Matrix A genau dann invertierbar ist, wenn
det(A) ̸= 0 gilt. Hiermit ist die gegebene Matrix genau dann invertierbar, wenn
α ̸= 0. Mit Satz (3.7) finden wir
% & % & % &
1 1 1 0 1
−1 a22 −a12 0
A = = = α .
det(A) −a21 a11 α −2 α − α2 1
' '
' 2 1 − α2 '
' '
b) Wegen det(B) = ' 1 ' = 1 − 0 = 1 ̸= 0 ist B für alle α ∈ R invertierbar. Mit
'0 2
'
Satz (3.7) finden wir
% & % & % &
−1 1 b22 −b12 1 12 α 2 − 1 1 2
α − 1
B = = = 2 .
det(B) −b21 b11 1 0 2 0 2
188 Kapitel 3 • Determinanten

' '
'1 − α 2 '
' '
c) Wegen det(C) = ' ' = 1−α 2 +3 = 4−α 2 ist C genau dann invertierbar,
' − 32 1 + α '
4 − α 2 ̸= 0 ⇒ α 2 ̸= 4 ⇒ α ̸= ±2. Für α ̸= ±2 lautet die gesuchte Inverse
% & % & % 1+α 2
&
−1 1 c22 −c12 1 1 + α −2 4−α 2 − 4−α 2
C = = 3
= 3 1−α .
det(C) −c21 c11 4 − α2 1−α
2 2(4−α 2 ) 4−α 2 "

Übung 3.40
• ◦ ◦ Man betrachte die folgenden Matrizen
% &
α1
a) A =
20
% &
1
b) A =
α
% &
2 0 −2
c) A =
2 1 − α −2
Für welche α ∈ R ist AAT regulär? Man bestimme gegebenfalls die Inverse (AAT )−1 .

v Lösung % & % & % &


T α1 α2 α 2 + 1 2α
a) Wir berechnen zuerst die Matrix AA = · = . Wegen
20 10 2α 4
' '
5 6 ' α 2 + 1 2α '
T ' '
det AA = ' ' = 4α 2 + 4 − 4α 2 = 4 ̸= 0 ist AAT für alle α ∈ R regulär.
' 2α 4 '
Die Inverse ist:
% & % &
T −1 1 4 −2α 1 − α2
(AA ) = = 2 .
4 −2α α 2 + 1 − α2 α 4+1
% & % & ' '
1 ; < 1 α 5 6 '1 α '
T T ' '
b) Es gilt AA = · 1α = . Wegen det AA = ' ' = α2 − α2 = 0
α α α2 ' α α2 '
ist AAT für kein α ∈ R regulär.⎡ ⎤
% & 2 2 % &
2 0 −2 ⎢ 8 8 5 6
T ⎥
c) Aus AA = · ⎣ 0 1 − α⎦ = 2
folgt det AAT =
2 1 − α −2 8 8 + (α − 1)
−2 −2
' '
'8 '
' 8 '
' ' = 64+8(α−1)2 −64 = 8(α−1)2 . AAT ist genau dann invertierbar,
' 8 8 + (α − 1)2 '
5 6
wenn det AAT = 8(α − 1)2 ̸= 0 ⇒ α ̸= 1. Somit ist AAT für α ̸= 1 regulär. Die
Inverse lautet
% & ⎡ 8+(α−1)2 1

1 8 + (α − 1) 2 −8 −
2 2
(AAT )−1 = = ⎣ 8(α−1) (α−1) ⎦ .
8(α − 1)2 −8 8 1
− (α−1) 1
2 (α−1)2 "
3.4 • Inverse Matrix
189 3

Übung 3.41 ⎡ ⎤
1 −1 3
⎢ ⎥
••◦ Man untersuche A = ⎣1 1 2⎦ auf Invertierbarkeit und man berechne die Inverse
2 0 7
mittels der Kofaktormatrix.

v Lösung
Wegen det(A) = 4 ̸= 0 ist A invertierbar. Die Inverse lautet (Satz (3.8)):
⎡ ' ' ' ' ' ' ⎤T
'1 2' '1 2' '1 1'
' ' ' ' ' '
⎢ ' ' −' ' ' ' ⎥
⎢ '0 7'
' ' 2 7'
' ' '2 0' ⎥ ⎡ ⎤T
⎢ ' ' '⎥ 7 −3 −2
1 ⎢ ⎢ '
'−1 3' '1 3'
' ' '
'1 −1'⎥
' '⎥ 1 ⎢ ⎥
A−1 = ⎢− ' ' ' ' −' '⎥ = ⎣ 7 1 −2⎦
det(A) ⎢ ' 0 7' '2 7' '2 0 '⎥ 4
⎢ ' ' ' ' ' ' ⎥ −5 1 2
⎢ '−1 3' '1 3' '1 −1' ⎥
⎣ ' ' ' ' ' ' ⎦
' ' −' ' ' '
' 1 2' '1 2' '1 1 '
⎡ ⎤ ⎡ ⎤
7 7
7 7 −5 −5
1⎢ ⎥ ⎢ 43 14 14 ⎥
= ⎣−3 1 1 ⎦ = ⎣− 4 4 4 ⎦ .
4
−2 −2 2 − 12 − 21 12 "

Praxistipp

Bei der Berechnung der Kofaktormatrix in Übung 3.41 liefert das bereits bekannte
Schema eine einfache Regel, um sich das Vorzeichen der verschiedenen Einträgen zu
merken:
⎡ ⎤
+ − + ···
⎢− + − · · ·⎥
⎢ ⎥
⎢ ⎥
⎢+ − + · · ·⎥ .
⎣ ⎦
.. .. .. ..
. . . .

Übung 3.42
⎡ ⎤
1 −1 0 0
⎢1
⎢ 1 0 0⎥⎥
• • ◦ Man invertiere A = ⎢ ⎥.
⎣0 0 3 1⎦
0 0 0 1
190 Kapitel 3 • Determinanten

v Lösung
A ist eine Blockdiagonalmatrix
⎡ ⎤
1 −1 0 0
⎢1 1 0 0⎥
⎢ ⎥
A=⎢ ⎥.
⎣0 0 3 1⎦
0 0 0 1

Daher berechnen wir einfach die Inverse jedes Blocks (vgl. Übung 1.28):
'( ) * ' ( ) *
1 −1 −1 0 1 1 1 0
A−1 = 1 1 ( 3 1 )−1 = 2 −1 1 (
1 1 −1
)
0 01
0 3 0 3

1 1

2 2 0 0
⎢ 1 1
⎢− 0 0 ⎥ ⎥
=⎢ 2 2 1 ⎥.
⎣ 0 0 3 − 13 ⎦
0 0 0 1 !

Übung 3.43 ⎤⎡
1 1 β
⎢ ⎥
• • ◦ Für welche α, β ∈ R ist A = ⎣1 α β 2 ⎦ invertierbar?
1 α2 β 3

v Lösung
Die Matrix A ist genau dann invertierbar, wenn ihre Determinante nicht verschwindet.
Wir rechnen somit die Determinante von A aus
+ + + + + +
+1 1 β + +1 1 1 + +1 1 1 ++
+ + + + +
+ + + + Z −Z ,Z −Z + +
det(A) = +1 α β 2 + = β +1 α β + 2 1= 3 1 β +0 α − 1 β − 1 +
+ + + + + +
+1 α 2 β 3 + +1 α 2 β 2 + +0 α 2 − 1 β 2 − 1+
+ +
+α−1 β −1+ ( )
+ +
=β+ 2 2
+ = β (α − 1)(β 2 − 1) − (α 2 − 1)(β − 1)
+α − 1 β − 1+
( )
= β (α − 1)(β − 1)(β + 1) − (α − 1)(α + 1)(β − 1) = β(α − 1)(β − 1)(β − α).

Damit die Determinante von A ungleich Null ist, muss β ̸= 0, α ̸= 1, β ̸= 1 und α ̸= β


gelten. Nur in diesem Fall ist A invertierbar und die Inverse A−1 ist gegeben durch:
3.4 • Inverse Matrix
191 3
⎡ + + + + + + ⎤
+ α β2+ +1 β 2 + +1 α + T
+ + + + + +
⎢ + 2 3+ − + 3+ + 2+ ⎥
⎢ +α β + +1 β + +1 α + ⎥
⎢ + ++ + + +⎥
1 ⎢ +
⎢ +1 β+ +
+
+1 β +
+
+1 1 +⎥
+ +⎥
A−1 = ⎢− + 2 3 + + 3 + − + 2 +⎥
det A ⎢ +α β + +1 β + +1 α +⎥
⎢ + + + + + + ⎥
⎢ +1 β + +1 β + +1 1 + ⎥
⎣ + + + + + + ⎦
+ +− + 2+ + +
+α β 2 + +1 β + +1 α +
⎡ ⎤
αβ 2 (β − α) β(α 2 − β 2 ) β(β − α)
1 ⎢ 2 ⎥
= ⎣ β (1 − β) β(β 2 − 1) β(1 − β) ⎦ .
β(α − 1)(β − 1)(β − α)
α(α − 1) 1 − α2 α−1 !

Übung 3.44
• • ◦ Man leite die Formel für die Inverse einer (2 × 2)-Matrix her (Satz 3.7).

v Lösung
( a12 )
Es sei A = aa11 21 a22
mit det(A) = a11 a22 − a21 a12 ̸= 0. Gesucht ist eine Matrix X =
( x11 x12 )
x21 x22 , für welche Folgendes gilt:

AX = E.

Wir schreiben die Matrixmultiplikation explizit auf


' *' * ' * ' *
a11 a12 x11 x12 a11 x11 + a12 x21 a11 x12 + a12 x22 ! 1 0
= = .
a21 a22 x21 x22 a21 x11 + a22 x21 a21 x12 + a22 x22 01

Der Koeffizientenvergleich liefert die folgenden 4 Gleichungen mit 4 Unbekannten


x11 , x12 , x21 , x22 :
⎧ ⎧
⎨a x + a x = 1 ⎨a x + a x = 0
11 11 12 21 11 12 12 22
und
⎩a x + a x = 0 ⎩a x + a x = 1
21 11 22 21 21 12 22 22

Das erste LGS hat die 2 Unbekannten x11 , x21 ; das zweite LGS hat die Unbekannten
x12 , x22 . Diese LGS lösen wir mit den Methoden aus 7 Kap. 2.
5 Für das erste LGS wenden wir den Gauß-Algorithmus in einem Schritt an:
' * ' *
a11 a12 1 a11 (Z2 ) − a21 (Z1 ) a11 a12 1
" .
a21 a22 0 0 a11 a22 − a21 a12 −a21

Die Zielmatrix ist in Dreiecksform und wir können die Lösung durch Rückwärts-
auflösen herauslesen. Insbesondere, für a11 a22 − a21 a12 ̸= 0 finden wir
⎧ ⎧
⎨a x + a x = 1 ⎨x = 1−a12 x21
= a11 a22a−a
22
11 11 12 21 11 a11 21 a12

⎩(a a − a a )x = −a
11 22 21 12 21 21
⎩x
21 = − a11 a22a−a
21
a
21 12
192 Kapitel 3 • Determinanten

Beachte, dass a11 a22 − a21 a12 ̸= 0 gelten muss, damit das obige LGS eine Lösung
hat. Dies entspricht genau der Bedingung det(A) ̸= 0.
5 Für das zweite LGS gehen wir analog vor:
' * ' *
a11 a12 0 a11 (Z2 ) − a21 (Z1 ) a11 a12 1
" .
a21 a22 1 0 a11 a22 − a21 a12 a11

Die Zielmatrix ist in Dreiecksform und wir können die Lösung durch Rückwärts-
auflösen herauslesen. Insbesondere, für a11 a22 − a21 a12 ̸= 0 finden wir
⎧ ⎧
⎨a x + a x = 0 ⎨x = −a12 x22
= − a11 a22a−a
12
11 12 12 22 12 a11 21 a12

⎩(a a − a a )x = a ⎩x a11
11 22 21 12 22 11 22 = a11 a22 −a21 a12

Die gesuchte inverse Matrix lautet somit:


' * ' *
a22
−1 a11 a22 −a21 a12 − a11 a22a−a
12
21 a12
1 a22 −a12
A =X= = ,
− a11 a22a−a
21
21 a12
a11
a11 a22 −a21 a12
det(A) −a21 a11

was die bekannte Formel für (2 × 2)-Matrizen ist! !

Übung 3.45 ' *


34
• • ◦ Man betrachte die folgende (2 × 2)-Matrix A = .
13
a) Ist A in R2×2 invertierbar?
b) Ist A in Z2×2
5 invertierbar?

v Lösung ' *
34
a) Die gegebene Matrix ist auf R2×2 invertierbar, weil det(A) = det = 9−4 =
13
5 ̸= 0. Die Inverse lautet:
' * ' * ' *
3
−1 1 a22 −a12 1 3 −4 5 − 45
A = = = .
det(A) −a21 a11 5 −1 3 − 15 35

b) In K = Z5 ist 5 = 0. Daher ist det(A) = 5 = 0. Die Matrix A ist somit singulär in


Z2×2
5 . !

Übung 3.46 ⎡ ⎤
120
⎢ ⎥
• • ◦ Man berechne die Inverse von A = ⎣0 2 4⎦ über a) Z5 und b) Z2 .
003
3.4 • Inverse Matrix
193 3
v Lösung + +
+1 2 0+
+ +
+ +
Es gilt det(A) = +0 2 4+ = 6.
+ +
+0 0 3+
a) In Z5 ist 6 = 1. Daher ist det(A) = 6 = 1 ̸= 0, d. h. A ist invertierbar über Z5 . Die
Inverse lautet:
⎡ + + + + + + ⎤T
+2 4+ +0 4+ +0 2+
+ + + + + +
⎢ + + −+ + + + ⎥
⎢ +0 3+
⎢ + + + 0 3+
+ + +0 0+ ⎥ ⎡ ⎤T
+ +⎥ 6 0 0
⎢ + +
1 ⎢ +2 0+ +1 0++ + + + ⎥
+1 2+⎥ ⎢ ⎥
A−1 = ⎢− + + + + − + +⎥ = ⎣−6 3 0⎦
det A ⎢ +0 3+ +0 3+ +0 0+⎥
⎢ + + + + + + ⎥ 8 −4 2
⎢ +2 0+ +1 0+ +1 2+ ⎥
⎣ + + + + + + ⎦
+ + − + + + +
+2 4+ +0 4+ +0 2+
⎡ ⎤ ⎡ ⎤
6 −6 8 143
⎢ ⎥ ⎢ ⎥
= ⎣0 3 −4⎦ = ⎣0 3 1⎦ .
0 0 2 002
(Beachte: In Z5 gilt 6 = 1, −6 = 4, 8 = 3, −4 = 1). Kontrolle:
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
143 120 1 10 25 100
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0 3 1⎦ ⎣0 2 4⎦ = ⎣0 6 15⎦ = ⎣0 1 0⎦ .
002 003 0 0 6 001
(Beachte: In Z5 gilt 6 = 1, 10 = 15 = 25 = 0).
b) In Z2 ist 6 = 0. Daher ist det(A) = 6 = 0 und A ist über Z2 nichtinvertierbar
(singulär). !

Übung 3.47 / 0
0 12 12
• • ◦ Es sei K = Zp und n ∈ N \ {0}. Man zeige, dass die Matrix A = −1 n −1 genau
−1 1 n
dann invertierbar ist, wenn n nicht durch p teilbar ist.

v Lösung + + + +
+1 1+ +1 1 +
+2 2+ +2 2 + n 1 1 n
Es gilt det(A) = + +−+ + = − + + = n. A ist genau dann invertierbar, wenn
+ 1 n + + n −1+ 2 2 2 2
det(A) ̸= 0 gilt. In Zp gilt n = 0 nur dann, wenn n durch p teilbar ist (d. h. n = 0 mod p).
Daher ist A genau dann invertierbar, wenn n nicht durch p teilbar ist. !
194 Kapitel 3 • Determinanten

3.5 Cramer’sche Regel

Eine weitere Anwendung der Determinante ist die sogenannte Cramer’sche Regel:

# Satz 3.9 (Cramer’sche Regel)


Es sei Ax = b ein LGS mit n Gleichungen und n Unbekannten, wobei A ∈ Kn×n und b ∈ Kn .
Gilt det(A) ̸= 0, so besitzt das LGS eine eindeutige Lösung

det(Ai )
xi = , i = 1, · · · , n (3.23)
det(A)

Ai ist die Matrix, welche man erhält, wenn man die i-te Spalte von A durch den Lösungs-
⎡ b (rechte Seite des LGS)
vektor ⎤ ersetzt:⎡ ⎤
a11 · · · a1i · · · a1n a11 · · · b1 · · · a1n
⎢ a ··· a ··· a ⎥ ⎢ a ··· b ··· a ⎥
⎢ 21 2i 2n ⎥ ⎢ 21 2 2n ⎥
A=⎢ ⎢ . . . . ⎥ ⇒ Ai = ⎢ .
⎥ ⎢ . .. .. ⎥
⎥. $
⎣ . .
. .
. ⎦ ⎣ . . . ⎦
an1 · · · ani · · · ann an1 · · · bn · · · ann

Musterbeispiel 3.4 (LGS mit Cramer’schen Regel lösen)

Als Beispiel lösen wir das folgende LGS mit der Cramer’schen Regel:
1
2x1 + 12 x2 = 0
x1 − x2 = 1
/ 1 0 / 0
2 2 0
Die Matrixdarstellung des LGS ist Ax = b, wobei A = ,b= . Wegen det(A) =
1 −1 1
/ 1 0
2 2
det = 2·(−1)−1· 12 = − 52 ̸= 0 hat das LGS genau eine Lösung. Mit der Cramer’schen
1 −1
Regel finden wir
+ + + +
+0 1 + +2 0+
+ 2 + + +
det(A1 ) + 1 −1 + 1 det(A2 ) + 1 1+ 4
x1 = = = , x2 = = =− .
det(A) − 52 5 det(A) − 52 5
2/ 1
03
Die Lösung lautet somit L = 5 .
− 45

Übung 3.48
• ◦ ◦ Für welche α ∈ R besitzt das folgende LGS eine eindeutige Lösung?

⎨2x + x = α
1 2
⎩2x + 3x = 2 + α
1 2
3.5 • Cramer’sche Regel
195 3
v Lösung * ' '
*
21 α
Die Matrixdarstellung des LGS ist Ax = b, wobei A = ,b= . Wegen
23 2+α
+ +
+2 1+
+ +
det(A) = + + = 2 · 3 − 2 · 1 = 4 ̸= 0 besitzt das LGS eine eindeutige Lösung für alle
+2 3+
α ∈ R. Nach der Cramer’schen Regel ist
+ + + +
+ α 1+ +2 α +
+ + + +
+ + + +
det(A1 ) +2 + α 3+ α−1 det(A2 ) +2 2 + α+
x1 = = = , x2 = = = 1.
det(A) 4 2 det(A) 4
1' *4
α−1
Die Lösung lautet somit L = 2 . !
1

Übung 3.49
• ◦ ◦ Man löse das folgende LGS mit der Cramer’schen Regel:


⎨x1 − x2 + x3 = 6

2x1 + x2 − x3 = −3



x1 − x2 − x3 = 0

v Lösung / 0
1 −1 1 6 6
7
Die Matrixdarstellung des LGS ist Ax = b, wobei A = 2 1 −1 ,b= −3 . Wegen
1 −1 −1 0
det(A) = −6 ̸= 0 hat das LGS eine eindeutige Lösung. Nach der Cramer’schen Regel
ist
+ + + +
+ 6 −1 1 + +1 6 1 +
+ + + +
+ + + +
+−3 1 −1+ +2 −3 −1+
+ + + +
+ 0 −1 −1+ −6 +1 0 −1+ 12
x1 = = = 1, x2 = = = −2,
det(A) −6 det(A) −6
+ +
+1 −1 6 +
+ +
+ +
+2 1 −3+
+ +
+1 −1 0 + −18
x3 = = = 3.
det(A) −6
⎧⎡ ⎤⎫
⎨ 1 ⎪
⎪ ⎬
⎢ ⎥
Die Lösung lautet somit L = ⎣−2⎦ . !

⎩ ⎪

3
196 Kapitel 3 • Determinanten

Übung 3.50
• ◦ ◦ Man löse das folgende LGS mit der Cramer’schen Regel:


⎨x1 + x2 + x3 = 13

x1 + 2x2 + x3 = 19



2x2 + x3 = 15

v Lösung 61 1 17 6 13 7
Das LGS hat die Matrixdarstellung Ax = b mit A = 121 ,b = 19 . Wegen
021 15
det(A) = 1 ̸= 0 hat das LGS genau eine Lösung. Nach der Cramer’schen Regel finden
wir
+ + + + + +
+13 1 1+ +1 13 1+ +1 1 13+
+ + + + + +
+ + + + + +
+19 2 1+ +1 19 1+ +1 2 19+
+ + + + + +
+15 2 1+ +0 15 1+ +0 2 15+
x1 = = 4, x2 = = 6, x3 = = 3.
det(A) det(A) det(A)
⎧⎡ ⎤⎫
⎨ 4 ⎪
⎪ ⎬
⎢ ⎥
Die Lösung lautet somit L = ⎣6⎦ . !

⎩ ⎪

3

Übung 3.51
• ◦ ◦ Man löse das folgende LGS mit der Cramer’schen Regel:


⎨3x1 + 2x2 − x3 = 2

x1 + x3 = 2



x1 − x2 + 2x3 = 3

v Lösung
Die Matrixdarstellung des LGS ist Ax = b, wobei
⎡ ⎤ ⎡ ⎤
3 2 −1 2
⎢ ⎥ ⎢ ⎥
A = ⎣1 0 1 ⎦ , b = ⎣2⎦ .
1 −1 2 3
+ +
+3 2 −1+
+ +
+ +
Wegen det(A) = +1 0 1 + = 2 ̸= 0 wenden wir die Cramer’sche Regel an und finden
+ +
+1 −1 2 +
3.5 • Cramer’sche Regel
197 3
+ + + + + +
+2 2 −1+ +3 2 −1+ +3 2 2+
+ + + + + +
+ + + + + +
+2 0 1 + +1 2 1 + +1 0 2+
+ + + + + +
+3 −1 2 + 2 +1 3 2 + 0 +1 −1 3+ 2
x1 = = = 1, x2 = = = 0, x3 = = =1
det(A) 2 det(A) 2 det(A) 2
⎧⎡ ⎤⎫
⎨ 1 ⎪
⎪ ⎬
⎢ ⎥
Die Lösung lautet somit L = ⎣0⎦ . !

⎩ ⎪

1

Übung 3.52
• • ◦ Man beweise die Cramer’sche Regel für ein LGS mit 2 Gleichungen und 2
Unbekannten.

v Lösung
Die Cramer’sche Regel folgt direkt
( a11 a12 ) 6 aus7 der Formel für die inverse Matrix. Sei Ax = b,
b1
ein LGS mit A = a21 a22 , b = b . Gilt det(A) ̸= 0, so ist A invertierbar und die
2
Lösung des obigen LGS ist einfach durch

Ax = b ⇒ x = A−1 b

gegeben. Mit der Formel für die Inverse A−1 (Satz 3.7) finden wir somit
' *' * ' *
−1 1 a22 −a12 b1 1 b1 a22 − b2 a12
x=A b= =
det(A) −a21 a11 b2 det(A) a11 b1 − a21 b2
⎡ ' *⎤
b1 a12
⎢det ⎥ ' det(A1 ) *
1 ⎢ ⎢ '
b2 a22 ⎥
* ⎥ = det(A) .
=
det(A) ⎢
⎣ a11 b1 ⎥ ⎦
det(A2 )
det(A)
det
a21 b2 !

Übung 3.53
• • ◦ Man löse das folgende LGS auf K = Z5

⎨4x + x = 58 (mod 5)
1 2
⎩2x + x = 1231 (mod 5)
1 2

v Lösung
Wir führen alle Rechnungen in Z5 durch. In Z5 gilt 58 = 3 und 1231 = 1. Wir müssen
somit
198 Kapitel 3 • Determinanten


⎨4x + x = 3
1 2
⎩2x + x = 1
1 2

lösen. Dazu wenden wir die Cramer’schen Regel an (vgl. Satz 3.9). Es gilt:
' *
41 1
A= ⇒ det(A) = 4 − 2 = 2 ⇒ = 2−1 = 3.
21 det(A)

Dass 2−1 = 3 sieht man wie folgt: In Z5 gilt 2 · 3 = 6 = 1 ⇒ 2−1 = 3. Daraus folgt:
' *
det(A1 ) 31
x1 = = 3 · det =3·2=6=1
det(A) 11
' *
det(A2 ) 43
x2 = = 3 · det = 3 · (−2) = 3 · 3 = 9 = 4.
det(A) 21

Die gesuchte Lösung des LGS ist somit


1' * +' * ' *4
+ x
x1 + 1 1
L= ∈ Z25 + = .
x2 + x2 4

Probe: 4 · 1 + 4 = 8 = 3 und 2 · 1 + 4 = 6 = 1 %. !

Übung 3.54
• • • In diesem Beispiel diskutieren wir eine Anwendung der Vandermonde-
Determinante (vgl. Übung 3.32). Man zeige: Sind n Stützstellen (xi , yi ) für i = 1, · · · , n
gegeben mit xi ̸= xj , so gibt es genau ein Polynom p(x) = a0 + a1 x + · · · + an−1 xn−1
mit p(xi ) = yi für i = 1, · · · , n.

v Lösung
Die Bedingungen p(x1 ) = y1 , p(x2 ) = y2 , · · · lauten:

!
p(x1 ) = a0 + a1 x1 + a2 x21 + · · · + an−1 xn−1
1 = y1
!
p(x1 ) = a0 + a1 x2 + a2 x22 + · · · + an−1 xn−1
2 = y2
..
.
!
p(xn ) = a0 + a1 xn + a2 x2n + · · · + an−1 xn−1
n = yn

Wir erhalten ein LGS für a0 , a1 , · · · , an−1


3.5 • Cramer’sche Regel
199 3
⎡ ⎤
⎡ ⎤ a0 ⎡ ⎤
1 x1 x21 · · · xn−1
1 ⎢ ⎥ y1
⎢1 2 ⎥
n−1 ⎢ ⎢ a 1 ⎥ ⎢ ⎥
⎢ x2 x2 · · · x2 ⎥ ⎢ ⎥ ⎢y2 ⎥
⎢. ⎥ a ⎥
⎢. .. .. . . . ⎥⎢ 2 ⎥ ⎢
= .⎥
⎣. . .. ⎦ ⎢ ⎥ ⎢ .⎥
. . ⎢ . ⎥ ⎣.⎦
.
⎣ . ⎦
1 xn x2n · · · xn−1
n yn
; <= > an−1
=A

Das obige LGS hat genau dann eine eindeutige Lösung, wenn det(A) ̸= 0. Wir
erkennen, dass det(A) die Vandermonde-Determinante ist (vgl. Übung 3.32):
⎡ ⎤
1 x1 x21 · · · xn−1
1
⎢1 x2 x22 · · · xn−1 ⎥ ?
⎢ 2 ⎥
det(A) = det ⎢
⎢ .. .. .. .. . ⎥=
⎥ (xj − xi ).
⎣. . . . .. ⎦ i<j
1 xn x2n · · · xn−1
n

Wegen xi ̸= xj (Voraussetzung) ist det(A) ̸= 0. Somit ist das obige LGS eindeutig
lösbar d. h., es gibt genau ein Polynom p(x) = a0 + a1 x + · · · + an−1 xn−1 mit
p(xi ) = yi . !

3.5.1 Homogene LGS

Ein homogenes LGS Ax = 0 mit A ∈ Kn×n besitzt immer eine Lösung: die triviale
Lösung x = 0. In 7 Abschn. 2.3.4 haben wir gelernt, dass solche homogene LGS
genau dann eine nichttriviale Lösung besitzen, wenn Rang(A) < n gilt, d. h. wenn
A nichtinvertierbar ist. Dieses Kriterium können wir nun in einer äquivalenter Form
mithilfe der Determinante formulieren:

# Satz 3.10 (Determinantenkriterium für homogene LGS)


Sei Ax = 0 ein homogenes LGS mit n Gleichungen und n Unbekannten. Dann gilt:

Ax = 0 hat eine nichttriviale Lösung x ̸= 0 ⇔ det(A) = 0

i Merkregel
Ein quadratisches homogenes LGS Ax = 0 hat genau dann eine nichttriviale Lösung
x ̸= 0, wenn det(A) = 0 gilt (d. h. wenn A nichtinvertierbar ist). Dies ist ein
sehr wichtiges Resultat, das wir mehrmals anwenden werden (z. B. bei Eigenwerten,
vgl. 7 Kap. 9).

> Bemerkung
Vergleiche Satz 3.10 mit Satz 2.4.
200 Kapitel 3 • Determinanten

Übung 3.55
• ◦ ◦ Für welche Werte von α ∈ R besitzt das folgende homogene LGS eine nichttriviale
Lösung?


⎨αx1 − x2 + x3 = 0

x1 + αx2 − x3 = 0



2x1 + x2 = 0

v Lösung
Die Matrixdarstellung des LGS ist Ax = 0, wobei
⎡ ⎤
α −1 1
⎢ ⎥
A = ⎣ 1 α −1⎦ ⇒ det(A) = 3 − α.
2 1 0

Damit das LGS eine nichttriviale Lösung besitzt, muss det(A) = 0 sein. Daraus folgt
α = 3. !

Übung 3.56
• ◦ ◦ Für welche Werte von α, β ∈ R besitzt das folgende homogene LGS eine
nichttriviale Lösung?


⎨3x1 + 4x3 = 0

2αx2 + 2βx3 = 0



3x1 + αx2 + 4x3 = 0

v Lösung
Die Matrixdarstellung des LGS ist Ax = 0, wobei
⎡ ⎤
3 0 4
⎢ ⎥
A = ⎣0 2α 2β ⎦ ⇒ det(A) = −6αβ.
3 α 4

Damit das LGS eine nichttriviale Lösung besitzt, muss det(A) = 0 sein. Daraus folgt
5 α = 0 und β = 0, oder
5 α = 0 und β ̸= 0, oder
5 α ̸= 0 und β = 0. !
201 4

LR-Zerlegung
Inhaltsverzeichnis

4.1 LR-Zerlegung ohne Zeilenvertauschung – 202


4.1.1 Definition – 202
4.1.2 Bestimmung der LR-Zerlegung (praktisch) – 203
4.1.3 Existenz und Eindeutigkeit der LR-Zerlegung – 211
4.1.4 Lösung von LGS durch LR-Zerlegung – 217

4.2 LR-Zerlegung mit Zeilenvertauschung –


Pivotstrategie – 222
4.2.1 Permutationsmatrizen – 222
4.2.2 Eigenschaften von Permutationsmatrizen – 223
4.2.3 Gauß-Algorithmus mit Pivotstrategie – 225
4.2.4 LR-Zerlegung mit Zeilenvertauschung – 226
4.2.5 Lösung von LGS – 231

4.3 Zeilenvertauschung: ja oder nein? – 234


4.3.1 Numerische Stabilität – 235

4.4 Komplexität der LR-Zerlegung – 238

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_4
202 Kapitel 4 • LR-Zerlegung

Ein zentrales Thema der linearen Algebra ist die Entwicklung effizienter Methoden
zur Lösung von LGS, welche in verschiedenen Bereichen der Naturwissenschaften
oder der Technologie vorkommen. In diesem Kapitel studieren wir eine solche
Methode: die LR-Zerlegung. Wie wir in diesem Kapitel erfahren werden, ist die
LR-Zerlegung grundsätzlich eine Variante des Gauß-Algorithmus (welcher wir im
7 Kap. 2 studiert haben). Die LR-Zerlegung erlaubt alle nötigen Zeilenoperationen
beim Gauß-Algorithmus geschickt zu speichern.
Wir werden zuerst eine einfache Variante der LR-Zerlegung diskutieren: die LR-
Zerlegung ohne Zeilenverstauschung oder einfach LR-Zerlegung (7 Abschn. 4.1).
Wir werden uns dann mit der LR-Zerlegung mit Zeilenvertauschung beschäftigen
(7 Abschn. 4.2.4), welche eine etwas kompliziertere Variante der einfachen LR-
Zerlegung ist. Diese Variante führt aber zu einer erhörten numerischen Genauigkeit
(7 Abschn. 4.3).

n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 4 sind Sie in der Lage:
5 den Sinn einer LR-Zerlegung sowie deren Existenz und Eindeutigkeit zu erklären,
5 die Lösungen eines LGS durch LR-Zerlegung zu bestimmen,
5 LR-Zerlegung mittels Gauß-Algorithmus durchzuführen,
5 LR-Zerlegung mit Zeilenvertauschung und Permutationsmatrix zu berechnen,
5 die Komplexität und numerische Stabilität der LR-Zerlegung zu erkennen und zu
diskutieren,
5 Manipulationen mit Permutationsmatrizen durchzuführen.

4.1 LR-Zerlegung ohne Zeilenvertauschung

4.1.1 Definition
# Definition 4.1
Eine (n × n)-Matrix A besitzt eine LR-Zerlegung (auch LU-Zerlegung gennant, aus der
englischen Literatur LU-decomposition für LowerUpper-Zerlegung), wenn man A wie
folgt schreiben (zerlegen) kann:

A = LR (4.1)

In dieser Zerlegung, ist L eine normierte (n × n)-untere Dreiecksmatrix (oder Linksdreiecks-


matrix), während R eine (n × n)-obere Dreiecksmatrix (oder Rechtsdreiecksmatrix) ist:
⎡ ⎤ ⎡ ⎤
1 0 ··· 0 ⋆ ⋆ ··· ⋆
⎢ ⎥
⎢⋆ 1 . . . ... ⎥ ⎢0 ⋆ · · · ⋆⎥
⎢ ⎥
⎢ ⎥ ⎢. ⎥
L= ⎢ ⎥ , R= ⎢ . . . . . .. ⎥ . (4.2)
⎢ .. . . . . ⎥ ⎣. . . .⎦
⎣ . . . 0⎦
⋆ ··· ⋆ 1 0 ··· 0 ⋆
; <= > ; <= >
normierte untere obere Dreiecksmatrix
Dreiecksmatrix

Eine normierte Dreiecksmatrix hat nur Einsen auf der Hauptdiagonalen. $


4.1 • LR-Zerlegung ohne Zeilenvertauschung
203 4
> Bemerkung
Der Einfachheit halber beschäftigen wir uns hier nur mit quadratischen Matrizen, aber
bemerken, dass die LR-Zerlegung prinzipiell auch mit (m × n)-Matrizen durchgeführt
werden kann (vgl. Übungen 4.6 und 4.7).

> Bemerkung
Beachte auch, dass, in der englischen Literatur untere und obere Dreiecksmatrizen
beziehungsweise lower und upper triangular matrices genannt werden. Daher werden die
Buchstaben L (für lower) und U (für upper) verwendet, im Unterschied zur deutschen
Literatur, wo die Buchstaben L (für links) und R (für rechts) benutzt werden.

4.1.2 Bestimmung der LR-Zerlegung (praktisch)

Wie kann man die Matrizen L und R der LR-Zerlegung (Gl. (4.1)) einer vorgegebenen
Matrix A bestimmen? Der Gauß-Algorithmus liefert sie ganz automatisch. Wir
wollen jetzt diese Prozedur an einem einfachen Beispiel praktisch einführen.1

Musterbeispiel 4.1 (LR-Zerlegung)

Gesucht ist die LR-Zerlegung der folgenden Matrix:


⎡ ⎤
2 6 2
⎢ ⎥
A = ⎣−3 −8 0⎦ .
4 9 2

Wir beginnen mit der folgenden erweiterten Matrix


⎡ ⎤
100 2 6 2
⎢ ⎥
[E|A] = ⎣ 0 1 0 −3 −8 0 ⎦ .
001 4 9 2

Dann führen wir den Gauß-Algorithmus auf die rechte Matrix durch und speichern die
nötigen Zeilenoperationen in den Einträgen der linken Matrix unter der Diagonalen.
Die Matrizen L und R werden dann direkt im Endschema [L|R] abgelesen.
Der erste Schritt beim Gauß-Algorithmus besteht in diesem Fall darin, die erste
Zeile mit (−3/2) zu multiplizieren und sie dann von der zweiten Gleichung zu subtra-
hieren. Daher verschwindet der erste Eintrag der rechten Matrix aus der zweiten Zeile.
Die Zahl (−3/2) wird entsprechend in der linken Matrix an der Stelle (2, 1) eingetragen:

⎡ ⎤ @ A ⎡ ⎤
1 0 0 2 6 2 (Z2 )− − 32 (Z1 ) 1 0 0 2 6 2
⎢ ⎥ ⎢ ⎥
⎣ 0 1 0 −3 −8 0 ⎦ " ⎣ − 32 1 0 0 1 3 ⎦.
0 0 1 4 9 2 0 0 1 4 9 2

1 Nicht für jede Matrix A existiert eine LR-Zerlegung (7 vgl. Abschn. 4.1.3).
204 Kapitel 4 • LR-Zerlegung

Im nächsten Schritt, multiplizieren wir die erste Zeile mit 2 und subtrahieren sie dann
von der dritten Zeile. Die Zahl 2 wird entsprechend in der linken Matrix an der Stelle
(3, 1) eingetragen:
⎡ ⎤ ⎡ ⎤
1 0 0 2 6 2 1 0 0 2 6 2
⎢ 3 ⎥ (Z3 )− 2 (Z1 ) ⎢ 3 ⎥
⎣ −2 1 0 0 1 3 ⎦ " ⎣ −2 1 0 0 1 3 ⎦.
0 0 1 4 9 2 2 0 1 0 −3 −2

Als letztes Schritt, multiplizieren wir die zweite Zeile mit (−3) und subtrahieren sie von
der dritten Zeile. Die Zahl (−3) wird dann entsprechend in der linken Matrix an der
Stelle (3, 2) eingetragen:
⎡ ⎤ ⎡ ⎤
1 0 0 2 6 2 1 0 0 2 6 2
⎢ 3 ⎥ (Z3 )− (−3) (Z2 )
⎢ 3 ⎥
⎣ −2 1 0 0 1 3 ⎦ " ⎣ −2 1 0 0 1 3 ⎦.
2 0 1 0 −3 −2 2 −3 1 0 0 7

Somit ist die rechte Matrix in Zeilenstufenform. Der Gauß-Algorithmus ist abgeschlos-
sen. Die Matrizen L und R können wir direkt im Endschema ablesen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 2 6 2 1 0 0 2 6 2
⎢ 3 ⎥ ⎢ 3 ⎥ ⎢ ⎥
[L|R] = ⎣ − 2 1 0 0 1 3 ⎦ ⇒ L = ⎣− 2 1 0⎦ , R = ⎣0 1 3⎦ .
2 −3 1 0 0 7 2 −3 1 0 0 7

Man kann jetzt leicht durch direkte Matrixmultiplikation nachweisen, dass die so
gefundenen Matrizen L und R tatsächlich eine LR-Zerlegung der Ausgangsmatrix A
sind:
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 0 262 2 62
⎢ ⎥⎢ ⎥ ⎢ ⎥
LR = ⎣− 32 1 0⎦ ⎣0 1 3⎦ = ⎣−3 8 0⎦ = A %
2 −3 1 007 4 92

! Achtung
Beachte das Vorzeichen der Einträgen der Matrix L: Bei der Zeilenoperation (Zi ) −
α(Zj ) wird die Zahl α (nicht −α) an der Stelle (i, j) der Matrix L gespeichert.

LR-Zerlegung – allgemeines Vorgehen


Die Prozedur zur Berechnung der LR-Zerlegung einer Matrix, welche wir oben
anhand eines Beispiels illustriert haben, kann man mit folgendem Satz festhalten:

# Satz 4.1 (Bestimmung der LR-Zerlegung)


Falls der Gauß-Algorithmus angewandt auf A ∈ Kn×n ohne Zeilenvertauschungen
möglich ist, dann liefert dieser im Endschema eine untere Dreiecksmatrix L (mit Einsen
4.1 • LR-Zerlegung ohne Zeilenvertauschung
205 4
in der Hauptdiagonalen) und eine obere Dreiecksmatrix R, sodass LR = A gilt. Die
Matrix R ist die Zielmatrix am Ende des Gauß-Algorithmus. Die Matrix L speichert alle
beim Gauß-Algorithmus benötigten Zeilenoperationen. Dabei gilt: Wird die Zeilenoperation
(Zi ) − α(Zj ) durchgeführt, so wird die Zahl α entsprechend an der Stelle (i, j) in der Matrix
L eingetragen. $

Übung 4.1 ⎡ ⎤
1 2 4
⎢ ⎥
• ◦ ◦ Man bestimme die LR-Zerlegung von A = ⎣ 2 3 8 ⎦ .
−1 −3 −1

v Lösung
Das Ausgangsschema der Prozedur zur Bestimmung der LR-Zerlegung ist die erwei-
terte Matrix:
⎡ ⎤
1 0 0 1 2 4
⎢ ⎥
[E|A] = ⎣ 0 1 0 2 3 8 ⎦ .
0 0 1 −1 −3 −1

Dann wenden wir den Gauß-Algorithmus auf die rechte Matrix an und speichern
die nötigen Zeilenoperationen in den Einträgen der linken Matrix (links von der
Diagonalen):

⎡ ⎤ (Z2 ) − 2 (Z1 ) ⎡ ⎤
1 0 0 1 2 4 (Z3 ) − (−1) (Z1 )
1 0 0 1 2 4
⎢ ⎥ ⎢ ⎥
⎣0 1 0 2 3 8 ⎦ " ⎣ 2 1 0 0 −1 0 ⎦
0 0 1 −1 −3 −1 −1 0 1 0 −1 3
⎡ ⎤
1 0 0 1 2 4
(Z3 ) − 1 (Z2 ) ⎢ ⎥
" ⎣ 2 1 0 0 −1 0 ⎦ .
−1 1 1 0 0 3

Nun ist die rechte Matrix in Zeilenstufenform. Somit ist der Gauß-Algorithmus
beendet und wir können die LR-Zerlegung von A direkt aus dem Endschema ablesen:
⎡ ⎤ ⎡ ⎤
1 00 1 2 4
⎢ ⎥ ⎢ ⎥
L = ⎣ 2 1 0⎦ , R = ⎣0 −1 0⎦ .
−1 1 1 0 0 3

Probe:
⎡ ⎤⎡ ⎤
1 00 1 2 4
⎢ ⎥⎢ ⎥
LR = ⎣ 2 1 0⎦ ⎣0 −1 0⎦ = A % !
−1 1 1 0 0 3
206 Kapitel 4 • LR-Zerlegung

Übung 4.2 ⎡ ⎤
1 −2 4
⎢ ⎥
• ◦ ◦ Man bestimme die LR-Zerlegung von A = ⎣5 0 2⎦ .
3 −1 1

v Lösung ⎤⎡
1 0 0 1 −2 4
⎢ ⎥
Das Ausgangsschema ist [E|A] = ⎣ 0 1 0 5 0 2 ⎦ . Dann wenden wir den Gauß-
0 0 1 3 −1 1
Algorithmus auf die rechte Matrix an und speichern die nötigen Zeilenoperationen in
den Einträgen der linken Matrix:

⎡ ⎤ (Z2 ) − 5 (Z1 ) ⎡ ⎤
1 0 0 1 −2 4 1 0 0 1 −2 4 (Z ) − 1 (Z2 )
⎢ ⎥ (Z3 ) − 3 (Z1 ) ⎢ ⎥ 3 2
⎣0 1 0 5 0 2⎦ " ⎣ 5 1 0 0 10 −18 ⎦ "
0 0 1 3 −1 1 3 0 1 0 5 −11
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 1 −2 4 1 0 0 1 −2 4
⎢5 1 0 0 10 −18 ⎥ ⎢ ⎥ ⎢ ⎥
⎣ ⎦ ⇒ L = ⎣5 1 0⎦ , R = ⎣0 10 −18⎦ .
3 1
2 1 0 0 −2 3 12 1 0 0 −2

Der Leser kann selber kontrollieren, dass LR = A gilt. !

Übung 4.3
⎡ ⎤
1 1 1 1
⎢1
⎢ 2 3 4⎥⎥
• • ◦ Man bestimme die LR-Zerlegung von A = ⎢ ⎥.
⎣1 3 6 10⎦
1 4 10 20

v Lösung
Wir beginnen mit der erweiterten Matrix [E|A] und wenden den Gauß-Algorithmus in
drei Schritten an:

⎡ ⎤ (Z2 ) − 1 (Z1 ) ⎡ ⎤
1 0 0 0 1 1 1 1 (Z3 ) − 1 (Z1 ) 1 0 0 0 1 1 1 1 (Z3 ) − 2 (Z2 )
⎢0 4 ⎥ ⎢ 1 1 0 0 0 1 2 3 ⎥
⎢ 1 0 0 1 2 3 ⎥ (Z 4 ) − 1 (Z 1 ) ⎢ ⎥ (Z4 ) − 3 (Z2 )
[E|A] = ⎢ ⎥ " ⎢ ⎥ "
⎣0 0 1 0 1 3 6 10 ⎦ ⎣ 1 0 1 0 0 2 5 9 ⎦
0 0 0 1 1 4 10 20 1 0 0 1 0 3 919
⎡ ⎤ ⎡ ⎤
1 0 0 0 1 1 1 1 1 0 0 0 1 1 1 1
⎢1 1 0 0 0 1 2 3 ⎥ (Z ) − 3 (Z ) ⎢1 1 0 0 0 1 2 3⎥
⎢ ⎥ 4 3 ⎢ ⎥
⎢ ⎥ " ⎢ ⎥.
⎣1 2 1 0 0 0 1 3 ⎦ ⎣1 2 1 0 0 0 1 3⎦
1 3 0 1 0 0 3 10 1 3 3 1 0 0 0 1
4.1 • LR-Zerlegung ohne Zeilenvertauschung
207 4
Der Gauß-Algorithmus ist beendet. Nun können wir die LR-Zerlegung von A direkt
aus dem Endschema ablesen:
⎡ ⎤ ⎡ ⎤
1 0 0 0 1 1 1 1
⎢1 0⎥ ⎢0
⎢ 1 0 ⎥ ⎢ 1 2 3⎥⎥
L=⎢ ⎥, R=⎢ ⎥.
⎣1 2 1 0⎦ ⎣0 0 1 3⎦
1 3 3 1 0 0 0 1

Die Kontrolle liefert LR = A. !

Übung 4.4
⎡ ⎤
−2 4 6 0
⎢0 3 1
⎢ 1⎥⎥
• • ◦ Man bestimme die LR-Zerlegung von A = ⎢ ⎥.
⎣ 2 −10 −7 −1⎦
1 −8 −4 2

v Lösung
Wir beginnen mit dem Ausgangsschema [E|A] und wenden den Gauß-Algorithmus in
drei Schritten an:

⎡ ⎤ (Z3 ) − (−1) (Z1 )


⎡ ⎤
1 0 0 0 −2 4 6 0 1 0 0 0 −2 4 6 0
⎢0 (Z4 ) − (− 1 ) (Z1 ) ⎢ ⎥
⎢ 1 0 0 0 3 1 1 ⎥
⎥ 2 ⎢

0 100 0 3 1 1 ⎥

[E|A] = ⎢ ⎥ " ⎢
⎣0 0 1 0 2 −10 −7 −1 ⎦ ⎣ −1 0 1 0 0 −6 −1 −1 ⎥⎦
0 0 0 1 1 −8 −4 2 − 12 0 0 1 0 −6 −1 2

⎡ ⎤
(Z3 ) − (−2) (Z2 ) 1 0 0 0 −2 4 6 0
(Z4 ) − (−2) (Z2 ) ⎢ 0 1 0 0 0 3 1 1⎥
⎢ ⎥
" ⎢ ⎥
⎣ −1 −2 1 0 0 0 1 1 ⎦
− 12 −2 0 1 0 0 1 4
⎡ ⎤
1 0 0 0 −2 4 6 0
(Z4 ) − 1 (Z3 ) ⎢ 0 1 0 0 0 3 1 1⎥
⎢ ⎥
" ⎢ ⎥.
⎣ −1 −2 1 0 0 0 1 1 ⎦
− 12 −2 1 1 0 0 0 3

Da die rechte Matrix in Zeilenstufenform ist, ist der Gauß-Algorithmus beendet und
wir können die LR-Zerlegung von A direkt aus dem Endschema ablesen:
⎡ ⎤ ⎡ ⎤
1 0 0 0 −2 4 6 0
⎢ 0 ⎥ ⎢0 1⎥
⎢ 1 0 0⎥ ⎢ 3 1 ⎥
L=⎢ ⎥, R=⎢ ⎥.
⎣ −1 −2 1 0⎦ ⎣0 0 1 1⎦
− 21 −2 1 1 0 0 0 3

Die Kontrolle liefert LR = A. !


208 Kapitel 4 • LR-Zerlegung

Übung 4.5
⎡ ⎤
1 1 2 3
⎢3
⎢ −1 −1 −2⎥

• • ◦ Man berechne die Determinante von A = ⎢ ⎥ mittels der LR-
⎣2 3 −1 −1⎦
1 2 4 −1
Zerlegung.

v Lösung
Zu Beginn betrachten wir das Ausgangsschema [E|A] und wenden den Gauß-
Algorithmus in drei Schritten an:

(Z2 ) − 3 (Z1 )
⎡ ⎤ ⎡ ⎤
10001 1 2 3 (Z3 ) − 2 (Z1 ) 1 0001 1 2 3
⎢ 0 1 0 0 3 −1 −1 −2 ⎥ (Z4 ) − 1 (Z1 ) ⎢ 3 1 0 0 0 −4 −7 −11 ⎥
⎢ ⎥ ⎢ ⎥
[E|A] = ⎢ ⎥ " ⎢ ⎥
⎣ 0 0 1 0 2 3 −1 −1 ⎦ ⎣ 2 0 1 0 0 1 −5 −7 ⎦
00011 2 4 −1 1 0010 1 2 −4

(Z3 ) − (− 1 ) (Z2 ) ⎡ ⎤
4 1 0 001 1 2 3
(Z4 ) − (− 1 ) (Z2 ) ⎢ 3 1 0 0 0 −4 −7 −11 ⎥
4 ⎢ ⎥
" ⎢ ⎥
⎢ 2 − 14 1 0 0 0 − 27 − 39 ⎥
⎣ 4 4 ⎦
1 − 14 0 1 0 0 14 − 27 4
⎡ ⎤
1 0 0 01 1 2 3
(Z4 )− 1
(− 27 ) (Z3 ) ⎢
⎢3 1 0 0 0 −4 −7 −11 ⎥

" ⎢ ⎥
39 ⎥ .
⎢2 −1 1 0 0 0 − 27
⎣ 4 4 − 4 ⎦
1 − 14 1
− 27 1 0 0 0 − 64 9

Die LR-Zerlegung von A ist:


⎡ ⎤ ⎡ ⎤
1 0 0 0 1 1 2 3
⎢3 0⎥ ⎢0
⎢ 1 0 ⎥ ⎢ −4 −7 −11⎥ ⎥
L=⎢ ⎥, R=⎢ 39 ⎥
.
⎣2 − 14 1 0⎦ ⎣0 0 − 27
4 − 4

1 − 14 − 27
1
1 0 0 0 − 64 9

Für die Determinante der Ausgangsmatrix A gilt:


B C B C
27 64
det(A) = det(LR) = det(L) det(R) = det(R) = 1 · (−4) · − · − = −192. !
; <= > 4 9
=1
4.1 • LR-Zerlegung ohne Zeilenvertauschung
209 4

Übung 4.6
• ◦ ◦ Man bestimme die LR-Zerlegung der (3 × 2)-Matrix:
⎡ ⎤
2 1
⎢ ⎥
A = ⎣4 −2⎦ .
0 −4

v Lösung
Mit diesem Beispiel wollen wir die LR-Zerlegung an einer nicht quadratischen Matrix
demonstrieren. Zu Beginn betrachten wir das folgende Ausgangsschema:
⎡ ⎤
1 0 0 2 1
⎢ ⎥
[E|A] = ⎣ 0 1 0 4 −2 ⎦ .
0 0 1 0 −4

Wir führen den Gauß-Algorithmus in zwei Schritten durch:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 2 1 1 0 0 2 1 1 0 0 2 1
⎢ ⎥ (Z2 ) − 2 (Z1 ) ⎢ ⎥ (Z3 ) − 1 (Z2 ) ⎢ ⎥
⎣ 0 1 0 4 −2 ⎦ " ⎣ 2 1 0 0 −4 ⎦ " ⎣ 2 1 0 0 −4 ⎦ .
0 0 1 0 −4 0 0 1 0 −4 0 1 1 0 0
⎤ ⎡ ⎡ ⎤
100 2 1
⎢ ⎥ ⎢ ⎥
Somit ist die LR-Zerlegung von A gegeben durch L = ⎣2 1 0⎦, R = ⎣0 −4⎦ .
011 0 0
Kontrolle:
⎡ ⎤⎡ ⎤ ⎡ ⎤
100 2 1 2 1
⎢ ⎥⎢ ⎥ ⎢ ⎥
LR = ⎣2 1 0⎦ ⎣0 −4⎦ = ⎣4 −2⎦ = A % !
011 0 0 0 −4

> Bemerkung
Beachte, dass die Matrix A in Übung 4.6 nicht quadratisch ist. Wir müssen somit auf
die Dimensionen der Matrizen L und R aufpassen: In diesem Fall ist L eine (3 × 3)-
Matrix, während R eine (3 × 2)-Matrix ist. Nur so ergibt sich aus der Multiplikation
LR eine (3 × 2)-Matrix: L(3×3) (3×2) R ⇒ A(3×2) .
210 Kapitel 4 • LR-Zerlegung

Übung 4.7
• • ◦ Man bestimme die LR-Zerlegung der folgenden (5 × 3)-Matrix:
⎡ ⎤
2 −6 6
⎢ ⎥
⎢−4 5 −7⎥
⎢ ⎥
A=⎢
⎢8 −3 9⎥⎥.
⎢ ⎥
⎣−6 4 −8⎦
3 5 −1

v Lösung
Mit diesem Beispiel wollen wir die LR-Zerlegung an einer weiteren nicht quadratischen
Matrix demonstrieren. Wir betrachten das Ausgangsschema:
⎡ ⎤
1 0 0 0 0 2 −6 6
⎢ ⎥
⎢0 1 0 0 0 −4 5 −7 ⎥
⎢ ⎥
[E|A] = ⎢
⎢0 0 1 0 0 8 −3 9 ⎥
⎥.
⎢ ⎥
⎣0 0 0 1 0 −6 4 −8 ⎦
0 0 0 0 1 3 5 −1

und wenden den Gauß-Algorithmus in zwei Schritten an:

(Z2 ) − (−2) (Z1 )

⎡ ⎤ (Z3 ) − 4 (Z1 ) ⎡ ⎤
1 0 0 0 0 2 −6 6 (Z3 ) (−3) (Z1 ) 1 0 0 0 0 2 −6 6
⎢ ⎥ ⎢ −2 1 0 0 0 0 −7 5 ⎥
⎢0 1 0 0 0 −4 5 −7 ⎥ (Z5 ) − 3 (Z1 ) ⎢ ⎥
⎢ ⎥ 2 ⎢ ⎥
⎢0 0 1 0 0 8 −3 9 ⎥ " ⎢ 4 0 1 0 0 0 21 −15 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ −3 0 0 1 0 0 −14 10 ⎥
⎣0 0 0 1 0 −6 4 −8 ⎦ ⎣ ⎦
0 0 0 0 1 3 5 −1 3
2 0 0 0 1 0 14 −10

(Z3 ) − (−3) (Z2 ) ⎡ ⎤


1 0 0 0 0 2 −6 6
(Z4 ) − 2 (Z2 ) ⎢ ⎥
(Z5 ) − (−2) (Z2 )
⎢ −2 1 0 0 0 0 −7 5 ⎥
⎢ ⎥
" ⎢ 4 −3 1 0 0 0 0 0⎥
⎢ ⎥.
⎢ ⎥
⎣ −3 2 0 1 0 0 0 0⎦
3
2 −2 0 0 1 0 0 0

Die resultierende LR-Zerlegung von A lautet:


⎡ ⎤ ⎡ ⎤
1 0 0 0 0 2 −6 6
⎢ ⎥ ⎢ ⎥
⎢−2 1 0 0 0⎥ ⎢0 −7 5⎥
⎢ ⎥ ⎢ ⎥
L=⎢
⎢4 −3 1 0 0⎥⎥, R=⎢
⎢0 0 0⎥⎥.
⎢ ⎥ ⎢ ⎥
⎣−3 2 0 1 0⎦ ⎣0 0 0⎦
3
2 −2 0 0 1 0 0 0
4.1 • LR-Zerlegung ohne Zeilenvertauschung
211 4
Wieder zeigt die Kontrolle LR = A. !

> Bemerkung
Beachte die Dimensionen der Matrizen L und R in Übung 4.7: In diesem Fall ist L
eine (5 × 5)-Matrix, während R eine (5 × 3)-Matrix ist. Nur so ergibt sich aus der
Multiplikation LR eine (5 × 3)-Matrix: L(5×5) (5×3) R ⇒ A(5×3) .

4.1.3 Existenz und Eindeutigkeit der LR-Zerlegung

Welche Matrizen A besitzen überhaupt eine LR-Zerlegung? Ist die LR-Zerlegung


eindeutig? Der folgende wichtige Satz liefert ein Kriterium für die Existenz und
Eindeutigkeit der LR-Zerlegung:

# Satz 4.2 (Existenz und Eindeutigkeit der LR-Zerlegung)


Eine (n × n)-Matrix A besizt eine LR-Zerlegung genau dann, wenn
⎡ ⎤
a11 ··· a1k
⎢ . .. .. ⎥
det(Ak ) = det ⎢
⎣ .. .

. ⎦ ̸= 0, ∀ k = 1, · · · , n (4.3)
ak1 · · · akk

gilt. Dabei ist Ak die Teilmatrix der Größe k, welche man ausgehend von der linken oberen
Ecke von A bildet:

A1 A2 A3 · · · An
⎡ ⎤
a11 a12 a13 a1n
⎢ ⎥
⎢ a21 a22 a23 a1n ⎥
⎢ ⎥
⎢ a31 a32 a33 a1n ⎥
⎢ ⎥ (4.4)
⎢ . . .. ⎥
⎢ . . ⎥
⎣ ⎦
an1 an2 an3 · · · ann

Die LR-Zerlegung von A ist eindeutig. $

Diesen Satz benutzen wir in den Übungen 4.8–4.10.

Übung 4.8
• ◦ ◦ Welche der folgenden Matrizen besitzen eine LR-Zerlegung?
⎡ ⎤ ⎡ ⎤
1 23 111
⎢ ⎥ ⎢ ⎥
A = ⎣−1 1 1⎦ , B = ⎣1 1 0⎦ .
0 12 037
212 Kapitel 4 • LR-Zerlegung

v Lösung
a) Gemäß Satz 4.2 besitzt A eine LR-Zerlegung genau dann, wenn die Teilmatrizen
A1 , A2 und A3 = A nichtverschwindende Determinanten haben:
6 7
A1 = 1 ⇒ det(A1 ) = 1 ̸= 0 %
' *
A1 A2 A3 1 2
⎡ ⎤ A 2 = ⇒ det(A2 ) = 3 ̸= 0 %
1 2 3 −1 1
⎢ ⎥ ⎡ ⎤
⎣ −1 1 1 ⎦
1 23
0 1 2 ⎢
A3 = ⎣−1 1 1⎦

⇒ det(A3 ) = 2 ̸= 0 %
0 12
A besitzt somit eine LR-Zerlegung.
b) In diesem Fall haben wir:
6 7
B1 B2 B3 B1 = 1 ⇒ det(B1 ) = 1 ̸= 0 %
⎡ ⎤ ' *
1 1 1 11
⎢ ⎥ B2 = ⇒ det(B2 ) = 0 ✗
⎣1 1 0⎦ 11
0 3 7

Nach Satz 4.2, besitzt B keine LR-Zerlegung. !

Übung 4.9 ⎡ ⎤
a 1 1
⎢ ⎥
• • ◦ Man betrachte die Matrix A = ⎣ 3a 2 − a 2a⎦, a ∈ R.
−a a 2
a) Für welche Werte des Parameters a ∈ R besitzt A eine LR-Zerlegung?
b) Man bestimme die LR-Zerlegung von A in Abhängigkeit des Parameters a ∈ R.

v Lösung
a) Damit wir die LR-Zerlegung der Matrix A berechnen können, müssen die Teilma-
trizen A1 , A2 und A3 = A nicht-verschwindende Determinanten haben (Satz 4.2):
6 7
A1 = a ⇒ det(A1 ) = a ̸= 0 ⇒ a ̸= 0.
' *
a 1
A2 = ⇒ det(A2 ) = −a(a + 1) ̸= 0 ⇒ a ̸= {0, −1}
3a 2 − a
⎡ ⎤ + +
a 1 1 +a 1 1 ++
+
⎢ ⎥ + +
A3 = ⎣ 3a 2 − a 2a⎦ ⇒ det(A3 ) = + 3a 2 − a 2a+
+ +
−a a 2 +−a a 2 +
+ + + + + +
+2 − a 2a+ +1 1++ + 1 1+
+ + + + +
= a+ + − 3a + + − a+ +
+ a 2+ +a 2 + +2 − a 2a+
= −2a2 (a + 1) ̸= 0 ⇒ a ̸= {0, −1}.
4.1 • LR-Zerlegung ohne Zeilenvertauschung
213 4
Somit besitzt A eine LR-Zerlegung genau dann wenn a ̸= {0, −1}.
b) Um die LR-Zerlegung von A für a ̸= {0, −1} zu bestimmen, betrachten wir das
folgende Ausgangsschema
⎡ ⎤
1 0 0 a 1 1
⎢ ⎥
[E|A] = ⎣ 0 1 0 3a 2 − a 2a ⎦ .
0 0 1 −a a 2

Wir wenden den Gauß-Algorithmus in zwei Schritten an:


⎡ ⎤ ⎡ ⎤
(Z2 ) − 3 (Z1 )
1 0 0 a 1 1 1 0 0 a 1 1
⎢ ⎥ (Z3 ) − (−1) (Z1 ) ⎢ ⎥
⎣ 0 1 0 3a 2 − a 2a ⎦ " ⎣ 3 1 0 0 −a − 1 2a − 3 ⎦
0 0 1 −a a 2 −1 0 1 0 a + 1 3
⎡ ⎤
1 0 0 a 1 1
(Z3 ) − (−1) (Z2 ) ⎢ ⎥
" ⎣ 3 1 0 0 −a − 1 2a − 3 ⎦ .
−1 −1 1 0 0 2a

Die LR-Zerlegung von A ist:


⎡ ⎤ ⎡ ⎤
1 0 0 a 1 1
⎢ ⎥ ⎢ ⎥
L = ⎣ 3 1 0⎦ , R = ⎣0 −a − 1 2a − 3⎦
−1 −1 1 0 0 2a

vorausgesetzt a ̸= {0, −1}. !

Übung 4.10
••◦ '
*
01
a) Wieso besitzt A = keine LR-Zerlegung?
10
b) Man beweise Satz 4.2.

v Lösung '*
1 0 0 1
a) Das Ausgangsschema ist die erweiterte Matrix [E|A] = . Wenden wir
0 1 1 0
nun den Gauß-Algorithmus auf die rechte Matrix an, so stoßen wir bereits an ein
Problem: Der erste Eintrag der rechten Matrix ist gleich Null. Aus diesem Grund
gibt es keine Zeilenoperation (Z2 ) − α(Z1 ), welche das Ausgangsschema in die
folgende Form bringt
' *
1 0 r11 r12
[L|R] = .
ℓ21 1 0 r22

Die LR-Zerlegung von A ist somit nicht möglich!


214 Kapitel 4 • LR-Zerlegung

Wichtig: Diese Problematik tritt nicht vor, wenn man Zeilenvertauschung beim
Gauß-Algorithmus anwendet. Daher gibt es Matrizen, welche keine LR-Zerlegung
besitzen, aber für welche eine LR-Zerlegung
' * mit Zeilenvertauschung trotzdem mög-
01
lich ist (7 vgl. Abschn. 4.3). A = ist ein solches Beispiel.
10
b) Wir wollen uns jetzt überlegen, dass eine LR-Zerlegung nur dann möglich ist, wenn
die Zielmatrix R keine verschwindende Diagonalelemente besitzt. Man betrachte
zu diesem Zweck den j-Schritt im LR-Algorithmus. Das Ausgangsschema im j-ten
Schritt ist
⎡ ⎤
1 0 ··· 0 r11 ⋆ ··· ⋆
⎢ .. . ⎥
⎢ ⎥
⎢ ℓ21 . 0 .. ⎥
⎢ ⎥
⎢ .. . .. .. .. .. ⎥
⎢ . 1 .. . . rjj . .⎥
⎢ ⎥.
⎢ . .. ⎥
⎢ .. 0 1 . ãj+1,j ⋆ ⎥
⎢ ⎥
⎢ .. .. .. .. ⎥
⎢ .. .. ⎥
⎣ . . .0 . . . ⋆⎦
ℓn1 · · · 0 0 · · · 1 0 · · · ãn,j ⋆ ··· ⋆

Im Gauß-Algorithmus würden wir nun die folgenden Zeilenoperationen durchfüh-


ren:

ãij
(Zi ) − (Zj ), i > j.
rjj

Ist aber nun rjj = 0, so sind diese Operationen nicht definiert. Daraus folgt, dass die
LR-Zerlegung der Matrix A nur dann ohne Zeilenvertauschung möglich ist, wenn
alle Diagonaleinträge von R nicht verschwinden, d. h.

r11 ̸= 0, r22 ̸= 0, ··· , rnn ̸= 0

gilt. Diese Bedingung ist äquivalent zu:

r11 ̸= 0 ⇒ det(R1 ) ̸= 0
r11 r22 ̸= 0 ⇒ det(R2 ) ̸= 0
..
.
r11 r22 · · · rnn ̸= 0 ⇒ det(Rn ) = det(R) ̸= 0,

d. h., alle Untermatrizen Rk mit k = 1, · · · , n haben nichtverschwindende Deter-


minanten. Wegen det(Ak ) = det(Rk ), folgt det(Ak ) ̸= 0 für alle k = 1, · · · , n. Die
Bedingung det(Ak ) ̸= 0 im Satz 4.2 garantiert, dass alle Diagonaleinträge von R
nicht verschwinden. !
4.1 • LR-Zerlegung ohne Zeilenvertauschung
215 4

Übung 4.11 ⎡1 ⎤
⎢ ... ⎥
⎢ ⎥
⎢ 1 ⎥
• • ◦ Eine Matrix von der Form Lj = ⎢ ℓj+1,j ⎥ heißt Frobenius-Matrix (alle
⎢ ⎥
⎣ .. .. ⎦
. .
ℓn,j 1
weiteren Einträge sind Null). Man zeige:
⎡ 1
⎤ ⎡1 ⎤
ℓ21 1
⎢ ⎥ ⎢ ... ⎥
⎢ .. ⎥ ⎢ ⎥
a) L1 · · · Ln−1 = ⎢
⎢ ℓ31 ℓ32
. ⎥.
⎥ b) Lj −1 ⎢
=⎢
1
−ℓj+1,j


⎣ .. .. .. ⎦ ⎢ ⎥
. . . 1 ⎣ .. .. ⎦
ℓn1 ℓn2 ··· ℓn,n−1 1 . .
−ℓn,j 1

v Lösung
a) Eine direkte Rechnung zeigt:
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 1
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ℓ21 1 ⎥ ⎢0 1 ⎥ ⎢ℓ21 1 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ ⎢ .. .. ⎥ ⎢ .. ⎥
L1 L2 = ⎢
⎢ℓ31 0 . ⎥ ⎢.
⎥⎢ ℓ32 . ⎥ = ⎢ℓ31
⎥ ⎢ ℓ32 . ⎥.

⎢ . .. .. ⎥ ⎢. .. .. ⎥ ⎢ . .. ⎥
⎢ . .1 ⎥ ⎢. .1 ⎥ ⎢ . ⎥
⎣ . . ⎦ ⎣. . ⎦ ⎣ . . 1 ⎦
ℓn1 0 ··· 0 1 0 ℓn2 ··· 0 1 ℓn1 ℓn2 01
⎡ 1

ℓ21 1
⎢ ⎥
⎢ .. ⎥
Im Allgemeinen L1 L2 · · · Ln−1 =⎢
⎢ ℓ31 ℓ32
. ⎥.

⎣ .. .. . . ⎦
. . . 1
ℓn1 ℓn2 ··· ℓn,n−1 1
b) Eine direkte Rechnung zeigt:
⎡1 ⎤⎡ 1 ⎤ ⎡1 ⎤
⎢ ... ⎥⎢ . . . ⎥ ⎢ ... ⎥
⎢ ⎥⎢ ⎥ ⎢ 1

⎢ 1 ⎥⎢ 1 ⎥ ⎢ ⎥
Lj Lj −1 = ⎢ ℓj+1,j ⎥⎢ −ℓj+1,j ⎥=⎢ −✟ ✟+✟
ℓj+1,j ✟
ℓj+1,j ⎥= E. !
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ .. .. ⎦⎣ .. .. ⎦ ⎣ .. .. ⎦
. . . . . .
ℓn,j 1 −ℓn,j 1 ℓ✚
−✚ ℓ✚
n,j +✚n,j 1

Übung 4.12
• • • Ziel dieser Aufgabe ist, die Eindeutigkeit der LR-Zerlegung zu beweisen. Man
zeige:
a) Sind L und L̄ normierte untere Dreiecksmatrizen, so ist auch LL̄ eine normierte
untere Dreiecksmatrix.
216 Kapitel 4 • LR-Zerlegung

b) Ist L eine normierte untere Dreiecksmatrix, so ist auch L−1 eine normierte untere
Dreiecksmatrix.
c) Die Aussagen (a) und (b) gelten auch für obere Dreiecksmatrizen.
d) Die LR-Zerlegung ist eindeutig.

v Lösung
a) Erinnerung: Eine Dreiecksmatrix heißt normiert, wenn alle Diagonaleinträge gleich
1 sind. Es seien L und L̄ normierte untere Dreiecksmatrizen
⎡ 1 0 ··· 0 ⎤ ⎡ ⎤
1 0 ··· 0
. .. . ⎥.
⎢ ℓ21 1 . . . .. ⎥ ⎢ . .⎥
L=⎢ ⎥ , L̄ = ⎢

ℓ̄21 1
⎥.
⎣ . . . ⎦ ⎣ .. . . . . ⎦
.. . . . . 0 . . . 0
ℓn1 ··· ℓn,n−1 1 ℓ̄n1 ··· ℓ̄n,n−1 1

Dann ist
⎡ ⎡ ⎤ ⎡ ⎤
1 0 ··· 0⎤ 1 0 ··· 0 1 0 ··· 0
. . . .. ⎥ ⎢ .. .. ⎥
⎢ ℓ21 1 . . . .. ⎥ ⎢ . .⎥ ⎢ .
LL̄ = ⎢ ⎥⎢⎢
ℓ̄21 1
⎥=⎢
ℓ21 +ℓ̄21 1 .⎥

⎣ . . ⎦⎣ . . . .. .. ..
.
.. . . . . 0 .. . . . . 0 ⎦ ⎣ . .
. 0

ℓn1 ··· ℓn,n−1 1 ℓ̄n1 ··· ℓ̄n,n−1 1 ℓn1 +ℓn2 ℓ̄21 +···+ℓ̄n1 ··· ℓn,n−1 +ℓ̄n,n−1 1

eine normierte untere Dreiecksmatrix (alle Diagonalelemente sind gleich 1).


b) Es sei nun L wie in (a). In Übung 4.11 haben wir gezeigt, dass man L als Produkt
von n − 1 Frobenius-Matrizen schreiben kann L = L1 L2 · · · Ln−1 , wobei Lj =
⎡1 ⎤
⎢ ... ⎥
⎢ ⎥
⎢ 1 ⎥
⎢ ℓj+1,j ⎥ . Die Inverse von L lautet somit (Erinnerung: die Reihenfolge der
⎢ ⎥
⎣ .. . . ⎦
. .
ℓn,j 1
Matrizen kehrt sich bei der Inversen):
⎡1 ⎤
⎢ ... ⎥
⎢ ⎥
−1 −1 −1 −1 −1 ⎢ 1 ⎥
L = Ln−1 · · · L2 L1 , Lj =⎢ −ℓj+1,j ⎥.
⎢ ⎥
⎣ .. .. ⎦
. .
−ℓn,j 1

Alle Matrizen Lj −1 sind normierte untere Dreiecksmatrizen. Aus Teilaufgabe (a)


folgt somit, dass auch L−1 eine normierte untere Dreiecksmatrix ist.
c) Der Beweis dieser Aussage erfolgt analog zu Teilaufgaben (a) und (b).
d) Es seien A = L1 R1 = L2 R2 zwei LR-Zerlegungen der Matrix A. Daraus folgt:

L1 R1 = L2 R2 ⇒ L2 −1 L1 R1 = R2 ⇒ L2 −1 L1 = R2 R1 −1 .

Nach Teilaufgaben (a) und (b) ist L2 −1 L1 eine normierte untere Dreiecksmatrize.
Nach Teilaufgabe (c) ist R2 R1 −1 eine obere Dreiecksmatrix.
4.1 • LR-Zerlegung ohne Zeilenvertauschung
217 4
⎡ ⎤ ⎡ ⎤
1 0 ··· 0 ⋆ ⋆ ··· ⋆
⎢ .. ⎥ ⎢0
⎢⋆ 1 . . .
⎢ .⎥⎥ ⎢ ⋆ ··· ⋆⎥ ⎥
L1 L2 −1 =⎢ ⎥, R1 −1 R2 = ⎢
⎢ .. .. .. .. ⎥
⎥.
⎢ .. . . . . ⎥ ⎣. . . .⎦
⎣. . . 0⎦
⋆ ··· ⋆ 1 0 ··· 0 ⋆

⎡ ⎤
1 0 ··· 0
⎢ .. ⎥
⎢0 1 . . .
⎢ .⎥⎥
Aus der Gleichheit L2 −1 L1 = R2 R1 −1 folgt L1 L2 −1 = R1 −1 R2 = ⎢ ⎥=
⎢ .. . . . . ⎥
⎣. . . 0⎦
0 ··· 0 1
E, d. h.

L1 L2 −1 = E ⇒ L1 = L2 R1 −1 R2 = E ⇒ R1 = R2 .

Somit ist die LR-Zerlegung von A eindeutig! !

4.1.4 Lösung von LGS durch LR-Zerlegung

Jetzt untersuchen wir die Bedeutung der LR-Zerlegung bei der Lösung von LGS.
Für die Praxis ist dies ziemlich wichtig. Die Grundidee ist denkbar einfach: Mittels
LR-Zerlegung der Darstellungsmatrix A wird das LGS Ax = b auf die Lösung
von LGS mit unteren (bzw. oberen) Dreiecksmatrizen reduziert. Solche Gleichungs-
systeme sind direkt lösbar durch eine sukzessive Auflösung von oben nach unten
(Vorwärtseinsetzen) bzw. von unten nach oben (Rückwärtseinsetzen).

# Beispiel
Das folgende LGS
⎧ ⎡ ⎤⎡ ⎤ ⎡ ⎤
⎨2x1
⎪ = 4 2 0 0 x1 4
⎢ ⎥⎢ ⎥ ⎢ ⎥
2x1 + 4x2 = 8 " =
⎣2 4 0⎦ ⎣x2 ⎦ ⎣ 8 ⎦


3x1 − 2x2 + 3x3 = 10 3 −2 3 x3 10

kann man ganz einfach die Lösung durch Vorwärtseinsetzen direkt bestimmen:
⎧ ⎧ ⎡ ⎤
⎨2x1
⎪ = 4 ⎨x1 = 2
⎪ 2
⎢ ⎥
2x1 + 4x2 = 8 ⇒ x2 = 8−2·2
4 =1 ⇒ x = ⎣1⎦ .

⎩ ⎪

3x1 − 2x2 + 3x3 = 10 x3 = 10−3·2+2·1
3 =2 2

Dies ist ein Vorteil der Zerlegung der Matrix A in Dreiecksmatrizen L und R. $

Lösung von LGS mittels LR-Zerlegung (allgemeines Vorgehen)


Man betrachte nun das LGS Ax = b, wobei A ∈ Kn×n und b ∈ Kn vorgegeben sind
und x ∈ Kn der Unbekannten gesucht ist. A ist im Allgemeinen keine Dreiecksmatrix.
Hierzu wird zuerst die Matrix A in L und R zerlegt, wobei wir aus der ursprünglichen
218 Kapitel 4 • LR-Zerlegung

Matrixgleichung die folgende Gleichung erhalten

Ax = b ⇒ LR x = b. (4.5)

Mit der Substitution y = Rx ergibt sich die folgende Gleichung:

Ly = b. (4.6)

Sobald wir y bestimmt haben lösen wir

Rx = y. (4.7)

Da die Matrizen L und R Dreiecksform haben, kann man beide Gleichungs-


systeme ganz einfach durch eine sukzessive Auflösung von oben nach unten
(Vorwärtseinsetzen) bzw. von unten nach oben (Rückwärtseinsetzen) direkt lösen.

Musterbeispiel 4.2 (LR-Zerlegung für LGS)

Gesucht ist die Lösung des folgenden LGS


⎧ ⎡ ⎤⎡ ⎤ ⎡ ⎤
⎨ 2x1 + 6x2 + 2x3 = 2
⎪ 2 6 2 x1 2
⎢ ⎥⎢ ⎥ ⎢ ⎥
−3x1 − 8x2 =2 " ⎣−3 −8 0⎦ ⎣x2 ⎦ = ⎣2⎦ .


4x1 + 9x2 + 2x3 = 3 4 9 2 x3 3

Zuerst führen wir eine LR-Zerlegung der Matrix A durch. Diese wurde bereits in
Musterbeispiel 4.1 bestimmt:
⎡ ⎤ ⎡ ⎤⎡ ⎤
2 6 2 1 0 0 262
⎢ ⎥ ⎢ ⎥⎢ ⎥
A = ⎣−3 −8 0⎦ = ⎣− 32 1 0⎦ ⎣0 1 3⎦ = LR.
4 9 2 2 −3 1 007

Dann lösen wir Ly = b für die Hilfsvariable y durch Vorwärtseinsetzen von oben:
⎧ ⎧ ⎡ ⎤
⎨ y1
⎪ =2 ⎨y1 = 2
⎪ 2
3 3 ⎢ ⎥
− 2 y1 + y2 =2 ⇒ y2 = 2 + 2 · 2 = 5 ⇒ y = ⎣ 5 ⎦.

⎩ ⎪

2y1 − 3y2 + y3 = 3 y3 = 3 − 2 · 2 + 3 · 5 = 14 14

Anschließend lösen wir Rx = y durch Rückwärtseinsetzen von unten:


⎧ ⎧ 2−6·(−1)−2·2
⎡ ⎤
⎨2x1 + 6x2 + 2x3 = 2
⎪ ⎨x1 =
⎪ 2 =2 2
⎢ ⎥
x2 + 3x3 = 5 ⇒ x2 = 5 − 3 · 2 = −1 ⇒ x = ⎣−1⎦

⎩ ⎪

7x3 = 14 x3 = 2 2
4.1 • LR-Zerlegung ohne Zeilenvertauschung
219 4

Kochrezept 4.1 (LGS mittels LR-Zerlegung lösen)


Gegeben – LGS Ax = b.
Gesucht – Lösung x mittels LR-Zerlegung von A.
Voraussetzung – LR-Zerlegung von A möglich (vgl. Satz 4.2).
Schritt 1 – Man bestimme die LR-Zerlegung der Matrix A, d. h., man finde Matrizen
L und R, sodass A = LR gilt.
Schritt 2 – Man löse zuerst das LGS Ly = b für die Hilfsvariable y zeilenweise durch
Vorwärtseinsetzen (d. h. von oben nach unten).
Schritt 3 – Man löse dann das LGS Rx = y zeilenweise durch Rückwärtseinsetzen
(d. h. von unten nach oben) mit dem Hilfsvektor y, der im Schritt 2 bestimmt wurde.
Der Vektor x ist die gesuchte Lösung von Ax = b.

Übung 4.13
• ◦ ◦ Man löse das folgende LGS mittels LR-Zerlegung:

⎨ x1 + 2x2 + 4x3 = 1

2x1 + 3x2 + 8x3 = 1


−x1 − 3x2 − x3 = 1

v Lösung
6 1 2 4
7 617
Gegeben sei die Matrixform des LGS Ax = b mit A = 2 3 8 ,b = 1 . Nun
−1 −3 −1 1
gehen wir das Kochrezept 4.1 Schritt für Schritt durch.
Schritt 1 – Die LR-Zerlegung der Matrix A wurde bereits in Übung 4.1 vorgenommen:
⎡ ⎤ ⎡ ⎤
1 00 1 2 4
⎢ ⎥ ⎢ ⎥
L = ⎣ 2 1 0⎦ , R = ⎣0 −1 0⎦ .
−1 1 1 0 0 3

Schritt 2 – Wir lösen das LGS Ly = b zeilenweise von oben


⎧ ⎡ ⎤
⎨ y1
⎪ =1 1
⎢ ⎥
2y1 + y2 =1 ⇒ y = ⎣−1⎦ .


−y1 + y2 + y3 = 1 3

Schritt 3 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 2 gefundenen
Vektor y von unten
220 Kapitel 4 • LR-Zerlegung

⎧ ⎡ ⎤
⎨x1 + 2x2 + 4x3 = 1
⎪ −5
⎢ ⎥
−x2 = −1 ⇒ x = ⎣ 1 ⎦.


3x3 = 3 1 !

Übung 4.14
• ◦ ◦ Man löse das folgende LGS mittels LR-Zerlegung:


⎪ x1 + x2 + x3 + x4 = 1


x1 + 2x2 + 3x3 + 4x4 = 0


⎪ x1 + 3x2 + 6x3 + 10x4 = 0

x1 + 4x2 + 10x3 + 20x4 = 0

v Lösung
/1 1 1 1 0 /10
Gegeben sei die Matrixform des LGS Ax = b mit A = 12 3 4 , b = 0 . Dann
1 3 6 10 0
1 4 10 20 0
folgen wir dem Kochrezept 4.1 Schritt für Schritt.
Schritt 1 – Die LR-Zerlegung der Matrix A wurde bereits in Übung 4.3 vorgenommen:
⎡ ⎤ ⎡ ⎤
1000 1111
⎢1 1 0 0⎥ ⎢0 1 2 3⎥
⎢ ⎥ ⎢ ⎥
L=⎢ ⎥, R = ⎢ ⎥.
⎣1 2 1 0⎦ ⎣0 0 1 3⎦
1331 0001

Schritt 2 – Wir lösen das LGS Ly = b zeilenweise von oben


⎧ ⎡ ⎤
⎪y =1 1
⎪ 1

⎨ ⎢−1⎥
y1 + y2 =0 ⎢ ⎥
⇒ y = ⎢ ⎥.


⎪y1 + 2y2 + y3 =0 ⎣1⎦

y1 + 3y2 + 3y3 + y4 =0 −1

Schritt 3 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 2 gefundenen
Vektor y von unten
⎧ ⎡ ⎤

⎪ x1 + x2 + x3 + x4 = 1 4

⎨ ⎢−6⎥
x2 + 2x3 + 3x4 = −1 ⎢ ⎥
⇒ x=⎢ ⎥


⎪ x3 + 3x4 = 1 ⎣4⎦

x4 = −1 −1 !

Übung 4.15
• • ◦ Man löse das folgende LGS mittels LR-Zerlegung:

⎨x1 + x2
⎪ + x4 + x5 = 1
x1 + x3 + x5 = 0


x2 + x3 + x4 =0
4.1 • LR-Zerlegung ohne Zeilenvertauschung
221 4
v Lösung
Mit diesem Beispiel wollen wir ein nicht quadratisches LGS mittels LR-Zerlegung
lösen. Zunächst schreiben wir das LGS in Matrixform Ax = b mit
⎡ ⎤ ⎡ ⎤
1101 1 1
⎢ ⎥ ⎢ ⎥
A = ⎣1 0 1 0 1⎦ , b = ⎣0⎦ .
0111 0 0

Schritt 1 – Wir bestimmen die LR-Zerlegung von A. Dazu betrachten wir das Aus-
gangsschema [E|A] und wenden den Gauß-Algorithmus in zwei Schritten an:
⎡ ⎤ ⎡ ⎤
1 0 0 1 1 0 1 1 1 0 0 1 1 0 1 1
⎢ ⎥ (Z2 ) − 1 (Z1 )
⎢ ⎥ (Z3 ) − (−1) (Z2 )
[E|A] = ⎣ 0 1 0 1 0 1 0 1⎦ " ⎣ 1 1 0 0 −1 1 −1 0⎦ "
0 0 1 0 1 1 1 0 0 0 1 0 1 1 1 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 1 1 0 1 1 1 0 0 1 1 0 1 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 1 0 0 −1 1 −1 0 ⎦ ⇒ L = ⎣1 1 0⎦ , R = ⎣0 −1 1 −1 0⎦ .
0 −1 1 0 0 2 0 0 0 −1 1 0 0 2 0 0

Schritt 2 – Wir lösen das LGS Ly = b zeilenweise von oben


⎧ ⎡ ⎤
⎨y1
⎪ =1 1
⎢ ⎥
y1 + y2 =0 ⇒ y = ⎣−1⎦ .


−y2 + y3 = 0 −1

Schritt 3 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 2 gefundenen
Vektor y

⎨x1 + x2
⎪ + x4 + x5 = 1
− x2 + x3 − x4 = −1


2x3 = −1

In diesem Fall hat das LGS 3 Gleichungen für 5 Unbekannte. Zwei Variablen sind somit
frei wählbar: x4 = t und x5 = s. Dann Lösen wir das LGS zeilenweise von unten. Dies
ergibt
⎡ ⎤ ⎤⎡ ⎡ ⎤
1
2 0 −1
⎢ ⎥ 1 ⎢ ⎥ ⎢ ⎥
⎢ ⎥ 2
⎢−1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
x=⎢ 1⎥ ⎢ ⎥ ⎢ ⎥ t, s ∈ R.
⎢− 2 ⎥ + t ⎢ 0 ⎥ + s ⎢ 0 ⎥ ,
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 ⎦ ⎣1⎦ ⎣0⎦
0 0 1 !

> Bemerkung
Die Matrix A in Übung 4.15 ist nicht quadratisch. Beachte somit die Dimensionen der
Matrizen L und R: In diesem Fall ist L eine (3×3)-Matrix, während R eine (3×5)-Matrix
ist. Somit ergibt sich aus der Multiplikation LR eine (3 × 5)-Matrix: L(3×3) (3×5) R ⇒
A(3×5) .
222 Kapitel 4 • LR-Zerlegung

4.2 LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie

Wir diskutieren nun den wichtigen Fall, wenn man Zeilenvertauschung bei der
LR-Zerlegung verwenden muss. Bevor wir loslegen, müssen wir aber sogenannte
Permutationsmatrizen sowie den Gauß-Algorithmus mit Pivotstrategie einführen.

4.2.1 Permutationsmatrizen
# Definition 4.2
Es sei σ ∈ Sn eine Permutation (7 vgl. Abschn. 3.3.1). Die Matrix Pσ , welche durch
Vertauschen der Zeilen aus der Einheitsmatrix E bezüglich der Permutation σ entsteht,
heißt Permutationsmatrix. Es seien e1 T , e2 T , · · · , en T die Zeilen der Einheitsmatrix E
⎡ ⎤ ⎡ ⎤
1 0 ··· 0 e1 T
⎢0 1 ··· 0⎥ ⎢ e2 T ⎥
⎢ ⎥ ⎢ ⎥
E=⎢
⎢ .. .. .. .. ⎥ ⎢
⎥ = ⎢ .. ⎥.

⎣. . . .⎦ ⎣ . ⎦
0 0 ··· 1 en T

Dann erhält man die Permutationsmatrix Pσ , indem man die Zeilen von E bezüglich σ
vertauscht:
⎡ ⎤
eσ (1) T
⎢ eσ (2) T ⎥
⎢ ⎥
Pσ = ⎢
⎢ .. ⎥. $

⎣ . ⎦
eσ (n) T

# Beispiel
(1 2 3 4 5)
Die Permutation σ = 41523 erzeugt die folgende (5 × 5)-Permutationsmatrix
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0 0 e1 T 0 0 0 1 0 e4 T
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢0 1 0 0 0⎥ ⎢ e2 T ⎥ ⎢1 0 0 0 0⎥ ⎢ e1 T ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E=⎢
⎢0 0 1 0 0⎥ ⎢
⎥=⎢ e3 T ⎥
⎥ → Pσ = ⎢
⎢0 0 0 0 1⎥ ⎢
⎥=⎢ e5 T ⎥

⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0 0 0 1 0⎦ ⎣ e4 T ⎦ ⎣0 1 0 0 0⎦ ⎣ e2 T ⎦
0 0 0 0 1 e5 T 0 0 1 0 0 e3 T

Dabei wurden die Zeilen der Einheitsmatrix bezüglich der Permutation σ vertauscht.
Beachte, dass die j-te Spalte der Einheitsmatrix E ist die σ (j)-te Spalte von Pσ . Daher
entsteht Pσ durch Vertauschen der Spalten von E bezüglich der inversen Permutation σ −1 :
⎡ ⎤
1 0 ··· 0 ⎡ ⎤ ⎡ ⎤
⎢0 1 ··· 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E=⎢
⎢ .. .. .. .. ⎥
⎥ = ⎣e1 e2 . . . en ⎦ → Pσ = ⎣eσ −1 (1) eσ −1 (2) . . . eσ −1 (n) ⎦ .
⎣. . . .⎦
0 0 ··· 1
4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
223 4
(1 2 3 4 5)
In unserem Beispiel ist σ −1 = 24513 und in der Tat ist
⎡ ⎤
0 0 0 1 0
⎡ ⎤ ⎢ ⎥ ⎡ ⎤
⎢1 0 0 0 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E = ⎣e1 e2 e3 e4 e5 ⎦ → Pσ = ⎢
⎢0 0 0 0 1⎥⎥ = ⎣e2 e4 e5 e1 e3 ⎦ . $
⎢ ⎥
⎣0 1 0 0 0⎦
0 0 1 0 0

4.2.2 Eigenschaften von Permutationsmatrizen

Inverse
Permutationsmatrizen sind immer regulär, da sie durch Vertauschen der Zeilen aus
E entstehen. Die Inverse P−1
σ entsteht durch Vertauschen der Zeilen aus E bezüglich
der inversen Permutation σ −1

P−1
σ = Pσ −1 .

Diese Operation entspricht das Vertauschen der Spalten von E bezüglich σ (welche
die Inverse von σ −1 ist). Die Inverse von Pσ ist somit einfach die Transponierte von

T
P−1
σ = Pσ

Determinante
Jede Permutationsmatrix entsteht durch Zeilenvertauschungen aus der Einheitsma-
trix E. Weil die Determinante einer Matrix das Vorzeichen ändert, wenn man zwei
Zeilen vertauscht, ist die Determinante einer Permutationsmatrix entweder 1 oder
-1, je nachdem, wie viele Zeilen von E vertauscht werden. Insbesondere ist:

det(Pσ ) = (−1)#Zeilenpermutationen = sign(σ )

wobei sign(σ ) das Signum der Permutation σ ist.

# Beispiel
Für die folgende Permutationsmatrix P gilt:
⎡ ⎤ ⎡ ⎤
0 0 0 1 0 0 1 0 0 0
⎢ ⎥ ⎢ ⎥
⎢1 0 0 0 0⎥ ⎢0 0 0 1 0⎥
⎢ ⎥ ⎢ ⎥
P=⎢
⎢0 0 0 0 1⎥
⎥ ⇒ P−1 = PT = ⎢
⎢0 0 0 0 1⎥⎥.
⎢ ⎥ ⎢ ⎥
⎣0 1 0 0 0⎦ ⎣1 0 0 0 0⎦
0 0 1 0 0 0 0 1 0 0
(1 2 3 4 5)
Diese Pemutationsmatrix entsteht aus der Permutation σ = 41523 , welche sign(σ ) =
−1 hat. Daher ist
224 Kapitel 4 • LR-Zerlegung

⎡ ⎤
0 0 0 1 0
⎢ ⎥
⎢1 0 0 0 0⎥
⎢ ⎥
det(P) = det ⎢
⎢0 0 0 0 1⎥⎥ = sign(σ ) = −1. $
⎢ ⎥
⎣0 1 0 0 0⎦
0 0 1 0 0

Wirkung der Permutationsmatrizen


Wird eine Permutationsmatrix P mit einer anderen Matrix A multipliziert, so werden
die Zeilen der Matrix A entsprechend vertauscht:
⎡ ⎤ ⎡ ⎤
a1 T aσ (1) T

⎢ a2 T ⎥


⎢ aσ (2) T ⎥

A=⎢ .. ⎥ → Pσ A = ⎢ .. ⎥
⎣ . ⎦ ⎣ . ⎦
an T aσ (n) T

Aus diesem Grund werden Permutationsmatrizen auch als Zeilenvertauschungsmatri-


zen bezeichnet.

# Beispiel
(1 2 3 4)
Die Permutation σ = 2431 erzeugt die folgende (4 × 4)-Permutationsmatrix

⎡ ⎤ ⎡ ⎤
0 1 0 0 e2 T
⎢0 1⎥ ⎢ ⎥
⎢ 0 0 ⎥ ⎢ e4 T ⎥
P=⎢ ⎥=⎢ ⎥.
⎣0 0 1 0⎦ ⎣ e3 T ⎦
1 0 0 0 e1 T

Daher gilt:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 3 4 a1 T 5 6 7 8 a2 T
⎢5 8⎥ ⎢ ⎥ ⎢13 16⎥ ⎢ ⎥
⎢ 6 7 ⎥ ⎢ a2 T ⎥ ⎢ 14 15 ⎥ ⎢ a4 T ⎥
A=⎢ ⎥=⎢ ⎥ ⇒ PA = ⎢ ⎥=⎢ ⎥.
⎣9 10 11 12⎦ ⎣ a3 T ⎦ ⎣9 10 11 12⎦ ⎣ a3 T ⎦
13 14 15 16 a4 T 1 2 3 4 a1 T

Die Zeilen von A werden also gemäß σ permutiert. $


4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
225 4

Übung 4.16
•◦◦
a) Man bestimme die Inverse der folgenden Matrizen:
⎡ ⎤
00010
⎡ ⎤ ⎢ ⎥
001 ⎢1 0 0 0 0⎥
⎢ ⎥ ⎢ ⎥
A = ⎣0 1 0⎦ , B = ⎢ ⎥
⎢0 1 0 0 0⎥ .
⎢ ⎥
100 ⎣0 0 0 0 1⎦
00100

b) Man zeige, dass Permutationsmatrizen orthogonal sind.

v Lösung
a) A und B sind beides Permutationsmatrizen. Daher ist
⎡ ⎤
01000
⎡ ⎤ ⎢ ⎥
001 ⎢0 0 1 0 0⎥
−1 T ⎢ ⎥ −1 T
⎢ ⎥
A = A = ⎣0 1 0⎦ , B = B = ⎢ ⎥
⎢0 0 0 0 1⎥ .
⎢ ⎥
100 ⎣1 0 0 0 0⎦
00010

b) Es sei P eine Permutationsmatrix. Dann ist P−1 = PT . Daraus folgt PT P =


P−1 P = E ⇒ P ist orthogonal. !

4.2.3 Gauß-Algorithmus mit Pivotstrategie

Der Gauß-Algorithmus mit Pivotstrategie (oder Pivotisierung) ist eine Variante des
normalen Gauß-Algorithmus, den wir in 7 Kap. 2 studiert haben. Beim Gauß-
Algorithmus mit Pivotstrategie werden dieselben elementaren Zeilenoperationen wie
beim normalen Gauß-Algorithmus verwendet (7 vgl. Abschn. 2.2.1), jedoch mit
einer wichtigen Variante. Im ersten Schritt wählen wir innerhalb der ersten Spalte das
Element mit dem größten Betrag aus und vertauschen es nach oben. Dieses betrags-
grösste Element wird also zum neuen Pivot der ersten Spalte. Beim zweiten Schritt
suchen wir das betragsgrößte Element innerhalb der zweiten Spalte und vertauschen
es nach oben. Beim Gauß-Algorithmus mit Pivotstrategie wird dieses Verfahren in
jedem Schritt durchgeführt, bis das betragsgrößte Element jeder Pivotspalte immer
als Pivots oben steht.
226 Kapitel 4 • LR-Zerlegung

Übung 4.17
◦ ◦ ◦ Man löse das folgende LGS mittels Gauß-Algorithmus mit Pivotstrategie:

⎨ x1 + x2 + x3 = 1

2x1 + x2 + 2x3 = 0


4x1 + x2 + x3 = 1

v Lösung
Die erweiterte Matrix [A|b] des LGS ist:
⎧ ⎡ ⎤
⎨ x1 + x2 + x3 = 1
⎪ (Z1 ) 1 1 1 1
⎢ ⎥
2x1 + x2 + 2x3 = 0 (Z2 ) " [A|b] = ⎣ 2 1 2 0 ⎦ .


4x1 + x2 + x3 = 1 (Z3 ) 4 1 1 1

Im ersten Schritt betrachten wir die erste Pivotspalte, (1, 2, 4). Das betragsgrößte
Element in dieser Spalte ist 4. Somit vertauschen wir die erste Zeile mit der dritten
Zeile. Das neue Pivot ist nun 4:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 4 1 1 1 2(Z2 ) − (Z1 ) 4 1 1 1
⎢ ⎥ (Z1 ) ↔ (Z3 ) ⎢ ⎥ 4(Z3 ) − (Z1 ) ⎢ ⎥
⎣ 2 1 2 0⎦ " ⎣ 2 1 2 0⎦ " ⎣ 0 1 3 −1 ⎦ .
4 1 1 1 1 1 1 1 0 3 3 3

Dann betrachten wir die zweite Pivotspalte, (1, 3). Weil 3 der betragsgrößte Eintrag
ist, vertauschen wir die zweite Zeile mit der dritten Zeile und fahren weiter mit dem
Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
4 1 1 1 4 1 1 1 4 1 1 1
⎢ ⎥ (Z2 ) ↔ (Z3 ) ⎢ ⎥ 3(Z3 ) − (Z2 ) ⎢ ⎥
⎣ 0 1 3 −1 ⎦ " ⎣0 3 3 3 ⎦ " ⎣ 0 3 3 3 ⎦.
0 3 3 3 0 1 3 −1 0 0 6 −6
⎧⎡ ⎤⎫
⎨ 0 ⎪
⎪ ⎬
⎢ ⎥
Die Lösung ist somit L = ⎣ 2 ⎦ . !

⎩ ⎪

−1

4.2.4 LR-Zerlegung mit Zeilenvertauschung

Eine (n × n)-Matrix A besitzt eine LR-Zerlegung mit Zeilenvertauschung, wenn A sich


wie folgt zerlegen lässt:

PA = LR (4.8)

In dieser Zerlegung ist L eine normierte (n × n)-untere Dreiecksmatrix. R ist eine


(n × n)-obere Dreiecksmatrix und P ist eine Permutationsmatrix.
4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
227 4
LR-Zerlegung mit Zeilenvertauschung – allgemeines Vorgehen
Wir können die Prozedur zur Bestimmung der LR-Zerlegung mit Pivotstrategie im
folgenden Satz festhalten:

# Satz 4.3 (LR-Zerlegung mit Zeilenvertauschung)


Der Gauß-Algorithmus mit Pivotstrategie angewandt auf die (n × n)-Matrix A liefert im
erweiterten Endschema eine normierte Linksdreiecksmatrix L (mit Einsen in der Hauptdia-
gonalen), einer Rechtsdreiecksmatrix R und einer Permutationsmatrix P, sodass LR = PA
gilt. Die Matrizen L und R sind wie bei der einfachen LR-Zerlegung definiert. Bei der LR-
Zerlegung mit Zeilenvertauschung sind zusätzlich alle nötigen Zeilenvertauschungen in der
Permutationsmatrix P gespeichert. $

Musterbeispiel 4.3 (LR-Zerlegung mit Zeilenvertauschung)

Wir illustrieren die LR-Zerlegung mit Zeilenvertauschung an der folgenden Matrix


⎡ ⎤
1 −2 4
⎢ ⎥
A = ⎣5 1 2⎦.
3 −1 1

Das Ausgangsschema LR-Zerlegung mit Zeilenvertauschung ist


⎡ ⎤
1 0 0 1 0 0 1 −2 4
⎢ ⎥
[E|E|A] = ⎣ 0 1 0 0 1 0 5 1 2 ⎦ .
0 0 1 0 0 1 3 −1 1

Dann wenden wir den Gauß-Algorithmus mit Pivotstrategie auf die rechte Matrix an.
Wir speichern alle nötigen Zeilenoperationen in den Einträgen der mittleren Matrix
unter der Diagonalen. Zusätzlich speichern wir alle nötigen Zeilenpermutationen in
der linken Matrix. Die LR-Zerlegung mit Zeilenvertauschung können wir somit direkt
im Endschema [P|L|R] ablesen.
Wir betrachten die erste Pivotspalte der rechten Matrix, (1, 5, 3). Der betragsgrösste
Eintrag in dieser Spalte ist 5. Somit vertauschen wir die erste und zweite Zeilen und
führen dann einen Schritt des Gauß-Algorithmus durch:
⎡ ⎤ ⎡ ⎤
1 0 0 1 0 0 1 −2 4 0 1 0 1 0 0 5 1 2
⎢ ⎥ (Z1 ) ↔ (Z2 ) ⎢ ⎥
⎣0 1 0 0 1 0 5 1 2⎦ " ⎣ 1 0 0 0 1 0 1 −2 4 ⎦
0 0 1 0 0 1 3 −1 1 0 0 1 0 0 1 3 −1 1

(Z2 ) − 1 (Z1 ) ⎡ ⎤
5
(Z3 ) − 3 (Z1 ) 0 1 0 1 0 0 5 1 2
5 ⎢ 18 ⎥ .
" ⎣ 1 0 0 15 1 0 0 − 11
5 5 ⎦
0 0 1 35 0 1 0 − 85 − 51

Dann betrachten wir die zweite Pivotspalte, (−11/5, −8/5). Weil −11/5 bereits der
betragsgrößte Eintrag ist, müssen wir keine Zeile vertauschen und wir verfahren weiter
228 Kapitel 4 • LR-Zerlegung

mit dem Gauß-Algorithmus:


⎡ ⎤ ⎡ ⎤
0 1 0 1 0 0 5 1 2 (Z3 ) − 8 (Z2 )
0 1 0 1 0 0 5 1 2
⎢ 18 ⎥ 11 ⎢ 18 ⎥ .
⎣ 1 0 0 15 1 0 0 − 11
5 5 ⎦
" ⎣ 1 0 0 15 1 0 0 − 11
5 5 ⎦
0 0 1 35 0 1 0 − 85 − 15 0 0 1 35 11 1 0
8
0 − 3111

Der Gauß-Algorithmus ist zu Ende gekommen. Aus dem Endschema


⎡ ⎤
0 1 0 1 0 0 5 1 2
⎢ 18 ⎥
[P|L|R] = ⎣ 1 0 0 15 1 0 0 − 11
5 5 ⎦
0 0 1 5 11 1 0 0 − 31
3 8
11

lesen wir die LR-Zerlegung direkt aus


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
010 1 0 0 5 1 2
⎢ ⎥ ⎢ ⎥ ⎢ 18 ⎥ .
P = ⎣1 0 0⎦ , L = ⎣ 15 1 0⎦ , R = ⎣0 − 11
5 5 ⎦
3 8
001 5 11 1 0 0 − 3111

Probe:
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 0 5 1 2 5 1 2
⎢ ⎥⎢ 18 ⎥ = ⎢ ⎥
LR = ⎣ 15 1 0⎦ ⎣0 − 11
5 5 ⎦ ⎣1 −2 4⎦ = PA %
3 8
5 11 1 0 0 − 31
11 3 −1 1

In PA sind die erste und zweite Zeile von A vertauscht.

Übung 4.18
• ◦ ◦ Man bestimme die LR-Zerlegung mit Zeilenvertauschung der folgenden Matrix:
⎡ ⎤
5 1 2
⎢ ⎥
A = ⎣ 2 25 1⎦ .
−4 0 6

v Lösung
Wir betrachten das Ausgangsschema [E|E|A] und wenden den Gauß-Algorithmus mit
Pivotstrategie an:
⎡ ⎤ (Z2 ) − 2 (Z1 ) ⎡ ⎤
5
1 0 0 1 0 0 5 1 2 (Z3 ) − − 4 (Z1 ) 1 0 0 1 0 0 5 1 2
⎢ ⎥ 5 ⎢ ⎥
[E|E|A] = ⎣ 0 1 0 0 1 0 2 25 1 ⎦ " ⎣ 0 1 0 25 1 0 0 0 15 ⎦
0 0 1 0 0 1 −4 0 6 0 0 1 − 54 0 1 0 45 38
5
⎡ ⎤
1 0 0 1 0 0 5 1 2
(Z3 )↔(Z2 ) ⎢ ⎥
" ⎣ 0 0 1 − 45 1 0 0 45 38
5 ⎦
.
0 1 0 25 0 1 0 0 15
4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
229 4
Das Verfahren wurde terminiert und wir lesen die LR-Zerlegung von A aus dem
Endschema [P|L|R] ab:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
100 1 00 5 1 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
P = ⎣0 0 1⎦ , L = ⎣− 45 1 0⎦ , R = ⎣0 45 38 5 ⎦
.
2 1
010 5 01 0 0 5

Eine Probe zeigt LR = PA. !

Übung 4.19
• • ◦ Man bestimme die LR-Zerlegung mit Zeilenvertauschung der folgenden Matrix:
⎡ ⎤
111 1
⎢0 4 0 3 ⎥
⎢ ⎥
A=⎢ ⎥.
⎣2 0 0 5 ⎦
1 2 3 −1

v Lösung
Wir betrachten das Ausgangsschema [E|E|A] und wenden den Gauß-Algorithmus mit
Pivotstrategie an:
⎡ ⎤ ⎡ ⎤
1 0 0 0 1 0 0 0 1 1 1 1 0 0 1 0 1 0 0 0 2 0 0 5
⎢0 3 ⎥

⎢ 1 0 0 0 1 0 0 0 4 0 (Z
⎥ 1 )↔(Z )
3 ⎢ 0 1 0 0 0 1 0 0 0 4 0 3 ⎥

⎢ ⎥ " ⎢ ⎥
⎣0 0 1 0 0 0 1 0 2 0 0 5 ⎦ ⎣1 0 0 0 0 0 1 0 1 1 1 1 ⎦
0 0 0 1 0 0 0 1 1 2 3 −1 0 0 0 1 0 0 0 1 1 2 3 −1

(Z3 ) − 1 (Z1 )
⎡ ⎤
2 0 0 1 0 1 0 0 0 2 0 0 5
(Z4 ) − 1 (Z1 ) ⎢ ⎥
2 ⎢0 1 0 0 0 1 0 0 0 4 0 3 ⎥
" ⎢ ⎥
⎣1 0 0 0 12 0 1 0 0 1 1 − 32 ⎦
0 0 0 1 12 0 0 1 0 2 3 − 72

(Z3 ) − 1 (Z2 )
⎡ ⎤
4 0 0 1 0 1 0 0 0 2 0 0 5
(Z4 ) − 1 (Z2 ) ⎢0
2 ⎢ 1 0 0 0 1 0 0 0 4 0 3 ⎥ ⎥
" ⎢ ⎥
⎣1 0 0 0 12 14 1 0 0 0 1 − 94 ⎦
0 0 0 1 12 12 0 1 0 0 3 −5
⎡ ⎤
0 0 1 0 1 0 0 0 2 0 0 5

(Z3 )↔(Z4 ) ⎢ 0

1 0 0 0 1 0 0 0 4 0 3 ⎥
" ⎢ ⎥
⎣0 0 0 1 12 12 1 0 0 0 3 −5 ⎦
1 0 0 0 12 14 0 1 0 0 1 − 49
⎡ ⎤
0 0 1 0 1 0 0 0 2 0 0 5
(Z4 )− 13 (Z3 ) ⎢ 0 1 0 0 0 1 0 0 0 4 0 3

⎢ ⎥
" ⎢ ⎥
⎣0 0 0 1 12 12 1 0 0 0 3 −5 ⎦
1 0 0 0 12 14 13 1 0 0 7
0 − 12
230 Kapitel 4 • LR-Zerlegung

Wir erhalten endlich:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 1 0 1 0 0 0 2 0 0 5
⎢0 0⎥ ⎢ 0 1 0 0⎥ ⎢0
⎢ 1 0 ⎥ ⎢ ⎥ ⎢ 4 0 3 ⎥ ⎥
P=⎢ ⎥, L = ⎢1 1 ⎥, R=⎢ ⎥.
⎣0 0 0 1⎦ ⎣ 2 2 1 0⎦ ⎣0 0 3 −5 ⎦
1 1 1 7
1 0 0 0 2 4 3 1 0 0 0 − 12


⎤⎡ ⎤ ⎡ ⎤
1 0 0 0 2 0 0 5 2 0 0 5
⎢ 0 1 0 0⎥ ⎢0 4 0 3 ⎥ ⎢ 3⎥
⎢ ⎥⎢ ⎥ ⎢0 4 0 ⎥
Probe: LR = ⎢ 1 1 ⎥⎢ ⎥=⎢ ⎥ = PA % !
⎣ 2 2 1 0⎦ ⎣0 0 3 −5 ⎦ ⎣1 2 3 −1⎦
1 1 1 7
2 4 3 1 0 0 0 − 12 1 1 1 1

Übung 4.20
• • ◦ Man bestimme die LR-Zerlegung mit Zeilenvertauschung der folgenden Matrix:
⎡ ⎤
−2 4 6 0
⎢0
⎢ 3 1 1⎥⎥
A=⎢ ⎥.
⎣2 −10 −7 −1⎦
1 −8 −4 2

Man bestimme die Determinante von A.

v Lösung
Das Ausgangsschema der Prozedur zur Bestimmung der LR-Zerlegung ist:
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0
⎢0
⎢ 1 0 0 0 1 0 0 0 3 1 1 ⎥⎥
[E|E|A] = ⎢ ⎥.
⎣0 0 1 0 0 0 1 0 2 −10 −7 −1 ⎦
0 0 0 1 0 0 0 1 1 −8 −4 2

Wir betrachten die erste Spalte von A. | − 2| = 2 ist der betragsgrößte Eintrag in dieser
Spalte. Wir müssen somit keine Zeilen vertauschen und wir führen den ersten Schritt
des Gauß-Algorithmus durch:
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0 (Z3 ) − −1 (Z1 )
⎢0 ⎥ (Z4 ) − − 1 ) (Z1 )
⎢ 1 0 0 0 1 0 0 0 3 1 1 ⎥ 2
⎢ ⎥ "
⎣0 0 1 0 0 0 1 0 2 −10 −7 −1 ⎦
0 0 0 1 0 0 0 1 1 −8 −4 2
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0
⎢0 1 ⎥
⎢ 1 0 0 0 1 0 0 0 3 1 ⎥
⎢ ⎥.
⎣0 0 1 0 −1 0 1 0 0 −6 −1 −1 ⎦
0 0 0 1 − 21 0 0 1 0 −6 −1 2
4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
231 4
Nun müssen wir die zweite und dritte Zeile vertauschen, da |3| < | − 6|. Wir erhalten
somit:
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 0 6
⎢0 ⎥
⎢ 1 0 0 0 1 0 0 0 3 1
1 ⎥ (Z2 )↔(Z3 )
⎢ ⎥ "
⎣0 0 1 0 −1 0 1 0 0 −6 −1
−1 ⎦
0 0 0 1 − 21 0 0 1 0 −6 2 −1
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0
⎢0 0
⎢ 1 0 −1 1 0 0 0 −6 −1 −1 ⎥⎥
⎢ ⎥.
⎣0 1 0 0 0 0 1 0 0 3 1 1 ⎦
0 0 0 1 − 12 0 0 1 0 −6 −1 2

Jetzt führen wir den letzen Schritt des Gauß-Algorithmus aus:


⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0 (Z3 ) − − 1 (Z2 )
2
⎢0
⎢ 0 1 0 −1 1 0 0 0 −6 −1 −1 ⎥
⎥ (Z4 ) − 1 (Z2 )
⎢ ⎥ "
⎣0 1 0 0 0 0 1 0 0 3 1 1 ⎦
0 0 0 1 − 21 0 0 1 0 −6 −1 2
⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0
⎢0
⎢ 0 1 0 −1 1 0 0 0 −6 −1 −1 ⎥

⎢ ⎥.
⎣0 1 0 0 0 − 12 1 0 0 0 12 12 ⎦
0 0 0 1 − 21 1 0 1 0 0 0 3

Somit erhalten wir:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0 1 0 0 0 −2 4 6 0
⎢0 0⎥ ⎢ −1 ⎥ ⎢0 −6 −1 −1⎥
⎢ 0 1 ⎥ ⎢ 1 0 0⎥ ⎢ ⎥
P=⎢ ⎥, L=⎢ ⎥, R=⎢ ⎥.
⎣0 1 0 0⎦ ⎣ 0 − 12 1 0⎦ ⎣0 0 12 21 ⎦
0 0 0 1 − 12 1 0 1 0 0 0 3

Die Kontrolle zeigt LR = PA. Für die Determinante von A gilt


@ A
det(A) = det PT det(L) det(R) = (−1)# Zeilenoperationen r11 r22 r33 r44
; <= >
=1

1
= (−1)1 · (−2) · (−6) · · 3 = −18.
2 !

4.2.5 Lösung von LGS

Das Lösen eines LGS mittels LR-Zerlegung mit Zeilenvertauschung erfolgt analog zu
7 Abschn. 4.1.4. Für das LGS Ax = b wird zuerst die Matrix A mittels LR-Zerlegung
mit Zeilenvertauschung zerlegt: PA = LR. Weil P eine Permutationsmatrix ist, gilt
P−1 = PT ⇒ PT P = E. Aus der ursprünglischen Matrizengleichung erhalten wir:
232 Kapitel 4 • LR-Zerlegung

PT P=E PT =P−1 PA=LR


Ax = b ⇒ PT PAx = b ⇒ PAx = Pb ⇒ LRx = Pb.

Zuerst lösen wir das folgende LGS für die Hilfsvariable y = Rx

Ly = Pb (4.9)

dann lösen wir

Rx = y. (4.10)

Da die Matrizen L und R Dreiecksform haben, kann man beide LGS ganz einfach
durch sukzessives Auflösen von oben nach unten bzw. von unten nach oben direkt
lösen.

Kochrezept 4.2 (LGS mittels LR-Zerlegung mit Zeilenvertauschung lösen)


Gegeben – LGS: Ax = b.
Gesucht – Lösung x mittels LR-Zerlegung von A.
Voraussetzung – LR-Zerlegung von A mit Zeilenvertauschung möglich.
Schritt 1 – Man nehme die LR-Zerlegung mit Zeilenvertauschung der Matrix A vor,
d. h., man bestimme Matrizen P, L und R, sodass PA = LR gilt.
Schritt 2 – Man bilde den Vektor z = Pb.
Schritt 3 – Man löse das LGS Ly = z zeilenweise (z wurde im Schritt 2 gefunden).
Schritt 4 – Man löse das LGS Rx = y zeilenweise (y wurde im Schritt 3 gefunden).
Der Vektor x ist die gesuchte Lösung von Ax = b.

Übung 4.21
• ◦ ◦ Man löse das folgende LGS mittels LR-Zerlegung und Zeilenvertauschung:

⎨ 5x1 + x2 + 2x3 = 13

2x1 + 25 x2 + x3 = 295


−4x1 + 6x3 = 14

v Lösung
Zuerst schreiben wir das LGS in Matrixform Ax = b mit
⎡ ⎤ ⎡ ⎤
5 1 2 13
⎢ ⎥ ⎢ ⎥
A = ⎣ 2 25 1⎦ , b = ⎣ 29
5 ⎦
.
−4 0 6 14

Nun gehen wir das Kochrezept 4.2 Schritt für Schritt durch.
4.2 • LR-Zerlegung mit Zeilenvertauschung – Pivotstrategie
233 4
Schritt 1 – Die LR-Zerlegung mit Zeilenvertauschung der Matrix A wurde bereits in
Übung 4.18 vorgenommen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
100 1 00 5 1 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
P = ⎣0 0 1⎦ , L = ⎣− 45 1 0⎦ , R = ⎣0 45 38
5 ⎦
.
2 1
010 5 0 1 0 0 5

Schritt 2 – Wir berechnen den Vektor z = Pb


⎡ ⎤⎡ ⎤ ⎡ ⎤
100 13 13
⎢ ⎥⎢ ⎥ ⎢ ⎥
z = ⎣0 0 1⎦ ⎣ 29
5 ⎦
= ⎣14⎦ .
29
010 14 5

Schritt 3 – Wir lösen das LGS Ly = z zeilenweise


⎧ ⎡ ⎤
⎨ y1
⎪ = 13 13
⎢ 122 ⎥
− 45 y1 + y2 = 14 ⇒ y = ⎣ 5 ⎦.

⎩ 2
5 y 1 + y 3 = 29
5
3
5

Schritt 4 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 3 gefundenen
Vektor y
⎧ ⎡ ⎤
⎨5x1 + x2 + 2x3 = 13
⎪ 1
4 38 122 ⎢ ⎥
5 x2 + 5 x3 = 5
⇒ x = ⎣2⎦ .

⎩ 1 3
5 x3 = 5 3 !

Übung 4.22
• ◦ ◦ Man löse das folgende LGS mittels LR-Zerlegung und Zeilenvertauschung:


⎪ x1 + x2 + x3 + x4 =0

⎨ 4x2 + 3x4 =5


⎪ 2x 1 + 5x4 =4

x1 + 2x2 + 3x3 − x4 =1

v Lösung
Zuerst schreiben wir das LGS in Matrixform Ax = b mit
⎡ ⎤ ⎡ ⎤
1 1 1 1 0
⎢0 3⎥ ⎢5⎥
⎢ 4 0 ⎥ ⎢ ⎥
A=⎢ ⎥, b = ⎢ ⎥.
⎣2 0 0 5⎦ ⎣4⎦
1 2 3 −1 1

Nun gehen wir das Kochrezept 4.2 Schritt für Schritt durch.
234 Kapitel 4 • LR-Zerlegung

Schritt 1 – Die LR-Zerlegung mit Zeilenvertauschung der Matrix A wurde bereits in


Übung 4.19 vorgenommen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 1 0 1 0 0 0 2 0 0 5
⎢0 0⎥ ⎢ 0 1 0 0⎥ ⎢0
⎢ 1 0 ⎥ ⎢ ⎥ ⎢ 4 0 3 ⎥ ⎥
P=⎢ ⎥, L = ⎢1 1 ⎥, R=⎢ ⎥.
⎣0 0 0 1⎦ ⎣ 2 2 1 0⎦ ⎣0 0 3 −5 ⎦
1 1 1 7
1 0 0 0 2 4 3 1 0 0 0 − 12

Schritt 2 – Wir berechnen den Vektor z = Pb


⎡ ⎤⎡ ⎤ ⎡ ⎤
0 0 1 0 0 4
⎢0 0⎥ ⎢ ⎥ ⎢ ⎥
⎢ 1 0 ⎥ ⎢5⎥ ⎢5⎥
z=⎢ ⎥⎢ ⎥ = ⎢ ⎥.
⎣0 0 0 1⎦ ⎣4⎦ ⎣1⎦
1 0 0 0 1 0

Schritt 3 – Wir lösen das LGS Ly = z zeilenweise


⎧ ⎡ ⎤

⎪ y1 =4 4

⎨ ⎢ 5 ⎥
y2 =5 ⎢ ⎥
1 1
⇒ y = ⎢ 7 ⎥.

⎪ y1 + 2 y2 + y3 =1 ⎣ −2 ⎦
⎩ 21

1 1
2 y 1 + 4 y 2 + 3 y 3 + y 4 =0 − 25
12

Schritt 4 – Nun lösen wir das LGS Rx = y zeilenweise mit dem im Schritt 3 gefundenen
Vektor y
⎧ ⎡ ⎤

⎪2x1 + 5x4 = 4 − 97
14

⎨ ⎢− 10 ⎥
4x2 + 3x4 = 5 ⎢ ⎥
7
⇒ x = ⎢ 677 ⎥ .


⎪ 3x3 − 5x4 = − 12 ⎣ 14 ⎦
⎩ 7
− 12 x4 = − 25
12
25
7 !

4.3 Zeilenvertauschung: ja oder nein?

Wir wollen uns noch mit der folgenden Frage beschäftigen: Was ist der Unterschied
zwischen der LR-Zerlegung ohne und mit Zeilenvertauschung? Es gibt grundsätzlich
zwei Gründe, wieso man eine LR-Zerlegung mit Zeilenvertauschung durchführen
will:
5 Die LR-Zerlegung mit Zeilenvertauschung bietet erhöhte numerische Stabilität bei
endlicher Arithmetik (vgl. Übung 4.23).
5 Nicht alle Matrizen besitzen eine LR-Zerlegung. In solchen Situationen
kann man trotzdem eine LR-Zerlegung mit Zeilenvertauschung durchführen
(vgl. Übung 4.24).
4.3 • Zeilenvertauschung: ja oder nein?
235 4
4.3.1 Numerische Stabilität

Das folgende Beispiel soll an einem konkreten Fall die Wichtigkeit der Zeilen-
vertauschung für die numerische Stabilität der LR-Zerlegung aufzeigen. Für die
Lösung eines LGS auf dem Computer (endliche Arithmetik, Auslöschung) bietet die
LR-Zerlegung mit Zeilenvertauschung eine genauere Methode im Vergleich zur LR-
Zerlegung ohne Zeilenvertauschung.

Übung 4.23
• • ◦ Das Gleichungssystem
1
0.035x1 + 3.6x2 = 9.1
1.2x1 + 1.4x2 = 5.9

hat folgende exakte Lösung:


' *
1.99016 · · ·
x= .
2.50842 · · ·

Nehmen wir an, dass ein Computer nur mit 2 signifikanten Stellen rechnen kann
(d. h. 0.123 wird auf 0.12 gerundet während 249 auf 250 gerundet wird). Welche
Lösung wird der Computer liefern, wenn zum Lösen des Gleichungssystems (a) eine
LR-Zerlegung ohne Zeilenvertauschung benutzt wird oder (b) eine LR-Zerlegung mit
Zeilenvertauschung? Welches der zwei Verfahren ist genauer?

v Lösung
Zuerst schreiben wir das LGS in Matrixform Ax = b mit
' * ' *
0.035 3.6 9.1
A= , b= .
1.2 1.4 5.9

a) Wir bestimmen nun eine LR-Zerlegung der Matrix A ohne Zeilenvertauschung:


' * ' * ' *
1 0 0.035 3.6 (Z2 )− 34 (Z1 ) 1 0 0.035 3.6 1 0
" ⇒ L= ,
0 1 1.2 1.4 34 1 0 −120 34 1
' *
0.035 3.6
R= .
0 −120

Dann lösen wir das LGS Ly = z zeilenweise


1 '
*
y1 = 9.1 9.1
⇒ y= .
34y1 + y2 = 5.9 −300

Schließlich lösen wir das LGS Rx = y zeilenweise mit dem gefundenen Vektor y
236 Kapitel 4 • LR-Zerlegung

1 ' *
0.035x1 + 3.6x2 = 9.1 2.9
⇒ x= .
−120x2 = −300 2.5
' *
1.99017 · · ·
Das Endresultat ist weit entfernt von der exakten Lösung: x = . Das
2.50843 · · ·
Problem liegt darin, dass das erste Element in der ersten Zeile von A im Vergleich
zum anderen Element in derselben Zeile relativ klein ist. Bei endlicher Arithmetik
kann dies zu Auslöschung führen. Deshalb sollte man die Pivotzeile so aussuchen,
dass das Pivotelement in dieser Zeile relativ zu den anderen Elementen der Zeile
möglichst das größte ist. Die Anwendung der LR-Zerlegung mit Zeilenvertauschun-
gen liefert genau deshalb eine genauere Lösung.
b) Wir bestimmen nun eine LR-Zerlegung der Matrix A mit Zeilenvertauschung:
' * ' *
1 0 1 0 0.035 3.6 (Z2 )↔(Z1 ) 0 1 1 0 1.2 1.4 (Z2 )− 0.029 (Z1 )
" "
0 1 0 1 1.2 1.4 1 0 0 1 0.035 3.6
' * ' * ' * ' *
0 1 1 0 1.2 1.4 0 1 1 0 1.2 1.4
⇒ P= ,L= ,R=
1 0 0.029 1 0 3.6 1 0 0.029 1 0 3.6
' *' * ' *
01 9.1 5.9
Dann berechnen wir den Vektor z = Pb = = und lösen das
10 5.9 9.1
LGS Ly = z zeilenweise
1 ' *
y1 = 5.9 5.9
⇒y= .
0.029y1 + y2 = 9.1 8.9

Schließlich lösen wir das LGS Rx = y zeilenweise mit dem gefundenen Vektor y
1 *'
1.2x1 + 1.4x2 = 5.9 2.0
⇒ x= .
3.6x2 = 8.9 2.5

Diese Lösung ist genau, wenn man das exakte Resultat auf 2 signifikanten Stellen
rundet. Die LR-Zerlegung mit Zeilenvertauschung ist somit ein besserer Algorith-
mus als die LR-Zerlegung ohne Zeilenvertauschung. !

Existenz der einfachen LR-Zerlegung ist nicht möglich


Das folgende Beispiel soll an einem konkreten Fall zeigen, dass die LR-Zerlegung mit
Zeilenvertauschung auch dann möglich ist, wenn die einfache LR-Zerlegung versagt.
4.3 • Zeilenvertauschung: ja oder nein?
237 4

Übung 4.24
• • ◦ Man betrachte die folgende Matrix
⎡ ⎤
1 0 2
⎢ ⎥
A = ⎣−1 a 1⎦ , a ∈ R.
0 −1 3

a) Für welche Werte des Parameters a ∈ R besitzt die folgende Matrix eine LR-
Zerlegung?
b) Für welche Werte des Parameters a ∈ R besitzt die folgende Matrix eine LR-
Zerlegung mit Zeilenvertauschung? Man bestimme diese Zerlegung in Abhängig-
keit des Parameters a ∈ R.

v Lösung
a) Damit eine LR-Zerlegung der Matrix A möglich ist, muss det(Ak ) ̸= 0 für k = 1, 2, 3
gelten (Satz 4.2):
6 7
A1 = 1 ⇒ det(A1 ) = 1 ̸= 0 %
' *
1 0
A2 = ⇒ det(A2 ) = a ̸= 0 ⇒ a ̸= 0
−1 a
⎡ ⎤ + +
1 0 2 +1 0 2++
+
⎢ ⎥ + +
A3 = ⎣−1 a 1⎦ ⇒ det(A3 ) = +−1 a 1+
+ +
0 −1 3 +0 −1 3+
+ + + +
+a
+ 1++ ++ 0 2++
=+ +++ +
+−1 3+ +−1 3+

= 3(a + 1) ̸= 0 ⇒ a ̸= −1.

Somit besitzt A eine LR-Zerlegung wenn a ̸= {−1, 0}.


b) Um die LR-Zerlegung mit Zeilenvertauschung von A zu bestimmen, bemerken wir,
dass 1 bereits der betragsgrößte Eintrag in der ersten Pivotspalte ist. Wir müssen
also keine Zeile vertauschen und wir wenden einfach den ersten Schritt des Gauß-
Algorithmus an:
⎡ ⎤ ⎡ ⎤
1 0 0 1 0 0 1 0 2 1 0 0 1 0 0 1 0 2
⎢ ⎥ (Z2 ) − −1 (Z1 ) ⎢ ⎥
⎣ 0 1 0 0 1 0 −1 a 1 ⎦ " ⎣ 0 1 0 −1 1 0 0 a 3 ⎦ .
0 0 1 0 0 1 0 −1 3 0 0 1 0 0 1 0 −1 3

Nun suchen wir das Betragsgrößte Element in der zweiten Pivotspalte: Ist es −1 oder
a? Wir müssen zwei Fälle unterscheiden:
5 Fall 1: |a| > 1. In diesem Fall ist a bereits das Pivot. Wir müssen somit keine
Zeilenvertauschung durchführen:
238 Kapitel 4 • LR-Zerlegung

⎡ ⎤ ⎡ ⎤
1 0 0 1 0 0 1 0 2 1 0 0 1 0 0 1 0 2
(Z3 ) − − a1 (Z2 ) ⎢ ⎥
⎢ ⎥ ⎢ 0 1 0 −1 1 0 0 a
@ 3 A ⎦.
⎣ 0 1 0 −1 1 0 0 a 3 ⎦ " ⎥

1
0 0 1 0 0 1 0 −1 3 0 0 1 0 −a 1 0 0 3 1 + a
1

Die LR-Zerlegung von A ist dann:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
100 1 0 0 10 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
P = ⎣0 1 0⎦ , L = ⎣−1 1 0⎦ , R=⎢ 0 a @ 3 A⎥
⎣ ⎦
001 0 − 1a 1 0 0 3 1 + 1a

vorausgesetzt |a| > 1 (insbesondere a ̸= 0).


5 Fall 2: |a| ≤ 1. In diesem Fall ist −1 das Pivot. Somit müssen wir die zweite und
dritte Zeilen vertauschen:
⎡ ⎤ ⎡ ⎤
1 0 0 1 0 0 1 0 2 1 0 0 1 0 0 1 0 2
⎢ ⎥ (Z3 ) ↔ (Z2 ) ⎢ ⎥
⎣ 0 1 0 −1 1 0 0 a 3 ⎦ " ⎣ 0 0 1 −1 1 0 0 −1 3 ⎦ .
0 0 1 0 0 1 0 −1 3 0 1 0 0 0 1 0 a 3

Dann gehen wir mit dem Gauß-Algorithmus weiter:


⎡ ⎤ ⎡ ⎤
1 0 0 1 0 0 1 0 2 1 0 0 1 0 0 1 0 2
⎢ ⎥ (Z3 ) − −a (Z2 ) ⎢ ⎥
⎣ 0 0 1 −1 1 0 0 −1 3 ⎦ " ⎣ 0 0 1 0 1 0 0 −1 3 ⎦.
0 1 0 0 0 1 0 a 3 0 1 0 −1 −a 1 0 0 3(a + 1)

Die LR-Zerlegung von A ist dann:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
100 1 0 0 1 0 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
P = ⎣0 0 1⎦ , L = ⎣ 0 1 0⎦ , R = ⎣0 −1 3 ⎦
010 −1 −a 1 0 0 3(a + 1)

vorausgesetzt |a| ≤ 1.

Zusammenfassend: Die Matrix A besitzt eine LR-Zerlegung mit Zeilenvertauschung


für alle a ∈ R, obwohl die LR-Zerlegung ohne Zeilenvertauschung für a ̸= {−1, 0}
nicht existiert. !

4.4 Komplexität der LR-Zerlegung

Zum Schluss dieses Kapitels, wollen wir uns noch mit der folgenden Frage beschäf-
tigen: Wie viele Rechenoperationen werden gebraucht, um ein LGS Ax = b mit n
Gleichungen und n Unbekannten mittels LR-Zerlegung für großes n zu lösen?
Gemäß Kochrezept 4.1 sind drei Schritte nötig:
3 2 −n
5 Bestimmung der LR-Zerlegung von A. In diesem Schritt sind 4n −3n6 Operatio-
nen nötig (Übung 4.25).
4.4 • Komplexität der LR-Zerlegung
239 4
5 Lösen des LGS Ly = b durch Vorwärtseinsetzen. Der Rechenaufwand ist n2
(Übung 4.26).
5 Lösen des LGS Rx = y durch Rückwärtseinsetzen. Es sind n2 + n Operationen
nötig (Übung 4.27).

Der gesamte Rechenaufwand bei der Lösung eines (n×n)-LGS mittels LR-Zerlegung
beträgt somit

4n3 − 3n2 − n
+ n2 + (n2 + n) Operationen.
6

Für großes n, sind die Terme mit n und n2 vernachlässigbar im Vergleich zu n3 . Somit
sind insgesamt Ordnung n3 Operationen nötig. Dieser Rechenaufwand ist viel kleiner
als bei der Lösung des LGS mithilfe der Determinante, wobei Ordnung (n + 1)!
Operationen nötig sind (Übung 4.28).

Übung 4.25
• • • Wie viele Rechenschritte sind für die LR-Zerlegung einer (n × n)-Matrix nötig?

v Lösung
Die Bestimmung der LR-Zerlegung gemäß 7 Abschn. 4.1.2 können wir mit folgendem
Algorithmus im Pseudocode zusammenfassen:

Algorithm 1: Algorithmus für LR-Zerlegung (Pseudocode)


input : (n × n)-Matrix A (unter den Voraussetzungen von Satz 4.2)
output: LR-Zerlegung von A
for j = 1 to n do
for i = j + 1 to n do
a
ℓij = aijjj ← 1 Operation
for k = j + 1 to n do
aik ← aik − ℓij ajk ← 2 Operationen
end
end
end

Der Algorithmus besteht aus drei For-Schleifen. Die innere For-Schleife benötigt 2
Operationen (1 Multiplikation und 1 Addition) pro Schritt. Insgesamt sind es somit

n
D n
D
2=2× 1 = 2(n − j)
k=j+1 i=j+1
; <= >
=n−j

Operationen. Die mittlere For-Schleife verwendet eine Operation (Division) und ruft
die innere For-Schleife. Pro Schritt sind es somit 1 + 2(n − j) Operationen. Insgesamt
ergibt dies:
240 Kapitel 4 • LR-Zerlegung

n
D n
( ) ( ) D ( )
1 + 2(n − j) = 1 + 2(n − j) 1 = 1 + 2(n − j) (n − j)
i=j+1 i=j+1
; <= >
=n−j

2
= 2j − (4n + 1)j + n(2n + 1)

Operationen. Schließlich, summieren wir über die äußere For-Schleife und bekommen:

n
D n
D n
D n
D
( )
2j 2 − (4n + 1)j + n(2n + 1) = 2 j2 − (4n + 1) j + n(2n + 1) 1
j=1 j=1 j=1 j=1
; <= > ; <= > ; <= >
=2 n(n+1)(2n+1)
=(4n+1) n(n+1) =n(2n+1) n
6 2

4n3 − 3n2 − n
=
6

Für großes n betrachten wir nur die größte Potenz von n (n3 in diesem Fall). Die Ge-
samtanzahl der Operationen bei der LR-Zerlegung vereinfacht sich somit im Grenzwert
n ≫ 1 zu:

4n3 − 3n2 − n 2n3


≃ Operationen.
6 3

Der Rechenaufwand bei der LR-Zerlegung beträgt somit O(n3 ). !

Praxistipp

Bei Rechenaufwandberechnungen sind oft die folgenden Formeln nützlich:

n
D n
D n
D
n(n + 1) n(n + 1)(2n + 1)
1 = n, j= , j2 = .
2 6
j=1 j=1 j=1

Übung 4.26
• • • Sei L eine normierte (n × n)-untere Dreiecksmatrix. Man bestimme den Rechen-
aufwand bei der Lösung von Ly = b durch Vorwärtseinsetzen.

v Lösung
Durch Vorwärtseinsetzen ergibt sich die folgende Lösung von Ly = b:

y1 = b1 ← 1 Operation
y2 = b2 − ℓ21 y1 ← 2 Operationen
y3 = b3 − ℓ31 y1 − ℓ32 y2 ← 4 Operationen
4.4 • Komplexität der LR-Zerlegung
241 4
..
.
yj = bj − ℓj1 y1 − ℓj2 y2 − · · · − ℓj,j−1 yj−1 ← 2(n − j) + 1 Operation
..
.

Für das Lösen des LGS Ly = b durch Vorwärtseinsetzen können wir somit den
folgenden Algorithmus im Pseudocode festhalten:

Algorithm 2: Algorithmus für Vorwärtseinsetzen (Pseudocode)


input : LGS Ly = b (L ist normierte untere (n × n)-Dreiecksmatrix)
output: Lösung von Ly = b durch Vorwärtseinsetzen
y1 = b1 ;
for j = 2 to n do
yj = bj − (ℓj1 y1 + · · · + ℓj,j−1 yj−1 ) ← 2(n − j) + 1 Operationen
end

Wie viele Operationen sind beim Vorwärtseinsetzen nötig? Im j-tem Schritt brauchen
wir 1 Subtraktion, sowie n − j Additionen und Multiplikationen (für den Teil ℓj1 y1 +
· · · ℓj,j−1 yj−1 ); dies ergibt 2(n − j) + 1 Operationen. Summieren wir diese Anzahl
Operationen über die gesamte For-Schleife, so erhalten wir:

n
D n
D n
D
( )
2(n − j) + 1 = (2n + 1) × 1−2 × j
j=1 j=1 j=1
; <= > ; <= >
=(2n+1)×n =2× n(n+1)
2

= n(2n + 1) − n(n + 1) = n2 Operationen. !

Übung 4.27
• • • Sei R eine (n × n)-obere Dreiecksmatrix. Man berechne den Rechenaufwand bei
der Lösung von Rx = y durch Rückwärtseinsetzen.

v Lösung
Für das Lösen des LGS Rx = y durch Rückwärtseinsetzen können wir, analog zum
Übung 4.26, den folgenden Algorithmus im Pseudocode nutzen:

Algorithm 3: Algorithmus für Rückwärtseinsetzen (Pseudocode)


input : LGS Rx = y (R ist obere (n × n)-Dreiecksmatrix)
output: Lösung von Rx = y durch Rückwärtseinsetzen
xn = rynnn ;
for j = n − 1 to 1 do
y −(r x +···+rjn xn )
xj = j j,j+1 j+1
rjj ← 2(n − j) + 2 Operationen
end
242 Kapitel 4 • LR-Zerlegung

Beachte, dass die Diagonaleinträge r11 , r22 , · · · , rnn der Matrix R ungleich Null sein
müssen, damit dieser Schritt überhaupt definiert ist (vgl. Satz 4.2). Mit diesem Pseudo-
code können wir die Anzahl Operationen beim Rückwärtseinsetzen berechnen. Bei der
Bestimmung von yj sind 2(n − j) + 2 Operationen nötig. Insgesamt ergibt dies:

n
D n
D n
D
( )
2(n − j) + 2 = (2n + 2) × 1−2 × j
j=1 j=1 j=1
; <= > ; <= >
=(2n+2)×n =2× n(n+1)
2

= n(2n + 2) − n(n + 1) = n2 + n Operationen.

Wie beim Vorwärtseinsetzen, für großes n sind O(n2 ) Operationen nötig. !

Übung 4.28
• • ◦ Man vergleiche den Rechenaufwand der Lösung eines (n × n)-LGS mit den
folgenden Methoden:
a) LR-Zerlegung
b) Cramer’sche Regel (Determinantenberechnung mit Laplace-Entwicklung)
c) Welche Methode ist effizienter? Man nehme an, dass ein Computer 109 Gleitkom-
maoperationen pro Sekunde (109 FLOP = 1 GFLOP, 1 FLOP = 1 Operation/Se-
kunde) durchführen kann. Wie viel Zeit würde der Computer benötigen, um ein
(20 × 20)-LGS mit diesen zwei Methoden zu lösen?

v Lösung
a) Die Lösung eines (n × n)-LGS mittels LR-Zerlegung benötigt O(n3 ) Operationen.
b) Um ein (n × n)-LGS mit der Cramer’schen Regel zu lösen, müssen wir n + 1
Determinanten der Ordnung (n × n) berechnen. Werden diese Determinanten
mit der Laplace-Entwicklung bestimmt, so sind jeweils O(n!) Operationen nötig.
Insgesamt sind O((n + 1)!) Operationen nötig.
c) Klarerweise ist die LR-Zerlegung viel effizienter als die Cramer’sche Regel. Die
Lösung eines (20 × 20)-LGS mit der Cramer’schen Regel benötigt Ordnung 21!
Operationen. Die dazu nötige Rechenzeit ist unglaublich groß:

21!
= 5.2 × 1010 Sekunden = 1620 Jahre.
109 FLOP

Wird stattdessen eine LR-Zerlegung durchgeführt, so sind nur Ordnung 213 Ope-
rationen nötig. Die nötige Rechenzeit ist signifikant viel kleiner:

213
= 9.2 × 10−6 Sekunden = 9.2 µs.
109 FLOP

Daraus erkennt man eindrücklich den Wert der LR-Zerlegung für die Lösung von
großen LGS in der Praxis! !
243 II

Vektorräume
Inhaltsverzeichnis

Kapitel 5 Vektorräume und Unterräume – 245

Kapitel 6 Vektorraumstruktur: Basis, Dimension und


Koordinaten – 287
245 5

Vektorräume und
Unterräume
Inhaltsverzeichnis

5.1 Vektorräume – 246


5.1.1 Definition – 246
5.1.2 Beispiele von Vektorräumen – 247

5.2 Unterräume – 257


5.2.1 Definition – 257
5.2.2 Beispiele von Unterräumen – 259
5.2.3 Unterräume und LGS – 260

5.3 Affine Unterräume – 270


5.3.1 Definition – 270
5.3.2 Affine Unterräume und LGS – 271
5.3.3 Parameterdarstellung von affinen
Unterräumen – 272

5.4 Operationen mit Unterräumen – 274


5.4.1 Durchschnitt und Vereinigung – 274
5.4.2 Summe – 278
5.4.3 Direkte Summe – 280

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_5
246 Kapitel 5 • Vektorräume und Unterräume

In diesem Kapitel legen wir jetzt los, uns mit der linearen Algebra zu befassen.
Zuerst verallgemeinern wir das Vektorkonzept auf allgemeine mathematische Ob-
jekte, wie Matrizen, Polynome oder Funktionen. Dies geschieht durch sogenannte
Vektorräume. Ein Vektorraum ist grundsätzlich eine Verallgemeinerung oder Er-
weiterung von Rn (oder Kn ), wobei gewisse Axiome erfüllt werden müssen. Sind
diese Axiome erfüllt, so können wir unsere erweiterten mathematischen Objekte
(Matrizen, Polynomen oder Funktionen) als „verallgemeinerte Vektoren“ betrachten.
Diese Identifizierung ist nicht einfach ein theoretisches Konstrukt. Damit können wir
tatsächlich komplexe Probleme der Mathematik, welche Matrizen, Polynome oder
Funktionen beinhalten, viel einfacher lösen, indem wir das jeweilige Problem mittels
Vektoren im Rn (oder Kn ) betrachten.

n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 5 sind Sie in der Lage:
5 Vektorräume eindeutig zu erkennen und zu klassifizieren,
5 Kriterien für Unterräume anzuwenden,
5 affine Unterräume von üblichen Unterräumen unterscheiden und geometrisch
interpretieren können zu interpretieren,
5 Operationen mit Unterräumen wie Durchschnitt, Summe und direkte Summe
durchzuführen und geometrisch zu interpretieren,
5 verschiedene konkrete Beispiele zu Vektorräumen zu verstehen und praktisch an-
zuwenden,
5 Lösungsmengen von LGS als Unterräume oder affine Unterräume zu interpretie-
ren.

5.1 Vektorräume

5.1.1 Definition

Es sei K ein Körper (in der Praxis ist oft K = R, C, Q, Zp , usw.).

# Definition 5.1 (Vektorraum über Körper K)


Ein Vektorraum über dem Körper K ist eine nichtleere Menge V zusammen mit einer
Addition

+ : V × V → V, (u, v) → u + v (5.1)

und einer Skalarmultiplikation

· : K × V → V, (α, v) → α · v, (5.2)

sodass die folgenden 8 Bedingungen (Axiome) erfüllt sind:


(VR1) u + v = v + u für alle u, v ∈ V (Kommutativität der Addition).
(VR2) u + (v + w) = (u + v) + w für alle u, v, w ∈ V (Assoziativität der Addition).
5.1 • Vektorräume
247 5
(VR3) Es gibt ein eindeutig bestimmtes Nullelement 0 ∈ V mit 0 + v = v + 0 = v für alle
v ∈ V (Nullelement).
(VR4) Zu jedem Element v ∈ V gibt es ein eindeutig bestimmtes Element (−v) ∈ V mit
v + (−v) = (−v) + v = 0 (inverses Element).
(VR5) α · (u + v) = α · u + α · v für alle u, v ∈ V und α ∈ K (Rechtsdistributivität der
Multiplikation).
(VR6) (α + β) · v = α · v + β · v für alle v ∈ V und α, β ∈ K (Linksdistributivität der
Multiplikation).
(VR7) (α · β) · v = α · (β · v) für alle v ∈ V und α, β ∈ K (Assoziativität der Multiplikation).
(VR8) 1 · v = v für alle v ∈ V (Einselement).

Notiert wird der Vektorraum durch das Tripel (V, +, ·). Ist K = R oder K = C, so spricht
man von einem reellen oder komplexen Vektorraum. $

> Bemerkung
Der Einfachheit halber schreiben wir das Produkt α · v oft als α v.

Link zu Gruppen
Axiome (VR1) – (VR4) besagen, dass (V , +, 0) eine abelsche Gruppe ist (vgl. An-
hang B).

Vektoren = Elemente eines Vektorraums


Die Elemente eines Vektorraums heißen Vektoren. Ab jetzt werden wir unter Vekto-
ren allgemein Elemente eines Vektorraums verstehen, egal ob diese Objekte Funktio-
nen, Polynome, Matrizen, oder übliche Vektoren aus Kn sind (. Abb. 5.1).

Rechenregeln
# Satz 5.1
Aus den Vektorraumaxiomen (VR1)–(VR8) folgen unmittelbar die folgenden Rechenre-
geln (u ∈ V und α ∈ K):
5 0 · u = 0 und α · 0 = 0;
5 α · u = 0 ⇔ α = 0 oder u = 0;
5 (−1) · u = −u. $

5.1.2 Beispiele von Vektorräumen

Wir diskutieren nun einige wichtige Beispiele von Vektorräumen.

> Bemerkung
In jedem Beispiel müssen wir den Körper K, die Menge V , die Addition “+” und die
Skalarmultiplikation “·” festhalten.
248 Kapitel 5 • Vektorräume und Unterräume

. Abb. 5.1 Genauso wie man Vektoren in R2 addieren oder mit α ∈ R skalar multiplizieren kann,
definiert man die Addition und Skalarmultiplikation für stetige Funktionen auf R. Stetige Funktionen
auf R kann man somit wie übliche „Vektoren“ behandeln

# Beispiel
Jeder Vektorraum muss, wegen Axiom (VR3), mindestens das Nullelement enthalten. Aus
diesem Grund ist der Vektorraum nur bestehend aus dem Nullelement, V = {0}, der
kleinste Vektorraum, den wir auf K definieren können. V = {0} nennt man den trivialen
Vektorraum. $

# Beispiel
Die Menge der n-dimensionalen Vektoren über K

Kn = {n-dimensionale Vektoren mit Komponenten in K} (5.3)

bildet zusammen mit der üblichen Addition und Skalarmultiplikation für Vektoren einen
K-Vektorraum. Kn heißt der Standardvektorraum auf K. $
5.1 • Vektorräume
249 5
# Beispiel
Die Menge der (m × n)-Matrizen auf K

Km×n = {(m × n)-Matrizen mit Einträgen aus K} (5.4)

bildet zusammen mit der üblichen Addition und Skalarmultiplikation für Matrizen
(vgl. 7 Kap. 1) einen K-Vektorraum. $

# Beispiel
Die Menge der Polynome vom Grad ≤ n und mit Koeffizienten aus K

Pn (K) = {Polynome mit Koeffizienten aus K und mit Grad ≤ n}


n
D
= {p(x) | p(x) = a0 + a1 x + · · · + an xn = ai xi , ai ∈ K} (5.5)
i=0

bilden zusammen mit der folgenden Addition und Skalarmultiplikation

(p + q)(x) := p(x) + q(x), (α · p)(x) := α p(x), p, q ∈ Pn (K), α ∈ K

einen K-Vektorraum. $

# Beispiel
Die Menge der stetigen Funktionen von K nach K

C 0 (K) = {f : K → K | f stetig} (5.6)

bildet bezüglich der folgenden Addition und Skalarmultiplikation

(f + g)(x) := f (x) + g(x), (α · f )(x) := α f (x), f , g ∈ C 0 (K), α ∈ K

einen K-Vektorraum. $

Musterbeispiel: Vektorraumaxiome verifizieren


Musterbeispiel 5.1 (Beweis, dass V ein Vektorraum ist)

Als klassisches Beispiel zeigen wir, dass V = Kn zusammen mit der üblichen Addition und
Skalarmultiplikation mit Vektoren
' u1 * ' v1 * ' u1 +v1 * ' v1 * ' α v1 *
.. + .. := .. , .
α · . := .. für α ∈ K
. . . . .
un vn un +vn vn α vn

einen Vektorraum über K bildet. Das Vorgehen bei einer solchen Aufgabe ist standardisiert
und lautet wie folgt: Man zeigt (Schritt für Schritt), dass die vorgegebene Menge V alle 8
Eigenschaften (Axiome) eines Vektorraums (Definition 5.1) erfüllt.
250 Kapitel 5 • Vektorräume und Unterräume

5 Beweis von (VR1): Es seien u, v ∈ Kn . Dann gilt (per Definition):


' u1 * ' v1 * ' u1 +v1 * ' v1 +u1 * ' v1 * ' u1 *
u+v= .. + .. = .. = .. = .. + .. = v + u %
. . . . . .
un vn un +vn vn +un vn un

5 Beweis von (VR2): Es seien u, v, w ∈ Kn . Dann gilt:


' u1 * ' v1 +w1 * ' u1 +v1 +w1 *
u + (v + w) = .. + .. = ..
. . .
un vn +wn un +vn +wn
' u1 +v1 * ' w1 *
= .. + .. = (u + v) + w %
. .
un +vn wn

5 Beweis von (VR3): Das Nullelement ist der Nullvektor 0 = [0, · · · , 0]T ∈ Kn . Denn für
' 0 * ' v1 * ⎡ 0+v1 ⎤ ' v1 *
alle v ∈ Kn gilt 0 + v = .. + .. = ⎣ .. ⎦ = .. = v %
. . . .
0 vn 0+vn vn
5 Beweis von (VR4): Das zu v = [v1 , · · · , vn ]T inverse Element bezüglich “+” ist (−v) =
[−v1 , · · · , −vn ]T . Denn es gilt:
' v1 * ' −v1 * ' v1 −v1 * ' 0 *
v + (−v) = .. + .. = .. = .. = 0 %
. . . .
vn −vn vn −vn 0

5 Beweis von (VR5): Es seien u, v ∈ Kn und α ∈ K. Dann gilt:


' u1 +v1 * ⎤ ' ⎡
α (u1 +v1 ) α u1 +α v1 *
α · (u + v) = α · .. =⎣ .. ⎦= ..
. . .
un +vn α (un +vn ) α un +α vn
' α u1 * ' α v1 * ' u1 * ' v1 *
= .. + .. = α · .. + α · .. = α · u + α · v %
. . . .
α un α vn un vn

5 Beweis von (VR6): Es seien v ∈ Kn und α, β ∈ K. Dann gilt:


⎡ ⎤ ⎡ ⎤ ' v1 * ' v1 *
(α+β) v1 α v1 +β v1
(α + β) · v = ⎣ .. ⎦=⎣ .. ⎦=α· .. + β · .. = α · v + β · v %
. . . .
(α+β) vn α vn +β vn vn vn

5 Beweis von (VR7): Es seien v ∈ Kn und α, β ∈ K. Dann gilt:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
(α β) v1 α (β v1 ) β v1
(α · β) · v = ⎣ .. ⎦=⎣ .. ⎦ = α · ⎣ .. ⎦ = α · (β · v) %
. . .
(α β) vn α (β vn ) β vn
⎡ ⎤ ' v1 *
1·v1
5 Beweis von (VR8): Für alle v ∈ Kn gilt 1 · v = ⎣ .. ⎦ = .. = v %
. .
1·vn vn

Alle Bedingungen (VR1)-(VR8) von Definition 5.1 sind erfüllt. Somit ist V ein Vektorraum
über K.
5.1 • Vektorräume
251 5

Übung 5.1
•◦◦ Man zeige, dass die Menge Km×n der (m×n)-Matrizen mit Einträgen in K bezüglich
der üblichen Matrixaddition und Skalarmultiplikation einen K-Vektorraum bildet.

v Lösung
Wir müssen einfach überprüfen, ob die Menge Km×n die 8 Axiome eines Vektorraums
(Definition 5.1) erfüllt. Dies folgt jedoch direkt aus den Rechenregeln für Matrizen
(vgl. 7 Kap. 1).
5 Beweis von (VR1): Es seien A, B ∈ Km×n . Dann gilt:
' a11 ··· a1n * ⎡ b11 ··· b1n ⎤ ⎡ a11 +b11 ··· a1n +b1n

A+B = .. . . .. + ⎣ .. . . .. ⎦ = ⎣ .. .. .. ⎦
. . . . . . . . .
am1 ··· amn bm1 ··· bmn am1 +bm1 ··· amn +bmn
⎡ ⎤ ⎡ ⎤ ' a11 ··· a1n *
b11 +a11 ··· b1n +a1n b11 ··· b1n
=⎣ .. .. .. ⎦ = ⎣ .. . . .. ⎦ + .. . . .. =B+A%
. . . . . . . . .
bm1 +am1 ··· bmn +amn bm1 ··· bmn am1 ··· amn

5 Beweis von (VR2): Analog zu (VR1).


5 Beweis von (VR3): Das Nullelement ist die Nullmatrix 0 ∈ Km×n . Denn für alle
A ∈ Kn gilt:
' 0 ··· 0 * ' a11 ··· a1n * ' a11 ··· a1n *
0+A= .. . . .. + .. . . .. = .. . . .. =A%
. .. . . . . . .
0 ··· 0 am1 ··· amn am1 ··· amn

5 Beweis von (VR4): Das zu A ∈ Kn inverse Element bezüglich “+” ist −A. Denn:
' a11 ··· a1n * ' −a11 ··· −a1n * ' 0 ··· 0
*
A + (−A) = .. . . .. + .. . . .. = .. . . . .. =0%
. . . . . . . .
am1 ··· amn −am1 ··· −amn 0 ··· 0

5 Beweis von (VR5): Es seien A, B ∈ Kn und α ∈ K. Dann gilt


⎡ ⎤
α a11 +α b11 ··· α a1n +α b1n
α · (A + B) = ⎣ .. .. .. ⎦
. . .
α am1 +α bm1 ··· α amn +α bmn
' a11 ··· a1n * ⎡ ⎤
b11 ··· b1n
. . .
= α · . .. . + α · ⎣ . ... . ⎦ = α · A + α · B %
. .
. . . .
am1 ··· amn bm1 ··· bmn

5 Beweis von (VR6): Analog zu (VR5).


5 Beweis von (VR7): Analog zu (VR5).
' 1·a11 ··· 1·a1n * ' a11 ··· a1n *
5 Beweis von (VR8): 1 · A = .. . . .. = .. . . .. =A%
. . . . . .
1·am1 ··· 1·amn am1 ··· amn

Alle Bedingungen (VR1) - (VR8) der Definition 5.1 sind erfüllt. Somit ist Km×n ein
K-Vektorraum. !
252 Kapitel 5 • Vektorräume und Unterräume

Übung 5.2
•◦◦
a) Pn (R) ist die Menge der reellen Polynome vom Grad kleiner oder gleich n
1 n
4
D
n i
Pn (R) = p(x) = a0 + a1 x + · · · + an x = ai x , ai ∈ R .
i=0

Für p, q ∈ Pn (R) und α ∈ R betrachten wir die übliche Addition und Skalarmulti-
plikation auf Pn (R)

(p + q)(x) := p(x) + q(x), (α · p)(x) := α p(x).

Man zeige, dass (Pn (R), +, ·) ein Vektorraum ist.


b) Es sei nun V die Menge aller reellen Polynome vom Grad genau gleich n. Man zeige,
wieso (V , +, ·) keinen Vektorraum bildet.

v Lösung
a) Wir beginnen, indem wir anmerken, dass die Addition “+” und Skalarmultiplikati-
on “·” in Pn (R) wohldefiniert sind:
5 Die Summe zweier Polynomen vom Grad ≤ n ist wieder ein Polynom vom Grad
≤ n.
5 Ist p(x) ∈ Pn (R) und α ∈ R, so ist α p(x) ∈ Pn (R).
Wir zeigen nun, dass die Menge Pn (R) alle Bedingungen eines Vektorraums erfüllt.
Dn Dn n
D
Es seien p(x) = ai xi , q(x) = bi xi , r(x) = ci xi drei Polynome in Pn (R)
i=1 i=1 i=1
und α, β ∈ R.
n
D n
D n
D
5 Beweis von (VR1): (p + q)(x) = p(x) + q(x) = ai xi + bi xi = (ai +
i=1 i=1 i=1
n
D n
D n
D
bi )xi = (bi + ai )xi = bi xi + ai xi = q(x) + p(x) = (q + p)(x) %
i=1 i=1 i=1
Dn n
D n
D
E F
5 Beweis von (VR2): p+(q+r) (x) = ai xi + (bi +ci )xi = (ai +bi +ci )xi =
i=1 i=1 i=1
n
D n
D
i i
E F
(ai + bi )x + ci x = (p + q) + r (x) %
i=1 i=1
5 Beweis von (VR3): Das Nullelement von Pn (R) ist das Nullpolynom 0 (alle
n
D n
D
Koeffizienten sind gleich Null). Denn 0 + p(x) = (0 + ai )xi = ai xi =
i=1 i=1
p(x) %
n
D
5 Beweis von (VR4): Das zu p(x) = ai xi inverse Element ist (−p)(x) =
i=1
n
D
i
(−ai )x . Denn es gilt:
i=1
5.1 • Vektorräume
253 5
n
D n
D n
D
E F
p + (−p) (x) = p(x) + (−p)(x) = ai xi + (−ai )xi = (ai − ai ) xi = 0 %
; <= >
i=1 i=1 i=1 =0

n
D n
D
E F
5 Beweis von (VR5): α · (p + q) (x) = α (ai + bi )xi = α (ai + bi )xi =
i=1 i=1
n
D n
D n
D
(α ai + α bi )xi = α ai xi + α bi xi = (α · p)(x) + (α · q)(x) %
i=1 i=1 i=1
n
D n
D
E F
5 Beweis von (VR6): (α + β) · p (x) = (α + β) ai xi = (α ai + β ai )xi =
i=1 i=1
n
D n
D
i i
α ai x + β ai x = (α · p)(x) + (β · p)(x) %
i=1 i=1
n
D n
D
E F
5 Beweis von (VR7): Es gilt (α β) · p (x) = (α β) ai xi = α(β ai )xi =
i=1 i=1
n
D
i
E F
α β ai x = α · (β p) (x) %
i=1
n
D n
D
5 Beweis von (VR8): (1 · p)(x) = 1 · p(x) = 1 · ai xi = ai xi = p(x) %
i=1 i=1
Alle Bedingungen (VR1)-(VR8) der Definition 5.1 sind somit erfüllt. Daher ist
Pn (R) ein Vektorraum über R.
b) Die Menge V der Polynomen vom Grad n ist kein Vektorraum, weil die Skalar-
multiplikation auf V nicht wohldefiniert ist: Aus der Skalarmultiplikation eines
Polynomes von Grad n mit α = 0 entsteht das Nullpolynom 0. 0 hat aber Grad
0 und ist somit nicht in V enthalten. ✗ !

> Bemerkung
Bei Aufgaben wie Übung 5.2 ist es wichtig, auf eine genaue Notation zu achten: p und q
sind Polynome, während p(x) und q(x) die Werte dieser Polynomen an der Stelle x ∈ R
sind.

Übung 5.3
•◦◦ Sei C 0 (R) die Menge aller reellen stetigen Funktionen. Für f , g ∈ C 0 (R) und α ∈ R
definieren wir die folgende Addition und Skalarmultiplikation

(f + g)(x) := f (x) + g(x), (α f )(x) := α f (x).

Man zeige, dass (C 0 (R), +, ·) ein Vektorraum ist.


254 Kapitel 5 • Vektorräume und Unterräume

v Lösung
Wie im vorgehenden Beispiel, bemerken wir zuerst, dass die Addition „+“ und Skalar-
multiplikation „·“ für C 0 (R) wohldefiniert sind. Dies folgt direkt aus den Rechenregeln
für reelle stetige Funktionen, insbesondere weil aus Summen von stetigen Funktionen
wieder stetige Funktionen entstehen. Wir überprüfen, dass C 0 (R) die 8 Eigenschaften
(Axiome) eines Vektorraums erfüllt. Es seien f , g, h ∈ C 0 (R) und α, β ∈ R.
5 Beweis von (VR1): Es gilt (f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x) %
E F E F
5 Beweis von (VR2): Es gilt f +(g+h) (x) = f (x)+ g(x)+h(x) = f (x)+g(x)+h(x) =
E F E F
f (x) + g(x) + h(x) = (f + g) + h (x) %
5 Beweis von (VR3): Das Nullelement ist die Nullfunktion 0 ∈ C 0 (R). Denn es gilt
(0 + f )(x) = 0 + f (x) = f (x) %
5 Beweis von (VR4): Das zu f (x) inverse Element ist (−f )(x) = −f (x). Denn es gilt
E F
f + (−f ) (x) = f (x) − f (x) = 0 %
E F
5 Beweis von (VR5): Es gilt α · (f + g) (x) = α (f + g)(x) = α f (x) + α g(x) =
(α · f )(x) + (α · g)(x) %
E F
5 Beweis von (VR6): Es gilt (α + β) · f (x) = (α + β) f (x) = α f (x) + β f (x) =
(α · f )(x) + (β · f )(x) %
E F E F
5 Beweis von (VR7): (α β) · f (x) = (α β) f (x) = α(β f )(x) = α · (β · f ) (x) %
5 Beweis von (VR8): (1 · f )(x) = 1 · f (x) = f (x) %

C 0 (R) ist somit ein reeller Vektorraum. !

Übung 5.4
• ◦ ◦ Sei V = C 0 (R+ ) die Menge aller stetigen Funktionen f : R → R+ (d. h. f (x) > 0
für alle x ∈ R). Für f , g ∈ V und α ∈ R definieren wir die folgende „Addition ⊕“ und
„Skalarmultiplikation ⊙“

(f ⊕ g)(x) := f (x)g(x), (α ⊙ f )(x) := f (x)α .

Man zeige, dass (V , ⊕, ⊙) ein Vektorraum ist.

v Lösung
Wir halten fest, dass die oben definierten Addition “⊕” und Skalarmultiplikation “⊙”
für V wohldefiniert sind. Sind f , g stetige, positive Funktionen, so sind es auch fg und f α
mit α ∈ R. Nun überprüfen wir, dass die 8 Eigenschaften (Axiome) eines Vektorraums
erfüllt sind. Es seien f , g, h ∈ V und α, β ∈ R.
5 Beweis von (VR1): Es gilt: (f ⊕ g)(x) = f (x)g(x) = g(x)f (x) = (g ⊕ f )(x). %
E F E F
5 Beweis von (VR2): Es gilt: f ⊕ (g ⊕ h) (x) = f (x) g(x)h(x) = f (x)g(x)h(x) =
E F E F
f (x)g(x) h(x) = (f ⊕ g) ⊕ h (x) %
5 Beweis von (VR3): Das Nullelement von V bezüglich ⊕ ist die Funktion 1 (kon-
stante Funktion). Denn es gilt: (1 ⊕ f )(x) = 1 f (x) = f (x) %
5 Beweis von (VR4): Das zu f (x) inverse Element bezüglich ⊕ ist (−f )(x) = 1/f (x) (es
E F 1
existiert weil f (x) > 0 ist). Denn es gilt: f ⊕(−f ) (x) = f (x) f (x) = 1 % Erinnerung:
1 das Nullelement von V .
5.1 • Vektorräume
255 5
E F E Fα
5 Beweis von (VR5): Es gilt α ⊙ (f ⊕ g) (x) = f (x)g(x) = f (x)α g(x)α =
E F
(α ⊙ f ) ⊕ (α ⊙ g) (x) %
E F
5 Beweis von (VR6): Es gilt (α + β) ⊙ f (x) = f (x)α+β = f (x)α f (x)β =
E F
(α ⊙ f ) ⊕ (β ⊙ f ) (x) %
E F E F
5 Beweis von (VR7): (α β) ⊙ f (x) = f (x)α β = (f (x)α )β = α ⊙ (β ⊙ f ) (x) %
5 Beweis von (VR8): (1 ⊙ f )(x) = f (x)1 = f (x) %

Wir haben gezeigt, dass (V , ⊕, ⊙) ein Vektorraum ist. !

! Achtung
Übung 5.4 zeigt, dass das Nullelement eines Vektorraumes nicht unbedingt gleich 0
sein muss. Es hängt von der Definition der Addition “+” ab.

Übung 5.5
• • ◦ Sind die folgenden Mengen V mit den entsprechenden Additionen und Skalar-
multiplikationen Vektorräume? ' * ' *
2 u1 α u1
a) V = R mit der üblichen Vektor-Addition und α · := , α ∈ R.
u 0
' 2* ' *
u α u1
b) V = R2 mit der üblichen Vektor-Addition und α · 1 := , α ∈ R.
u2 u2
' *
2 u1
c) V = C mit der üblichen Skalarmultiplikation für Vektoren in C und +
u2
' * ' *
v1 u + v2
:= 2 .
v2 u1 + v1
1 ' * + 4
+
x1 2 + 2 2
d) V = x = ∈ R + x1 + x2 = 4 zusammen mit der üblichen Addition und
x2 +
Skalarmultiplikation für Vektoren in R2 . ' 0 ··· 0 *
e) V = Rn×n mit der üblichen Matrix-Addition und α · A := .. . . . .. , α ∈ R.
. .
0 ··· 0
f) V = Z3 (Vektoren mit Einträgen aus Z) zusammen mit der üblichen Addition und
Skalarmultiplikation für Vektoren in R3 .

v Lösung
Keine der gegebenen Mengen V ist ein Vektorraum. Es genügt, jeweils ein Gegenbeispiel
zu finden, dass irgendein Axiom (VR1)–(VR8) der Definition 5.1 verletzt ist.
a) Mit der vorgeschlagenen Skalarmultiplikation
' * ' * ist
' Axiom
* (VR8) verletzt, denn für
v v v
v = [v1 , v2 ] ∈ R2 gilt 1 · v = 1 · 1 = 1 ̸= 1 = v ✗
v2 0 v2
256 Kapitel 5 • Vektorräume und Unterräume

b) Axiom (VR6) ist verletzt, denn für v = [v1 , v2 ] ∈ R2 und α, β ∈ R gilt:


' * ' * ' * ' * ' *
v1 (α + β)v1 α v1 + β v1 v1 v
(α + β) · v = (α + β) · = = =α +β 1
v2 v2 v2 v2 0

̸= α v + β v ✗

c) Mit dieser Addition ist Axiom (VR3) nicht erfüllt: Es'gibt * kein
' Nullelement.
* ' *Der
0 v1 0 + v2
übliche Nullvektor versagt als Nullelement: 0 + v = + = =
0 v2 0 + v1
' * ' *
v2 v
̸= 1 = v ✗.
v1 v2
' *
a1
Gibt es einen anderen Vektor a = , der ein Nullelement von V ist? Für alle
a2
v ∈ C2 , sollte ein solches Nullelement Folgendes erfüllen:
' * ' * ' * ' * ⎧
⎨a = v − v
a1 v1 a2 + v2 ! v1 2 1 2
a+v= + = = ⇒
a2 v2 a1 + v1 v2 ⎩a = v − v
1 2 1

Da v1 , v2 ∈ C beliebig sind, gibt es kein eindeutiges Nullelement a der a + v = v für


alle v ∈ C2 erfüllt. V ist somit kein Vektorraum.
d) Die Addition ist nicht wohldefiniert. Es seien x, y ∈ V ; dann ist
' *
x + y1
x+y= 1 ⇒ (x1 + y1 )2 + (x2 + y2 )2 = x21 + 2x1 y1 + y21 + x22 + 2x2 y2 + y22
x2 + y2

= x21 + x22 + y21 + y22 +2(x1 y1 + x2 y2 ) ̸= 4 ⇒ x + y ∈


/V✗
; <= > ; <= >
=4 =4

' 0 ··· 0
*
e) Axiom (VR8) ist verletzt: für A ∈ Rn×n gilt 1 · A = .. . . . .. ̸= A ✗
. .
0 ··· 0
f) Die Skalarmultiplikation
√ ist nicht wohldefiniert. Man betrachte dazu√ein Gegen-
beispiel: α = 2 ∈ R und x = [1, 0, 0] ∈ Z3 ; dann ist α x = [ 2, 0, 0]T ∈ /
Z3 ✗. !

Übung 5.6
• • ◦ Es sei K = Z2 .
a) Wie viele Elemente enthält der Vektorraum Kn ?
b) Man gebe alle Elemente des Vektorraums K3 explizit an.
c) Man gebe alle Elemente des Vektorraums P1 (K) an.
5.2 • Unterräume
257 5
v Lösung
a) Jeder Vektor in (Z2 )n hat n Komponenten und jede dieser Komponenten kann nur
den Wert 0 oder 1 besitzen. Da wir alle Komponenten unabhängig voneinander
wählen können, gibt es genau 2n Möglichkeiten für Vektoren in (Z2 )n . Der Vektor-
raum (Z2 )n enthält genau 2n Elemente.
b) Jeder Vektor in (Z2 )3 sieht wie folgt aus [a, b, c]T mit a, b, c ∈ Z2 . Da Z2 = {0, 1},
jede Komponente kann nur 0 oder 1 sein. Es gibt somit 23 = 8 Vektoren in (Z2 )3 ,
konkret:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 0 1 0 1 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ .
, , , , , , ,
0 0 0 0 1 1 1 1

c) Jedes Polynom in P1 (K) sieht wie folgt aus p(x) = a0 + a1 x mit a0 , a1 ∈ Z2 . a0 und
a1 sind entweder 0 oder 1. P1 (K) enthält somit genau die 4 Polynome: 0, 1, x und
1 + x. !

5.2 Unterräume

In der Praxis beschäftigen wir uns oft mit Teilmengen eines Vektorraums V . Um die
nützlichen Vektorraumeigenschaften übertragen zu können, ist es wünschenswert,
dass diese Teilmengen selbst Vektorräume sind. Aus diesem Grund führt man den
Begriff des Unterraumes (oder Untervektorraum) ein.

5.2.1 Definition

Sei V ein Vektorraum über K.

# Definition 5.2 (Unterraum)


Eine nichtleere Teilmenge U ⊂ V heißt Unterraum (oder Untervektorraum), wenn U die
folgenden 3 Bedingungen (Axiome) erfüllt (. Abb. 5.2):
(UR0) 0 ∈ U;
(UR1) Für alle u, v ∈ U gilt u + v ∈ U (Abgeschlossenheit bzgl. der Addition);
(UR2) Für alle u ∈ U und α ∈ K gilt α · u ∈ U (Abgeschlossenheit bzgl. der
Skalarmultiplikation). $

> Bemerkung
Eigenschaften (UR1) und (UR2) besagen, dass U bezüglich der Addition „+“ bzw. der
Skalarmultiplikation „·“ abgeschlossen ist. Weil V ein Vektorraum ist, reichen die
Bedingungen (UR0)–(UR2) damit U ⊂ V selbst eine Vektorraumstruktur besitzt.
258 Kapitel 5 • Vektorräume und Unterräume

. Abb. 5.2 Grafische Darstellung der 3 Bedingungen (UR0)–(UR2) eines Unterraumes (Definition 5.2).
Hier sind diese Bedingungen anhand einer Geraden in R2 durch den Nullpunkt gezeigt

Praxistipp

Die Unterraumsaxiome (UR1) und (UR2) kann man zu einer einzigen äquivalenten
kompakten Bedingung zusammenfassen:

(UR) Für alle u, v ∈ U und α ∈ K gilt α · u + v ∈ U

In der Praxis kann man entweder Bedingungen (UR1) und (UR2) oder die kompakte
Bedingung (UR) überprüfen.

Musterbeispiel: Unterraumbedingungen untersuchen


Praxistipp

Wenn man in der Praxis zeigen will, ob eine vorgelegte Menge U ⊂ V ein Unterraum
von V ist, muss man einfach die 3 Bedingungen (UR0)–(UR2) der Definition 5.2
überprüfen:
(UR0) Das Nullelement 0 muss in U enthalten sein.
(UR1) Wenn man zwei Elemente u, v aus U addiert, muss das Ergebnis u + v auch
wieder in U sein (U muss abgeschlossen bezüglich der Addition sein).
(UR2) Wenn man ein Element u aus U mit einem beliebigen Skalar α ∈ K multipli-
ziert, muss das Ergebnis α · u auch wieder in U sein (U muss abgeschlossen
bezüglich der Skalarmultiplikation sein).

Alternativ kann man (UR0) und die kompakte Bedingung (UR) nachweisen.
5.2 • Unterräume
259 5
Musterbeispiel 5.2 (Beweis, dass U ein Unterraum ist)

2 / 0 + 3
v1 +
Als Beispiel untersuchen wir, ob U = v= ∈ R2 ++ v2 = 0 ⊂ R2 ein Unterraum von
v2
R2 ist. Wir überprüfen, ob die gegebene Menge U die 3 Bedingungen eines Untervektorraums
(Definition 5.2) erfüllt.
5 Beweis von (UR0): Der Nullvektor 0 = [0, 0]T ist in U enthalten, weil die zweite
Komponente von 0 trivialerweise/ gleich / %0
0 Null ist.
v1 w
5 Beweis von (UR1): Es seien v = und w = 1 zwei beliebige Elemente aus U. Wir
0 0
müssen zeigen, dass auch deren Summe v + w in U liegt. Es gilt:
/ 0 / 0 / 0 / 0
v w v + w1 v + w1
v+w= 1 + 1 = 1 = 1 .
0 0 0+0 0

Die zweite Komponente von v + w ist somit auch gleich Null. /Folglich
0 ist v + w ∈ U. %
v1
5 Beweis von (UR2): Wir betrachten ein beliebiges Element v = aus U. und eine Zahl
0
α ∈ R. Wir müssen nachweisen, dass α v ∈ U. Es gilt:
/ 0 / 0 / 0
v α v1 α v1
αv = α 1 = = ⇒ αv ∈ U %
0 α0 0

Da die 3 Bedingungen (UR0), (UR1) und (UR2) erfüllt sind, ist U ein Unterraum von R2 .

> Bemerkung
Musterbeispiel 5.2 war ein einfaches Beispiel, aber prinzipiell kann man das Vorgehen
auch auf komplexere Beispiele übertragen. Das Einzige, was sich ändert, ist die
Definition von U sowie die „Rechenregeln“, die man anwenden muss.

5.2.2 Beispiele von Unterräumen


# Beispiel
Unterräume von Kn
5 Menge mit dem Nullpunkt {0} (dies ist der triviale Unterraum);
5 alle Geraden durch den Nullpunkt;
5 alle Ebenen durch den Nullpunkt;
5 alle Hyperebenen durch den Nullpunkt;
5 der ganze Kn .

Geraden und Ebenen, welche nicht durch den Nullpunkt gehen, sind keine Unterräume
von Kn (jeder Unterraum muss immer den Nullpunkt enthalten, wegen (UR0)). Sie heißen
affine Räume (7 vgl. Abschn. 5.3). $
260 Kapitel 5 • Vektorräume und Unterräume

a b c

. Abb. 5.3 Unterräume von R3 . (a) Trivialer Unterraum U = {0}, (b) Gerade durch den Nullpunkt,
(c) Ebene durch den Nullpunkt

# Beispiel
Unterräume von Kn×n . Die folgenden drei Mengen sind wichtige Beispiele von Unterräu-
men von Kn×n :
5 Diagn (R) := {A ∈ Rn×n | A ist diagonal} = diagonale Matrizen;
5 Symn (R) := {A ∈ Rn×n | AT = A} = symmetrische Matrizen;
5 Skewn (R) := {A ∈ Rn×n | AT = −A} = schiefsymmetrische Matrizen.

Wichtige Teilmengen von Rn×n , welche keine Unterräume sind:


5 GL(n, R) := {A ∈ Rn×n | A ist invertierbar} = invertierbare Matrizen;
5 On (R) := {A ∈ Rn×n | AT A = E} = orthogonale Matrizen. $

> Bemerkung
GLn (R) und On (R) sind wichtige bekannte abelsche Gruppen bezüglich der Matrix-
multiplikation. GL = General Linear group. O = Orthogonal group.

5.2.3 Unterräume und LGS

Die Lösungsmenge eines homogenen (m × n)-LGS ist ein Unterraum von Kn : der
sogenannte Lösungsraum (vgl. Übung 5.8). Es gilt sogar die Umkehrung:

# Satz 5.2 (Unterräume von Kn )


Jeder Unterraum von Kn ist die Lösungsmenge eines homogenen LGS. $

Praxistipp

Satz 5.2 bietet in der Praxis ein effizientes Unterraumkriterium (vgl. Übung 5.8).

> Bemerkung
Beachte, dass dieses Resultat für inhomogene LGS nicht stimmt. In diesem Fall ist die
Lösungsmenge kein Unterraum, sondern ein affiner Raum (7 vgl. Abschn. 5.3).
5.2 • Unterräume
261 5

Übung 5.7
• ◦ ◦ Welche der folgenden
+ Mengen sind Unterräume von R3 ?
G 3
H
+
a) U1 = x ∈ R + x1 + 2x2 = 3x3
G H
b) U2 = x ∈ R3 ++ x1 = −x2 , x3 = 7
G H
c) U3 = x ∈ R3 ++ x1 + x2 − 4x3 = 0, x1 = x2
G H
d) U4 = x ∈ R3 ++ x1 = x2 = x3
G H
e) U5 = x ∈ R3 ++ x1 > x2 > x3
G H
f) U6 = x ∈ R3 ++ xi ∈ Q
G H
g) U7 = x ∈ R3 + x21 + x22 + x23 = 1

v Lösung
a) Ja. U1 erfüllt alle drei Eigenschaften eines Unterraumes:
5 Beweis von (UR0): Die Komponenten des Nullvektors 0 = [0, 0, 0]T erfüllen
die Bedingung x1 + 2x2 = 3x3 , d. h. 0 ∈ U1 . % / 0
6 x1 7 6 y1 7 x1 +y1
5 Beweis von (UR1): Es seien nun x = x2 , y = y2 ∈ U1 ⇒ x + y = x2 +y2 .
x3 y3 x3 +y3
Damit x + y ∈ U1 , muss (x1 + y1 ) + 2(x2 + y2 ) = 3(x3 + y3 ) gelten. Ist dies der
Fall? Da x, y ∈ U ist

(x1 + y1 ) + 2(x2 + y2 ) = (x1 + 2x2 ) + (y1 + 2y2 ) = 3x3 + 3y3 = 3(x3 + y3 ).


; <= > ; <= >
=3x3 =3y3

Somit x + y ∈ U. % 6 x1 7 6 αx1 7
5 Beweis von (UR2): Es seien x = x2 ∈ U1 und α ∈ R ⇒ αx = αx2 . Da
x3 αx3
x ∈ U, gilt:

x1 + 2x2 = 3x3 ⇒ (α x1 ) + 2(α x2 ) = α (x1 + 2x2 ) = α (3x3 ) = 3(α x3 )


; <= >
=3x3

d. h. α x ∈ U1 . %
Alle 3 Unterraumaxiome sind erfüllt.
b) Nein. Der Nullvektor ist nicht in U2 enthalten (0 = 7 ist falsch).
c) Ja. U3 erfüllt alle Eigenschaften (Axiome) eines Unterraumes, konkret:
5 Beweis von (UR0): Die Komponenten des Nullvektors erfüllen die beiden Be-

x1 6 07∈ U3 . %
dingungen x1 + x2 − 4x3 = 0 und x1 6= x72 . Somit
y1
5 Beweis von (UR1): Es seien nun x = x2 ,y= y2 ∈ U3 . Damit x + y ∈ U3 ,
x3 y3
muss (x1 + y1 ) + (x2 + y2 ) − 4(x3 + y3 ) = 0 und (x1 + y1 ) = (x2 + y2 ) gelten.
Ist dies der Fall? Da x und y in U3 enthalten sind, gilt für ihre Komponenten
x1 + x2 − 4x3 = 0, x1 = x2 beziehungsweise y1 + y2 − 4y3 = 0, y1 = y2 . Daraus
folgt

(x1 + y1 ) + (x2 + y2 ) − 4(x3 + y3 ) = (x1 + x2 − 4x3 ) + (y1 + y2 − 4y3 ) = 0 + 0 = 0


262 Kapitel 5 • Vektorräume und Unterräume

und

(x1 + y1 ) = x1 + y1 = x2 + y2 = (x2 + y2 ).

Somit x + y ∈ U3 . % 6 x1 7
5 Beweis von (UR2): Ferner sei x = x2 ∈ U3 und α ∈ R. Der Vektor α · x erfüllt
x3
dann beide Bedingungen von U3 :

x1 + x2 − 4x3 = 0 ⇒ αx1 + αx2 − 4αx3 = α(x1 + x2 − 4x3 ) = α · 0 = 0


x1 = x2 ⇒ (αx1 ) = αx1 = αy1 = (αy1 ),

woraus folgt α · x ∈ U3 . %
Alle 3 Unterraumaxiome sind erfüllt.
d) Ja. In diesem Fall überprüfen wir (UR0) und die kompakte Bedingung (UR):
5 Beweis von (UR0): Der Nullvektor 0 = [0, 0, 0]T ist in U4 enthalten, weil
trivialerweise alle Komponenten6 von
x
6 7 sind. %
7 0 gleichy
5 Beweis von (UR): Es seien x = x ,y= y ∈ U4 und α ∈ R. Dann ist
x y

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
αx y αx+y
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
α · x + y = ⎣α x⎦ + ⎣y⎦ = ⎣α x + y⎦ .
αx y αx+y

Da die drei Komponenten von α · x + y alle gleich sind, gehört α · x + y zu U4 %


e) Nein. Der Nullvektor ist nicht in U5 enthalten, weil die Aussage 0 > 0 > 0 falsch
ist. √
f) Nein. Bedingung (UR2) ist nicht erfüllt. Wählen wir zum Beispiel α = 2 ∈ R, so
gilt für x ∈ U6 ,
⎡ ⎤ ⎡√ ⎤
√ ⎢x1 ⎥ ⎢√2 x1 ⎥
α x = 2 ⎣x2 ⎦ = ⎣ 2 x2 ⎦ ∈/ U6

x3 2 x3
√ √ √
weil 2 x1 , 2 x2 , 2 x3 ∈/ Q.
g) Nein. Der Nullvektor ist nicht in U7 enthalten (0 = 1 ist falsch). !

Das folgende Beispiel lässt sich als effizientes Unterraumkriterium nutzen.

Übung 5.8
• ◦ ◦ Es sei A ∈ Km×n .
a) Man zeige, dass die Lösungsmenge L = {x ∈ Kn | Ax = 0} des homogenen LGSs
Ax = 0 ein Unterraum von Kn ist.
b) Gilt diese Aussage auch für das inhomogene LGS Ax = b?
c) Man wiederhole die Übungen 5.7(a)–(d) unter Verwendung des in diesem Beispiel
entwickelten neuen Kriteriums.
5.2 • Unterräume
263 5
v Lösung
a) Wir weisen einfach nach, dass L die drei Eigenschaften eines Unterraumes (Defini-
tion 5.2) erfüllt:
5 Beweis von (UR0): Der Nullvektor ist in L enthalten, weil Ax = 0 immer die
triviale Lösung x = 0 besitzt (vgl. 7 Kap. 2). %
5 Beweis von (UR1): Es seien x, y ∈ L zwei Lösungen von Ax = 0. Dann gilt:

Ax + Ay = 0 ⇒ x + y ∈ L %
A(x + y) = ;<=>
;<=>
=0 =0

5 Beweis von (UR2): Es seien x ∈ L und α ∈ K. Dann gilt:

Ax = 0 ⇒ α x ∈ L %
A(α x) = α ;<=>
=0

Somit ist L ein Unterraum von Kn .


b) Nein. Es seien x, y ∈ L zwei Lösungen von Ax = b. Dann gilt:

A(x + y) = ;<=>
Ax + Ay = 2b ⇒ x + y ∈
/ L×
;<=>
=b =b

Bedingung (UR1) ist nicht erfüllt und somit kann die Lösungsmenge eines inhomo-
genen LGS keinen Unterraum von Rn sein.
c) Aus Teilaufgaben (a) und (b) ergibt sich ein nützliches Kriterium für Unterräume:
Die Lösungsmenge eines homogenen (m × n)-LGS ist immer ein Unterraum von
Rn . Dies gilt für inhomogene LGS nicht.
Mit diesem Kriterium können wir die Übungen 5.7(a)–(d) nochmals untersu-
chen.
U1 : Die definierende Bedingung x1 + 2x2 = 3x3 kann man als ein homogenes
(1 × 3)-LGS wie folgt interpretieren:
⎧ + ⎡ ⎤ ⎫
⎪ + ⎪
I + J ⎪
⎨ +6 7 x1 ⎪

3 +
+
U1 = x ∈ R + x1 + 2x2 − 3x3 = 0 = x ∈ R3 + 1 2 −3 ⎢⎣ x 2

⎦ = 0 .
⎪ + ⎪

⎩ + ; <= > ⎪

+ x 3
=A

Daraus folgt, dass U1 ein Unterraum von R3 ist.


U2 : In diesem Fall sind die definierenden Bedingungen x1 = −x2 und x3 = 7 ein
inhomogenes (2 × 3)-LGS:
⎡ ⎤
' * x1 ' * ' *
1 −1 0 ⎢ ⎥ 0 0
⎣x2 ⎦ = ̸= .
0 0 1 7 0
; <= > x3 ;<=>
=A =b

U2 ist somit kein Unterraum von R3 .


U3 : Die Bedingungen x1 + x2 − 4x3 = 0 und x1 = x2 definieren ein homogenes
(2 × 3)-LGS:
264 Kapitel 5 • Vektorräume und Unterräume

I + J
+
U3 = x ∈ R3 + x1 + x2 − 4x3 = 0, x1 − x2 = 0
⎧ + ⎫
⎪ + ⎡ ⎤ ⎪

⎪ + ' *⎪⎪

⎨ +' * x1 ⎪
+ 1 1 −4 ⎢ ⎥ 0 ⎬
= x ∈ R3 ++ ⎣x2 ⎦ = .


⎪ + 1 −1 0 0 ⎪



⎩ +;
+ <= > x3 ⎪

=A

Somit ist U3 ein Unterraum von R3 .


U4 : Die definierenden Bedingungen x1 = x2 , x2 = x3 liefern ein homogenes
(2 × 3)-LGS:
⎧ + ⎫
⎪ + ⎡ ⎤ ⎪

⎪ +' * ' *⎪

I + J ⎪
⎨ + x1 ⎪

3+
+
3+ 1 −1 0 ⎢ ⎥ 0
U4 = x ∈ R + x1 − x2 = 0, x2 − x3 = 0 = x ∈ R + ⎣x2 ⎦ = .


⎪ + 0 1 −1 0 ⎪⎪

⎪ + x ⎪
⎩ +; =A <= > 3 ⎭

Somit ist U4 ein Unterraum von R3 .


Wichtig: Wir müssen nur überprüfen, ob das System ein homogenes LGS ist oder
nicht! !

Übung 5.9 1 + ' * 4


+
+ x −y
• ◦ ◦ Man zeige, dass H = A∈ R2×2 +A = , x, y ∈ R ein Unterraum von
+ y x
R2×2 ist.

v Lösung
Wir weisen nach, dass H die drei Eigenschaften eines Unterraumes erfüllt
5 Beweis von (UR0): Die Nullmatrix ist in H enthalten. %
( ) ( x2 −y2 )
5 Beweis von (UR1): Es seien A = xy11 −yx 1 , B = y2 x 2
1
∈ H. Dann gilt:
' * ' * ' *
x1 −y1 x2 −y2 x1 + x2 −(y1 + y2 )
A+B = + = ∈H%
y1 x1 y2 x2 y1 + y2 x1 + x2
( x −y )
5 Beweis von (UR2): Es seien A = y x ∈ H und α ∈ R. Dann gilt:
' * ' *
x −y α x −α y
α·A=α = ∈H%
y x αy αx

Somit ist H ein Unterraum von R2×2 . !


5.2 • Unterräume
265 5

Übung 5.10
• ◦ ◦ Welche der folgenden Teilmengen von Rn×n sind Unterräume?
a) Diagn (R) = {A ∈ Rn×n | A diagonal} = Diagonalmatrizen
b) GLn (R) = {A ∈ Rn×n | A invertierbar} = invertierbare Matrizen
c) On (R) = {A ∈ Rn×n | AT A = E} = orthogonale Matrizen
d) Symn (R) = {A ∈ Rn×n | AT = A} = symmetrische Matrizen

v Lösung
a) Ja. Denn (UR0) und die kombinierte Eigenschaft (UR) sind erfüllt:
5 Beweis von (UR0): Die (n × n)-Nullmatrix ist diagonal (alle Diagonaleinträge
sind Null), d. h. 0 ∈ Diagn (R) %
' a1 * ' b1 *
5 Beweis von (UR): Es seien A = ..
. ,B = ..
. ∈ Diagn (R) zwei
an bn
(n × n)-Diagonalmatrizen. Dann ist
⎡ ⎤
α a1 + b1
⎢ .. ⎥
α·A+B =⎢
⎣ .


α an + bn

ist eine Diagonalmatrix, d. h. α · A + B ∈ Diagn (R) %


b) Nein. Die Nullmatrix ist nichtinvertierbar, gehört also nicht zu GLn (R). Alternative:
( ) ( 0 ) ( )
Die beiden Matrizen A = 10 01 , B = 10 −1 sind invertierbar, aber A + B = 20 00
ist nichtinvertierbar.
c) Nein. Die (n × n)-Nullmatrix ist nicht orthogonal, weil 0T 0 = 0 ̸= E.
d) Ja. Wir zeigen Eigenschaften (UR0) und (UR):
5 Beweis von (UR0): Wegen 0T = 0 gehört 0 zu Symn (R). %
5 Beweis von (UR): Es seien A, B ∈ Symn (R) (⇒ AT = A und BT = B) und
α ∈ R. Mit den Rechenregeln für die Transponierte finden wir dann:

(α · A + B)T = α · ;<=>
AT + ;<=>
BT = α · A + B ⇒ α · A + B ∈ Symn (R) %
=A =B !

Übung 5.11
• • ◦ Es sei C 0 (R) der Vektorraum der reellen stetigen Funktionen auf R. Welche der
folgenden Teilmengen von C 0 (R) sind Unterräume?
a) U1 = {f ∈ C 0 (R) | f (−x) = f (x)}
b) U2 = {f ∈ C 0 (R) | f (−x) = −f (x)}
c) U3 = {f ∈ C 0 (R) | f (5) = 0}
df
d) U4 = {f ∈ C 0 (R) | dx |x=0 = 1}
0
e) U5 = {f ∈ C (R) | f (x) = A sin(x) + B cos(x), A, B ∈ R}
f) U6 = {f ∈ C 0 (R) | f (x + a) = f (x)} (a ∈ R)
266 Kapitel 5 • Vektorräume und Unterräume

v Lösung
a) Ja. Denn die drei Axiome eines Unterraumes (Definition 5.2) sind erfüllt:
5 Beweis von (UR0): Die Nullfunktion f (x) ≡ 0 gehört zu U1 . %
5 Beweis von (UR1): Es seien f , g ∈ U1 . Dann gilt:

(f + g)(−x) = f (−x) + g(−x) = f (x) + g(x) = (f + g)(x) ⇒ f + g ∈ U1 %


; <= > ; <= >
=f (x) =g(x)

5 Beweis von (UR2): Es seien f ∈ U1 und α ∈ R. Dann gilt:

(α f )(−x) = α f (−x) = α f (x) = (α f )(x) ⇒ α f ∈ U1 %


; <= >
=f (x)

b) Ja. Der Beweis ist analog zu (a):


5 Beweis von (UR0): Wegen 0 = −0 gehört die Nullfunktion f (x) ≡ 0 zu U2 . %
5 Beweis von (UR1): Es seien f , g ∈ U2 . Dann gilt:

(f + g)(−x) = f (−x) + g(−x) = −f (x) − g(x) = −(f + g)(x) ⇒ f + g ∈ U2 %


; <= > ; <= >
=−f (x) =−g(x)

5 Beweis von (UR2): Es seien f ∈ U2 und α ∈ R. Dann gilt:

(α f )(−x) = α f (−x) = −α f (x) = −(α f )(x) ⇒ α f ∈ U2 %


; <= >
=−f (x)

c) Ja. Wir weisen die drei Axiome eines Unterraumes (Definition 5.2) nach:
5 Beweis von (UR0): Die Nullfunktion f (x) ≡ 0 gehört zu U3 , weil f (5) = 0. %
5 Beweis von (UR1): Es seien f , g ∈ U3 (⇒ f (5) = 0 und g(5) = 0). Dann gilt:

(f + g)(5) = f (5) + g(5) = 0 ⇒ f + g ∈ U3 %


;<=> ;<=>
=0 =0

5 Beweis von (UR2): Für f ∈ U3 , α ∈ R gilt (α f )(5) = α f (5) = 0 ⇒ α f ∈ U3 %


;<=>
=0
df
d) Nein. Die Nullfunktion f (x) ≡ 0 ist kein Element von U4 , weil dx |x=0 = 0 ̸= 1.
Andere Möglichkeit: U4 ist bezüglich der Addition und Skalarmultiplikation nicht
abgeschlossen. Denn für f , g ∈ U4 ist d(fdx+g) |x=0 = dx
df dg
|x=0 + dx |x=0 = 1 + 1 = 2 ̸= 1.
e) Ja. Wir prüfen die drei Eigenschaften eines Unterraumes (Definition 5.2) nach:
5 Beweis von (UR0): f (x) ≡ 0 ∈ U5 (wähle A = B = 0). %
5 Beweis von (UR1): Es seien f , g ∈ U5 . Dann gilt f (x) = A1 sin(x) + B1 cos(x)
und g(x) = A2 sin(x) + B2 cos(x) für A1 , A2 , B1 , B2 ∈ R. Daraus folgt: (f +
( ) ( )
g)(x) = A1 sin(x) + B1 cos(x) + A2 sin(x) + B2 cos(x) = (A1 + A2 ) sin(x) +
(B1 + B2 ) cos(x) ⇒ f + g ∈ U5 %
5 Beweis von (UR2): Es seien f ∈ U5 und α ∈ R. Dann gilt: (α f )(x) =
( )
α A sin(x) + B cos(x) = (α A) sin(x) + (α B) cos(x) ⇒ α f ∈ U5 %
5.2 • Unterräume
267 5
f) Ja.
5 Beweis von (UR0): Die Nullfunktion f (x) ≡ 0 ist in U6 enthalten (konstante
Funktionen sind periodisch mit jeder Periode). %
5 Beweis von (UR1): Es seien f , g ∈ U6 . Dann gilt:

(f + g)(x + a) = f (x + a) + g(x + a) = f (x) + g(x) = (f + g)(x) ⇒ f + g ∈ U6 %


; <= > ; <= >
=f (x) =g(x)

5 Beweis von (UR2): Es seien f ∈ U6 und α ∈ R. Dann gilt:

(α f )(x + a) = α f (x + a) = α f (x) = (α f )(x) ⇒ α f ∈ U6 %


; <= >
=f (x) !

> Bemerkung
f ∈ C 0 (R) heißt gerade bzw. ungerade, falls f (x) = f (−x) bzw. f (−x) = −f (x) für alle
x ∈ R gilt. Die Unterräume U1 und U2 in Übung 5.11 sind somit die Unterräume der
geraden bzw. ungeraden stetigen Funktionen. f ∈ C 0 (R) heißt periodisch mit Periode a
falls f (x + a) = f (x) für alle x ∈ R gilt. U6 ist somit der Unterraum der periodischen
stetigen Funktionen mit Periode a.

Übung 5.12
• ◦ ◦ Man gebe ein Beispiel für eine Teilmenge U ⊂ R2 an, sodass
a) U bezüglich der Addition abgeschlossen ist, aber keinen Unterraum von R2 ist;
b) U bezüglich der Skalarmultiplikation abgeschlossen ist, aber keinen Unterraum von
R2 darstellt.

v Lösung +
G H
a) Man betrachte U = Z2 = x = [x1 , x2 ]T ∈ R2 + x1 , x2 ∈ Z .
5 Beweis von (UR0): 0 ∈ U, weil 0 ∈ Z %
5 Beweis von (UR1): Es seien x = [x1 , x2 ]T ∈ U und y = [y1 , y2 ]T ∈ U. Dann
gilt x1 , x2 , y1 , y2 ∈ Z. Daraus folgt x1 + y1 ∈ Z und x2 + y2 ∈ Z, d. h. x + y ∈ U.
%
5 Beweis von (UR2): Gegenbeispiel: Man betrachte x = [1, 1]T ∈ U und α =
√ √ √
3 ∈ R. Dann ist α x = [ 3, 3]T ∈ / U. ✗
U ist abgeschlossen bezüglich der Addition, trotzdem ist U kein Unterraum von
R2 . +
G H
b) Man betrachte U = x = [x1 , x2 ]T ∈ R2 + x1 x2 = 0 .
5 Beweis von (UR0): 0 ∈ U, weil 0 · 0 = 0 %
5 Beweis von (UR1): Es seien x = [x1 , x2 ]T ∈ U und y = [y1 , y2 ]T ∈ U (⇒
x1 x2 = 0 und y1 y2 = 0). Dann gilt:
' *
x + y1
x+y= 1 ⇒ (x1 + y1 )(x2 + y2 ) = x1 x2 +x1 y2 + x2 y1 + x2 y2
x2 + y2 ;<=> ;<=>
=0 =0

= x1 y2 + x2 y1 ̸= 0 ⇒ x + y ∈
/U ✗
268 Kapitel 5 • Vektorräume und Unterräume

5 Beweis von (UR2): Es seien x = [x1 , x2 ]T ∈ U und α ∈ R. Dann gilt:


' *
α x1
αx = ⇒ (α x1 )(α x2 ) = α 2 x1 x2 = α 2 0 = 0 ⇒ α x ∈ U%
α x2 ;<=>
=0

Obwohl U abgeschlossen ist bezüglich der Skalarmultiplikation, ist U trotzdem kein


Unterraum von R2 . !

Übung 5.13
• • ◦ Sind die folgenden Teilmengen Unterräume?
a) U1 = {x ∈ R3 | x1 x2 − x3 = 0} ⊂ R3
b) U2 = {x ∈ C2 | x1 + ix2 = 0} ⊂ C2
c) U3 = {x ∈ R2 | x1 + x2 = 2} ⊂ R2
d) U4 = {x ∈ Z22 | x1 + x2 = 2} ⊂ Z22
K
e) U5 = {x ∈ Rn | ni=1 x2i = 0} ⊂ Rn
f) U6 = {A ∈ Rn×n | det(A) = 2} ⊂ Rn×n
g) U7 = {A ∈ Rn×n | Ax = b hat eine eindeutige Lösung} ⊂ Rn×n
h) U8 = {p(x) = a0 + a1 x + a2 x2 ∈ P2 (R) | a0 = a1 = a2 } ⊂ P2 (R)

v Lösung
a) Nein. U1 ist nicht abgeschlossen bezüglich der Skalarmultiplikation. Zum Beispiel
(nach etwas Probieren oder „genauem Hinschauen“): x = [1, 1, 1]T ∈ U1 , weil
1 · 1 − 1 = 1 − 1 = 0 %. Aber 2 x = [2, 2, 2]T ∈
/ U1 , weil 2 · 2 − 2 = 4 − 2 = 2 ̸= 0
✗.
b) Ja.
5 Beweis von (UR0): 0 ∈ U2 , weil 0 + i 0 = 0 %
5 Beweis von (UR1): Es seien x = [x1 , x2 ]T ∈ U2 und y = [y1 , y2 ]T ∈ U2 . Dann
gilt:
' *
x + y1
x+y= 1 ⇒ (x1 + y1 ) + i(x2 + y2 ) = x1 + ix2 + y1 + iy2
x2 + y2 ; <= > ; <= >
=0 =0

= 0 + 0 = 0 ⇒ x + y ∈ U2 %

5 Beweis von (UR2): Es seien x = [x1 , x2 ]T ∈ U2 und α ∈ C. Dann gilt:


' *
α x1
αx = ⇒ (α x1 ) + i(α x2 ) = α (x1 + ix2 ) = α 0 = 0 ⇒ α x ∈ U2 %
α x2 ; <= >
=0

Alternative: U2 ist die Lösungsmenge eines homogenen LGS; U2 ist somit ein
Unterraum von C2 .
c) Nein. U3 ist die Lösungsmenge eines inhomogenen LGS; U3 ist somit kein Unter-
raum von R2
5.2 • Unterräume
269 5
d) Ja. In Z2 gilt: 2 = 0. U4 ist somit die Lösungsmenge eines homogenen LGS, also
ein Unterraum von Z22 .
K
e) Der einzige Vektor in Rn mit ni=1 xi = ||x||2 = 0 ist der Nullvektor 0. U5 besteht
somit nur aus der Menge mit dem Nullvektor U5 = {0} und ist somit ein Unterraum
von Rn (der triviale Unterraum).
f) Nein. U6 ist nicht abgeschlossen bezüglich der Skalarmultiplikation. Es sei A ∈ U6
⇒ det(A) = 2. Nach den Rechenregeln für die Determinante gilt dann: det(α A) =
α n det(A) = 2α n ̸= 2 ⇒ A ∈/ U6 ✗
g) Aus 7 Kap. 2 wissen wir, dass das LGS Ax = b genau dann eine eindeutige Lösung
hat, wenn det(A) ̸= 0. Die Nullmatrix ist somit kein Element von U7 , weil det(0) =
0. U7 ist also kein Unterraum von Rn×n .
h) Ja. U8 ist die Menge der Polynome der Form p(x) = a(1 + x + x2 ) mit a ∈ R.
5 Beweis von (UR0): p(x) = 0 ∈ U8 , weil a0 = a1 = a2 = 0 %
5 Beweis von (UR1): Es seien p(x) = a(1+x+x2 ) ∈ U8 und q(x) = b(1+x+x2 ) ∈
U8 . Dann gilt: p(x)+q(x) = a(1+x+x2 )+b(1+x+x2 ) = (a+b)(1+x+x2 ) ∈ U8
%
5 Beweis von (UR2): Es seien p(x) = a(1 + x + x2 ) ∈ U8 und α ∈ R. Dann gilt:
α p(x) = α a(1 + x + x2 ) = (α a)(1 + x + x2 ) ∈ U8 % !

Übung 5.14
• ◦ ◦ Es seien U und W zwei Unterräume des Vektorraums V . Welche der folgenden
Teilmengen von V sind Unterräume?

a) ∅ = { } b) {0} c) U\W

v Lösung
a) Nein. Der Nullvektor ist nicht in ∅ enthalten.
b) Ja. Die Menge {0} erfüllt trivialerweise alle Eigenschaften eines Unterraumes
(Definition 5.2).
c) Nein. U\W = {v ∈ U | v ∈ / W } besteht aus den Elementen von U, welche nicht in W
enthalten sind. Da W ein Unterraum von V ist, muss W den Nullvektor enthalten.
Somit enthält U\W nicht den Nullvektor, also kann U\W keinen Unterraum
sein. !

Übung 5.15
• ◦ ◦ Es seien A, B ∈ Km×n . Ist U = {x ∈ Kn | Ax = Bx} ein Unterraum von Kn ?

v Lösung
Ja. Wir weisen (UR0) und die kombinierte Bedingung (UR) nach:
5 Beweis von (UR0): 0 ∈ U, weil Ax = 0 = Bx %
5 Beweis von (UR): Es seien x, y ∈ U und α ∈ K. Dann gilt: A(α x+y) = α Ax+Ay =
α Bx + By = B(α x + y) ⇒ α x + y ∈ U % !
270 Kapitel 5 • Vektorräume und Unterräume

Übung 5.16
• ◦ ◦ Man gebe alle Unterräume von (Z2 )2 explizit an.

v Lösung
(Z2 )2 enthält genau 22 = 4 Elemente (vgl. Übung 5.6). Diese sind:
1' * ' * ' * ' *4
2 0 1 0 1
(Z2 ) = , , , .
0 0 1 1

Jeder Unterraum von (Z2 )2 muss mindestens den Nullvektor enthalten. Außerdem
muss die Summe von je zwei Elemente des Unterraumes wieder zum Unterraum
gehören. Die möglichen Unterräume von (Z2 )2 sind somit
1' *4 1' * ' *4 1' * ' *4 1' * ' * ' * ' *4
0 0 1 0 0 2 0 1 0 1
, , , , , (Z2 ) = , , , .
0 0 0 0 1 0 0 1 1 !

5.3 Affine Unterräume

Wir diskutieren nun sogenannte affine Unterräume, welche Teilmenge sind, die durch
Parallelverschiebung von Unterräumen entstehen.

5.3.1 Definition

Im Folgenden sei V ein Vektorraum über K.

# Definition 5.3 (Affiner Unterraum)


Ein affiner Unterraum ist eine Menge

X = v + U = {v + u | u ∈ U} , (5.7)

wobei v ∈ V ein fester Vektor in V und U ⊂ V ein Unterraum von V ist. v heißt Stützvektor
und U der zugeordnete Ursprungsunterraum von X . $

Der affine Unterraum X = v + U = {v + u | u ∈ U} entsteht aus der Parallelver-


schiebung des Ursprungsunterraum U um den Vektor v. Ein affiner Raum ist also ein
„verschobener“ Unterraum (. Abb. 5.4).

> Bemerkung
Der Ursprungsunterraum U ist für jeden affinen Unterraum eindeutig bestimmt. Als
Stützvektor kann man einen beliebigen Vektor aus X wählen.
5.3 • Affine Unterräume
271 5
a b

. Abb. 5.4 (a) Affine Gerade und (b) affine Ebene

Affine Unterräume von Kn


5 ein einzelner Punkt im Raum;
5 eine affine Gerade durch v;
5 eine affine Ebene durch v;
5 eine affine Hyperebene durch v.

Beachte, dass diese affinen Unterräume i.A. keine Unterräume sind, weil sie den
Nullvektor nicht enthalten.

# Beispiel
Als Ursprungsunterraum wählen wir die Gerade U durch den Ursprung
⎧ +⎡ ⎤ ⎡ ⎤ ⎫
⎪ + x 1 ⎪
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥
U = x ∈ R3 + ⎣x2 ⎦ = t ⎣1⎦ , t ∈ R .

⎩ + ⎪

+ x3 1

Der Stützvektor sei v = [1, 0, 0]T . Dann ist


⎧ +⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ + x 1 1 ⎪
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X = v + U = x ∈ R3 + ⎣x2 ⎦ = ⎣0⎦ + t ⎣1⎦ , t ∈ R

⎩ + ⎪

+ x3 0 1

ein affiner Unterraum. X ist eine verschobene Gerade, welche durch [1, 0, 0]T geht.
Beachte, dass X kein Unterraum ist, weil X den Nullvektor nicht enthält. $

5.3.2 Affine Unterräume und LGS

Es seien A ∈ Km×n und b ∈ Km . Aus 7 Abschn. 2.2.8 wissen wir, dass die Lösung
eines inhomogenen LGS Ax = b durch

x = xHomo + xp
272 Kapitel 5 • Vektorräume und Unterräume

gegeben ist. xHomo ist die allgemeine Lösung des zugehörigen homogenen LGS Ax =
0 und xp ist eine partikuläre Lösung des inhomogenen LGS. Aus Satz 5.2 wissen
wir auch, dass die Lösungsmenge eines homogenen LGS ein Unterraum von Kn ist.
Daher können wir die Lösungsmenge L von Ax = b als affinen Unterraum von Kn
interpretieren

L = xp + {x ∈ Kn | Ax = 0} (5.8)
; <= >
= Ursprungsunterraum

Der zugehörige Ursprungsunterraum ist die Lösungsmenge des homogenen Problems.


Der Stützvektor von L ist die partikuläre Lösung xp . Mit diesen Überlegungen haben
wir den folgenden Satz motiviert.

# Satz 5.3 (Lösungsmengen von LGS und affine Unterräume)


Ist A ∈ Km×n und b ∈ Km , so ist die Lösungsmenge des (inhomogenen) LGS Ax = b
ein affiner Unterraum von Kn . Umgekehrt ist jeder affiner Raum die Lösungsmenge eines
LGS. $

5.3.3 Parameterdarstellung von affinen Unterräumen

Nach Satz 5.3 ist jeder affine Unterraum X durch ein (inhomogenes) LGS be-
schrieben. Man kann also X durch explizite Angabe der Lösungsmenge des LGS
beschreiben. Wir erhalten also die folgende Darstellung eines affinen Unterraumes

X = {v + t1 v1 + t2 v2 + · · · + tr vr | ti ∈ K} (5.9)

welche Parameterdarstellung von X heißt. v1 , v2 , · · · , vr sind die Spannvektoren. Für


affine Geraden oder Ebenen entspricht Gl. (5.9) genau der Parameterdarstellung von
Geraden oder Ebenen im Raum (vgl. Anhang A).

# Beispiel
X = {x ∈ R3 | x1 + x2 + x3 = −1} beschreibt die Lösungsmenge des LGS
⎡ ⎤
6 7 x1
⎢ ⎥
1 1 1 ⎣x2 ⎦ = ;<=>
−1 .
; <= > x =b
=A 3
; <= >
=x

Nach Satz 5.3 ist X ein affiner Unterraum von R3 . Die Parameterdarstellung von X
erhalten wir als Lösungsmenge des obigen LGS
⎧ +⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ + x −1 −1 −1 ⎪
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
X = x ∈ R3 + ⎣x2 ⎦ = ⎣ 0 ⎦ + t ⎣ 1 ⎦ + s ⎣ 0 ⎦ , t, s ∈ R .

⎩ + ⎪

+ x3 0 0 1

X beschreibt eine affine Ebene durch den Punkt [−1, 0, 0]T . $


5.3 • Affine Unterräume
273 5

Übung 5.17
• ◦ ◦ Welche der folgenden Teilmengen von Rn sind Unterräume? Welche sind affine
Unterräume? +
G H
a) X1 = x ∈ R3 ++ x1 + 2x2 + x3 = 0
G H
b) X2 = x ∈ R3 ++ x1 + 2x2 + x3 = 1
G H
c) X3 = x ∈ R4 ++ x1 = x2 , x1 = 1 − x3 − x4
G H
d) X4 = x ∈ R4 + x1 += x2 , x1 = −x3 − x4
G H
e) X5 = [x1 , x2 , 1]T+ + x1 , x2 ∈ R
G T +
H
f) X6 = [0, x2 , 0]
+ 2 x2 ∈ R
G H
g) X7 = x ∈ R x1 + x22 + x3 = 0
3 +

v Lösung
Wir wenden Satz 5.3 an.
a) X1 ist die Lösungsmenge eines homogenen LGS. Somit ist X1 ein Unterraum und
zugleich auch ein affiner Unterraum.
b) X2 ist die Lösungsmenge eines inhomogenen LGS. Somit ist X2 ein affiner Unter-
raum, aber kein Unterraum.
c) X3 ist die Lösungsmenge eines inhomogenen LGS. Somit ist X3 ein affiner Unter-
raum, aber kein Unterraum.
d) X4 ist die Lösungsmenge eines homogenen LGS. X4 ist ein Unterraum und zugleich
auch ein affiner Unterraum.
e) X5 ist die Lösungsmenge eines inhomogenen LGS ⇒ X5 ist kein Unterraum, jedoch
ist ein affiner Unterraum.
f) X6 ist die Lösungsmenge eines homogenen LGS ⇒ X6 ist ein Unterraum sowie ein
affiner Unterraum.
g) Wegen den quadratischen Termen x21 + x22 stammt X7 , nicht aus einem LGS ⇒ X7
ist kein Unterraum und zugleich auch kein affiner Unterraum. !

Übung 5.18
• ◦ ◦ Man zeige, dass Y = {x ∈ Rn | xn = 1 } ein affiner Unterraum von Rn ist. Wie
lautet der zugehörige Ursprungsunterraum?

v Lösung
Y können wir wie folgt umschreiben:
⎧⎡ ⎤+ ⎫ ⎡ ⎤ ⎧⎡ ⎤+ ⎫

⎪ x1 ++ ⎪
⎪ 0 ⎪
⎪ x1 ++ ⎪


⎪ ⎪ ⎪ ⎪
⎨⎢ ⎥+
⎢ .. ⎥ +

⎬ ⎢ ⎥
⎢ .. ⎥

⎨⎢ ⎥+
⎢ .. ⎥ +


Y= ⎢ . ⎥ + xi ∈ R = ⎢ . ⎥ + ⎢ . ⎥ + xi ∈ R
⎪ ⎢ ⎥+ ⎪ ⎢ ⎥ ⎪ ⎢ ⎥ + ⎪

⎪ ⎣xn−1 ⎦ + ⎪
⎪ ⎣0⎦ ⎪
⎪ ⎣xn−1 ⎦ + ⎪


⎩ + ⎪
⎭ ⎪
⎩ + ⎪

1 + 1 0 +
; <= >
= zugehöriger Ursprungsunterraum

Y ist somit ein affiner Unterraum. Der zugehörige Ursprungsunterraum U ist die
Menge aller Vektoren x ∈ Rn mit xn = 0. !
274 Kapitel 5 • Vektorräume und Unterräume

Übung 5.19 +
G H
• ◦ ◦ Man zeige, dass Y = A ∈ R2×2 + Spur(A) = 1 ein affiner Unterraum von R2×2
ist. Was ist der zugehörige Ursprungsunterraum?

v Lösung
( )
Es sei A = ac db ∈ R2×2 . Die Bedingung Spur(A) = 1 ist äquivalent zu a + d = 1 ⇒
d = 1 − a. Daher ist
1 + ' * 4 ' * 1 + ' *4
+ +
2×2 + a b 00 2×2 + a b
Y= A∈R +A = , a, b, c ∈ R = + A∈R +A =
+ c 1−a 01 + c −a
; <= >
={A∈R2×2 |Spur(A)=0 }

' *
00
Y= + U ist somit ein affiner Unterraum. Der zugehörige Ursprungsunterraum
01
U ist die Menge der spurlosen (2 × 2)-Matrizen. !

Übung 5.20 +
G H
• ◦ ◦ Man zeige, dass Y = p(x) ∈ P2 (R) + p(0) = 1, p′ (0) = 1 ein affiner Unterraum
von P2 (R) ist. Wie lautet der zugehörige Ursprungsunterraum?

v Lösung
Es sei p(x) = a0 + a1 x + a2 x2 . Die Bedingungen p(0) = 1 und p′ (0) = 1 sind äquivalent
zu a0 = 1 und a1 = 1. Daher ist
I + J I + J
+ +
Y = p(x) ∈ P2 (R) +p(x)=1 + x + a2 x2 , a2 ∈ R =1+x+ p(x) ∈ P2 (R) +p(x)=a2 x2
; <= >
=zugehöriger Ursprungsunterraum

Y = 1+x+U ist somit ein affiner Unterraum und der zugehörige Ursprungsunterraum
U ist die Menge der Polynome p(x) = a2 x2 . !

5.4 Operationen mit Unterräumen

5.4.1 Durchschnitt und Vereinigung


# Definition 5.4
Es seien U ⊂ V und W ⊂ V Unterräume von V . Deren Durchschnitt ist

U ∩ W := {v ∈ V | v ∈ U und v ∈ W } (5.10)

$
5.4 • Operationen mit Unterräumen
275 5
Es gilt (vgl. Übung 5.22):

# Satz 5.4 (Durchschnitt von Unterräumen)


Es seien U ⊂ V und W ⊂ V Unterräume von V . Dann ist der Durchschnitt U ∩ W ein
Unterraum von V . $

> Bemerkung
Wichtig: Die Vereinigung U ∪ W ist im Allgemeinen kein Unterraum von V .

Übung 5.21
• ◦ ◦ Man betrachte
+ die folgenden Unterräume von R3 :
G 3
H
5 U1 = x ∈ R ++ x1 + 2x2 = 3x3
G H
5 U2 = x ∈ R3 ++ x1 + x2 − 4x3 = 0, x1 = x2
G H
5 U3 = x ∈ R3 + x1 = x2 = x3

Man bestimme U1 ∩ U2 und U1 ∩ U3 .

v Lösung
U1 ∩ U2 ist der folgende Unterraum
I + J
+
U1 ∩ U2 = x ∈ R3 + x1 + 2x2 = 3x3 , x1 + x2 − 4x3 = 0, x1 = x2 .

Wir bekommen somit ein homogenes (3 × 3)-LGS, das wir mit dem Gauß-Algorithmus
lösen können:
⎧ ⎡ ⎤ ⎡ ⎤
⎨ x1 + 2x2 − 3x3 = 0
⎪ (Z1 ) 1 2 −3 0 (Z2 ) − (Z1 ) 1 2 −3 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
x1 + x2 − 4x3 = 0 (Z2 ) " ⎣ 1 1 −4 0 ⎦ " ⎣ 0 −1 −1 0 ⎦


x1 − x2 =0 (Z3 ) 1 −1 0 0 0 −3 3 0
⎡ ⎤
1 1 −3 0
(Z3 ) − 3(Z2 ) ⎢ ⎥
" ⎣ 0 −1 −1 0 ⎦ = Z
0 0 6 0

Die einzige Lösung des LGS ist x1 = x2 = x3 = 0. Somit U1 ∩ U2 = {0}.


U1 ∩ U3 ist der folgende Unterraum
I + J
+
U1 ∩ U3 = x ∈ R3 + x1 + 2x2 = 3x3 , x1 = x2 , x2 = x3 .

Wir erhalten somit ein homogenes (3 × 3)-LGS, das wir mit dem Gauß-Algorithmus
lösen können:
⎧ ⎡ ⎤ ⎡ ⎤
⎨ x1 + 2x2 − 3x3 = 0
⎪ (Z1 ) 1 2 −3 0
(Z2 ) − (Z1 )
1 2 −3 0
⎢ ⎥ ⎢ ⎥
x1 − x2 =0 (Z2 ) " ⎣ 1 −1 0 0 ⎦ " ⎣ 0 −3 3 0 ⎦


x2 − x3 = 0 (Z3 ) 0 1 −1 0 0 1 −1 0
276 Kapitel 5 • Vektorräume und Unterräume

⎡ ⎤
(Z2 )/3 1 2 −3 0
(Z3 ) + (Z2 ) ⎢ ⎥
" ⎣ 0 −1 1 0 ⎦ = Z
0 0 0 0

Wir erhalten 2 Gleichungen mit 3 Unbekannten. Eine Unbekannte ist somit frei
wählbar, z. B. x3 = t. Aus der zweiten Gleichung folgt dann x2 = x3 = t und aus
der ersten Gleichung x1 = −2x2 + 3x3 = t. Somit ist:
⎧ +⎡ ⎤ ⎡ ⎤ ⎫
⎪ + x 1 ⎪
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥
U1 ∩ U3 = x ∈ R3 + ⎣x2 ⎦ = t ⎣1⎦ , t ∈ R .

⎩ + ⎪

+ x3 1

U1 ∩ U3 ist eine Gerade durch den Nullpunkt und somit ein Unterraum. !

Übung 5.22
• ◦ ◦ Es seien U, W Unterräume von V . Man zeige:
a) U ∩ W = {v ∈ V | v ∈ U und v ∈ W } ist ein Unterraum von V .
b) U ∪ W ist im Allgemeinen kein Unterraum von V (Hinweis: Gegenbeispiel).

v Lösung
a) Wir müssen einfach nachweisen, dass U ∩ W die drei Eigenschaften eines Unter-
raumes erfüllt:
5 Beweis von (UR0): Da U und W selbst Unterräume sind, gilt 0 ∈ U und 0 ∈ W .
Somit ist 0 ∈ U ∩ W . %
5 Beweis von (UR1): Es seien v1 , v2 ∈ U ∩ W , d. h. v1 und v2 gehören zu U und
W . Da U ein Unterraum von V ist, gilt v1 + v2 ∈ U. Weil W ein Unterraum von
V ist folgt v1 + v2 ∈ W . v1 + v2 gehört somit zu U und W , d. h. v1 + v2 ∈ U ∩ W .
%
5 Beweis von (UR2): Es seien v ∈ U ∩ W (d. h. v ∈ U und v ∈ W ) und α ∈ K.
Weil U und W Unterräume sind gilt α v ∈ U und α v ∈ W . Dies bedeutet
α v ∈ U ∩ W. %
b) Wir betrachten ein einfaches Gegenbeispiel (es gibt mehrere!). Es seien V = R2 und
1' *+ 4 1' *+ 4
x1 ++ 0 ++
U1 = x1 -Achse = + x1 ∈ R , U2 = x2 -Achse = + x2 ∈ R .
0 + x2 +

U1 und U2 sind Unterräume von V . Die Vereinigung U1 ∪ U2 = x1 -Achse ∪


x2 -Achse ist aber kein Unterraum von V , weil sie bezüglich der Summe nicht
abgeschlossen ist. Zum Beispiel betrachte man die Vektoren [1, 0]T ∈ U1 und
[0, 1]T ∈ U2 . Deren Summe [1, 0]T + [0, 1]T = [1, 1]T gehört weder zu U1 noch
zu U2 , also gehört sie nicht zu U1 ∪ U2 . Somit ist U1 ∪ U2 kein Unterraum von V
(7 Abb. 5.5).
Beachte, dass U1 ∩ U2 = {0} ein Unterraum ist (enthält nur den Nullvektor). !
5.4 • Operationen mit Unterräumen
277 5

. Abb. 5.5 Die Menge U1 ∪ U2 in Übung 5.22(b) ist die Vereinigung der x1 - und x2 -Achse. Diese Menge
ist kein Unterraum: Die Vektoren [1, 0]T und [0, 1]T sind beide in U1 ∪ U2 ; deren Summe [1, 1]T ist aber
kein Element von U1 ∪ U2 !

Übung 5.23
• ◦ ◦ Man betrachte die folgenden affinen Unterräume von R4 :
⎡ ⎤ ⎧ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤+ ⎫
2 ⎪
⎪ 1 0 0 ++ ⎪

⎢0⎥ ⎪⎨ ⎢1⎥ ⎢1⎥ ⎢0⎥+ ⎪

⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥+
Y1 = ⎢ ⎥ + α1 ⎢ ⎥ + α2 ⎢ ⎥ + α3 ⎢ ⎥+ α1 , α2 , α3 ∈ R
⎣0⎦ ⎪⎪ ⎣0⎦ ⎣1⎦ ⎣1⎦+ ⎪


⎩ + ⎪

1 0 0 1 +
⎡ ⎤ ⎧ ⎡ ⎤ ⎡ ⎤+ ⎫
3 ⎪
⎪ 0 −1 ++ ⎪


⎢1⎥ ⎨ ⎢ ⎥ ⎢ 1 ⎥+ ⎪

⎢ ⎥ ⎢1⎥ ⎢ ⎥+
Y2 = ⎢ ⎥ + β1 ⎢ ⎥ + β2 ⎢ ⎥+ β1 , β2 ∈ R
⎣0⎦ ⎪⎪ ⎣0⎦ ⎣ 2 ⎦+ ⎪


⎩ + ⎪

0 0 0 +

Man zeige, dass Y1 ∩ Y2 ein affiner Unterraum ist.

v Lösung
Um den Durchschnitt Y1 ∩ Y2 zu bestimmen, setzen wir
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 0 0 3 0 −1
⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ + α1 ⎢ ⎥ + α2 ⎢ ⎥ + α3 ⎢ ⎥ = ⎢ ⎥ + β1 ⎢ ⎥ + β2 ⎢ ⎥ .
⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣0⎦ ⎣0⎦ ⎣2⎦
1 0 0 1 0 0 0

Wir erhalten ein LGS, das wir mit dem Gauß-Algorithmus lösen:
⎧ ⎡ ⎤

⎪ −α1 − β2 = −1 (Z1 ) −1 0 0 0 −1 −1

⎨ −α − α ⎢ ⎥
1 2 + β 1 + β 2 = −1 (Z2 ) ⎢ −1 −1 0 1 1 −1 ⎥
" ⎢ ⎥


⎪ − α 2 − α3 + 2β 2 =0 (Z3 ) ⎣ 0 −1 −1 0 2 0 ⎦

− α3 =1 (Z4 ) 0 0 −1 0 0 1
278 Kapitel 5 • Vektorräume und Unterräume

⎡ ⎤ ⎡ ⎤
−1 0 0 0 −1 −1 −1 0 0 0 −1 −1
⎢ 0 0 ⎥ ⎢ 0
(Z2 ) − (Z1 ) ⎢ −1 0 1 2 ⎥ (Z3 ) − (Z2 ) ⎢ −1 0 1 2 0 ⎥⎥
" ⎢ ⎥ " ⎢ ⎥
⎣ 0 −1 −1 0 2 0 ⎦ ⎣ 0 0 −1 −1 0 0 ⎦
0 0 −1 0 0 1 0 0 −1 0 0 1
⎡ ⎤
−1 0 0 0 −1 −1
⎢ 0
(Z4 ) − (Z3 ) ⎢ −1 0 1 2 0 ⎥⎥
" ⎢ ⎥=Z
⎣ 0 0 −1 −1 0 0 ⎦
0 0 0 1 0 1

Es folgt β1 = 1 und β2 = t ist beliebig. Es ist:


⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤+ ⎫ ⎡ ⎤ ⎧ ⎡ ⎤+ ⎫

⎪ 3 0 −1 ++ ⎪
⎪ 3 ⎪
⎪ −1 ++ ⎪

⎪⎢ ⎥ ⎢ ⎥
⎨ ⎢ 1 ⎥+ ⎪
⎬ ⎢2⎥ ⎪ ⎨ ⎢ 1 ⎥+ ⎪

1 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥+ ⎢ ⎥ ⎢ ⎥+
Y1 ∩ Y2 = ⎢ ⎥ + ⎢ ⎥ + t ⎢ ⎥+ t ∈ R = ⎢ ⎥ + t ⎢ ⎥+ t ∈ R .

⎪ ⎣0⎦ ⎣0⎦ ⎣ 2 ⎦+ ⎪
⎪ ⎣0⎦ ⎪⎪ ⎣ 2 ⎦+ ⎪


⎩ + ⎪
⎭ ⎪
⎩ + ⎪

0 0 0 + 0 0 +

Y1 ∩ Y2 ist somit ein affiner Unterraum. Er repräsentiert eine affine Gerade durch
[3, 2, 0, 0]T . !

5.4.2 Summe

Da die Vereinigung von Unterräumen keine vernünftige Menge im Sinne der linearen
Algebra, ist führt man stattdessen die sogenannte Summe von Unterräumen ein:

# Definition 5.5 (Summe von Unterräumen)


Es seien U und W zwei Unterräume des Vektorraums V . Dann definiert man deren Summe
als
G H
U + W := u + w | u ∈ U, w ∈ W (5.11)

> Bemerkung
Die Summe U + W besteht aus allen Vektoren, die durch Addition von Vektoren aus
U und W gebildet werden. Es sind also alles Elemente der Form „etwas von U plus
etwas von W “ (. Abb. 5.6).

. Abb. 5.6 Die Summe U + W


enthält alle Vektoren, welche aus
der Addition von Vektoren aus U
und W entstehen. Es gilt auch
U + W = Span(U, W ) = ⟨U, W ⟩
(vgl. 7 Abschn. 6.1)
5.4 • Operationen mit Unterräumen
279 5
Die Summe von Unterräumen ist ein Unterraum
# Satz 5.5 (Summe)
Es seien U und W zwei Unterräume des Vektorraums V . Die Summe U + W ist dann ein
Unterraum von V (vgl. Übung 5.24). U + W ist sogar der kleinste Unterraum von V , der
U und W enthält! $

# Beispiel
I + 6a7 J
+
Man betrachte die Unterräume U = x ∈ R3 + x = 0 , a, c ∈ R und W =
I + 607 J c
+
x ∈ R3 + x = b , b, c ∈ R . Dann ist U ∩ W der Unterraum bestehend aus allen
c
Vektoren x, welche sowohl in U und W liegen, d. h.
I + 607 J
+
U ∩ W = x ∈ R3 + A = 0 , c ∈ R .
c

U + W enthält alle Vektoren, welche aus der Addition von Vektoren aus U und W
entstehen, d. h.
I + 6a7 J
+
U + W = x ∈ R3 + A = b , a, b, c ∈ R = R3 . $
c

# Beispiel
G + ( ) H
Man betrachte
+ die Unterräume U = A ∈ R2×2 + A = a0 b0 , a, b ∈ R und W =
G ( ) H
A ∈ R2×2 + A = ac 00 , a, c ∈ R . Dann ist U ∩ W der Unterraum bestehend aus allen
Matrizen A, welche gleichzeitig zu U und W gehören, d. h.
I + ( ) J
U ∩ W = A ∈ R2×2 + A = a0 00 , a ∈ R .

U + W enthält alle Matrizen, welche aus der Addition von Matrizen aus U und W
entstehen, d. h.
I + ( ) J
U + W = A ∈ R2×2 + A = ac b0 , a, b, c ∈ R . $

Übung 5.24
• • ◦ Es seien U, W Unterräume von V . Man zeige:
a) Die Summe U + W = {u + w | u ∈ U, w ∈ W } ist ein Unterraum von V .
b) U + W ist der kleinste Unterraum von V , der U und W enthält.

v Lösung
a) Wir zeigen einfach, dass U +W die drei Eigenschaften eines Unterraumes erfüllt:
5 Beweis von (UR0): Der Nullvektor ist in U + W enthalten, weil 0 =
0 + ;<=>
;<=> 0 ∈ U + W . Dabei haben wir benutzt, dass U und W selbst
∈U ∈W
Unterräume sind, sodass sie den Nullvektor enthalten. %
5 Beweis von (UR1): Es seien v1 = u1 + w1 und v2 = u2 + w2 zwei Elemente aus
U + W (mit u1 , u2 ∈ U und w1 , w2 ∈ W ). Dann gilt:
280 Kapitel 5 • Vektorräume und Unterräume

v1 + v2 = (u1 + w1 ) + (u2 + w2 ) = (u1 + u2 ) + (v1 + v2 ).

Weil U ein Unterraum von V ist, gilt: u1 +u2 ∈ U. Analog ist w1 +w2 ∈ W , weil
W ein Unterraum von V ist. Somit gilt: v1 +v2 = (u1 + u2 ) + (v1 + v2 ) ∈ U +W
; <= > ; <= >
∈U ∈W
%
5 Beweis von (UR2): Es seien v = u + w ∈ U + W (u ∈ U und w ∈ W ) und α ∈ K.
Dann gilt:

α v = α (u + w) = ;<=> αw ∈ U +W %
α u + ;<=>
∈U ∈W

Dabei haben wir benutzt, dass U und W Unterräume sind, sodass u ∈ U ⇒


α u ∈ U und w ∈ W ⇒ α w ∈ W .
b) Per Definition enthält U + W sicher U und W . Wie zeigt man aber, dass U + W
der kleinste Unterraum ist, der U und W enthält? Wir betrachten einen beliebigen
Unterraum Z ⊂ V von V , der U und W enthält. Dann zeigen wir, dass U +W ⊂ Z
gelten muss. Damit hat man gezeigt, dass U + W in der Tat der kleinste Unterraum
ist, der U und W enthält. Legen wir los. Es sei Z ⊂ V ein Unterraum von V , der
U und W enthält. Es seien nun u ∈ U und w ∈ W zwei Elemente aus U bzw. W .
Weil Z sowohl U als auch W enthält, gilt u ∈ Z und w ∈ Z. Weil Z ein Unterraum
ist, muss auch die Summe u + w in Z enthalten sein, d. h. u + w ∈ Z. Dies bedeutet
U + W ⊂ Z. Somit ist U + W der kleinste Unterraum, der U und W enthält. !

5.4.3 Direkte Summe


# Definition 5.6 (Direkte Summe von Unterräumen)
Es seien U und W zwei Unterräume von V . Dann heißt V direkte Summe von U und W ,
wenn die beiden Bedingungen erfüllt sind
1) U + W = V
2) U ∩ W = {0}.

Geschrieben wird V := U ⊕ W , was stets als “V ist die direkte Summe von U und W ”
gelesen wird. $

> Bemerkung
V = U ⊕ W ist eine kompakte Schreibweise für die zwei Bedingungen 1) U + W =
V und 2) U ∩ W = {0}. Aus diesem Grund müssen wir diese beiden Bedingungen
überprüfen, wenn wir beweisen wollen, dass V = U ⊕ W ist.

Eigenschaften der direkten Summe


Man könnte sich nun Folgendes fragen: Warum haben wir das Konzept einer di-
rekten Summe überhaupt eingeführt? Ist der Begriff der Summe von Unterräu-
men nicht genug? Direkte Summen haben nützliche Eigenschaften, einschließlich
(vgl. Übung 5.29)
5.4 • Operationen mit Unterräumen
281 5
# Satz 5.6 (Darstellung von Elementen einer direkten Summe)
Es sei V = U ⊕ W . Dann lässt sich jedes Element v ∈ V auf genau eine Art als Summe von
Elementen aus U und W schreiben. Mit anderen Worten: Die Darstellung eines Elements
v ∈ v als

v = u + w, u ∈ U, w ∈ W

ist eindeutig. $

> Bemerkung
Beachte, dass bei „einfachen“ Summen die Zerlegung v = u + w ∈ U + W im
Allgemeinen nicht eindeutig ist. Die Darstellung eines Elements v ∈ V mit v = u + w ∈
U + W ist nur dann eindeutig, wenn U ∩ W = {0} gilt, d. h. wenn U und W sozusagen
„unabhängig“ sind. Aus diesem Grund benötigen wir die Bedingung U ∩ W = {0} in
der Definition der direkten Summe.

# Beispiel
Man betrachte die folgenden Unterräume von R3
⎧⎡ ⎤+ ⎫ ⎧⎡ ⎤+ ⎫
+ +
⎨ x1 +
⎪ ⎪
⎬ ⎨ 0 +
⎪ ⎪

⎢ ⎥+ ⎢ ⎥+
U = ⎣x2 ⎦ + x1 , x2 ∈ R , W = ⎣ 0 ⎦ + x3 ∈ R .

⎩ + ⎪
⎭ ⎪
⎩ + ⎪

0 + x3 +

Geometrisch ist U die x1 x2 -Ebene und W die x3 -Achse. Was ist U + W ? Es sind alle
Elemente der Form etwas von U plus etwas von W , d. h.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x1 0 x1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣x2 ⎦ + ⎣ 0 ⎦ = ⎣x2 ⎦ .
0 x3 x3

Somit ist U + W ganz R3 , d. h. U + W = R3 . Was ist U ∩ W ? Der Unterraum U ∩ W


besteht aus allen Vektoren, welche sowohl in U als auch W liegen. Der einzige Vektor, der
in U und W liegt, ist der Nullvektor, d. h. U ∩ W = {0}. Somit ist U + W eine direkte
Summe (. Abb. 5.7). Wir schreiben deshalb R3 = U ⊕ W .
Beachte, dass man jeden Vektor in R3 wie folgt schreiben kann:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x1 x1 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣x2 ⎦ = ⎣x2 ⎦ + ⎣ 0 ⎦ ∈ U + W .
x3 0 x3
; <= > ; <= >
∈U ∈W

Diese Darstellung ist eindeutig. Diese Eigenschaft folgt aus der Tatsache, dass U und W
den trivialen Durchschnitt U ∩ W = {0} haben (der Nullvektor ist der einzige Vektor, der
sowohl in U als auch in W liegt). $
282 Kapitel 5 • Vektorräume und Unterräume

a b

. Abb. 5.7 Unterschied zwischen Summe und direkter Summe

# Beispiel
Nun betrachten wir die folgenden Unterräume von R3
⎧⎡ ⎤+ ⎫ ⎧⎡ ⎤+ ⎫
+ +
⎨ x1 +
⎪ ⎪
⎬ ⎨ 0 +
⎪ ⎪

⎢ ⎥+ ⎢ ⎥+
U = ⎣x2 ⎦ + x1 , x2 ∈ R , W = ⎣x2 ⎦ + x2 , x3 ∈ R .

⎩ + ⎪
⎭ ⎪
⎩ + ⎪

0 + x3 +

Es ist U + W = R3 , aber
⎧⎡ ⎤+ ⎫
+
⎨ 0 +
⎪ ⎪

⎢ ⎥+
U ∩ W = ⎣x2 ⎦ + x2 ∈ R ̸= {0}.

⎩ + ⎪

0 +

U + W ist somit keine direkte Summe (. Abb. 5.7). Geometrisch interpretiert man das
Resultat so, dass es mehr als eine Art gibt, Vektoren in V als Summe von Vektoren aus U
und W zu schreiben. Zum Beispiel:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x1 x1 0 x1 0 x1 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ x2 ⎥ ⎢ x2 ⎥
⎣x2 ⎦ = ⎣x2 ⎦ + ⎣ 0 ⎦ = ⎣ 0 ⎦ + ⎣x2 ⎦ = ⎣ 2 ⎦ + ⎣ 2 ⎦ = usw.
x3 0 x3 0 x3 0 x3
; <= > ; <= > ; <= > ; <= > ; <= > ; <= >
∈U ∈W ∈U ∈W ∈U ∈W

d. h. die Eindeutigkeit der Darstellung v = u + w ∈ U + W geht verloren! $


5.4 • Operationen mit Unterräumen
283 5

Übung 5.25
• ◦ ◦ Man betrachte die folgenden Unterräume von R2 :
1' *+ 4 1' *+ 4
+
x1 + 0 ++
U1 = x1 -Achse = + x1 ∈ R , U2 = x2 -Achse = + x2 ∈ R .
0 + x2 +

Man zeige R2 = U1 ⊕ U2 .

v Lösung
Wir müssen zwei Sachen nachweisen: (1) U1 + U2 = R2 und (2) U1 ∩ U2 = {0}.
1) Jeden Vektor x in R2 kann man wie folgt darstellen:
' * ' * ' *
x x 0
x= 1 = 1 + ⇒ x ∈ U1 + U2
x2 0 x2
; <= > ; <= >
∈U1 ∈U2

Somit U1 + U2 = R2 %
2) Alle Vektoren in U1 haben die Form [x1 , 0]T , während jeder Vektor in U2 die Form
[0, x2 ]T hat. Der einzige Vektor, der sowohl in U1 als auch in U2 liegt, ist der
Nullvektor, d. h. U1 ∩ U2 = {0} %

Da Punkte (1) und (2) erfüllt sind, ist U1 +U2 eine direkte Summe. Wir schreiben somit
R2 = U1 ⊕ U2 . !

Übung 5.26
• • ◦ Es seien Symn (R) und Skewn (R) die Mengen der symmetrischen bzw. schiefsym-
metrischen reellen (n × n)-Matrizen.
a) Man zeige, dass Symn (R) und Skewn (R) Unterräume von Rn×n sind.
b) Man zeige: V = Symn (R) ⊕ Skewn (R).

v Lösung
a) Wir haben bereits in Übung 5.10 gezeigt, dass Symn (R) ein Unterraum von Rn×n
ist. Nun zeigen wir, dass Skewn (R) ein Unterraum ist:
5 Beweis von (UR0): Wegen 0T = −0 gehört 0 zu Skewn (R). %
5 Beweis von (UR1): Es seien A, B ∈ Skewn (R) (⇒ AT = −A und BT = −B).
Mit den Rechenregeln für die Transponierte finden wir dann:

(A + B)T = ;<=>
AT + ;<=>
BT = −(A + B) ⇒ A + B ∈ Skewn (R) %
=−A =−B

5 Beweis von (UR2): Es seien A ∈ Skewn (R) und α ∈ R. Dann gilt:

(α A)T = α ;<=>
AT = −α A ⇒ α A ∈ Skewn (R) %
=−A
284 Kapitel 5 • Vektorräume und Unterräume

b) Wir gehen wie in Übung 5.25 vor, und weisen die folgenden Punkten nach: (1)
Symn (R) + Skewn (R) = Rn×n und (2) Symn (R) ∩ Skewn (R) = {0}.
1) In Übung 1.35 haben wir bereits gezeigt, dass jede reelle (n × n)-Matrix sich als
Summe einer symmetrischen und einer schiefsymmetrischen Matrix schreiben
lässt:

A + AT A − AT
A = S + T, wobei S = ∈ Symn (R) und T = ∈ Skewn (R).
2 2

Somit Symn (R) + Skewn (R) = Rn×n . %


2) Die einzige Matrix, welche sowohl symmetrisch als antisymmetrisch ist, ist die
Nullmatrix. Denn
4
AT = A ⇒ aji = aij
⇒ aij = −aij ⇒ aij = 0
AT = −A ⇒ aji = −aij

Somit Symn (R) ∩ Skewn (R) = {0}. %

Dies zeigt Rn×n = Symn (R) ⊕ Skewn (R). !

Übung 5.27
• • ◦ Es sei V = C 0 (R) der Vektorraum der stetigen Funktionen f : R → R. Man
betrachte die Unterräume der geraden bzw. ungeraden Funktionen

G = {f ∈ C 0 (R) | f (−x) = f (x)}, U = {f ∈ C 0 (R) | f (−x) = −f (x)}

Man zeige: V = G ⊕ U.

v Lösung
Wir müssen die folgenden Sachen nachweisen: (1) G + U = V und (2) G ∩ U = {0}.
(1) Jede Funktion f ∈ C 0 (R) kann man wie folgt darstellen (vgl. Übung 1.35):

f (x) f (x) f (x) f (x) f (−x) f (−x)


f (x) = + = + + −
2 2 2 2 2 2
f (x) + f (−x) f (x) − f (−x)
= + = g(x) + u(x).
; 2
<= > ; 2
<= >
=:g(x) =:u(x)

Die Funktion g(x) ist gerade, d. h. g ∈ G

f (−x) + f (x) f (x) + f (−x)


g(−x) = = = g(x).
2 2

Die Funktion u(x) ist ungerade, d. h. g ∈ U

f (−x) − f (x) f (x) − f (−x)


u(−x) = =− = −u(x).
2 2
5.4 • Operationen mit Unterräumen
285 5
Somit können wir jede Funktion f ∈ C 0 (R) als Summe einer geraden und einer
ungeraden Funktion schreiben. Daraus folgt: G + U = V . %
(2) Die einzige Funktion, welche sowohl gerade als auch ungerade, ist die Nullfunkti-
on. Denn

f (−x) = f (x) und f (−x) = −f (x) ⇒ f (x) = −f (x) ⇒ f (x) = 0

Somit G ∩ U = {0}. %

Dies zeigt V = G ⊕ U. !

Übung 5.28
• • ◦ Es sei V = Rm×n der Vektorraum der reellen (m × n)-Matrizen. Man betrachte
die Teilmenge der Blockdiagonalmatrizen:
1 + ' * 4
+ A1 0
m×n + p×q r×s
B= A∈R +A = , A1 ∈ R , A2 ∈ R
+ 0 A2

mit p + r = m und q + s = n.
a) Man zeige, dass B ein Unterraum von V ist.
b) Man zeige B = B1 ⊕ B2 , wobei
1 + ' * 4
+ A1 0
m×n + p×q
B1 = A ∈ R +A = , A1 ∈ R
+ 0 0
1 + ' * 4
+ 0 0
m×n + r×s
B2 = A ∈ R +A = , A2 ∈ R
+ 0 A2

c) Aufgrund von Teilaufgabe (b), führt man eine neue Operation


' für*Matrizen ein: die
A 0
direkte Summe von Matrizen, definiert durch A ⊕ B := . Man berechne
0 B
/ 0
(2 1 2) 1 −1
012 ⊕ 2 0 .
−1 5

v Lösung
a) Wir zeigen, dass B die drei Eigenschaften eines Unterraumes erfüllt:
5 Beweis von (UR0): Die (m × n)-Nullmatrix kann man als eine Blockdiagonal-
' *
00
matrix auffassen 0 = . Daraus folgt 0 ∈ B. %
00
5 Beweis von (UR1): Es seien nun A, B ∈ B zwei Blockdiagonalmatrizen. Dann
ist deren Summe
' * ' * ' *
A1 0 B1 0 A1 + B1 0
A+B = + = ∈B%
0 A2 0 B2 0 A2 + B2
286 Kapitel 5 • Vektorräume und Unterräume

5 Beweis von (UR2): Es seien A ∈ B und α ∈ R. Dann gilt:


' * ' * ' *
A1 0 A1 0 α A1 0
A= ∈ B ⇒ αA = α = ∈B%
0 A2 0 A2 0 α A2

b) Um B = B1 ⊕ B2 zu zeigen, müssen wir die folgenden Punkten überprüfen: (1)


B1 + B2 = B und (2) B1 ∩ B2 = {0}.
1) Jede Blockdiagonalmatrix A ∈ B lässt sich wie folgt schreiben:
' * ' * ' *
A1 0 A1 0 0 0
A= = + ∈ B1 + B2 .
0 A2 0 0 0 A2
; <= > ; <= >
∈B1 ∈B2

Somit B1 +'B2 = B.*%


A1 0
2) Es sei A = ∈ B1 ∩ B2 . Dann gilt:
0 A2
* ' ⎫
A1 0 ⎪

A ∈ B1 ⇒ A = d. h. A2 = 0 ⎪


' 0 0 * ⇒ A1 = A2 = 0 ⇒ A = 0.
0 0 ⎪

A ∈ B2 ⇒ A = d. h. A1 = 0 ⎪


0 A2

Somit B1 ∩ B2 = {0}. %

Dies zeigt B = B1 ⊕ B2 . ⎡ ⎤
2 1 2 0 0
⎡ ⎢ ⎤ ⎥
' * 1 −1 ⎢0 1 2 0 0 ⎥
212 ⎢ ⎥ ⎢ ⎥
c) ⊕⎣ 2 0 ⎦=⎢⎢0 0 0 1 −1 ⎥
⎥. !
012 ⎢ ⎥
−1 5 ⎣0 0 0 2 0 ⎦
0 0 0 −1 5

Übung 5.29
• • ◦ Es sei V = U ⊕ W . Man zeige: Jedes v ∈ V kann auf nur eine Weise als v = u + w
geschrieben werden, wobei u ∈ U und w ∈ W .

v Lösung
Es sei V = U ⊕W . Per Definition heißt dies V = U +W und U ∩W = {0}. Es sei v ∈ V .
Wegen V = U + W gibt es u ∈ U und w ∈ W mit v = u + w. Wir wollen zeigen, dass
diese Zerlegung eindeutig ist. Nehmen wir an, dass es eine weitere Zerlegung v = u′ +w′
gibt mit u′ ∈ U und w′ ∈ W . Dann ist v = u + w = u′ + w′ ⇒ u − u′ = w − w′ . Weil U
ein Unterraum ist, ist u − u′ ∈ U. Analog ist w − w′ ∈ W . Aus u − u′ = w − w′ folgt
u − u′ , w − w′ ∈ U ∩ W . Wegen U ∩ W = {0} finden wir u − u′ = 0 und w − w′ = 0,
d. h. u = u′ und w = w′ . Die Zerlegung v = u + w ∈ U + W ist somit eindeutig. !
287 6

Vektorraumstruktur: Basis,
Dimension und
Koordinaten
Inhaltsverzeichnis

6.1 Linearkombinationen, Span und


Erzeugendensysteme – 289
6.1.1 Linearkombinationen – 289
6.1.2 Span – 292
6.1.3 Erzeugendensysteme – 296

6.2 Lineare Abhängigkeit und


Unabhängigkeit – 297
6.3 Basis, Dimension und Koordinaten – 307
6.3.1 Basis – 307
6.3.2 Dimension – 309
6.3.3 Koordinaten – 316
6.3.4 Folgerung: Endlichdimensionale Vektorräume V
sind isomorph zum Kn – 322

6.4 Berechnungsmethoden – 323


6.4.1 Das Rangkriterium – 324
6.4.2 Das Determinantenkriterium – 325
6.4.3 Lineare Unabhängigkeit von Abbildungen und die
Wronski-Determinante – 325
6.4.4 Beispiele – 327

6.5 Basiswechsel – 350


6.5.1 Basiswechsel zwischen der Standardbasis E und
einer anderen Basis B – 350

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_6
6.5.2 Basiswechsel zwischen zwei allgemeinen
Basen – 353
6.5.3 Beispiele – 356
6.1 • Linearkombinationen, Span und Erzeugendensysteme
289 6
Im letzten Kapitel haben wir die Begriffe „Vektorraum“ und „Unterraum“ eingeführt
und diese anhand von mehreren Beispielen eingeübt. Wir wollen uns jetzt mit der
Struktur dieser Vektorräume (oder Unterräume) beschäftigen. Grundsätzlich geht es
darum, die folgenden wichtigen Fragen zu beantworten:
5 Wie „gross“ ist ein vorgelegter Vektorraum?
5 Wie sieht ein beliebiges Element aus einem solchen Vektorraum aus?

Diese Fragen kann man mit zentralen Begriffen wie Basis, Dimension und Koordina-
ten treffend beantworten.

n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 6 sind Sie in der Lage:
5 wichtige Vektorraumstrukturen wie Basis, Dimension und Koordinaten zu erklären
und anzuwenden,
5 wichtige Vektorraumstrukturen wie Basis, Dimension und Koordinaten algebraisch
und geometrisch zu interpretieren,
5 lineare Unabhängigkeit von Vektoren und Erzeugendensysteme zu erklären,
5 das Konzept von Basis anhand typischer Beispiele erklären und anzuwenden,
5 das Rangkriterium und Determinanten-Kriterium anwenden und daraus wichtige
Schlüsse über lineare Unabhängigkeit, Erzeugendensysteme und Basis zu ziehen,
5 das Prinzip der Basiswechsel für Vektoren zu verstehen und praktisch durchzufüh-
ren

6.1 Linearkombinationen, Span und Erzeugendensysteme

Im Folgenden seien:
5 V = Vektorraum über dem Körper K (z. B. V = Rn , Rm×n , Pn (R), usw.);
5 u, v, w, · · · ∈ V = Elemente (Vektoren) aus V (es könnten übliche Vektoren,
Matrizen, Polynome usw. sein)
5 α, β, γ , · · · ∈ K = Skalare (d. h. Zahlen aus dem Körper K = R, C usw.)

6.1.1 Linearkombinationen

Es seien v1 , v2 , · · · , vk Vektoren aus V .

# Definition 6.1 (Linearkombination)


Der Ausdruck

k
D
α1 v1 + α2 v1 + · · · + αk vk = αi vi (6.1)
i=1

heißt eine Linearkombination der Vektoren v1 , v2 , · · · , vk mit den Koeffizienten


α1 , α2 , · · · , αk ∈ K. $
290 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Beispiele

Übung 6.1 ' * ' * ' *


1 −3 4
◦ ◦ ◦ Es seien v1 = , v2 = , v3 = . Man berechne die folgenden
2 2 0
Linearkombinationen
a) u = 2v1 + v2 − 3v3 ,
b) w = v1 − v2 + v3 .

v Lösung ' * ' * ' * ' *


1 −3 4 −13
a) u = 2v1 + v2 − 3v3 = 2 + −3 = .
2 2 0 6
' * ' * ' * ' *
1 −3 4 8
b) w = v1 − v2 + v3 = − + = . !
2 2 0 0

Übung 6.2 ' * ' * ' *


1 1 1
◦ ◦ ◦ Man betrachte v1 = , v2 = ,w= . Man schreibe den Vektor w als
3 5 1
Linearkombination von v1 und v2 .

v Lösung
Wir suchen zwei Zahlen α1 , α2 ∈ R, sodass gilt
' * ' * ' * ' *
1 1 α1 + α2 ! 1
w = α1 v1 + α2 v1 ⇒ α1 + α2 = = .
3 5 3α1 + 5α3 1

Wir erhalten ein LGS für α1 , α2 , das wir mit dem Gauß-Algorithmus lösen können:
1 ' * ' *
α1 + α2 = 1 (Z1 ) 1 1 1 (Z2 ) − 3(Z1 ) 1 1 1
" [A|b] = " = Z.
3α1 + 5α2 = 1 (Z2 ) 3 5 1 0 2 −2

Aus der zweiten Gleichung folgt α2 = −1. Aus der ersten Gleichung folgt entsprechend
α1 = 2. Somit ist w eine Linearkombination von v1 und v2 und zwar w = 2v1 − v2 . !

In den folgenden Beispielen erzeugen wir Linearkombinationen von „verallgemeiner-


ten“ Vektorraumelementen, wie Polynome oder Matrizen.

Übung 6.3
• ◦ ◦ Ist das Polynom p(x) = 3x3 − 2x2 − x eine Linearkombination der Polynomen
p1 (x) = x3 − x und p2 (x) = x3 − x2 ?
6.1 • Linearkombinationen, Span und Erzeugendensysteme
291 6
v Lösung
Wir suchen zwei Skalare α1 , α2 ∈ R, sodass gilt

p(x) = α1 p1 (x) + α2 p2 (x) ⇒ α1 (x3 − x) + α2 (x3 − x2 ) = (α1 + α2 )x3 − α2 x2 − α1 x


!
= 3x3 − 2x2 − x.

Der Koeffizientenvergleich liefert ein LGS für α1 , α2 :




⎨ α1 + α2 = 3 (Z1 )
− α2 = −2 (Z2 )


−α1 = −1 (Z3 )

Die Lösung ist α1 = 1, α2 = 2. Somit ist p(x) eine Linearkombination von p1 (x) und
p2 (x) und zwar p(x) = p1 (x) + 2p2 (x).
Kontrolle: p1 (x) + 2p2 (x) = (x3 − x) + 2(x3 − x2 ) = 3x3 − 2x2 − x ! "

Übung 6.4
• ◦ ◦ Man betrachte die Matrizen
% & % & % & % &
1 1 10 21 0 1
A1 = , A2 = , A3 = , A4 =
1 −1 01 11 −1 1
% &
−1 1
Man schreibe A = als Linearkombination von A1 , A2 , A3 und A4 .
3 1

v Lösung
Wir suchen vier Skalare α1 , α2 , α3 , α4 ∈ R derart, dass gilt A = α1 A1 + α2 A2 + α3 A3 +
α4 A4 d. h.
% & % & % & % &
1 1 10 21 0 1
α1 + α2 + α3 + α4 =
1 −1 01 11 −1 1
% & % &
α + α2 + 2α3 α1 + α3 + α4 ! −1 1
= 1 = .
α1 + α3 − α4 −α1 + α2 + α3 + α4 3 1

Der Koeffizientenvergleich liefert ein LGS für α1 , α2 , α3 , α4 :




⎪ α1 + α2 + 2α3 = −1 (Z1 )

⎨ α1 + α3 + α4 =1 (Z2 )


⎪ α1 + α3 − α4 =3 (Z3 )

−α1 + α2 + α3 + α4 =1 (Z4 )

Die Lösung mittels Gauß-Algorithmus ist α1 = −5, α2 = −10, α3 = 7 und α4 = −1.


Somit ist A eine Linearkombination der Matrizen A1 , A2 , A3 und A4 :
292 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

A = −5A1 − 10A2 + 7A3 − A4 .


% & % & % & % & % &
1 1 10 21 0 1 −1 1
Kontrolle: −5 − 10 +7 − = ! "
1 −1 01 11 −1 1 3 1

6.1.2 Span

Die Menge aller möglichen Linearkombinationen der Vektoren v1 , · · · , vk heißt Span


(oder lineare Hülle) von v1 , · · · , vk .

# Definition 6.2 (Span ⟨ S⟩)


Es sei S = {v1 , · · · , vk } ⊂ V eine Teilmenge von V . Der Span von S, welcher mit ⟨S⟩
bezeichnet wird, ist die Menge aller möglichen Linearkombinationen der Vektoren aus S

⎧ ( ⎫
⎨ k ( ⎬
' (
⟨S⟩ := α1 v1 + · · · + αk vk = αi vi (( vi ∈ S, αi ∈ K (6.2)
⎩ ( ⎭
i=1

> Bemerkung
Alternative Bezeichnungen für ⟨S⟩ sind: span(S), L(A), L(A).

> Bemerkung
Der Span der leeren Menge wird definiert als ⟨∅⟩ = {0}.

# Satz 6.1
⟨S⟩ ist der kleinste Unterraum von V , der S enthält. $

Geometrische Deutung
Was ist die geometrische Deutung des Spans? ⟨S⟩ ist die Menge aller möglichen Line-
arkombinationen von Elementen von S. Für Vektoren in Rn gilt somit (. Abb. 6.1):
5 ⟨v⟩ ist die Gerade, welche durch dem Vektor v aufgespannt wird:

⟨v⟩ = {α v | α ∈ R}.

5 ⟨v, w⟩ ist die Ebene, welche durch den Vektoren v, w aufgespannt wird:

⟨v, w⟩ = {α v + βw | α, β ∈ R}.
6.1 • Linearkombinationen, Span und Erzeugendensysteme
293 6
a b

. Abb. 6.1 Grafische Darstellung des Spans von Vektoren in Rn . (a) Der Span eines einzelnen Vektors
v ist eine Gerade. (b) Der Span von zwei linear anabhängigen Vektoren ist eine Ebene. (c) Der Span der
Einheitsvektoren e1 = [1, 0, 0]T , e2 = [0, 1, 0]T , e3 = [0, 0, 1]T in R3

# Beispiel
⎡ ⎤ ⎧ ⎡ ⎤( ⎫ ⎧⎡ ⎤( ⎫
, 1 3 ⎪
⎨ 1 (( ⎪
⎬ ⎪
⎨ α (
( ⎪

⎢ ⎥ ⎢ ⎥( ⎢ ⎥(
⎣0⎦ = α ⎣0⎦ ( α ∈ R = ⎣ 0 ⎦ ( α ∈ R = x1 -Acshe.

⎩ ( ⎪
⎭ ⎪
⎩ ( ⎪

0 0 ( 0 (
⎡ ⎤ ⎡ ⎤ ⎧ ⎡ ⎤ ⎡ ⎤( ⎫ ⎧⎡ ⎤( ⎫
, 1 0 3 ⎪⎨ 1 0 (( ⎪
⎬ ⎪ ⎨ α (
( ⎪

⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥( ⎢ ⎥(
⎣0⎦ ⎣1⎦
, = α ⎣0⎦ + β ⎣1⎦ ( α, β ∈ R = ⎣β ⎦ ( α, β ∈ R = x1 x2 -Ebene.

⎩ ( ⎪
⎭ ⎪ ⎩ ( ⎪

0 0 0 0 ( 0 (

Der Begriff des Spans gilt nicht nur für Vektoren in Rn , sondern allgemein für
Elemente eines Vektorraumes, ob Polynome oder Matrizen. In der Tat haben wir im
vorausgegangenen Kapitel gelernt, dass solche Objekte als „verallgemeinerte Vekto-
ren“ des entsprechenden Vektorraumes interpretiert werden können. Betrachten wir
hierzu zwei Beispiele.
294 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

# Beispiel
Das Polynom p(x) = a0 + a1 x + a2 x2 kann man als Linearkombination der Polynome
1, x, x2 auffassen. Die Menge P2 (R) aller Polynome vom Grad kleiner oder gleich 2 ist
somit der Span von {1, x, x2 }:

⟨1, x, x2 ⟩ = {a0 + a1 x + a2 x2 | a0 , a1 , a2 ∈ R} = P2 (R). $

# Beispiel
Man kann jede reelle (2 × 2)-obere Dreiecksmatrix als Linearkombination der 3 Matrizen
41 05 40 15 40 05
0 0 , 0 0 , 0 1 darstellen. Denn
% & % & % & % &
ab 10 01 00
=a +b +c .
0c 00 00 01

Es gilt somit
,% & % & % &3 6 % & ( 7
10 01 00 a b ((
, , = ( a, b, c ∈ R
00 00 01 0c (

= (2 × 2)-obere Dreiecksmatrizen. $

Übung 6.5
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
, 2 1 1 3 1
⎢2⎥ ⎢ 1 ⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
• ◦ ◦ Es seien V = ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ und a = ⎢ ⎥ . Ist a ∈ V ?
⎣1⎦ ⎣ 2 ⎦ ⎣0⎦ ⎣1⎦
1 −1 3 0

v Lösung
V = ⟨v1 , v2 , v3 ⟩ ist der Span der 3 Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 1
⎢2⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎢ ⎥ , v2 = ⎢ ⎥ , v3 = ⎢ ⎥ ,
⎣1⎦ ⎣2⎦ ⎣0⎦
1 −1 3

d. h. die Menge aller Linearkombinationen von v1 , v2 und v3 . Der Vektor a liegt somit
in V genau dann, wenn a eine Linearkombination von v1 , v2 , v3 ist. Ist dies der Fall?
Wir suchen Zahlen α1 , α2 , α3 ∈ R, sodass a = α1 v1 + α2 v2 + α3 v3 gilt. Wir erzeugen
ein LGS für α1 , α2 , α3 , das wir mit dem Gauß-Algorithmus lösen:
⎧ ⎡ ⎤

⎪ 2α1 + α2 + α3 = 1 (Z1 ) 2 1 1 1

⎨ 2α ⎢
1 + α2 + α3 = 1 (Z2 ) ⎢2 1 1 1⎥⎥
% [A|b] = ⎢ ⎥
⎪ α1

⎪ + 2α2 =1 (Z3 ) ⎣1 2 0 1⎦

α1 − α2 + 3α3 = 0 (Z4 ) 1 −1 3 0
6.1 • Linearkombinationen, Span und Erzeugendensysteme
295 6
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 1 1 (Z2 ) − (Z1 ) 2 1 1 1 2 1 1 1
2(Z3 ) − (Z1 )
⎢2 1⎥ ⎢0 0 ⎥ ⎢0
⎢ 1 1 ⎥ 2(Z4 ) − (Z1 ) ⎢ 0 0 ⎥ (Z4 ) + (Z3 ) ⎢ 0 0 0⎥⎥
⇒ ⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥ = Z.
⎣1 2 0 1⎦ ⎣0 3 −1 1 ⎦ ⎣0 3 −1 1⎦
1 −1 3 0 0 −3 5 −1 0 0 4 0

Aus der letzten Gleichung folgt α3 = 0. Aus der dritten Gleichung folgt somit 3α2 =
1 + α3 ⇒ α2 = 1/3, woraus sich aus der ersten Gleichung 2α1 = 1 − α2 − α3 ⇒
α1 = 1/3 ergibt. Der Vektor a = (v1 + v2 )/3 ist eine Linearkombination von v1 , v2 , v3 ,
d. h. a ∈ V = ⟨v1 , v2 , v3 ⟩. "

Übung 6.6
• ◦ ◦ Sei V = P2 (R) der Vektorraum der reellen Polynomen vom Grad ≤ 2.
a) Man finde den kleinsten Unterraum U von V der 1 + x und x + x2 enthält.
b) Ist p(x) = (x + 1)2 ∈ U?
c) Ist q(x) = x − x2 ∈ U?

v Lösung
a) Der kleinste Unterraum U von V , der 1 + x und x + x2 enthält, ist der Span von
1 + x und x + x2 (Satz 6.1), d. h.

U = ⟨1 + x, x + x2 ⟩ = {a(1 + x) + b(x + x2 ) = a + (a + b)x + bx2 | a, b ∈ R}.

U ist somit der Unterraum der Polynomen der Form a+(a+b)x+bx2 mit a, b ∈ R.
b) Es gilt p(x) = (x + 1)2 = x2 + 2x + 1 = x2 + (1 + 1)x + 1. Somit ist p(x) der Form
a + (a + b)x + bx2 mit a = b = 1. Also p(x) ∈ U.
!
c) Wir suchen a, b ∈ R derart, dass q(x) = x − x2 = a + (a + b)x + bx2 gilt. Der
Koeffizientenvergleich liefert


⎨a = 0

a+b=1



b = −1

Dies LGS hat keine Lösung. Somit q(x) ∈


/ U. "

Übung 6.7 89 1 : 9 0 :;
• ◦ ◦ Es sei K = Z2 . Man gebe alle Vektoren in V = 1 , 1 explizit an.
0 1

v Lösung 91: 90:


V enthält alle Linearkombinationen der Vektoren v1 = 1 , v2 = 1 . V enthält also
0 1
alle Vektoren der Form α1 v1 + α2 v2 , wobei die Koeffizienten Elemente des Körpers
K = Z2 sind. Weil Z2 = {0, 1}, gibt es genau vier solche Linearkombinationen:
296 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

91: 0
9 :0
9 :
5 α1 = 0, α2 = 0 ⇒ 0 1 +0 1 = 0 .
901 : 910 : 901 :
5 α1 = 1, α2 = 0 ⇒1 1 +0 1 = 1 .
9 10: 9 01: 9 00:
5 α1 = 0, α2 = 1 ⇒0 1 +1 1 = 1 .
9 01 : 9 10 : 9 11 : 91:
5 α1 = 1, α2 = 1 ⇒1 1 +1 1 = 2 = 0 .
0 1 1 1

89 1 : 9 0 :; <9 0 : 9 1 : 9 0 : 9 1 :=
Wir erhalten: V = 1 , 1 = 0 , 1 , 1 , 0 . "
0 1 0 0 1 1

6.1.3 Erzeugendensysteme

Kann man mittels Linearkombinationen der Vektoren v1 , · · · , vk den ganzen Vektor-


raum V aufspannen, so spricht man von einem Erzeugendensystem von V .

# Definition 6.3 (Erzeugendensystem)


S ⊂ V heißt Erzeugendensystem von V , falls jeder Vektor aus V sich als Linearkombination
von Vektoren aus S darstellen lässt. Mit anderen Worten: S ist ein Erzeugendensystem von
V , falls ⟨S⟩ = V . $

Betrachten wir exemplarisch drei Beispiele.

# Beispiel
Jeder Vektor in V = R3 kann man wie folgt schreiben
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a 1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣b⎦ = a ⎣0⎦ + b ⎣1⎦ + c ⎣0⎦ , a, b, c ∈ R
c 0 0 1

d. h. als Linearkombination der folgenden 3 Vektoren


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
e1 = ⎣0⎦ , e2 = ⎣1⎦ , e3 = ⎣0⎦ .
0 0 1

Die Vektoren {e1 , e2 , e3 } bilden also ein Erzeugendensystem von R3


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
, 1 0 0 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 3
⎣0⎦ , ⎣1⎦ , ⎣0⎦ = R . $
0 0 1
6.2 • Lineare Abhängigkeit und Unabhängigkeit
297 6
# Beispiel
Jedes Polynom in V = Pn (R)

n
'
p(x) = a0 + a1 x + a2 x2 + · · · + an xn = ai xi , ai ∈ R
i=0

kann man als Linearkombination der Polynome 1, x, x2 , · · · , xn auffassen. Die Menge


{1, x, x2 , · · · , xn } ist somit ein Erzeugendensystem von Pn (R):

⟨1, x, x2 , · · · , xn ⟩ = Pn (R). $

# Beispiel
Es sei V = R2×2 der Vektorraum aller reellen (2 × 2)-Matrizen. Jede Matrix in R2×2 lässt
sich als Linearkombination der 4 Matrizen
% & % & % & % &
10 01 00 00
E11 = , E12 = , E21 = , E22 =
00 00 10 01

schreiben. Denn
% & % & % & % & % &
ab 10 01 00 00
=a +b +c +d , a, b, c, d ∈ R.
cd 00 00 10 01

Es folgt
,% & % & % & % &3
10 01 00 00
, , , = R2×2 .
00 00 10 01

Die Matrizen {E11 , E12 , E21 , E22 } sind somit ein Erzeugendensystem von R2×2 . $

6.2 Lineare Abhängigkeit und Unabhängigkeit


# Definition 6.4 (Lineare Abhängigkeit und Unabhängigkeit)
v1 , v2 , · · · , vk ∈ V heißen linear unabhängig, wenn die Gleichung

k
'
α1 v1 + α2 v2 + · · · + αk vk = αi vi = 0 (6.3)
i=1

exakt die Lösung α1 = α2 = · · · = αk = 0 hat. $

Sind v1 , v2 , · · · , vk nicht linear unabhängig, so heißen die Vektoren linear abhängig.


In diesem Fall hat die Gleichung
298 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

k
'
α1 v1 + α2 v2 + · · · + αk vk = αi vi = 0 (6.4)
i=1

eine nichttriviale Lösung (α1 , α2 , · · · , αk ) ̸= (0, 0, · · · , 0). Man sagt: α1 v1 + α2 v2 +


· · · + αk vk ist eine nichttriviale Darstellung der Null.

> Bemerkung
Beachte:
5 S = {0} ist per Definition linear abhängig.
5 Die Menge bestehend aus einem einzigen Vektor v ̸= 0 ist linear unabhängig.

Eine sehr nützliche Eigenschaft von linear unabhängigen Vektoren ist im folgenden
Satz enthalten (vgl. Basis und Koordinaten):

# Satz 6.2
Eine Menge S von Vektoren ist genau dann linear unabhängig, wenn jeder Vektor v ∈ ⟨S⟩
auf nur eine Art als Linearkombination von Vektoren aus S dargestellt werden kann. $

Übung 6.8
• ◦ ◦ Sind% die
& folgenden
% & Vektoren linear abhängig?
1 2
a) v1 = , v2 = ,
3 6
% & % &
1 2
b) v1 = , v2 = .
1 3

v Lösung
a) Laut Definition fragen wir uns, ob es Zahlen α1 , α2 ∈ R gibt mit
% & % & % & % &
1 2 α1 + 2α2 ! 0
α1 v1 + α2 v2 = 0 ⇒ α1 + α2 = = .
3 6 3α1 + 6α2 0

Wir erhalten ein LGS für α1 , α2 , das wir mit dem Gauß-Algorithmus lösen können:
6 % & % &
α1 + 2α2 = 0 (Z1 ) 1 2 0 (Z2 ) − 3(Z1 ) 1 2 0
% [A|b] = % = Z.
3α1 + 6α2 = 0 (Z2 ) 3 6 0 0 0 0

Eine Variable ist somit frei, zum Beispiel α2 = t. Daraus folgt α1 = −2α2 = −2t.
Die Lösungsmenge ist somit
6% & (% & % & 7
( α
α1 ( 1 −2
L= ∈ R2 ( =t ,t∈R .
α2 ( α2 1
6.2 • Lineare Abhängigkeit und Unabhängigkeit
299 6
Das LGS hat eine nichttriviale Lösung. Die Vektoren v1 , v2 sind somit linear
abhängig.
Alternative: Man sieht auch durch genaues „Hingucken“, dass v2 = 2v1 ⇒ v1 , v2
sind linear abhängig!
b) Wir gehen wie in Teilaufgabe (a) vor und suchen Zahlen α1 , α2 ∈ R mit
% & % & % & % &
1 2 α1 + 2α2 ! 0
α1 v1 + α2 v2 = 0 ⇒ α1 + α2 = = .
1 3 α1 + 3α2 0

Wir bekommen somit ein LGS für α1 , α2 , das wir mit dem Gauß-Algorithmus lösen
können:
6 % & % &
α1 + 2α2 = 0 (Z1 ) 1 2 0 (Z2 ) − (Z1 ) 1 2 0
% [A|b] = % = Z.
α1 + 3α2 = 0 (Z2 ) 1 3 0 0 1 0

Die einzige Lösung ist α1 = α2 = 0 (triviale Lösung). Die Vektoren v1 , v2 sind


somit linear unabhängig. "

Übung 6.9 ⎡1⎤ ⎡0⎤ ⎡0⎤


0 1 0
• ◦ ◦ Man zeige, dass e1 = ⎣ .. ⎦, e2 = ⎣ .. ⎦, · · · , en = ⎣ .. ⎦ linear unabhängig sind.
. . .
0 0 1

v Lösung
Wir suchen alle Lösungen der Gleichung
⎡ ⎤ ⎡ ⎤
α1 0
⎢α ⎥ ⎢0⎥
⎢ 2⎥ ! ⎢ ⎥
α1 e1 + α2 e2 + · · · + αn en = 0 ⇒ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ = ⎢ .. ⎥ .
⎣ . ⎦ ⎣.⎦
αn 0

Die einzige Lösung ist α1 = α2 = · · · = αn = 0 (triviale Lösung). Die Vektoren


e1 , e2 , · · · , en sind somit linear unabhängig. "

Übung 6.10
• ◦ ◦ Sind die folgenden Matrizen linear abhängig oder unabhängig?
% & % & % &
11 1 0 10
A1 = , A2 = , A3 = .
01 0 −1 01
300 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

v Lösung
Wir suchen Zahlen α1 , α2 , α3 ∈ R mit
% & % &
α1 + α2 + α3 α1 ! 00
α1 A1 + α2 A2 + α3 A3 = 0 ⇒ = .
0 α1 − α2 + α3 00

Wir erhalten ein LGS für α1 , α2 , α3 , das wir mit dem Gauß-Algorithmus lösen können:
⎧ ⎡ ⎤
⎨ α1 +
⎪ α2 + α3 = 0 (Z1 ) 1 1 1 0
⎢ ⎥
α1 =0 (Z2 ) % [A|b] = ⎣ 1 0 0 0 ⎦


α1 − α2 + α3 = 0 (Z3 ) 1 −1 1 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 0 (Z2 ) − (Z1 ) 1 1 1 0 1 1 1 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⇒ ⎣1 0 0 0⎦ % ⎣ 0 −1 −1 0 ⎦ % ⎣ 0 −1 −1 0 ⎦ = Z.
1 −1 1 0 0 −2 0 0 0 0 2 0

Die einzige Lösung ist α1 = α2 = α3 = 0 (triviale Lösung). Die Matrizen A1 , A2 , A3


sind somit linear unabhängig. "

Übung 6.11
• ◦ ◦ Man zeige, dass die Polynome 1, x, x2 linear unabhängig sind.

v Lösung
1, x, x2 sind genau dann linear unabhängig, wenn aus λ0 + λ1 x + λ2 x2 = 0 folgt λ0 =
λ1 = λ2 = 0. Wir betrachten also die folgende Gleichung

λ0 + λ1 x + λ2 x2 = 0

in den Unbekannten λ0 , λ1 , λ2 . Diese Gleichung muss für alle x ∈ R gelten. Der Trick
bei solchen Aufgaben ist: Wir werten diese Gleichung an drei unterschiedlichen Stellen
aus, z. B. x = 0, 1, −1:

x=0: λ0 = 0
x=1: λ0 + λ1 + λ2 = 0
x = −1 : λ0 − λ1 + λ2 = 0

Dadurch erhalten wir ein LGS für λ0 , λ1 , λ2 , das wir mit dem Gauß-Algorithmus lösen
können:
⎧ ⎡ ⎤

⎨ λ0 =0 (Z1 ) 1 0 0 0
⎢ ⎥
λ0 + λ1 + λ2 = 0 (Z2 ) % [A|b] = ⎣ 1 1 1 0 ⎦


λ0 − λ1 + λ2 = 0 (Z3 ) 1 −1 1 0
6.2 • Lineare Abhängigkeit und Unabhängigkeit
301 6
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0 (Z2 ) − (Z1 ) 1 0 0 0 1 0 0 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) + (Z2 ) ⎢ ⎥
⇒ ⎣1 1 1 0⎦ % ⎣0 1 1 0⎦ % ⎣ 0 1 1 0 ⎦ = Z.
1 −1 1 0 0 −1 1 0 0 0 2 0

Die einzige Lösung ist λ0 = λ1 = λ2 = 0. Die Polynome 1, x und x2 sind somit linear
unabhängig. "

Übung 6.12
• • ◦ Man zeige, dass sin(x), sin(2x) und sin(3x) linear unabhängig sind.

v Lösung
sin(x), sin(2x) und sin(3x) sind genau dann linear unabhängig, wenn die Gleichung

λ1 sin(x) + λ2 sin(2x) + λ3 sin(3x) = 0

nur die triviale Lösung λ1 = λ2 = λ3 = 0 hat. Wir werten diese Gleichung an drei
Stellen aus (Trick wie in Übung 6.11), z. B. x = π/2, π/3, π/4:
>π ? D E
π 3π
x= : λ1 sin +λ2 sin (π) +λ3 sin = 0 ⇒ λ1 − λ3 = 0
2 2
@ AB C
@ AB C 2
=0 @ AB C
=1 =−1
>π ? D E
π 2π
x= : λ1 sin +λ2 sin +λ3 sin (π ) = 0 ⇒ λ1 + λ2 = 0
3 @ AB 3 C 3 @ AB C
√ @ AB√
C =0
3
= 2 = 3
2

>π ? >π ? D E √
π 3π
x= : λ1 sin +λ2 sin +λ3 sin = 0 ⇒ λ1 + 2λ2 + λ3 = 0.
4 @ AB4 C @ AB2 C 4
@ AB C
= √1 =1
2 = √1
2

Wir erzeugen dadurch ein LGS für λ1 , λ2 , λ3 , das wir mit dem Gauß-Algorithmus wie
üblich lösen:
⎧ ⎡ ⎤

⎨ λ1 − λ3 = 0 (Z1 ) 1 0 −1 0
⎢ ⎥
λ1 + λ2 =0 (Z2 ) % [A|b] = ⎣ 1 1 0 0 ⎦

⎩ √ √
λ1 + 2λ2 + λ3 = 0 (Z3 ) 1 2 1 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 −1 0 (Z2 ) − (Z1 ) 1 0 −1 0 √ 1 0 −1 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⇒ ⎣1 1 0 0⎦ % ⎣0 1 1 0⎦ % ⎣0 1 1 0 ⎦ = Z.
√ √ √
1 2 1 0 0 2 2 0 0 0 2− 2 0

Die einzige Lösung ist λ1 = λ2 = λ3 = 0. Die drei Abbildungen sin(x), sin(2x) und
sin(3x) sind linear unabhängig. "
302 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Übung 6.13
• • ◦ Es sei n ∈ N. Man zeige, dass die Abbildungen

1
ϕm (x) = , m = 0, 1, 2, · · · , n
x+m

linear unabhängig sind.

v Lösung
Wir müssen zeigen, dass die Gleichung

α0 ϕ0 (x) + α1 ϕ1 (x) + · · · + αn ϕn (x) = 0

nur die triviale Lösung α0 = α1 = · · · = αn = 0 zulässt. Umformen liefert

α0 α1 αn
0 = α0 ϕ0 (x) + α1 ϕ1 (x) + · · · + αn ϕn (x) = + + ··· +
x x+1 x+n
α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x(x + 1) · · · (x + n − 1)
= ,
x(x + 1) · · · (x + n)

woraus wir schließen:

α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x(x + 1) · · · (x + n − 1) = 0.

Der Trick ist nun: Der erste Term ist proportional zu (x + 1) · · · (x + n), der zweite
Term ist proportional zu x(x + 2) · · · (x + n), usw. Werten wir die obige Gleichung bei
x = 0 aus, so verschwinden alle Terme bis auf den ersten. Werten wir diese Gleichung
bei x = −1 aus, so verschwinden alle Terme bis auf den zweiten; usw.

x = 0 : α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x · · · (x + n − 1) = 0
@ AB C @ AB C @ AB C
α0 1·2···n =0 =0

x = −1 : α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x · · · (x + n − 1) = 0
@ AB C @ AB C @ AB C
=0 =α1 (−1)·1···(n−1) =0

..
.
x = −n : α0 (x + 1) · · · (x + n) + α1 x(x + 2) · · · (x + n) + · · · + αn x · · · (x + n − 1) = 0
@ AB C @ AB C @ AB C
=0 =0 =αn (−n)(−n+1)···(−1)
6.2 • Lineare Abhängigkeit und Unabhängigkeit
303 6
Es folgt:

1@ · 2AB· · · nC α0 = 0
̸=0

(−1) · 1 · · · (n − 1) α1 = 0
@ AB C
̸=0

..
.
(−n)(−n + 1) · · · (−1) αn = 0
@ AB C
̸=0

Die einzige Lösung ist α0 = α1 = · · · = αn = 0. Somit sind die Abbildungen ϕm (x),


m = 0, 1, · · · n linear unabhängig. "

Übung 6.14
• • ◦ In diesem Beispiel erfahren wir die Wichtigkeit der richtigen Körperwahl für
die lineare Abhängigkeit/Unabhängigkeit von Vektoren. Man betrachte die folgenden
Vektoren in C2 :
% & % &
1+i 1 + 3i
v1 = , v2 = .
−3 + 3i −9 + 3i

a) Sind v1 , v2 linear abhängig oder unabhängig über K = C?


b) Sind v1 , v2 linear abhängig oder unabhängig über K = R?

Hinweis: Der Vektorraum C können wir einerseits als ein Vektorraum über C betrach-
ten. In diesem Fall dürfen wir Vektorraumelemente mit beliebigen komplexen Zahlen
multiplizieren. Andererseits können wir C als ein Vektorraum über R betrachten, wenn
wir uns auf die Multiplikation nur mit reellen Zahlen einschränken. In diesem Fall
4 5
entspricht C dem R2 mit x + iy ↔ xy .

v Lösung
a) Wir suchen komplexe Zahlen α, β ∈ C mit
% & % &
α(1 + i) + β(1 + 3i) 0
αv1 + βv2 = 0 ⇒ = .
α(−3 + 3i) + β(−9 + 3i) 0

Wir erhalten folgendes LGS, das wir mit dem Gauß-Algorithmus lösen:
% & % & % &
1 + i 1 + 3i 0 − i (Z2 ) 1 + i 1 + 3i 0 (Z2 ) − (Z1 ) 1 + i 1 + 3i 0
3
% % .
−3 + 3i −9 + 3i 0 1 + i 1 + 3i 0 0 0 0

Wir erhalten eine nichttriviale Lösung α = − 1+3i


1+i β = −(2 + i)β, d. h., die Vektoren
v1 , v2 sind linear abhängig über K = C.
304 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

b) Betrachten wir C als als ein Vektorraum über R, so entspricht C2 dem R4 mit
⎡ ⎤
% & x1
⎢y ⎥
x1 + iy1 ⎢ ⎥
↔ ⎢ 1⎥
x2 + iy2 ⎣ x2 ⎦
y2

9 : F 1 G 9 : F 1 G
1+i 1 1+3i 3
−3+3i entspricht −3 und −9+3i entspricht −9 . Wir suchen reelle α, β ∈R
3 3
mit
⎡ ⎤ ⎡ ⎤
α+β 0
⎢ α + 3β ⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
αv1 + βv2 = 0 ⇒ ⎢ ⎥=⎢ ⎥
⎣−3α − 9β ⎦ ⎣0⎦
3α + 3β 0

Wir erhalten folgendes LGS, das wir mit dem Gauß-Algorithmus lösen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 (Z2 ) − (Z1 ) 1 1 0 1 (Z ) 1 1 0
(Z3 ) + 3(Z1 ) 2 2
⎢ 1 0⎥ ⎢0 0⎥ ⎢0
⎢ 3 ⎥ (Z4 ) − 3(Z1 ) ⎢ 2 ⎥ (Z3 ) + 3(Z2 ) ⎢ 1 0⎥⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣ −3 −9 0⎦ ⎣0 −6 0⎦ ⎣0 0 0⎦
3 3 0 0 0 0 0 0 0

Die einzige Lösung ist α = β = 0, d. h., die Vektoren v1 , v2 sind linear unabhängig
über K = R. "

Übung 6.15
• ◦ ◦ Es seien v1 , v2 , · · · , vk ∈ V linear abhängig. Man zeige: Mindestens einer
der Vektoren v1 , v2 , · · · , vk lässt sich als Linearkombination der anderen Vektoren
darstellen.

v Lösung
v1 , v2 , · · · , vk linear abhängig ⇒ Die Gleichung

α1 v1 + α2 v2 + · · · + αk vk = 0

hat eine nichttriviale Lösung (α1 , α2 , · · · , αk ) ̸= (0, 0, · · · , 0). Insbesondere sind


α1 , α2 , · · · , αk nicht alle gleich Null. Ohne Beschränkung der Allgemeinheit (OBdA),
sei α1 ̸= 0. Dann gilt:

α2 αk
α1 v1 + α2 v2 + · · · + αk vk = 0 ⇒ v1 = − v2 − · · · − vk .
α1 α1

v1 ist somit eine Linearkombination der Vektoren v2 , · · · , vk . "


6.2 • Lineare Abhängigkeit und Unabhängigkeit
305 6

Übung 6.16
• ◦ ◦ Es sei w ∈ V eine Linearkombination der Vektoren v1 , v2 , · · · , vk ∈ V . Man zeige,
dass die Menge {v1 , v2 , · · · , vk , w} linear abhängig ist.

v Lösung
w ist eine Linearkombination der Vektoren v1 , v2 , · · · , vk , d. h.

w = α1 v1 + α2 v2 + · · · + αk vk ,

wobei die Koeffizienten α1 , α2 , · · · , αk nicht alle gleich Null sind. Daraus folgt

w = α1 v1 + α2 v2 + · · · + αk vk ⇒ α1 v1 + α2 v2 + · · · + αk vk − w = 0.

Dies ist eine nichttriviale Darstellung der Null. Somit sind die Vektoren v1 , v2 , · · · , vk , w
linear abhängig. "

Übung 6.17
• • ◦ Es seien u, v, w ∈ V linear unabhängig. Man zeige, dass auch u + v, v + w, w + u
linear unabhängig sind.

v Lösung
u, v, w linear unabhängig ⇒ Die Gleichung λ1 u + λ2 v + λ3 w = 0 hat nur die triviale
Lösung λ1 = λ2 = λ3 = 0. Wir wollen zeigen, dass auch u + v, v + w, w + u linear
unabhängig sind. Zu diesem Zweck betrachten wir die Gleichung

µ1 (u + v) + µ2 (v + w) + µ3 (w + u).

Zu zeigen ist: µ1 = µ2 = µ3 = 0. Es gilt:

µ1 (u + v) + µ2 (v + w) + µ3 (w + u) = (µ1 + µ3 )u + (µ1 + µ2 )v + (µ2 + µ3 )w

Weil u, v, w linear unabhängig sind, folgt

µ1 + µ3 = µ1 + µ2 = µ2 + µ3 = 0.

Wir bekommen somit ein LGS für µ1 , µ2 , µ3 , das wir mit dem Gauß-Algorithmus
lösen:
⎧ ⎡ ⎤

⎨ µ1 + µ3 = 0 (Z1 ) 1 0 1 0
⎢ ⎥
µ1 + µ2 =0 (Z2 ) % [A|b] = ⎣ 1 1 0 0 ⎦


µ2 + µ3 = 0 (Z3 ) 0 1 1 0
306 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 0 1 0 1 0 1 0 1 0
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⇒ ⎣1 1 0 0⎦ % ⎣ 0 1 −1 0 ⎦ % ⎣ 0 1 −1 0 ⎦ = Z.
0 1 1 0 0 1 1 0 0 0 2 0

Die einzige Lösung ist µ1 = µ2 = µ3 = 0. Die Vektoren u + v, v + w, w + u sind somit


linear unabhängig. "

Übung 6.18
• • ◦ Es seien A ∈ Rn×n nilpotent mit Nilpotenzgrad m und v ∈ Rn . Man zeige, dass
v, Av, · · · , Am−1 v linear unabhängig sind.

v Lösung
Erinnerung: A ∈ Rn×n ist nilpotent mit Nilpotenzgrad m, wenn Am = 0 und Am−1 ̸=
0. Wir wollen zeigen, dass v, Av, · · · , Am−1 v linear unabhängig sind, d. h. dass die
Gleichung

λ0 v + λ1 Av + · · · + λm−1 Am−1 v = 0

nur die triviale Lösung λ0 = λ1 = · · · = λm−1 = 0 hat. Nach mehrmaliger Anwendung


von A bekommen wir:

λ0 v + λ1 Av + · · · + λm−3 Am−3 v + λm−2 Am−2 v + λm−1 Am−1 v = 0

A: λ0 Av + λ1 A2 v + · · · + λm−3 Am−2 v + λm−2 Am−1 v + λm @ABC


Am v = 0
=0

A2 : λ0 A2 v + λ1 A3 v + · · · + λm−3 Am−1 v + λm−1 @ABC


Am v = 0
=0

..
.

Am−1 : λ0 Am−1 v + λ1 @ABC


Am v = 0
=0

d. h.

λ0 v + λ1 Av + · · · + λm−3 Am−3 v + λm−2 Am−2 v + λm−1 Am−1 v = 0

λ0 Av + λ1 A2 v + · · · + λm−3 Am−2 v + λm−2 Am−1 v = 0

λ0 A2 v + λ1 A3 v + · · · + λm−3 Am−1 v = 0
..
.

λ0 Am−2 v + λ1 Am−1 v = 0

λ0 Am−1 v = 0
6.3 • Basis, Dimension und Koordinaten
307 6
Aus der letzten Gleichung folgt λ0 = 0. Aus der vorletzten Gleichung folgt dann λ1 = 0
usw. Die einzige Lösung ist somit λ0 = λ1 = · · · = λm−1 = 0. v, Av, · · · , Am−1 v sind
somit linear unabhängig. "

Übung 6.19
• • • Beweise Satz 6.2.

v Lösung
“⇐”: Es sei S = {v1 , v2 , · · · , vk }. Wir nehmen an, dass jeder Vektor v ∈ ⟨S⟩ sich in
eindeutiger Weise als Linearkombination von Vektoren aus S darstellen lässt. Es ist

0 = 0 v1 + 0 v2 + · · · + 0 vk

eine Darstellung von 0. Wegen der Eindeutigkeit der Darstellung ist dies die einzige
Möglichkeit 0 als Linearkombination der Vektoren v1 , v2 , · · · , vk zu schreiben. Somit
sind v1 , v2 , · · · , vk linear unabhängig.
“⇒”: Es seien nun v1 , v2 , · · · , vk linear unabhängig. Nehmen wir an, dass der Vektor
v ∈ ⟨S⟩ zwei Darstellungen als Linearkombination der Vektoren v1 , v2 , · · · , vk besitzt:

v = α1 v1 + α2 v2 + · · · + αk vk = β1 v1 + β2 v2 + · · · + βk vk .

Daraus folgt

0 = v − v = (α1 v1 + α2 v2 + · · · + αk vk ) − (β1 v1 + β2 v2 + · · · + βk vk )
= (α1 − β1 )v1 + (α2 − β2 )v2 + · · · + (αk − βk )vk .

Da v1 , v2 , · · · , vk linear unabhängig sind, folgt α1 − β1 = 0, α2 − β2 = 0, · · · , αk −


βk = 0. Daraus folgt α1 = β1 , α2 = β2 , · · · , αk = βk , d. h., die Darstellung von v als
Linearkombination von v1 , v2 , · · · , vk ist eindeutig. "

6.3 Basis, Dimension und Koordinaten

6.3.1 Basis
# Definition 6.5 (Basis)
Eine Basis des Vektorraumes V ist eine Menge S von Vektoren aus V , welche linear
unabhängig sind und ein Erzeugendensystem von V bilden. $
308 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Aus Satz 6.2 folgt dann unmittelbar:

# Satz 6.3
Eine Menge S von Vektoren ist genau dann eine Basis von V , wenn sich jeder Vektor v ∈ V
in eindeutiger Weise als Linearkombination von Vektoren aus S dargestellen lässt. $

> Bemerkung
Man kann sich eine Basis wie folgt vorstellen: Eine Basis von V enthält alle „Baustei-
ne“, die zur Darstellung eines beliebigen Vektors in V benötigt werden; nicht zu viele,
nicht zu wenige, sondern genau die richtige Anzahl!

# Beispiel
Die folgenden n Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0
⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
e1 = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ , e2 = ⎢ .. ⎥ , · · · , en = ⎢ .. ⎥
⎣.⎦ ⎣.⎦ ⎣.⎦
0 0 1

bilden eine Basis von Rn , weil sich jeder Vektor v ∈ Rn in eindeutiger Weise als Linearkom-
bination dieser Vektoren darstellen lässt
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
v1 1 0 0
⎢v ⎥ ⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ 2⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v=⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ = v1 ⎢ .. ⎥ + v2 ⎢ .. ⎥ + · · · + vn ⎢ .. ⎥ .
⎣.⎦ ⎣.⎦ ⎣.⎦ ⎣.⎦
vn 0 0 1

Diese Basis heißt Standardbasis oder kanonische Basis, von Rn und wird oft mit E
bezeichnet. $

# Beispiel
Jede Matrix A ∈ Rm×n lässt sich wie folgt darstellen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 ··· a1n 1 ··· 0 0 ··· 1
⎢ . .. .. ⎥ ⎢. . .⎥ ⎢. . .⎥

A = ⎣ .. ⎥ ⎢ ⎥ ⎢ ⎥
. . ⎦ = a11 ⎣ .. . . .. ⎦ + · · · + a1n ⎣ .. . . .. ⎦ + · · ·
am1 · · · amn 0 ··· 0 0 ··· 0
⎡ ⎤ ⎡ ⎤
0 ··· 0 0 ··· 0
⎢. . .⎥ ⎢. . .⎥
+ am1 ⎢ ⎥ ⎢ ⎥
⎣ .. . . .. ⎦ + · · · + amn ⎣ .. . . .. ⎦ .
1 ··· 0 0 ··· 1

Die folgenden m · n Matrizen (sogenannte Standardmatrizen)


6.3 • Basis, Dimension und Koordinaten
309 6
⎡ ⎤
0 ··· 0 ··· 0
⎢. .. .. .. .. ⎥
⎢. ⎥
⎢. . . . .⎥
⎢ ⎥
Eij = ⎢
⎢0 ··· 1 ··· 0⎥ ⎥ ← i-te Zeile
⎢. . . .. . . .. ⎥
⎢. . . . .⎥
⎣. ⎦
0 ··· 0 ··· 0


j -te Zeile

bilden somit eine Basis von Rm×n : die Standardbasis. Jede Matrix A ∈ Rm×n kann man
mithilfe dieser Basis ausdrücken
m '
' n
A = a11 E11 + · · · a1n E1n + · · · + am1 Em1 + · · · amn Emn = aij Eij .
i=1 j=1

Zum Beispiel, die Standardbasis von R2×2 besteht aus den folgenden 4 Matrizen
%
& % & % & % &
10 01 00 00
E11 = , E12 = , E21 = , E22 = .
00 00 10 01

Jede Matrix A ∈ R2×2 lässt sich dann in eindeutiger Weise als Linearkombination von
E11 , E12 , E21 , E22 darstellen:
%
&
ab
A= = aE11 + bE12 + cE21 + dE22 . $
cd

# Beispiel
Die Polynome {1, x, x2 , · · · , xn } bilden eine Basis von Pn (R). Denn jedes Polynom p(x) ∈
Pn (R) lässt sich in eindeutiger Weise als Linearkombination von 1, x, x2 , · · · , xn darstellen:

p(x) = a0 + a1 x + a2 x2 + · · · + an xn .

Diese ist die Standardbasis von Pn (R). $

6.3.2 Dimension
# Satz 6.4
Falls V eine Basis von n Elementen besitzt, so enthält jede Basis von V genau n
Elemente. $

Aus diesem Grund führt man den Begriff der Dimension ein:
310 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

# Definition 6.6 (Dimension)


Die Dimension von V ist die Anzahl n der Basiselemente von V . Geschrieben wird dies
durch dim(V ) = n. $

Eine direkte Folgerung aus Satz 6.4 ist der folgende einleuchtende Satz:

# Satz 6.5
Es sei V ein Vektorraum der Dimension n. Dann gilt:
5 Jede linear unabhängige Menge von n Vektoren ist eine Basis von V .
5 Jedes Erzeugendensystem von n Vektoren ist eine Basis von V .
5 Mehr als n Vektoren sind immer linear abhängig.
5 Weniger als n Vektoren bilden nie eine Basis von V . $

Rechenregeln
# Satz 6.6 (Rechenregeln für Dimension)
5 U ⊂ V ⇒ dim(U) ≤ dim(V ).
5 dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ).
5 V = U ⊕ W ⇒ dim(V ) = dim(U) + dim(W ) (direkte Summe). $

# Beispiel
Die Standardbasis von Rn besteht aus den folgenden n Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0
⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
e1 = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ , e2 = ⎢ .. ⎥ , · · · , en = ⎢ .. ⎥ .
⎣.⎦ ⎣.⎦ ⎣.⎦
0 0 1

Somit ist dim(Rn ) = n. $

# Beispiel
Die Standardbasis von Rm×n besteht aus den folgenden m · n Matrizen
⎡ ⎤
0 ··· 0 ··· 0
⎢. .. .. .. .. ⎥
⎢. ⎥
⎢. . . . .⎥
⎢ ⎥
Eij = ⎢
⎢0 ··· 1 ··· 0⎥ ⎥ ← i-te Zeile
⎢. . . .. .. .. ⎥
⎢. . . . ⎥
⎣. .⎦
0 ··· 0 ··· 0


j -te Zeile

Somit ist dim(Rm×n ) = m · n. $


6.3 • Basis, Dimension und Koordinaten
311 6
# Beispiel
Die n + 1 Polynome {1, x, x2 , · · · , xn } bilden die Standardbasis von Pn (R). Folglich ist
dim(Pn (R)) = n + 1. $

Übung 6.20
◦ ◦ ◦ Es seien U1 , U2 ⊂ R90 mit dim(U1 ) = 50 und dim(U2 ) = 70. Welche Werte kann
dim(U1 ∩ U2 ) annehmen?

v Lösung
Wir wenden die Formel dim(U1 ∩ U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 + U2 ) an. Wir
wissen auch, dass U1 + U2 ein Unterraum von R90 ist, d. h. dim(U1 + U2 ) ≤ 90. Daraus
folgt dim(U1 ∩ U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 + U2 ) = 50 + 70 − dim(U1 + U2 ) =
120 − dim(U1 + U2 ) ≥ 120 − 90 = 30 ⇒ dim(U1 ∩ U2 ) ≥ 30. "

Übung 6.21
• ◦ ◦ Man finde eine Basis des folgenden Unterraumes von R3
⎧ ⎡ ⎤ ( ⎫
⎪ x1 ( ⎪
⎨ ( ⎬
⎢ ⎥ (
U = x = ⎣x2 ⎦ ∈ R3 ( x1 = x2 = x3 .

⎩ ( ⎪

x3 (

Man bestimme die Dimension von U.

v Lösung
Die definierenden Gleichungen x1 = x2 , x2 = x3 , x1 = x3 kann man in Matrixform
aufschreiben:
⎧ ⎡ ⎤
⎨ x1 − x2
⎪ =0 (Z1 ) 1 −1 0 0
⎢ ⎥
x2 − x3 = 0 (Z2 ) % [A|b] = ⎣ 0 1 −1 0⎦


x1 − x3 = 0 (Z3 ) 1 0 −1 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −1 0 0 1 −1 0 0 1 −1 0 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⇒ ⎣ 0 1 −1 0 ⎦ % ⎣ 0 1 −1 0 ⎦ % ⎣ 0 1 −1 0 ⎦ = Z.
1 0 −1 0 0 1 −1 0 0 0 0 0

Es sind zwei Gleichungen für drei Unbekannte. Eine Variable ist also frei wählbar,
z. B. x3 = t. Aus der ersten und zweiten Gleichung folgt, dass x1 = t und x2 = t.
Die Lösungsmenge lautet somit
⎧ ⎡ ⎤ ( ⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
⎪ x1 ( x 1 ⎪ , 1 3
⎨ ( 1 ⎬
⎢ ⎥ ( ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
U = x = ⎣x2 ⎦ ∈ R3 ( ⎣x2 ⎦ = t ⎣1⎦ , t ∈ R = ⎣1⎦ .

⎩ ( ⎪

x3 ( x3 1 1
312 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Eine Basis von U ist somit


⎧⎡ ⎤⎫
⎨ 1 ⎪
⎪ ⎬
⎢ ⎥
⎣1⎦ .

⎩ ⎪

1

Da diese Basis von U aus einem einzigen Vektor besteht, ist dim(U) = 1. "

Übung 6.22
• ◦ ◦ Man betrachte den folgenden Unterraum von R3 :
⎧ ⎡ ⎤ ( ⎫
⎪ x1 ( ⎪
⎨ ( ⎬
⎢ ⎥ (
E = x = ⎣x2 ⎦ ∈ R3 ( x1 + 2x2 + 3x3 = 0 .

⎩ ( ⎪

x3 (

a) Man finde eine Basis von E. Was ist die Dimension von E? Welches geometrisches
Objekt wird von E beschrieben?
b) Man finde einen Normalenvektor zu E.

v Lösung
a) Wir lösen einfach die Gleichung x1 + 2x2 + 3x3 = 0. Es ist eine Gleichung für 3
Unbekannte. Somit sind 2 Variablen frei wählbar. Wir setzen beispielsweise x2 = t
und x3 = s. Daraus folgt x1 = −2x2 − 3x3 = −2t − 3s. Die Lösung ist somit
⎧ (⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤ ⎡ ⎤
⎪ ( x −2 −3 ⎪ , −2 −3 3
⎨ ( 1 ⎬
3 (⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E = x ∈ R ( ⎣x2 ⎦ = t ⎣ 1 ⎦ + s ⎣ 0 ⎦ , t, s ∈ R = ⎣ 1 ⎦ , ⎣ 0 ⎦ .

⎩ ( ⎪

( x3 0 1 0 1

Eine Basis von E ist somit


⎧⎡ ⎤ ⎡ ⎤⎫
⎨ −2
⎪ −3 ⎪⎬
⎢ ⎥ ⎢ ⎥
⎣ 1 ⎦,⎣ 0 ⎦ .

⎩ ⎪

0 1

Da die Basis von E aus zwei (linear unabhängigen) Vektoren besteht, ist dim(E) = 2.
E ist eine Ebene in R3 .
b) Die Vektoren b1 = [−2, 1, 0]T und b2 = [−3, 0, 1]T sind die Spannvektoren der
Ebene E (vgl. Anhang A.3.2). Eine Normale an der Ebene E ist somit
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−2 −3 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
n = b1 × b2 = ⎣ 1 ⎦ × ⎣ 0 ⎦ = ⎣2⎦ .
0 1 3
⎡ ⎤
1
⎢ ⎥
Kontrolle (vgl. Anhang A.3.2): E : 1 x1 + 2 x2 + 3 x3 = 0 ⇒ n = ⎣2⎦ . "
3
6.3 • Basis, Dimension und Koordinaten
313 6

Übung 6.23
• ◦ ◦ Es sei V = R2×2 .
a) Man zeige, dass die Menge U der oberen Dreiecksmatrizen
6 ( % & 7
(
2×2 ( ab
U = A∈R (A = , a, b, c ∈ R
( 0c

ein Unterraum von V ist.


b) Man bestimme eine Basis von U. Was ist die Dimension von U?

v Lösung
a) Wir müssen zeigen, dass die Menge U die drei Eigenschaften eines Unterraumes
erfüllt (7 vgl. Kap. 5):
5 Beweis von (UR0): Die Nullmatrix ist eine obere Dreiecksmatrix, also 0 ∈ U. !
% & % &
a1 b1 a2 b2
5 Beweis von (UR1): Es seien A = ,B= ∈ U. Dann gilt:
0 c1 0 c2
% & % & % &
a1 b1 a2 b2 a1 + a2 b1 + b2
A+B = + = ∈U!
0 c1 0 c2 0 c1 + c2
%
&
ab
5 Beweis von (UR2): Es seien A = ∈ U und α ∈ R. Dann gilt:
0c
% & % &
ab αa αb
αA = α = ∈U!
0c 0 αc

Somit ist U ein Unterraum von V .


b) Jede obere Dreiecksmatrix in U können wir wie folgt schreiben
%& % & % & % &
ab 10 01 00
A= =a +b +c .
0c 00 00 01

Eine Basis von U ist somit


6% & % & % &7
10 01 00
, ,
00 00 01

Die Dimension von U ist 3, d. h. dim(U) = 3. "


314 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Übung 6.24
• • ◦ Es sei V = P3 (R) der Vektorraum der Polynome vom Grad ≤ 3. Man betrachte
W = {p ∈ P3 (R) | p(0) = p(1) = 0} ⊂ V .
a) Man zeige, dass W ein Unterraum von V ist.
b) Man bestimme eine Basis von W . Was ist die Dimension von W ?

v Lösung
a) Wir müssen zeigen, dass die Menge W die drei Eigenschaften eines Unterraumes
erfüllt (7 vgl. Kap. 5):
5 Beweis von (UR0): Das Nullpolynom p(x) ≡ 0 erfüllt p(0) = p(1) = 0. Also
0 ∈ W. !
5 Beweis von (UR1): Es seien p ∈ W und q ∈ W (⇒ p(0) = p(1) = 0 und q(0) =
q(1) = 0). Dann gilt:

(p + q)(0) = p(0) + q(0) = 0 + 0 = 0 ⎪


@ABC @ABC ⎬
=0 =0 ⇒ p+q∈W !
(p + q)(1) = p(1) + q(1) = 0 + 0 = 0 ⎪


@ABC @ABC ⎭
=0 =0

5 Beweis von (UR2): Es seien p ∈ W und α ∈ R. Dann gilt:



(α p)(0) = α p(0) = α 0 = 0 ⎪


@ABC ⎬
=0 ⇒ αp ∈ W !
(α p)(1) = α p(1) = α 0 = 0 ⎪


@ABC ⎭
=0

Somit ist W ein Unterraum von V .


b) Ein Polynom aus P3 (R) sieht wie folgt aus p(x) = a0 + a1 x + a2 x2 + a3 x3 . Damit
p ∈ W muss gelten

!
p(0) = a0 = 0 ⇒ a0 = 0
!
p(1) = a0 + a1 + a2 + a3 = 0 ⇒ a3 = −(a0 + a1 + a2 ) = −(a1 + a2 ).

Also

p(x) = a1 x + a2 x2 − (a1 + a2 )x3 = a1 (x − x3 ) + a2 (x2 − x3 ).

Eine Basis von W ist somit {x−x3 , x2 −x3 } und die Dimension von W ist dim(W ) =
2. "
6.3 • Basis, Dimension und Koordinaten
315 6

Übung 6.25
• • ◦ Es sei Pn,2 (R) der Vektorraum der reellen Polynome in den zwei Variablen x und
y mit Totalgrad ≤ n.
a) Man finde eine Basis von P2,2 (R). Was ist die Dimension von P2,2 (R)?
b) Man finde eine Basis von Pn,2 (R) und man bestimme dim(Pn,2 (R)).

v Lösung
a) P2,2 (R) ist der Vektorraum der reellen Polynome in den zwei Variablen x und y mit
Totalgrad ≤ 2. Ein beliebiges Element aus P2,2 (R) sieht wie folgt aus

p(x, y) = a0 + a1,0 x + a1,1 y + a2,0 x2 + a2,1 xy + a2,2 y2 ,


a0 , a1,0 , a1,1 , a2,0 , a2,1 , a2,2 ∈ R.

Eine Basis von P2,2 (R) besteht somit aus den folgenden 6 Monome
{1, x, y, x2 , xy, y2 }. Beachte, dass das Polynom 1 den Totalgrad 0 hat, x und y
haben den Totalgrad 1, während x2 , xy und y2 den Totalgrad 2 haben. Somit
können wir die Basiselemente anhand ihres Totalgrades k sortieren:

k=0 1
k=1 x y
k=2 x2 xy y2

Diese Basis von P2,2 (R) besteht aus 6 Elementen. Es gilt somit dim(P2,2 (R)) = 6.
b) Im Allgemeinen hat ein beliebiges Element aus Pn,2 (R) die folgende Form

p(x, y) = a0 + (a1,0 x + a1,1 y) + · · · + (an,0 xn + an,1 xn−1 y + · · · + an,n yn ), ai,j ∈ R.

Eine Basis von Pn,2 (R) ist somit {1, x, y, x2 , xy, y2 , · · · , xn , xn−1 y, · · · , yn }. Wie in
(a) können wir die Basiselemente anhand ihres Totalgrades k sortieren:

k=0 1
k=1 x y
k=2 x2 xy y2
k=3 x3 x2 y xy2 y3
..
.
k=n xn xn−1 y ··· xyn−1 yn

Es gibt k+1 Basiselemente mit Totalgrad k. Die Gesamtanzahl von Basiselementen


berechnet sich somit
n
' n
' n
' n(n + 1) (n + 1)(n + 2)
(k + 1) = k + 1= +n+1= .
2 2
k=0 k=0 k=0
@ AB C @ AB C
= n(n+1) =n+1
2

(n+1)(n+2)
Somit ist dim(Pn,2 (R)) = 2 . "
316 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

6.3.3 Koordinaten

Sei V ein Vektorraum der Dimension n mit Basis B = {b1 , · · · , bn }. Dann können wir
jeden Vektor v ∈ V in eindeutiger Weise als lineare Kombination der Basiselemente
b1 , · · · , bn darstellen
n
'
v = v1 b 1 + · · · + vn b n = vi b i . (6.5)
i=1

Die Koeffizienten v1 , · · · , vn ∈ R sind die Koordinaten des Vektors v bezüglich der


Basis B . Diese Koordinaten werden dann in einem Koordinatenvektor zusammenge-
fasst
⎡ ⎤
v1
⎢ ⎥
[v]B = ⎣ ... ⎦ . (6.6)
vn

> Bemerkung
Die Koordinaten des Vektors v bzgl. der Basis B sind nichts anderes als die Koeffizien-
ten in der Darstellung von v als Linearkombination der Basisvektoren b1 , · · · , bn von
B. Mit anderen Worten:
⎡ ⎤
v1
⎢.⎥
[v]B = ⎣ .. ⎥

⎦ bedeutet v = v1 b1 + · · · + vn bn (6.7)
vn

Die Basisvektoren sind sozusagen die „Bausteine“ des Vektorraumes. Die Koordinaten
eines Vektors bzgl. einer Basis sagen wie oft jeder Basisvektor vorkommt: v ist v1 Mal b1
plus v2 Mal b2 , usw. Diese Bausteine (Basiselemente) können selbst übliche Vektoren,
Matrizen, Polynome usw. sein.

Musterbeispiel 6.1 (Koordinaten für Vektoren)

Als erstes Beispiel betrachten wir die Koordinaten von Vektoren in R2 . Die Standard-
basis von R2 ist gegeben durch
6 % & % &7
1 0
E = e1 = , e2 = .
0 1

In der Standardbasis hat der Vektor v = [2, 4]T die Koordinaten (. Abb. 6.2)
% & % & % &
2 1 0
[v]E = , weil v = 2 · +4· = 2 · e1 + 4 · e2 .
4 0 1
6.3 • Basis, Dimension und Koordinaten
317 6

Jetzt betrachten wir eine andere Basis von R2 , zum Beispiel:


6 &% % &7
1 1
B = b1 = , b2 = .
−1 1

Wie lauten die Koordinaten von v bezüglich der Basis B? Wir schreiben
% & % & % & ⎧
4 ! 1 1 ⎨α + β = 2
v= = α b1 + β b2 = α +β ⇒
2 −1 1 ⎩−α + β = 4

Die Lösung lautet α = −1, β = 3. In der Basis B kann man den Vektor v wie folgt
darstellen
% & % &
1 1
v = −1 · +3· = −1 · b1 + 3 · b2 ,
−1 1

d. h., die Koordinaten von v bezüglich der Basis B sind (. Abb. 6.2)
%&
−1
[v]B = .
3

> Bemerkung
Die Standardbasis eines Vektorraumes wird oft mit E bezeichnet.

. Abb. 6.2 Musterbeispiel 6.1


318 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Musterbeispiel 6.2 (Koordinaten für Polynome)

Als zweites Beispiel betrachten wir die Koordinaten eines etwas abstrakteren Objektes,
nähmlich der Polynome. Man betrachte dazu den Vektorraum P2 (R) der Polynome
vom Grad kleiner oder gleich 2. Die Standardbasis von P2 (R) ist
< =
E = 1, x, x2 .

In dieser Standardbasis hat dann das Polynom p(x) = x2 + 2x + 1 die Koordinaten


⎡ ⎤
1
⎢ ⎥
[p(x)]E = ⎣2⎦ ,
1

weil

p(x) = 1 · 1 + 2 · x + 1 · x2 .

In der Basis
< =
B = x2 + x, x + 1, 1

kann man das Polynom p(x) wie folgt darstellen:

p(x) = x2 + 2x + 1 = x2 + x + x + 1 = 1 · (x2 + x) + 1 · (x + 1) + 0 · 1.

Die Koordinaten von p(x) bezüglich der Basis B sind


⎡ ⎤
1
⎢ ⎥
[p(x)]B = ⎣1⎦ .
0

Durch den Koordinatenvektor können wir Polynome in P2 (R) wie übliche Vektoren in
R3 interpretieren.

Musterbeispiel 6.3 (Koordinaten für Matrizen)

Als letztes Beispiel betrachten wir Koordinaten von Matrizen in R2×2 . Die Standard-
basis von R2×2 ist bekanntlich
6 %& % & % & % &7
10 01 00 00
E = E11 = , E12 = , E21 = , E22 = .
00 00 10 01

Wir können dadurch jede Matrix in R2×2 mithilfe dieser Standardbasiselementen


darstellen. Die folgende Matrix hat die Koordinaten
6.3 • Basis, Dimension und Koordinaten
319 6

⎡ ⎤
% & 1
⎢2⎥
12 ⎢ ⎥
A= ⇒ [A]E = ⎢ ⎥ ,
34 ⎣3⎦
4

weil
&% % & % & % & % &
12 10 01 00 00
A= =1· +2· +3· +4·
34 00 00 10 01

= 1 · E11 + 2 · E12 + 3 · E21 + 4 · E22 .

In der Basis
6 & % % & % & % &7
11 01 00 00
B = B1 = , B2 = , B3 = , B4 =
11 11 11 01

kann man A wie folgt darstellen


& % % & % & % & % &
12 11 01 00 00
A= =1 +1· +1· +1·
34 11 11 11 01

= 1 · B1 + 1 · B2 + 1 · B3 + 1 · B4 .

Die Koordinaten von A in dieser Basis B lauten


⎡ ⎤
1
⎢1⎥
⎢ ⎥
[A]B = ⎢ ⎥ .
⎣1⎦
1

Wie für Polynome, können wir jetzt durch den Koordinatenvektor Matrizen in R2×2
als Vektoren im R4 interpretieren.

Übung 6.26
• ◦ ◦ Man betrachte die folgende Basis von R3
⎧ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫

⎨ k −2 0 ⎪⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B = b1 = ⎣2⎦ , b2 = ⎣ 1 ⎦ , b3 = ⎣1⎦ , k ̸= −2.

⎩ ⎪

1 0 1

Man bestimme die Koordinaten des Vektors v = [−2, 1, 2]T in dieser Basis.
320 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

v Lösung
Wir suchen Zahlen v1 , v2 , v3 ∈ R, sodass

v = v1 b1 + v2 b2 + v3 b3

gilt. Dies ergibt ein LGS für v1 , v2 , v3 , welches wir mit dem Gauß-Verfahren lösen:
⎧ ⎡ ⎤
⎨ kv1 − 2v2
⎪ = −2 (Z1 ) k −2 0 −2
⎢ ⎥
2v1 + v2 + v3 = 1 (Z2 ) % [A|b] = ⎣ 2 1 1 1 ⎦


v1 + v3 = 2 (Z3 ) 1 0 1 2
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
k −2 0 −2 1 0 1 2 (Z2 ) − 2(Z1 ) 1 0 1 2
⎢ ⎥ (Z3 ) ↔ (Z1 ) ⎢ ⎥ (Z3 ) − k(Z1 ) ⎢ ⎥
⇒ ⎣2 1 1 1 ⎦ % ⎣ 2 1 1 1 ⎦ % ⎣ 0 1 −1 −3 ⎦
1 0 1 2 k −2 0 −2 0 −2 −k −2k − 2
⎡ ⎤
1 0 1 3
(Z3 ) + 2(Z2 ) ⎢ ⎥
% ⎣ 0 1 −1 −3 ⎦ = Z.
0 0 −k − 2 −2k − 8

4 −k+2 2k+8
Es folgt v1 = − k+2 , v2 = k+2 , v3 = k+2 , d. h., der Vektor v hat die Koordinaten

⎡ 4

4 −k + 2 2k + 8 k+2
⎢ −k+2 ⎥
v= · b1 + · b2 + · b3 ⇒ [v]B = ⎣ k+2 ⎦ .
k+2 k+2 k+2 2k+8
k+2 "

Übung 6.27
• ◦ ◦ Es sei V = R2×3 der Vektorraum der (2 × 3)-Matrizen. Man betrachte den
Unterraum U ⊂ V mit Basis
6% & % & % &7
1 2 3 110 0 3 3
B= , , .
1 −2 0 011 1 −1 1
& %
196
Man finde die Koordinaten von A = in der Basis B. Sind diese Koordinaten
215
eindeutig? Man begründe die Antwort.

v Lösung
Wir wollen grundsätzlich die Matrix A als Linearkombination der Basiselemente aus B
schreiben, d. h., wir suchen drei Zahlen a1 , a2 und a3 ∈ R mit
% & % & % & % &
196 1 2 3 110 0 3 3
A= = a1 + a2 + a3 .
215 1 −2 0 011 1 −1 1

a1 , a2 und a3 sind dann die gesuchten Koordinaten von A in der Basis B. Es gilt:
6.3 • Basis, Dimension und Koordinaten
321 6
% & % & % &
1 2 3 110 0 3 3
a1 + a2 + a3
1 −2 0 011 1 −1 1
% & % &
a1 + a2 2a1 + a2 + 3a3 3a1 + 3a3 ! 1 9 6
= =
a1 + a3 −2a1 + a2 − a3 a2 + a3 215

Ein Koeffizientenvergleich liefert ein LGS mit 6 Gleichungen und 3 Unbekannten




⎪ a1 + a2 = 1





⎪ 2a1 + a2 + 3a3 = 9



⎨3a + 3a = 6
1 3

⎪ a1 + a3 = 2





⎪ −2a1 + a2 − a3 = 1




a2 + a3 = 5

Die Lösung ist a1 = −1, a2 = 2, a3 = 3. Die Koordinaten von A in der Basis B sind
somit
⎡ ⎤
% & % & % & −1
1 2 3 110 0 3 3 ⎢ ⎥
A = −1 · +2· +3· ⇒ [A]B = ⎣ 2 ⎦ .
1 −2 0 011 1 −1 1
3

Alle Elemente eines Unterraumes lassen sich in eindeutiger Weise als Linearkombina-
tion der Basiselemente schreiben. Somit sind die Koordinaten von A in der Basis B
eindeutig. "

Übung 6.28
• • ◦ Man betrachte den komplexen Vektorraum V = ⟨eix , e−ix ⟩.
a) Man zeige, dass B = {eix , e−ix } eine Basis von V ist.
b) Man finde die Koordinaten der Abbildungen sin(x) und cos(x) in der Basis B.

v Lösung
a) V = ⟨eix , e−ix ⟩ ist der Span der Funktionen eix , e−ix . Damit B = {eix , e−ix } eine
Basis von V ist, müssen eix , e−ix linear unabhängig sein. Wir müssen also Folgendes
zeigen:

λ1 eix + λ2 e−ix = 0 impliziert λ1 = λ2 = 0.

Wir starten mit

λ1 eix + λ2 e−ix = 0.
322 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Diese Gleichung muss für alle x ∈ C gelten. Wir gehen wie in Übung 6.11 vor und
werten diese Gleichung an zwei unterschiedlichen Stellen aus, z. B. x = 0, 1:

x=0: λ1 + λ2 = 0,
x=1: λ1 ei + λ2 e−i = 0.

Wir lösen das resultierende LGS für λ1 , λ2 mit dem Gauß-Algorithmus:


6
λ1 + λ2 = 0 (Z1 )
% [A|b]
ei λ1 + e−i λ2 = 0 (Z2 )
% & % &
1 1 0 (Z2 ) − ei (Z1 ) 1 1 0
= % = Z.
ei e−i 0 0 e−i − ei 0

Die einzige Lösung ist λ1 = λ2 = 0 und die Abbildungen eix und e−ix sind somit
linear unabhängig. Folglich ist B eine Basis von V und dim(V ) = 2.
b) Mit den Euler’schen Formeln (Anhang C) finden wir:
% & % &
eix − e−ix 1 ix 1 1
− 12
sin(x) = = · e − · e−ix ⇒ [sin(x)]B = 2i =i ,
2i 2i 2i − 2i1 1
2
% &
eix + e−ix 1 1 1
cos(x) = = · eix + · e−ix ⇒ [cos(x)]B = 2
1
.
2 2 2 2 "

6.3.4 Folgerung: Endlichdimensionale Vektorräume V sind


isomorph zum Kn

Wir schließen diesen Abschnitt mit einer wichtigen Bemerkung ab: Die Tatsache, dass
wir jedem Element eines Vektorraumes einen Koordinatenvektor zuordnen können,
bedeutet grundsätzlich, dass wir V mit Kn identifizieren können.

Identifikation von V mit Kn


Durch die Wahl einer Basis B = {b1 , · · · , bn } besitzt jedes Element v ∈ V die
eindeutige Darstellung
n
'
v = v1 b 1 + · · · + vn b n = vi b i . (6.8)
i=1

Die Identifizierung von V mit Kn erfolgt durch die Koordinaten


⎡ ⎤
n v1
' ⎢ ⎥
v = v1 b 1 + · · · + vn b n = vi b i ∈ V ↔ [v]B = ⎣ ... ⎦ ∈ Kn . (6.9)
i=1 vn
6.4 • Berechnungsmethoden
323 6
Mathematisch efolgt diese Identifizierung durch einen Isomorphismus, welche wir
genauer im nächsten Kapitel aufgreifen werden. Im Moment soll es genügen, diese
Identifizierung mit dem folgenden Satz festzustellen:

# Satz 6.7 (Isomorphiesatz)


Es sei V ein Vektorraum der Dimension n. Dann kann man V mit Kn identifizieren
(d. h., man kann jedes Element v ∈ V mit einem Vektor in Kn identifizieren). Wir schreiben
dies kurz V ∼= Kn , was mit “V ist isomorph zu Kn ” gelesen wird. $

> Bemerkung
In der Praxis können wir durch Satz 6.7 beliebige Vektorraumelemente, wie Matrizen,
Polynome oder Abbildungen mit Vektoren aus Kn identifizieren. Diese Identifikation
ermöglicht es uns, mit diesen abstrakten Vektorraumelementen zu arbeiten als wären
es einfach Vektoren.

# Beispiel
In der Standardbasis von R2×2 können wir alle (2 × 2)-Matrizen mit Vektoren des R4
identifizieren, d. h. R2×2 ∼
= R4 :
⎡ ⎤
% & a
⎢b⎥
ab ⎢ ⎥
A= ↔ [A]E = ⎢ ⎥ . $
cd ⎣c⎦
d

# Beispiel
In der Standardbasis von Pn (R) können wir jedes Polynom p(x) mit einem Vektor in Rn+1
identifizieren, d. h. Pn (R) ∼
= Rn+1 :
⎡ ⎤
a0
⎢a ⎥
⎢ 1⎥
p(x) = a0 + a1 x + · · · + an xn ↔ [p(x)]E = ⎢ ⎥
⎢ .. ⎥ . $
⎣.⎦
an

> Bemerkung
Die Identifizierung von Vektorräumen mit Kn wird im Verlauf dieses Buches immer
wieder eine wichtige Rolle spielen (u. a. bei der Bestimmung der Matrixdarstellung
linearer Abbildungen, vgl. z. B. Übung 7.16 und 7.20).

6.4 Berechnungsmethoden

In diesem Abschnitt lernen wir praktische Berechnungskriterien, welche uns erlau-


ben, Aufgaben der folgenden Art sehr leicht, schnell und elegant zu lösen:
5 Sind v1 , · · · , vk linear unabhängig?
5 Ist B = {v1 , · · · , vk } eine Basis?
5 Was ist die Dimension von ⟨v1 , · · · , vk ⟩?
5 Ist w eine Linearkombination von v1 , · · · , vk ?
324 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

6.4.1 Das Rangkriterium

Lineare Unabhängigkeit
Das folgende Kriterium erlaubt es, schnell zu entscheiden, ob k vorgelegte Vektoren
v1 , · · · , vk des Kn linear abhängig sind (k ≤ n).

# Satz 6.8 (Rangkriterium für lineare Unabhängigkeit)


Es seien v1 , · · · , vk k Vektoren des Kn mit k ≤ ⎡
n. Dann gilt:

| |
⎢ ⎥
5 v1 , · · · , vk sind linear unabhängig ⇔ Rang ⎣v1 · · · vk ⎦ = k;
| |
⎡ ⎤
| |
⎢ ⎥
5 v1 , · · · , vk sind linear abhängig ⇔ Rang ⎣v1 · · · vk ⎦ < k. $
| |

Praxistipp

Liegen mehr als n Vektoren des Kn vor (d. h. k > n), so sind diese Vektoren immer
linear abhängig (vgl. Satz 6.5).

Basis von Kn
Das Rangkriterium können wir auch anwenden, um zu untersuchen, ob n Vektoren
eine Basis von Kn bilden.

# Satz 6.9 (Rangkriterium für Basis)


Die n Vektoren v1 , v2 , · · · , vn sind genau dann eine Basis von Kn wenn
⎡ ⎤
| |
⎢ ⎥
Rang ⎣v1 · · · vn ⎦ = n. $
| |

Dimension von U = ⟨v1 , · · · , vk ⟩


# Satz 6.10
Es sei U = ⟨v1 , · · · , vk ⟩. Dann gilt:
⎡ ⎤
| |
⎢ ⎥
dim(U) = Rang ⎣v1 · · · vk ⎦ . $
| |

Lineare Kombinationen
Ferner betrachten wir die folgende Frage: Ist w eine Linearkombination von v1 , · · · ,
vk ? Um diese Frage zu beantworten, suchen wir Zahlen x1 , . . . , xk ∈ K mit

x1 v1 + · · · + xk vk = w.
6.4 • Berechnungsmethoden
325 6
Diese Bedingung kann man in Matrixschreibweise als ein LGS auffassen:
⎡ ⎤ ⎡x ⎤ ⎡w ⎤
| | 1 1
⎣v1 · · · vn ⎦ ⎢ .⎥ ⎢ . ⎥
⎣ .. ⎦ = ⎣ .. ⎦ ⇒ Ax = w.
| | x w
@ AB C @ ABk C @ ABk C
=A =x =w

Aus dem Satz von Rouché-Capelli (vgl. Satz 2.3) folgt, dass Ax = w genau dann lösbar
ist, wenn Rang(A|w) = Rang(A) gilt. Wir halten folgendes Kriterium fest:

# Satz 6.11
w ist genau⎡dann eine⎤Linearkombination von v1 , · · · , vk , wenn Rang(A|w) = Rang(A),
| |
⎢ ⎥
wobei A = ⎣v1 · · · vn ⎦ . $
| |

6.4.2 Das Determinantenkriterium

Liegen genau n Vektoren des Kn vor, so kann man das Rangkriterium auch mithilfe
der Determinante ausdrücken:

# Satz 6.12 (Determinanten-Kriterium für lineare Unabhängigkeit)


Es seien v1 , · · · , vn Vektoren des Kn . Dann ⎡
gilt: ⎤
| |
⎢ ⎥
5 v1 , · · · , vn sind linear unabhängig ⇔ det ⎣v1 · · · vn ⎦ ̸= 0;
| |
⎡ ⎤
| |
⎢ ⎥
5 v1 , · · · , vn sind linear abhängig ⇔ det ⎣v1 · · · vn ⎦ = 0. $
| |

> Bemerkung
Die Determinante ist nur für quadratische Matrizen definiert. Aus diesem Grund ist
das Determinantenkriterium (Satz 6.12) nur dann anwendbar, wenn genau n Vektoren
des Kn vorliegen.

6.4.3 Lineare Unabhängigkeit von Abbildungen und die


Wronski-Determinante

Die obigen Methoden sind sehr gut geeignet, um die lineare Unabhängigkeit von
Vektoren im Kn nachzuweisen. Wie kann man aber die lineare Unabhängigkeit
von Abbildungen nachweisen, wie zum Beispiel die Polynome 1, x, x2 , · · · oder die
Abbildungen sin(x) und cos(x)? Die folgende Methode ist für solche Situationen sehr
gut geeignet.
326 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Zwei Abbildungen y1 (x) und y2 (x) sind linear unabhängig, wenn für alle x die
Gleichung

α1 y1 (x) + α2 y2 (x) = 0 (6.10)

nur die triviale Lösung α1 = α2 = 0 zulässt. Um die Koeffizienten α1 und α2


zu bestimmen, brauchen wir zwei unabhängige Gleichungen. Eine zweite Gleichung
erhalten wir, indem wir die erste Gleichung nach x ableiten. Wir erzeugen auf dieser
Art ein homogenes LGS für α1 and α2 :

α1 y1 (x) + α2 y2 (x) = 0 (6.11a)


α1 y′1 (x) + α2 y′2 (x) = 0 (6.11b)

oder in Matrixschreibweise:
F GF G F G
y1 (x) y2 (x) α1 0
′ ′ = . (6.12)
y1 (x) y2 (x) α2 0

Aus der Theorie der Lösung von LGS wissen wir, dass das obige LGS genau dann nur
die triviale Lösung α1 = α2 = 0 hat, wenn die Determinante der Koeffizientenmatrix
nicht verschwindet, d. h. wenn
( (
(y1 (x) y2 (x)(
(
W (y1 , y2 ) = ( ′ ( ̸= 0. (6.13)
y1 (x) y′2 (x)(

Die Determinante W (y1 , y2 ) heißt Wronski-Determinante (auf english: Wronskian).


Wir haben somit den folgenden praktischen Satz bewiesen:

# Satz 6.13 (Wronski-Test)


Zwei Abbildungen y1 (x) und y2 (x) sind genau dann linear unabhängig, wenn
( (
(y (x) y (x)(
( (
W (y1 , y2 ) = ( 1′ 2
( ̸= 0. (6.14)
(y1 (x) y′2 (x)(

Wir können diese Methode leicht auf n Abbildungen y1 (x), y2 (x), · · · , yn (x) verall-
gemeinern. In diesem Fall wollen wir zeigen, dass die Gleichung

α1 y1 (x) + α2 y2 (x) + · · · + αn yn (x) = 0 (6.15)

nur die triviale Lösung α1 = α2 = · · · = αn = 0 hat. Leiten wir diese Gleichung n − 1


mal nach x ab, so erhalten wir folgendes LGS:
6.4 • Berechnungsmethoden
327 6
⎡ ⎤⎡ ⎤ ⎡ ⎤
y1 (x) y2 (x) ··· yn (x) α1 0

⎢ y′1 (x) y′2 (x) ··· y′n (x) ⎥ ⎢α2 ⎥ ⎢0⎥
⎥⎢ ⎥ ⎢ ⎥
⎢ .. .. .. .. ⎥ ⎢ . ⎥ = ⎢.⎥ . (6.16)
⎣ . . . . ⎦ ⎣ .. ⎦ ⎣ .. ⎦
(n−1) (n−1) (n−1)
y1 (x) y2 (x) · · · yn (x) αn 0

Dieses LGS hat genau dann nur die triviale Lösung α1 = α2 = · · · = αn = 0, wenn
( (
( y1 (x) y2 (x) · · · yn (x) (
( ′ (
( y (x)
( 1 y′2 (x) · · · y′n (x) ((
W (y1 , y2 , · · · , yn ) = ( .. .. .. .. ( ̸= 0. (6.17)
( . . . . (
( (
(y(n−1) (x) y(n−1) (x) · · · y(n−1) (x)(
1 2 n

6.4.4 Beispiele

Übung 6.29
• ◦ ◦% Sind
& die
% gegebenen
& Vektoren linear abhägig oder linear unabhängig?
−3 −6
a) ,
2 4
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b) ⎣0⎦ , ⎣7⎦ , ⎣6⎦
5 4 3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 −2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
c) ⎣−1⎦ , ⎣1⎦ , ⎣ 1 ⎦
1 0 −1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −1 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
d) ⎣1⎦ , ⎣ 1 ⎦ , ⎣ 0 ⎦
1 2 −3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
3 3 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
e) ⎣0⎦ , ⎣3⎦ , ⎣−1⎦
1 8 −2

v Lösung
Wie wir wissen, gibt es verschiedene Methoden, um vorgegebene Vektoren auf lineare
Unabhängigkeit zu überprüfen. Um dies nochmals deutlich zu machen, werden wir in
den verschiedenen Teilaufgaben bewusst unterschiedliche Methoden anwenden.
a) Wir wenden das Determinantenkriterium an:
⎡ ⎤
| | ( (
( (
⎢ ⎥ (−3 −6(
det ⎣v1 v2 ⎦ = ( ( = −12 + 12 = 0.
(2 4(
| |
Somit sind die gegebenen Vektoren linear abhängig.
328 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

b) Wiederum mit dem Determinantenkriterium:


⎡ ⎤ ( (
| | | (2 1 0( ( ( ( (
( ( (7 6( (1 0(
⎢ ⎥ ( ( ( ( ( (
det ⎣v1 v2 v3 ⎦ = (0 7 6( = 2 ( ( −0 + 5 ( ( = 24 ̸= 0.
( ( (4 3( (7 6(
| | | (5 4 3( @ABC @ABC
21−24=−3 6−0=6

Somit sind diese Vektoren linear unabhängig.


c) In diesem Beispiel benutzen wir das Rangkriterium. Mittels Gauß-Algorithmus
bestimmen wir den Rang der folgenden Matrix:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
| | | 2 1 −2 2(Z2 ) + (Z1 ) 2 1 −2 2 1 −2
⎢ ⎥ ⎢ ⎥ 2(Z3 ) − (Z1 ) ⎢ ⎥ 3(Z3 ) + (Z2 ) ⎢ ⎥
⎣v1 v2 v3 ⎦ = ⎣ −1 1 1 ⎦ % ⎣0 3 0 ⎦ % ⎣ 0 3 0 ⎦.
| | | 1 0 −1 0 −1 0 0 0 0

Da die Matrix den Rang 2 hat, sind die vorgegebenen Vektoren linear abhängig.
d) Wir wenden wiederum das Rangkriterium an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
| | | 1 −1 2 (Z2 ) − (Z1 ) 1 −1 2 1 −1 2
⎢ ⎥ ⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ 2(Z3 ) − 3(Z2 ) ⎢ ⎥
⎣v1 v2 v3 ⎦ = ⎣ 1 1 0 ⎦ % ⎣ 0 2 −2 ⎦ % ⎣ 0 2 −2 ⎦ .
| | | 1 2 −3 0 3 −5 0 0 −4

Da die Matrix Rang 3 hat, sind diese Vektoren linear unabhängig.


e) In diesem letzten Beispiel wenden wir wieder das Determinantenkriterium an:
⎡ ⎤ ( (
| | | (3 3 1 ( ( ( ( (
( ( (3 −1( (3 1 (
⎢ ⎥ ( ( ( ( ( (
det ⎣v1 v2 v3 ⎦ = (0 3 −1( = 3 ( ( −0 + 1 ( ( = 0.
( ( (8 −2( (3 −1(
| | | (1 8 −2 ( @ AB C @ AB C
−6+8=2 −3−3=−6

Somit sind die Vektoren v1 , v2 , v3 linear abhängig. "

Übung 6.30 F1G


• ◦ ◦ Man bestimme eine Basis und die Dimension des von den Vektoren v1 = 2 ,
1
F1G F 0 G 1

v2 = 31 , v3 = 11 aufgespannten Unterraum U = ⟨v1 , v2 , v3 ⟩ ⊂ R4 .


0 −1

v Lösung
Wir müssen einfach überprüfen, ob die vorgegebenen Vektoren linear unabhängig sind.
Die Dimension von U ist dann gleich der Anzahl linear unabhängigen Vektoren. Zu
diesem Zweck wenden wir das Rangkriterium an:
6.4 • Berechnungsmethoden
329 6
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎡ ⎤ 1 1 0 (Z2 ) − 2(Z1 ) 1 1 0 1 1 0
| | | ⎢ (Z3 ) − (Z1 )
1 ⎥ ⎢0 1 ⎥ ⎢0
⎢ ⎥ ⎢2 3 ⎥ (Z3 ) − (Z1 ) ⎢ 1 ⎥ (Z4 ) + (Z2 ) ⎢ 1 1⎥⎥
⎣v1 v2 v3 ⎦ = ⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣1 1 1 ⎦ ⎣0 0 1 ⎦ ⎣0 0 1⎦
| | |
1 0 −1 0 −1 −1 0 0 0

Da die Matrix Rang 3 hat, sind die Vektoren v1 , v2 , v3 linear unabhängig. Somit ist
dim(U) = 3 und {v1 , v2 , v3 } ist bereits eine Basis von U. "

Übung 6.31
• ◦ ◦ Man betrachte die folgenden Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 −1 3 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎣1⎦ , v2 = ⎣ 1 ⎦ , v3 = ⎣−2⎦ , v4 = ⎣−1⎦ .
1 2 −1 −2

Ist v4 eine Linearkombination von v1 , v2 , v3 ? Falls ja, man bestimme die Koordinaten
von v4 in der Basis B = {v1 , v2 , v3 }.

v Lösung
v4 ist genau dann eine Linearkombination von v1 , v2 , v3 , wenn Folgendes eintritt:
⎡⎤ ⎡ ⎤
| | | 2 −1 3
⎢ ⎥ ⎢ ⎥
Rang(A|v4 ) = Rang(A), wobei A = ⎣v1 v2 v3 ⎦ = ⎣1 1 −2⎦ .
| | | 1 2 −1

Mit dem Gauß-Verfahren finden wir:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 −1 3 4 2(Z2 ) − (Z1 ) 2 −1 3 4 2 −1 3 4
⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥ 3(Z3 ) − (Z2 ) ⎢ ⎥
⎣ 1 1 −2 −1 ⎦ % ⎣ 0 3 −7 −6 ⎦ % ⎣ 0 3 −7 −6 ⎦ .
1 2 −1 −2 0 1 1 −1 0 0 10 3

Somit

Rang(A|v4 ) = Rang(A) = 3.

Daraus folgt, dass v4 eine Linearkombination der Vektoren v1 , v2 , v3 ist. Lösen wir das
obige LGS, so finden wir direkt die Koordinaten von v4 in der Basis B = {v1 , v2 , v3 }
⎡ ⎤ ⎡ ⎤
9
2 −1 3 4
⎢ ⎥ ⎢ 1013 ⎥
⎣ 0 3 −7 −6 ⎦ ⇒ [v4 ]B = ⎣− 10 ⎦ .
3
0 0 10 3 10 "
330 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Übung 6.32
• ◦ ◦ Für welche k ∈ R sind die folgenden Vektoren eine Basis von R3 ?
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b1 = ⎣ 2 ⎦ , b2 = ⎣ 1 ⎦ , b3 = ⎣ 7 ⎦ .
−2 −3 k−6

v Lösung
Mit dem Determinanten-Kriterium finden wir:
⎡ ⎤ ( (
| | | (1 1 3 ((
(
⎢ ⎥ ( (
det ⎣v1 v2 v3 ⎦ = ( 2 1 7 (
( (
| | | (−2 −3 k − 6(
( ( ( ( ( (
(1 7 (( (1 3 (( (1 3( !
( ( ( (
=( ( −2 ( ( −2 ( ( = 1 − k ̸= 0.
(−3 k − 6( (−3 k − 6( (1 7(
@ AB C @ AB C @ABC
=k+15 =k+3 =4

Die Determinante ist ungleich Null, wenn k ̸= 1. Somit sind die gegebenen Vektoren
v1 , v2 , v3 eine Basis von R3 , wenn k ̸= 1. "

Übung 6.33
• ◦ ◦ Man betrachte die folgenden Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎣1⎦ , v2 = ⎣7⎦ , v3 = ⎣k2 + 2⎦ , v4 = ⎣ k + 3 ⎦ .
1 7 3 k2 + 2

Für welche k ∈ R ist v4 eine lineare Kombination von v1 , v2 , v3 ?

v Lösung
Wir gehen gleich wie in Übung 6.31 vor und überprüfen, in Abhängigkeit von k ∈ R,
ob Folgendes gilt:
⎡ ⎤ ⎡ ⎤
| | | 12 0
⎢ ⎥ ⎢ ⎥
Rang(A|v4 ) = Rang(A), wobei A = ⎣v1 v2 v3 ⎦ = ⎣1 7 k2 + 2⎦ .
| | | 17 3
6.4 • Berechnungsmethoden
331 6
Mit dem Gauß-Verfahren finden wir:
⎡ ⎤ ⎡ ⎤
1 2 0 1 (Z2 ) − (Z1 ) 1 2 0 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣ 1 7 k2 + 2 k + 3 ⎦ % ⎣0 5 k2 + 2 k + 2 ⎦
1 7 3 2
k +2 0 5 3 2
k +1
⎡ ⎤
1 2 0 1
(Z3 ) − (Z2 ) ⎢ ⎥
% ⎣0 5 k2 + 2 k + 2 ⎦.
0 0 1 − k2 k2 − k − 1

5 Für k ̸= ±1 ist Rang(A|v4 ) = Rang(A) = 3. Somit v4 ist eine Linearkombination


von v1 , v2 , v3 .
5 Für k = ±1 ist Rang(A|v4 ) = 3 > Rang(A) = 2, d. h. v4 ist keine Linearkombinati-
on von v1 , v2 , v3 . "

Übung 6.34 89 k : 9 −2 : 9 0 :;
• ◦ ◦ Man betrachte den Unterraum U = 2 , 1 , 1 ⊂ R3 , Man bestimme
1 0 1
dim(U) in Abhängigkeit des Parameters k ∈ R.

v Lösung
Wir schreiben die drei Vektoren als Spalten in einer Matrix auf und berechnen den
Rang der resultierenden Matrix mit dem Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
| | | k −2 0 1 0 1 (Z2 ) − 2(Z1 ) 1 0 1
⎢ ⎥ ⎢ ⎥ (Z1 ) ↔ (Z3 ) ⎢ ⎥ (Z3 ) − k(Z1 ) ⎢ ⎥
⎣v1 v2 v3 ⎦ = ⎣ 2 1 1 ⎦ % ⎣2 1 1⎦ % ⎣ 0 1 −1 ⎦
| | | 1 0 1 k −2 0 0 −2 −k
⎡ ⎤
1 0 1
(Z3 ) + 2(Z2 ) ⎢ ⎥
% ⎣0 1 −1 ⎦ .
0 0 −k − 2

Wir betrachten nun den Rang der obigen Matrix in Abhängigkeit von k ∈ R:
5 Für k ̸= −2 hat die Matrix Rang 3. Somit ist dim(U) = 3.
5 Für k = −2 hat die Matrix Rang 2. Somit sind dim(U) = 2. "

Übung 6.35
• ◦ ◦ Es seien A ∈ R7×2 , B ∈ R2×5 und C = AB. Es seien v1 , v2 , v3 , v4 vier beliebige
Vektoren in R7 . Man zeige, dass Cv1 , Cv2 , Cv3 , Cv4 linear abhängig sind.

v Lösung
A ∈ R7×2 , B ∈ R2×5 ⇒ Rang(A) ≤ 2 und Rang(B) ≤ 2. Mit der Ungleichung
Rang(AB) ≤ min{Rang(A), Rang(B)} erhalten wir damit Rang(C) = Rang(AB) ≤ 2.
Somit müssen die Bilder der vier Vektoren v1 , v2 , v3 , v4 linear abhängig sein. "
332 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Übung 6.36
• • ◦ Man betrachte die folgenden Vektoren in K2
6 % & % &7
a c
B = b1 = , b2 = , a, b, c, d ∈ K.
b d

a) Es sei K = C. Für welche a, b, c, d ∈ C ist B eine Basis von C2 ?


b) Es sei nun K = Z2 . Für welche a, b, c, d ∈ Z2 ist B eine Basis von Z22 ? Man gebe
alle mögliche Basen von Z22 explizit an.

v Lösung
a) Zwei Vektoren b1 , b2 ∈ C2 bilden eine Basis von C2 genau dann, wenn:
⎡ ⎤
| | ( (
(
⎢ ⎥ (a c ((
det ⎣b1 b2 ⎦ = ( ( = ad − bc ̸= 0.
(b d(
| |

Die Vektoren b1 , b2 bilden eine Basis von C2 exakt, wenn ad − bc ̸= 0.


b) B ist genau dann eine Basis von Z22 , wenn ad − bc ̸= 0, d. h. ad ̸= bc. Auf Z2 gibt es
nur zwei Möglichkeiten: Entweder ist ad = 1 und bc = 0, oder ad = 0 und bc = 1.
Nun betrachten wir diese zwei Fälle separat:
5 ad = 1 impliziert unbedingt a = d = 1. Aus bc = 0 folgt b = 0 oder c = 0. Es
gibt somit 3 Möglichkeiten für die Vektoren b1 , b2 :
6% & % &7 6% & % &7 6% & % &7
1 0 1 0 1 1
, , , , , .
0 1 1 1 0 1

5 ad = 0 impliziert a = 0 oder d = 0. Aus bc = 1 folgt b = c = 1. Es gibt somit 3


Möglichkeiten für die Vektoren b1 , b2 :
6% & % &7 6% & % &7 6% & % &7
0 1 1 1 0 1
, , , , , .
1 0 1 0 1 1

Bis auf Permutationen der einselnen Vektoren haben wir genau 3 mögliche Basen
von (Z2 )2 gefunden:
6% & % &7 6% & % &7 6% & % &7
1 0 1 0 1 1
, , , , , .
0 1 1 1 0 1 "
6.4 • Berechnungsmethoden
333 6

Übung 6.37
• • ◦ Man betrachte die folgenden Unterräume von R3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
, 1 0 3 , 1 2 4 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
U = ⎣1⎦ , ⎣1⎦ , W = ⎣0⎦ , ⎣ 1 ⎦ , ⎣1⎦ .
0 1 1 −1 1

a) Man finde Basen für U und W . Was sind dim(U) und dim(W )?
b) Man bestimme eine Basis von U ∩ W . Was ist dim(U ∩ W )?
c) Man bestimme eine Basis von U + W . Was ist dim(U + W )?
d) Man verifiziere die Formel dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ).

v Lösung
a) Basis von U: Wir schreiben die vorgegebenen Vektoren als Spalten in einer Matrix
auf und bestimmen den Rang von dieser Matrix:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 0 1 0
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣1 1⎦ % ⎣0 1⎦ % ⎣ 0 1 ⎦.
0 1 0 1 0 0

Die Matrix hat Rang 2 (zwei Zeilen ̸= [0, 0]). Somit sind die zwei vorgegebenen
Vektoren linear unabhängig. Diese Vektoren bilden also eine Basis von U und
dim(U) = 2.
Basis von W : Wir wenden dieselbe Methode wie oben:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 4 1 2 4 1 2 4
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) + 3(Z2 ) ⎢ ⎥
⎣0 1 1⎦ % ⎣0 1 1 ⎦ % ⎣ 0 1 1 ⎦.
1 −1 1 0 −3 −3 0 0 0

Die Matrix hat Rang 2. Somit sind die drei vorgegebenen Vektoren linear
<9 abhängig.
: 9 := 1 2
Eine Basis von W besteht nur aus 2 von diesen Vektoren, zum Beispiel 0 , 1
1 −1
und dim(W ) = 2.
b) Wie bestimmt man eine Basis des Schnitts U ∩ W ? Der Trick bei solchen Aufgaben
ist der folgende: Ist v ∈ U ∩ W (d. h. v ∈ U und v ∈ W ), so kann man v sowohl
in der Basis von U als auch in der Basis von W als Linearkombination darstellen,
d. h.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 2 10 % & 1 2 % &
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ α ⎢ ⎥ β
v = α1 ⎣1⎦ + α2 ⎣1⎦ = β1 ⎣0⎦ + β2 ⎣ 1 ⎦ ⇒ ⎣1 1⎦ 1 = ⎣0 1 ⎦ 1 .
α2 β2
0 1 1 −1 01 1 −1

Dies kann man wie folgt interpretieren:


334 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

⎡ ⎤ ⎡ ⎤
⎡ ⎤ α1 0
1 0 −1 −2 ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢α2 ⎥ ⎢0⎥
⎣1 1 0 −1⎦ ⎢ ⎥ = ⎢ ⎥ .
⎣β1 ⎦ ⎣0⎦
0 1 −1 1
β2 0

Dieses LGS lösen wir mit dem Gauß-Algorithmus


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 −1 −2 0 1 0 −1 −2 0 1 0 −1 −2 0
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣ 1 1 0 −1 0 ⎦ % ⎣0 1 1 1 0⎦ % ⎣ 0 1 1 1 0 ⎦.
0 1 −1 1 0 0 1 −1 1 0 0 0 −2 0 0

Aus der letzten Gleichung folgt β1 = 0. β2 = t ist frei wählbar. Aus der zweiten
Gleichung folgt α2 = −t. Folglich, die erste Gleichung impliziert α1 = 2t. Jeder
Vektor v ∈ U ∩ W sieht somit wie folgt aus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 0 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v = α1 ⎣1⎦ + α2 ⎣1⎦ = 2t ⎣1⎦ − t ⎣1⎦ = t ⎣ 1 ⎦
0 1 0 1 −1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 1 2 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v = β1 ⎣0⎦ + β2 ⎣ 1 ⎦ = 0 ⎣0⎦ + t ⎣ 1 ⎦ = t ⎣ 1 ⎦ .
1 −1 1 −1 −1
<9 2
:=
Eine Basis von U ∩ W ist somit 1 und dim(U ∩ W ) = 1.
−1
c) Wie bestimmt man eine Basis von U + W ? Man kombiniert die Vektoren aus
den Basen von U und W in einer einzigen Matrix. Mit dem Rang-Kriterium
überprüfen wir, ob diese Vektoren linear unabhängig sind, und bestimmen dadurch
die Dimension von U + W . Wir schreiben also beide Basen in einer einzigen Matrix
auf und wenden den Gauß-Algorithmus an, um den Rang der resultierende Matrix
zu bestimmen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 2 1 0 1 2 1 0 1 2
⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣1 1 0 1 ⎦ % ⎣ 0 1 −1 −1 ⎦ % ⎣ 0 1 −1 −1 ⎦ .
0 1 1 −1 0 1 1 −1 0 0 2 0

Die Matrix hat Rang 3. Somit ist dim(U + W ) = 3 und je drei linear unabhängige
Vektoren aus den kombinierten Basen von U und W ergeben eine Basis von U +W .
Zum Beispiel:
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 1
⎪ 0 1 ⎪

⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1⎦ , ⎣1⎦ , ⎣0⎦ .

⎩ ⎪

0 1 1

d) Es gilt dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ) ! "


@ AB C @ AB C @ AB C @ AB C
=3 =2 =2 =1
6.4 • Berechnungsmethoden
335 6

Übung 6.38
• ◦ ◦ Man untersuche
89 1 :ob9 jeweils
:; V=
89U :;⊕ W .
1 1
a) V = R3 , U = 1 , 1 ,W = 0
89 11 : 9 00 :; 89 11 : 9 1 :;
b) V = R3 , U = 1 , 1 , W = 0 2
0 1 −1 1 < ( 9 0 :=
(
c) V = R3 , U = {x ∈ R3 | x1 = x2 = x3 }, W = x ∈ R3 ( x = x2
89 1 : 9 0 :; 89 0 : 9 0 :; x3
d) V = R3 , U = 0 , 1 , W = 1 , 0
1 1 0 1

v Lösung
a) V = U + W ? Wir kombinieren alle erzeugenden Vektoren von U und W als
Spalten in einer einzigen Matrix. Wir berechnen dann den Rang dieser Matrix, um
die Dimension von U + W zu bestimmen:
⎡ ⎤ ⎡ ⎤
1 1 1 (Z2 ) − (Z1 ) 1 1 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
A=⎣1 1 0⎦ % ⎣ 0 0 −1 ⎦ ⇒ Rang(A) = 3 ⇒ dim(U + W ) = 3.
1 0 1 0 −1 0

Somit ist U + W = R3 .
U ∩ W = {0}? Um U ∩ W zu bestimmen, betrachten wir ein beliebiges Element
v ∈ U ∩ W . Wegen v ∈ U und v ∈ W können wir v wie folgt darstellen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 1 1 1 −1 α 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
v = α ⎣1⎦ + β ⎣1⎦ = γ ⎣0⎦ ⇒ ⎣1 1 0 ⎦ ⎣β ⎦ = ⎣0⎦ .
1 0 1 1 0 −1 γ 0

Dies LGS lösen wir mit dem Gauß-Algorithmus


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 −1 0 (Z2 ) − (Z1 ) 1 1 −1 0 1 1 −1 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) ↔ (Z2 ) ⎢ ⎥
⎣1 1 0 0⎦ % ⎣0 0 1 0⎦ % ⎣ 0 −1 0 0 ⎦ .
1 0 −1 0 0 −1 0 0 0 0 1 0

Die einzige Lösung ist α = β = γ = 0, d. h., v = 0 ⇒ U ∩ W = {0}.


Zusammenfassend: Wegen V = U + W und U ∩ W = {0} ist V = U ⊕ W .
b) V = U + W ? Wir gehen wie in (a) vor. Wir kombinieren alle erzeugenden Vektoren
von U und W als Spalten in einer einzigen Matrix. Wir berechnen dann den Rang
dieser Matrix, um die Dimension von U + W zu bestimmen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
10 1 1 10 1 1 10 1 1
⎢ ⎥ (Z ) − (Z ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
A = ⎣ 1 1 0 2 ⎦ 2 % 1 ⎣ 0 1 −1 1 ⎦ % ⎣ 0 1 −1 1 ⎦ ⇒ Rang(A) = 2.
0 1 −1 1 0 1 −1 1 00 0 0

Somit ist dim(U + W ) = 2 also U + W ̸= R3 . Es folgt: U + W ist keine direkte


Summe.
336 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

c) Zunächst bestimmen wir89Basen


:; von U und W . Aus der 89
definierenden
: 9 :; Gleichungen
1 0 0
x1 = x2 = x3 folgt U = 1 . Für W finden wir W = 1 , 0 .
1 0 1
V = U + W ? Wir kombinieren alle erzeugenden Vektoren von U und W als
Spalten in einer einzigen Matrix. Wir berechnen dann den Rang dieser Matrix, um
die Dimension von U + W zu bestimmen:
⎡ ⎤ ⎡ ⎤
1 0 0 (Z2 ) − (Z1 ) 1 0 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
A=⎣1 1 0⎦ % ⎣ 0 1 0 ⎦ ⇒ Rang(A) = 3 ⇒ dim(U + W ) = 3.
1 0 1 0 0 1

Somit ist U + W = R3 .
U ∩ W = {0}? Um U ∩ W zu bestimmen, betrachten wir ein beliebiges Element
v ∈ U ∩ W . Wegen v ∈ U und v ∈ W können wir v wie folgt darstellen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 0 1 0 0 α 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
v = α ⎣1⎦ = β ⎣1⎦ + γ ⎣0⎦ ⇒ ⎣1 −1 0 ⎦ ⎣β ⎦ = ⎣0⎦ .
1 0 1 1 0 −1 γ 0

Dies LGS lösen wir mit dem Gauß-Algorithmus


⎡ ⎤ ⎡ ⎤
1 0 0 0 (Z2 ) − (Z1 ) 1 0 0 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣ 1 −1 0 0 ⎦ % ⎣ 0 −1 0 0 ⎦ .
1 0 −1 0 0 0 −1 0

Die einzige Lösung ist α = β = γ = 0, d. h., v = 0 ⇒ U ∩ W = {0}.


Zusammenfassend: Wegen V = U + W und U ∩ W = {0} ist V = U ⊕ W .
d) V = U + W ? Wir kombinieren alle erzeugenden Vektoren von U und W als
Spalten in einer einzigen Matrix. Wir berechnen dann den Rang dieser Matrix, um
die Dimension von U + W zu bestimmen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1000 1000 10 0 0
⎢ (Z
⎥ 3 ) − (Z )
1 ⎢ (Z
⎥ 3 ) − (Z )
2 ⎢ ⎥
A = ⎣ 0 1 1 0 ⎦ % ⎣ 0 1 1 0 ⎦ % ⎣ 0 1 1 0 ⎦ ⇒ Rang(A) = 3.
1101 0101 0 0 −1 1

Es folgt dim(U + W ) = 3 also U + W = R3 .


U ∩ W = {0}? Es sei v ∈ U ∩ W . Wegen v ∈ U und v ∈ W gilt

⎡ ⎤
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ α ⎡ ⎤
1 0 0 0 10 0 0 ⎢ ⎥ 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ β
⎥⎢ ⎥ ⎢ ⎥
v = α ⎣0⎦ + β ⎣1⎦ = γ ⎣1⎦ + δ ⎣0⎦ ⇒ ⎣0 1 −1 0 ⎦ ⎢ ⎥ = ⎣0⎦ .
⎣γ ⎦
1 1 0 1 1 1 0 −1 0
δ

Dies LGS lösen wir mit dem Gauß-Algorithmus


6.4 • Berechnungsmethoden
337 6
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0 0 1 0 0 0 0 1 0 0 0 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣ 0 1 −1 0 0 ⎦ % ⎣ 0 1 −1 0 0 ⎦ % ⎣ 0 1 1 0 0 ⎦.
1 1 0 −1 0 0 1 0 −1 0 0 0 1 −1 0

Eine Variable ist frei wählbar,


9 0 : z. B. δ = t. Aus
89 der
:; dritten Gleichung folgt dann
0
γ = δ = t. Somit ist v = t 1 , d. h. U ∩ W = 1 = ̸ {0}.
1 1
Es folgt: U + W ist keine direkte Summe (Aber es gilt: V = U + W ). "

Übung 6.39
••◦ 91: 90: 91:
a) Man zeige, dass die Vektoren 1 , 1 , 0 linear unabhängig über R sind.
0 1 1
b) Sind die Vektoren auch linear unabhängig über Z2 ?

v Lösung
Drei Vektoren sind genau dann linear unabhängig, wenn die Matrix, welche diese
Vektoren als Spalten enthält, eine nicht verschwindende Determinante hat.
a) Konkret:
⎡ ⎤
101 ( ( ( (
(
⎢ ⎥ (1 0(( ((0 1((
det ⎣1 1 0⎦ = ( (−( ( = 1 + 1 = 2 ̸= 0.
(1 1( (1 1(
011

Die Vektoren sind somit linear unabhängig über R. 91 0 1:


b) Über Z2 ist 2 = 0. Mit dem obigen Resultat erhalten wir det 110 = 2 = 0.
011
Folglich sind die Vektoren linear abhängig über Z2 . "

Übung 6.40 HF 1 G F 0 G F 1 G F 1 GI
• ◦ ◦ Man betrachte U = 1 , 1 , 0 , 0 . a) Man berechne die Dimension
0 1 1 0
0 0 0 1
von U über R. b) Wie lautet die Dimension von U über Z2 ?

v Lösung
Wir überprüfen mit dem Rangkriterium, ob die vorgegebenen Vektoren linear unab-
hängig sind.
a) Über R gilt
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 1 1 0 1 1 1 0 1 1
⎢1 0⎥ ⎢0 −1 ⎥ ⎢0
⎢ 1 0 ⎥ (Z2 ) − (Z1 ) ⎢ 1 −1 ⎥ (Z3 ) − (Z2 ) ⎢ 1 −1 −1 ⎥

⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣0 1 1 0⎦ ⎣0 1 1 0 ⎦ ⎣0 0 2 1 ⎦
0 0 0 1 0 0 0 1 0 0 0 1

Da die Matrix Rang 4 hat, ist dimR (U) = 4.


338 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

b) In diesem Fall wiederholen wir dieselbe Rechnung wie in (a), aber müssen alle
Rechnungen in Z2 durchführen. Wegen −1 = 1 und 2 = 0, finden wir:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 1 1 0 1 1 1 0 1 1 1 0 1 1
⎢1 0⎥ ⎢0 −1 ⎥ ⎢0 −1 ⎥ ⎢0
⎢ 1 0 ⎥ (Z2 ) − (Z1 ) ⎢ 1 −1 ⎥ (Z3 ) − (Z2 ) ⎢ 1 −1 ⎥ ⎢ 1 1 1⎥⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥=⎢ ⎥
⎣0 1 1 0⎦ ⎣0 1 1 0 ⎦ ⎣0 0 2 1 ⎦ ⎣0 0 0 1⎦
0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1
⎡ ⎤
1 0 1 1
⎢0
(Z4 ) − (Z3 ) ⎢ 1 1 1⎥⎥
% ⎢ ⎥.
⎣0 0 0 1⎦
0 0 0 0

Da die Matrix den Rang 3 hat, ist dimZ2 (U) = 3. "

Übung 6.41
• • ◦ Man zeige, dass die folgenden Vektoren eine Basis des C-Vektorraumes V = C4
bilden.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 i 1 − 2i 1
⎢0⎥ ⎢1⎥ ⎢ −i ⎥ ⎢ 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥,⎢ ⎥,⎢ ⎥,⎢ ⎥.
⎣0⎦ ⎣1⎦ ⎣ i ⎦ ⎣ 0 ⎦
1 i 1 −1

v Lösung
Wir schreiben die gegebenen Vektoren als Matrix auf und wenden den Gauß-
Algorithmus an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 i 1 − 2i 1 1 i 1 − 2i 1 1 0 0 1
⎢0 0 ⎥ ⎢ 0 1 −i 0 ⎥ ⎢0
⎢ 1 −i ⎥ (Z4 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ 1 −i 0 ⎥

⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥
⎣0 1 i 0 ⎦ ⎣0 1 i 0 ⎦ ⎣0 0 2i 0 ⎦
1 i 1 −1 0 0 2i −2 0 0 2i −2
⎡ ⎤
10 0 1
(Z4 ) − (Z3 )
⎢ 0 1 −i 0 ⎥
⎢ ⎥
% ⎢ ⎥.
⎣ 0 0 2i 0 ⎦
0 0 0 −2

Die Matrix hat Rang 4. Somit sind die vier Vektoren linear unabhängig. Der C-
Vektorraum C4 hat die Dimension 4. Somit bilden die gegebenen Vektoren eine Basis
von C4 (als C-Vektorraum). "

> Bemerkung
Die vier Vektoren in Übung 6.41 bilden keine Basis von C4 , wenn man diesen Vek-
torraum als einen Vektorraum über R betrachtet (d. h. wenn wir nur reelle Zahlen als
6.4 • Berechnungsmethoden
339 6
Koeffizienten benutzen dürften, um Linearkombinationen zu bilden). Eine Basis von
C (als R-Vektorraum) ist {1, i}. Somit hat C4 Dimension 8 über R (und nicht 4). Eine
Basis von C4 (als R-Vektorraum) braucht somit 8 Vektoren!

Übung 6.42
• • ◦ Für welche x1 , · · · , xn ∈ R sind die folgenden Vektoren linear unabhängig?
⎡ ⎤ ⎡ ⎤ ⎡ 2⎤ ⎡ n⎤
1 x1 x1 x1
⎢1⎥ ⎢x ⎥ ⎢x2 ⎥ ⎢xn ⎥
⎢ ⎥ ⎢ 2⎥ ⎢ 2⎥ ⎢ 2⎥
⎢.⎥ , ⎢ . ⎥, ⎢ . ⎥, ··· ,⎢ ⎥
⎢.⎥ ⎢.⎥ ⎢.⎥ ⎢ .. ⎥ .
⎣.⎦ ⎣.⎦ ⎣.⎦ ⎣.⎦
1 xn x2n xnn

Hinweis: Vandermonde Determinante (vgl. Übung 3.32).

v Lösung
Wir untersuchen, ob die Vektoren linear unabhängig sind mit dem Determinantenkri-
terium. Dabei erkennen wir die Vandermonde-Determinante (vgl. Übung 3.32)
( (
(1
( x1 x21 ··· xn1 ((
(1 x2 x22 ··· xn2 (( J
(
(. .. .. .. (( = (xi − xj ).
(. ..
(. . . . . (( i<j
(
(1 xn x2n · · · xnn (

Diese Determinante ist genau dann ungleich Null, wenn xi ̸= xj für alle i, j = 1, · · · , n
gilt. Die gegebenen Vektoren sind also genau dann linear unnabhängig, wenn alle
Zahlen x1 , · · · , xn paarweise verschieden sind. "

Übung 6.43
• ◦ ◦ Man bestimme, ob die folgenden Elemente des Vektorraumes V linear abhängig
oder linear unabhängig
⎡ ⎤ ⎡ ⎤ sind.
⎡ Bilden
⎤ diese Elemente ein Erzeugendensystem?
1 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
a) V = R3 : ⎣−1⎦ , ⎣0⎦ , ⎣ 2 ⎦ .
1 0 −3
9 : 9 : 9 :
b) V = R1×4 :
1 1 3 1 , 1 0 0 1 , 1 −1 0 0 .
% & % & % & % &
1 1 10 21 0 1
c) V = R2×2 : , , , .
1 −1 01 11 −1 1
340 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

v Lösung
a) Wir schreiben die gegebenen Vektoren in einer Matrix auf und wenden den Gauß-
Algorithmus an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 (Z2 ) + (Z1 ) 1 0 1 3(Z3 ) + 4(Z2 ) 1 0 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z2 )/3 ⎢ ⎥
⎣ −1 0 2 ⎦ % ⎣0 0 3 ⎦ % ⎣ 0 0 1 ⎦.
1 0 −3 0 0 −4 0 0 0

Die Matrix hat Rang 2. Somit sind die drei Vektoren linear abhängig und sie bilden
kein Erzeugendensystem von V .
b) Wir gehen wie in Teilaufgabe (a) vor und schreiben die drei Zeilenvektoren als
Matrix auf. Mit dem Gauß-Algorithmus finden wir dann:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 3 1 (Z2 ) − (Z1 ) 1 1 3 1 1 1 3 1
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⎣1 0 0 1⎦ % ⎣ 0 −1 −3 0 ⎦ % ⎣ 0 −1 −3 0 ⎦ .
1 −1 0 0 0 −2 −3 −1 0 0 3 −1

Da die Matrix Rang 3 hat, sind die vorgegebenen Zeilenvektoren linear unabhängig.
Da die Dimension von V aber gleich 4 ist, bilden diese 3 Vektoren kein Erzeugen-
densystem.
c) Wir identifizieren die (2 × 2)-Matrizen mit den Koordinatenvektoren bezüglich der
Standardbasis von R2×2 :
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & 1 % & 1 % & 2 % & 0
⎢1⎥ 10 ⎢0⎥ 2 1 ⎢1⎥ ⎢1⎥
1 1 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 0 1 ⎢ ⎥
≡ ⎢ ⎥, ≡ ⎢ ⎥, ≡ ⎢ ⎥, ≡ ⎢ ⎥.
1 −1 ⎣1⎦ 01 ⎣0⎦ 1 1 ⎣1⎦ −1 1 ⎣−1⎦
−1 1 1 1

Dann gehen wir wie üblich weiter und schreiben diese Vektoren als Matrix auf
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 2 0 (Z2 ) − (Z1 ) 1 1 2 0 1 1 2 0
(Z3 ) − (Z1 ) (Z3 ) − (Z2 )
⎢ 1 1 ⎥ ⎢0 1 ⎥ ⎢0
⎢ 0 1 ⎥ (Z4 ) + (Z1 ) ⎢ −1 −1 ⎥ (Z4 ) + 2(Z3 ) ⎢ −1 −1 1 ⎥

⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣ 1 0 1 −1 ⎦ ⎣0 −1 −1 −1 ⎦ ⎣0 0 0 −2 ⎦
−1 1 1 1 0 2 3 1 0 0 1 3

Da die Matrix Rang 4 hat, sind die vier Vektoren (und somit die entsprechenden
Matrizen in R2×2 ) linear unabhängig. Da die Dimension von V gleich 4 ist und
wir genau 4 linear unabhängige Elemente haben, bilden die 4 Matrizen eine Basis
von V . "
6.4 • Berechnungsmethoden
341 6

Übung 6.44
• ◦ ◦ Man bestimme die Dimension des folgenden Unterraumes V ⊂ R3×3 :
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
, 111 1 −1 0 0 1 −1 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
V = ⎣1 1 1⎦ , ⎣−1 0 1 ⎦ , ⎣−1 0 1 ⎦ .
111 0 1 −1 1 −1 0

v Lösung
Wir müssen einfach untersuchen, ob die vorgegebenen Matrizen linear unabhängig
sind. Dazu wenden wir zwei Methoden an.
Mit dem Rang-Kriterium: Wegen R3×3 ∼ = R9 identifizieren wir die vorgegebenen
(3 × 3)-Matrizen mit den folgenden Koordinatenvektoren in R9 :
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0
⎢1⎥ ⎢−1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢0⎥ ⎢−1⎥
⎡ ⎤ ⎢ ⎥ ⎡ ⎤ ⎢ ⎥ ⎡ ⎤ ⎢ ⎥
111 ⎢1⎥ 1 −1 0 ⎢−1⎥ 0 1 −1 ⎢−1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 1 1⎦ ≡ ⎢1⎥ , ⎣−1 0 1 ⎦ ≡ ⎢ 0 ⎥ , ⎣−1 0 1 ⎦ ≡ ⎢ 0 ⎥ .
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
111 ⎢1⎥ 0 1 −1 ⎢1⎥ 1 −1 0 ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢0⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1⎦ ⎣1⎦ ⎣−1⎦
1 −1 0

Dann schreiben wir diese Vektoren in einer Matrix auf und wenden den Gauß-
Algorithmus an, um den Rang der resultierenden Matrix zu bestimmen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 1 1 0 1 1 0
⎢1 −1 1 ⎥ ⎢0 −2 1 ⎥ ⎢0 −2 1 ⎥
⎢ ⎥ ⎢ ⎥ 2(Z3 ) − (Z2 ) ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1 0 −1 ⎥ ⎢0 −1 −1 ⎥ (Z4 ) − (Z2 ) ⎢0 0 −3 ⎥
⎢ ⎥ ⎢ ⎥ 2(Z5 ) − (Z2 ) ⎢ ⎥
⎢1 −1 −1 ⎥ (Zi ) − (Z1 ) ⎢0 −2 −1 ⎥ 2(Z7 ) − (Z2 ) ⎢0 0 −2 ⎥
⎢ ⎥ ⎢ ⎥ (Z9 ) − (Z2 )
⎢ ⎥
⎢ ⎥ i = 2, · · · , 9 ⎢ ⎥ ⎢ ⎥
⎢1 0 0 ⎥ % ⎢0 −1 0 ⎥ % ⎢0 0 −1 ⎥ .
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1 1 1 ⎥ ⎢0 0 1 ⎥ ⎢0 0 1 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢1 0 1 ⎥ ⎢0 −1 1 ⎥ ⎢0 0 1 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 1 −1 ⎦ ⎣0 0 −1 ⎦ ⎣0 0 −1 ⎦
1 −1 0 0 −2 0 0 0 −1

Die Matrix hat Rang 3. Somit sind die drei Matrizen linear unabhängig und dim(V ) =
3. Mit der Definition: Wir suchen Zahlen α1 , α2 , α3 ∈ R mit
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
111 1 −1 0 0 1 −1 000
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
α1 ⎣1 1 1⎦ + α2 ⎣−1 0 1 ⎦ + α3 ⎣−1 0 1 ⎦ = ⎣0 0 0⎦
111 0 1 −1 1 −1 0 000

d. h.
342 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

⎡ ⎤ ⎡ ⎤
α1 + α2 α1 − α2 + α3 α1 − α3 000
⎢ ⎥ ! ⎢ ⎥
⎣α1 − α2 − α3 α1 α1 + α2 + α3 ⎦ = ⎣0 0 0⎦ .
α1 + α3 α1 + α2 − α3 α1 − α2 000

Durch komponentenweises Vergleichen erhalten wir α1 = 0 (Eintrag (2,2)). Daraus


folgt α2 = 0 (Eintrag (3,3)) und α3 = 0 (Eintrag (1,3)). Somit sind die drei Matrizen
linear unabhängig und dim(V ) = 3, gleich wie bei Methode 1. "

Übung 6.45
• ◦ ◦ Man zeige, dass die Pauli-Matrizen (vgl. Übung 1.13)
% & % & % & % &
10 01 0 −i 1 0
σ0 = , σx = , σy = , σz =
01 10 i 0 0 −1

eine Basis von C2×2 bilden.

v Lösung
Wegen C2×2 ∼ = C4 identifizieren wir die vorgegebenen (2 × 2)-Matrizen mittels
Koordinatenvektoren in C4 (wegen C2×2 ∼
= C4 ):
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & 1 % & 0 % & 0 % & 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
10 ⎢0⎥ 0 1 ⎢1⎥ 0 −i ⎢−i⎥ 1 0 ⎢0⎥
≡ ⎢ ⎥, ≡ ⎢ ⎥, ≡ ⎢ ⎥, ≡ ⎢ ⎥.
01 ⎣0⎦ 1 0 ⎣1⎦ i 0 ⎣ i ⎦ 0 −1 ⎣0⎦
1 0 0 −1

Dann gehen wir wie üblich weiter und schreiben diese Vektoren in einer Matrix auf:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 1 1 0 0 1 1 0 0 1
⎢0 0 ⎥ ⎢0 0 ⎥ ⎢0
⎢ 1 −i ⎥ (Z4 ) − (Z1 ) ⎢ 1 −i ⎥ (Z3 ) − (Z2 ) ⎢ 1 −i 0 ⎥

⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥.
⎣0 1 i 0 ⎦ ⎣0 1 i 0 ⎦ ⎣0 0 2i 0 ⎦
1 0 0 −1 0 0 0 −2 0 0 0 −2

Die Matrix hat Rang 4. Somit sind die vier Vektoren linear unabhängig. Die Pauli-
Matrizen sind also eine Basis von C2×2 . "

Übung 6.46
• ◦ ◦ Man zeige, dass die folgenden Matrizen
% & % & % &
1 i 1 i i −2
B1 = , B2 = , B3 =
01 02 0 i

eine Basis des Vektorraumes der komplexen (2 × 2)-oberen Dreiecksmatrizen bilden.


6.4 • Berechnungsmethoden
343 6
v Lösung
Der Vektorraum der komplexen (2 × 2)-oberen Dreiecksmatrizen hat Dimension 3. Es
sind genau 3 komplexe (2 × 2)-obere Dreiecksmatrizen vorgegeben. Wir müssen somit
nur die lineare Unabhängigkeit dieser Matrizen nachweisen. Dazu identifizieren wir die
(2 × 2)-Matrizen mit Koordinatenvektoren in C4 :
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
% & 1 % & 1 % & i
⎢i⎥ 1 i ⎢ i ⎥ i −2 ⎢−2⎥
1 i ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
≡ ⎢ ⎥, ≡ ⎢ ⎥, ≡ ⎢ ⎥.
01 ⎣0⎦ 0 2 ⎣0⎦ 0 i ⎣0⎦
1 2 i

Dann gehen wir wie üblich weiter und schreiben diese Vektoren in einer Matrix auf:
⎡ ⎤ ⎡ ⎤
1 1 i (Z2 ) − i(Z1 ) 1 1 i
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣ i i −2 ⎦ % ⎣ 0 0 −1 ⎦ .
1 2 i 0 1 0

Die Matrix hat Rang 3. Somit bilden die vorgegebenen Matrizen eine Basis des
Vektorraumes der komplexen (2 × 2)-oberen Dreiecksmatrizen. "

Übung 6.47
• ◦ ◦ Man zeige, dass sin(x) und cos(x) linear unabhängig sind.

v Lösung
Wir wenden den Wronski-Test an. Die Abbildungen sind y1 (x) = sin(x) und y2 (x) =
cos(x). Die Wronski Determinante lautet dann
( ( ( (
(y (x) y (x)( ( sin(x) cos(x) ( K L
( 1 2 ( ( (
W (y1 , y2 ) = ( ′ (=( ( = − sin2 (x) + cos2 (x) = −1 ̸= 0.
(y1 (x) y′2 (x)( (cos(x) − sin(x)( @ AB C
=1

Wegen W ̸= 0 sind sin(x) und cos(x) linear unabhängig. "

Übung 6.48
• • ◦ Es sei V = ⟨1, x, ex , e−x ⟩.
a) Man bestimme die Dimension sowie eine Basis von V .
b) Man berechne die Koordinaten der Funktionen sinh(x) und cosh(x) in dieser Basis.

v Lösung
a) Wir untersuchen ob 1, x, ex , e−x linear unabhängig sind. Dazu berechnen wir die
Wronski-Determinante:
344 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

( ( ( (
( y1 (x) y2 (x) y3 (x) y4 (x) ( (1
( ( ( x ex e−x ((
( y′ (x) y′ (x) y′ (x) y′ (x) ( (0 (
( ( ( 1 ex −e−x (
W (y1 , y2 , y3 , y4 ) = ( ′′1 2 3 4 (=( (
( y1 (x) y′′2 (x) y′′3 (x) y′′4 (x) ( (0 0 ex −x
e ((
( ( (
(y′′′ (x) y′′′ (x) y′′′ (x) y′′′ (x)( (0 0 ex −e−x (
1 2 3 4
( (
(ex −x (
( e (
=1·1·( x ( = −2 ̸= 0.
(e −e−x (

Wegen W ̸= 0 sind 1, x, ex , e−x linear unabhängig. V hat somit die Dimension


dim(V ) = 4 und die Abbildungen 1, x, ex , e−x bilden eine Basis von V .
b) Es sei V versehen mit der Basis B = {1, x, ex , e−x }. Es gilt:
⎤ ⎡
0
ex − e−x 1 1 ⎢ 0 ⎥
⎢ ⎥
sinh(x) = = · ex − · e−x ⇒ [sinh(x)]B = ⎢ 1 ⎥ ,
2 2 2 ⎣ 2 ⎦
− 12
⎡ ⎤
0
ex + e−x 1 1 ⎢0⎥
⎢ ⎥
cosh(x) = = · ex + · e−x ⇒ [cosh(x)]B = ⎢ 1 ⎥ .
2 2 2 ⎣2⎦
1
2 "

Übung 6.49
• • ◦ Man zeige, dass {1, x, x2 , · · · , xn } eine Basis von Pn (R) ist.

v Lösung
Wir wenden den Wronski-Test an. Die Abbildungen sind y0 (x) = 1, y1 (x) = x, y2 (x) =
x2 , · · · , yn (x) = xn . Die Wronski-Determinante lautet dann:
( (
( y0 (x) y1 (x) y2 (x) · · · yn (x) (
( (
( y′ (x) y′ (x) y′ (x) · · · y′ (x) (
( 0 1 2 n (
W (y0 , y1 , y2 , · · · , yn ) = (( . . . . (
( .. .. .. . .. .. ((
( (n) (
(y (x) y(n) (x) y(n) (x) · · · y(n) (x)(
0 1 2 n
( (
(1 x x2 x3 · · · xn (
( (
( 2 n−1 (
(0 1 2x 3x · · · nx (
( n−2
(
(0 0 2 6x · · · n(n − 1)x (
( (
= (0 0 0 6 · · · n(n − 1)(n − 2)xn−3 (
( (
(. . . . .. (
(. . . . .. (
(. . . . . . (
( (
(0 0 0 0 · · · n! (

= 1 · 2 · 6 · · · n! ̸= 0.
6.4 • Berechnungsmethoden
345 6
Wegen W ̸= 0 sind 1, x, x2 , · · · , xn linear unabhängig. Außerdem spannen
1, x, x2 , · · · , xn den Raum Pn (R) auf. Folglich ist {1, x, x2 , · · · , xn } eine Basis von
Pn (R). "

Übung 6.50
• • ◦ Man zeige, dass {1, 1 + x, 1 + x + x2 , · · · , 1 + x + x2 + · · · + xn } eine Basis von
Pn (R) ist.

v Lösung
Wegen Pn (R) ∼
= Rn+1 identifizieren wir die Basiselemente durch ✿✿✿✿✿✿✿✿✿✿✿✿✿✿✿✿
Koordinatenvektoren
in R n+1 :
✿✿✿✿✿✿

⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
1 ≡ ⎢0⎥ , 1 + x ≡ ⎢0⎥ , 1 + x + x2 ≡ ⎢1⎥ , · · · , 1 + x + x2 + · · · + xn ≡ ⎢1⎥ .
⎢.⎥ ⎢.⎥ ⎢.⎥ ⎢.⎥
⎢.⎥ ⎢.⎥ ⎢.⎥ ⎢.⎥
⎣.⎦ ⎣.⎦ ⎣.⎦ ⎣.⎦
0 0 0 1

Dann gehen wir wie üblich weiter und schreiben diese Vektoren in einer Matrix auf:
⎡ ⎤ ⎡ ⎤
1 1 1 ··· 1 1 1 1 ··· 1
⎢ ⎥ ⎢ ⎥
⎢0 1 1 ··· 1⎥ ⎢0 1 1 · · · 1⎥
⎢ ⎥ ⎢ ⎥
⎢0 0 1 1⎥ ⎢ 1⎥
⎢ ··· ⎥ ⇒ det ⎢0 0 1 · · · ⎥ = 1 ̸= 0 ⇒ Basis
⎢. .. .. .. ⎥
.. ⎥ ⎢. . . . .. ⎥
⎢. . ⎢. . . .. ⎥
⎣. . . .⎦ ⎣. . . .⎦
0 0 0 ··· 1 0 0 0 ··· 1

Alternative: Mit der Wronski-Determinante:


( (
( y0 (x) y1 (x) y2 (x) · · · yn (x) ((
(
( y′ (x) y′1 (x) y′2 (x) · · · y′n (x) ((
( 0
(
W (y0 , y1 , y2 , · · · , yn ) = ( .. .. .. .. (
.. (
( . . . . . (
( (n−1) (n−1) (n−1) (n−1)
(
(y (x) y (x) y (x) · · · y (x) (
0 1 2 n
( (
(1 1 + x 1 + x + x2 · · · 1 + x + x2 + · · · + xn (
( (
( (
(0 1 1 + 2x · · · 1 + 2x + · · · + nxn−1 (
( (
( · · · 2 + · · · + n(n − 1)xn−2 ((
= (0 0 2
(. . .. .. .. (
(. . . (
(. . . . (
( (
(0 0 0 ··· n! (

= 1 · 2 · · · n! ̸= 0 ⇒ Basis "
346 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Übung 6.51
•⎧•⎡◦ Man⎤ (bestimme eine
⎫ Basis der Heisenberg-Gruppe (vgl. Übung 2.58) H3 (R) =
⎪ 1
⎨ x z (( ⎪

⎢ ⎥(
⎣0 1 y⎦ ( x, y, z ∈ R . Was ist dim(H3 (R))?

⎩ ( ⎪

0 01 (

v Lösung
Eine Basis von H3 (R) besteht aus den folgenden drei Matrizen
⎧ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫

⎨ 110 100 101 ⎪ ⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Hx = ⎣0 1 0⎦ , Hy = ⎣0 1 1⎦ , Hz = ⎣0 1 0⎦ ,

⎩ ⎪

001 001 001

weil
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1xz 1x0 100 10z
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A = ⎣0 1 y⎦ = ⎣0 1 0⎦ + ⎣0 1 y⎦ + ⎣0 1 0⎦ = xHx + yHy + zHz .
001 001 001 001

Somit ist dim(H3 (R)) = 3 (es gibt 3 freie Parameter). "

Übung 6.52
• • ◦ Es seien

Symn (R) = {A ∈ Rn×n | AT = A}


Skewn (R) = {A ∈ Rn×n | AT = −A}

die Unterräume der symmetrischen bzw. schiefsymmetrischen reellen (n × n)-Matrizen.


a) Man finde je eine Basis für Sym2 (R) und Skew2 (R). Was ist dim(Sym2 (R)) und
dim(Skew2 (R))?
b) Genauso finde man je eine Basis für Sym3 (R) und Skew3 (R).

v Lösung
a) Wir überlegen uns, wie allgemeine Matrizen in Sym2 (R) oder Skew2 (R) aussehen.
A ist genau dann symmetrisch, wenn
%
& % &
ac ! ab
T
A = = =A ⇒ b = c.
bd cd

Bei einer symmetrischen Matrix müssen die Nichtdiagonalelemente gespiegelt


passend übereinstimmen. Eine beliebige Matrix in Sym2 (R) sieht dann wie folgt
aus:
6.4 • Berechnungsmethoden
347 6
&% % & % & % &
ab 10 01 00
A= =a +b +d .
bd 00 10 01

Eine Basis von Sym2 (R) konstruiert sich somit aus den folgenden drei Matrizen
6% & % & % &7
10 01 00
, , .
00 10 01

A ist genau dann schiefsymmetrisch, wenn



⎪ ⇒ a=0
⎨a = −a
% & % & ⎪
T a c ! −a −b
A = = = −A ⇒ b = −c .
bd −c −d ⎪


d = −d ⇒ d=0

Bei einer schiefsymmetrischen Matrix sind alle Diagonalelemente Null. Außerdem


sind die nichtdiagonalelemente gespiegelt passend jeweils das Gegenteil des ande-
ren. Eine beliebige Matrix in Skew2 (R) sieht also wie folgt aus:
% & % &
0 b 0 1
A= =b .
−b 0 −1 0

Eine Basis von Skew2 (R) ist entsprechend


6% &7
0 1
.
−1 0

Die Basis von Sym2 (R) besteht aus 3 Elementen, während die Basis von Skew2 (R)
nur ein Element enthält. Deshalb gilt

dim(Sym2 (R)) = 3 und dim(Skew2 (R)) = 1.

Bemerkung: In Übung 5.26 haben wir gezeigt, dass Sym2 (R) ⊕ Skew2 (R) = R2×2 .
Wir können somit dadurch auf eine weitere Art die folgende Formel verifizieren:
V = U ⊕ W ⇒ dim(V ) = dim(U) + dim(W ). Denn in unserem Beispiel gilt

dim(R2×2 ) = dim(Sym2 (R)) + dim(Skew2 (R)) !


@ AB C @ AB C @ AB C
=4 =3 =1

b) Eine beliebige Matrix in Sym3 (R) hat die Form:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 a12 a13 100 000 000
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A = ⎣a12 a22 a23 ⎦ = a11 ⎣0 0 0⎦ + a22 ⎣0 1 0⎦ + a33 ⎣0 0 0⎦
a13 a23 a33 000 000 001
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
010 001 000
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
+ a12 ⎣1 0 0⎦ + a13 ⎣0 0 0⎦ + a23 ⎣0 0 1⎦ .
000 100 010
348 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Eine Basis von Sym3 (R) hat die Gestalt


⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 100
⎪ 00 0 000 01 0 001 00 0 ⎪ ⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣0 0 0⎦ ⎣0 1
, 0⎦ ⎣0 0 0⎦ ⎣1 0
, , 0⎦ ⎣0 0 0⎦ ⎣0 0
, , 1⎦

⎩ ⎪

000 00 0 001 00 0 100 01 0

mit dim(Sym3 (R)) = 6. Eine beliebige Matrix in Skew3 (R) sieht wie folgt aus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 a12 a13 0 10 0 01 0 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
A = ⎣−a12 0 a23 ⎦ = a12 ⎣−1 0 0⎦ + a13 ⎣ 0 0 0⎦ + a23 ⎣0 0 1⎦ .
−a13 −a23 0 0 00 −1 0 0 0 −1 0

Eine Basis von Skew3 (R) besteht somit aus den folgenden drei Matrizen
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 0 10
⎪ 0 01 0 0 0 ⎪ ⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣−1 0 0⎦ , ⎣ 0 0 0⎦ , ⎣0 0 1⎦ .

⎩ ⎪

0 00 −1 0 0 0 −1 0

Daher ist dim(Skew3 (R))=3. Beachte dim(R3×3 ) = dim(Sym3 (R)) + dim(Skew3 (R)) !
@ AB C @ AB C @ AB C
=9 =6 =3
"

Übung 6.53
• • • Man bestimme dim(Symn (R)) und dim(Skewn (R)) für alle n ∈ N.

v Lösung
Eine beliebige Matrix in Rn×n hat n2 Einträge (freie wählbare Parameter). Bei ei-
ner symmetrischen Matrix stimmen die Nichtdiagonalelementen gespiegelt passend
überein, d. h. aji = aij ∀i ̸= j. Mit anderen Worten: Die Elemente links von der
Hauptdiagonalen werden von den Elemente rechts von der Hauptdiagonalen bestimmt.
Wie viele Elemente gibt es rechts von der Hauptdiagonalen? Man betrachte das
folgende Schema:
⎡ ⋆ ⋆ ··· ⋆

⋆ ··· ⋆
⎢ . . .. ⎥
⎣ . .⎦.

In der ersten Zeile sind es n − 1, in der zweiten Zeile sind es n − 2, usw. Insgesamt sind
es (Gauß-Formel):

n−1
' n(n − 1)
(n − 1) + (n − 2) + · · · + 1 = i= .
2
i=1

Bei einer symmetrischen Matrix haben wir somit


6.4 • Berechnungsmethoden
349 6
n(n − 1) n(n + 1)
n2 − =
2 2

frei wählbare Parameter. Folglich gilt

n(n + 1)
dim(Symn (R)) = .
2

Bei einer schiefsymmetrischen Matrix sind alle Diagonalelemente Null. Außerdem


aji = −aij ∀i ̸= j. Eine schiefsymmetrische Matrix hat also n(n−1)
2 freie Parameter.
Daher

n(n − 1)
dim(Skewn (R)) = .
2

Wir erhalten das folgende faszinierende Resultat:

dim(Rn×n ) = dim(Symn (R)) + dim(Skewn (R)) !


@ AB C @ AB C @ AB C
=n2 = n(n+1) = n(n−1)
2 2 "

Übung 6.54
• • • Man zeige, dass die Anzahl von möglichen Basen von (Z2 )n durch

(2n − 1)(2n − 2)(2n − 22 ) · · · (2n − 2k ) · · · (2n − 2n−1 )


n!

gegeben ist. Man vergleiche das Resultat mit Übung 6.36(b).

v Lösung
Eine Basis von (Z2 )n besteht aus n linear unabhängigen Vektoren. Nun, wie kann man
n linear unabhängige Vektoren in (Z2 )n konstruieren? Zuerst wählen wir einen Vektor
ungleich Null in (Z2 )n und nennen ihn v1 . Da jede Komponente von v1 entweder gleich 0
oder 1 ist, haben wir genau 2n − 1 Auswahlmöglichkeiten (nur der Fall [0, 0, · · · , 0]T ist
ausgeschlossen). Dann wählen wir einen beliebigen Vektor v1 ̸= v2 . Dafür gibt es noch
genau 2n −2 Möglichkeiten. Dann wählen wir einen weiteren Vektor v3 ∈ / ⟨v1 , v2 ⟩. Dazu
gibt es 2n − 22 Möglichkeiten. Und so weiter. Die Anzahl der Auswahlmöglichkeiten
einer Basis in dieser Reihenfolge ist gegeben durch

(2n − 1)(2n − 2)(2n − 22 ) · · · (2n − 2k ) · · · (2n − 2n−1 ).

Nun kann dieselbe Basis in n! verschiedenen Permutationen der oben beschriebenen


Auswahlen auftreten. Somit ist die Anzahl von möglichen Basen von (Z2 )n gleich

(2n − 1)(2n − 2)(2n − 22 ) · · · (2n − 2k ) · · · (2n − 2n−1 )


.
n!

Für n = 2 finden wir, dass die Anzahl Basen von (Z2 )2 gleich
350 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

(22 − 1)(22 − 2) 3·2


= =3
2! 2

ist. Dieses Resultat stimmt mit Übung 6.36(b) überein. "

6.5 Basiswechsel

In den vorausgegangenen Abschnitten haben wir erfahren, dass wir einen beliebigen
Vektor v eines Vektorraumes V beschreiben können, in dem wir die Koordinaten
von v bezüglich einer Basis von V angeben. Diese Koordinaten sind eindeutig, aber
hängen von der Wahl der Basis ab. Liegen zwei Basen B und C von V vor, so sind die
Koordinaten v in diesen Basen im Allgemeinen unterschiedlich:
⎡ ⎤
x1
⎢ .. ⎥
[v]B = ⎣ . ⎦ = Koordinaten von v in Basis B
xn
⎡ ⎤
y1
⎢ .. ⎥
[v]C = ⎣ . ⎦ = Koordinaten von v in Basis C
yn

In diesem letzten Abschnitt wollen wir uns mit der folgenden Aufgabe beschäftigen:
Wir wollen eine Transformationsmatrix T B→C derart finden, dass der Koordinaten-
vektor [v]B in der Originalbasis B mittels der Transformationsmatrix T B→C in den
entsprechenden Koordinatenvektor [v]C bezüglich der neuen Basis C übergeht:

[v]C = T B→C [v]B

Das folgende Diagramm zeigt den Zusammenhang:

6.5.1 Basiswechsel zwischen der Standardbasis E und einer


anderen Basis B

Wir beginnen mit einer einfachen Version des Basiswechsels, nämlich dem Basiswech-
sel zwischen der Standardbasis E und einer neuen Basis B .
6.5 • Basiswechsel
351 6
Konstruktion des Basiswechsels
Sei V ein Vektorraum versehen mit der Standardbasis E = {e1 , · · · , en } und einer
anderen Basis B = {b1 , · · · , bn }. Jeder Vektor v ∈ V lässt sich bekanntlich eindeutlich
sowohl als Linearkombination der Standarbasis E wie auch als Linearkombination
der Basis B darstellen, konkret:
⎡ ⎤
n x1
' ⎢ .. ⎥
v= xj bj ↔ [v]B = ⎣ . ⎦ = Koordinaten in Basis B (6.18)
j=1 xn
⎡ ⎤
n y1
' ⎢ .. ⎥
v= y i ei ↔ [v]E = ⎣ . ⎦ = Koordinaten in Standardbasis E (6.19)
i=1 yn

Uns interessiert: Was ist der Zusammenhang zwischen den Koordinaten x1 , · · · , xn


und y1 , · · · , yn ? Da E eine Basis ist, können wir die Basisvektoren von B als Linear-
kombination der Standardbasisvektoren e1 , · · · , en darstellen:
⎤ ⎡ ⎡ ⎤
n t11 t1n
' ⎢ ⎥ ⎢ ⎥
bj = tij ei , d. h. [b1 ]E = ⎣ ... ⎦ , · · · , [bn ]E = ⎣ ... ⎦ . (6.20)
i=1 tn1 tnn

Mit Gl. (6.18) gilt dann:


M N ⎛ ⎞
n
' n
' n
' n
' n
'
v= xj bj = xj tij ei = ⎝ tij xj ⎠ ei . (6.21)
j=1 j=1 i=1 i=1 j=1

Sn
Wenn wir Gl. (6.21) mit Gl. (6.19) v = i=1 yi ei vergleichen, finden wir:

n
'
yi = tij xj . (6.22)
j=1

Fassen wir die Zahlen tij als Einträge in einer Matrix T B→E auf, so können wir die
obige Gl. (6.22) in Matrixschreibweise wie folgt formulieren:

[v]E = T B→E [v]B (6.23)

T B→E enthält die Basisvektoren von B als Spalten und ist genau die gesuchte
Transformationsmatrix von B nach E :
⎡ ⎤
| |
T B→E = Transformationsmatrix von B nach E = ⎣[b1 ]E · · · [bn ]E ⎦ (6.24)
| |
352 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Wie lautet die Transformationsmatrix von E nach B ? Wegen

[v]E = T B→E [v]B ⇒ [v]B = T −1


B→E [v]E = T E →B [v]E (6.25)

wird die Transformation von E nach B durch die inverse Matrix dargestellt

T E →B = T −1
B→E (6.26)

Als Diagramm übersichtlich:

Praxistipp

Die Spalten der Transformationsmatrix T B→E sind die Koordinaten bezüglich der
Standardbasis E der Basisvektoren der neuen Basis B.

> Bemerkung
Beachte: Die Transformationsmatrix T B→E ist invertierbar, weil ihre Spalten [b1 ]E ,
[b2 ]E , · · · , [bn ]E linear unabhängig sind (B ist eine Basis!).

Kochrezept 6.1 (Basiswechsel I)


5 Die Basiswechselmatrix T B→E von einer Basis B zur Standardbasis E ist die Matrix
mit den entsprechenden Basisvektoren als Spalten.
5 T E →B = T −1
B→E .

Musterbeispiel 6.4

2
Als Beispiel
< betrachten
405 := die folgende Aufgabe. Man betrachte 9V =:R mit der Basis
9 wir
−2 −1
B = b1 = 2 , b2 −2 . Der Vektor v hat die Koordinaten −1 in der Basis B.
Wie lauten die Koordinaten von v in der Standardbasis? Um diese Aufgabe zu lösen,
brauchen wir die Transformationsmatrix von der Basis B nach der Standardbasis. Diese
bestimmt man einfach, indem wir die Vektoren der Basis B als Spalten in einer Matrix
aufschreiben (diese Vektoren sind bereits in der Standardbasis ausgedrückt)
6.5 • Basiswechsel
353 6
⎡ ⎤
| | % &
⎢ ⎥ 0 −2
T B→E = ⎣[b1 ]E [b2 ]E ⎦ = .
2 −2
| |

Die Koordinaten von v in der Standardbasis erhält man als


% &% & % &
0 −2 −1 2
[v]E = T B→E [v]B = = .
2 −2 −1 0
9 : 405 9 : 425
−1 −2
Kontrolle: [v]B = −1 bedeutet v = (−1) b1 + (−1) b2 = − 2 − −2 = 0 !

Musterbeispiel 6.5

Als zweites Beispiel betrachten wir die folgende Aufgabe. Der Vektor w hat die
4 5
Koordinaten 12 in der Standardbasis. Wie lauten die Koordinaten von w in der Basis
B? In diesem Fall benötigen wir die Transformationsmatrix von der Standardbasis nach
der Basis B. Diese erhält man direkt als Inverse von T B→E :
% &−1 % &
0 −2 − 12 21
T E →B = T −1
B→E = = .
2 −2 − 12 0

Somit
% &% & % &
− 21 21 1 1
[w]B = T E →B [w]E = 1
= 21 .
−2 0 2 −2
F G 9 :
1
1 1 1
405 1 −2
415
Kontrolle: [w]B = 2
bedeutet w = 2 b1 − 2 b2 = 2 2 − 2 −2 = 2 !
− 12

6.5.2 Basiswechsel zwischen zwei allgemeinen Basen

Nun betrachten wir den Basiswechsel zwischen zwei allgemeinen Basen B und C .

Transformationsmatrix
Es sei V ein Vektorraum versehen mit den Basen B = {b1 , · · · , bn } und C =
{c1 , · · · , cn }. Um die Transformationsmatrix T B→C zu bestimmen, genügt es, die
Argumente aus 7 Abschn. 6.5.1 zu wiederholen. Die Transformationsmatrix T B→C
ist gegeben durch:

⎡ ⎤
| |
T B→C = Transformationsmatrix von B nach C = ⎣[b1 ]C · · · [bn ]C ⎦ (6.27)
| |
354 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Praxistipp

Die Spalten von T B→C sind die Koordinaten bezüglich der Basis C der Basisvektoren
der Basis B.

Trick: Abweichung über die Standardbasis


In der Praxis kann man die Transformationsmatrix zwischen zwei allgemeinen Basen
B und C mit einen Trick bestimmen. Anstatt direkt eine Transformation zu finden,
welche die Basis B in die Basis C überführt, führen wir einen Zwischenschritt ein,
indem wir zuerst die Basis B in die Standardbasis überführen und dann von der
Standardbasis in der Basis C transformieren:

Die Transformationsmatrix T B→C ist dann einfach (erinnere, dass Matrixproduk-


te von links nach rechts zu lesen sind)

T B→C = T E →C T B→E (6.28)

Der Vorteil dieser Prozedur ist, dass es einfach ist, den Basiswechsel von oder nach
der Standardbasis zu bestimmen (Kochrezept 6.1).

Rechenregeln
# Satz 6.14 (Rechenregeln für Basiswechsel)
5 T B→C = T −1
C →B .
5 T B→D = T C →D T B→C (Kürzungsregel). $

Kochrezept
Kochrezept 6.2 (Basiswechsel II)
Die Basiswechselmatrix T B→C von einer Basis B zu einer anderen Basis C kann man
mittels folgendem Trick bestimmen (Umweg über die Standardbasis):

T B→C = T E →C T B→E .

Die Matrizen T E →C und T B→E bestimmt man mit dem Kochrezept 6.1.
6.5 • Basiswechsel
355 6
Musterbeispiel 6.6

Man betrachte die folgenden zwei Basen von R2


6% & % &7 6% & % &7
3 2 1 1
B= , , C= , .
2 1 2 1

Wie lautet die Transformationsmatrizen T B→C und T C →B ? Wir gehen getreu dem
Kochrezept 6.2 vor und bestimmen zuerst die Transformationsmatrix T B→E von B
nach der Standardbasis E . Diese bestimmen wir, indem wir die Vektoren der Basis B
als Spalten aufschreiben
% &
32
T B→E = .
21

Dann berechnen wir die Transformationsmatrix T E →C von der Standardbasis E nach


C . Diese ist die Inverse von T C →E :
% & % &−1 % &
11 11 −1 1
T C →E = ⇒ T E →C = T −1
C →E = = .
21 21 2 −1

Die Transformationsmatrix von B nach C lautet dann:


% &% & % &
−1 1 32 −1 −1
T B→C = T E →C T B→E = = .
2 −1 2 1 4 3

Ferner, will man die Transformationsmatrix von C nach B, so kann man einfach T B→C
invertieren:
% &−1 % &
−1 −1 3 1
T C →B = T −1
B→C = = .
4 3 −4 −1

Alternative: Man kann auch T B→C direkt mit der Formel


⎡ ⎤
| |
⎢ ⎥
T B→C = ⎣[b1 ]C [b2 ]C ⎦
| |

bestimmen. In diesem Fall müssen wir die Koordinaten der Basisvektoren von B
bezüglich der Basis C bestimmen:
% & % & % & ⎧ ⎧
⎨α + β = 3 ⎨α = −1
3 1 1 1 1 1
= α1 + β1 ⇒ ⇒
2 2 1 ⎩2α + β = 2
1 1
⎩β = 4
1
356 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

% & % & % & ⎧ ⎧


⎨α + β = 2 ⎨α = −1
2 1 1 2 2 2
= α2 + β2 ⇒ ⇒
1 2 1 ⎩2α + β = 1
2 2
⎩β = 3
2

Es gilt:
% & % & % & % &
3 1 1 −1
= (−1) · +4· ⇒ [b1 ]C = ,
2 2 1 4
% & % & % & % &
2 1 1 −1
= (−1) · +3· ⇒ [b2 ]C = .
1 2 1 3

Somit ist
% &
−1 −1
T B→C = .
4 3

Die Methode mit dem Umweg über die Standardbasis ist in der Regel einfacher, da alle
Vektoren bereits in der Standardbasis dargestellt werden.

Praxistipp

Zur Bildung der Inversen von A ∈ K2×2 kann man die folgende Formel benutzen:
4 5 1
4 d −b 5
A = ac db ⇒ A−1 = det(A) −c a .

6.5.3 Beispiele

Nun einige weitere Beispiele zum Basiswechsel und Transformationsmatrix.

Übung 6.55
• ◦ ◦ Man betrachte die folgenden zwei Basen von R2
6% & % &7 6% & % &7
1 0 1 5
B= , , C= , .
−1 1 −2 −4

a) Man bestimme die Transformationsmatrix von B nach C .


b) Wie lautet die Transformationsmatrix von C nach der Basis B?

v Lösung
a) Wie soeben gelernt, bestimmen wir die Transformationsmatrix von B nach der
Standardbasis E und die Transformationsmatrix von der Standardbasis E nach C .
Die Transformationsmatrix von B nach der Standardbasis E besteht einfach aus
6.5 • Basiswechsel
357 6
den beiden Basisvektoren, welche ja nichts anderes als die Koordinatenvektoren
bezüglich E sind:
% &
1 0
T B→E = .
−1 1

Die Transformationsmatrix von E nach C ist einfach die Inverse von T C →E :


% & % &−1 % &
1 5 1 5 − 23 − 65
T C →E = ⇒ T E →C = T −1
C →E = = 1 1
.
−2 −4 −2 −4 3 6

Also lautet die Transformationsmatrix von B nach C :


% &% & % &
−2 −5 1 0 1
−5
T B→C = T E →C T B→E = 13 16 = 16 16 .
3 6 −1 1 6 6

b) Die Transformationsmatrix von C nach B ist die Inverse der gefundenen Transfor-
mationsmatrix T B→C :
% &−1 % &
1
− 56 1 5
T C →B = T −1
B→C = 6
1 1
= .
6 6 −1 1 "

Übung 6.56
• ◦ ◦ Man betrachte die folgenden zwei Basen von R2
6% & % &7 6% & % &7
1 2 1 2
B= , , C= , .
1 1 2 3

a) Man bestimme die Transformationsmatrizen der Basen B und C nach der Standard-
basis E .
b) Man bestimme die Transformationsmatrix von T B→C .
c) Man betrachte den Koordinatenvektor v = [2, 2]T in der Basis B. Man drücke v in
der Standardbasis E und der Basis C aus.

v Lösung
a) Die Transformationsmatrix von B nach E ist:
%&
12
T B→E = .
11

Die Transformationsmatrix von C nach E ist


% &
12
T C →E = .
23
358 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Daher ergibt sich T E →C


% &−1 % &
12 −3 2
T E →C = T −1
C →E = = .
23 2 −1

b) Die Transformationsmatrix von B nach C bilden wir nach vertrautem Schema:


% &% & % &
−3 2 12 −1 −4
T B→C = T E →C T B→E = = .
2 −1 11 1 3

c) Die Koordinaten von v bezüglich der Basis B sind gegeben durch [v]B = [2, 2]T .
Um den Koordinatenvektor v in der Standardbasis zu erhalten, multiplizieren wir
[v]B mit T B→E wie folgt:
% &% & % &
12 2 6
[v]E = T B→E [v]B = = .
11 2 4

Probe: Der Koordinatenvektor [v]B = [2, 2]T in der Basis B bedeutet


% & % & % &
1 2 6
v=2 +2 = !
1 1 4

Um die Koordinaten von v in der Basis C zu bestimmen, multiplizieren wir [v]B mit
T B→C
% &% & % &
−1 −4 2 −10
[v]C = T B→C [v]B = = .
1 3 2 8
4 5
Probe: Dieses Resultat ist korrekt, denn der Koordinatenvektor [v]C = −10
8
415 425 465
bezüglich der Basis C ist v = −10 2 + 8 3 = 4 in der Standardbasis, was
zu zeigen war. "

Übung 6.57
• • ◦ Man betrachte die folgenden zwei Basen von R3
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫ ⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 6
⎪ 2 7 ⎪
⎬ ⎨ 1
⎪ 1 0 ⎪⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B = ⎣3⎦ , ⎣−1⎦ , ⎣3⎦ , C = ⎣0⎦ , ⎣0⎦ , ⎣ 1 ⎦ .

⎩ ⎪
⎭ ⎪
⎩ ⎪

2 1 2 0 1 −1

a) Man bestimme die Transformationsmatrix von B nach C .


b) Der Vektor v habe die Koordinaten [1, 2, 3]T bezüglich der Basis B. Wie lauten die
Koordinaten von v bezüglich der Basis C ?
6.5 • Basiswechsel
359 6
v Lösung
a) Die Transformationsmatrix von B nach der Standardbasis, T B→E , hat bekanntlich
die Vektoren der Basis B als Spalten:
⎡ ⎤
6 2 7
⎢ ⎥
T B→E = ⎣3 −1 3⎦ .
2 1 2

Die Transformationsmatrix T E →C ist einfach die Inverse von T C →E ; diese hat die
Vektoren der Basis C als Spalten:
⎡ ⎤ ⎡ ⎤
11 0 1 −1 −1
⎢ ⎥ ⎢ ⎥
T C →E = ⎣0 0 1 ⎦ ⇒ T E →C = T −1
C →E = ⎣0 1 1 ⎦ .
0 1 −1 0 1 0

Die Transformationsmatrix von B nach C lautet somit:


⎡ ⎤⎡ ⎤ ⎡ ⎤
1 −1 −1 6 2 7 1 2 2
⎢ ⎥⎢ ⎥ ⎢ ⎥
T B→C = T E →C T B→E = ⎣0 1 1 ⎦ ⎣3 −1 3⎦ = ⎣5 0 5⎦ .
0 1 0 2 1 2 3 −1 3
91:
b) In der Basis B hat v die Koordinaten [v]B = 2 . Um die Koordinaten von v
3
bezüglich der Basis C zu bestimmen, wenden wir einfach T B→C an
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 2 2 1 11
⎢ ⎥⎢ ⎥ ⎢ ⎥
[v]C = T B→C [v]B = ⎣5 0 5⎦ ⎣2⎦ = ⎣20⎦ .
3 −1 3 3 10
91: 96: 9 2 : 97: 9 31 :
Probe: [v]B = 2 bedeutet v = 1 3 + 2 −1 + 3 3 = 10 !. Analog:
9 11 : 3 91: 921 : 2 :
91 0 : 9 31 10
[v]C = 20 bedeutet v = 11 0 + 20 0 + 10 1 = 10 ! "
10 0 1 −1 10

Übung 6.58
• • ◦ Man betrachte den folgenden Unterraum V ⊂ R3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
, 0 −1 1 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
V = v1 = ⎣1⎦ , v2 = ⎣ k ⎦ , v3 = ⎣1⎦ , k ∈ R.
1 0 k

a) Man zeige, dass für alle k ∈ R gilt: V = R3 .


b) Man bestimme die Transformationsmatrizen des Basiswechsels zwischen der Basis
B = {v1 , v2 , v3 } und der Standardbasis von R3 .
c) Man bestimme die Koordinaten des Vektors v = [2, 1, 2]T bezüglich B.
360 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

v Lösung
a) Wir untersuchen, ob die drei Vektoren linear unabhängig sind. Zu diesem Zweck
berechnen wir die Determinante
⎡ ⎤ ( (
| | | (0 −1 1( ( ( ( (
( ( ( −1 1 ( ( −1 1 (
⎢ ⎥ ( ( ( ( ( (
det ⎣v1 v2 v3 ⎦ = (1 k 1( = 0 − 1 ( ( +1 ( ( = −1 ̸= 0.
( ( ( 0 k( ( k 1(
| | | (1 0 k( @ AB C @ AB C
=−k−0=−k =−1−k

Weil die Determinante für alle k ∈ R ungleich Null ist, sind die gegebenen Vektoren
v1 , v2 , v3 immer linear unabhängig und somit dim(V ) = 3. Weil V ein Unterraum
von R3 ist und dim(V ) = 3 folgt, dass V gleich den ganzen Raum R3 sein muss,
d. h. V = R3 .
b) Die Transformationsmatrix von der Basis B nach der Standardbasis ist jetzt Form-
sache:
⎡ ⎤
0 −1 1
⎢ ⎥
T B→E = ⎣1 k 1⎦ .
1 0 k

Durch Invertieren erhalten wir die Transformationsmatrix von der Standardbasis


E nach B:
⎡ ⎤−1 ⎡ ⎤
0 −1 1 −k2 −k k + 1
⎢ ⎥ ⎢ ⎥
T E →B = T −1
B→E = ⎣1 k 1⎦ = ⎣k − 1 1 −1 ⎦ .
1 0 k k 1 −1

c) Mit T E →B transformieren wir die Koordinaten von v von der Standardbasis von
R3 nach der Basis B:
⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
2 −k2 −k k + 1 1 −2k2 + k + 2
⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
[v]E = ⎣1⎦ ⇒ [v]B = T E →B [v]E = ⎣k − 1 1 −1 ⎦ ⎣2⎦ = ⎣ 2k − 3 ⎦
2 k 1 −1 3 2k − 1

d. h. v = (−2k2 + k + 2)v1 + (2k − 3)v2 + (2k − 1)v3 . "

Übung 6.59
• • ◦ Es sei V = P3 (R) der Vektorraum aller Polynome mit Grad ≤ 3. Man drücke das
Polynom p(x) = x3 + x2 + x + 1 bezüglich der folgenden Basis aus:
< =
B = 1, x + 1, x(x + 1), x2 (x + 1) .

v Lösung
Die Standardbasis von V = P3 (R) ist {1, x, x2 , x3 }. In dieser Basis hat das vorgegebene
Polynom p(x) = x3 + x2 + x + 1 den folgenden Koordinatenvektor:
6.5 • Basiswechsel
361 6
⎡ ⎤
1
⎢1⎥
⎢ ⎥
[p]E = ⎢ ⎥ .
⎣1⎦
1

Um die Koordinaten von p in der neuen Basis B auszudrücken, müssen wir die Transfor-
mationsmatrix von der Standardbasis E nach B berechnen. Dazu bestimmen wir zuerst
die Transformationsmatrix von B nach E . Die Spalten dieser Transformationsmatrix
T B→E sind genau die Koordinaten der Basisvektoren der neuen Basis B bezüglich der
Standardbasis E . Die neuen Basiselemente entsprechen den folgenden Vektoren in der
Standardbasis
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0
⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[1]E = ⎢ ⎥ , [x + 1]E = ⎢ ⎥ , [x(x + 1)]E = ⎢ ⎥ , [x2 (x + 1)]E = ⎢ ⎥ .
⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦
0 0 0 1

Diese Vektoren bilden die Spalten der Transformationsmatrix T B→E :


⎡ ⎤
1 1 0 0
⎢0
⎢ 1 1 0⎥⎥
T B→E =⎢ ⎥.
⎣0 0 1 1⎦
0 0 0 1

Die Transformationsmatrix T E →B ist einfach die Inverse von T B→E

⎡ ⎤−1 ⎡ ⎤
1 1 0 0 1 −1 1 −1
⎢0 0⎥ ⎢0 1 −1 1 ⎥
⎢ 1 1 ⎥ ⎢ ⎥
T E →B =⎢ ⎥ =⎢ ⎥.
⎣0 0 1 1⎦ ⎣0 0 1 −1⎦
0 0 0 1 0 0 0 1

Um p(x) in der neuen Basis auszudrücken, multiplizieren wir diesen Vektor mit T E →B
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 −1 1 −1 1 0
⎢0 1⎥ ⎢ ⎥ ⎢ ⎥
⎢ 1 −1 ⎥ ⎢1⎥ ⎢1⎥
[p]B = T E →B [p]E = ⎢ ⎥⎢ ⎥ = ⎢ ⎥
⎣0 0 1 −1⎦ ⎣1⎦ ⎣0⎦
0 0 0 1 1 1

d. h. in der neuen Basis sieht p(x) wie folgt aus

p(x) = (x + 1) + x2 (x + 1).

Probe: p(x) = (x + 1) + x2 (x + 1) = x3 + x2 + x + 1 ! "


362 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

Übung 6.60
• ◦ ◦ Man betrachte P2 (R) mit den folgenden Basen:

B = {1, x, x2 }, C = {x − 1, 2x2 − 1, x2 − 3x + 2}.

a) Man bestimme die Transformationsmatrizen des Basiswechsels zwischen B und C .


b) Man drücke das Polynom p(x) = x2 in der Basis C aus.

v Lösung
a) Wir drücken die Elemente der Basis C in der Basis B = Standardbasis aus:

⎤ ⎡ ⎤ ⎡ ⎤
−1 −1 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[x − 1]B = ⎣ 1 ⎦ , [2x2 − 1]B = ⎣ 0 ⎦ , [x2 − 3x + 2]B = ⎣−3⎦ .
0 2 1

Diese Koordinatenvektoren bilden die Spalten der Transformationsmatrix T C →B :


⎡ ⎤
−1 −1 2
⎢ ⎥
T C →B = ⎣ 1 0 −3⎦ .
0 2 1

Die Transformationsmatrix T B→C ist dann


⎡ ⎤
−6 −5 −3
⎢ ⎥
T B→C = T −1
C →B = ⎣ 1 1 1 ⎦.
−2 −2 −1

b) In der Standardbasis B hat das Polynom p(x) = x2 die folgenden Koordinaten


⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
0 −6 −5 −3 0 −3
2 ⎢ ⎥ 2 2 ⎢ ⎥⎢ ⎥ ⎢ ⎥
[x ]B = ⎣0⎦ ⇒ [x ]C = T B→C [x ]B = ⎣ 1 1 1 ⎦ ⎣0⎦ = ⎣ 1 ⎦ ,
1 −2 −2 −1 1 −1

d. h. p(x) = −3(x − 1) + (2x2 − 1) − (x2 − 3x + 2).


Probe: p(x) = −3(x − 1) + (2x2 − 1) − (x2 − 3x + 2) = −3x + 3 + 2x2 − 1 −
x + 3x − 2 = x2 !
2 "

Übung 6.61
• • ◦ Man betrachte V = R2×2 mit der folgenden Basis:
6 %& % & % & % &7
1 1 10 21 0 1
B = B1 = , B2 = , B3 = , B4 =
1 −1 01 11 −1 1
6.5 • Basiswechsel
363 6

a) Man bestimme die Transformationsmatrix von der


% Standardbasis
& nach B.
−1 1
b) Man bestimme die Koordinaten der Matrix A = in der Basis B
3 1

v Lösung
a) Zunächst bestimmen wir die Koordinatenvektoren der Basiselemente von B bezüg-
lich E :

⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 2 0
⎢1⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[B1 ]E = ⎢ ⎥ , [B2 ]E = ⎢ ⎥ , [B3 ]E = ⎢ ⎥ , [B4 ]E = ⎢ ⎥ .
⎣1⎦ ⎣0⎦ ⎣1⎦ ⎣−1⎦
−1 1 1 1

Die Transformationsmatrix von B zur Standardbasis ist somit:


⎡ ⎤
1 1 2 0
⎢1 0
⎢ 1 1⎥ ⎥
T B→E =⎢ ⎥.
⎣1 0 1 −1⎦
−1 1 1 1

Deren Inverse ist die Transformationsmatrix von der Standardbasis nach der Basis
B:
⎡ ⎤
1 0 −1 −1
⎢ 2 −1 −2 −1⎥
⎢ ⎥
T E →B = T −1
B→E =⎢ ⎥.
⎣−1 12 32 1 ⎦
0 12 − 12 0

b) In der Standardbasis E hat die Matrix A die folgenden Koordinaten


⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
−1 1 0 −1 −1 −1 −5
⎢1⎥ ⎢ 2 −1 −2 −1⎥ ⎢ 1 ⎥ ⎢−10⎥
⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
[A]E = ⎢ ⎥ ⇒ [A]B = T E →B [A]E = ⎢ ⎥⎢ ⎥ = ⎢ ⎥,
⎣3⎦ ⎣−1 12 32 1 ⎦ ⎣ 3 ⎦ ⎣ 7 ⎦
1 0 12 − 21 0 1 −1

d. h. A = −5B1 − 10B2 + 7B3 − B4 . "

Übung 6.62
• • ◦ Es sei V = C2×2 .
a) Man bestimme die Transformationsmatrix von der Standardbasis von C2×2 nach
der Basis B:
364 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

6 % & % & % & % &7


10 01 0 −i 1 0
B = σ0 = , σx = , σy = , σz = .
01 10 i 0 0 −1

Die Matrizen σ0 , σx , σy , σz sind die Pauli-Matrizen.


b) Man stelle die folgende Matrix als Linearkombination der Pauli-Matrizen dar:
% &
a0 + a3 a1 − ia2
ψ= , a0 , a1 , a2 , a3 ∈ R.
a1 + ia2 a0 − a3

v Lösung
a) Die Pauli-Matrizen haben die folgenden Koordinatenvektoren bezüglich der Stan-
dardbasis von C2×2 :
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 1
⎢0⎥ ⎢1⎥ ⎢−i⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[σ0 ]E = ⎢ ⎥ , [σx ]E = ⎢ ⎥ , [σy ]E = ⎢ ⎥ , [σz ]E = ⎢ ⎥ .
⎣0⎦ ⎣1⎦ ⎣i ⎦ ⎣0⎦
1 0 0 −1

Die Transformationsmatrix von B zur Standardbasis E ist:


⎡ ⎤
1 0 0 1
⎢0
⎢ 1 −i 0⎥⎥
T B→E =⎢ ⎥.
⎣0 1 i 0⎦
1 0 0 −1

Deren Inverse ist:


⎡1 1

2 0 0 2
⎢0

1 1
0 ⎥⎥
T E →B = T −1
B→E = ⎢
2
i
2 ⎥.
⎣0 2− 2i 0 ⎦
1
2 0 0 − 12

b) In der Standardbasis E hat die Matrix ψ die folgenden Koordinaten


⎡ ⎤
a0 + a3
⎢a − ia ⎥
⎢ 2⎥
[ψ]E = ⎢ 1 ⎥ ⇒ [ψ]B = T E →B [ψ]E
⎣a1 + ia2 ⎦
a0 − a3
⎡1 1
⎤⎡ ⎤ ⎡ ⎤
2 0 0 a0 + a3
2 a0
⎢ 0 1 1 0 ⎥ ⎢a − ia ⎥ ⎢a ⎥
⎢ ⎥⎢ 1 2⎥ ⎢ 1⎥
= ⎢ 2i 2 i ⎥⎢ ⎥ = ⎢ ⎥.
⎣ 0 2 − 2 0 ⎦ ⎣a1 + ia2 ⎦ ⎣a2 ⎦
1 1
2 0 0 −2 a0 − a3 a3
6.5 • Basiswechsel
365 6
Schreiben wir die Pauli-Matrizen als Vektor σ = [σ0 , σx , σy , σz ]T , so können wir ψ
als ein Skalarprodukt wie folgt auffassen:
⎡ ⎤
a0
⎢a ⎥
⎢ ⎥
ψ = a0 σ0 + a1 σx + a2 σy + a3 σz = a · σ , a = ⎢ 1⎥ .
⎣a2 ⎦
a3

Aus diesem Grund heißt die Matrix ψ Pauli-Vektor. "

Übung 6.63
• • ◦ Man beweise die Kürzungsformel für den Basiswechsel

T B→D = T C →D T B→C .

v Lösung
Es sei V ein Vektorraum versehen mit den Basen

B = {b1 , · · · , bn }, C = {c1 , · · · , cn }, D = {d1 , · · · , dn }.

Jeder Vektor v ∈ V lässt sich dann als Linearkombination der Basiselemente der drei
Basen B, C und D darstellen:

n
' n
' n
'
v= xk bk = yj cj = zi di .
k=1 j=1 i=1

x1 , · · · , xn , y1 , · · · , yn und z1 , · · · , zn sind die Koordinaten von v bezüglich den drei


Basen:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x1 y1 z1
⎢.⎥ ⎢.⎥ ⎢.⎥
[v]B = ⎣ .. ⎥

⎦, [v]C = ⎣ .. ⎥

⎦, [v]D = ⎣ .. ⎥

⎦.
xn yn zn

Da D eine Basis ist, können wir die Basisvektoren von B als Linearkombination der
Vektoren d1 , · · · , dn darstellen:

n
'
bk = pik di (6.29)
i=1

pik sind die Komponenten der Transformationsmatrix T B→D . Analog können wir die
Basisvektoren von B in der Basis C darstellen
n
'
bk = sjk cj (6.30)
j=1
366 Kapitel 6 • Vektorraumstruktur: Basis, Dimension und Koordinaten

sowie die Basisvektoren von C in der Basis D


n
'
cj = tij di . (6.31)
i=1

sjk und tij sind die Komponenten der Transformationsmatrizen T B→C bzw. T C →D . Mit
Gl. (6.29) gilt einerseits:

n n
M n
N n
M n N
' (6.29) ' ' ' '
v= xk bk = xk pik di = pik xk di .
k=1 k=1 i=1 i=1 k=1

Es folgt:

n
'
zi = pik xk (6.32)
k=1

Mit Gls. (6.30) und (6.31) gilt anderseits:


⎛ ⎞
n
' n '
' n ' n '
n ' n n
' n
'
(6.30) (6.31)
v= xk bk = xk sjk cj = xk sjk tij di = ⎝ tij sjk ⎠ di .
k=1 k=1 j=1 j=1 k=1 i=1 i=1 j,k=1

Es folgt:
⎛ ⎞
n
' n
' n
'
zi = tij sjk xk = ⎝ tij sjk ⎠ xk . (6.33)
j,k=1 k=1 j=1

Vergleichen wir Gl. (6.33) mit Gl. (6.32), so erhalten wir

n
'
pik = tij sjk .
j=1

Dies ist genau die Definition des Produktes der Matrizen T B→C und T C →D , d. h.

T B→D = T C →D T B→C . "


367 III

Lineare Abbildungen
Inhaltsverzeichnis

Kapitel 7 Lineare Abbildungen I: Definition und


Matrixdarstellung – 369

Kapitel 8 Lineare Abbildungen II: Kern, Bild und


Basiswechsel – 421

Kapitel 9 Eigenwerte und Eigenvektoren – 487

Kapitel 10 Prüfungstrainer – 549


369 7

Lineare Abbildungen I:
Definition und
Matrixdarstellung
Inhaltsverzeichnis

7.1 Lineare Abbildungen – 370


7.1.1 Definition einer linearen Abbildung – 370
7.1.2 Spezielle lineare Abbildungen – 372
7.1.3 Die Abbildungsräume Hom(V, W) und End(V) – 373
7.1.4 Beispiele – 374

7.2 Matrixdarstellung von linearen


Abbildungen – 379
7.2.1 Einführendes Beispiel – 379
7.2.2 Die Darstellungsmatrix – 380
7.2.3 Geometrische Interpretation linearer
Abbildungen – 386
7.2.4 Eigenschaften der Darstellungsmatrix – 388
7.2.5 Kochrezept – 390
7.2.6 Beispiele – 391

7.3 Wichtige lineare Abbildungen – 408


7.3.1 Wichtige lineare Abbildungen R2 → R2 – 408
7.3.2 Wichtige lineare Abbildungen R3 → R3 – 410
7.3.3 Klassifikation von linearen Abbildungen – 416

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_7
370 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

In diesem Kapitel beschäftigen wir uns mit dem zentralen Thema der linearen
Abbildungen zwischen Vektorräumen.

n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 7 sind Sie in der Lage:
5 lineare Abbildungen zwischen Vektorräumen und deren Eigenschaften zu verstehen
und zu verifizieren,
5 die wichtigsten speziellen linearen Abbildungen bzw. Morphismen zu unterschei-
den,
5 den Zusammenhang zwischen linearen Abbildungen und Darstellungsmatrizen zu
erklären,
5 Darstellungsmatrizen von linearen Abbildungen bezüglich vorgegebenen Basen zu
bestimmen,
5 wichtige lineare Abbildungen geometrisch interpretieren und deren Matrixdarstel-
lungen bestimmen und anwenden zu können,
5 Klassifikation von linearen Abbildungen wie Streckungen, Rotationen, Spiegelun-
gen und Projektionen im R2 und R3 zu erklären und anzuwenden.

7.1 Lineare Abbildungen

7.1.1 Definition einer linearen Abbildung

Es seien V und W zwei Vektorräume über dem Körper K (normalerweise K = R, C).

# Definition 7.1 (Lineare Abbildung)


Eine Abbildung F : V → W heißt linear, falls sie die folgenden zwei Bedingungen erfüllt:
(L1) F(v + w) = F(v) + F(w), ∀v, w ∈ V (Additivität)
(L2) F(α v) = α F(v), ∀v ∈ V , α ∈ K (Homogenität) $

> Bemerkung
Bedingungen (L1) und (L2) heißen Linearitätsbedingungen. Sie besagen, dass es bei
linearen Abbildungen keine Rolle spielt, ob man zuerst zwei Vektoren addiert und
dann deren Summe mit F abbildet oder zuerst die Vektoren separat abbildet und dann
die Summe der Resultate bildet (. Abb. 7.2). Das gleiche Prinzip gilt auch bei der
Skalarmultiplikation eines Vektors mit einer Zahl aus K.

Praxistipp

Die Linearitätsbedingungen (L1) und (L2) kann man zu einer einzigen äquivalenten
kompakten Bedingung zusammenfassen:

(L) F(αv + βw) = αF(v) + βF(w) (7.1)

für alle v, w ∈ V und α, β ∈ K. In der Praxis kann man entweder Bedingungen (L1)
und (L2) oder die kompakte Bedingung (L) überprüfen.
7.1 • Lineare Abbildungen
371 7
Vektorraum Homomorphismen
Eine allgemeine lineare Abbildung F : V → W nennt man auch einen Homo-
morphismus zwischen den Vektorräumen V und W . Homomorphismen und lineare
Abbildungen sind synonym.

> Bemerkung
Das Wort Homomorphismus stammt aus dem Griechischen und bedeutet „homo =
gleiche“ und „morphé = Form“. Ein Homomorphismus ist also eine Abbildung, welche
„die Struktur unverändert lässst“. Da die lineare Algebra sich mit Vektorräumen
beschäftigt, wollen wir sicherstellen, dass solche Homomorphismen die Vektorraum-
struktur von V und W erhalten bzw. respektieren. Diese umfasst sowohl die additive
Struktur F(v + w) = F(v) + F(w) als auch die skalare Multiplikationsstruktur F(α v) =
α F(v). Man erkennt, dass ein Homomorphismus in der linearen Algebra nichts anderes
ist als ein anderer Begriff für lineare Abbildungen.

Eigenschaften von linearen Abbildungen


# Satz 7.1 (Wichtige Eigenschaften von linearen Abbildungen)
5 Für jede lineare Abbildung F : V → W gilt stets F(0) = 0.
5 Lineare Abbildungen F : V → W bilden Linearkombinationen auf Linearkombina-
tionen ab:
M n N n
' '
F αi vi = αi F(vi ), vi ∈ V , αi ∈ K.
i=1 j=1

5 Die Zusammensetzung von linearen Abbildungen ist wiederum eine lineare Abbildung.
Genauer: Es seien F : V → W und G : W → Z linear. Dann ist die Komposition
G ◦ F : V → Z linear. $

# Beispiel
Alle lineare Abbildungen F : R → R sind von der Form F(x) = a x mit a ∈ R. Denn man
kann leicht die Linearitätsbedingungen (L1) und (L2) für F(x) = a x nachweisen:
(L1) Es seien x, y ∈ R. Dann gilt:
Def. Def.
F(x + y) = a(x + y) = a x + a y = F(x) + F(y) !

(L2) Es seien x ∈ R und α ∈ R. Dann gilt:


Def. Def.
F(α x) = a(α x) = α (a x) = α F(x) ! $

> Bemerkung
Beachte, dass F(x) = a x + b mit b ̸= 0 nicht linear ist. Tatsächlich ist z. B. Bedingung
(L1) nicht erfüllt:

Def. Def.
F(x + y) = a(x + y) + b aber F(x) + F(y) = (a x + b) + (a y + b) ✗

F(x) = a x + b ist eine sogenannte affine Abbildung.


372 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

# Beispiel
Man betrachte die Abbildungen F1 : R2 → R2 und F2 : R2 → R3 definiert durch
⎡ ⎤
M% &N % & M% &N v2 − v22
v1 v1 − v2 v1 ⎢ 1 ⎥
F1 = , F2 = ⎣v1 + v2 ⎦ .
v2 v1 + v2 v2
1 − v2

F1 ist linear (vgl. Übung 7.1). F2 ist aber nicht linear. Die Probleme sind die quadratischen
Terme im ersten Eintrag und der konstante Term im dritten Eintrag (vgl. Übung 7.1). $

Praxistipp

Allgemein: Eine lineare Abbildung Rn → Rm darf grundsätzlich nur Terme der Form
α1 v1 +α2 v2 +· · · αn vn enthalten, aber keine quadratischen Terme oder höhere Potenzen,
ebenso keine konstanten Terme und nichtlineare Terme (wie sin(v1 ), ev1 +v2 log(v3 ),
usw.).

# Beispiel
Es sei V = Pn (R) der Vektorraum der reellen Polynome vom Grad ≤ n. Dann definiert die
Ableitung-Abbildung F : Pn (R) → Pn (R)

dp(x)
F(p(x)) = = p′ (x)
dx

eine lineare Abbildung (vgl. Übung 7.3). $

# Beispiel
Es sei V = C 0 ([0, 1]) der Vektorraum der stetigen Funktionen über [0, 1]. Dann ist die
Abbildung F : C 0 ([0, 1]) → R definiert durch
T 1
F(ϕ(x)) = ϕ(x)dx
0

linear (vgl. Übung 7.4). $

7.1.2 Spezielle lineare Abbildungen

Einige spezielle lineare Abbildungen bzw. Homomorphismen haben einen gesonder-


ten Namen (. Abb. 7.1):

# Definition 7.2
5 F heißt Endomorphismus ⇔ F ist linear und W = V .
5 F heißt Isomorphismus ⇔ F ist linear und bijektiv.
5 F heißt Automorphismus (oder Monomorphismus) ⇔ F ist linear, bijektiv und W = V .
$
7.1 • Lineare Abbildungen
373 7
. Abb. 7.1 Zusammenhang der
Begriffe

7.1.3 Die Abbildungsräume Hom(V, W) und End(V)


# Definition 7.3 (Definition von Hom(V, W) und End(V))
5 Die Menge aller linearen Abbildungen (Homomorphismen) von V nach W bezeichnet
man mit:

Hom(V , W ) := {F : V → W | F ist linear} (7.2)

5 Im Falle W = V bezeichnet man die Menge aller Endomorphismen (d. h. linearen


Abbildungen von V auf V ) mit:

End(V ) := Hom(V , V ) = {F : V → V | F ist linear} (7.3)

Hom(V, W) und End(V) sind Vektorräume


Es seien F, G ∈ Hom(V , W ) und a ∈ K. Dann verstehen wir unter F + G und a F die
Abbildungen definiert durch

(F + G)(v) = F(v) + G(v), (a F)(v) = a F(v), ∀v ∈ V . (7.4)

Es ist leicht zu zeigen, dass die Abbildungen F + G und a F wieder linear sind,
d. h. F + G, a F ∈ Hom(V , W ) (vgl. Übung 7.7). Die Menge Hom(V , W ) ist
somit abgeschlossen bezüglich der Addition und Skalarmultiplikation von Funktionen.
Daraus folgt:

# Satz 7.2 (Hom(V, W) und End(V) sind Vektorräume)


Hom(V , W ) und End(V ) versehen mit der üblichen Addition und Skalarmultiplikation
von Funktionen sind Vektorräume über K. $
374 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

7.1.4 Beispiele

Übung 7.1
◦ ◦ ◦ Sind die folgenden Abbildungen linear?
a) F : R2 → R2 definiert durch
K v1 L 4 v1 −v2 5
F v2 = v1 +v2 .

b) F : R2 → R3 definiert durch
F G
K v1 L v21 −v22
F v2 = v1 +v2 .
1−v2

c) F : R4 → R2 definiert durch
D v1 E 9 :
v2 v1 −2v2 +3v3
F v3 = v1 +v3 .
v4

d) F : R3 → R3 definiert durch
(antrn) luntral
-
th

> v1 ? F
v1 −v2 +2
G
F(u+r) =

F v2 = v1 +v2 +1 .
v3 v1 −v3 +3

v Lösung
a) Ja. Wir müssen einfach nachweisen, dass F die Linearitätsbedingungen (L1) und
(L2) erfüllt. Es seien v = [v1 , v2 ]T ∈ R2 und w = [w1 , w2 ]T ∈ R2 sowie die Zahl
α ∈ R vorgegeben. Dann gilt:
% & % &
Def. v1 + w1 (v1 + w1 ) − (v2 + w2 )
(L1) F(v + w) = F =
v2 + w2 (v1 + w1 ) + (v2 + w2 )
% & % &
v1 − v2 w1 − w2
= +
v1 + v2 w1 + w2
Def.
= F(v) + F(w) !
% & % & % &
αv1 Def. αv1 − αv2 v1 − v2 Def.
(L2) F(αv) = F = =α = αF(v) !
αv2 αv1 αw2 v1 + v2

Da beide Bedingungen (L1) und (L2) erfüllt sind ist F linear.


7.1 • Lineare Abbildungen
375 7
b) Nein. (L2) ist nicht erfüllt. Ein Gegenbeispiel genügt: Für v = [1, 0]T gilt
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
M% &N 22 − 02 4 12 − 02 2
2 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F(2v) = F = ⎣ 2 + 0 ⎦ = ⎣2⎦ aber 2F(v) = 2 ⎣ 1 + 0 ⎦ = ⎣2⎦ ✗
0
1−0 1 1−0 2

Die gegebene Abbildung ist somit nicht linear. Das Problem sind die quadratischen
Terme in der ersten Komponente sowie der konstante Term in der dritten Kompo-
nente.
c) Ja. Denn F erfüllt die Linearitätsbedingungen (L1) und (L2). Konkret seien v =
[v1 , v2 , v3 , v4 ]T ∈ R4 , w = [w1 , w2 , w3 , w4 ]T ∈ R4 und α ∈ R gegeben. Es gilt:
⎡ ⎤
v1 + w1 % &
⎢v + w ⎥
⎢ 2 ⎥ Def. (v1 + w1 ) − 2(v2 + w2 ) + 3(v3 + w3 )
(L1) F(v + w) = F ⎢ 2 ⎥ =
⎣v3 + w3 ⎦ (v1 + w1 ) + (v3 + w3 )
v4 + w4
% & % &
v1 − 2v2 + 3v3 w1 − 2w2 + 3w3 Def.
= + = F(v) + F(w) !
v1 + v3 w1 + w3
⎡ ⎤
αv1 % & % &
⎢αv ⎥
⎢ 2 ⎥ Def. αv1 − 2αv2 + 3αv3 v1 − 2v2 + 3v3
(L2) F(αv) = F ⎢ ⎥ = =α
⎣αv3 ⎦ αv1 + αv3 v1 + v3
αv4
Def.
= αF(v) !

d) Nein. Denn (L1) ist nicht erfüllt:


⎡ ⎤
(v1 + w1 ) − (v2 + w2 ) + 2
⎢ ⎥
F(v + w) = ⎣(v1 + w1 ) + (v2 + w2 ) + 1⎦
(v1 + w1 ) − (v3 + w3 ) + 3

aber
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
v1 − v2 + 2 w1 − w2 + 2 v1 + w1 − v2 − w2 + 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F(v) + F(w) = ⎣v1 + v2 + 1⎦ + ⎣w1 + w2 + 1⎦ = ⎣v1 + w1 + v2 + w2 + 2⎦
v1 − v3 + 3 w1 − w3 + 3 v1 + w1 − v3 − w3 + 6

d. h. F(v + w) ̸= F(v) + F(w). Das Problem sind die konstanten Terme. "

Übung 7.2
◦ ◦ ◦ Es sei A ∈ Km×n . Man zeige, dass die Abbildung F : Kn → Km , v → F(v) = Av
linear ist.
376 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

v Lösung
Wir weisen einfach die Linearitätsbedingungen (L1) und (L2) nach. Es seien v, w ∈ Kn
und α ∈ K. Mit den Rechenregeln für Matrizen und Vektoren folgt dann:
Def. Def.
(L1) F(v + w) = A(v + w) = Av + Aw = F(v) + F(w) !
Def. Def.
(L2) F(α v) = A(α v) = α Av = αF(v) !

Somit ist F linear. "

Übung 7.3
◦ ◦ ◦ Sei Pn (R) die Menge aller reellen Polynome vom Grad ≤ n. Man zeige, dass die
Ableitung F : Pn (R) → Pn (R), F(p(x)) = dp(x) ′
dx = p (x) ein Homomorphismus ist. Ist
F ein Endomorphismus? Ist F ein Automorphismus?

v Lösung
Wir müssen nur überprüfen, dass die Linearitätsbedingungen (L1) und (L2) erfüllt sind.
Es seien also p(x), q(x) ∈ Pn (R) und α ∈ R. Dann gilt:
(L1) Weil man die Summe von Funktionen gliedweise differenzieren kann, haben wir:
Def. Def.
F(p(x) + q(x)) = (p(x) + q(x))′ = p′ (x) + q′ (x) = F(p(x)) + F(q(x)) !
Def. Def.
(L2) Es gilt: F(αp(x)) = (αp(x))′ = αp′ (x) = αF(p(x)) !

Somit ist F linear, also ein Homomorphismus. Weil der Ausgangs- und Zielvektorraum
übereinstimmen, ist F ein Endomorphismus. Beachte, dass F nicht injektiv ist, denn

F(x + 2) = (x + 2)′ = 1 = (x + 1)′ = F(x + 1).

Weil F nicht injektiv ist, kann F nicht bijektiv sein, also kein Automorphismus. "

Übung 7.4
◦ ◦ ◦ Es sei V = C 0 ([0, 1]) der Vektorraum der stetigen Funktionen auf [0, 1]. Man
verifiziere die Linearität der Abbildung F : C 0 ([0, 1]) → R definiert durch
T 1
F(ϕ(x)) = ϕ(x)dx.
0

v Lösung
Um eine vorgegebene Abbildung auf Linearität zu überprüfen, muss man entweder
(L1) und (L2) oder die äquivalente Bedingung (L) nachweisen. Um dies nochmals
deutlich zu machen, werden wir in diesem Beispiel die Bedingung (L) anwenden. Es
seien ϕ(x), ψ(x) ∈ C 0 ([0, 1]) und λ, µ ∈ R. Aus den Eigenschaften des Integrals
folgt:
7.1 • Lineare Abbildungen
377 7
T 1 T 1 T 1
Def.
F(λϕ(x) + µψ(x)) = (λϕ(x) + µψ(x))dx = λ ϕ(x)dx + µ ψ(x)dx
0 0 0
Def.
= λF(ϕ(x)) + µF(ψ(x)) !

Somit ist F linear. "

Übung 7.5
• ◦ ◦ Welche der folgenden Abbildungen sind linear?
a) F : Rn×n → Rn×n , A → AT
S
b) F : Rn×n → R, A → Spur(A) = ni=1 aii
c) F : Rn×n → R, A → det(A)
d) F : Rn×n → Rn×n , A → AM mit M ∈ Rn×n

v Lösung
a) Ja. Es seien A, B ∈ Rn×n und α ∈ R gegeben. Es gilt:
(L1) F(A + B) = (A + B)T = AT + BT = F(A) + F(B) !
(L2) F(αA) = (αA)T = αAT = αF(A) !
Weil beide Linearitätsbedingungen (L1) und (L2) erfüllt sind, ist F linear.
b) Ja. Es seien A, B ∈ Rn×n und α ∈ R. Dann gilt:

n
'
(L1) F(A + B) = Spur(A + B) = (aii + bii )
i=1
n
' n
'
= aii + bii = Spur(A) + Spur(B) = F(A) + F(B) !
i=1 i=1
n
' n
'
(L2) F(α A) = Spur(α A) = (α aii ) = α aii = Spur(A) = αF(v) !
i=1 i=1

4 5
c) Nein. (L1) ist nicht erfüllt. Durch ein Gegenbeispiel zeigen wir das. Für A = 10 00 ,
40 05
B = 0 1 gilt det(A) = 0 und det(B) = 0 ⇒ det(A) + det(B) = 0. Andererseits ist
4 5
det(A + B) = det 10 01 = 1. Wegen det(A) + det(B) ̸= det(A + B) ist F nicht linear.
d) Ja. Wir zeigen, dass die Bedingung (L) erfüllt ist. Es seien A, B ∈ Rn×n und α, β ∈ R.
Aus den Regeln der Matrixmultiplikation folgt

F(αA + βB) = (αA + βB)M = αAM + βBM = αF(A) + βF(B) ! "

Übung 7.6
• ◦ ◦ Man zeige: Für jede lineare Abbildung F : V → W gilt F(0) = 0.
378 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

v Lösung
(L1)
Dies folgt direkt aus (L1): F(0) = F(0 + 0) = F(0) + F(0) ⇒ F(0) = 0.
(L2)
Alternative: Dies folgt auch aus (L2) mit α = 0: F(0) = F(0 v) = 0 F(v) = 0. "

Übung 7.7
• ◦ ◦ Es seien F, G ∈ Hom(V , W ) und a ∈ K. Man zeige, dass die Abbildungen F + G
und a F linear sind.

v Lösung
Linearität von F + G: Wir überprüfen mittels (L). Es seien v, w ∈ V und α, β ∈ K.
Dann gilt wegen der Linearität von F und G:

Def.
(F + G)(αv + βw) = F(αv + βw) + G(αv + βw)
F,G linear
= α F(v) + β F(w) + α G(v) + β G(w)
K L K L
= α F(v) + G(v) + β F(w) + G(w)
Def.
= α (F + G)(v) + β (F + G)(w) !

Somit ist F + G linear.


Linearität von a F: Wie oben, verifizieren wir (L). Es seien v, w ∈ V und α, β ∈ K.
Dann folgt aus der Linearität von F:

Def. F linear K L
(a F)(αv + βw) = a F(αv + βw) = a α F(v) + β F(w)
K L K L Def.
= α a F(v) + β a F(w) = α (a F)(v) + β (a F)(w) !

Somit ist a F linear. "

Übung 7.8
• ◦ ◦ Man zeige, dass die Zusammensetzung von linearen Abbildungen wieder eine
lineare Abbildung ist.

v Lösung
Es seien F : V → W und G : W → Z linear. Zu zeigen ist, dass die Komposition
G ◦ F : V → Z, definiert durch (G ◦ F)(v) = G(F(v)), linear ist. Wir verifizieren die
Linearitätsbedingungen (L1) und (L2) erfüllt.
(L1) Es seien v1 , v2 ∈ V . Dann gilt:

Def. K L F linear K L
(G ◦ F)(v1 + v2 ) = G F(v1 + v2 ) = G F(v1 ) + F(v2 )
G linear K L K L Def.
= G F(v1 ) + G F(v2 ) = (G ◦ F)(v1 ) + (G ◦ F)(v2 ) !
7.2 • Matrixdarstellung von linearen Abbildungen
379 7
(L2) Es seien v ∈ V und α ∈ K. Dann ist:

Def. K L F linear K L G linear K L Def.


(G ◦ F)(α v) = G F(α v) = G α F(v) = α G F(v) = α (G ◦ F)(v) !
"

Übung 7.9
• ◦ ◦ In dieser Aufgabe erfahren wir die Wichtigkeit der Körperwahl für die Linearität.
Es sei V = C und F : C → C, z → F(z) = z.
a) Man betrachte V = C als einen Vektorraum über K = R. Man zeige, dass F linear
ist.
b) Man betrachte nun V = C als einen Vektorraum über K = C. Ist F auch linear?

v Lösung
a) Wir verifizieren die Linearitätsbedingungen (L1) und (L2):
(L1) Es seien z1 , z2 ∈ C ⇒ F(z1 + z2 ) = z1 + z2 = z1 + z2 = F(z1 ) + F(z2 ). !
(L2) Es seien z ∈ C und α ∈ R (wichtig: ✿✿✿✿✿
α ∈ R, weil wir C als ein Vektorraum über
α∈R
R betrachten!). Dann gilt: F(α z) = α z = α z = α z = α F(z). !

Somit ist F linear.


b) Ist jetzt K = C, so ist F nicht mehr linear. Das Problem ist, dass bei (L2) die Zahl
α jetzt komplex ist (α ∈ C). Wählen wir beispielsweise α = i, so gilt:

F(i z) = i z = −i z = −i F(z) ̸= i F(z). ✗

Somit ist (L2) nicht erfüllt und F ist nicht linear. "

7.2 Matrixdarstellung von linearen Abbildungen

In diesem Abschnitt diskutieren wir den Zusammenhang zwischen linearen Abbil-


dungen und „ihren“ Matrizen. In Übung 7.2 haben wir gezeigt, dass die Abbildung
F : v → Av linear ist. Auf diese Weise definiert jede Matrix A eine lineare Abbildung.
Stimmt aber auch das Gegenteil, dass jede lineare Abbildung genau einer Matrix
entspricht? Die Antwort auf diese Frage lautet ja! Jede lineare Abbildung mit einer
festen Basis kann durch genau eine Matrix (die sogenannte Darstellungsmatrix)
dargestellt werden.

7.2.1 Einführendes Beispiel

Um den Zusammenhang zwischen linearen Abbildungen und Matrizen zu veran-


schaulichen, betrachten wir zuerst ein einfaches Beispiel.
380 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

# Beispiel
Die lineare Abbildung (vgl. Übung 7.1)
% & % &
2 2v1 v1 − v2
F : R →R , v= → F (v) = (7.5)
v2 v1 + v2

kann man wie folgt schreiben:


% & % &% &
v1 − v2 1 −1 v1
F (v) = = = Av. (7.6)
v1 + v2 1 1 v2
@ AB C
=A

Mit dieser Matrixdarstellung ist die Wirkung von F auf v ∈ R2 eindeutig als das Produkt
der Matrix A (die Darstellungsmatrix von F) mit v Beschrieben:

F(v) = Av. (7.7)

7.2.2 Die Darstellungsmatrix

Eine lineare Abbildung ist durch Angabe auf einer Basis eindeutig
bestimmt
V und W seien in den folgenden Abschnitten endlich-dimensionale Vektorräume
über K mit dim(V ) = n und dim(W ) = m. Es seien jeweils B1 = {v1 , · · · , vn } eine
Basis von V und B2 = {w1 , · · · , wm } eine Basis von W . Da B1 eine Basis ist, kann
jeder v ∈ V in eindeutiger Weise als Linearkombination der Basisvektoren v1 , · · · , vn
dargestellt werden
⎡ ⎤
n α1
' ⎢ ⎥
v= αi vi = α1 v1 + · · · + αn vn ⇔ [v]B1 = ⎣ ... ⎦ . (7.8)
i=1 αn

α1 , · · · , αn sind dann die Koordinaten von v bezüglich der Basis B1 . Es sei nun F :
V → W eine lineare Abbildung. Wegen der Linearität von F gilt:

F(v) = F(α1 v1 + · · · + αn vn ) = α1 F(v1 ) + · · · + αn F(vn ). (7.9)

Machen wir hier eine Pause und fragen: Was sagt uns diese Gleichung? Sie besagt,
dass wir F(v) in eindeutiger Weise aus den Bilder F(v1 ), · · · , F(vn ) berechnen können
(α1 , · · · , αn sind ja bekannt).

i Merkregel
Mit anderen Worten: Eine lineare Abbildung F : V → W ist durch Angabe einer Basis
von V eindeutig bestimmt.
7.2 • Matrixdarstellung von linearen Abbildungen
381 7
. Abb. 7.2 Links: Ein Vektor v
ist eine lineare Kombination der
Standardbasisvektoren e1 , e2 .
Rechts: Der Vektor F(v) ist eine
lineare Kombination der
transformierten Basisvektoren
F(e1 ), F(e2 )

Wir haben somit den folgenden Satz motiviert:

# Satz 7.3
Es sei B1 = {v1 , · · · , vn } eine Basis von V und seien u1 , · · · , un beliebige Vektoren aus W .
Dann gibt es eine eindeutig bestimmte lineare Abbildung F : V → W mit F(v1 ) = u1 , · · · ,
F(vn ) = un . $

# Beispiel
Die Linearität von Matrixtransformationen kann man wunderschön mithilfe eines Bei-
spiels visualisieren (. Abb. 7.2). Wir betrachten die lineare Abbildung F in Gl. (7.5) und
wir schauen uns an, wie F auf den Vektor v = [2, 3]T wirkt
% &% & % & % & % &
1 −1 2 −1 1 −1
F (v) = = =2 +3 . (7.10)
1 1 3 5 1 1
@ AB C @ABC @ AB C
=A =F(e1 ) =F(e2 )

Wir können zwei wichtige Eigenschaften dieser Operation visualisieren (. Abb. 7.2). Ers-
tens stellen die Spalten von A dar, wo die Standardbasisvektoren e1 , e2 im transformierten
Vektorraum landen. Zweitens ist der Vektor im neuen Vektorraum F(v) eine lineare
Kombination der transformierten Basisvektoren F(e1 ), F(e2 ). Um dies zu visualisieren,
können wir das Quadrat von den Standardbasisvektoren e1 , e2 einfärben und sehen, wie
dies transformiert wird. $

Konstruktion der Darstellungsmatrix


Satz 7.3 besagt, dass jede lineare Abbildung F : V → W genau festgelegt werden
kann durch Angabe bezüglich einer Basis von V . Um die Darstellungsmatrix von
F bezüglich der Basen B1 und B2 zu konstruieren, genügt es, das Bild F(vi ) jedes
Basisvektors von B1 festzulegen:

F(v1 ), F(v2 ), · · · , F(vn ).

Diese Vektoren F(vi ) sind Elemente von W und können daher in eindeutiger Weise
als Linearkombination der Vektoren der Basis B2 ausgedrückt werden, konkret:

F(v1 ) = a11 w1 + · · · + am1 wm


..
.
F(vn ) = a1n w1 + · · · + amn wm .
382 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

Die Koeffizienten aij sind die Koordinaten der Bilder F(v1 ), · · · , F(vn ) bezüglich der
Basis B2 , d. h.:
⎡ ⎤ ⎡ ⎤
a11 a1n
4 5 ⎢ ⎥ 4 5 ⎢ ⎥
F(v1 ) B2 = ⎣ ... ⎦ , ··· , F(vn ) B = ⎣ ... ⎦ .
2
am1 amn

Nun gilt:

F(v) = α1 F(v1 ) + · · · + αn F(vn )


= α1 (a11 w1 + · · · + am1 wm ) + · · · + αn (a1n w1 + · · · + amn wm )
= (a11 α1 + · · · + a1n αn ) w1 + · · · + (am1 α1 + · · · + amn αn ) wm (7.11)

Diese Gleichung besagt, dass F(v) die folgenden Koordinaten in der Basis B2 =
{w1 , · · · , wm } hat:
⎡ ⎤
a11 α1 + · · · + a1n αn
4 5 ⎢ .. ⎥
F(v) B2 =⎣ . ⎦. (7.12)
am1 α1 + · · · + amn αn

Dies können wir nun in Matrixform umschreiben:


⎡ ⎤ ⎡ ⎤⎡ ⎤
a11 α1 + · · · + a1n αn a11 · · · a1n α1
4 5 ⎢ .. ⎥ ⎢ .. . . .. ⎥ ⎢ .. ⎥ = A[v] .
F(v) B = ⎣ . =
⎦ ⎣ . . . ⎦⎣ . ⎦ B1 (7.13)
2
am1 α1 + · · · + amn αn am1 · · · amn αn
@ AB C @ AB C
=A =[v]B1

Wir haben es geschafft, unsere lineare Abbildung F in Matrixform zu schreiben! Die


gefundene Matrix A ist genau die gesuchte Darstellungsmatrix von F bezüglich der
Basen B1 und B2 . Beachte, dass die Spalten von A genau die Koordinaten der Bilder
F(v1 ), · · · , F(vn ) bezüglich der Basis B2 sind. Diese Überlegungen führen nun zur
folgenden Definition der Darstellungsmatrix:

# Definition 7.4 (Darstellungsmatrix)


Die folgende Matrix

⎡ ⎤
| |
B ⎢4 5 4 5 ⎥
M B12 (F) := ⎣ F(v1 ) B · · · F(vn ) B ⎦ (7.14)
2 2
| |

heißt Darstellungsmatrix von F bezüglich der Basen B1 = {v1 , · · · vn } (von V ) und B2


(von W ). $
7.2 • Matrixdarstellung von linearen Abbildungen
383 7
Praxistipp

B
Die Spalten der Darstellungsmatrix M B12 (F) sind die Koordinaten bezüglich der Zielbasis
B2 der Bilder der Vektoren der Ausgangsbasis B1 .

> Bemerkung
B
Wir werden die Darstellungsmatrix der Abbildung F mit der Notation M B12 (F) kenn-
zeichnen, um ihre Abhängigkeit von der Wahl der Basen von V und W hervorzuheben

B ← Ausgangsbasis
M B1
2 ← Zielbasis

Mithilfe der Darstellungsmatrix können wir die Wirkung einer linearen Abbildung F
vollständig beschreiben:

# Satz 7.4
B
Ist F : V → W eine lineare Abbildung mit Darstellungsmatrix M B12 (F) bezüglich der
Basen B1 und B2 . Dann gilt:

B
[F(v)]B2 = M B12 (F) [v]B1 (7.15)

wobei [v]B1 = Koordinaten von v bzgl. der Basis B1


[F(v)]B2 = Koordinaten von F(v) bzgl. der Basis B2
B
M B12 (F) = Darstellungsmatrix von F bzgl. der Basen B1 und B2 $

i Merkregel
Der Koordinatenvektor von F(v) in der Basis B2 ist gleich dem Produkt der Darstel-
B
lungsmatrix M B12 (F) mit dem Koordinatenvektor von v in der Basis B1 .

Musterbeispiel 7.1 (Darstellungsmatrix bzgl. Standardbasis E )

Man betrachte die folgende lineare Abbildung:


% & % &
2 2 v1 v1 − v2
F : R →R , v= → F (v) = .
v2 v1 + v2

Wie lautet die Darstellungsmatrix von F in der Standardbasis von R2 ? Die Standard-
basis von R2 ist
6 % & % &7
1 0
E = e1 = , e2 = .
0 1
384 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

Um die Darstellungsmatrix von F in dieser Basis zu ermitteln, müssen wir einfach die
Bilder der Basisvektoren bestimmen und diese als Spalten in einer Matrix aufschreiben:
M% &N % & % & M% &N % & % &
1 1−0 1 0 0−1 −1
F(e1 ) = F = = , F(e2 ) = F = = .
0 1+0 1 1 0+1 1

Die Darstellungsmatrix von F in der Standardbasis E lautet somit:


% &
1 −1
M EE (F) = .
1 1

Mit der Darstellungsmatrix können wir nun das Bild eines beliebigen Vektors berech-
nen. Zum Beispiel:
M% &N % &% & % &
3 1 −1 3 5
F = = .
−2 1 1 −2 1

K L 9 : 455
3 3−(−2)
Probe mit der Definition von F: F −2 = 3+(−2) = 1 !

Musterbeispiel 7.2 (Darstellungsmatrix in beliebigen Basen)

Als nächstes Beispiel betrachten wir dieselbe lineare Abbildung wie oben
% & % &
2 v1 2 v1 − v2
F : R →R , v= → F (v) = ,
v2 v1 + v2

aber wir fokussieren uns auf die folgenden zwei Basen von R2
6% & % &7 6
% & % &7
2 1 0 1
B1 = v1 = , v2 = B 2 = w1 = , w2 = .
1 −1 1 1

Wie lautet die Darstellungsmatrix von F bezüglich der Basen B1 und B2 ? Wir berechnen
die Bilder der Vektoren der Ausgangsbasis B1 :
M% &N % & % & M% &N % & % &
2 2−1 1 1 1+1 2
F(v1 ) = F = = , F(v2 ) = F = = .
1 2+1 3 −1 1−1 0

Sind wir fertig? Nein: Wir müssen noch die Koordinaten von F(v1 ) und F(v2 ) bezüglich
der Ankunftsbasis B2 bestimmen. Es gilt:
% & % & % & % &
1 0 1 2
F(v1 ) = =2 + = 2w1 + w2 ⇒ [F(v1 )]B2 =
3 1 1 1
7.2 • Matrixdarstellung von linearen Abbildungen
385 7

% & % & % & % &


2 0 1 −2
F(v2 ) = = (−2) +2 = −2w1 + 2w2 ⇒ [F(v2 )]B2 =
0 1 1 2

Die Darstellungsmatrix von F bezüglich der Basen B1 und B2 lautet somit:


% &
B 2 −2
M B12 (F) = .
1 2

Musterbeispiel 7.3 (Darstellungsmatrix für lineare Abbildungen auf beliebigen Vektorräu-


men (z. B. Polynome))

Es sei P3 (R) die Menge der reellen Polynome vom Grad ≤ 3. Man betrachte die
Ableitung

d dp(x)
: P3 (R) → P3 (R), p(x) → .
dx dx

Wie lautet die Darstellungsmatrix von F in der Standardbasis von P3 (R)? Die Stan-
d
dardbasis von P3 (R) ist E = {1, x, x2 , x3 }. Jetzt wenden wir dx auf jedes Basiselement
an:

d(1) d(x) d(x2 ) d(x3 )


= 0, = 1, = 2x, = 3x2 .
dx dx dx dx

In der Basis E = {1, x, x2 , x3 } haben diese Bilder die folgenden Koordinaten:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 % & 0 % & 0
F G ⎢0⎥ F G ⎢0⎥ ⎢2⎥ ⎢0⎥
d(1) ⎢ ⎥ d(x) ⎢ ⎥ d(x2 ) ⎢ ⎥ d(x3 ) ⎢ ⎥
= ⎢ ⎥, = ⎢ ⎥, = ⎢ ⎥, = ⎢ ⎥.
dx E ⎣0⎦ dx E ⎣0⎦ dx ⎣0⎦ dx ⎣3⎦
E E
0 0 0 0

Die gesuchte Darstellungsmatrix lautet somit


⎡ ⎤
0 1 0 0
D E ⎢0
d ⎢ 0 2 0⎥

M EE =⎢ ⎥.
dx ⎣0 0 0 3⎦
0 0 0 0

Nun können wir die Darstellungsmatrix benutzen, um die Ableitung von p(x) = x3 +
2x2 − 4x zu berechnen. Die Koordinaten von p(x) in der Standardbasis lauten:
⎤ ⎡ ⎡ ⎤⎡ ⎤ ⎡ ⎤
0 0 1 0 0 0 −4
⎢−4⎥ F G ⎢0 0⎥
4 5 dp(x) ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ 0 2 ⎥ ⎢−4⎥ ⎢ 4 ⎥
p(x) E = ⎢ ⎥ ⇒ =⎢ ⎥⎢ ⎥ = ⎢ ⎥.
⎣2⎦ dx E ⎣0 0 0 3⎦ ⎣ 2 ⎦ ⎣ 3 ⎦
1 0 0 0 0 1 0
386 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

Die Ableitung von p(x) ist somit 3x2 + 4x − 4.


d
Probe durch direktes Ableiten: dx (x3 + 2x2 − 4x) = 3x2 + 4x − 4 !

7.2.3 Geometrische Interpretation linearer Abbildungen

Wie kann man sich eine lineare Abbildung geometrisch vorstellen? Eine Konsequenz
der Linearität ist, dass lineare Abbildungen Vektoren nur auf bestimmte Weise
modifizieren können, beispielsweise durch Drehen, Reflektieren, Skalieren, Scheren
und Projizieren (. Abb. 7.3). Transformationen, welche Vektoren nicht linear „de-
formieren“, sind nicht gestattet.

. Abb. 7.3 Wie sehen lineare Abbildungen aus? Die Figur zeigt einige Beispiele von linearen und
nicht linearen Abbildungen. Lineare Abbildungen beschreiben Skalierungen, Rotationen, Scherungen,
Spiegelungen und Projektionen. Kompliziertere Abbildungen, welche Vektoren „deformieren“ sind nicht
linear
7.2 • Matrixdarstellung von linearen Abbildungen
387 7
a b c d

. Abb. 7.4 Geometrische Wirkung von Diagonalmatrizen. (a) Streckung der ersten Komponente,
(b) Spiegelung an der x1 -Achse, (c) Spiegelung an der x2 -Achse, (d) Punktspiegelung

Lineare Abbildungen in Diagonalform


Lineare Transformationen mit diagonaler Matrixdarstellung sind geometrisch am
einfachsten zu verstehen (. Abb. 7.4). Man betrachte beispielsweise eine beliebige
Diagonalmatrix mit Diagonaleinträgen α1 , α2 , · · · , αn . Dann gilt für einen beliebigen
Vektor v:
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
α1 v1 v1 0 0
⎢ α2 ⎥ ⎢v2 ⎥ ⎢0⎥ ⎢v2 ⎥ ⎢0⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ ⎢ . ⎥ = α1 ⎢ . ⎥ + α2 ⎢ . ⎥ + · · · + αn ⎢ . ⎥
⎣ . ⎦ ⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦ ⎣ .. ⎦
αn vn 0 0 vn

Dies bedeutet, dass α1 bestimmt, wie sich die erste Komponente von v transformiert,
α2 bestimmt, wie sich die zweite Komponente von v transformiert, usw. Beispielsweise
können wir αi > 0 verwenden, um die i-te Komponente von v zu strecken. αi < 0
bedeutet, dass vi gespiegelt wird. Man kann Vektoren mit einer diagonalen Matrix
nicht scheren.

> Bemerkung
Die Tatsache, dass lineare Abbildungen in Diagonalform beonders „einfach“ darzu-
stellen sind, hat wichtige Folgerungen, wie wir in „Lineare Algebra, Band II“ genauer
erfahren werden. Insbesondere wird die folgende Frage uns lange Zeit beschäftigen:
Gegeben eine lineare Abbildung F ∈ End(V), gibt es eine Basis von V derart, dass
F durch eine Diagonalmatrix (d. h. durch eine möglichst einfache Matrix) dargestellt
wird?

Determinante einer linearen Abbildung


Was ist die geometrische Bedeutung der Determinante der Darstellungsmatrix? Um
den Effekt von F besser zu visualisieren, können wir untersuchen, wie F das von
den Standardbasisvektoren e1 , · · · , en überspannte Volumen (oder Flächeninhalt)
abbildet. Die Determinante der Darstellungsmatrix von F gibt das Volumen (oder
388 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

. Abb. 7.5 Geometrische Interpretation der Determinante einer linearen Abbildung

Flächeninhalt) des Parallelepipeds an, das von den transformierten Basisvektoren


F(e1 ), · · · , F(en ) aufgespannt wird. Die lineare Abbildung in . Abb. 7.5 hat zum
Beispiel Determinante 3. Daher hat der von den transformierten Basisvektoren F(e1 ),
F(e2 ) aufgespannten Parallelogramm einen Flächeninhalt von 3.

> Bemerkung
Im Allgemeinen gilt: Es sei F : Rn → Rn linear und * ⊂ Rn ein Gebiet mit Volumen
(oder Flächeninhalt) Vol(*). Dann gilt für das Volumen (oder Flächeninhalt) des
Transformierten Gebiet F(*)

Vol(F(*)) = | det(A)| Vol(*),

wobei A die Darstellungsmatrix von F ist. Wie wir in 7 Kap. 8 erfahren werden, ist der
Wert der Determinante der Darstellungsmatrizen von F bzgl. aller Basen von V gleich.
Die Determinante ist damit eine intrinsische Eigenschaft einer linearen Abbildung.

7.2.4 Eigenschaften der Darstellungsmatrix

Addition und Skalarmultiplikation


Die Summe und Skalarmultiplikation von linearen Abbildungen entspricht der
Summe bzw. Skalarmultiplikation der zugehörigen Darstellungsmatrizen. Genauer:

# Satz 7.5
Es seien F, G : V → W lineare Abbildungen und B1 , B2 Basen von V bzw. W . Es sei
α ∈ K. Dann gilt:
B B B
5 M B12 (F + G) = M B12 (F) + M B12 (G)
B B
5 M B12 (α F) = α M B12 (F) $
7.2 • Matrixdarstellung von linearen Abbildungen
389 7

. Abb. 7.6 Komposition von linearen Abbildungen

i Merkregel
Die Summe und Skalarmultiplikation von linearen Abbildungen entspricht der Summe
bzw. Skalarmultiplikation der zugehörigen Darstellungsmatrizen.

Komposition von Abbildungen


Die Darstellungsmatrix der Komposition G ◦ F ist das Produkt der Darstellungsma-
trizen von G und F (in dieser Reihenfolge! Siehe . Abb. 7.6). Konkret:

# Satz 7.6
Es seien F : V → W und G : W → Z lineare Abbildungen. Es seien B1 , B2 und B3 Basen
von V , W bzw. Z. Dann gilt:

B B B
M B13 (G ◦ F) = M B23 (G) M B12 (F). (7.16)

i Merkregel
Die Matrixdarstellung von G◦F ist das Produkt der Darstellungsmatrizen von F und G.

n-Mal
B C@ A
Insbesondere für F : V → V definieren wir Fn
:= F ◦ F ◦ · · · ◦ F. Die Abbildung F n
ist linear, weil die Komposition von linearen Abbildungen es auch ist. Es gilt:

# Satz 7.7
Die Darstellungsmatrix von F n bezüglich der Basis B ist
> ?n
n
MB B
B (F ) = M B (F) . (7.17)

$
390 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

Inverse Abbildung
Die Matrixdarstellung von F −1 ist die Inverse der Darstellungsmatrix von F.
Genauer:

# Satz 7.8
Es sei F : V → V eine invertierbare lineare Abbildung. Sind B1 und B2 Basen von V , dann
gilt:
> ?−1
B B
M B21 (F −1 ) = M B12 (F) . (7.18)

i Merkregel
Die Matrixdarstellung von F −1 ist die Inverse der Darstellungsmatrix von F.

> Bemerkung
Beachte: F : V (mit Basis B1 ) → V (mit Basis B2 ) und F −1 : V (mit Basis B2 ) →
V (mit Basis B1 ).

7.2.5 Kochrezept

Für die Bestimmung der Darstellungsmatrix einer linearen Abbildung kann man in
der Praxis das folgende Kochrezept benutzen:

Kochrezept 7.1 (Darstellungsmatrix einer linearen Abbildung bestimmen)


Gegeben: eine lineare Abbildung F : V → W , eine Basis B1 = {v1 , · · · vn } von V und
eine Basis B2 = {w1 , · · · wm } von W (im Allgemeinen: n ̸= m).
B
Gesucht: Darstellungsmatrix M B12 (F) von F bezüglich der Basen B1 und B2 .
Fall 1: B1 und B2 sind Standardbasen.
Schritt 1 Man berechne F(v1 ), · · · , F(vn ).
Schritt 2 Man schreibe F(v1 ), · · · , F(vn ) als Spalten in einer Matrix auf:
⎡ ⎤
| |
⎢ ⎥
M EE (F) = ⎣F(e1 ) · · · F(en )⎦ .
| |

Die resultierende Matrix ist die gesuchte Darstellungsmatrix M EE (F) von F bezüglich
der Standardbasis E .
Fall 2: B1 und B2 sind allgemeine Basen.
Schritt 1 Man berechne F(v1 ), · · · , F(vn ).
Schritt 2 Man schreibe die Vektoren F(v1 ), · · · , F(vn ) als Linearkombination
der Basisvektoren w1 , · · · wm , d. h. man finde die Koordinaten von F(v1 ), · · · , F(vn )
bezüglich der Basis B2 .
7.2 • Matrixdarstellung von linearen Abbildungen
391 7

Schritt 3 Man schreibe die Koordinaten aus Schritt 2 als Spalten in einer Matrix
auf:
⎡ ⎤
| |
⎢ ⎥
⎢ Koordinaten Koordinaten ⎥
B ⎢ ⎥
M B12 (F) = ⎢ ⎥
⎢ von F(v1 ) · · · von F(vn ) ⎥ .
⎢ ⎥
⎣ in Basis B 2 in Basis B 2 ⎦
| |

B
Die resultierende Matrix ist die gesuchte Darstellungsmatrix M B12 (F) von F bezüglich
der Basen B1 und B2 .
Weitere Eigenschaften und Hinweise
5 Anzahl Spalten der Darstellungsmatrix = dim(V ) = n.
5 Anzahl Zeilen der Darstellungsmatrix = dim(W ) = m.
5 Um Fehler zu vermeiden, schlagen wir vor, die Basen von V und W immer
anzugeben, anhand derer die Darstellugsmatrix berechnet wird. Diese werden mit
einem oberen und einem unteren Index bezeichnet:

B ←Ausgangsbasis
M B1
2 ←Zielbasis

7.2.6 Beispiele

Wir betrachten jetzt ausführliche Beispiele zur Darstellungsmatrix.

Übung 7.10
•◦◦ Es sei E = {e1 , e2 , e3 } die Standardbasis von R3 . Man finde die Darstellungsmatrix
der linearen Abbildung F : R3 → R2 gegeben durch
% & % & % &
2 1 3
F(e1 ) = , F(e2 ) = , F(e3 ) = .
1 −2 1
> 1
? > 1
?
Man berechne F −2 und F 1 .
1 −1

v Lösung
Die Spalten der Darstellungsmatrix von F in der Standardbasis sind genau die Bilder
der Basisvektoren e1 , e2 , e3 . In diesem Fall sind diese Bilder bereits gegeben. Die
gesuchte Darstellungsmatrix lautet somit:
% &
2 1 3
M EE (F) = .
1 −2 1
392 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

Mit dieser Darstellungsmatrix finden wir:


⎛⎡ ⎤⎞ ⎡ ⎤ ⎛⎡ ⎤⎞ ⎡ ⎤
1 - . 1 - . 1 - . 1 - .
⎜⎢ ⎥⎟ 2 1 3 ⎢ ⎥ 3 ⎜⎢ ⎥⎟ 2 1 3 ⎢ ⎥ 0
F ⎝⎣−2⎦⎠ = ⎣−2⎦ = , F ⎝⎣ 1 ⎦⎠ = ⎣ 1 ⎦= .
1 −2 1 6 1 −2 1 −2
1 1 −1 −1
!

Übung 7.11
• ◦ ◦ Für welche α ∈ R gibt es eine lineare Abbildung F : R2 → R2 mit
/- .0 - . /- .0 - . /- .0 - .
1 2 0 −1 1 α+1
F = , F = , F = ?
0 4 1 2 2 8

v Lösung
Eine lineare Abbildung ist eindeutig durch die Bilder der Basisvektoren bestimmt
(Satz 7.3). Da wir die Bilder der Basiselemente e1 , e2 bereits kennen, können wir die
Darstellungsmatrix von F in der Standardbasis direkt hinschreiben:
- .
2 −1
M EE (F) = .
4 2

112 3 2 −1 4 3 1 4 304 ! 3 α+1 4


Es gilt somit F 2 = 4 2 2 = 8 = 8
⇒ α = −1. !

Übung 7.12
• ◦ ◦ Man bestimme die Darstellungsmatrix der folgenden linearen Abbildung in der
Standardbasis:
⎤ ⎡
v1 - .
3 2 ⎢ ⎥ F v1 − 2v2 + 3v3
F : R → R , v = ⎣ v2 ⎦ &−→ F(v) = .
v1 + v3
v3

v Lösung
Um die Darstellungsmatrix von F zu bestimmen, müssen wir zuerst die Bilder der
Standardbasisvektoren bestimmen:
⎛⎡ ⎤⎞ ⎛⎡ ⎤⎞ ⎛⎡ ⎤⎞
1 - . 0 - . 0 - . - .
⎜⎢ ⎥⎟ 1 ⎜⎢ ⎥⎟ −2 ⎜⎢ ⎥⎟ 3 1 −2 3
F ⎝⎣0⎦⎠ = , F ⎝⎣1⎦⎠ = , F ⎝⎣0⎦⎠ = ⇒ M EE (F) = .
1 0 1 1 0 1
0 0 1
!
7.2 • Matrixdarstellung von linearen Abbildungen
393 7

Übung 7.13
• ◦ ◦ Man betrachte die Abbildung F : R3 → R4 gegeben durch:
⎡ ⎤
⎛⎡ ⎤⎞ x1 − x2
x1 ⎢
⎜⎢ ⎥⎟ ⎢ x1 + x3 ⎥ ⎥
F ⎝⎣x2 ⎦⎠ = ⎢ ⎥.
⎣ x2 − x3 ⎦
x3
x1 − 2x2 + x3

a) Ist F linear?
b) Man bestimme die Darstellungsmatrix von F in der Standardbasis.

v Lösung
a) Ja. Wir verifizieren die Linearität von F durch direktes Nachrechnen:
(L1) Es seien x = (x1 , x2 , x3 )T und y = (y1 , y2 , y3 )T zwei Vektoren in R3 . Dann
gilt:
⎡ ⎤
⎛⎡ ⎤⎞ (x1 + y1 ) − (x2 + y2 )
x1 + y1 ⎢ ⎥
⎜⎢ ⎥⎟ ⎢ (x1 + y1 ) + (x3 + y3 ) ⎥
F(x + y) = F ⎝⎣x2 + y2 ⎦⎠ = ⎢ ⎥
⎣ (x2 + y2 ) − (x3 + y3 ) ⎦
x3 + y3
(x1 + y1 ) − 2(x2 + y2 ) + (x3 + y3 )
⎡ ⎤ ⎡ ⎤
x1 − x2 y1 − y2
⎢ ⎥ ⎢ ⎥
⎢ x1 + x3 ⎥ ⎢ y1 + y3 ⎥
=⎢ ⎥+⎢ ⎥ = F(x) + F(y) "
⎣ x2 − x3 ⎦ ⎣ y2 − y3 ⎦
x1 − 2x2 + x3 y1 − 2y2 + y3

(L2) Es seien x = (x1 , x2 , x3 )T ∈ R3 und α ∈ R. Dann gilt:


⎡ ⎤ ⎡ ⎤
⎛⎡ ⎤⎞ αx1 − αx2 x1 − x2
αx1 ⎢ ⎥ ⎢ x +x ⎥
⎜⎢ ⎥⎟ ⎢ αx1 + αx3 ⎥ ⎢ 1 3 ⎥
F(αx) = F ⎝⎣αx2 ⎦⎠ = ⎢ ⎥ = α⎢ ⎥
⎣ αx2 − αx3 ⎦ ⎣ x2 − x3 ⎦
αx3
αx1 − 2(αx2 ) + αx3 x1 − 2x2 + x3

= αF(x) "

Weil beide Bedingungen (i) und (ii) erfüllt sind, ist F linear.
b) Um die Darstellungsmatrix von F zu ermitteln, müssen wir einfach die Bilder der
Basisvektoren (in der Standardbasis) bestimmen und diese als Spalten in einer
Matrix aufschreiben:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎛⎡ ⎤⎞ 1 ⎛⎡ ⎤⎞ −1 ⎛⎡ ⎤⎞ 0
1 ⎢ ⎥ 0 ⎢ ⎥ 0 ⎢ ⎥
⎜⎢ ⎥⎟ ⎢1⎥ ⎜⎢ ⎥⎟ ⎢ 0 ⎥ ⎜⎢ ⎥⎟ ⎢ 1 ⎥
F ⎝⎣0⎦⎠ = ⎢ ⎥ , F ⎝⎣1⎦⎠ = ⎢ ⎥ , F ⎝⎣0⎦⎠ = ⎢ ⎥ .
⎣0⎦ ⎣1⎦ ⎣−1⎦
0 0 1
1 −2 1
394 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

⎡ ⎤
1 −1 0
⎢1
⎢ 0 1⎥⎥
Die Darstellungsmatrix von F lautet somit M EE (F) = ⎢ ⎥.
⎣0 1 −1⎦
1 −2 1
Alternative:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎛⎡ ⎤⎞ x1 − x2 1 −1 0 ⎡ ⎤ 1 −1 0
x1 ⎢ ⎥ ⎢ x
1⎥ ⎢1 1⎥
1
⎜⎢ ⎥⎟ ⎢ x1 + x3 ⎥ ⎢1 0 ⎥⎢ ⎥ ⎢ 0 ⎥
F ⎝⎣x2 ⎦⎠ = ⎢ ⎥=⎢ ⎥ ⎣x2 ⎦ ⇒ M EE (F) = ⎢ ⎥.
⎣ x2 − x3 ⎦ ⎣0 1 −1⎦ ⎣0 1 −1⎦
x3 x3
x1 − 2x2 + x3 1 −2 1 1 −2 1

Da F eindeutig als Darstellungsmatrix M EE (F) darstellbar ist, ist F linear. !

Übung 7.14
•◦◦ Es seien V und W Vektorräume mit den Basen B1 = {v1 , v2 , v3 } bzw. B2 = {w1 , w2 }.
Man finde die Darstellungsmatrix der linearen Abbildung F : V → W gegeben durch

F(v1 ) = 2w1 + 2w2 , F(v2 ) = −4w1 − 2w2 , F(v3 ) = w2 .

Man berechne F(3v1 + 2v2 − v3 ).

v Lösung
Die Spalten der gesuchten Darstellungsmatrix von F enthalten die Koordinaten von
F(v1 ), F(v2 ), F(v3 ) in der Basis w1 , w2 :
- . - .
2 −4
[F(v1 )]B2 = , [F(v2 )]B2 = ,
2 −2
- . - .
0 B 2 −4 0
[F(v3 )]B2 = ⇒ M B12 (F) = .
1 2 −2 1

⎡ ⎤
-. 3 - .
2 −4 0 ⎢ ⎥ −2
Daraus folgt F(3v1 + 2v2 − v3 ) = ⎣ 2 ⎦= = −2w1 + w2 . !
2 −2 1 1
−1

Übung 7.15
• ◦ ◦ Man bestimme die Darstellungsmatrix der folgenden linearen Abbildung in der
Standardbasis:
- . - .
2×2 2 ab F a − 3b
F :R →R , A= &−→ F(A) = .
cd 2c + 4d
7.2 • Matrixdarstellung von linearen Abbildungen
395 7
v Lösung
Die Standardbasis von R2×2 besteht aus den folgenden vier Matrizen:
- . - . -. - .
10 01 00 00
E11 = , E12 = , E21 = , E22 = .
00 00 10 01

Wir rechen nach:


- . - . - . - .
1 −3 0 0
F(E11 ) = , F(E12 ) = , F(E21 ) = , F(E22 ) = .
0 0 2 4

Schreiben wir diese Bilder als Spalten


- in einer Matrix
. auf, so erhalten wir die gewünsch-
1 −3 0 0
te Darstellungsmatrix M EE (F) = . !
0 0 2 4

Übung 7.16
• ◦ ◦ Man bestimme die Darstellungsmatrix der folgenden linearen Abbildung in der
Standardbasis:
- . - .
2×2 2×2 ab F a+d b−c
F :R →R , A= &−→ F(A) = .
cd b−c a+d

v Lösung
Wir wenden F auf jedes Basiselement an (Standardbasis von R2×2 wie in Übung 7.15)
und drücken diese Bilder in der Standardbasis von R2×2 aus:
⎡ ⎤
-. 1
⎢0⎥
1 0 ⎢ ⎥
F(E11 ) = = E11 + E22 ⇒ [F(E11 )]E = ⎢ ⎥
0 1 ⎣0⎦
1
⎡ ⎤
-. 0
⎢1⎥
0 1 ⎢ ⎥
F(E12 ) = = E12 + E21 ⇒ [F(E12 )]E = ⎢ ⎥
1 0 ⎣1⎦
0
⎡ ⎤
- . 0
⎢−1⎥
0 −1 ⎢ ⎥
F(E21 ) = = −E12 − E21 ⇒ [F(E21 )]E = ⎢ ⎥
−1 0 ⎣−1⎦
0
⎡ ⎤
-. 1
⎢0⎥
1 0 ⎢ ⎥
F(E22 ) = = E11 + E22 ⇒ [F(E22 )]E = ⎢ ⎥ .
0 1 ⎣0⎦
1
396 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

⎡ ⎤
1 0 0 1
⎢0
⎢ 1 −1 0⎥

Es gilt somit: M EE (F) = ⎢ ⎥. !
⎣0 1 −1 0⎦
1 0 0 1

Übung 7.17 5 6
1 −2
•◦◦ Es sei B = −3 4 . Man bestimme die Darstellungsmatrix der folgenden linearen
Abbildung in der Standardbasis:

F : R2×2 → R2×2 , X → F(X) = XB.

v Lösung
Wir wenden F auf jedes Element der Standardbasis von R2×2 an und bestimmen die
Koordinaten dieser Bilder in der Standardbasis von R2×2 :
⎡ ⎤
- . 1
⎢−2⎥
1 −2 ⎢ ⎥
F(E11 ) = E11 B = = E11 − 2E12 ⇒ [F(E11 )]E = ⎢ ⎥
0 0 ⎣0⎦
1
⎡ ⎤
- . −3
⎢4⎥
−3 4 ⎢ ⎥
F(E12 ) = E12 B = = −3E11 + 4E12 ⇒ [F(E12 )]E = ⎢ ⎥
0 0 ⎣1⎦
0
⎡ ⎤
- . 0
⎢0⎥
0 0 ⎢ ⎥
F(E21 ) = E21 B = = E21 − 2E22 ⇒ [F(E21 )]E = ⎢ ⎥
1 −2 ⎣1⎦
−2
⎡ ⎤
- . 0
⎢0⎥
0 0 ⎢ ⎥
F(E22 ) = E22 B = = −3E21 + 4E22 ⇒ [F(E22 )]E = ⎢ ⎥
−3 4 ⎣−3⎦
4

⎡ ⎤
1 −2 0 0 - .
⎢−3
⎢ 4 0 0⎥⎥ B 0
Es gilt somit M EE (F) = ⎢ ⎥= . !
⎣0 0 1 −2⎦ 0 B
0 0 −3 4
7.2 • Matrixdarstellung von linearen Abbildungen
397 7

Übung 7.18
• • ◦ Es sei V = C2×2 mit der Basis (Pauli-Matrizen, vgl. Übung 1.13)
7 - . - . - . - .8
10 01 0 −i 1 0
B = σ0 = , σx = , σy = , σz =
01 10 i 0 0 −1

und sei

F : C2×2 → C2×2 , X → F(X) = X − Spur(X)E.

Man bestimme die Darstellungsmatrix von F in der Basis B.

v Lösung
Wir berechnen die Bilder der Basisvektoren σ0 , σx , σy , σz unter F

F(σ0 ) = σ0 − Spur(σ0 )E
⎤ ⎡
- . - . - . −1
⎢0⎥
1 0 1 0 −1 0 ⎢ ⎥
= −2 = = −σ0 ⇒ [F(σ0 )]B = ⎢ ⎥
0 1 0 1 0 −1 ⎣0⎦
0
F(σx ) = σx − Spur(σx )E
⎡ ⎤
- . - . - . 0
⎢1⎥
0 1 1 0 0 1 ⎢ ⎥
= −0 = = σx ⇒ [F(σx )]B = ⎢ ⎥
1 0 0 1 1 0 ⎣0⎦
0
F(σy ) = σy − Spur(σy )E
⎡ ⎤
- . - . - . 0
⎢0⎥
0 −i 1 0 0 −i ⎢ ⎥
= −0 = = σy ⇒ [F(σy )]B = ⎢ ⎥
i 0 0 1 i 0 ⎣1⎦
0
F(σz ) = σz − Spur(σz )E
⎡ ⎤
- . - - . . 0
⎢0⎥
1 0 1 0 1 0 ⎢ ⎥
= −0 = = σz ⇒ [F(σz )]B = ⎢ ⎥
0 −1 0 1 0 −1 ⎣0⎦
1

⎡ ⎤
−1 0 0 0
⎢0
⎢ 1 0 0⎥

Somit lautet die gesuchte Darstellungsmatrix M B
B (F) = ⎢ ⎥. !
⎣0 0 1 0⎦
0 0 0 1
398 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

Übung 7.19
• ◦ ◦ Es sei V = ⟨sin(x), cos(x)⟩ versehen mit der Basis B = {sin(x), cos(x)}. Man
betrachte die lineare Abbildung F : V → V , ϕ → F(ϕ) = dϕdx .
a) Man finde die Darstellungsmatrix von F in der Basis B.
b) Man berechne die Ableitung von 2 sin(x) + 3 cos(x) mithilfe der in (a) bestimmten
Darstellungsmatrix.

v Lösung
a) Die Darstellungsmatrix von F in der Basis B = {sin(x), cos(x)} bestimmen wir
einfach, indem wir die Bilder der Basiselemente berechnen. Es gilt:
- .
d 0
F(sin(x)) = sin(x) = cos(x) ⇒ [F(sin(x))]B =
dx 1
- .
d −1
F(cos(x)) = cos(x) = − sin(x) ⇒ [F(cos(x))]B = .
dx 0
. -
0 −1
Die gesuchte Darstellungsmatrix lautet somit = MB
B (F)
.
1 0
b) Nun können wir mithilfe der in (a) bestimmten Darstellungsmatrix von F die
Ableitung von 3 cos(x) + 2 sin(x) berechnen
- . - .- . - .
2 0 −1 2 −3
[2 sin(x) + 3 cos(x)]B = ⇒ F(2 sin(x) + 3 cos(x)) = = .
3 1 0 3 2

Dies entspricht der Funktion −3 sin(x) + 2 cos(x). !

Übung 7.20
• • ◦ Es sei P2 (R) der Vektorraum der reellen Polynome vom Grad ≤ 2 mit der
Standardbasis E = {1, x, x2 } und sei

F : P2 (R) → P2 (R), p(x) → p′′ (x) + 4p′ (x) + 3p(x).

a) Man finde die Darstellungsmatrix von F bezüglich der Basis E .


b) Man finde die Darstellungsmatrix von F −1 bezüglich der Basis E .
c) Man löse mithilfe von (b) die folgende Differenzialgleichung:

p′′ (x) + 4p′ (x) + 3p(x) = x + 1.

v Lösung
a) Wir wenden F auf jedes Element der Basis E = {1, x, x2 } an:

F(1) = 3 F(x) = 4 + 3x, F(x2 ) = 2 + 8x + 3x2 .


7.2 • Matrixdarstellung von linearen Abbildungen
399 7
In der Standardbasis E = {1, x, x2 } haben diese Bilder die folgenden Koordinaten:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
3 4 2
⎢ ⎥ ⎢ ⎥ 2 ⎢ ⎥
[F(1)]E = ⎣0⎦ , [F(x)]E = ⎣3⎦ , [F(x )]E = ⎣8⎦ .
0 0 3
⎤⎡
3 4 2
⎢ ⎥
Also ist die Darstellungsmatrix M EE (F) = ⎣0 3 8⎦ .
0 0 3
b) Mittels Gauß-Algorithmus erzeugt man die Darstellungsmatrix von F −1 als Inverse
von M EE (F):

⎡ ⎤−1 ⎡ ⎤
9 :−1 3 4 2 9 −12 26
⎢ ⎥ 1 ⎢ ⎥
M EE (F −1 ) = M EE (F) = ⎣0 3 8⎦ = ⎣0 9 −24⎦ .
27
0 0 3 0 0 9

c) Die Differenzialgleichung ist F(p(x)) = x + 1 mit Lösung p(x) = F −1 (x + 1). Die


rechte Seite der Differenzialgleichung entspricht dem Koordinatenvektor [x+1]E =
[1, 1, 0]T . Somit können wir die Differenzialgleichung für p(x) = a0 + a1 x + a2 x2
in Matrixform wie folgt umschreiben:
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
3 4 2 a0 1 a0 9 −12 26 1 −1
⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 1 ⎢ ⎥ ⎢ ⎥ ⎢ 19 ⎥
⎣0 3 8⎦ ⎣a1 ⎦ = ⎣1⎦ ⇒ ⎣a1 ⎦ = ⎣0 9 −24⎦ ⎣1⎦ = ⎣ 3 ⎦
27
0 0 3 a2 0 a2 0 0 9 0 0
; <= > ; <= >
=M E =M E −1 )
E (F) E (F

x 1
⇒ p(x) = − .
3 9

Die gesuchte Lösung der Differenzialgleichung ist somit p(x) = x


3 − 19 . !

Übung 7.21
• ◦ ◦ Sei P2 (R) der Vektorraum der reellen Polynome vom Grad ≤ 2. Wir betrachten
die folgende lineare Abbildung
/? 0
1
′ 2
F : P2 (R) → P2 (R), p(x) → F(p(x)) = p (x) − x p(y)dy .
0

Man bestimme die Darstellungsmatrix von F 2 +2F in der Standardbasis (bei F 2 handelt
es sich um F ◦ F, d. h. um die Komposition von F mit sich selbst).
400 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

v Lösung
Wir wenden F auf jedes Element der Standardbasis an:
⎤ ⎡
/? 0 0
1
⎢ ⎥
F(1) = 0 − x2 1 dy = −x2 ⇒ [F(1)]E = ⎣ 0 ⎦
0
−1
⎡ ⎤
/? 0 1
1 x2
2 ⎢ ⎥
F(x) = 1 − x y dy = 1 − ⇒ [F(x)]E = ⎣ 0 ⎦
0 2
− 12
⎡ ⎤
/? 0 0
1 x2
2 2 2 ⎢ ⎥
F(x ) = 2x − x y dy = 2x − ⇒ [F(x2 )]E = ⎣ 2 ⎦
0 3
− 13

Daraus ergibt sich die Darstellungsmatrix von F


⎡ ⎤
0 1 0
⎢ ⎥
M EE (F) = ⎣0 0 2 ⎦ .
1 − 12 − 13

Die Dartstellungsmatrix von F 2 + 2F = F ◦ F + 2F ist dann


⎡ ⎤
9 :2 0 2 2
⎢ 10 ⎥ .
M EE (F 2 + 2F) = M EE (F) + 2M EE (F) = ⎣ 2 −1 3 ⎦
5 1
3 6 − 14
9 !

Übung 7.22
• ◦ ◦ Es sei n ≥ 2. Man betrachte die linearen Abbildungen F1 , F2 , F3 : Pn (R) →
Pn+1 (R) definiert durch
?
dp(x) d 2 p(x) x
F1 (p(x)) = , F2 (p(x)) = , F3 (p(x)) = p(s)ds.
dx dx2 0

Man zeige, dass {F1 , F2 , F3 } linear unabhängig sind.

v Lösung
{F1 , F2 , F3 } sind linear unabhängig, wenn die Gleichung α F1 (p)+β F2 (p)+γ F3 (p) = 0
nur die triviale Lösung α = β = γ = 0 hat. Beachte, dass diese Gleichung für alle
p ∈ Pn (R) gilt. Insbesondere gilt sie für p(x) = 1, p(x) = x und p(x) = x2 :
p(x) = 1 ⇒ α F1 (1) + β F2 (1) + γ F3 (1) = γ x = 0
x2
p(x) = x ⇒ α F1 (x) + β F2 (x) + γ F3 (x) = α + γ =0
2
x3
p(x) = x2 ⇒ α F1 (x2 ) + β F2 (x2 ) + γ F3 (x2 ) = 2α x + 2β + γ = 0.
3
7.2 • Matrixdarstellung von linearen Abbildungen
401 7
Aus der ersten Gleichung folgt γ = 0. Aus der zweiten Gleichung folgt dann α = 0 und
die dritte Gleichung impliziert β = 0. Somit sind {F1 , F2 , F3 } linear unabhängig. !

Übung 7.23
• ◦ ◦ Man betrachte den R-Vektorraum V = C. Es sei f : C → C, z → f (z) = z
(vgl. Übung 7.9).
a) Man bestimme die Darstellungsmatrix von f bezüglich der Standardbasis E =
{1, i}.
b) Man berechne 2 + 3i mithilfe der in (a) bestimmten Darstellungsmatrix.

v Lösung
a) Wir berechnen das Bild der Basiselementen unter f :
- . - .
1 0
f (1) = 1 = 1 ⇒ [f (1)]E = , f (i) = i = −i ⇒ [f (i)]E =
0 −1
- .
1 0
Die Darstellungsmatrix von f ist somit M EE (f ) = .
0 −1
b) Es gilt:
- . - .- . - .
2 1 0 2 2
[2+3i]E = ⇒ f (2+3i) = = ⇒ f (2+3i) = 2−3i.
3 0 −1 3 −3

Probe: 2 + 3i = 2 − 3i " !

Übung 7.24
• • ◦ Man betrachte die folgenden linearen Abbildungen:
⎡ ⎤
a
⎢ ⎥ F1
F1 : R3 → P2 (R), ⎣b⎦ &−→ a + (a + b)x + (a + b + c)x2
c
- .
2×2 2 F2 a+b a+c
F2 : P2 (R) → R , a + bx + cx &−→ .
b−c b−c

a) Man bestimme die Darstellungsmatrizen von F1 und F2 in der Standardbasis.


b) Man bestimme die Darstellungsmatrix von F2 ◦ F1 in der Standardbasis.
402 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

v Lösung
a) Darstellungsmatrix von F1 . Wir wenden F1 auf jedes Standardbasiselement von R3
an:
⎛⎡ ⎤⎞ ⎛⎡ ⎤⎞ ⎛⎡ ⎤⎞
1 0 0
⎜⎢ ⎥⎟ ⎜⎢ ⎥⎟ ⎜⎢ ⎥⎟
F1 ⎝⎣0⎦⎠ = 1 + x + x2 , F1 ⎝⎣1⎦⎠ = x + x2 , F1 ⎝⎣0⎦⎠ = x2 .
0 0 1

In der Standardbasis von P2 (R) entsprechen diese Bilder den folgenden Koordina-
tenvektoren:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
5 6 1 5 6 0 5 6 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
1 + x + x2 = ⎣1⎦ , x + x2 = ⎣1⎦ , x2 = ⎣0⎦ .
E E E
1 1 1
⎤ ⎡
1 0 0
⎢ ⎥
Es gilt somit M EE (F1 ) = ⎣1 1 0⎦ .
1 1 1
Darstellungsmatrix von F2 . Es gilt:

⎡ ⎤
- . 1
⎢1⎥
11 ⎢ ⎥
F2 (1) = = E11 + E12 ⇒ [F2 (1)]E = ⎢ ⎥
00 ⎣0⎦
0
⎡ ⎤
- . 1
⎢0⎥
10 ⎢ ⎥
F2 (x) = = E11 + E21 + E22 ⇒ [F2 (x)]E = ⎢ ⎥
11 ⎣1⎦
1
⎡ ⎤
- . 0
⎢1⎥
0 1 ⎢ ⎥
F2 (x2 ) = = E12 − E21 − E22 ⇒ [F2 (x2 )]E = ⎢ ⎥ .
−1 −1 ⎣−1⎦
−1

⎡ ⎤
1 1 0
⎢1
⎢ 0 1⎥ ⎥
Die Darstellungsmatrix von F2 lautet somit M EE (F2 ) = ⎢ ⎥.
⎣0 1 −1⎦
0 1 −1
b) Die Darstellungsmatrix der Komposition F2 ◦ F1 ist einfach das Produkt der
Darstellungsmatrizen von F2 und F1 (Satz 7.6):
⎡ ⎤ ⎡ ⎤
1 1 0 ⎡ ⎤ 2 1 0
⎢1 1 0 0
0 1⎥ ⎢
E E E ⎢ ⎥⎢ ⎥ ⎢2 1 1⎥ ⎥
M E (F2 ◦ F1 ) = M E (F2 )M E (F1 ) = ⎢ ⎥ ⎣1 1 0⎦ = ⎢ ⎥.
⎣0 1 −1⎦ ⎣0 0 −1⎦
1 1 1
0 1 −1 0 0 −1 !
7.2 • Matrixdarstellung von linearen Abbildungen
403 7

Übung 7.25
• • ◦ Es sei P2,2 (R) der Vektorraum der reellen Polynome in den zwei Variablen x und
y mit Totalgrad ≤ 2 (vgl. Übung 6.25). Man betrachte die lineare Abbildung
@ A
∂ ∂
F : P2,2 (R) → P2,2 (R), p(x, y) → x −y p(x, y).
∂y ∂x

Man finde die Darstellungsmatrix von F bezüglich der Standardbasis von P2,2 (R).

v Lösung
Die Standardbasis von P2,2 (R) ist E = {1, x, y, x2 , xy, y2 } (vgl. Übung 6.25). Wie üblich
bestimmen wir die Bilder der Basisvektoren unter der Abbildung F:
⎡ ⎤
@ A 0
∂ ∂ ⎢0⎥
F(1) = x −y 1=0 ⇒ [F(1)]E = ⎣ 00 ⎦
∂y ∂x 0
0
⎡ ⎤
@ A 0
∂ ∂ 0
⎢ −1 ⎥
F(x) = x −y x = −y ⇒ [F(x)]E = ⎣ 0 ⎦
∂y ∂x 0
0
⎡0⎤
@ A 1
∂ ∂
F(y) = x −y y=x ⇒ [F(y)]E = ⎣ 00 ⎦
∂y ∂x 0
0
⎡ ⎤
@ A 0
∂ ∂ 0
⎢ 0 ⎥
F(x2 ) = x −y x2 = −2xy ⇒ [F(x2 )]E = ⎣ 0 ⎦
∂y ∂x −2
0
⎡ ⎤
@ A 0
∂ ∂ 0
⎢ 0 ⎥
F(xy) = x −y xy = x2 − y2 ⇒ [F(xy)]E = ⎣ 1 ⎦
∂y ∂x 0
−1
⎡0⎤
@ A 0
2 ∂ ∂
F(y ) = x −y y2 = 2xy 2
⇒ [F(y )]E = ⎣ 00 ⎦
∂y ∂x 2
0

⎡ ⎤
0 0 0 0 0 0
⎢ ⎥
⎢0 0 1 0 0 0⎥
⎢ ⎥
⎢0 −1 0 0 0 0⎥
Die Darstellungsmatrix von F lautet somit M E (F) = ⎢
E
⎢0
⎥. !
⎢ 0 0 0 1 0⎥⎥
⎢ ⎥
⎣0 0 0 −2 0 2⎦
0 0 0 0 −1 0
404 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

> Bemerkung
Beachte, dass die Darstellunsgmatrix in Übung 7.25 eine Blockdiagonalmatrix ist.
Grund dafür ist, dass F Polynome vom Totalgrad k auf Polynome vom Totalgrad
k abbildet. Wir können uns somit auf die Unterräume {1}, 2 2
B {x, y}C und {x , xy, y }
3 0 14 0 1 0
einschränken, wobei F durch die Matrizen 0, −1 0 bzw. −2 0 2 dargestellt wird.
0 −1 0
B C
E
3 0 14 0 1 0
Wegen Übung 5.28 können wir schreiben: M E (F) = 0 ⊕ −1 0 ⊕ −2 0 2 . Diese
0 −1 0
Eigenschaft hat mit sogenannten invarianten Unterräumen zu tun, welche wir im Band
II genauer unter die Lupe nehmen werden.

Übung 7.26
• • ◦ In der Kontinuumsmechanik ist das Hooke’sche Gesetz eine Beziehung zwischen
dem Verzerrungstensor ϵ und dem Spannungstensor σ :

σ = 2µ ϵ + λ Spur(ϵ) E

Die Koeffizienten µ und λ heißen Lamé-Konstanten.


a) ϵ und σ sind symmetrische Matrizen, d. h. ϵ, σ ∈ Sym3 (R). Man bestimme die
Darstellungsmatrix des Hooke’schen Gesetzes bezüglich der folgenden Basis von
Sym3 (R):
D5 1 0 0 6 5 0 0 0 6 5 0 0 0 6 5 0 1 0 6 5 0 0 1 6 5 0 0 0 6E
B= 000 , 010 , 000 , 100 , 000 , 001
000 000 001 000 100 010

50 ϵ 06
b) Eine Scherung in der x1 x2 -Ebene ist durch ϵ = ϵ 00 beschrieben. Man bestimme
000
den entsprechenden Spannungstensor σ .

v Lösung
a) Wir wenden das Hooke’sche Gesetz auf jedes Basiselement an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 2µ 0 0 λ 0 0 2µ + λ 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
ϵ1 = ⎣0 0 0⎦ ⇒ σ1 = ⎣ 0 0 0⎦ + ⎣ 0 λ 0⎦ = ⎣ 0 λ 0⎦
0 0 0 0 0 0 0 0 λ 0 0 λ
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0 λ 0 0 λ 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
ϵ2 = ⎣0 1 0⎦ ⇒ σ2 = ⎣0 2µ 0⎦ + ⎣0 λ 0⎦ = ⎣0 2µ + λ 0⎦
0 0 0 0 0 0 0 0 λ 0 0 λ
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0 λ 0 0 λ 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
ϵ3 = ⎣0 0 0⎦ ⇒ σ3 = ⎣0 0 0 ⎦ + ⎣0 λ 0⎦ = ⎣0 λ 0 ⎦
0 0 1 0 0 2µ 0 0 λ 0 0 2µ + λ
⎡ ⎤ ⎡ ⎤
0 1 0 0 2µ 0
⎢ ⎥ ⎢ ⎥
ϵ4 = ⎣1 0 0⎦ ⇒ σ4 = ⎣2µ 0 0⎦
0 0 0 0 0 0
7.2 • Matrixdarstellung von linearen Abbildungen
405 7
⎡ ⎤ ⎡ ⎤
0 0 1 0 0 2µ
⎢ ⎥ ⎢ ⎥
ϵ5 = ⎣0 0 0⎦ ⇒ σ5 = ⎣ 0 0 0 ⎦
1 0 0 2µ 0 0
⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0
⎢ ⎥ ⎢ ⎥
ϵ6 = ⎣0 0 1⎦ ⇒ σ6 = ⎣0 0 2µ⎦
0 1 0 0 2µ 0

In der Basis B haben diese Bilder die folgenden Koordinaten


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2µ+λ λ λ 0
2µ+λ λ 0
⎢ λλ ⎥ ⎢ λ ⎥ ⎢ 2µ+λ ⎥ ⎢ 0 ⎥
[σ1 ]B = ⎣ 0 ⎦, [σ2 ]B = ⎣ 0 ⎦, [σ3 ]B = ⎣ 0 ⎦, [σ4 ]B = ⎣ 2µ ⎦ ,
0 0 0 0
0 0 0 0
⎡ ⎤ ⎡ ⎤ ⎡ 2µ+λ λ λ 0 0 0

0 0
0 0 λ 2µ+λ λ 0 0 0
⎢ 0 ⎥ ⎢ 0 ⎥ ⎢ λ 2µ+λ 0 0 0 ⎥
[σ5 ]B = ⎣ 0 ⎦, [σ6 ]B = ⎣ 0 ⎦ ⇒ σ =⎢

λ
0 0

0 2µ 0 0 ⎦ .
2µ 0 0 0 0 0 2µ 0
0 2µ 0 0 0 0 0 2µ

⎡ ⎤
0
⎡⎤ ⎡ ⎤ ⎢ ⎥
⎢0⎥
0ϵ0 010 ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢0⎥
b) Es gilt ϵ = ⎣ϵ 0 0⎦ = ϵ ⎣1 0 0⎦ = ϵ ϵ4 ⇒ [ϵ]B = ⎢ ⎥
⎢ϵ ⎥. Somit
⎢ ⎥
000 000 ⎢ ⎥
⎣0⎦
0

⎡ ⎤⎡ ⎤ ⎡ ⎤
2µ + λ λ λ 0 0 0 0 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ λ 2µ + λ λ 0 0 0 ⎥ ⎢0⎥ ⎢ 0 ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ λ 2µ + λ 0 0 0⎥ ⎢ ⎥ ⎢ ⎥
σ =⎢
λ ⎥ ⎢0⎥ = ⎢ 0 ⎥ ⇒ σ
⎢ 0 0 0 2µ 0 0⎥ ⎢ϵ ⎥ ⎢2µϵ ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣ 0 0 0 0 2µ 0 ⎦ ⎣0⎦ ⎣ 0 ⎦
0 0 0 0 0 2µ 0 0
⎡ ⎤
010
⎢ ⎥
= 2µϵ ⎣1 0 0⎦ .
000 !

Übung 7.27
• ◦ ◦ Es seien F : V → V linear und B1 , B2 Basen von V . Man zeige
9 :−1
B B
M B21 (F −1 ) = M B12 (F) .
406 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

v Lösung
B B
Es gilt: M B11 (id) = M B22 (id) = E (die Darstellungsmatrix der Identitätsabbildung ist
die Identitätsmatrix). Wegen id = F −1 ◦ F = F ◦ F −1 folgt mit der Regel für die
Komposition von Darstellungsmatrizen:
9 :−1
B B B B B B
E = M B11 (id) = M B11 (F −1 ◦ F) = M B21 (F −1 )M B12 (F) ⇒ M B21 (F −1 ) = M B12 (F) .
!

Als typisches Anwendungsbeispiel betrachten wir jetzt lineare Abbildungen zum


Lösen von Differenzialgleichungen.

Übung 7.28
••◦ Sei V ein reeller Vektorraum mit Basis B = {ex , 1, x, x2 }. Man betrachte die lineare
Abbildung

L : V → V , f (x) → L(f ) = f ′ (x) + f (x).

a) Man bestimme die Darstellungsmatrix von L bezüglich der Basis B.


b) Man bestimme alle Lösungen der folgenden Differenzialgleichung welche in V
liegen

y′ (x) + y(x) = ex + 2x2 .

v Lösung
a) Um die Darstellungsmatrix von L zu bestimmen, wenden wir L auf die verschiede-
nen Basiselementen von B an:
⎡ ⎤ ⎡ ⎤
2 0
⎢0⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥
L(ex ) = 2ex ⇒ [L(ex )]B = ⎢ ⎥, L(1) = 0 + 1 = 1 ⇒ [L(1)]B = ⎢ ⎥,
⎣0⎦ ⎣0⎦
0 0
⎡ ⎤ ⎡ ⎤
0 0
⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
L(x) = 1 + x ⇒ [L(x)]B = ⎢ ⎥, L(x2 ) = 2x + x2 ⇒ [L(x2 )]B = ⎢ ⎥ .
⎣1⎦ ⎣2⎦
0 1

⎡ ⎤
2000
⎢0 1 1 0⎥
⎢ ⎥
Die Darstellungsmatrix von L bezüglich der Basis B lautet M B B (L) = ⎢ ⎥.
⎣0 0 1 2⎦
0001
b) Die Differenzialgleichung ist L(y(x)) = ex +2x2 . Wir suchen eine Lösung der Form
y(x) = aex + b + cx + dx2 . In der Basis B entspricht dies dem Koordinatenvektor
[a, b, c, d]T . In der Basis B ausgedrückt entspricht die rechte Seite der Differenzial-
7.2 • Matrixdarstellung von linearen Abbildungen
407 7
gleichung dem Vektor [ex + 2x2 ]B = [1, 0, 0, 2]T . Mithilfe der Darstellungsmatrix
von L können wir die Differenzialgleichung in einem LGS umgewandeln
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 1 ⎤
2 0 0 0 a 1 a 2
⎢0 0⎥ ⎢ b ⎥ ⎢0⎥
⎥ ⎢ ⎥ ⎢ ⎢b⎥ ⎢ 4 ⎥ ex
⎢ 1 1 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥⎢ ⎥ = ⎢ ⎥ ⇒ ⎢ ⎥=⎢ ⎥ ⇒ y(x) = + 2x2 − 4x + 4.
⎣0 0 1 2⎦ ⎣ c ⎦ ⎣0⎦ ⎣ c ⎦ ⎣−4⎦ 2
0 0 0 1 d 2 d 2

ex
Die Lösung ist somit y(x) = 2 + 2x2 − 4x + 4. !

Übung 7.29
• • ◦ Sei V ein reeller Vektorraum mit Basis B = {1, ex , e2x , e3x }. Man betrachte die
lineare Abbildung

L : V → V , f (x) → L(f ) = f ′′ (x) − 3f (x) + 2f (x).

a) Man bestimme die Darstellungsmatrix von L bezüglich der Basis B.


b) Man bestimme alle Lösungen der folgenden Differenzialgleichung, welche in V
liegen

y′′ (x) − 3y′ (x) + 2y(x) = e3x − 3.

v Lösung
a) Wir gehen wie in Übung 7.28 vor und wenden L auf alle Basiselemente an:
⎡ ⎤ ⎡ ⎤
2 0
⎢0⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
L(1) = 2 ⇒ [L(1)]B = ⎢ ⎥ , L(ex ) = 0 ⇒ [L(ex )]B = ⎢ ⎥ ,
⎣0⎦ ⎣0⎦
0 0
⎡ ⎤ ⎡ ⎤
0 0
⎢0⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
L(e2x ) = 0 ⇒ [L(e2x )]B = ⎢ ⎥ , L(e3x ) = 2e3x ⇒ [L(e3x )]B = ⎢ ⎥
⎣0⎦ ⎣0⎦
0 2

⎡ ⎤
2 0 0 0
⎢0
⎢ 0 0 0⎥⎥
Somit M B
B (L) = ⎢ ⎥.
⎣0 0 0 0⎦
0 0 0 2
b) Die Differenzialgleichung ist L(y(x)) = ex + 2x2 . Wir suchen eine Lösung der Form
y(x) = a + bex + ce2x + de3x , was dem Koordinatenvektor [a, b, c, d]T entspricht. In
der Basis B ausgedrückt entspricht die rechte Seite der Differenzialgleichung dem
Vektor [e3x − 3]B = [−3, 0, 0, 1]T . Mithilfe der Darstellungsmatrix von L können
wir unsere Differenzialgleichung wie folgt schreiben:
408 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ 3⎤ ⎡ ⎤ ⎡ ⎤
2 0 0 0 a −3 a −2 0 0
⎢0 0⎥ ⎢ ⎥ ⎢ ⎥ ⎢b⎥ ⎢ 0 ⎥ ⎢1⎥ ⎢0⎥
⎢ 0 0 ⎥ ⎢b⎥ ⎢ 0 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥⎢ ⎥ = ⎢ ⎥ ⇒ ⎢ ⎥ = ⎢ ⎥ + t ⎢ ⎥ + s ⎢ ⎥ , t, s ∈ R.
⎣0 0 0 0⎦ ⎣ c ⎦ ⎣ 0 ⎦ ⎣c⎦ ⎣ 0 ⎦ ⎣0⎦ ⎣1⎦
1
0 0 0 2 d 1 d 2 0 0

Die gesuchte Lösung der Differenzialgleichung lautet:

e3x − 3
y(x) = + t ex + s e2x , t, s ∈ R.
2

Beachte, dass die Lösung 2 freie Parameter t, s hat. Diese sind die Integrationskon-
stanten der Differenzialgleichung (werden durch Anfangs- oder Randbedingungen
festgelegt). !

7.3 Wichtige lineare Abbildungen

Wir untersuchen nun wichtige lineare Abbildungen R2 → R2 bzw. R3 → R3 und


deren Matrixdarstellungen.

7.3.1 Wichtige lineare Abbildungen R2 → R2

Streckungen (oder Reskalierungen)

- .
α 0
Streckung (Reskalierung) um Faktor α
0 α

- .
Reskalierung mit unterschiedlichen Faktoren (in α1 0
x1 -Richtung um α1 , in x2 -Richtung um α2 ) 0 α2
7.3 • Wichtige lineare Abbildungen
409 7
Spiegelungen

- .
1 0
Spiegelung an der x1 -Achse
0 −1

- .
−1 0
Spiegelung an der x2 -Achse
0 1

- .
−1 0
(Punkt-)Spiegelung am Nullpunkt (= Streckung
0 −1
um -1)

- .
01
Spiegelung an der Geraden x2 = x1 bzw. 45◦ -Achse
10

Rotationen

- .
cos(ϕ) − sin(ϕ)
Rotation um Winkel ϕ in positiver Richtung (Ge-
sin(ϕ) cos(ϕ)
genuhrzeigersinn)

Projektionen

- .
10
Projektion auf die x1 -Achse
00

- .
00
Projektion auf die x2 -Achse
01

Scherungen

- .

Horizontale Scherung
0 1

- .
1 0
Vertikale Scherung
β 1
410 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

7.3.2 Wichtige lineare Abbildungen R3 → R3

Streckungen (oder Reskalierungen)

⎡ ⎤
α 0 0
⎢ ⎥
Streckung um α > 0 ⎣0 α 0⎦
0 0 α

⎡ ⎤
α1 0 0
⎢ ⎥
Reskalierung um α1 in x1 -Richtung, α2 in x2 - ⎣ 0 α2 0 ⎦
Richtung, und um α3 in x3 -Richtung 0 0 α3
Spiegelungen

⎡ ⎤
10 0
⎢ ⎥
Spiegelung an der x1 x2 -Ebene ⎣0 1 0 ⎦
0 0 −1

⎡ ⎤
1 0 0
⎢ ⎥
Spiegelung an der x1 x3 -Ebene ⎣0 −1 0⎦
0 0 1

⎡ ⎤
−1 0 0
⎢ ⎥
Spiegelung an der x2 x3 -Ebene ⎣ 0 1 0⎦
0 01
7.3 • Wichtige lineare Abbildungen
411 7

⎡ ⎤
−1 0 0
⎢ ⎥
(Punkt-)Spiegelung am Nullpunkt ⎣ 0 −1 0 ⎦
0 0 −1

Rotationen
⎡ ⎤
1 0 0
⎢ ⎥
Rotation um den Winkel ϕ um x1 -Achse in positi- ⎣0 cos(ϕ) − sin(ϕ)⎦
ver Richtung 0 sin(ϕ) cos(ϕ)

⎡ ⎤
cos(ϕ) 0 sin(ϕ)
⎢ ⎥
Rotation um den Winkel ϕ um x2 -Achse in positi- ⎣ 0 1 0 ⎦
ver Richtung − sin(ϕ) 0 cos(ϕ)

⎡ ⎤
cos(ϕ) − sin(ϕ) 0
⎢ ⎥
Rotation um ’ den Winkel ϕ um x3 -Achse in positi- ⎣ sin(ϕ) cos(ϕ) 0⎦
ver Richtung 0 0 1

Sherungen
⎡ ⎤
1β 0
⎢ ⎥
Scherung ⎣0 1 0⎦
0 0 1

⎡ ⎤
10β
⎢ ⎥
Scherung ⎣0 1 0 ⎦
00 1

⎡ ⎤
10 0
⎢ ⎥
Scherung ⎣0 1 β ⎦
00 1
412 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

Projektionen

⎡ ⎤
100
⎢ ⎥
Projektion auf die x1 x2 - ⎣0 1 0⎦
Ebene 000

⎡ ⎤
100
⎢ ⎥
Projektion auf die x1 x3 - ⎣0 0 0⎦
Ebene 001

⎡ ⎤
000
⎢ ⎥
Projektion auf die x2 x3 - ⎣0 1 0⎦
Ebene 001

Allgemeine Formeln

vvT
Spiegelung an Gerade x = 2 ||v||2 −E
t v (v = Richtungsvektor)

v vT
Projektion auf die Gerade ||v||2
x = t v (v = Richtungsvek-
tor)

cos(ϕ) E + T
Rotation um den Winkel
5 v1 ϕ6 C vv
B (1 − cos(ϕ))
0 −v3 v2
um Drehachse v = v2 + sin(ϕ) v3 0 −v1
v3
−v2 v1 0
(v muss ein Einheitsvektor
sein)

nn T
Spiegelung an Ebene x·n = E − 2 ||n||2
0 (n = Normale)

n nT
Projektion auf die Ebene x· E− ||n||2
n = 0 (n = Normale)
7.3 • Wichtige lineare Abbildungen
413 7

Übung 7.30
• ◦ ◦ Man bestimme die Darstellungsmatrizen der folgenden linearen Abbildungen in
der Standardbasis:
a) F1 = Streckung in R2 um α > 0.
b) F2 = Spiegelung in R2 an der Geraden x1 = x2 .
c) F3 = Rotation in R2 um Winkel ϕ.
d) F4 = Projektion in R3 auf die x2 x3 -Ebene.
e) F5 = Projektion in R3 auf den Vektor v = [a, b, c]T .
f) F6 = Spiegelung in R3 an dem Vektor v = [a, b, c]T .

v Lösung
Wir erinnern uns daran, dass die Darstellungsmatrix einer linearen Abbildung durch
deren Wirkung auf die Basiselemente bestimmt ist. Der Trick bei dieser Aufgabe ist
es also, die entsprechende Abbildung an den Standardbasisvektoren e1 , e2 des R2
bzw. e1 , e2 , e3 des R3 anzuwenden (mit Skizze).
a) Wir betrachten die Wirkung einer Streckung um α > 0 an den Basisvektoren e1 , e2 .
Jeder Basisvektor wird mit einen Faktor α multipliziert:
- . - .
α 0
F1 (e1 ) = , F1 (e2 ) = .
0 α
. -
α 0
Die Darstellungsmatrix von F1 lautet somit = M EE (F1 )
.

b) Bei der Spiegelung an der Geraden x1 = x2 werden alle Vektoren an der Achse
x1 = x2 gespiegelt. Somit werden die Basisvektoren e1 , e2 wie folgt abgebildet:
- . - . - .
0 1 E 01
F2 (e1 ) = , F2 (e2 ) = ⇒ M E (F2 ) = .
1 0 10

c) Wir rotieren die Basisvektoren e1 , e2 in positiver Richtung um den Winkel ϕ


(. Abb. 7.7):
- . - . - .
cos(ϕ) − sin(ϕ) cos(ϕ) − sin(ϕ)
F3 (e1 ) = , F3 (e2 ) = ⇒ M EE (F3 ) = .
sin(ϕ) cos(ϕ) sin(ϕ) cos(ϕ)

d) Bei der Projektion auf die x2 x3 -Ebene werden die Basisvektoren e1 , e2 , e3 wie folgt
abgebildet:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 0 000
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F4 (e1 ) = ⎣0⎦ , F4 (e2 ) = ⎣1⎦ , F4 (e3 ) = ⎣0⎦ ⇒ M EE (F4 ) = ⎣0 1 0⎦ .
0 0 1 001

Alternative: Die auf die x2 x3 -Ebene ist F54 : R36→ R3 , [x1 , x2 , x3 ]T → [0, x2 , x3 ]T .
000
Die Darstellungsmatrix von F4 ist somit 010 .
001
414 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

b c

. Abb. 7.7 Übung 7.30

e) Die Formel für die orthogonale Projektion eines Vektors x auf v = [a, b, c]T lautet
(vgl. Anhang A):
⎡ ⎤
a
x·v x·v ⎢ ⎥
Projv (x) = v = F ⎣ b⎦ .
||v||2 a2 + b2 + c2
c

Wenden wir diese Abbildung auf die Basisvektoren e1 , e2 , e3 an, so bekommen wir:
⎡ ⎤ ⎡ ⎤
1 a
⎢ ⎥ ⎢ ⎥
·
⎣0⎦ ⎣b⎦ ⎡ ⎤ ⎡ ⎤
a a
0 c ⎢ ⎥ a ⎢ ⎥
F5 (e1 ) = F ⎣b⎦ = 2 2 + c2 ⎣b⎦ ,
2 2
a +b +c 2 a + b
c c
⎡ ⎤ ⎡ ⎤
0 a
⎢ ⎥ ⎢ ⎥
⎣1⎦ · ⎣b⎦ ⎡ ⎤ ⎡ ⎤
a a
0 c ⎢ ⎥ b ⎢ ⎥
F5 (e2 ) = F ⎣b⎦ = 2 2 + c2 ⎣b⎦
2 2
a +b +c 2 a + b
c c
⎡ ⎤ ⎡ ⎤
0 a
⎢ ⎥ ⎢ ⎥
⎣0⎦ · ⎣b⎦ ⎡ ⎤ ⎡ ⎤
a a
1 c ⎢ ⎥ c ⎢ ⎥
F5 (e3 ) = F ⎣b⎦ = 2 ⎣b⎦ .
a2 + b2 + c2 a + b2 + c2
c c
7.3 • Wichtige lineare Abbildungen
415 7
. Abb. 7.8 Übung 7.30

Die gesuchte Darstellungsmatrix lautet somit:


⎡ ⎤
a2 ab ac
1 ⎢ ⎥
M EE (F5 ) = 2 ⎣ab b2 bc⎦ .
a + b2 + c2
ac bc c2

Beachte (7 vgl. Tabelle in Abschn. 7.3):


⎡ ⎤ ⎡ ⎤
a 5 6 a2 ab ac
v vT 1 ⎢ ⎥ 1 ⎢ ⎥
M EE (F5 ) = = 2 ⎣b⎦ a b c = 2 ⎣ab b2 bc⎦ .
||v||2 a + b2 + c2 a + b2 + c2
c ac bc c2

f) Mit der Skizze in . Abb. 7.8 finden wir:

F6 (x) = x − 2x⊥ = x − 2(x − x∥ ) = 2x∥ − x = 2Projv (x) − x.

Die Darstellungsmatrix der Spiegelung an dem Vektor [a, b, c]T lautet somit:
⎡ ⎤ ⎡ ⎤
a2 ab ac 1 0 0
2 ⎢ ⎥ ⎢ ⎥
M EE (F6 ) = 2 ⎣ab b2 bc⎦ − ⎣0 1 0⎦
a + b2 + c2 2
ac bc c 0 0 1
⎡ ⎤
a2 − b2 − c2 2ab 2ac
1 ⎢ ⎥
= 2 ⎣ 2ab b2 − a2 − c2 2bc ⎦.
a + b2 + c2 2 2 2
2ac 2bc c − a − b

Beachte (7 vgl. Tabelle in Abschn. 7.3):


⎡ ⎤ ⎡ ⎤
a 5 6 100
v vT 2 ⎢ ⎥ ⎢ ⎥
M EE (F6 ) = 2 −E = 2 ⎣b⎦ a b c − ⎣0 1 0⎦ .
||v||2 a + b2 + c2
c 001 !
416 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

Übung 7.31
• ◦ ◦ Welche Abbildungen werden von den folgenden Matrizen in der Standardbasis
dargestellt?
- √ .
1 1 3
a) 2 √
− 3 1
⎡ ⎤
√1 − √1 0
⎢ 2 2 ⎥
b) ⎢ 1 1 ⎥
⎣ √2 √2 0⎦
0 0 0

v Lösung
a) Es gilt
- √ . - 1 √ . - 1 2 1 2.
1 3
1 3 2√ 2 cos − π3 − sin − π3
√ = = 1 2 1 2 .
2 − 3 1 − 23 1
2
sin − π3 cos − π3

Die Matrix stellt eine Rotation um den Winkel −60◦ dar.

b) Wegen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
√1 − √1 0 √1 − √1 0 100
⎢ 2 2 ⎥ ⎢ 2 2 ⎥ ⎢ ⎥
⎢ √1 √1 0⎥ ⎢ √1 √1 0⎥
⎣ 2 2 ⎦= ⎣ 2 2 ⎦ ⎣0 1 0⎦
0 0 0 0 0 1 000
; <= > ; <= >
Rotation um ϕ= π4 Projektion auf x1 x2 -Ebene

repräsentiert die Matrix eine Projektion auf die x1 x2 -Ebene, gefolgt von einer
Drehung in dieser Ebene um 45◦ . !

Obige Betrachtungen motivieren die folgende Klassifikation von linearen Abbildun-


gen.

7.3.3 Klassifikation von linearen Abbildungen

Wichtige lineare Abbildungen sind Streckungen, Drehungen, Spiegelungen und Pro-


jektionen. Solche lineare Abbildungen können anhand der Darstellungsmatrix ganz
einfach klassifiziert werden:
5 Streckung, wenn A = α E (α ist Streckungsfaktor) oder A = diag[α1 , α2 , α3 ]
(Streckung mit unterschiedlichen Faktoren α1 , α2 , α3 ).
5 Rotation (Drehung), wenn AT A = E (d. h. A ist orthogonal) und det(A) = 1.
5 Spiegelung, wenn AT A = E (d. h. A ist orthogonal) und det(A) = −1.
5 Projektion, wenn A2 = A (d. h. A ist idempotent).

Diese Klassifikationen lassen sich sehr schön auch anhand der Bilder in der Tabelle
von 7 Abschn. 7.3 nachvollziehen.
7.3 • Wichtige lineare Abbildungen
417 7
> Bemerkung
Die Bedingung AT A = E (A orthogonal) besagt, dass Drehungen und Spiegelungen die
Länge von Vektoren und die Winkel zwischen Vektoren invariant lassen (vgl. Lineare
Algebra II, Vektorräume mit Skalarprodukt). Die Bedingung det(A) = 1 besagt, dass
Drehungen orientierungserhaltend bleiben. Spiegelungen haben det(A) = −1, sie sind
orientierungsumkehrend. Die Bedingung A2 = A bedeutet, dass beim zweimalprojizie-
ren das zweite Mal nichts passiert.

Übung 7.32
• ◦ ◦ Man
⎡ betrachte⎤die Abbildungen mit den folgenden Darstellungsmatrizen
0 −1 0
⎢ ⎥
a) A = ⎣0 0 −1⎦ ,
1 0 0
⎡ ⎤
0 −1 −1
⎢ ⎥
b) A = ⎣−1 0 −1⎦
1 1 2
- .
1 a2 − b2 2ab
c) A = a2 +b2 ,
2ab b2 − a2
⎡ ⎤
1 −1 0
⎢ ⎥
d) A = ⎣−1 1 0⎦ .
1 1 2

Sind es Rotationen, Spiegelungen, Projektionen oder Streckungen?

v Lösung
a) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤
0 −1 0 0 0 1 100
⎢ ⎥⎢ ⎥ ⎢ ⎥
AT A = ⎣0 0 −1⎦ ⎣−1 0 0⎦ = ⎣0 1 0⎦ = E und det(A) = 1
1 0 0 0 −1 0 001

ist A eine Drehung.


b) Es gilt
⎡ ⎤⎡ ⎤ ⎡ ⎤
0 −1 −1 0 −1 −1 0 −1 −1
⎢ ⎥⎢ ⎥ ⎢ ⎥
A2 = ⎣−1 0 −1⎦ ⎣−1 0 −1⎦ = ⎣−1 0 −1⎦ = A.
1 1 2 1 1 2 1 1 2

A ist eine Projektion.


c) Wegen
- .- . - .
T 1 a2 − b2 2ab a2 − b2 2ab 10
A A= 2 = =E
(a + b2 )2 2ab b2 − a2 2ab b2 − a2 01
418 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

- .
1 a2 − b2 2ab −(a2 − b2 )2 − 4a2 b2
det(A) = 2 2 2
det 2 2
= = −1
(a + b ) 2ab b − a (a2 + b2 )2

repräsentiert A eine Spiegelung (es ist die Spiegelung an dem Vektor [a, b]T ).
d) Es gilt:
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 −1 0 1 −1 0 2 −2 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
A2 = ⎣−1 1 0⎦ ⎣−1 1 0⎦ = ⎣−2 2 0⎦ = 2A.
1 1 2 1 1 2 2 2 4

Was heißt dies? Es bedeutet, dass A „fast“ eine Projektion ist. Definieren wir P =
1
2 A, so haben wir genau eine Projektion

⎡ ⎤⎡ ⎤ ⎡ ⎤
1
− 21 0
2
1
2 −2 0
1 1
2 −2 0
1
⎢ ⎥⎢ ⎥ ⎢ ⎥
P = ⎣− 12 12 0⎦ ⎣− 12 12 0⎦ = ⎣− 12 12 0⎦ = P ⇒ P ist eine Projektion
1 1 1 1 1 1
2 2 1 2 2 1 2 2 1

Somit ist A = 2EP, d. h., A ist das Produkt einer Streckung (2E) und einer
Projektion (P). !

Übung 7.33
• ◦ ◦ Es sei E = {v ∈ R3 | v · n = 0} die Ebene mit der Normalen n. Die Projektion auf
E ist durch der folgenden Matrix beschrieben (7 vgl. Tabelle in Abschn. 7.3):

n nT
P=E− .
||n||2

Man zeige, dass P idempotent ist.

v Lösung
a) Wir rechnen nach:

=||n||2
=>;<
@ A@ A
2 n nT n nT n nT n nT n nT
P = E− E− =E−2 +
||n||2 ||n||2 ||n||2 ||n||4
n nT n ||n||2 nT n nT n nT n nT
=E−2 + = E − 2 + = E − = P.
||n||2 ||n||4 ||n||2 ||n||2 ||n||2

Somit ist P idempotent. !

> Bemerkung
Erinnerung: Für Vektoren in R3 gilt vT v = v · v = ||v||2 (vgl. Anhang BA.1.1).
7.3 • Wichtige lineare Abbildungen
419 7

Übung 7.34
• • ◦ Es sei n = [n1 , n2 , n3 ]T ein Einheitsvektor. Die Rotation um den Winkel ϕ um
Drehachse n ist gegeben durch die Matrixdarstellung
⎡ ⎤
0 −n3 n2
⎢ ⎥
R = cos ϕ E + sin ϕ N + (1 − cos ϕ)nnT , N = ⎣ n3 0 −n1 ⎦ .
−n2 n1 0

a) Man zeige, dass R orthogonal ist.


b) Man berechne det(R).
c) Man beweise die Formel cos ϕ = Spur(R)−1
2

v Lösung
a) Wir rechnen nach:
⎡ ⎤ ⎡ ⎤
n1 5 6 n21 n1 n2 n1 n3
⎢ ⎥ ⎢ ⎥
nnT = ⎣n2 ⎦ n1 n2 n3 = ⎣n1 n2 n22 n2 n3 ⎦ .
n3 n1 n3 n2 n3 n23

1 2T
Man sieht, dass nnT symmetrisch ist ⇒ nnT = nnT . Alternativ kann man
1 T 2T 1 T 2T T
dies direkt nachweisen: nn = n n = nnT . Die Matrix N ist hingegen
schiefsymmetrisch
⎡ ⎤
0 n3 −n2
⎢ ⎥
N T = ⎣−n3 0 n1 ⎦ = −N.
n2 −n1 0

Wir erhalten:
@ 9 :T A
RT R = cos ϕ E + sin ϕ N T + (1 − cos ϕ) nnT
9 :
× cos ϕ E + sin ϕ N + (1 − cos ϕ)nnT
9 :9 :
= cos ϕ E − sin ϕ N + (1 − cos ϕ)nnT cos ϕ E + sin ϕ N + (1 − cos ϕ)nnT

= cos2 ϕ E + sin ϕ cos ϕ N + (1 − cos ϕ) cos ϕ nnT − sin ϕ cos ϕ N − sin2 ϕ N 2


− (1 − cos ϕ) sin ϕ NnnT + (1 − cos ϕ) cos ϕ nnT + (1 − cos ϕ) sin ϕ nnT N

+ (1 − cos ϕ)2 n ;<=>


nT n nT .
=||n||2 =1
420 Kapitel 7 • Lineare Abbildungen I: Definition und Matrixdarstellung

Es gilt
⎡ ⎤⎡ ⎤ ⎡ ⎤
0 −n3 n2 n21 n1 n2 n1 n3 000
⎢ ⎥⎢ ⎥ ⎢ ⎥
NnnT = ⎣ n3 0 −n1 ⎦ ⎣n1 n2 n22 n2 n3 ⎦ = ⎣0 0 0⎦
−n2 n1 0 n1 n3 n2 n3 n23 000
⎡ ⎤⎡ ⎤ ⎡ ⎤
n21 n1 n2 n1 n3 0 −n3 n2 000
⎢ ⎥⎢ ⎥ ⎢ ⎥
nnT N = ⎣n1 n2 n22 n2 n3 ⎦ ⎣ n3 0 −n1 ⎦ = ⎣0 0 0⎦
n1 n3 n2 n3 n32 −n2 n1 0 000
⎡ ⎤
−n2 − n23 n1 n2 n1 n3
⎢ 2 ⎥
N = ⎣ n1 n2 −n21 − n23 n2 n3 ⎦ = nnT − (n21 + n22 + n23 ) E = nnT − E.
2
; <= >
n1 n3 n2 n3 −n21 − n22 =1

Wir erhalten somit:


3 4
RT R = cos2 ϕ E + 2(1 − cos ϕ) cos ϕ + (1 − cos ϕ)2 nnT − sin2 ϕ N 2

= cos2 ϕ E + (1 − cos2 ϕ) nnT − sin2 ϕ nnT + sin2 ϕ E


; <= >
=sin2 ϕ

= (cos2 ϕ + sin2 ϕ) E = E ⇒ R orthogonal.


1 2
b) R orthogonal ⇒ RT R = E ⇒ det RT R = det(R)2 = 1 ⇒ det(R) = ±1. Es genügt
also herauszufinden, ob det(R) = 1 oder det(R) = −1 gilt. Dies machen wir, indem
wir die Determinante beispielsweise für ϕ = 0 berechnen. In diesem Fall ist R = E
⇒ det(R) = 1.
c) Wir rechnen nach:
9 :
Spur(R) = cos ϕ Spur(E) + sin ϕ Spur(N) +(1 − cos ϕ) Spur nnT
; <= > ; <= > ; <= >
=3 =0
=n21 +n22 +n23 =1

Spur(R) − 1
= 3 cos ϕ + 1 − cos ϕ = 1 − 2 cos ϕ ⇒ cos ϕ = .
2 !
421 8

Lineare Abbildungen II:


Kern, Bild und Basiswechsel
Inhaltsverzeichnis

8.1 Kern und Bild – 422


8.1.1 Definition und Eigenschaften – 422
8.1.2 Dimensionsformel für lineare Abbildungen – 423
8.1.3 Injektivität, Surjektivität und Isomorphismen – 424
8.1.4 Rang einer linearen Abbildung – 425
8.1.5 Beispiele – 428

8.2 Isomorphe Vektorräume – 446


8.2.1 Einführendes Beispiel – 446
8.2.2 Isomorphe Vektorräume – 447
8.2.3 Endlichdimensionale Vektorräume sind isomorph
zu Kn – 447
8.2.4 Hom(V, W) ist isomorph zu Km×n – 448
8.2.5 Kommutative Diagramme – 448

8.3 Basiswechsel für lineare Abbildungen – 453


8.3.1 Konstruktion des Basiswechsels – 454
8.3.2 Basiswechsel für Endomorphismen – 455
8.3.3 Beispiele – 457

8.4 Äquivalenz und Ähnlichkeit von


Matrizen – 474
8.4.1 Äquivalente Matrizen – 474
8.4.2 Ähnliche Matrizen – 475

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_8
422 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 8 sind Sie in der Lage:
5 Kern und Bild einer linearen Abbildung erklären und zu bestimmen,
5 die Dimensionsformel für lineare Abbildungen bzw. Matrizen anzuwenden,
5 die Isomorphie von Vektorräumen zu erklären und zu zeigen,
5 kommutative Diagramme zu linearen Abbildungen zu erstellen,
5 Basiswechsel von linearen Abbildungen und deren Matrizen zu erstellen,
5 Äquivalenz und Ähnlichkeit von Matrizen zu erklären und zu unterscheiden.

8.1 Kern und Bild

8.1.1 Definition und Eigenschaften


# Definition 8.1 (Bild und Kern)
Es sei F : V → W eine lineare Abbildung. Die Menge

Ker(F) := {v ∈ V | F(v) = 0} (8.1)

heißt der Kern von F und

Im(F) := {w | w = F(v) für ein v ∈ V } = F(V ) (8.2)

heißt das Bild von F. $

> Bemerkung
Der Kern von F ist nichts anderes als das Urbild des Nullvektors (. Abb. 8.1)

Ker(F) = F −1 {0}, (8.3)

d. h. die Menge aller Vektoren v ∈ V , die auf 0 abgebildet werden. Das Bild von F
ist die Menge aller Vektoren, die entsteht, wenn man F auf beliebige Vektoren aus V
anwendet (. Abb. 8.1).

Kern und Bild sind Unterräume


Jede lineare Abbildung erfüllt F(0) = 0. Dies bedeutet 0 ∈ Ker(F). Aus diesem Grund
ist der Kern von F nie leer; er enthält immer mindestens den Nullvektor, d. h. {0} ⊂
Ker(F). Außerdem gilt:
5 Sind v, w zwei Elemente im Ker(F), so ist auch deren Summe im Ker(F). Tatsäch-
lich impliziert die Linearität von F:

F linear v,w∈Ker(F)
F(v + w) = F(v) + F(w) = 0 + 0 = 0 ⇒ v + w ∈ Ker(F).
8.1 • Kern und Bild
423 8
. Abb. 8.1 Der Kern einer
linearen Abbildung F : V → W
besteht aus allen Vektoren v ∈ V ,
welche unter F auf Null
abgebildet werden. Das Bild von
F ist die Menge aller Vektoren
w ∈ W , welche entstehen, wenn
man F auf beliebige Vektoren
v ∈ V anwendet

5 Ist v ein Element von Ker(F) und α ∈ K, so ist auch α v im Ker(F), weil

F linear v∈Ker(F)
F(α v) = α F(v) = α 0 = 0 ⇒ α v ∈ Ker(F).

Wir haben gezeigt, dass Ker(F) die drei Bedingungen (UR0)–(UR2) eines Unterrau-
mes erfüllt (7 vgl. Kap. 5). Folglich ist Ker(F) ein Unterraum von V , was Satz 8.1
ausdrückt:

# Satz 8.1
Ker(F) ist ein Unterraum von V . $

Ein analoges Resultat gilt auch für das Bild von F (vgl. Übung 8.13)

# Satz 8.2
Im(F) ist ein Unterraum von W . $

8.1.2 Dimensionsformel für lineare Abbildungen

Für jede lineare Abbildung F : V → W gibt es einen wichtigen Zusammenhang


zwischen den Dimensionen des Kerns und des Bildes. Dieser Zusammenhang ist als
Dimensionsformel bekannt:
424 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

# Satz 8.3 (Dimensionsformel)


Sei F : V → W eine lineare Abbildung. Dann gilt:

dim(Ker(F)) + dim(Im(F)) = dim(V ) (8.4)

i Merkregel
In Worten besagt die Dimensionsformel: Je größer die Dimension des Kernes, desto
kleiner die Dimension des Bildes. Außerdem: Die Dimension von Im(F) ist nie größer
als die Dimension des Urbildraums V .

8.1.3 Injektivität, Surjektivität und Isomorphismen

Wofür sind Aussagen über Kern und Bild von F gut? Sie erlauben uns, auf wichtige
Eigenschaften von F zu schließen, wie Injektivität, Surjektivität und Invertierbarkeit.

Kern und Injektivität


F : V → W heißt injektiv, wenn für v, w ∈ V aus F(v) = F(w) stets v = w folgt. Zu
jedem Element des Zielraumes gibt es also höchstens ein Element des Ausgangsrau-
mes. Der Kern von F offeriert eine sehr nützliche Methode, die Injektivität linearer
Abbildungen zu untersuchen:

# Satz 8.4
Eine lineare Abbildung F : V → W ist genau dann injektiv, wenn Ker(F) = {0}. $

Bild und Surjektivität


F : V → W heißt surjektiv, wenn es zu jedem w ∈ W mindestens ein v ∈ V gibt
mit F(v) = w. Um die Surjektivität einer linearen Abbildung nachzuweisen ist das
folgende Kriterium extrem nützlich:

# Satz 8.5
Eine lineare Abbildung F : V → W ist genau dann surjektiv, wenn Im(F) = W . $

Isomorphismen
Eine lineare Abbildung (Homomorphismus) F : V → W heißt Isomorphismus, wenn
F injektiv und surjektiv ist. Beachte: Damit F ein Isomorphismus ist, muss dim(V ) =
dim(W ) gelten. In diesem Fall ist das folgende Kriterium sehr nützlich:

# Satz 8.6
Es sei F : V → W eine lineare Abbildung mit dim(V ) = dim(W ), dann gilt

F injektiv ⇔ F surjektiv ⇔ F isomoprhismus. (8.5)

$
8.1 • Kern und Bild
425 8
> Bemerkung
Dieses Kriterium gilt nur, weil V und W dieselbe Dimension haben. In diesem Fall
reicht die Injketivität von F aus, um auf die Surjektivität und sogar die Bijektivität von
F zu schließen.

Dass F : V → W ein Isomorphismus ist, kann man auch mithilfe der Darstellungs-
matrix nachweisen:

# Satz 8.7
Seien B eine geordnete Basis von V und B′ eine geordnete Basis von W . Dann ist die lineare
Abbildung F : V → W ein Isomorphismus genau dann, wenn die Darstellungsmatrix

MBB (F) invertierbar ist. $

8.1.4 Rang einer linearen Abbildung


# Definition 8.2 (Rang einer linearen Abbildung)
Für eine lineare Abbildung F : V → W definiert man den Rang als

Rang(F) := dim(Im(F)) (8.6)

Wie kann man den Rang einer linearen Abbildung konkret bestimmen? Mithilfe der
Darstellungsmatrix. Seien Basen B1 = {v1 , · · · , vn } und B2 = {w1 , · · · , wm } von V
B
bzw. W gegeben. Dann ist F vollstängig durch die Darstellungsmatrix M B12 (F) =: A
bestimmt (vgl. Satz 7.3). Die Spalten von A sind gerade die Koordinaten der Vektoren
F(v1 ), · · · , F(vn ) ausgedrückt in der Basis B2 . Nun ist das Bild von F erzeugt durch
denselben Vektoren F(v1 ), · · · , F(vn ), d. h.
G H
Im(F) = F(v1 ), · · · , F(vn ) = ⟨Spalten von A⟩ .

Diese Vektoren brauchen aber nicht linear unabhängig zu sein. Die Dimension von
Im(F) ist damit gleich der Anzahl linear unabhängiger Spalten der Darstellungsmatrix,
d. h. gleich dem Rang der Darstellungsmatrix (Rangkriterium, 7 Abschn. 6.4.1):

# Satz 8.8
Es sei A die Darstellungsmatrix von F durch gegebene Basen. Dann gilt:

Rang(F) = Rang(A). (8.7)

$
426 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Praxistipp

Aus diesen Überlegungen ergibt sich eine praktische Methode zur Bestimmung von
Im(F): Die linear unabhängigen Spalten der Darstellungsmatrix von F bilden eine Basis
von Im(F). Es gibt zwei Arten, dies zu erreichen:
5 Man wendet Spaltenoperationen an der Darstellungsmatrix an, um die linear
unabhängigen Spalten zu bestimmen.
5 Man betrachtet die Transponierte der Darstellungsmatrix und bringt diese Matrix
auf Zeilenstufenform mittels Gauß-Algorithmus (Erinnerung: Beim Transponieren
werden Zeilen zu Spalten und Spalten zu Zeilen). Die von Null verschiedenen Zeilen
der Zielmatrix sind dann eine Basis von Im(F).

Obwohl die zwei Methoden äquivalent sind, ist die zweite Methode in der Praxis etwas
einfacher (vgl. Kochrezept 8.1).

Dimensionsformel für Matrizen


Aus diesen Überlegungen ergibt sich eine Variante der Dimensionsformel für Matri-
zen.

# Satz 8.9 (Dimensionsformel für Matrizen)


Sei A ∈ Km×n . Dann gilt:

dim(Ker(A)) + Rang(A) = n (8.8)

Dabei gilt Rang(A) = dim(Im(A)). $

Kochrezept 8.1 (Bestimmung von Ker(F) und Im(F))


Gegeben: Lineare Abbildung F : V → W .
Gesucht: Ker(F) und Im(F).
Schritt 0 In beiden Fällen bestimme man zuerst die Darstellungsmatrix A von F.
Bestimmung von Ker(F)
Schritt 1 Man löse Av = 0 mit dem Gauß-Algorithmus.
Schritt 2 Die linear unabhängigen Vektoren in der Lösungsmenge bilden eine Basis
von Ker(F).
Bestimmung von Im(F)
Schritt 1 Man bringe AT (Transponierte der Darstellungsmatrix) auf Zeilenstufen-
form mit dem Gauß-Algorithmus.
Schritt 2 Nun kann man das Bild von F aus der Zielmatrix direkt ablesen: Die von
Null verschiedenen Zeilen bilden eine Basis von Im(F).
8.1 • Kern und Bild
427 8

Weitere Eigenschaften und Tricks


5 dim(Im(F)) = Rang(A) und dim(Ker(F)) = dim(V ) − Rang(A)
5 dim(Ker(F)) = 0 ⇔ Ker(F) = {0}.
5 dim(Im(F)) = dim(W ) ⇔ Im(F) = W .
5 Ist dim(W ) = dim(V ), so gilt (Satz 8.6):

Ker(F) = {0} ⇔ Im(F) = W ⇔ F Isomorphismus.

5 F Isomorphismus ⇔ Darstellungsmatrix invertierbar.


Dimensionsformel dimker(A) die
+
Im(A) dim(V)
=

Musterbeispiel 8.1 (Kern und Bild)

Man betrachte die lineare Abbildung


- . - .
2 x 2 F x−y
F : R →R , v= &−→ F(v) = .
y x+y

a) Man bestimme Ker(F) und Im(F).


b) Ist F injektiv? Surjektiv? Bijektiv?

a) Die Darstellungsmatrix von F bezüglich der Standardbasis lautet:


- .
1 −1
M EE (F) = .
1 1

Ker(F): Um den Kern von F zu bestimmen, lösen wir F(v) = 0, d. h.


- . - .
1 −1 0 (Z2 ) − (Z1 ) 1 −1 0
% =Z
1 1 0 0 2 0

Die Lösung ist x1 = x2 = 0. Der Kern von F besteht somit nur aus dem Nullvektor

Ker(F) = {0} .

Im(F): Um das Bild von F zu bestimmen, haben wir zwei Möglichkeiten:

5 1. Möglichkeit. Wegen dim(Ker(F)) = 0, folgt aus der Dimensionsformel

dim(Ker(F)) + dim(Im F) = dim(V ) ⇒ dim(Im F) = 2.


; <= > ; <= >
=0 =2

Weil W = R2 , muss Im(F) ganz R2 sein, d. h. Im(F) = R2 .


428 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

5 2. Möglichkeit. Direkt mit Kochrezept 8.1.


- . - . - .
1 −1 Transponieren 1 1 (Z2 ) + (Z1 ) 11
M EE (F) = ⇒ % =Z
1 1 −1 1 02

Nun können wir das Bild direkt an den von Null verschiedenen Zeilen der gefunde-
nen Zielmatrix Z ablesen:
I- . - .J
1 0
Im(F) = , .
1 2

Da sich zwei linear unabhängige Vektoren im Bild befinden, ist dim(Im F) = 2. Dies
ist aber gleich der Dimension des Zielraumes R2 . Dies bedeutet, dass das Bild von
F ganz R2 ist, d. h. Im(F) = R2 .

b) Injektiv? Wegen Ker(F) = {0}, ist F injektiv.


Surjektiv? Wegen Im(F) = R2 , ist F surjektiv.
Bijektiv? F injektiv und surjektiv, also bijektiv. F ist ein Isomorphismus.
Alternative: In diesem Fall sind die Dimensionen des Ausgangs- und des Zielraums
gleich. Aus Satz 8.6 folgt, dass Injektivität und Surjektivität äquivalent sind. Weil F
injektiv ist, ist F automatisch auch surjektiv.

8.1.5 Beispiele

Übung 8.1
• ◦ ◦ Welche der folgenden
- linearen
. Abbildungen sind injektiv, surjektiv, bijektiv?
1 2 3
a) F1 : R3 → R2 , v → v
456
- .
11
b) F2 : R2 → R2 , v → v
12
⎡ ⎤
14
⎢ ⎥
c) F3 : R2 → R3 , v → ⎣2 5⎦ v
36

v Lösung
a) Kern von F1 : Um den Kern von F1 zu bestimmen, lösen wir die Gleichung
F1 (v) = 0
- . - . - .
1 2 3 0 (Z2 ) − 4(Z1 ) 1 2 3 0 −(Z2 )/3 1 2 3 0
% % =Z
4 5 6 0 0 −3 −6 0 0 1 2 0
8.1 • Kern und Bild
429 8
Wir haben zwei Gleichungen für drei Unbekannte. Somit ist eine Unbekannte frei
wählbar, sagen wir x3 = t mit t ∈ R. Aus der zweiten Gleichung folgt dann x2 =
−2x3 = −2t. Aus der ersten Gleichung folgt dann x1 = −2x2 − 3x3 = t. Somit:
⎧ O ⎡ ⎤ ⎫ ⎡ ⎤
⎪ O 1 ⎪ I 1 J
⎨ O ⎬
O ⎢ ⎥ ⎢ ⎥
Ker(F1 ) = x ∈ R3 Ox = t ⎣−2⎦ , t ∈ R = ⎣−2⎦ .

⎩ O ⎪

O 1 1

Insbesondere ist dim(Ker(F1 )) = 1 ̸= 0. F1 ist somit nicht injektiv.


Bild von F1 : Aus der Dimensionsformel erhalten wir

dim(Ker(F1 )) + dim(Im(F1 )) = dim(R3 ) ⇒ dim(Im(F1 )) = 3 − dim(Ker(F1 ))


; <= > ; <= >
=1 =3

= 3 − 1 = 2.

Da der Zielraum von F1 gleich R2 ist und dim(Im(F1 )) = 2 ist Im(F1 ) ganz R2 , d. h.
Im(F1 ) = R2 . Somit ist F1 surjektiv.
Alternative: Wir wenden Kochrezept 8.1 an. Wir betrachten die Transponierte
der Darstellungsmatrix von F1 und bestimmen deren Rang
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 4 (Z2 ) − 2(Z1 ) 1 4 −(Z2 )/3 1 4
⎢ ⎥ (Z3 ) − 3(Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⎣2 5⎦ % ⎣ 0 −3 ⎦ % ⎣0 1⎦ ⇒ Rang(A) = 2.
3 6 0 −6 0 0

Wegen Rang(A) = 2 ist dim(Im(F1 )) = 2 und folglich Im(F1 ) = R2 ⇒ F1 ist


surjektiv.
b) Kern von F2 : Um den Kern von F2 zu bestimmen, lösen wir einfach F2 (v) = 0
- . - .
1 1 0 (Z2 ) − (Z1 ) 1 1 0
% = Z.
1 2 0 0 1 0

Die Lösung ist x1 = x2 = 0. Somit Ker(F2 ) = {0} ⇒ F2 ist injektiv.


Bild von F2 : Aus der Dimensionsformel erhalten wir

dim(Ker(F2 )) + dim(Im(F2 )) = dim(R2 ) ⇒ dim(Im(F2 )) = 2 − dim(Ker(F2 ))


; <= > ; <= >
=0 =2

= 2 − 0 = 2.

Da der Zielraum von F2 gleich R2 ist und dim(Im(F2 )) = 2 ⇒ Im(F2 ) = R2 . Somit


ist F2 surjektiv. Weil F2 injektiv und surjektiv ist folgt F2 ist bijektiv.
c) Kern von F3 : Um den Kern von F3 zu bestimmen, lösen wir F3 (v) = 0
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 4 0 (Z2 ) − 2(Z1 ) 1 4 0 −(Z2 )/3 1 4 0
⎢ ⎥ (Z3 ) − 3(Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⎣2 5 0⎦ % ⎣ 0 −3 0 ⎦ % ⎣ 0 1 0 ⎦ = Z.
3 6 0 0 −6 0 0 0 0
430 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Die Lösung ist x1 = x2 = 0, d. h. Ker(F3 ) = {0}. F3 ist injektiv.


Bild von F3 : Aus der Dimensionsformel folgt

dim(Ker(F3 )) + dim(Im(F3 )) = dim(R2 ) ⇒ dim(Im(F3 )) = 2 − dim(Ker(F3 ))


; <= > ; <= >
=0 =2

= 2 − 0 = 2.

Das Zielraum von F3 ist R3 (Dimension = 3). Die Dimension des Bildes von F3 ist
aber 2 ̸= 3. Somit ist F3 nicht surjektiv. !

Übung 8.2
• ◦ ◦ Man betrachte die folgende lineare Abbildung F : R3 → R3
⎡ ⎤ ⎡ ⎤
x x + 2y + 4z
⎢ ⎥ F ⎢ ⎥
v = ⎣ y ⎦ &−→ F(v) = ⎣ x + y + 2z ⎦ .
z x + y + 2z

a) Man bestimme den Kern und das Bild von F.


b) Ist F injektiv? Surjektiv? Bijektiv?

v Lösung 51 2 46
a) Die Darstellungsmatrix von F in der Standardbasis ist A = 112 .
112
Kern von F: Wir lösen F(v) = 0, d. h. Av = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 4 0 (Z2 ) − (Z1 ) 1 2 4 0 1 2 4 0
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣1 1 2 0⎦ % ⎣ 0 −1 −2 0 ⎦ % ⎣ 0 −1 −2 0 ⎦ = Z.
1 1 2 0 0 −1 −2 0 0 0 0 0

Es sind zwei Gleichungen für drei Unbekannte. Setzen wir x3 = t, so erhalten wir
x2 = −2t und x1 = 0. Der Kern von F ist somit
⎧ O ⎡ ⎤ ⎫ ⎡ ⎤
⎪ O 0 ⎪ I 0 J
⎨ O ⎬
O ⎢ ⎥ ⎢ ⎥
Ker(F) = x ∈ R3 Ox = t ⎣−2⎦ , t ∈ R = ⎣−2⎦ .

⎩ O ⎪

O 1 1

Bild von F: Wir transponieren die Darstellungsmatrix von F und wenden den
Gauß-Algorithmus in zwei Schritte an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 (Z2 ) − 2(Z1 ) 1 1 1 1 1 1
⎢ ⎥ (Z3 ) − 4(Z1 ) ⎢ ⎥ (Z3 ) − 2(Z2 ) ⎢ ⎥
⎣2 1 1⎦ % ⎣ 0 −1 −1 ⎦ % ⎣ 0 −1 −1 ⎦ ⇒ Rang(A) = 2.
4 2 2 0 −2 −2 0 0 0
8.1 • Kern und Bild
431 8
Das Bild von F hat also die Dimension 2. Eine Basis des Bildes können wir direkt
an den von Null verschiedenen Zeilen der Zielmatrix ablesen
⎡ ⎤ ⎡ ⎤
I 1 0 J
⎢ ⎥ ⎢ ⎥
Im(F) = ⎣1⎦ , ⎣−1⎦ .
1 −1

b) Wegen Ker(F) ̸= {0} ⇒ F nicht injektiv. Außerdem ist dim(Im(F)) = 2 ̸= 3 =


dim(W ), d. h. F ist auch nicht surjektiv. !

Übung 8.3
• ◦ ◦ Man betrachte die folgende lineare Abbildung:
. - - .
2×2 2 ab F a − 3b
F :R →R , A= & → F(A) =
− .
cd 2c + 4d

a) Man bestimme den Kern von F.


b) Man bestimme das Bild von F.
c) Ist F injektiv? Surjektiv?

v Lösung
a) Um den Kern von F zu bestimmen, lösen wir F(A) = 0:
- . - .
a − 3b 0
= .
2c + 4d 0

Wir haben zwei Gleichungen mit vier Unbekannten. Somit sind zwei der Variablen
frei wählbar. Wir setzen b = s und d = t. Mithilfe der zweiten Zeile erhalten wir
c = −2t, und aus der ersten Gleichung erhalten wir a = 3s. Der Kern von F ist
7- . O- . - . 8
O
ab 2×2 O a b 3s s
Ker(F) = ∈R O = , s, t ∈ R .
cd O cd −2t t

b) Die Dimension von Ker(F) ist 2 (Ker(F) hat 2 freie Parameter). Aus der Dimensi-
onsformel leiten wir ab

dim(Ker(F)) + dim(Im(F)) = dim(V ) ⇒ dim(Im F) = dim(R2×2 ) − dim(Ker F)


; <= > ; <= >
=2 =4

= 4 − 2 = 2.

Das Bild von F hat somit Dimension 2. Weil der Zielvektorraum W = R2 auch
Dimension 2 hat, ist das Bild von F einfach ganz R2 , d. h. Im(F) = R2 .
c) Wegen Ker(F) ̸= {0} ist F nicht injektiv. Hingegen ist dim(Im(F)) = dim(W ) = 2.
Somit ist F surjektiv. !
432 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Übung 8.4
• ◦ ◦ Man betrachte folgende lineare Abbildung:
- . - .
2×2 2×2 ab F a+d b−c
F :R →R , A= &−→ F(A) = .
cd b−c a+d

a) Man bestimme den Kern und das Bild von F.


b) Ist F injektiv? Surjektiv? Bijektiv?

v Lösung
In der Standardbasis von R2×2 wurde die Darstellungsmatrix von F bereits in
Übung 7.16 bestimmt:
⎡ ⎤
10 0 1
⎢0 1 −1 0⎥
⎢ ⎥
A=⎢ ⎥.
⎣0 1 −1 0⎦
10 0 1

a) Kern von F: Wir lösen:


⎡ ⎤ ⎡ ⎤
1 0 0 1 0 1 0 0 1 0
(Z4 ) − (Z1 )
⎢ ⎥ ⎢0
⎢ 0 1 −1 0 0 ⎥ (Z3 ) − (Z2 ) ⎢ 1 −1 0 0⎥⎥
⎢ ⎥ % ⎢ ⎥ = Z.
⎣ 0 1 −1 0 0 ⎦ ⎣0 0 0 0 0⎦
1 0 0 1 0 0 0 0 0 0

Es sind zwei Gleichungen für vier Unbekannte. Setzen wir x4 = t und x3 = s, so


folgt x1 = −x4 = −t und x2 = x3 = s. Somit
⎡ ⎤ ⎡ ⎤
I −1 0 J
⎢ 0 ⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥
Ker(F) = ⎢ ⎥ , ⎢ ⎥ .
⎣ 0 ⎦ ⎣1⎦
1 0

Der Kern von F ist somit die Menge aller Matrizen der Form
7- . O- . - . 8
O
ab 2×2 O a b −t s
Ker(F) = ∈R O = , s, t ∈ R .
cd O cd s t

Bild von F: Wir transponieren die Darstellungsmatrix von F und wenden den
Gauß-Algorithmus in zwei Schritte an:
⎡ ⎤ ⎡ ⎤
1 0 0 1 1 0 0 1
(Z4 ) − (Z1 )
⎢0 0⎥ ⎢0
⎢ 1 1 ⎥ (Z3 ) + (Z2 ) ⎢ 1 1 0⎥⎥
⎢ ⎥ % ⎢ ⎥.
⎣0 −1 −1 0⎦ ⎣0 0 0 0⎦
1 0 0 1 0 0 0 0
8.1 • Kern und Bild
433 8
Das Bild lesen wir direkt von den von Null verschiedenen Zeilen der Zielmatrix ab:
⎡ ⎤ ⎡ ⎤
I 1 0 J
⎢0⎥ ⎢1⎥
⎢ ⎥ ⎢ ⎥
Im(F) = ⎢ ⎥ , ⎢ ⎥ .
⎣0⎦ ⎣1⎦
1 0

Das Bild von F besteht somit aus allen Matrizen von der Form
7- . O- . - . 8
O ab
ab O ts
Im(F) = ∈ R2×2 O = , s, t ∈ R .
cd O cd st

b) Wegen Ker(F) ̸= {0} und dim(Im(F)) = 2 ̸= 4 = dim(W ) ist F weder injektiv noch
surjektiv. !

Übung 8.5
• ◦ ◦ Es seien V = R2×2 und F : V → V , A → F(A) = A + 2AT .
a) Man bestimme die Darstellungsmatrix von F in der Standardbasis.
b) Ist F injektiv? Surjektiv? Bijektiv?

v Lösung
a) Wir wenden F auf jedes Element der Standardbasis von R2×2 an:
⎡ ⎤
.- - .T - . 3
⎢0⎥
10 10 30 ⎢ ⎥
F (E11 ) = +2 = ⇒ [F (E11 )]E = ⎢ ⎥
00 00 00 ⎣0⎦
0
⎡ ⎤
.- - .T - . 0
⎢1⎥
01 01 01 ⎢ ⎥
F (E12 ) = +2 = ⇒ [F (E12 )]E = ⎢ ⎥
00 00 20 ⎣2⎦
0
⎡ ⎤
- . - .T - . 0
⎢2⎥
00 00 02 ⎢ ⎥
F (E21 ) = +2 = ⇒ [F (E21 )]E = ⎢ ⎥
10 10 10 ⎣1⎦
0
⎡ ⎤
.- - .T - . 0
⎢0⎥
00 00 00 ⎢ ⎥
F (E22 ) = +2 = ⇒ [F (E22 )]E = ⎢ ⎥
01 01 03 ⎣0⎦
3
434 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

⎡ ⎤
3 0 0 0
⎢0
⎢ 1 2 0⎥⎥
Die gesuchte Darstellungsmatrix ist M EE (F) = ⎢ ⎥.
⎣0 2 1 0⎦
0 0 0 3
O O
O1
O 2OO
b) Die Darstellungsmatrix von F ist invertierbar, weil det M EE (F) = 3· O O ·3 = −27 ̸=
O2 1O
0. Somit ist F bijektiv, also sowohl injektiv als auch surjektiv. !

Übung 8.6
• ◦ ◦ Sei P3 (R) die Menge der reellen Polynome vom Grad ≤ 3. Man betrachte die
Ableitung dxd
: P3 (R) → P3 (R), p(x) &→ dp(x)
dx .
d
a) Man bestimme den Kern und das Bild von dx . Man interpretiere das Resultat.
d
b) Ist dx injektiv? Surjektiv?

v Lösung
d
In der Standardbasis lautet die Darstellungsmatrix von dx (vgl. Musterbeispiel 7.3):

⎡ ⎤
0 1 0 0
@ A ⎢0
d ⎢ 0 2 0⎥⎥
M EE =⎢ ⎥.
dx ⎣0 0 0 3⎦
0 0 0 0

d
a) Kern von dx : Wir lösen:

⎡ ⎤ ⎡ ⎤
0 1 0 0 0 I 1 J
⎢0 @ A
0⎥ d ⎢0⎥
⎢ 0 2 0 ⎥ ⎢ ⎥
⎢ ⎥ ⇒ Ker = ⎢ ⎥ = {p ∈ P3 (R) | p(x) = konstant} = P0 (R).
⎣0 0 0 3 0⎦ dx ⎣0⎦
0 0 0 0 0 0

d
Der Kern von dx ist die Menge der konstanten Polynomen (alle konstante Polynome
haben die Ableitung Null).
d
Bild von F: Wir bemerken, dass die Darstellungsmatrix von dx bereits in Zei-
lenstufenform ist. Somit können wir das Bild direkt an den von Null verschiedenen
Spaltenvektoren ablesen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
@ A I 1 0 0 J
d ⎢0⎥ ⎢2⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Im = ⎢ ⎥, ⎢ ⎥, ⎢ ⎥ = P2 (R).
dx ⎣0⎦ ⎣0⎦ ⎣3⎦
0 0 0
8.1 • Kern und Bild
435 8
d
Das Bild von dx besteht aus den Polynomen vom Grad ≤ 2 (beim Ableiten wird
der Grad um eine Stufe kleiner).
Bemerke, dass die Dimensionsformel erfüllt ist:
@ @ AA @ @ AA
d d
dim Ker + dim Im = dim(V ) ⇒ 1+3=4"
dx dx ; <= >
; <= > ; <= > =4
=1 =3

d d d
b) Wegen Ker( dx ) ̸= {0}, ist dx nicht injektiv. Außerdem, wegen dim(Im( dx )) = 3 ̸=
d
4 = dim(W ) ist dx auch nicht surjektiv. !

Übung 8.7
• ◦ ◦ Sei Pn (R) der Vektorraum der Polynome vom Grad ≤ n in der Variablen x. Man
betrachte die folgende Abbildung für n = 3:

F : P3 (R) → P2 (R), p → F(p)(x) = p(x + 2) − p(x).

a) Man bestimme die Darstellungsmatrix von F bezüglich der Standardbasis.


b) Man bestimme den Kern und das Bild von F. Ist F injektiv, surjektiv?

v Lösung
a) Wir bestimmen die Bilder der Standardbasiselemente von P3 (R), d. h. E = {p0 =
1, p1 = x, p2 = x2 , p3 = x3 }:
⎡ ⎤
0
⎢ ⎥
F(p0 )(x) = p0 (x + 2) − p0 (x) = 1 − 1 = 0 ⇒ [F(p0 )]E = ⎣0⎦,
0
⎡ ⎤
2
⎢ ⎥
F(p1 )(x) = p1 (x + 2) − p2 (x) = (x + 2) − x = 2 ⇒ [F(p1 )]E = ⎣0⎦,
0
⎡ ⎤
4
⎢ ⎥
F(p2 )(x) = p2 (x + 2) − p2 (x) = (x + 2)2 − x2 = 4x + 4 ⇒ [F(p2 )]E = ⎣4⎦,
0
F(p3 )(x) = p3 (x + 2) − p3 (x) = (x + 2)3 − x3 = 6x2 + 12x + 8
⎡ ⎤
8
⎢ ⎥
⇒ [F(p3 )]E = ⎣12⎦.
6
⎡ ⎤
024 8
⎢ ⎥
Die gesuchte Darstellungsmatrix lautet somit M EE (F) = ⎣0 0 4 12⎦ .
000 6
436 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

b) Kern von F: Um den Kern von F zu bestimmen, lösen wir


⎡ ⎤
0 2 4 8 0
⎢ ⎥
⎣ 0 0 4 12 0 ⎦ .
0 0 0 6 0

Aus der letzten Gleichung folgt x4 = 0. Daraus ergibt sich mit der ersten und der
zweiten Gleichung x2 = x3 = 0. Die Variable x1 ist frei wählbar. Somit ist
⎡ ⎤
I 1 J
⎢0⎥
⎢ ⎥
Ker(F) = ⎢ ⎥ = P0 (R).
⎣0⎦
0

Der Kern von F sind alle konstante Polynome. Da Ker(F) ̸= {0} ist F nicht injektiv.
Bild von F: Um das Bild von F zu bestimmen, betrachten wir die Dimensions-
formel:

dim(Ker(F)) + dim(Im(F)) = dim(V ) ⇒ dim(Im(F))


; <= > ; <= >
=1 =4

= dim(V ) − dim(Ker(F)) = 4 − 1 = 3.

Da die Dimension des Zielraumes dim(P2 (R)) = 3 ist folgt, dass Im(F) = P2 (R).
Somit ist F surjektiv. !

Übung 8.8
• ◦ ◦ Welche der folgenden Abbildungen sind (i) Homomorphismen, (ii) Endomorphis-
men, (iii) Isomorphismen oder
B (iv)CAutomorphismen?
5 x1 6 x1 +x2
3 3
a) F1 : R → R , x2 → x1 +x3
x3 x2 +x3
B x +x C
3 4 1 2
b) F2 : R2 → R3 , xx12 → x12 −x22
x1 +x2
5 x1 6 3 4
c) F3 : R3 → R2 , x2 → x1x+x 2 +x3
1 −x3
x3
5α6
d) F4 : R3 → P2 (R), γβ → α + βx + γ x2
3 4 3 1 +x2 x2 4
e) F5 : R2 → R2×2 , xx12 → x−x 2 x1 −x2

v Lösung
a) F1 ist eine lineare Abbildung, also ein Homomorphismus. Weil V = R3 = W
(Ausgangsraum = Zielraum), ist F1 ein Endomorphismus.
5 6 Die Darstellungsmatrix
110
von F1 bezüglich der Standardbasis von R3 ist A = 101 . Wegen det(A) = −2 ̸= 0
011
ist A invertierbar. Somit ist F1 ein Isomorphismus und wegen V = R3 = W auch
ein Automorphismus.
8.1 • Kern und Bild
437 8
b) F2 ist keine lineare Abbildung, also kein Homomorphismus, Endomorphismus,
Isomorphismus oder Automorphismus.
c) F3 ist linear, somit ein Homomorphismus. In diesem Fall stimmen Ausgangsraum
und Zielraum nicht überein (V = R2 ̸= R3 = W ). Somit ist F3 sicher kein Endo-
morphismus und kein Automorphismus. Außerdem stimmen die Dimensionen von
V = R2 und W = R3 nicht, d. h., F3 kann kein Isomorphismus sein. Dies kann man
3 4
auch anhand der Darstellungsmatrix sehen: A = 11 10 −11 ist keine quadratische
Matrix, kann also nichtinvertierbar sein.
d) F4 ist eine lineare Abbildung, also ein Homomorphismus. Ausgangsraum und Ziel-
raum stimmen nicht, d. h., F4 kann kein Endomorphismus oder Automorphismus
5 6 100
sein. Die Darstellungsmatrix von F4 bezüglich der Standardbasis ist A = 010 .
001
Da A invertierbar ist, ist F4 ein Isomorphismus.
e) Weil F5 linear ist, ist F5 ein Homomorphismus. Ausgangsraum und Zielraum
stimmen nicht, d. h., F5 kann kein Endomorphismus oder Automorphismus sein.
Außerdem ist dim(V ) = dim(R2 ) = 2 ̸= 4 = dim(R2×2 ) = dim(W ). Somit kann F5
kein Isomorphismus sein. !

Übung 8.9 ⎡1

··· 0 1 0
. . .
⎢ 0 1 . . .. .. ⎥
⎢ ⎥
• • ◦ Man betrachte die (n × n)-Matrix: A = ⎢ . . . ⎥.
⎣ .. . . . . 0 1 ⎦
0 ··· 0 1 1
1 ··· 1 1α
a) Man bestimme den Kern von A.
b) Man bestimme Rang(A).

v Lösung
a) Um den Kern von A zu bestimmen, lösen wir
⎡ ⎤ ⎡ ⎤
1 0 ··· 0 1 0 1 0 ··· 0 1 0
⎢ .. .. .. ⎥ ⎢ .. ⎥
⎢ . ⎥ ⎢ . . .. ⎥
⎢ 0 1 .. . . . ⎥ ⎢ 0 1 . . .. . .⎥
⎢ ⎥ (Zn ) − (Z1 ) ⎢ ⎥ (Zn ) − (Z2 )
⎢ .. . . . . ⎥ % ⎢ .. . . . . ⎥ %
⎢ . 0
. . 1 0⎥ ⎢ . . . 0 1 0⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎣ 0 ··· 0 1 1 0⎦ ⎣ 0 ··· 0 1 1 0 ⎦
1 ··· 1 1 α 0 0 1 ··· 1 α − 1 0
⎡ ⎤ ⎡ ⎤
1 0 ··· 0 1 0 1 0 ··· 0 1 0
⎢ .. .. .. ⎥ ⎢ .. ⎥
⎢ . ⎥ ⎢ . . .. ⎥
⎢0 1 .. . . .⎥ ⎢ 0 1 . . .. . .⎥
⎢ ⎥ (Zn ) − (Zn−1 ) ⎢ ⎥
⎢ .. .. .. ⎥ % ⎢ .. . . . . ⎥ = Z.
⎢. . . 0 1 0⎥ ⎢. . . 0 1 0 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
⎣0 ··· 0 1 1 0⎦ ⎣ 0 ··· 0 1 1 0⎦
0 0 ··· 1 α − 2 0 0 0 · · · 0 α − (n − 1) 0
438 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Wir unterscheiden 2 Fälle:


5 α ̸= n − 1: In diesem Fall ist Z gleich
⎡ ⎤
1 0 ··· 0 1 0
⎢ .. .. .. ⎥
⎢ . ⎥
⎢ 0 1 .. . . .⎥
⎢ ⎥
Z=⎢ .
⎢ .. . . . . . .
⎥ ⇒ Ker(A) = {0}.
⎢ 0 1 0⎥ ⎥
⎢ ⎥
⎣0 ··· 0 1 1 0⎦
0 0 ··· 0 α − (n − 1) 0

5 α = n − 1: In diesem Fall ist Z gleich


⎡ ⎤
1 0 ··· 0 01 ⎡ ⎤
⎢ .. .. ⎥
.. −1
⎢ . ⎥
⎢ 0 1 .. . .⎥
. I ⎢ . ⎥J
⎢ ⎥ ⎢ . ⎥
Z=⎢ . ⎥ ⇒ Ker(A) = ⎢ . ⎥ .
⎢ .. . . . . . . 0 1 0⎥ ⎢ ⎥
⎢ ⎥ ⎣−1⎦
⎢ ⎥
⎣0 ··· 0 1 1 0⎦ 1
0 0 ··· 000

⎨n α ̸= n − 1
b) Aus Rang(A) = dim(Im(A)) = n−dim(Ker(A)) folgt Rang(A) =
⎩n − 1 α =n−1
!

Übung 8.10
•◦◦ Es sei F : V → W linear. Die Dimension des Kernes von F ist 2 und die Dimension
des Bildes von F ist 3. Wie viele linear unabhängige Vektoren muss eine Basis von V
enthalten?

v Lösung
Wegen der Dimensionsformel gilt: dim(V ) = dim(Ker(F)) + dim(Im(F)) = 2 + 3 = 5.
Es folgt dim(V ) = 5. Somit besteht jede Basis von V genau aus 5 linear unabhängigen
Vektoren. !

Übung 8.11
• ◦ ◦ Es sei F : V → W linear und dim(V ) = dim(W ). Man beweise:

F injektiv ⇔ F surjektiv.
8.1 • Kern und Bild
439 8
v Lösung
Aus der Dimensionsformel folgt:

F injektiv ⇔ Ker(F) = {0} ⇔ dim(Ker(F)) = 0 ⇔ dim(Im(F)) = dim(V )



;<=> dim(Im(F)) = dim(W ) ⇔ Im(F) = W ⇔ Fsurjektiv.
dim(V )=dim(W ) !

Übung 8.12
• ◦ ◦ Es sei F : V → W linear. Man beweise:
a) F ist injektiv ⇒ dim(V ) ≤ dim(W ).
b) F ist surjektiv ⇒ dim(W ) ≤ dim(V ).

v Lösung
a) Ist F injektiv, so ist Ker(F) = {0} und somit dim(Ker(F)) = 0. Aus der Dimensi-
onsformel folgt dann

dim(Ker(F)) + dim(Im(F)) = dim(V ) ⇒ dim(Im(F)) = dim(V ).


; <= >
=0

Das Bild von F ist ein Unterraum von W ⇒ dim(Im(F)) ≤ dim(W ). Daraus folgt:

dim(V ) = dim(Im(F)) ≤ dim(W ).

b) Ist F ist surjektiv, so ist dim(Im(F)) = dim(W ). Aus der Dimensionsformel folgt

dim(Ker(F)) + dim(Im(F)) = dim(V ) ⇒ dim(W ) = dim(V ) − dim(Ker(F)).


; <= >
=dim(W )

Wegen dim(Ker(F)) ≥ 0, gilt dim(W ) ≤ dim(V ). !

Übung 8.13
• ◦ ◦ Es sei F : V → W linear. Man zeige: Im(F) ist ein Unterraum von W .

v Lösung
Wir weisen einfach nach, dass Im(F) die drei Eigenschaften (UR0)–(UR2) eines
Unterraumes erfüllt (7 vgl. Abschn. 5.2):
5 Beweis von (UR0): Wegen F(0) = 0 ist 0 ∈ Im(F) "
5 Beweis von (UR1): Es seien w1 , w2 ∈ Im(F). Dann gibt es v1 , v2 ∈ V mit F(v1 ) = w1
und F(v2 ) = w2 . Aus der Linearität von F folgt dann:

F(v1 + v2 ) = F(v1 ) + F(v2 ) = w1 + w2 ⇒ w1 + w2 ∈ Im(F) "


440 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

5 Beweis von (UR2): Es seien w ∈ Im(F) und α ∈ K. Dann gibt es v ∈ V mit F(v) = w.
Daraus folgt F(αv) = α F(v) = α w ⇒ α w ∈ Im(F) "

Somit ist Im(F) ein Unterraum von W . !

Übung 8.14
• • ◦ Man beweise Satz 8.4.

v Lösung
“⇒” Es sei F injektiv und v ∈ Ker(F). Dann ist F(v) = 0. Da F linear ist gilt F(0) = 0.
Wir haben also zwei Vektoren, welche auf Null abgebildet werden: F(v) = 0 = F(0).
Da F injektiv ist folgt v = 0, also Ker(F) = {0}.
“⇐” Es sei umgekehrt Ker(F) = {0}. Weiter seien v, w ∈ V mit F(v) = F(w). Aus der
Linearität von F folgt 0 = F(v) − F(w) = F(v − w) ⇒ v − w ∈ Ker(F). Da Ker(F) = {0}
folgt v − w = 0 ⇒ v = w. Somit ist F injektiv. !

Übung 8.15
• • • Es seien V und W endlichdimensionale Vektorräume über einen Körper K. Es
sei F : V → W eine lineare Abbildung und B = {v1 , · · · , vn } eine Basis von V . Man
beweise die folgenden Aussagen:
a) Ist F injektiv, so sind F(v1 ), · · · , F(vn ) linear unabhängig.
b) Ist F surjektiv, so bilden F(v1 ), · · · , F(vn ) ein Erzeugendensystem.
c) Ist F ein Isomorphismus, so bilden F(v1 ), · · · , F(vn ) eine Basis von W .

v Lösung
a) Ist F injektiv, so gilt Ker(F) = {0} (Satz 8.4). Wir wollen zeigen, dass F(v1 ), · · · ,
F(vn ) linear unabhängig sind, d. h., wir müssen zeigen, dass

n
S
λi F(vi ) = 0 ⇒ λi = 0.
i=1

Um dies zu zeigen, gehen wir wie folgt vor: Wegen der Linearität von F gilt:

n
/ n 0 /n
0 n
S S S S
0= λi F(vi ) = F λi vi ⇒ F λi vi =0 ⇒ λi vi ∈ Ker(F).
i=1 i=1 i=1 i=1

Da Ker(F) = {0} folgt:

n
S
λi vi = 0.
i=1
8.1 • Kern und Bild
441 8
Da v1 , · · · , vn eine Basis bilden, sind v1 , · · · , vn linear unabhängig. Daher hat die
T
Gleichung ni=1 λi vi = 0 nur die triviale Lösung λi = 0 für alle i = 1, · · · , n. Dies
war genau zu zeigen. Somit sind F(v1 ), · · · , F(vn ) linear unabhängig.
b) Da F surjektiv ist und da jedes v ∈ V sich als Linearkombination der Vektoren
v1 , · · · , vn darstellen lässt, ist auch jedes w ∈ W als Linearkombination von F(v1 ),
· · · , F(vn ) darstellbar. Somit bilden F(v1 ), · · · , F(vn ) ein Erzeugendensystem.
c) Aus (a) und (b) folgt: ist F bijektiv ⇒ F(v1 ), · · · , F(vn ) sind linear unabhängig und
bilden ein Erzeugendensystem ⇒ F(v1 ), · · · , F(vn ) bilden eine Basis von W . !

Übung 8.16
• • ◦ Es seien U und W zwei Unterräume eines endlichdimensionalen Vektorraum V .
Man betrachte die Abbildung F : U × W → U + W definiert durch

F(u, w) = u + w, u ∈ U, w ∈ W .

a) Man zeige, dass F linear ist.


b) Man zeige: dim(Ker(F)) = dim(U ∩ W ).
c) Man folgere aus (b) die Formel

dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ).

d) Man zeige: Ist V = U ⊕ W , so gilt dim(V ) = dim(U) + dim(W ).

v Lösung
a) Es seien u1 , u2 ∈ U, w1 , w2 ∈ W und α ∈ K. Dann gilt:
1 2
(L1) F (u1 , w1 ) + (u2 , w2 ) = F(u1 + u2 , w1 + w2 ) = (u1 + u2 ) + (w1 + w2 )
= (u1 + w1 ) + (u2 + w2 ) = F(u1 , w1 ) + F(u2 , w2 )
1 2
(L2) F α(u1 , w1 ) = F(αu1 , αw1 ) = αu1 + αw1 = α(u1 + w1 ) = αF(u1 , w1 ).
Somit ist F linear.
b) Der Kern von F besteht aus den Elementen der Form (v, −v), weil F(v, −v) = v −
v = 0. Weil v sowohl im ersten wie auch im zweiten Eintrag vorkommt, muss v ∈ U
und v ∈ W , d. h. v ∈ U ∩ W . Folglich

Ker(F) = {(v, −v) | v ∈ U ∩ W }.

Die Dimension von Ker(F) ist somit

dim(Ker(F)) = dim(U ∩ W ).

c) Aus (b) folgt nach der Dimensionsformel für F

dim(U × W ) = dim(Ker(F)) + dim(Im(F))


; <= > ; <= > ; <= >
=dim(U)+dim(W ) =dim(U∩W ) =dim(U+W )

⇒ dim(U + W ) = dim(U) + dim(W ) − dim(U ∩ W ).


442 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

d) V = U ⊕ W bedeutet V = U + W und U ∩ W = {0}. Aus (c) folgt dann

dim(V ) = dim(U) + dim(W ) − dim(U ∩ W ) = dim(U) + dim(W ).


; <= >
=0 !

Übung 8.17
• • ◦ Es seien A, B ∈ Km×n . Man zeige:

Rang(A + B) ≤ Rang(A) + Rang(B).

v Lösung
Wegen (A + B)v = Av + Bv ist Im(A + B) ⊂ Im(A) + Im(B). Daraus folgt dim(Im(A +
1 2
B)) ≤ dim Im(A)+Im(B) . Mit der Formel dim(U +W ) = dim(U)+dim(W )−dim(U ∩
W ) finden wir dann:
1 2
Rang(A + B) = dim(Im(A + B)) ≤ dim Im(A) + Im(B)
1 2
= dim(Im(A)) + dim(Im(B)) − dim Im(A) ∩ Im(B)
≤ dim(Im(A)) + dim(Im(B)) = Rang(A) + Rang(B).

Erinnerung: Rang(A) = dim(Im(A)). !

Übung 8.18
• • • Es seien A ∈ Km×n und B ∈ Kn×r . Man beweise die folgenden Ungleichungen:
a) Rang(AB) ≤ min{Rang(A), Rang(B)}.
b) Rang(AB) ≥ Rang(A) + Rang(B) − n.
Hinweis: Betrachte die Abbildung F : Im(B) → Kn , v → Av.

v Lösung
a) 5 Klarerweise ist Im(AB) ⊂ Im(A). Daraus folgt dim(Im(AB)) ≤ dim(Im(A)),
d. h. Rang(AB) ≤ Rang(A).
5 Wir betrachten die Abbildung F : Im(B) → Kn , v → Av. Das Bild von F ist
Im(F) = Im(AB). Somit ist dim(Im(F)) = dim(Im(AB)) = Rang(AB). Aus der
Dimensionsformel für F folgt dann:

dim(Im(B)) = dim(Ker(F)) + dim(Im(F))


; <= > ; <= >
=Rang(B) =Rang(AB)

⇒ Rang(AB) = Rang(B) − dim(Ker(F)) ≤ Rang(B).

Aus Rang(AB) ≤ Rang(A) und Rang(AB) ≤ Rang(B) folgt

Rang(AB) ≤ min{Rang(A), Rang(B)}.


8.1 • Kern und Bild
443 8
b) Wir starten mit der Formel Rang(AB) = Rang(B) − dim(Ker(F)) (aus Teilaufgabe
(a)). Für den Kern von F gilt: v ∈ Ker(F) ⇒ Av = 0 ⇒ v ∈ Ker(A). Somit ist
Ker(F) ⊂ Ker(A) ⇒ dim(Ker(F)) ≤ dim(Ker(A)). Mit der Dimensionsformel für
die Matrix A ∈ Km×n finden wir

n = dim(Ker(A)) + Rang(A) ⇒ dim(Ker(A)) = n − Rang(A)

also

dim(Ker(F)) ≤ dim(Ker A) = n − Rang(A).

Mit der Formel Rang(AB) = Rang(B) − dim(Ker(F)) finden wir somit:

Rang(AB) = Rang(B) − dim(Ker(F)) ≥ Rang(A) + Rang(B) − n. !

Übung 8.19
• • ◦ Es seien A, B ∈ Kn×n mit det(AB) = 0. Können die Matrizen A und B gleichzeitig
vollen Rang haben?

v Lösung
Wir benutzen das Resultat aus Übung 8.18:

Rang(AB) ≥ Rang(A) + Rang(B) − n.

Wegen det(AB) = 0, hat AB nicht vollen Rang, d. h. Rang(AB) < n. Hätten die
Matrizen A und B gleichzeitig vollen Rang, d. h. Rang(A) = Rang(B) = n, so würde
Folgendes gelten

Rang(AB) ≥ Rang(A) + Rang(B) − n = n + n − n = n.


; <= >
<n

Widerspruch. Somit können A und B nicht gleichzeitig vollen Rang haben. !

Übung 8.20
• • ◦ Es seien A, B ∈ Kn×n mit AB = E. Man zeige, dass Rang(A) = Rang(B) = n,
d. h. dass A und B invertierbar sind.

v Lösung
Aus der Ungleichung Rang(AB) ≤ Rang(A) folgt:

Rang(BA) ≤ Rang(A) ⇒ Rang(A) ≥ n.


; <= >
Rang(E)=n
444 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Da Rang(A) nie größer als n sein kann, folgt Rang(A) = n ⇒ A invertierbar. Mit
Rang(AB) ≤ Rang(B) folgt das Resultat für B. !

Übung 8.21
• • ◦ Es sei A ∈ Kn×n . Man zeige:
a) {0} ⊂ Ker(A) ⊂ Ker(A2 ) ⊂ · · · ⊂ Ker(Aj ) ⊂ · · ·
b) n ≥ Rang(A) ≥ Rang(A2 ) ≥ · · · ≥ Rang(Aj ) ≥ · · ·

v Lösung
a) Wir zeigen, dass Ker(Aj ) ⊂ Ker(Aj+1 ) für alle j = 0, 1, 2, · · · gilt. Es sei v ∈ Ker(Aj ),
d. h. Aj v = 0. Wenden wir nun A auf beiden Seiten der Gleichung an, so folgt
Aj+1 v = A0 = 0, d. h. v ∈ Ker(Aj+1 ). Somit ist Ker(Aj ) ⊂ Ker(Aj+1 ).
b) Wir zeigen, dass Im(Aj ) ⊃ Im(Aj+1 ) für alle j = 0, 1, 2, · · · gilt. Es sei w ∈ Im(Aj+1 ).
Dann gibt es v ∈ Kn mit Aj+1 v = w. Daraus folgt

Aj+1 v = Aj (Av) = Aj v′ = w ⇒ w ∈ Im(Aj ).


;<=>
=v′

Somit ist Im(Aj ) ⊃ Im(Aj+1 ). Daraus folgt

dim(Im(Aj )) ≥ dim(Im(Aj+1 )) ⇒ Rang(Aj ) ≥ Rang(Aj+1 ).


; <= > ; <= >
=Rang(Aj ) =Rang(Aj+1 ) !

Übung 8.22
• • ◦ Es sei A ∈ Rm×n .
a) Man zeige: Ker(AT A) = Ker(A).
b) Man folgere aus (a): Rang(AT A) = Rang(A).

v Lösung
a) Um Ker(AT A) = Ker(A) zu zeigen, zeigen wir Ker(AT A) ⊂ Ker(A) und Ker(A) ⊂
Ker(AT A) (7 vgl. Anhang B Abschn. B.1.1).
Beweis von Ker(AT A) ⊂ Ker(A): Es sei v ∈ Ker(A) ⇒ Av = 0. Multiplizieren
wir nun beide Seiten der Gleichung mit AT von links, so bekommen wir

(AT A)v = AT 0 = 0 ⇒ v ∈ Ker(AT A).

Wir haben somit gezeigt, dass Ker(AT A) ⊂ Ker(A).


Beweis von Ker(A) ⊂ Ker(AT A): Es sei v ∈ Ker(AT A) ⇒ AT Av = 0. Jetzt
multiplizieren wir die Gleichung auf beiden Seiten mit vT von links und erhalten:

vT AT Av = (Av)T (Av) = 0.
8.1 • Kern und Bild
445 8
(Av)T (Av) ist die Norm (Länge) von Av, d. h. (Av)T (Av) = ||Av||2 . Der einzige
Vektor mit Norm gleich Null ist der Nullvektor. Daraus folgt Av = 0, d. h. v ∈
Ker(A). Wir haben somit gezeigt, dass Ker(A) ⊂ Ker(AT A).

b) Wir wenden die Dimensionsformel für die Matrizen A und AT A an:

n = dim(Ker(A)) + dim(Im(A)) ⇒ Rang(A) = n − dim(Ker(A))


; <= >
=Rang(A)

n = dim(Ker(A A)) + dim(Im(AT A))


T
⇒ Rang(AT A) = n − dim(Ker(AT A))
; <= >
=Rang(AT A)

Wegen dim(Ker(AT A)) = dim(Ker(A)) finden wir Rang(AT A) = Rang(A). !

Übung 8.23
• • ◦ Man beweise die Dimensionsformel 8.3.

v Lösung
Es sei dim(V ) = n und dim(Ker(F)) = p. Es sei {v1 , · · · , vp } eine Basis von Ker(F). Da
Ker(F) ein Unterraum von V ist, gilt p ≤ n. Somit können wir die Basis von Ker(F)
zu einer Basis von V ergänzen. Wir fügen einfach n − p linear unabhängige Vektoren
hinzu, welche nicht in Ker(F) liegen:

{v1 , · · · , vp , w1 , · · · , wn−p }.

Für die Vektoren v1 , · · · , vp gilt F(v1 ) = · · · = F(vp ) = 0. Somit ist Im(F) durch den
Vektoren F(w1 ), · · · , F(wn−p ) aufgespannt. Wir müssen nur noch zeigen, dass diese
Vektoren linear unabhängig sind, d. h.

0 = α1 F(w1 ) + · · · + αn−p F(wn−p ) impliziert α1 = · · · = αn−p = 0.

Wegen der Linearität von F gilt:


1 2
0 = α1 F(w1 ) + · · · + αn−p F(wn−p ) = F α1 w1 + · · · + αn−p wn−p

Somit ist α1 w1 + · · · + αn−p wn−p ∈ Ker(F). Die Vektoren w1 , · · · , wn−p liegen aber
nicht in Ker(F). Es muss also α1 = · · · = αn−p = 0 gelten. Somit sind die Vektoren
w1 , · · · , wn−p sind linear unabhängig und dim(Im(F)) = n − p. Insgesamt:

dim(Ker(F)) + dim(Im(F)) = p + (n − p) = n = dim(V ). !


446 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

8.2 Isomorphe Vektorräume

In diesem Abschnitt wollen wir den Begriff von isomorphen Vektorräumen einfüh-
ren. Bevor wir mit der Theorie loslegen, wollen wir zuerst ein einführendes Beispiel
diskutieren.

8.2.1 Einführendes Beispiel

Als Beispiel betrachten wir den Vektorraum R2×2 der reellen (2 × 2)-Matrizen.

# Beispiel
Jede (2 × 2)-Matrix A ∈ R2×2 ist durch vier reellen Zahlen bestimmt. A ist also nichts
anderes als eine rechteckige Anordnung von vier Zahlen. Diese Anordnung unterscheidet
sich nicht wesentlich von einem Vektor im R4 , welcher grundsätzlich auch nur eine Liste
von vier Zahlen ist. Jede Matrix kann somit durch Umformen mit einem Spaltenvektor
identifiziert werden und umgekehrt:

Diese Identifizierung von R2×2 mit R4 hat eine interessante Eigenschaft: Sie respektiert die
Vektorraumstruktur von R2×2 und R4 . Man betrachte als Beispiel die folgenden Matrizen
⎡ ⎤ ⎤ ⎡
- . 1 - . 1
⎢2⎥ ⎢−1⎥
12 ⎢ ⎥ 1 −1 ⎢ ⎥
↔⎢ ⎥ und ↔ ⎢ ⎥.
34 ⎣3⎦ −1 2 ⎣−1⎦
4 2

Es gilt:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
- . - . - . 1 1 2
⎢2⎥ ⎢−1⎥ ⎢1⎥
12 1 −1 21 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
+ = ↔ ⎢ ⎥+⎢ ⎥=⎢ ⎥
34 −1 2 26 ⎣3⎦ ⎣−1⎦ ⎣2⎦
4 2 6
Summe in R2×2 = Summe in R4

Die Matrixaddition bleibt somit bei der Identifizierung von R2×2 mit R4 erhalten. Dasselbe
gilt für die Skalarmultiplikation:
⎡ ⎤ ⎡ ⎤
- . - . 1 −3
⎢−1⎥ ⎢ 3 ⎥
1 −1 −3 3 ⎢ ⎥ ⎢ ⎥
(−3) · = ↔ (−3) · ⎢ ⎥ = ⎢ ⎥
−1 2 3 −6 ⎣−1⎦ ⎣ 3 ⎦
2 −6
Skalarmultiplikation in R2×2 = Skalarmultiplikation in R4
8.2 • Isomorphe Vektorräume
447 8
Aus diesen einfachen Überlegungen folgt, dass wir nicht nur jede Matrix mit einem Vektor
identifizieren können, sondern auch, dass die beiden Vektorräume R2×2 und R4 die gleiche
„Struktur“ haben. In diesem Sinne ist es sinnvoll zu sagen, dass R2×2 und R4 „gleichwertig“
sind. Mathematisch sagen wir, dass R2×2 und R4 isomorph sind und wir schreiben:

R2×2 ∼
= R4 . $

8.2.2 Isomorphe Vektorräume

Der Begriff von isomorphen Vektorräumen wird mithilfe von Isomorphismen formal
definiert:

# Definition 8.3 (Isomorphe Vektorräume)


Zwei Vektorräume V und W über K heißen isomorph, wenn ein Isomorphismums F : V →
W zwischen ihnen existiert. In Symbolen V ∼
= W. $

8.2.3 Endlichdimensionale Vektorräume sind isomorph zu Kn

Wann sind zwei Vektorräume V und W isomorph? Für endlich-dimensionale Vek-


torräume kann man diese Frage ganz einfach mit der Dimension beantworten:

# Satz 8.10 (Isomorphiesatz)


Es seien V und W zwei endlich-dimensionale Vektorräume über K. Dann gilt:

V∼
=W ⇔ dim(V ) = dim(W ) $

Eine wichtige Folgerung (Korollar) des obigen Satzes ist:

# Satz 8.11
Jeder n-dimensionale Vektorraum über K ist isomorph zu Kn . $

> Bemerkung
Die Isomorphie von V und Kn erfolgt durch die Koordinatenabbildung ϕB von V zu
einer (festen) Basis B von V :
ϕB
ϕB : V → Kn , v &→ [v]B .

Die Koordinatenabbildung ϕB ordnet jedem v ∈ V den entsprechenden Koordinaten-


vektor [v]B bezüglich der Basis B zu. ϕB ist ein Isomorphismus.

# Beispiel
Wegen dim(Pn (R)) = n + 1 = dim(Rn+1 ) ist Pn (R) ∼
= Rn+1 . $

# Beispiel
Wegen dim(Rm×n ) = m n ist Rm×n ∼
= Rm n . $
448 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

8.2.4 Hom(V, W) ist isomorph zu Km×n

Es seien V und W Vektorräume mit dim(V ) = n und dim(W ) = m. Bezüglich


gegebenen Basen B1 und B2 entspricht jede lineare Abbildung F : V → W einer
(m × n)-Matrix (die Darstellungsmatrix). Man erhält dadurch Zuordnung:

B B
M B12 : Hom(V , W ) → Km×n , F → M B12 (F).

# Satz 8.12
B
Die Abbildung M B12 : Hom(V , W ) → Km×n ist ein Isomorphismus. Daher ist:
Hom(V , W ) isomorph zu Km×n , d. h. Hom(V , W ) ∼
= Km×n . Insbesondere gilt

dim(Hom(V , W )) = n m = dim(V ) dim(W ) (8.9)

8.2.5 Kommutative Diagramme

Die Identifizierung von Hom(V , W ) mit Km×n kann man durch sogenannte kommu-
tativen Diagramme veranschaulichen.

Definition
Was ist ein kommutatives Diagramm? Eine Abbildung F : V → W kann man mittels
Diagramm durch Pfeile darstellen (kurz Pfeildiagramm):

Die Hintereinanderführung (Komposition) der Abbildungen F : V → W und G :


W → Z kann man durch zwei Pfeildiagramme darstellen:

Wir könnten gleich direkt von V nach Z durch eine Abbildung H : V → Z gelangen:

Sind H und G ◦ F dieselben Abbildungen, so sagt man, dass das obige Diagramm
kommutiert. Bei einem kommutativen Diagramm spielt es also keine Rolle, welchen
Weg wir durchlaufen. In unserem Beispiel erhalten wir das gleiche Resultat, wenn wir
F und dann G anwenden oder gleich direkt H anwenden:
8.2 • Isomorphe Vektorräume
449 8

In Formeln heißt dies:

(G ◦ F)(v) = H(v), ∀v ∈ V oder G ◦ F = H.


; <= > ;<=>
1 2

Allgemein:

# Definition 8.4 (Definition)


Ein Diagramm, bestehend aus Mengen und Abbildungen (Pfeile), heißt kommutativ,
wenn für je zwei Wege mit den gleichen Anfangs- und Endpunkte die entsprechenden
Abbildungen übereinstimmen. $

Diagrammatische Formulierung von Satz 8.12


Satz 8.12 können wir nun mit einem Diagramm darstellen:

ϕB1 und ϕB2 sind die Koordinatenabbildungen für die Basen B1 und B2 (7 vgl. Ab-
schn. 8.2.3). Satz 8.12 besagt, dass das obige Diagramm kommutiert, d. h.

In Formeln ausgedrückt heißt dies:

II B
FI = ϕ −1 ◦ M B12 (F) ◦ ϕB1
; <= >I ; B2 <= >
1 2
450 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

oder
Darstellungsmatrix von F
= >; <
B 1 2 1 2
M B12 (F) ϕB1 (v) = ϕB2 F(v)
; <= > ; <= >
Koordinaten von v bzgl. B1 Koordinaten von F(v) bzgl. B2

Beispiel: Ableitung
Um dieses abstrakte Konzept etwas konkreter zu machen, betrachten wir als Beispiel
die Ableitung auf P2 (R).

# Beispiel
d
Die Ableitung kann man als eine lineare Abbildung dx von P2 (R) nach P2 (R) interpretieren
(direkter Weg). Diese lineare Abbildung können wir aber auch durch der Darstellungs-
matrix in der Standardbasis darstellen. Wählt man diesen alternativen Weg, so muss man
zuerst das Polynom p(x) in der Standardbasis darstellen (mit der Koordinatenabbildung
ϕE ), dann die Darstellungsmatrix bilden (vgl. Musterbeispiel 7.3) und das Resultat wieder
als Polynom in P2 (R) umschreiben (mittels ϕE−1 ). Es spielt keine Rolle, ob wir den direkten
oder den längeren Weg durchlaufen. Beide Wege stimmen überein, d. h., das folgende
Diagramm kommutiert:

Übung 8.24
• ◦ ◦ Man zeige R2×2 ∼
= R4 (man gebe einen Isomorphismus explizit an).

v Lösung
Wir betrachten die Abbildung F : R2×2 → R4 definiert durch
⎡ ⎤
/- .0 a
⎢ ⎥
ab ⎢b⎥
F = ⎢ ⎥.
cd ⎣c⎦
d
8.2 • Isomorphe Vektorräume
451 8
Es ist klar, dass F eine lineare Abbildung ist. Wir behaupten nun, dass F ein Isomor-
phismus von R2×2 nach R4 ist. - . - .
a1 b1 a2 b2
5 Ist F injektiv? Es seien A1 = und A2 = zwei Matrizen aus R2×2
c1 d1 c2 d2
mit F(A1 ) = F(A2 ). Aus der Linearität von F folgt dann F(A1 − A2 ) = 0, d. h.
⎡ ⎤ ⎡ ⎤
/- .0 a1 − a2 0 a1 = a2
⎢b − b ⎥ ⎢0⎥
a1 − a2 b1 − b2 ⎢ 1 2⎥ ! ⎢ ⎥ b1 = b2
F(A1 − A2 ) = F =⎢ ⎥=⎢ ⎥ ⇒
c1 − c2 d1 − d2 ⎣ c1 − c2 ⎦ ⎣0⎦ c1 = c2
d1 − d2 0 d1 = d2

Es folgt somit A1 = A2 , d. h. F ist injektiv.


5 Ist F surjektiv? Da dim(R2×2 ) = dim(R4 ) = 4, impliziert die Injektivität von F auch
die Surjektivität (Satz 8.6).

F ist somit ein Isomorphismus und folglich R2×2 ∼


= R4 . !

Übung 8.25
• ◦ ◦ Man zeige Pn (R) ∼
= Rn+1 (man gebe einen Isomorphismus explizit an).

v Lösung
Wir betrachten die lineare Abbildung F : Pn (R) → Rn+1 definiert durch
⎡ ⎤
a0
⎢a ⎥
⎢ 1⎥
F(a0 + a1 x + · · · + an xn ) = ⎢ ⎥
⎢ .. ⎥ .
⎣.⎦
an

Wie im vorigen Beispiel, zeigen wir, dass F ein Isomorphismus ist.


5 Ist F injektiv? Es seien p(x) = a0 + a1 x + · · · an xn und q(x) = b0 + b1 x + · · · + bn xn
zwei Polynome in Pn (R) mit F(p(x)) = F(q(x)). Aus der Linearität von F folgt dann
F(p(x) − q(x)) = 0, d. h.
⎡ ⎤ ⎡ ⎤
a0 − b0 0
⎢a − b ⎥ ⎢0⎥
1 2 ⎢ 1 1⎥ ! ⎢ ⎥
F(p(x) − q(x)) = F (a0 − b0 ) + · · · + (an − bn )xn = ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ = ⎢ .. ⎥
⎣ . ⎦ ⎣.⎦
an − bn 0

Es folgt a0 = b0 , a1 = b1 , · · · , an = bn , d. h. p(x) = p(x). Die Abbildung F ist somit


injektiv.
5 Ist F surjektiv? Da die zwei Vektorräume dieselbe Dimension haben, dim(Pn (R)) =
dim(Rn+1 ) = n + 1, kann man die Surjektivität von F direkt aus der Injektivität von
F folgern (Satz 8.6).

F ist somit ein Isomorphismus von Pn (R) nach Rn+1 und folglich Pn (R) ∼
= Rn+1 . !
452 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Übung 8.26
• ◦ ◦ Für welches n ∈ N ist R2×3 ∼
= Rn . Für dieses n man gebe einen Isomorphismus
explizit an.

v Lösung
Isomorphe Vektorräume haben dieselbe Dimension (Satz 8.10). Es gilt somit R2×3 ∼
=
R6 , d. h. n = 6. Ein Isomorphismus von R2×3 nach R6 ist
⎡ ⎤
a11
⎢ ⎥
.0 ⎢ a ⎥
/- ⎢ 12 ⎥
a11 a12 a13 ⎢a13 ⎥
F =⎢
⎢a ⎥ .

a21 a22 a23 ⎢ 21 ⎥
⎢ ⎥
⎣a22 ⎦
a23 !

Übung 8.27
• ◦ ◦ Welche der folgenden Vektorräumen sind zueinander isomorph?
a) R3×6 , R18
b) P3 (R), R3×3
c) C2 (als R Vektorraum), R2×2
d) Hom(R2 , R3 ), R6
e) ⟨ex , e2x , e3x ⟩, P2 (R)
f) ⟨sin(x), cos(x)⟩, R2×2

v Lösung
Wir wenden jeweils Satz 8.10 an.
a) Wegen dim(R3×6 ) = 3 · 6 = 18 = dim(R18 ) ist R3×6 ∼= R18 .
b) Wegen dim(P3 (R)) = 3 + 1 = 4 ̸= 9 = dim(R ) sind P3 (R) und R3×3 nicht
3×3

isomorph.
c) Wegen dimR (C2 ) = 2 · 2 = 4 = dim(R2×2 ) ist C2 ∼
= R2×2 .
d) Wegen dim(Hom(R , R )) = 2 · 3 = 6 = dim(R ) ist Hom(R2 , R3 ) ∼
2 3 6
= R6 .
e) Wegen dim(⟨e , e , e ⟩) = 3 = 2 + 1 = dim(P2 (R)) ist ⟨e , e , e ⟩ ∼
x 2x 3x x 2x 3x
= P2 (R).
f) Wegen dim(⟨sin(x), cos(x)⟩) = 2 ̸= 4 = dim(R2×2 ) sind ⟨sin(x), cos(x)⟩ und R2×2
nicht isomorph. !

Übung 8.28
• • • Man beweise Satz 8.10.
8.3 • Basiswechsel für lineare Abbildungen
453 8
v Lösung
Beweis von V ∼ = W ⇒ dim(V ) = dim(W ): V ∼ = W bedeutet, dass es ein Isomorphis-
mus F : V → W gibt. Es sei nun dim(V ) = n und es sei B = {v1 , · · · , vn } eine Basis von
V . Da F ein Isomorphismus ist, bilden die Vektoren F(v1 ), · · · , F(vn ) eine Basis von
W (vgl. Übung 8.15). Da diese Basis von W aus n Vektoren besteht, ist dim(W ) = n,
d. h. dim(V ) = dim(W ).
Beweis von V ∼= W ⇐ dim(V ) = dim(W ): Nehmen wir an, dass dim(V ) =
dim(W ) = n gilt. Es seien B = {v1 , · · · , vn } und B′ = {w1 , · · · , wn } Basen von V
bzw. W (wegen dim(V ) = dim(W ) haben die Basen B und B′ dieselbe Anzahl von
Elementen). Wir konstruieren nun ein Isomorphismus von V nach W wie folgt. Jeder
Vektor x ∈ V lässt sich in eindeutiger Weise als Linearkombination der Basiselementen
von B darstellen:
n
S
x = x1 v1 + · · · + xn vn = xi vi .
i=1

Wir definieren nun eine lineare Abbildung F : V → W wie folgt:


/ n 0 n
S S
F xi vi = xi wi .
i=1 i=1

Es ist klar, dass F eine lineare Abbildung ist. Wir behaupten nun, dass F ein Isomor-
phismus ist.
5 Ist F injektiv? Es seien x, y zwei Vektoren in V mit den Koordinaten x1 , · · · , xn
bzw. y1 , · · · , yn in der Basis B. Es gelte F(x) = F(y). Aus der Linearität von F folgt
dann F(x − y) = 0, d. h.

n
/ 0 n n
S S S !
F(x − y) = F (xi − yi )vi = (xi − yi )F (vi ) = (xi − yi )wi = 0.
i=1 i=1 i=1

Aus der Eindeutigkeit der Koordinaten des Nullvektors in der Basis B′ impliziert
die obige Gleichung xi − yi = 0 für alle i = 1, · · · , n, d. h. x = y. Die Abbildung F
ist somit injektiv.
5 Ist F surjektiv? Wegen dim(V ) = dim(W ), impliziert Injektivität von F auch die
Surjektivität (Satz 8.6).

F ist somit ein Isomorphismus von V nach W , d. h. V ∼


= W. !

8.3 Basiswechsel für lineare Abbildungen

In 7 Kap. 7 haben wir erfahren, dass jede lineare Abbildung einer Matrix entspricht.
Diese Matrixdarstellung ist aber von der Basis bestimmt. Wir diskutieren nun, wie
sich die Matrixdarstellung einer linearen Abbildung ändert, wenn wir die Basis
ändern.
454 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

8.3.1 Konstruktion des Basiswechsels

Es sei F : V → W eine lineare Abbildung und es seien die folgenden Basen von V
bzw. W gegeben:

B1 = {v1 , · · · , vn } alte Basis von V B2 = {w1 , · · · , wm } alte Basis von W


B1′ = {v′1 , · · · , v′n } neue Basis von V B2′ = {w′1 , · · · , w′m } neue Basis von W

Wir fragen uns: Ist die Darstellungsmatrix von F bezüglich den alten Basen B1 und
B2 gegeben, wie lautet die Darstellungsmatrix von F bezüglich den neuen Basen B1′
und B2′ ? Gemäß Definition gilt:

B
[F(v)]B2 = M B12 (F)[v]B1 , (8.10)
B
[F(v)]B′ = M B1′ (F)[v]B′ . (8.11)
2 2 1

Mit dem Basiswechsel für Vektoren (7 vgl. Abschn. 6.5) transformieren wir die
Vektoren [v]B1 und [F(v)]B2 in den neuen Basen:

[v]B′ = T B1 →B′ [v]B1 (8.12)


1 1

[F(v)]B′ = T B2 →B′ [F(v)]B2 . (8.13)


2 2

Somit
(8.13) (8.10) B
[F(v)]B′ = T B2 →B′ [F(v)]B2 = T B2 →B′ M B12 (F)[v]B1 (8.14)
2 2 2

(8.12) B B
= T B2 →B′ M B12 (F) T −1
B1 →B1′
[v]B′ ⇒ T B2 →B′ M B12 (F) T −1
B →B′
.
2 1 2 1 1
; <= >
B′
=M 1′ (F)
B
2
(8.15)

Wir haben somit den folgenden Satz bewiesen:

# Satz 8.13 (Basiswechsel für lineare Abbildungen)


Die Darstellungsmatrix der linearen Abbildung F : V → W transformiert sich gemäss der
Formel:

B′
M B1′ (F) = T B2 →B′ M B12 (F) T −1
B B
B →B′
= T B2 →B′ M B12 (F) T B′ →B1 (8.16)
2 2 1 1 2 1

$
8.3 • Basiswechsel für lineare Abbildungen
455 8
i Merkregel
Satz 8.13 kann man kompakt wie folgt ausdrücken

A′ = SAT −1 (8.17)

B B′
mit A = M B12 (F), A′ = M B1′ (F), S = T B2 →B′ und T = T B1 →B′ .
2 2 1

> Bemerkung
Ausgedrückt durch ein Diagramm besagt der Satz 8.13, dass es kommutiert:

8.3.2 Basiswechsel für Endomorphismen

Im Spezialfall, wo V = W (d. h. F ist ein Endomorphismus), vereinfacht sich die


Formel für den Basiswechsel.

# Satz 8.14
Es gilt:

′ −1
MB B B
B′ (F) = T B→B′ M B (F) T B→B′ = T B→B′ M B (F) T B′ →B (8.18)

i Merkregel
Satz 8.14 kann man kompakt wie folgt ausdrücken

A′ = TAT −1 (8.19)

′ ′
mit A = M B B
B (F), A = M B′ (F), T = T B→B′ .

> Bemerkung
Beachte: In der Gl. (8.17) gibt es zwei Transformationsmatrizen S und T. In der
Gl. (8.19) gibt es nur eine Transformationsmatrix T.
456 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Musterbeispiel 8.2 (Basiswechsel für lineare Abbildungen)

Man betrachte die folgende lineare Abbildung:


- . - .
2 v12 v1 − v2
F : R →R , v= → F (v) =
v2 v1 + v2

und die folgenden zwei Basen von R2 :


7- . - .8 7- . - .8
2 1 0 1
B1 = , , B2 = , .
1 −1 1 1

Wie lautet die Darstellungsmatrix von F, wenn der Ausgangs- und Ankunftsraum mit
den Basen B1 bzw. B2 versehen sind? Diese Darstellungsmatrix haben wir bereits in
Musterbeispiel 7.2 bestimmt. Hier wollen wir diese mit einem Basiswechsel zwischen
der Standardbasis und B1 bzw. B2 bestimmen. Die Transformationsmatrix von B1 nach
der Standardbasis ist:
- .
2 1
T B1 →E = .
1 −1

Die Transformationsmatrix von B2 nach der Standardbasis ist:


- .
01
T B2 →E = ,
11

woraus sich die Transformationsmatrix von der Standardbasis E nach B2 als Inverse
ergibt:
- .
−1 1
T E →B2 = T −1
B2 →E = .
1 0

Die Darstellungsmatrix von F bezüglich der Basen B1 und B2 lautet somit:


- .- .- . - .
B −1 1 1 −1 2 1 2 −2
M B12 (F) = T E →B2 M EE (F)T B1 →E = = .
1 0 1 1 1 −1 1 2
8.3 • Basiswechsel für lineare Abbildungen
457 8
8.3.3 Beispiele

Übung 8.29
• ◦ ◦ Sei V = R3 mit der Basis B = {v1 , v2 , v3 }, wobei
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎣0⎦ , v2 = ⎣1⎦ , v3 = ⎣0⎦ .
1 0 1

Die lineare Abbildung F : R3 → R3 sei definiert durch

F(v1 ) = 2v1 − v2 + v3 , F(v2 ) = v2 + v3 , F(v3 ) = 2v1 + 3v3 .

a) Man bestimme die Darstellungsmatrix von F in der Basis B.


b) Man bestimme die Darstellungsmatrix von F in der Standardbasis von R3 .

v Lösung
a) Da F durch ihrer Wirkung auf die Basiselemente der Basis B definiert ist, kann
man die Darstellungsmatrix von F in dieser Basis direkt bestimmen, indem wir die
Bilder der Basiselementen v1 , v2 und v3 in der Basis B als Spalten in einer Matrix
aufschreiben:
⎡ ⎤
2 02
⎢ ⎥
MB
B (F) = ⎣−1 1 0⎦ .
1 13

b) Um die Darstellungsmatrix von F in der Standardbasis zu bestimmen, führen wir


ein Basiswechsel von der Basis B nach der Standardbasis E durch:
⎡ ⎤ ⎡ ⎤
110 1 −1 0
⎢ ⎥ ⎢ ⎥
T B→E = ⎣0 1 0⎦ ⇒ T E →B = T −1
B→E = ⎣ 0 1 0⎦ .
101 −1 1 1

Mit der Formel für den Basiswechsel von linearen Abbildungen (Gl. (8.18)) finden
wir:
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 0 2 0 2 1 −1 0 −1 2 2
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
M EE (F) = T B→E M B
B (F)T E →B = ⎣0 1 0⎦ ⎣−1 1 0⎦ ⎣ 0 1 0⎦ = ⎣−1 2 0⎦ .
1 0 1 1 1 3 −1 1 1 −2 3 5

!
458 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Übung 8.30
• ◦ ◦ Sei V = R3 mit der Basis B = {b1 , b2 , b3 }, wobei
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 6
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
b1 = ⎣0⎦ , b2 = ⎣1⎦ , b3 = ⎣4⎦ .
0 0 2

Die lineare Abbildung F : R3 → R3 sei definiert durch

F(b1 ) = b2 , F(b2 ) = b3 , F(b3 ) = 0.

a) Man bestimme die Darstellungsmatrix von F in der Basis B.


b) Man bestimme die Darstellungsmatrix von F in der Standardbasis von R3 .

v Lösung
a) Darstellungsmatrix von F bezüglich B hat die Bilder der Basiselementen b1 , b2 und
b3 als Spalten
⎡ ⎤
000
⎢ ⎥
MB
B (F) = ⎣1 0 0⎦ .
010

b) Wir führen ein Basiswechsel von B nach der Standardbasis E durch:


⎡ ⎤ ⎡ ⎤
126 1 −2 1
⎢ ⎥ ⎢ ⎥
T B→E = ⎣0 1 4⎦ ⇒ T E →B = T −1
B→E = ⎣0 1 −2⎦ .
002 0 0 12

Mit der Gl. (8.18) erkennen wir:


⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
1 2 6 0 0 0 1 −2 1 2 2 −10
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
M EE (F) = T B→E M B
B (F)T E →B = ⎣0 1 4⎦ ⎣1 0 0⎦ ⎣0 1 −2⎦ = ⎣1 2 −7 ⎦ .
0 0 2 0 1 0 0 0 12 0 2 −4

Übung 8.31
• ◦ ◦ Es sei V = R2 . Man betrachte die folgenden linearen Abbildungen
5 F1 : R2 → R2 ist die Spiegelung an der Achse x1 = x2 .
5 F2 : R2 → R2 ist die Skalierung (Vergrösserung) um den Faktor 5.
8.3 • Basiswechsel für lineare Abbildungen
459 8

a) Man bestimme die Darstellungsmatrizen von F1 , F2 und F1 ◦ F2 in der Standard-


basis.
U3 4 3 4V
b) Man bestimme die Darstellungsmatrix von F1 ◦ F2 in der Basis B = 01 , 11 .

v Lösung
a) Mithilfe der Tabelle in Abschnitt 7.3.1 finden wir:
- . - .
01 50
M EE (F1 ) = , M EE (F2 ) = .
10 05

Die Darstellungsmatrix von F1 ◦ F2 ist das Produkt der einzelnen Darstellungsma-


trizen:
- .- . - .
01 50 05
M EE (F1 ◦ F2 ) = M EE (F1 )M EE (F2 ) = = .
10 05 50

b) Wir führen ein Basiswechsel von der Standardbasis E nach B durch:


- . - .
01 −1 1
T B→E = ⇒ T E →B = T −1
B→E = .
11 1 0

Es folgt somit (Gl. (8.18)):


- .- .- . - .
−1 1 0 5 0 1 −5 0
MB
B (F1 ◦ F2 ) = T E →B M EE (F1 ◦ F2 )T B→E = = .
1 0 50 11 5 5 !

Übung 8.32
U3 1 4 3 1 4V
• ◦ ◦ Man betrachte V = R2 mit der Basis B = 0 , 1 . Es sei F : R2 → R3 eine
lineare Abbildung mit
⎡ ⎤ ⎡ ⎤
/- .0 1 /- .0 2
1 ⎢ ⎥ 1 ⎢ ⎥
F = ⎣1⎦ , F = ⎣3⎦ .
0 1
2 2

a) Man bestimme die Darstellungsmatrix von F, wenn R2 mit der Basis B und R3 mit
der Standardbasis versehen sind.
b) Man bestimme die Darstellungsmatrix von F in der Standardbasis.

v Lösung
a) Aus der Aufgabenstellung wissen wir bereits die Bilder der Basiselemente von B (in
der Standardbasis von R3 ausgedrückt). Die gesuchte Darstellungsmatrix lautet
somit:
460 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

⎡ ⎤
1 2
⎢ ⎥
MB
E (F) = ⎣1 3⎦ .
2 2

b) Es gilt:
- . - .−1 - .
11 11 1 −1
T B→E = ⇒ T E →B = T −1
B→E = = .
01 01 0 1

Somit erhalten wir mit der Gl. (8.16):


⎡ ⎤ ⎡ ⎤
1 2 - . 1 1
⎢ ⎥ 1 −1 ⎢ ⎥
M EE (F) = M B
E (F)T E →B = ⎣1 3⎦ = ⎣1 2⎦ .
0 1
2 2 2 0 !

Übung 8.33
• ◦ ◦ Es seien
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫ ⎪ 1 1 1 1 ⎪
⎪ ⎪
⎨ 1
⎪ 1 1 ⎪
⎬ ⎪
⎨⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥⎪ ⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B1 = ⎣0⎦ , ⎣1⎦ , ⎣1⎦ , B2 = ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥

⎩ ⎪
⎭ ⎪
⎪⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦⎪ ⎪
0 0 1 ⎪
⎩ ⎪

0 0 0 1

Basen von R3 bzw. R4 . Die lineare Abbildung F : R3 → R4 erfüllt


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎛⎡ ⎤⎞ 1 ⎛⎡ ⎤⎞ 1 ⎛⎡ ⎤⎞ 3
1 ⎢0⎥ 1 ⎢1⎥ 1 ⎢0⎥
⎜⎢ ⎥⎟ ⎢ ⎥ ⎜⎢ ⎥⎟ ⎢ ⎥ ⎜⎢ ⎥⎟ ⎢ ⎥
F ⎝⎣0⎦⎠ = ⎢ ⎥ , F ⎝⎣1⎦⎠ = ⎢ ⎥ , F ⎝⎣1⎦⎠ = ⎢ ⎥
⎣1⎦ ⎣1⎦ ⎣2⎦
0 0 1
2 1 5

Man bestimme die Darstellungsmatrix von F in den Basen B1 und B2 auf zwei Arten.

v Lösung
Möglichkeit 1: direkte Rechnung. Wir müssen die Bilder der Basisvektoren b1 , b2 , b3
der Basis B1 in der Basis B2 ausdrücken:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 1 1
⎢0⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥ ⎢−1⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F(b1 ) = ⎢ ⎥ = ⎢ ⎥ − ⎢ ⎥ − ⎢ ⎥ + 2 ⎢ ⎥ ⇒ [F(b1 )]B2 =⎢ ⎥
⎣1⎦ ⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣−1⎦
2 0 0 0 1 2
8.3 • Basiswechsel für lineare Abbildungen
461 8
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 1 0
⎢1⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F(b2 ) = ⎢ ⎥ = 0 ⎢ ⎥ + 0 ⎢ ⎥ + 0 ⎢ ⎥ + ⎢ ⎥ ⇒ [F(b2 )]B2 =⎢ ⎥
⎣1⎦ ⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣0⎦
1 0 0 0 1 1
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
3 1 1 1 1 3
⎢0⎥ ⎢0⎥ ⎢1⎥ ⎢1⎥ ⎢1⎥ ⎢−2⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
F(b3 ) = ⎢ ⎥ = 3 ⎢ ⎥ − 2 ⎢ ⎥ − 3 ⎢ ⎥ + 5 ⎢ ⎥ ⇒ [F(b3 )]B2 =⎢ ⎥
⎣2⎦ ⎣0⎦ ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎣−3⎦
5 0 0 0 1 5

Die Darstellungsmatrix von F in den Basen B1 und B2 lautet somit:


⎡ ⎤
1 0 3
⎢−1
B ⎢ 0 −2⎥⎥
M B12 (F) = ⎢ ⎥.
⎣−1 0 −3⎦
2 1 5

Möglichkeit 2: Basiswechsel. Die Bilder der Basisvektoren von B1 unter F sind in der
Standardbasis E ausgedrückt. Wir können somit die Darstellungsmatrix von F ganz
einfach bestimmen, wenn R4 mit der Standardbasis versehen ist. Wir schreiben einfach
die Bilder als Spalten auf:
⎡ ⎤
1 1 3
⎢0
B ⎢ 1 0⎥⎥
M E 1 (F) = ⎢ ⎥.
⎣1 1 2⎦
2 1 5

B
Um M B12 (F) zu bestimmen, führen wir eine Basistransformation von der Standardbasis
nach B2 durch:
⎡ ⎤ ⎡ ⎤
1111 1 −1 0 0
⎢0 1 1 1⎥ ⎢0 1 −1 0 ⎥
⎢ ⎥ ⎢ ⎥
T B2 →E = ⎢ ⎥ ⇒ T E →B2 = T −1 B →E =⎢ ⎥.
⎣0 0 1 1⎦ 2 ⎣0 0 1 −1⎦
0001 0 0 0 1

Mittels Gl. (8.16) erhalten wir:


⎡ ⎤⎡ ⎤ ⎡ ⎤
1 −1 0 0 1 1 3 1 0 3
⎢0 ⎥ ⎢ 0⎥ ⎢−1 0 −2⎥
⎥ ⎢
B B ⎢ 1 −1 0 ⎥ ⎢0 1 ⎥
M B12 (F) = T E →B2 M E 1 (F) = ⎢ ⎥⎢ ⎥=⎢ ⎥.
⎣0 0 1 −1⎦ ⎣1 1 2⎦ ⎣−1 0 −3⎦
0 0 0 1 2 1 5 2 1 5 !
462 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Übung 8.34
• ◦ ◦ Es sei F : R5 → R3 eine lineare Abbildung definiert durch
⎛⎡ ⎤⎞
x1
⎜⎢ ⎥⎟ ⎡ ⎤
⎜⎢x2 ⎥⎟ x + 2x2 + 2x3 − x4 + x5
⎜⎢ ⎥⎟ ⎢ 1 ⎥
F⎜ ⎢ ⎥⎟
⎜⎢x3 ⎥⎟ = ⎣ x1 + 2x2 + x3 + x5 ⎦ .
⎜⎢ ⎥⎟
⎝⎣x4 ⎦⎠ x1 + x3 + 2x4 + x5
x5

a) Man bestimme die Darstellungsmatrix von F in der Standardbasis.


b) Man zeige, dass
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫


⎪ 1 1 0 0 0 ⎪ ⎪
⎪⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪
⎪ ⎪

⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎪⎢ 1 ⎥ ⎢ −1 ⎥ ⎢0 ⎥
⎨⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪ ⎢0⎥ ⎢ 0 ⎥ ⎬ ⎨ 1
⎪ 0 1 ⎪⎬
B= ⎢ 0 ⎥ , ⎢ 0 ⎥ , ⎢1⎥ , ⎢0⎥ , ⎢ 0 ⎥ , C = ⎢⎣ 1
⎥ ⎢ ⎥ ⎢ ⎥
⎦ , ⎣1 ⎦ , ⎣ 0⎦
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎪⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪ ⎢ ⎥ ⎢ ⎥ ⎪ ⎪

⎪ ⎪ ⎩ ⎭

⎪⎣0⎦ ⎣ 0 ⎦ ⎣0⎦ ⎣1⎦ ⎣ 1 ⎦⎪ ⎪
⎪ 0 1 1

⎩ ⎪

0 0 0 1 −1

Basen von R5 bzw. R3 sind.


c) Man bestimme die Darstellungsmatrix M B
C (F).

v Lösung
a) Die Darstellungsmatrix von F in der Standardbasis ist:
⎡ ⎤
1 2 2 −1 1
⎢ ⎥
M EE (F) = ⎣1 2 1 0 1⎦ .
101 2 1

b) Es gilt (Determinanten-Kriterium, 7 Abschn. 6.4.2):


⎡ ⎤
1 1 00 0
⎢ ⎥
⎢1 −1 0 0 0 ⎥ OO O O O
1 OO
⎢ ⎥ O1 O1 1 O
O O
det ⎢
⎢0 0 10 0⎥ ⎥ = OO1 O·1·O O = 4 ̸= 0 ⇒ B Basis
⎢ ⎥ −1O O1 −1O
⎣0 0 01 1⎦
0 0 0 1 −1
⎡ ⎤
101 O O O O
O
⎢ ⎥ O1 0OO OO0 1OO
det ⎣1 1 0⎦ = O O−O O = 2 ̸= 0 ⇒ C Basis
O1 1O O1 1O
011

c) Um M B C (F) zu bestimmen, führen wir eine Basistransformation zwischen der


Standardbasis und B bzw. C durch. Es gilt:
8.3 • Basiswechsel für lineare Abbildungen
463 8
⎡ ⎤
1 1 0 0 0
⎢ ⎥
⎢1 −1 0 0 0⎥
⎢ ⎥
T B→E =⎢
⎢0 0 1 0 0⎥ ⎥
⎢ ⎥
⎣0 0 0 1 1⎦
0 0 0 1 −1

und
⎡ ⎤ ⎡ ⎤
1 1
101 2 2 − 12
⎢ ⎥ ⎢ 1 ⎥
T C →E = ⎣1 1 0⎦ ⇒ T E →C = T −1
C →E = ⎣− 2
1
2
1
2 ⎦.
1
011 2 − 12 1
2

Mittels Gl. (8.16) erhalten wir:


⎡ ⎤
1 1 0 0 0
⎡ ⎤⎡ ⎤⎢ ⎥
1 1
2 2 − 12 1 2 2 −1 1 ⎢1 −1 0 0 0⎥
⎢ 1 1 1 ⎥⎢ ⎥⎢ ⎥
MB E
C (F) = T E →C M E (F)T B→E = ⎣− 2 2 2 ⎦ ⎣1 2 1 0 1⎦ ⎢
⎢0 0 1 0 0⎥ ⎥
1 ⎢ ⎥
2 − 21 1
2 1 0 1 2 1 ⎣0 0 0 1 1⎦
0 0 0 1 −1
⎡ ⎤
5
− 32 1 −1 −2
⎢ 21 1 ⎥
= ⎣2 2 0 2 1 ⎦.
1 1
2 2 1 1 0 !

Übung 8.35
• • ◦ Man betrachte die folgenden Homomorphismen auf R2×2

A + AT
F1 :R2×2 → R2×2 , A→
2
A − AT
F2 :R2×2 → R2×2 , A→ .
2

a) Man bestimme die Darstellungsmatrizen von F1 , F2 in der Standardbasis.


b) Man bestimme den Kern und das Bild von F1 , F2 .
c) Man bestimme die Darstellungsmatrizen von F1 , F2 in der Basis
7 . - - . - . - .8
10 1 0 01 0 1
B = B1 = , B2 = , B3 = , B4 =
01 0 −1 10 −1 0

v Lösung
a) Darstellungsmatrix von F1 : Wir bestimmen die Bilder der Standardbasiselemente
von R2×2
464 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

- . - . ⎡ ⎤
10 10 1
+ - .
00 00 ⎢0⎥
10 ⎢ ⎥
F1 (E11 ) = = ⇒ [F1 (E11 )]E = ⎢ ⎥
2 00 ⎣0⎦
0
- . - . ⎡ ⎤
01 00 0
+ - .
00 10 0 1 ⎢1⎥
2 ⎢2⎥
F1 (E12 ) = = 1
⇒ [F1 (E12 )]E = ⎢ 1 ⎥
2 2 0 ⎣2⎦
0
- . - . ⎡ ⎤
00 01 0
+ - .
10 00 1 ⎢1⎥
0 2 ⎢ ⎥
F1 (E21 ) = = 1
⇒ [F1 (E21 )]E = ⎢ 21 ⎥
2 2 0 ⎣2⎦
0
- . - . ⎡ ⎤
00 00 0
+ - .
01 01 ⎢0⎥
00 ⎢ ⎥
F1 (E22 ) = = ⇒ [F1 (E22 )]E = ⎢ ⎥
2 01 ⎣0⎦
1

⎡ ⎤
1 0 0 0
⎢0 1 1
⎢ 0⎥⎥
Die gesuchte Darstellungsmatrix lautet somit M EE (F1 ) = ⎢ 21 12 ⎥.
⎣0 2 2 0⎦
0 0 0 1
Darstellungsmatrix von F2 : Für F2 gilt:
- . - . ⎡ ⎤
10 10 0
− - .
00 00 ⎢0⎥
00 ⎢ ⎥
F2 (E11 ) = = ⇒ [F2 (E11 )]E = ⎢ ⎥
2 00 ⎣0⎦
0
- . - . ⎡ ⎤
01 00 0
− - .
00 10 ⎢ 1 ⎥
0 12 ⎢ ⎥
F2 (E12 ) = = ⇒ [F2 (E12 )]E = ⎢ 21 ⎥
2 − 12 0 ⎣− 2 ⎦
0
- . - . ⎡ ⎤
00 01 0
− - .
10 00 ⎢− 1 ⎥
0 − 21 ⎢ ⎥
F2 (E21 ) = = 1
⇒ [F2 (E21 )]E = ⎢ 12 ⎥
2 2 0
⎣ 2 ⎦
0
- . - . ⎡ ⎤
00 00 0
− - .
01 01 ⎢0⎥
00 ⎢ ⎥
F2 (E22 ) = = ⇒ [F2 (E22 )]E = ⎢ ⎥
2 00 ⎣0⎦
0
8.3 • Basiswechsel für lineare Abbildungen
465 8
⎤ ⎡
0 0 0 0
⎢0 1 − 1 0⎥
⎢ ⎥
Die gesuchte Darstellungsmatrix lautet somit M EE (F2 ) = ⎢ 21 12 ⎥ .
⎣0 − 2 2 0⎦
0 0 0 0
b) Kern von F1 : Um den Kern von F1 zu bestimmen, lösen wir

⎡ ⎤ ⎡ ⎤
1 0 0 0 0 1 0 0 0 0
(Z3 ) − (Z2 )
⎢ ⎥ ⎢0
⎢ 0 12 12 0 0 ⎥ 2(Z2 ) ⎢ 1 1 0 0⎥⎥
⎢ ⎥ % ⎢ ⎥=Z
⎣ 0 12 12 0 0 ⎦ ⎣0 0 0 0 0⎦
0 0 0 1 0 0 0 0 1 0

Aus der letzten Gleichung folgt x4 = 0, während aus der ersten Gleichung x1 = 0
folgt. Aus der zweiten Gleichung sieht man, dass x2 frei wählbar ist. Wir setzen
x2 = t, dann folgt x3 = −x2 = −t. Somit ist
⎤⎡
0 J I-
I .J
⎢1⎥
⎢ ⎥ 0 1
Ker(F1 ) = ⎢ ⎥ ≡ = Skew2 (R)
⎣−1⎦ −1 0
0

Der Kern von F1 ist die Menge der schiefsymmetrischen Matrizen (vgl. Übung 6.52).
Bild von F1 : Um das Bild von F1 zu bestimmen, gehen wir wie im Kochrezept 8.1
vor: Wir bilden M EE (F1 )T , wenden den Gauß-Algorithmus an und lesen die von
Null verschiedenen Zeilen direkt aus.
⎡ ⎤ ⎡ ⎤
1 0 0 0 1 0 0 0
(Z3 ) − (Z2 )
⎢ ⎥ ⎢0
⎢ 0 12 12 0 ⎥ 2(Z2 ) ⎢ 1 1 0⎥⎥
⎢ ⎥ % ⎢ ⎥ = Z.
⎣ 0 12 12 0 ⎦ ⎣0 0 0 0⎦
0 0 0 1 0 0 0 1

Somit ist
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
I 1 0 0 J I- . - . - .J
⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 10 01 00
Im(F1 ) = ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ ≡ , , = Sym2 (R).
⎣0⎦ ⎣1⎦ ⎣0⎦ 00 10 01
0 0 1

Das Bild von von F1 ist die Menge der symmetrischen Matrizen Übung 6.52.
Kern von F2 : Um den Kern von F2 zu bestimmen, lösen wir

⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0 0 0 0 0
(Z3 ) + (Z2 )
⎢ ⎥ ⎢0 ⎥
⎢ 0 2 − 12
1
0 0 ⎥ 2(Z2 ) ⎢ 1 −1 0 0⎥
⎢ ⎥ % ⎢ ⎥ = Z.
⎣ 0 − 12 21 0 0 ⎦ ⎣0 0 0 0 0⎦
0 0 0 0 0 0 0 0 0 0
466 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Wir haben eine einzige Gleichung für 4 Unbekannte. Somit sind 3 Variablen frei
wählbar, x1 = t, x2 = s und x4 = p. Aus der zweiten Gleichung folgt dann x3 =
x2 = s. Somit ist
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
I 1 0 0 J I- . - . - .J
⎢0⎥ ⎢1⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ 10 01 00
Ker(F2 ) = ⎢ ⎥ , ⎢ ⎥ , ⎢ ⎥ ≡ , , = Sym2 (R)
⎣0⎦ ⎣1⎦ ⎣0⎦ 00 10 01
0 0 1

Der Kern von F2 ist die Menge der symmetrischen Matrizen.


Bild von F2 : Wir gehen wie oben vor: Wir transponieren die Darstellungsmatrix
und wenden den Gauß-Algorithmus an
⎡ ⎤ ⎡ ⎤
0 0 0 0 0 0 0 0
(Z3 ) + (Z2 )
⎢ ⎥ ⎢0
⎢ 0 12 − 12 0 ⎥ 2(Z2 ) ⎢ 1 −1 0⎥⎥
⎢ ⎥ % ⎢ ⎥ = Z.
⎣ 0 − 12 21 0 ⎦ ⎣0 0 0 0⎦
0 0 0 0 0 0 0 0

Somit ist
⎤ ⎡
0 J I-
I .J
⎢1⎥
⎢ ⎥ 0 1
Im(F2 ) = ⎢ ⎥ ≡ = Skew2 (R).
⎣−1⎦ −1 0
0

Das Bild von von F2 ist die Menge der schiefsymmetrischen Matrizen.
c) Die Transformationsmatrix von B nach der Standardbasis E lautet:
⎡ ⎤
1 1 0 0
⎢0
⎢ 0 1 1⎥ ⎥
T B→E =⎢ ⎥.
⎣0 0 1 −1⎦
1 −1 0 0

Die Transformationsmatrix von der Standardbasis E nach B ist


⎡ ⎤−1 ⎡ 1 1

1 1 0 0 2 0 0 2
⎢0 1⎥ ⎢1 0 0 −1⎥
⎢ 0 1 ⎥ ⎢ 2⎥
T E →B = T −1
B→E =⎢ ⎥ = ⎢2 1 1 ⎥.
⎣0 0 1 −1 ⎦ ⎣ 0 2 2 0 ⎦
1 −1 0 0 0 12 − 21 0

Somit
⎡1 ⎤⎡ ⎤⎡ ⎤
0 0 12
2 1 0 0 0 1 1 0 0
⎢1 1⎥⎢ 1 1 ⎥ ⎢
⎢20 0 − 2 ⎥ ⎢0 2 2 0⎥ ⎢0 0 1 1⎥⎥
MB E
B (F1 ) = T E →B M E (F1 )T B→E = ⎢ ⎥⎢ ⎥⎢ ⎥
⎣ 0 12 21 0 ⎦ ⎣0 12 12 0⎦ ⎣0 0 1 −1⎦
0 12 − 12 0 0 0 0 1 1 −1 0 0
8.3 • Basiswechsel für lineare Abbildungen
467 8
⎡ ⎤
1 0 0 0
⎢0
⎢ 1 0 0⎥

=⎢ ⎥
⎣0 0 1 0⎦
0 0 0 0
⎡1 ⎤⎡ ⎤⎡ ⎤
20 0 12 0 0 0 0 1 1 0 0
⎢1 1⎥⎢ 1 ⎥⎢
⎢2
1
0 0 − 2 ⎥ ⎢0 2 − 2 0⎥ ⎢0 0 1 1⎥ ⎥
MB E
B (F2 ) = T E →B M E (F2 )T B→E = ⎢ ⎥⎢ ⎥⎢ ⎥
⎣ 0 12 12 0 ⎦ ⎣0 − 12 12 0⎦ ⎣0 0 1 −1⎦
0 12 − 12 0 0 0 0 0 1 −1 0 0
⎡ ⎤
0 0 0 0
⎢0
⎢ 0 0 0⎥

=⎢ ⎥.
⎣0 0 0 0⎦
0 0 0 1

Interpretation: Die Basiselemente von B erfüllen

F1 (B1 ) = B1 , F1 (B2 ) = B2 , F1 (B3 ) = B3 , F1 (B4 ) = 0.

Darum sind die ersten drei Diagonaleinträge von M B


B (F1 ) gleich 1. Analog gilt
für F2

F2 (B1 ) = F2 (B2 ) = F2 (B3 ) = 0, F2 (B4 ) = B4 .

Dies erklärt die Eins im vierten Diagonaleintrag von M B


B (F2 ). Außerdem bemerken
wir, dass B1 , B2 , B3 symmetrische Matrizen sind, während B4 schiefsymmetrisch
ist. F1 entspricht die „Symmetrisierung“ von A. Aus diesem Grund wird B4 auf
Null abgebildet. F2 entspricht die „Antisymmetrisierung“ A. Deswegen werden die
Matrizen B1 , B2 , B3 auf Null abgebildet. !

Übung 8.36
• • ◦ Es sei V = C2×2 und
- .
11
F : C2×2 → C2×2 , X → F(X) = BX − XB, mit B = .
01

a) Man bestimme die Darstellungsmatrix von F in der Standardbasis.


b) Man bestimme die Darstellungsmatrix von F in der Basis B der Pauli-Matrizen:
7 .- - . - . - .8
10 01 0 −i 1 0
B = σ0 = , σx = , σy = , σz = .
01 10 i 0 0 −1
468 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

v Lösung
a) Wir berechnen die Bilder der Standardbasiselementen E11 , E12 , E21 , E22 unter F
⎡ ⎤
- .- . -
.- . - . 0
⎢−1⎥
11 10 10 11 0 −1 ⎢ ⎥
F(E11 ) = − = = −E12 ⇒ ⎢ ⎥
01 00 00 01 0 0 ⎣0⎦
0
⎡ ⎤
- .- . - .- . - . 0
⎢0⎥
11 01 01 11 00 ⎢ ⎥
F(E12 ) = − = =0 ⇒ ⎢ ⎥
01 00 00 01 00 ⎣0⎦
0
⎡ ⎤
- .- . -
.- . - . 1
⎢0⎥
11 00 00 11 1 0 ⎢ ⎥
F(E21 ) = − = = E11 − E22 ⇒ ⎢ ⎥
01 10 10 01 0 −1 ⎣0⎦
−1
⎡ ⎤
- .- . - .- . - . 0
⎢1⎥
11 00 00 11 01 ⎢ ⎥
F(E22 ) = − = = E12 ⇒ ⎢ ⎥
01 01 01 01 00 ⎣0⎦
0

Somit lautet die gesuchte Darstellungsmatrix von F in der Standardbasis:


⎡ ⎤
0 0 1 0
⎢−1
⎢ 0 0 1⎥⎥
M EE (F) = ⎢ ⎥.
⎣0 0 0 0⎦
0 0 −1 0

b) Die Transformationsmatrix von B zur Standardbasis ist:


⎡ ⎤
1 0 0 1
⎢0
⎢ 1 −i 0⎥⎥
T B→E =⎢ ⎥.
⎣0 1 i 0⎦
1 0 0 −1

Deren Inverse ist die Transformationsmatrix von der Standardbasis nach der
Basis B:
⎡1 1

2 0 0 2
⎢0 1 1 0 ⎥
⎢ 2 2 ⎥
T E →B = T −1
B→E = ⎢ ⎥.
⎣ 0 2i − 2i 0 ⎦
1
2 0 0 − 12

Gl. (8.18) suggeriert


8.3 • Basiswechsel für lineare Abbildungen
469 8
⎡1 1
⎤⎡ ⎤⎡ ⎤
2 0 0 2 0 0 1 0 1 0 0 1
⎢ 0 1 1 0 ⎥ ⎢−1 1⎥ ⎢
⎢ 2 2 ⎥⎢ 0 0 ⎥ ⎢0 1 −i 0⎥⎥
MB E
B (F) = T E →B M E (F)T B→E =⎢ i ⎥⎢ ⎥⎢ ⎥
⎣ 0 2 − 2i 0 ⎦ ⎣ 0 0 0 0⎦ ⎣0 1 i 0⎦
1 1
2 0 0 −2 0 0 −1 0 1 0 0 −1
⎡ ⎤
0 0 0 0
⎢0
⎢ 0 0 −1⎥⎥
=⎢ ⎥.
⎣0 0 0 −i ⎦
0 1 i 0

Alternative: Man rechnet die Bilder der Basiselementen von B:

F(σ0 ) = 0, F(σx ) = σz , F(σy ) = iσz , F(σz ) = −σx − iσy .


⎡ ⎤
0 0 0 0
⎢0
⎢ 0 0 −1⎥⎥
Also M B
B (F) = ⎢ ⎥. !
⎣0 0 0 −i ⎦
0 1 i 0

Übung 8.37
• • ◦ Sei P2 (R) der Vektorraum der reellen Polynome von Grad ≤ 2. Man betrachte die
lineare Abbildung

F : P2 (R) → P2 (R), p(x) → xp′ (x).

a) Man bestimme die Darstellungsmatrix von F bezüglich der Standardbasis.


b) Ist F invertierbar?
c) Man bestimme das Urbild von x unter F.
d) Man zeige: B = {x2 + x, 2x2 + x, 3x2 + 2x + x} ist eine Basis von P2 (R).
e) Man bestimme die Darstellungsmatrix von F in der Basis B.

v Lösung
a) Die Standardbasis von P2 (R) ist {1, x, x2 }. Um die Darstellungsmatrix von F in
dieser Basis zu bestimmen, müssen wir die Bilder der Basiselemente ermitteln

F(1) = x · 0 = 0, F(x) = x · 1 = x, F(x2 ) = x · (2x) = 2x2 .

Die Bilder haben die folgenden Koordinaten in der Standardbasis E :


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[F(1)]E = ⎣0⎦ , [F(x)]E = ⎣1⎦ , [F(x2 )]E = ⎣0⎦ .
0 0 2

Die Darstellungsmatrix von F in der Standardbasis lautet somit:


470 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

⎡ ⎤
000
⎢ ⎥
M EE (F) = ⎣0 1 0⎦ .
002

b) Die Darstellungsmatrix M EE (F) ist nichtinvertierbar (Determinante = 0). Somit ist


die Abbildung F nichtinvertierbar.
c) Wir suchen alle Polynome p(x) = a0 + a1 x + a2 x2 mit F(p) = x. In Matrixnotation
heißt dies:
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎧

000 a0 0 ⎨a0 = t

⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣0 1 0⎦ ⎣a1 ⎦ = ⎣1⎦ ⇒ a1 = 1


002 a2 0 ⎩
a2 = 0

mit t ∈ R. Das Urbild von x unter F ist somit

F −1 {x} = {p ∈ P2 (R) | p(x) = x + t, t ∈ R} .

Beachte: F −1 {x} ist ein affiner Unterraum, vgl. Abschnitt 5.3.


d) {x2 + x, 2x2 + x, 3x2 + 2x + 1} entsprechen in der Standardbasis die folgenden
Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 0 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[x2 + x]E = ⎣1⎦ , [2x2 + x]E = ⎣1⎦ , [3x2 + 2x + 1]E = ⎣2⎦ .
1 2 3

Wir schreiben diese Vektoren als Spalten in einer Matrix auf und wenden den Gauß-
Algorithmus an, um den Rang von dieser Matrix zu bestimmen (Rang-Kriterium,
7 Abschn. 6.4.1)
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
001 1 2 3 1 2 3
⎢ ⎥ 1(Z ) ↔ (Z )
3 ⎢ (Z
⎥ 2 ) − (Z ) ⎢ ⎥
⎣1 1 2⎦ % ⎣1 1 2⎦ % 1 ⎣ 0 −1 −1 ⎦
123 0 0 1 0 0 1.

Die Matrix hat Rang 3. Somit sind die Polynome {x2 + x, 2x2 + x, 3x2 + 2x + 1}
linear unabhängig, also eine Basis von P2 (R).
Alternative: Mit dem Determinantenkriterium (7 vgl. Abschn. 6.4.2) erhalten
wir
⎡ ⎤
001 O O
O1
⎢ ⎥ O 1OO
det ⎣1 1 2⎦ = 1 · O O = 1 ̸= 0 ⇒ Basis.
O1 2O
123

e) Es gilt:
⎡ ⎤ ⎡ ⎤
001 −1 2 −1
⎢ ⎥ ⎢ ⎥
T B→E = ⎣1 1 2⎦ ⇒ T E →B = T −1
B→E = ⎣−1 −1 1 ⎦ .
123 1 0 0
8.3 • Basiswechsel für lineare Abbildungen
471 8
Mittels Gl. (8.18) erkennen wir:
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
−1 2 −1 0 0 0 0 0 1 0 −2 −2
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
MB E
B (F) = T E →B M E (F)T B→E = ⎣−1 −1 1 ⎦ ⎣0 1 0⎦ ⎣1 1 2⎦ = ⎣1 3 4 ⎦ .
1 0 0 0 0 2 1 2 3 0 0 0

Übung 8.38
• • ◦ Sei P3 (R) der Vektorraum der reellen Polynome vom Grad ≤ 3 mit der Basis
E = {1, x, x2 , x3 } und sei

F : P3 (R) → P3 (R), p(x) → p′′ + xp′

a) Man finde die Darstellungsmatrix von F bezüglich der Basis E .


b) Man finde die Darstellungsmatrix von F bezüglich der Basis B = {1 + x3 , x −
x2 , x2 + x3 , x3 }.

v Lösung
a) Wir bestimmen das Bild aller Basiselemente:
⎡ ⎤ ⎡ ⎤
0 2
⎢0⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥
F(1) = 0 ⇒ [F(1)]E = ⎢ ⎥ , F(x2 ) = 2 + 2x2 ⇒ [F(x2 )]E = ⎢ ⎥ ,
⎣0⎦ ⎣2⎦
0 0
⎡ ⎤ ⎡ ⎤
0 0
⎢1⎥ ⎢6⎥
⎢ ⎥ ⎢ ⎥
F(x) = x ⇒ [F(x)]E = ⎢ ⎥ , F(x3 ) = 6x + 3x3 ⇒ [F(x3 )]E = ⎢ ⎥ .
⎣0⎦ ⎣0⎦
0 3

⎡ ⎤
0020
⎢0 1 0 6⎥
⎢ ⎥
Also die Darstellungsmatrix von F ist M EE (F) = ⎢ ⎥.
⎣0 0 2 0⎦
0003
b) Die Polynome {1 + x3 , x − x2 , x2 + x3 , x3 } entsprechen in der Standardbasis die
folgenden Vektoren
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0
⎢0⎥ ⎢1⎥ ⎢0⎥ ⎢0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[1 + x3 ]E = ⎢ ⎥ , [x − x2 ]E = ⎢ ⎥ , [x2 + x3 ]E = ⎢ ⎥ , [x3 ]E = ⎢ ⎥ .
⎣0⎦ ⎣−1⎦ ⎣1⎦ ⎣0⎦
1 0 1 1

Die Transformationsmatrix T B→E lautet:


472 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

⎡ ⎤ ⎡ ⎤
1 0 0 0 1 0 0 0
⎢0 0⎥ ⎢0
⎢ 1 0 ⎥ ⎢ 1 0 0⎥⎥
T B→E =⎢ ⎥ ⇒ T E →B = T −1
B→E =⎢ ⎥.
⎣0 −1 1 0⎦ ⎣0 1 1 0⎦
1 0 1 1 −1 −1 −1 1

Wir erhalten mittels Gl. (8.18):


⎡ ⎤⎡ ⎤⎡ ⎤
1 0 0 0 0 0 2 0 1 0 0 0
⎢0 1 0 ⎥ ⎢
0 ⎥ ⎢0 1 0 ⎥ ⎢
6⎥ ⎢0 1 0 0⎥
⎢ ⎥
MB E
B (F) = T E →B M E (F)T B→E =⎢ ⎥⎢ ⎥⎢ ⎥
⎣0 1 1 0 ⎦ ⎣0 0 2 0⎦ ⎣0 −1 1 0⎦
−1 −1 −1 1 0 0 0 3 1 0 1 1
⎡ ⎤
0 −2 2 0
⎢6 1
⎢ 6 6⎥⎥
=⎢ ⎥
⎣ 6 −1 8 6⎦
−3 3 −7 −3 !

Übung 8.39
• • • In dieser Aufgabe benutzen wir lineare Abbildungen und Basistransformationen,
um die Vandermonde-Determinante zu berechnen (vgl. Übung 3.32). Es sei V =
Pn−1 (R) der Vektorraum der reellen Polynome vom Grad ≤ n − 1 und es sei x =
[x1 , x2 , · · · , xn ]T ∈ Rn . Man betrachte die lineare Abbildung
⎡ p(x ) ⎤
1

n ⎢ p(x2 ) ⎥
F : Pn−1 (R) → R , p(x) → ⎣ . ⎦ .
..
p(xn )

a) Man bestimme die Darstellungsmatrix von F bezüglich der Standardbasis E von


Pn−1 (R).
b) Man bestimme die Darstellungsmatrix von F bezüglich der folgenden Basis B von
Pn−1 (R)

B = {1, x − x1 , (x − x1 )(x − x2 ), · · · , (x − x1 )(x − x2 ) · · · (x − xn−1 )}.

c) Man bestimme die Transformationsmatrix T B→E von der Basis B nach E . Man
zeige, dass det(T B→E ) = 1.
d) Man folgere aus (a,b,c) die folgende Formel für die Vandermonde Determinante
⎡ ⎤
1 x1 x21 ··· xn−1
1
⎢ 1 x2 x22 ··· xn−1
⎥ W2
det ⎢ ⎥
⎣ .. .. .. . . .. ⎦ = (xj − xi ).
. . . . . i<j
1 xn xn−1
n ··· xn−1
n
8.3 • Basiswechsel für lineare Abbildungen
473 8
v Lösung
a) Die Standardbasis von Pn−1 (R) ist E = {1, x, x2 , · · · , xn−1 }. Um die Darstellungs-
matrix von F zu berechnen, bestimmen wir die Bilder der Basiselemente von E
unter F:
⎡ ⎤ ⎡ ⎤ ⎡ 2⎤ ⎡ n−1 ⎤
1 x1 x1 x1
⎢1⎥ ⎢x ⎥ ⎢x2 ⎥ ⎢xn−1 ⎥
⎢ ⎥ ⎢ 2⎥ 2
⎢ 2⎥ n−1
⎢ 2 ⎥
F(1) = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ .. ⎥ , F(x) = ⎢ .. ⎥ , F(x ) = ⎢ .. ⎥ , · · · , F(x ) = ⎢ .. ⎥ .
⎣.⎦ ⎣.⎦ ⎣.⎦ ⎣ . ⎦
1 xn x2n xn−1
n

⎡ ⎤
1 x1 x21 ··· xn−1
1
⎢ 1 x2 ··· ⎥ x22 xn−1
2
Die gesuchte Darstellungsmatrix ist somit M EE (F) = ⎢ ⎥
⎣ .. .. .. . . .. ⎦. Diese
. . . . .
1 xn xn−1
n ··· xn−1
n
Matrix ist bekannt als Vandermonde-Matrix.
b) Wir gehen wie in (a) vor und wir bestimmen die Bilder der Basiselemente von B
unter F:
⎡ ⎤ ⎡ ⎤
1 0
⎢ ⎥ ⎢ ⎥
⎢1⎥ ⎢x2 − x1 ⎥
⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥
F(1) = ⎢1⎥ , F(x − x1 ) = ⎢x3 − x1 ⎥ ,
⎢.⎥ ⎢ . ⎥
⎢.⎥ ⎢ . ⎥
⎣.⎦ ⎣ . ⎦
1 xn − x1
⎡ ⎤
0
⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢(x3 − x1 )(x3 − x2 )⎥
F((x − x1 )(x − x2 )) = ⎢ ⎥, ··· ,
⎢ .. ⎥
⎢ ⎥
⎣ . ⎦
(xn − x1 )(xn − x2 )
⎡ ⎤
0
⎢ ⎥
⎢ 0 ⎥
⎢ ⎥
⎢ 0 ⎥
F((x − x1 ) · · · (x − xn−1 )) = ⎢ ⎥.
⎢ .. ⎥
⎢ ⎥
⎣ . ⎦
(xn − x1 )(xn − x2 ) · · · (xn − xn−1 )

Die gesuchte Darstellungsmatrix ist somit (der Zielraum ist immer noch Rn mit der
Standardbasis):
⎡1 0 0 ··· 0

1 x2 −x1 0 ··· 0
⎢ 1 x3 −x1 (x3 −x1 )(x3 −x2 ) ··· 0 ⎥
M EB (F) =⎢
⎣ .. .. .. ..
⎥.

..
. . . . .
1 xn −x1 (xn −x1 )(xn −x2 ) ··· (xn −x1 )···(xn −xn−1 )

c) Wir drücken die Basiselemente von B in der Standardbasis E


474 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −x1 x1 x2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢0⎥ ⎢ 1 ⎥ ⎢−(x1 + x2 )⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
[1]E = ⎢0⎥ , [x − x1 ]E = ⎢ 0 ⎥ , [(x − x1 )(x − x2 )]E = ⎢ 1 ⎥ usw.
⎢.⎥ ⎢ . ⎥ ⎢ . ⎥
⎢.⎥ ⎢ . ⎥ ⎢ . ⎥
⎣.⎦ ⎣ . ⎦ ⎣ . ⎦
0 0 0

Um die Koordinaten von [(x−x1 )(x−x2 )]E zu bestimmen, haben wir (x−x1 )(x−x2 )
wie folgt umgeschrieben (x − x1 )(x − x2 ) = x2 − (x1 + x2 )x + x1 x2 . Die gesuchte
Transformationsmatrix lautet somit
⎡ ⎤
1 −x1 x1 x2 ··· ⋆
⎢ ⎥
⎢0 1 −(x1 + x2 ) · · · ⋆⎥
⎢ ⎥
⎢ · · · ⋆⎥
T B→E = ⎢0 0 1 ⎥.
⎢. . .. . . .. ⎥
⎢. . . .⎥
⎣. . . ⎦
0 0 0 ··· 1

T B→E ist eine Dreiecksmatrix mit Diagonaleinträge gleich 1. Somit ist


det(T B→E ) = 1.
d) Es gilt M EE (F) = T B→E M EB (F). Wegen det(T B→E ) = 1 erhalten wir das gewünsch-
te Resultat:
⎡ ⎤
1 x1 x21 ··· xn−1
1
n−1
⎢ 1 x2 x22 ··· x2 ⎥ 9 : 9 :
E E
det ⎢ ⎥
⎣ .. .. .. . . .. ⎦ = det M E (F) = det(T B→E ) det M B (F)
; <= >
. . . . . =1
1 xn xn−1
n ··· xn−1
n
⎡1 0 0 ··· 0

1 x2 −x1 0 ··· 0
⎢ 1 x3 −x1 (x3 −x1 )(x3 −x2 ) ··· 0 ⎥
= det ⎢
⎣ .. .. .. ..


..
. . . . .
1 xn −x1 (xn −x1 )(xn −x2 ) ··· (xn −x1 )···(xn −xn−1 )
; <= >
Dreiecksmatrix

= (x2 − x1 )(x3 − x1 )(x3 − x2 ) · · · (xn − x1 )(xn − x2 ) · · · (xn − xn−1 )


W
= (xj − xi ).
i<j !

8.4 Äquivalenz und Ähnlichkeit von Matrizen

8.4.1 Äquivalente Matrizen


# Definition 8.5 (Äquivalente Matrizen)
Zwei Matrizen A, B ∈ Km×n heißen äquivalent, wenn es invertierbare Matrizen S ∈
GL(m, K) und T ∈ GL(n, K) gibt mit
B = SAT −1 . (8.20)
$
8.4 • Äquivalenz und Ähnlichkeit von Matrizen
475 8
> Bemerkung
Vergleichen wir diese Definition mit der Formel für den Basiswechel von linearen Ab-
bildungen (Satz 8.13), so erkennen wir, dass zwei Matrizen A, B genau dann äquivalent
sind, wenn sie bezüglich unterschiedlicher Basen die gleiche lineare Abbildung darstellen.

Satz über äquivalente Matrizen


Wann sind zwei Matrizen äquivalent?

# Satz 8.15
A, B ∈ Km×n sind äquivalent ⇔ Rang(A) = Rang(B). $

Eine direkte Folgerung des obigen Satzes ist:

# Satz 8.16
Es sei A ∈ Km×n . Dann ist A äquivalent zu einer Blockmatrix der Form
- .
E r×r 0
, E r×r = (r × r)-Einheitsmatrix, (8.21)
0 0

wobei r = Rang(A) ≤ min{n, m}. $

Mit anderen Worten: Für jede lineare Abbildung F : V → W gibt es Basen B und B ′
von V bzw. W , bezüglich welcher die Darstellungsmatrix von F eine ganz spezielle
Form hat:
⎡ ⎤
1 ··· 0 0 ··· 0
⎢. . . . . .⎥
⎢ .. . . .. .. . . .. ⎥
⎢ ⎥
⎢ ⎥
⎢ 0 · · · 1 0 · · · 0 ⎥
MBB′ (F) = ⎢ ⎥. (8.22)
⎢0 ··· 0 0 ··· 0⎥
⎢ ⎥
⎢ .. . . .. .. . . .. ⎥
⎣. . . . . .⎦
0 ··· 0 0 ··· 0

Siehe Übung 8.42, welches eine Methode zur Konstruktion einer solchen Basistrans-
formation zeigt.

8.4.2 Ähnliche Matrizen

Im Spezialfall V = W nutzt man oft dieselbe Basis für den Ausgangsraum und den
Zielraum. In diesem Fall definiert man:

# Definition 8.6 (Ähnliche Matrizen)


A, B ∈ Kn×n sind ähnlich genau dann, wenn es eine invertierbare Matrix T ∈ GL(n, K)
gibt, für die gilt:
B = TAT −1 . (8.23)
$
476 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

> Bemerkung
Beachte: Ähnliche Matrizen sind äquivalent (setze S = T), aber die Umkehrung gilt
im Allgemeinen nicht!

A und B äquivalent 9⇒
̸ A und B ähnlich. (8.24)

Die Ähnlichkeit von Matrizen ist somit eine stärkere Eigenschaft als die Äquiva-
lenz: Bei der Äquivalenz von Matrizen können zwei Basen variiert werden, bei der
Ähnlichkeit nur eine. Aus diesem Grund erfordert die Ähnlichkeit von Matrizen
fortgeschrittenere Hilfsmittel, wie z. B. Eigenwerte und Eigenvektoren, welche wir erst
im 7 Kap. 9 diskutieren werden.

Eigenschaften von ähnlichen Matrizen


5 Ähnliche Matrizen haben die gleiche Spur. Daraus folgt: Ist Spur(A) ̸= Spur(B),
so sind A und B nicht ähnlich.
5 Ähnliche Matrizen haben die gleiche Determinante. Daraus folgt: Ist det(A) ̸=
det(B), so sind A und B nicht ähnlich.
5 Die Ähnlichkeit von Matrizen ist eine Äquivalenzrelation.

Übung 8.40 ⎡ ⎤ ⎡ ⎤
111 1 2 2
⎢ ⎥ ⎢ ⎥
• ◦ ◦ Es seien A = ⎣1 2 2⎦ und B = ⎣−2 2 8 ⎦.
233 2 1 −2

a) Sind A und B äquivalent? b) Sind A und B ähnlich?

v Lösung
a) A und B sind genau dann äquivalent, wenn sie denselben Rang haben (Satz 8.15).
Wegen
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
111 (Z2 ) − (Z1 ) 111 111
⎢ ⎥ (Z3 ) − 2(Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣1 2 2⎦ % ⎣0 1 1⎦ % ⎣0 1 1⎦ ⇒ Rang(A) = 2
233 011 000
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 2 (Z2 ) + 2(Z1 ) 1 2 2 1 2 2
⎢ ⎥ (Z3 ) − 2(Z1 ) ⎢ ⎥ (Z3 ) + 2(Z2 ) ⎢ ⎥
⎣−2 2 8 ⎦ % ⎣0 6 12 ⎦ % ⎣0 6 12⎦ ⇒ Rang(B) = 2
2 1 −2 0 −3 −6 0 0 0

sind A und B äquivalent.


b) Wegen Spur(A) = 6 ̸= Spur(B) = 1 sind A und B nicht ähnlich. !
8.4 • Äquivalenz und Ähnlichkeit von Matrizen
477 8

Übung 8.41
⎡ ⎤
0 1 k 2
⎢1
⎢ 1 0 2⎥ ⎥
• ◦ ◦ Für welche k ∈ R ist A = ⎢ ⎥ äquivalent zur folgenden Matrix?
⎣0 1 1 2⎦
−2 0 1 −1

⎡ ⎤
1 0 0 0
⎢0
⎢ 1 0 0⎥⎥
B=⎢ ⎥
⎣0 0 1 0⎦
0 0 0 0

v Lösung
a) Es gilt:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 k 2 −2 0 1 −1 −2 0 1 −1
⎢1 2⎥ ⎢1 1 0 2⎥ ⎢0
⎢ 1 0 ⎥ 1(Z ) ↔ (Z ) ⎢ ⎥ 2(Z2 ) + (Z1 ) ⎢ 2 1 3⎥ ⎥
⎢ ⎥ % 4 ⎢ ⎥ % ⎢ ⎥
⎣0 1 1 2⎦ ⎣0 1 1 2⎦ ⎣0 1 1 2⎦
−2 0 1 −1 0 1 k 2 0 1 k 2
⎡ ⎤ ⎡ ⎤
−2 0 1 −1 −2 0 1 −1
2(Z3 ) − (Z2 )
⎢ 3⎥ ⎢0
2(Z4 ) − (Z2 ) ⎢ 0 2 1 ⎥ (Z4 ) − (2k − 1)(Z3 ) ⎢ 2 1 3 ⎥⎥
% ⎢ ⎥ % ⎢ ⎥ = Z.
⎣0 0 1 1⎦ ⎣0 0 1 1 ⎦
0 0 2k − 1 1 0 0 0 2(1 − k)

Somit ist

⎨4, k ̸= 1
Rang(A) = .
⎩3, k = 1

Die Matrix B hat Rang 3. Folglich sind A und B nur für k = 1 äquivalent. !

Übung 8.42
• • • Es sei F : R3 → R3 linear mit Darstellungsmatrix
⎡ ⎤
−2 1 1
⎢ ⎥
A = ⎣ 1 −2 1 ⎦ .
1 1 −2
-.
E r×r 0
Man finde r ∈ N, sodass A zu B = äquivalent ist. Man finde explizite Basen
0 0
von R3 bezüglich welcher die Darstellungsmatrix von F diese Gestalt hat.
478 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

v Lösung
Wir bestimmen den Rang von A mit dem Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−2 1 1 2(Z2 ) + (Z1 ) −2 1 1 2 1 1
⎢ ⎥ 2(Z3 ) + (Z1 ) ⎢ ⎥ (Z3 ) + (Z2 ) ⎢ ⎥
⎣ 1 −2 1 ⎦ % ⎣ 0 −3 3 ⎦ % ⎣0 −3 3⎦ ⇒ Rang(A) = 2.
1 1 −2 0 3 −3 0 0 0

Aus Satz 8.16 folgt somit, dass A zur folgenden Matrix äquivalent ist:
⎡ ⎤
100
⎢ ⎥
B = ⎣0 1 0⎦
000

d. h. r = Rang(A) = 2. Wie finden wir jetzt die Basistransformation, welche A


in diese Gestalt bringt? Die Grundidee stammt aus der Dimensionsformel: Wegen
r = Rang(A) = dim(Im A) ist dim(Ker A) = n − Rang(A) = n − r. Was stellen wir
fest? Die Anzahl von Nullspalten von B ist genau gleich der Dimension des Kerns von
A. Die ersten r Spalten von B stammen aus der Einheitsmatrix. Dies legt nahe, eine
Basis des Ausgangsraumes aus dem Kern von A und eine Basis des Zielraumes aus
dem Bild von A aufzubauen. Wir werden daher die folgende Strategie verfolgen:
5 Schritt 1: Wir bestimmen eine Basis von Ker(A) und ergänzen diese zu einer Basis B
des Ausgangsraumes. Damit die letzten n − r Spalten der Darstellungsmatrix Null
sind, müssen die letzten n−r Elemente dieser Basis aus Ker(A) stammen. Die ersten r
Vektoren dieser Basis sind beliebig: Der Einfachheit halber wählen wir die Vektoren
e1 , · · · , er . Zusammenfassend:

B = {e1 , · · · , er , Basis von Ker(A)}


; <= >
n−r Vektoren

5 Schritt 2: Wir bestimmen die Bilder der ergänzten Vektoren e1 , · · · , er . Diese Bilder
ergänzen wir (rechts) mit n−r beliebigen Vektoren zu einer Basis B′ des Zielraumes:

B′ = {Ae1 , · · · , Aer , beliebig, · · · , beliebig}.


; <= >
n−r Vektoren

Natürlich müssen die letzten n − r Vektoren so gewählt werden, dass B′ tatsächlich


eine Basis bildet.

Schritt 1: Wir bestimmen eine Basis der Kerns von A


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−2 1 1 0 2(Z2 ) + (Z1 ) −2 1 1 0 2 1 1 0
⎢ ⎥ 2(Z3 ) + (Z1 ) ⎢ ⎥ (Z3 ) + (Z2 ) ⎢ ⎥
⎣ 1 −2 1 0 ⎦ % ⎣ 0 −3 3 0 ⎦ % ⎣ 0 −3 3 0 ⎦ = Z.
1 1 −2 0 0 3 −3 0 0 0 0 0

Wir haben eine zwei Gleichungen für 3 Unbekannte bekommen. Somit ist eine Variable
frei wählbar, x3 = t. Daraus folgt x2 = t und x1 = t, d. h.
8.4 • Äquivalenz und Ähnlichkeit von Matrizen
479 8
⎡ ⎤
I 1 J
⎢ ⎥
Ker(A) = ⎣1⎦ .
1

Somit wählen wir die folgende Basis des Ausgangsraumes


⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 1
⎪ 0 1 ⎪

⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B = {e1 , e2 , Basis von Ker(A)} = ⎣0⎦ , ⎣1⎦ , ⎣1⎦ .

⎩ ⎪

0 0 1

Die zugehörige Transformationsmatrix des Basiswechsels von B zur Standardbasis ist


⎡ ⎤
101
⎢ ⎥
T B→E = ⎣0 1 1⎦ .
011

Schritt 2: Für den Zielraum wählen wir die folgende Basis


⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ −2
⎪ 1 1 ⎪

⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B′ = {Ae1 , Ae2 , beliebig} = ⎣ 1 ⎦ , ⎣−2⎦ , ⎣0⎦ .

⎩ ⎪

1 1 0

Die zugehörige Transformationsmatrix der Basiswechsels zwischen B′ und der Stan-


dardbasis ist
⎡ ⎤ ⎡ ⎤
−2 1 1 0 13 23
⎢ ⎥ ⎢ ⎥
T B′ →E = ⎣ 1 −2 0⎦ ⇒ T E →B′ = T −1
B′ →E = ⎣0 − 13 31 ⎦ .
1 1 0 1 1 1

Bezüglich der Basen B und B′ sollte die Darstellungsmatrix von F gleich B sein:

MB E
B′ (F) = T E →B′ M E (F) T B→E = T E →B′ A T B→E
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
0 13 23 −2 1 1 101 100
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
= ⎣0 − 13 31 ⎦ ⎣ 1 −2 1 ⎦ ⎣0 1 1⎦ = ⎣0 1 0⎦ = B "
1 1 1 1 1 −2 011 000 !

Übung 8.43 ⎡ ⎤ ⎡ ⎤
111 1 2 −1
⎢ ⎥ ⎢ ⎥
• • • Es seien A = ⎣1 1 1⎦ und B = ⎣−1 −2 1 ⎦.
111 2 4 −2
a) Sind A und B äquivalent?
b) Man gebe explizite invertierbare Matrizen S, T an mit B = SAT −1 .
c) Sind A und B ähnlich?
480 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

v Lösung
a) A und B sind genau dann äquivalent, wenn sie denselben Rang haben (Satz 8.15).
Wegen

⎤ ⎡ ⎤
111 (Z2 ) − (Z1 ) 111
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣1 1 1⎦ % ⎣0 0 0⎦ ⇒ Rang(A) = 1
111 000
⎡ ⎤ ⎡ ⎤
1 2 −1 (Z2 ) + (Z1 ) 1 2 −1
⎢ ⎥ (Z3 ) − 2(Z1 ) ⎢ ⎥
⎣−1 −2 1 ⎦ % ⎣0 0 0 ⎦ ⇒ Rang(B) = 1
2 4 −2 00 0

sind A und B äquivalent.


b) Anstatt den Basiswelchsel zwischen A und B direkt zu finden, konstruieren wir
zunächst Basistransformationen, welche A und B in die Form
⎡ ⎤
100
⎢ ⎥
X = ⎣0 0 0⎦
000

überführen. Denn A und B haben beide Rang 1. Nach Satz 8.16 sind A und B
äquivalent zu X. Diese Basistransformationen erzeugen wir mit derselben Methode
wie in Übung 8.42.
5 Basistransformation für A. Schritt 1: Wir bestimmen eine Basis von Ker(A)
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 0 (Z2 ) − (Z1 ) 1 1 1 0 I 1 1 J
⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1 1 1 0⎦ % ⎣ 0 0 0 0 ⎦ = Z ⇒ Ker(A) = ⎣−1⎦ , ⎣ 0 ⎦ .
1 1 1 0 0 0 0 0 0 −1

Somit wählen wir die folgende Basis des Ausgangsraumes


⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 1
⎪ 1 1 ⎪⎬
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B1 = {e1 , Basis von Ker(A)} = ⎣0⎦ , ⎣−1⎦ , ⎣ 0 ⎦ .

⎩ ⎪

0 0 −1

Die zugehörige Transformationsmatrix ist:


⎡ ⎤
1 1 1
⎢ ⎥
T B1 →E = ⎣0 −1 0 ⎦ .
0 0 −1

Schritt 2: Für den Zielraum wählen wir die folgende Basis


⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 1
⎪ 1 0 ⎪

⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B1′ = {Ae1 , beliebig, beliebig} = ⎣1⎦ , ⎣0⎦ , ⎣1⎦ .

⎩ ⎪

1 0 0
8.4 • Äquivalenz und Ähnlichkeit von Matrizen
481 8
Daraus folgt:
⎡ ⎤ ⎡ ⎤
110 00 1
⎢ ⎥ ⎢ ⎥
T B′ →E = ⎣1 0 1⎦ ⇒ T E →B′ = T −1
B′ →E
= ⎣1 0 −1⎦ .
1 1 1
100 0 1 −1

Mit der Basistransformation nach den Basen B1 und B1′ finden wir:
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
00 1 111 1 1 1 100
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
T E →B′ A T B1 →E = ⎣1 0 −1⎦ ⎣1 1 1⎦ ⎣0 −1 0 ⎦ = ⎣0 0 0⎦ "
1
0 1 −1 111 0 0 −1 000

5 Basistransformation für B. Schritt 1: Der Kern von B ist


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 −1 0 (Z2 ) + (Z1 ) 1 2 −1 0 I −2 1 J
⎢ ⎥ 2(Z3 ) − (Z1 ) ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ −1 −2 1 0 ⎦ % ⎣0 0 0 0⎦ = Z ⇒ Ker(B) = ⎣ 1 ⎦ ⎣0⎦ .
,
2 4 −2 0 0 0 0 0 0 1

Somit wählen wir die folgende Basis des Ausgangsraumes


⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 1
⎪ −2 1 ⎪

⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B2 = {e1 , Basis von Ker(B)} = ⎣0⎦ , ⎣ 1 ⎦ , ⎣0⎦ .

⎩ ⎪

0 0 1

Die zugehörige Transformationsmatrix ist:


⎡ ⎤
1 −2 1
⎢ ⎥
T B2 →E = ⎣0 1 0⎦ .
0 0 1

Schritt 2: Für den Zielraum wählen wir die folgende Basis


⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
⎨ 1
⎪ 1 0 ⎪

⎢ ⎥ ⎢ ⎥ ⎢ ⎥
B2′ = {Be1 , beliebig, beliebig} = ⎣−1⎦ , ⎣0⎦ , ⎣1⎦ .

⎩ ⎪

2 0 0

Daraus folgt:
⎡ ⎤ ⎡ ⎤
1 10 0 0 12
⎢ ⎥ ⎢ ⎥
T B′ →E = ⎣−1 0 1⎦ ⇒ T E →B′ = T −1
B′ →E
= ⎣1 0 − 12 ⎦ .
2 2 2
1
2 00 01 2

Mit der Basistransformation nach den Basen B2 und B2′ finden wir:
482 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
0 0 12 1 2 −1 1 −2 1 100
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
T E →B′ B T B2 →E = ⎣1 0 − 21 ⎦ ⎣−1 −2 1 ⎦ ⎣0 1 0⎦ = ⎣0 0 0⎦ "
2
1
01 2 2 4 −2 0 0 1 000

Zusammenfassend:
⎡ ⎤
100
⎢ ⎥
⎣0 0 0⎦ = T E →B1′ A T B1 →E = T E →B2′ B T B2 →E
000

⇒ B = T −1 T ′ A T B →E T
E →B2′ E →B1 1
−1
B →E = SAT
−1

; <= > ; <= 2 >


=S =T −1

Die gesuchten Transformationsmatrizen lauten somit:


⎡ ⎤⎡ ⎤ ⎡ ⎤
1 10 00 1 10 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
S = T B′ →E T E →B′ = ⎣−1 0 1⎦ ⎣1 0 −1⎦ = ⎣0 1 −2⎦
2 1
2 00 0 1 −1 00 2
⎡ ⎤⎡ ⎤−1 ⎡ ⎤
1 1 1 1 −2 1 1 3 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
T −1 = T B1 →E T −1
B2 →E = ⎣0 −1 0 ⎦ ⎣0 1 0⎦ = ⎣0 −1 0 ⎦
0 0 −1 0 0 1 0 0 −1

Probe:
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
10 0 111 1 3 0 1 2 −1
⎢ ⎥⎢ ⎥⎢ ⎥ ⎢ ⎥
SAT −1 = ⎣0 1 −2⎦ ⎣1 1 1⎦ ⎣0 −1 0 ⎦ = ⎣−1 −2 1 ⎦ = B "
00 2 111 0 0 −1 2 4 −2

c) Wegen Spur(A) = 3 ̸= Spur(B) = −3 sind A und B nicht ähnlich. !

Übung 8.44
• • ◦ Es sei A ∈ Rm×n mit Rang(A) = r. Man zeige, dass es Matrizen B ∈ Rm×r und
C ∈ Rr×n gibt mit Rang(B) = Rang(C) = r und A = BC.

v Lösung . -
E r×r 0
Nach Satz 8.15 ist A äquivalent zu , wobei r = Rang(A). Es gibt also
0 0
invertierbare Matrizen S ∈ GL(m, R) und T ∈ GL(n, R) mit
- .
E r×r 0r×(n−r)
A=S T −1 .
0(m−r)×r 0(m−r)×(n−r)

Wegen
8.4 • Äquivalenz und Ähnlichkeit von Matrizen
483 8
- . - .
E r×r 5 6 E r×r 0r×(n−r)
E r×r 0r×(n−r) =
0(m−r)×r ; <= > 0(m−r)×r 0(m−r)×(n−r)
; <= > r×n ; <= >
m×r m×n

gilt
- . - .
E r×r 0r×(n−r) E r×r 5 6
−1
A=S T =S E r×r 0r×(n−r) T −1 .
0(m−r)×r 0(m−r)×(n−r) 0(m−r)×r ; <= >
; <= > =:C
=:B

Es ist damit A = BC. Weil S und T invertierbar sind haben B und C beide Rang r. !

Übung 8.45
• ◦ ◦ Man zeige: Ähnliche Matrizen haben gleiche Spur und Determinante.

v Lösung
Es seien A′ und A ähnlich. Dann gibt es eine Transformationsmatrix T ∈ GL(n, K) mit
A′ = TAT −1 .
Invarianz der Spur: Wegen der Zyklizität der Spur1 gilt:

1 2 1 2 1 2
Spur A′ = Spur TAT −1 = Spur T −1 TA = Spur(E A) = Spur(A).

Somit haben A′ und A dieselbe Spur.


Invarianz der Determinante:
1 2 1 2 1 2
det A′ = det TAT −1 = det(T) det(A) det T −1 = det(A).
; <= >
1
= det(T)

A′ und A haben somit dieselbe Determinante. !

Übung 8.46
• ◦ ◦ Es seien A, B ∈ Kn×n ähnlich. Man zeige, dass auch Am und Bm ähnlich sind.

v Lösung
Weil A und B ähnlich sind, gibt es eine invertierbare Matrix T mit B = TAT −1 . Für
Bm gilt dann:
1 2m
Bm = TAT −1 = TA ;T −1
<= T> A T
−1 −1 −1 m −1
; <= T> AT · · · TAT = TA T ,
=E =E

d. h., Am und Bm sind ähnlich. !

1 Erinnerung: Die Spur ist Invariant bezüglich zyklischer Vertauschungen der Matrizen,
d. h. Spur(ABC) = Spur(CAB) = Spur(BCA) (7 vgl. Kap. 1).
484 Kapitel 8 • Lineare Abbildungen II: Kern, Bild und Basiswechsel

Übung 8.47
• ◦ ◦ Man betrachte die folgende Relation für Matrizen in Kn×n :

A∼B ⇐⇒ A und B sind ähnlich.

Man zeige, dass “∼” eine Äquivalenzrelation auf Kn×n definiert.

v Lösung
Wir müssen die drei Eigenschaften der Definition einer Äquivalenzrelation überprüfen.
Es seien also A, B, C ∈ Kn×n . Dann gilt:
1) Reflexivität: Offenbar ist A = EAE −1 , d. h. A ∼ A. Somit erfüllt “∼” die
Reflexivität-Eigenschaft. "
2) Symmetrie: Ist A ∼ B, so gibt es eine invertierbare Matrix T mit B = TAT −1 .
Daraus folgt:
1 2−1
A = T −1 BT = T −1 B T −1 .

Setzen wir P := T −1 , so bedeutet dies A = PBP−1 . Somit ist B ∼ A und die


Symmetrie-Eigenschaft ist erfüllt. "
3) Transitivität: Ist A ∼ B und A ∼ C, so gibt es invertierbare Matrizen T und P mit
B = TAT −1 bzw. C = PBP−1 . Daraus folgt:

C = PBP−1 = PTAT −1 P−1 = (PT)A(PT)−1

und PT ist invertierbar. Somit ist A ∼ C und die Transitivität von ∼ ist erfüllt. "
Die drei Eigenschaften der Definition einer Äquivalenzrelation sind erfüllt. Somit
definiert “∼” eine Äquivalenzrelation auf Kn×n . !

Übung 8.48
• ◦ ◦ Es seien A und B ∈ Kn×n und λ ∈ K. Man zeige:

A und B sind ähnlich ⇐⇒ A − λE und B − λE sind ähnlich.

v Lösung
Beweis von “⇒”: Nehmen wir an, dass A und B ähnlich sind. Dann gibt es eine
invertierbare Matrix T mit B = TAT −1 . Daraus folgt:

T (A − λE) T −1 = TAT −1
; <= > −λ TET
−1
; <= > = B − λE.
=B =E

A − λE und B − λE sind somit ähnlich.


Beweis von “⇐”: Nehmen wir nun an, dass A − λE und B − λE ähnlich sind. Dann
gibt es eine invertierbare Matrix P, sodass B − λE = P(A − λE)P−1 gilt. Wegen A =
8.4 • Äquivalenz und Ähnlichkeit von Matrizen
485 8
(A − λE) + λE und B = (B − λE) + λE finden wir

PAP−1 = P ((A − λE) + λE) P−1 = P (A − λE) P−1 +λ PEP −1


; <= >
; <= >
=B−λE =E

= (B − λE) + λE = B.

A und B sind somit ähnlich. !

Übung 8.49
• • ◦ Es seien A, B ∈ Rn×n ähnlich. Man zeige: Ker(A) ∼
= Ker(B).

v Lösung
Erinnerung: A, B ∈ Rn×n sind ähnlich, wenn es S ∈ GL(n, R) gibt mit B = SAS −1
bzw. A = S −1 BS. Zu zeigen ist, dass Ker(A) und Ker(B) isomorph sind. Um dies zu
beweisen, genügt es zu zeigen, dass es ein Isomorphismus zwischen Ker(A) und Ker(B)
gibt. Es sei v ∈ Ker(A) ⇒ Av = 0 ⇒ S −1 BSv = 0 ⇒ B(Sv) = 0 ⇒ Sv ∈ Ker(B).
Wir definieren somit eine Abbildung * : Ker(A) → Ker(B) durch *(v) = Sv.
Die „Hoffnung“ ist, dass * ein Isomorphismus ist. * ist eine lineare Abbildung. Die
Darstellunsgmatrix von * ist gleich der Matrix S. Weil S invertierbar ist, ist * ein
Isomorphismus. Somit sind Ker(A) und Ker(B) isomorph, d. h. Ker(A) ∼ = Ker(B). !
487 9

Eigenwerte und
Eigenvektoren
Inhaltsverzeichnis

9.1 Definition und erste Beispiele – 488


9.1.1 Eigenwerte und Eigenvektoren – 488
9.1.2 Eigenraum – 488
9.1.3 Geometrische Interpretation – 489
9.1.4 Spektrum und Spektralradius – 490

9.2 Bestimmung von Eigenwerten, deren


Eigenvektoren und Eigenräumen – 501
9.2.1 Bestimmung des Eigenraumes – 501
9.2.2 Bestimmung von Eigenwerten – das
charakteristische Polynom – 502
9.2.3 Kochrezept – 504
9.2.4 Weitere nützliche Eigenschaften und Tricks – 504

9.3 Eigenwerte und Eigenvektoren von


Endomorphismen – 541
9.3.1 Definition – 541
9.3.2 Zusammenhang mit Matrizen – 542

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_9
488 Kapitel 9 • Eigenwerte und Eigenvektoren

n LERNZIELE
Nach gewissenhaftem Bearbeiten des 7 Kap. 9 sind Sie in der Lage:
5 das Konzept der Eigenwerte und deren Eigenvektoren zu verstehen und zu erklären,
5 Eigenwerte und deren Eigenvektoren bzw. Eigenräumen einer gegebener Matrix zu
bestimmen,
5 das charakteristische Polynom einer Matrix inklusive algebraischer und geometri-
scher Vielfachheit der Eigenwerte zu bestimmen,
5 Eigenwerte und Eigenvektoren von Endomorphismen zu bestimmen.

9.1 Definition und erste Beispiele

In diesem Kapitel beschäftigen wir uns nur mit quadratischen Matrizen A ∈ Kn×n .

9.1.1 Eigenwerte und Eigenvektoren


# Definition 9.1 (Eigenwerte und Eigenvektoren einer Matrix)
Ein von Null verschiedener Vektor v ̸= 0 heißt Eigenvektor von A ∈ Kn×n , falls folgendes
gilt

Av = λ v (9.1)

Die Zahl λ ∈ K ist der Eigenwert zum Eigenvektor v. $

> Bemerkung
0 ∈ K kann ein Eigenwert sein (dies ist beispielsweise bei Projektionen der Fall), jedoch
der Nullvektor 0 ∈ Kn ist per Definition kein Eigenvektor.

9.1.2 Eigenraum

Wenn v ein Eigenvektor von A zum Eigenwert λ ist, fällt es leicht zu verifizieren, dass
auch alle Vielfache α v (α ∈ K) Eigenvektoren von A zum gleichen Eigenwert λ sind.
Sind weiter v und w Eigenvektoren von A zum selben Eigenwert λ sind so ist es auch
die Summe v + w. Die Eigenvektoren zum Eigenwert λ bilden zusammen mit dem
Nullvektor einen Unterraum von Kn , den sogenannten Eigenraum (vgl. Übung 9.15):

# Definition 9.2 (Eigenraum)


Die Menge aller Eigenvektoren von A bezüglich dem Eigenwert λ bilden mit dem Nullvek-
tor einen Unterraum von Kn , den sogenannten Eigenraum von A bezüglich λ:

Eigλ (A) := {v ∈ Kn | Av = λ v} (9.2)

$
9.1 • Definition und erste Beispiele
489 9
> Bemerkung
Obwohl der Nullvektor 0 ∈ Kn selbst kein Eigenvektor ist, gehört er per Definition zu
Eigλ (A). Dies ist nötig, damit Eigλ (A) überhaupt ein Unterraum ist (vgl. Übung 9.15).

9.1.3 Geometrische Interpretation

Die Eigenvektoren von A sind diejenigen Vektoren, welche bei der Multiplikation
mit A in einen Vektor der gleichen Richtung transformiert werden, d. h., Av ist
ein Vielfaches (λ-faches) von v. Ist der Eigenwert λ negativ, so erzeugt Av eine
Richtungsumkehr. Veranschaulicht ist der Vektor u in . Abb. 9.1 kein Eigenvektor
von A, während der Vektor v ein Eigenvektor ist. Im zweiten Fall sind alle Vielfache
von v Eigenvektoren von A.

# Beispiel
Es sei A eine Streckung um den Streckungsfaktor α > 0. Dann ist jeder Vektor ein
Eigenvektor von A zum Eigenwert α. $

# Beispiel
Es sei A die orthogonale Projektion auf eine Gerade oder eine Ebene (vgl. Übung 9.7). Dann
gilt
5 Alle Vektoren auf der Projektionsgerade/Projektionsebene werden auf sich selbst
abgebildet. Dies sind Eigenvektoren von A zum Eigenwert 1.
5 Alle Vektoren senkrecht zur Projektionsgerade/Projektionsebene werden auf Null ab-
gebildet. Dies sind Eigenvektoren von A zum Eigenwert 0. $

# Beispiel
Es sei A die Spiegelung an einer Geraden oder einer Ebene (vgl. Übung 9.7). Dann gilt
5 Alle Vektoren auf der Spiegelungsgerade/Spiegelungsebene werden auf sich selbst
abgebildet. Dies sind Eigenvektoren von A zum Eigenwert 1.

a b c

. Abb. 9.1 Geometrische Interpretation der Eigenwerte und Eigenvektoren einer Matrix A
490 Kapitel 9 • Eigenwerte und Eigenvektoren

5 Alle Vektoren v senkrecht zur Spiegelungsgerade/Spiegelungsebene werden auf −v


abgebildet. Dies sind Eigenvektoren von A zum Eigenwert −1. $

# Beispiel
Es sei A eine Rotation im dreidimensionalen Raum R3 . Dann sind alle Vektoren entlang
der Rotationsachse Eigenvektoren von A zum Eigenwert 1 (vgl. Übung 9.6). $

9.1.4 Spektrum und Spektralradius


# Definition 9.3

5 Die Menge aller Eigenwerte von A ∈ Kn×n heißt das Spektrum von A, kurz σ (A):

σ (A) := {λ | λ ist ein Eigenwert von A} = {λ1 , · · · , λk }. (9.3)

5 Der Spektralradius von A (notiert mit ρ(A)) ist der Betrag des größten Eigenwertes von
A:

ρ(A) := max{|λ| | λ ∈ σ (A)} = max{|λ1 |, · · · , |λk |}. (9.4)

Für komplexe Matrizen hat der Spektralradius die folgende geometrische Interpreta-
tion: Ein Kreis in der komplexen Ebene mit Radius ρ(A) um 0 enthält alle Eigenwerte
von A (vgl. Übung 9.23) (. Abb. 9.2).

Übung 9.1 506 5 6 5 6 51 0 6


0 1 0
◦◦◦ Man zeige, dass v1 = 3 , v2 = 1 , v3 = −1 Eigenvektoren von A = 01 3
1 −1 0 1 1 −1
sind. Wie lauten die zugehörigen Eigenwerte?

. Abb. 9.2 Spektrum und Spektralradius einer Matrix A


9.1 • Definition und erste Beispiele
491 9
v Lösung
Laut Definition müssen wir einfach zeigen, dass für diese Vektoren Av = λv gilt (λ ist
zu bestimmen):
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 0 0 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
Av1 = ⎣0 1 3 ⎦ ⎣3⎦ = ⎣6⎦ = 2 v1 ⇒ v1 ist Eigenvektor zum Eigenwert 2,
1 1 −1 1 2
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 0 0 0
⎢ ⎥⎢ ⎥ ⎢ ⎥
Av2 = ⎣0 1 3 ⎦ ⎣−1⎦ = ⎣ 2 ⎦ = −2 v2 ⇒ v2 ist Eigenvektor zum Eigenwert -2,
1 1 −1 1 −2
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 0 0 −1 −1
⎢ ⎥⎢ ⎥ ⎢ ⎥
Av3 = ⎣0 1 3 ⎦ ⎣ 1 ⎦ = ⎣ 1 ⎦ = v3 ⇒ v3 ist Eigenvektor zum Eigenwert 1.
1 1 −1 0 0 !

Übung 9.2
3 1
4 324 31 4
4
◦ ◦ ◦ Man zeige, dass v1 = −1 , v2 = 1 Eigenvektoren von A = 2 −1 sind. Man
6
berechne vT
1 A v2 .

v Lösung
a) Es gilt:
- .- . - .
1 4 1 −3
Av1 = = = (−3) v1 ⇒ v1 ist Eigenvektor zum Eigenwert -3,
2 −1 −1 3
- .- . - .
1 4 2 6
Av2 = = = 3 v2 ⇒ v2 ist Eigenvektor zum Eigenwert 3.
2 −1 1 3

b) Der Trick bei dieser Aufgabe ist: Wir wissen, dass v2 ein Eigenvektor von A zum
Eigenwert 3 ist, d. h. Av2 = 3 v2 . Nach mehrmaliger Anwendung von A folgt:

A6 v2 = A5 (Av2 ) = 3 A5 v2 = 3 A4 (Av2 ) = 32 A4 v2 = · · · = 36 v2 .
; <= > ; <= >
=3v2 =3v2

Somit erhalten wir:


- .
5 6 2
6 6
vT
1 A v2 = vT
1 (3 v2 ) = 36 vT
1 v2
6
= 3 1 −1 = 36 = 729.
1
; <= >
=1·2+(−1)·1=1

Bemerkung: Im Allgemeinen gilt Av = λv ⇒ Am v = λm v (vgl. Übung 9.9). !


492 Kapitel 9 • Eigenwerte und Eigenvektoren

Übung 9.3
• ◦ ◦ Die reelle (2 × 2)-Matrix A besitze die Eigenwerte λ1 = 1 und λ2 = −2 mit
3 4 3 4
zugehörigen Eigenvektoren v1 = 12 , v2 = 21 . Wie lautet die Matrix A konkret?

v Lösung
3a b4
Es seien a, b, c, d die Einträge der gesuchten Matrix A ∈ R2×2 , d. h. A = cd . Ist v1
Eigenvektor von A zum Eigenwert 1, so gilt:
- .- . - . - .
ab 1 a + 2b ! 1
Av1 = v1 ⇒ = = .
cd 2 c + 2d 2

Ist v2 Eigenvektor von A zum Eigenwert −2, so gilt:


- .- . - . - .
ab 2 2a + b ! −4
Av2 = −2 v2 ⇒ = = .
cd 1 2c + d −2

Es ergibt sich somit folgendes LGS für a, b, c, d:



⎪a + 2b = 1 ⎡ ⎤

⎪ 1 2 0 0 1


⎨c + 2d = 2 ⎢0
⎢ 0 1 2 2 ⎥

% ⎢ ⎥.

⎪2a + b = −4 ⎣2 1 0 0 −4 ⎦



⎩ 0 0 2 1 −2
2c + d = −2

welches wir mit dem Gauß-Algorithmus lösen:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 0 1 1 2 0 0 1 1 2 0 0 1
(Z2 ) − 2(Z1 )
⎢ 0 0 1 2 2 ⎥ (Z3 ) ↔ (Z2 )
⎢2 1 0 0 −4 ⎥ ⎢0 −3 0 0 −6 ⎥
⎢ ⎥ ⎢ ⎥ (Z4 ) − 2(Z3 ) ⎢ ⎥
⎢ ⎥ % ⎢ ⎥ % ⎢ ⎥
⎣ 2 1 0 0 −4 ⎦ ⎣0 0 1 2 2 ⎦ ⎣0 0 1 2 2 ⎦
0 0 2 1 −2 0 0 2 1 −2 0 0 0 −3 −6
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 0 1 a −3 - .
−(Z2 )/3
⎢0 2⎥ ⎢b⎥ ⎢ 2 ⎥
−(Z4 )/3 ⎢ 1 0 0 ⎥ ⎢ ⎥ ⎢ ⎥ −3 2
% ⎢ ⎥=Z ⇒ ⎢ ⎥=⎢ ⎥ ⇒ A= .
⎣0 0 1 2 2⎦ ⎣ c ⎦ ⎣−2⎦ −2 2
0 0 0 1 2 d 2 !

> Bemerkung - .
−3 5 6
Die Isomorphie von 2 ∼
= −3 2
haben wir im 7 Kap. 8 gezeigt.
−2 −2 2
2

Ein interessantes Resultat zeigt die folgende Übung.


9.1 • Definition und erste Beispiele
493 9

Übung 9.4
• ◦ ◦ Die Matrix A ∈ Rn×n habe die folgende Eigenschaft: Jede Zeilensumme (Summe
aller Elementen in einer Zeile) betrage α. Man zeige: α ist ein Eigenwert von A zum
Eigenvektor v = [1, 1, · · · , 1]T .

v Lösung ⎡ a11 ··· a1n ⎤ ⎡1⎤


a21 ··· a2n 1
Es seien A = ⎣ .. . . .. ⎦ und v = ⎣ .. ⎦. Jede Zeilensumme von A ist gleich α,
. . . .
an1 ··· ann 1
d. h. a11 + · · · + a1n = a21 + · · · + a2n = · · · = an1 + · · · + ann = α. Daraus folgt:
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 ··· a1n 1 a11 + · · · + a1n α 1
⎢a a2n ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢1⎥
⎢ 21 ··· ⎥ ⎢1⎥ ⎢a21 + · · · + a2n ⎥ ⎢α ⎥ ⎢ ⎥
Av = ⎢
⎢ .. .. .. ⎥ ⎢ ⎥ ⎢
⎥ ⎢.⎥ = ⎢ .. ⎥ = ⎢ . ⎥ = α ⎢ . ⎥ = α v.
⎥ ⎢.⎥ ⎢.⎥
⎣ . . . ⎦ ⎣ .. ⎦ ⎣ . ⎦ ⎣.⎦ ⎣.⎦
an1 · · · ann 1 an1 + · · · + ann α 1

v ist somit ein Eigenvektor von A zum Eigenwert α. !

i Merkregel
Wir halten folgende Merkregel fest: Ist jede Zeilensumme von A gleich α, so ist α ein
Eigenwert von A. Der zugehörige Eigenvektor ist [1, 1, · · · , 1]T .

Übung 9.5
• ◦ ◦ Es sei A ∈ Rn×n . Man zeige: Hat A2 − A den Eigenwert −1, so hat auch A3 den
Eigenwert −1.

v Lösung
A2 − A hat den Eigenwert −1, d. h. für v ̸= 0 gilt (A2 − A)v = −v. Nun wenden wir A
auf beiden Seiten der Gleichung an und erhalten:

A(A2 − A)v = A3 v − A2 v = −Av ⇒ A3 v = A2 v − Av = −v.


' () *
=(A2 −A)v=−v

Es folgt A3 v = −v, d. h. A3 hat den Eigenwert −1. !

Übung 9.6
⎡ 1 1 √1

2 2 2
1 1
• ◦ ◦ Man betrachte die Matrix A = ⎣ 2 2 − √1 ⎦.
2
− √ √1
1
0
2 2
a) Welche lineare Abbildung wird von A dargestellt?
494 Kapitel 9 • Eigenwerte und Eigenvektoren

b) Man zeige, dass der Vektor v = [1, 1, 0]T auf sich selbst abgebildet wird. Man
interpretiere das Resultat geometrisch.

v Lösung
a) Wegen
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1
− √1 1 1 √1
100
⎢ 21 2
1
2⎥⎢ 2 2 2 ⎥
⎢ ⎥
AT A = ⎢ √1 ⎥ ⎢ 1 1
− √1 ⎥ = ⎣0 1 0⎦
⎣ 2 2 2 ⎦⎣ 2 2 2⎦
√1 − √1 0 − √1 √1 0 001
2 2 2 2

+ +
+ 1 1 √1 ++
+ 2 2 2 +
+
ist A orthogonal. Außerdem ist det(A) = ++ 21 1
2 − √1 ++ = 1. Somit beschreibt A
2
+ 1 1 +
+− √ √ 0 +
2 2
eine Rotation im R3 (7 vgl. Abschn. 7.3.3).
b) Es gilt:
⎡ ⎤
⎡ ⎤ ⎡ ⎤
1 1 √1
⎢ 2 2 2 ⎥ 1 1
1 1 ⎢ ⎥ ⎢ ⎥
Av = ⎢
⎣ 2 2 − √1 ⎥ ⎣1⎦ = ⎣1⎦ ⇒ Av = v.
2⎦
1 1 0 0
−√ √ 0
2 2

v = [1, 1, 0]T ist somit ein Eigenvektor von A zum Eigenwert 1.


Geometrische Interpretation: Bei Rotationen im R3 wird die Drehachse immer
auf sich selbst abgebildet. v ist somit die Rotationsachse der von A dargestellten
Rotation. !

Übung 9.7
• ◦ ◦ Es sei E = {v ∈ R3 | v · n = 0} eine Ebene im R3 mit Normale n. Die orthogonale
Projektion P auf E und die Spiegelung S an E sind durch die folgenden Matrizen
beschrieben (7 vgl. Tabelle in Abschn. 7.3):

n nT n nT
P=E− bzw. S = E − 2 .
||n||2 ||n||2

a) Man zeige, dass alle Vielfachen von n Eigenvektoren von P und S sind. Wie lauten
die zugehörigen Eigenwerte?
b) Man zeige, dass alle Vektoren v ∈ E Eigenvektoren von P und S sind. Wie lauten
die zugehörigen Eigenwerte?
9.1 • Definition und erste Beispiele
495 9
v Lösung
a) Es sei v = α n mit α ∈ R. Wegen
, -
n nT n nT n n ||n||2
Pv = E − 2
(α n) = α En − α 2
= αn−α = αn−αn = 0
||n|| ||n|| ||n||2

ist v ein Eigenvektor von P zum Eigenwert 0. Für S finden wir:


, -
n nT n nT n n ||n||2
Sv = E − 2 2
(α n) = α En − 2α 2
= α n − 2α
||n|| ||n|| ||n||2
= α n − 2α n = −α n = −v.

Somit ist v ein Eigenvektor von S zum Eigenwert −1.


b) Es sei v ∈ E ⇒ v · n = 0, was wie folgt nT v = 0 umgeschrieben werden kann. Somit
gilt:
, -
n nT n nT v
Pv = E − 2
v = Ev − = v − 0 = v.
||n|| ||n||2

Somit ist v ein Eigenvektor von P zum Eigenwert 1. Analog finden wir für S:
, -
n nT n nT v
Sv = E − 2 v = Ev − 2 = v − 0 = v.
||n||2 ||n||2

Somit ist v ein Eigenvektor von S zum Eigenwert 1. 7 Vgl. Abschn. 9.1.3 für die
geometrische Interpretation. !

> Bemerkung
Erinnerung: Für Vektoren in R3 gilt vT w = v · w (vgl. Anhang A.1.1).

Übung 9.8
• ◦ ◦ Es seien A ∈ Rn×n und α ∈ R. Man zeige: Ist λ ein Eigenwert von A, so ist λ + α
ein Eigenwert von A + αE.

v Lösung
Es sei v ̸= 0 ein Eigenvektor von A zum Eigenwert λ. Laut Definition heißt dies: Av =
λv. Es sei nun α ∈ R. Für die Matrix A + αE gilt dann:

Av +αEv = λv + αv = (λ + α)v.
(A + αE)v = '()*
=λv

Somit ist v ein Eigenvektor von A + αE zum Eigenwert λ + α. !


496 Kapitel 9 • Eigenwerte und Eigenvektoren

Übung 9.9
• ◦ ◦ Man zeige:
a) Ist v ̸= 0 ein Eigenvektor von A ∈ Kn×n zum Eigenwert λ ∈ K, so ist v ein
Eigenvektor von Am zum Eigenwert λm (m ∈ N).
b) Ist v ̸= 0 ein Eigenvektor von A, B ∈ Kn×n zu den Eigenwerten λ bzw. µ, so ist v ein
Eigenvektor von AB und BA zum Eigenwert λµ.

v Lösung
a) Es sei λ ist ein Eigenwert von A mit Eigenvektor v ̸= 0, d. h. Av = λv. Nach
mehrmaliger Verwendung von A folgt:

Am v = Am−1 (Av) = λAm−1 v = λAm−2 (Av) = λ2 Am−2 v = · · · = λm v.


'()* '()*
=λv =λv

Somit ist v ein Eigenvektor von Am zum Eigenwert λm (Alternative: Beweis durch
vollständigen Induktion).
b) Es sei v ̸= 0 ein Eigenvektor von A, B zu den Eigenwerten λ bzw. µ, d. h. Av = λv
bzw. Bv = µv. Daraus folgt:

(AB)v = A (Bv) = µ '()*


Av = λµv ⇒ v ist Eigenvektor von AB zum Eigenwert λµ
'()*
=µv =λv

(BA)v = B (Av) = λ '()*


Bv = λµv ⇒ v ist Eigenvektor von BA zum Eigenwert λµ
'()*
=λv =µv !

Übung 9.10
• ◦ ◦ A ∈ Rn×n heißt idempotent, wenn A2 = A gilt. Wie lauten die möglichen
Eigenwerte einer idempotenten Matrix? Man interpretiere das Resultat geometrisch.

v Lösung
Es sei A ∈ Rn×n idempotent, d. h. A2 = A. Es sei λ ein Eigenwert von A mit Eigenvektor
v ̸= 0. Dann ist λ2 ein Eigenwert von A2 mit demselben Eigenvektor (vgl. Übung 9.9).
Wegen A2 = A müssen die Eigenwerte von A die folgende Gleichung erfüllen:

λ2 = λ ⇒ λ2 − λ = λ(λ − 1) = 0 ⇒ λ = 0, 1.

Eine idempotente Matrix kann somit nur die Eigenwerte λ = 0 und λ = 1 haben.
Geometrische Interpretation: Eine idempotente Matrix beschreibt geometrisch eine
orthogonale Projektion (7 vgl. Abschn. 7.3.3). Vektoren auf der Projektionsachse oder
Projektionsebene werden von der Projektion nicht geändert (⇒ Eigenwert 1). Vektoren,
welche senkrecht zur Projektionsachse oder Projektionsebene sind, werden auf Null
abgebildet (⇒ Eigenwert 0). !
9.1 • Definition und erste Beispiele
497 9

Übung 9.11
• ◦ ◦ A ∈ Rn×n heißt involutiv, wenn A2 = E gilt. Wie lauten die möglichen Eigenwerte
einer involutiven Matrix? Man interpretiere das Resultat geometrisch.

v Lösung
Es sei A ∈ Rn×n involutiv, d. h. A2 = E. Ist λ ein Eigenwert von A mit Eigenvektor v ̸=
0, so ist λ2 ein Eigenwert von A2 mit demselben Eigenvektor. Die Einheitsmatrix hat
nur den Eigenwert 1. Aus A2 = E folgt somit, dass die Eigenwerte von A die folgende
Gleichung erfüllen:

λ2 = 1 ⇒ λ2 − 1 = (λ + 1)(λ − 1) = 0 ⇒ λ = ±1.

Eine involutive Matrix kann somit nur λ = ±1 als Eigenwerte haben.


Geometrische Interpretation: Eine involutive Matrix beschreibt geometrisch eine
Spiegelung (7 vgl. Abschn. 7.3.3). Vektoren auf der Spiegelachse oder Spiegelebene
werden von der Spiegelung nicht geändert (⇒ Eigenwert 1). Vektoren v, welche
senkrecht zur Spiegelachse oder Spiegelebene sind, werden auf −v abgebildet (⇒
Eigenwert −1). !

Übung 9.12
• ◦ ◦ A ∈ Rn×n heißt nilpotent, wenn es ein m ∈ N gibt, sodass Am−1 ̸= 0 und Am = 0
gilt. m ist der Nilpotenzgrad. Wie lauten die möglichen Eigenwerte einer nilpotenten
Matrix?

v Lösung
Eine nilpotente Matrix mit Nilpotenzgrad m erfüllt

Am = 0.

Die Nullmatrix hat nur den Eigenwert 0. Somit ist 0 der einzige Eigenwert von Am . Aus
Übung 9.9 folgt somit: Ist λ ein Eigenwert von A, so ist λm = 0. Daraus folgt λ = 0.
Somit kann die Matrix A nur den Eigenwert 0 haben. !

Das folgende Beispiel ist sehr praktisch.

Übung 9.13
• • ◦ Es sei A ∈ GL(n, K) invertierbar. Man zeige:
a) Alle Eigenwerte von A sind ungleich Null.
b) Ist λ ein Eigenwert von A, so ist 1/λ ein Eigenwert der Inversen A−1 .
498 Kapitel 9 • Eigenwerte und Eigenvektoren

v Lösung
a) Der Eigenraum von A zu λ = 0 ist per Definition:

Eig0 (A) = {v ∈ Kn | Av = 0 v = 0.}

Dies ist gerade der Kern von A, d. h.

Eig0 (A) = Ker(A).

A ist genau dann invertierbar, wenn Rang(A) = n, d. h. Ker(A) = {0}. Der


Eigenraum zu λ = 0 besteht somit nur aus dem Nullvektor. Der Nullvektor ist
jedoch nach Definition kein Eigenvektor von A. Somit ist λ = 0 kein Eigenwert von
A, wenn A invertierbar ist (siehe Merkregel unten).
b) Es sei λ ist ein Eigenwert von A mit Eigenvektor v ̸= 0, d. h. Av = λv. Da A
invertierbar ist und λ ̸= 0 folgt nach Anwendung von A−1 :

1
Av = λv ⇒ v = λA−1 v ⇒ A−1 v = v,
λ

d. h., 1/λ ist ein Eigenwert von A−1 . !

i Merkregel
Wir halten folgende Merkregel fest: Eine Matrix A ist genau dann invertierbar, wenn
alle Eigenwerte ungleich Null sind.

Übung 9.14
• • ◦ Man zeige: Eigenvektoren von A zu verschiedenen Eigenwerten sind linear
unabhängig.

v Lösung
Wir zeigen diese Aussage für zwei Eigenvektoren. Es seien v1 , v2 ̸= 0 Eigenvektoren
von A zu den Eigenwerten λ1 bzw. λ2 mit λ1 ̸= λ2 . Zu zeigen ist, dass v1 und v2 linear
unabhängig sind, d. h.

α1 v1 + α2 v2 = 0 ⇒ α1 = α2 = 0.

Wir beginnen mit der Gleichung α1 v1 + α2 v2 = 0 und zeigen, dass α1 = α2 = 0 sein


muss. Wenden wir A auf beiden Seiten dieser Gleichung an so folgt:

A(α1 v1 + α2 v2 ) = α1 Av1 + α2 Av2 = α1 λ1 v1 + α2 λ2 v2 = A0 = 0.

Wir haben somit zwei Gleichungen erhalten



⎨α v + α v = 0
1 1 2 2
(9.5)
⎩α λ v + α λ v = 0
1 1 1 2 2 2
9.1 • Definition und erste Beispiele
499 9
Multiplizieren wir die erste Gleichung von (9.5) mit λ2 und subtrahieren davon die
zweite Gleichung, so folgt

α1 (λ2 − λ1 )v1 = 0.

Wegen λ1 ̸= λ2 (die Eigenwerte sind verschieden) und v1 ̸= 0 (aus der Definition von
Eigenvektoren) folgt α1 = 0. Nun multiplizieren wir die erste Gleichung von (9.5) mit
λ1 und subtrahieren davon die zweite Gleichung von (9.5), so folgt

α2 (λ1 − λ2 )v2 = 0,

woraus sich α2 = 0 ergibt (wegen λ1 ̸= λ2 und v2 ̸= 0). Somit sind v1 und v2 linear
unabhängig. Per Induktion zeigt man, dass dies für n verschiedenen Eigenwerte gilt! !

Übung 9.15
• ◦ ◦ Es sei A ∈ Kn×n und λ ∈ K ein Eigenwert von A. Man zeige, dass der zugehörige
Eigenraum Eigλ (A) ein Unterraum von Kn ist.

v Lösung
Wir weisen einfach nach, dass Eigλ (A) die drei Eigenschaften (U1)–(U3) eines Unter-
raumes erfüllt (7 vgl. Abschn. 5.2):
5 Beweis von (UR0): Wegen A 0 = 0 = λ 0 ist 0 ∈ Eigλ (A) "
5 Beweis von (UR1): Es seien v, w ∈ Eigλ (A). Dann gilt Av = λ v und Aw = λ w.
Daraus folgt

A(v + w) = Av + Aw = λ v + λ w = λ(v + w) ⇒ v + w ∈ Eigλ (A) "

5 Beweis von (UR2): Es seien v ∈ Eigλ (A) und α ∈ K. Dann gilt Av = λ v und somit

A(α v) = α Av = α (λ v) = λ(α v) ⇒ α v ∈ Eigλ (A) "

Eigλ (A) ist somit ein Unterraum von Kn . !

Übung 9.16
• • ◦ Die Matrix A ∈ Rn×n habe die Eigenschaft, dass jeder Vektor v ̸= 0 in Rn ein
Eigenvektor von A ist. Man zeige, dass dann A = λE für ein λ ∈ R.
500 Kapitel 9 • Eigenwerte und Eigenvektoren

v Lösung ⎡ a11 a12 ··· a1n ⎤


a21 a22 ··· a2n
Alle Vektoren v ̸= 0 in Rn sind Eigenvektoren von A = ⎣ .. .. . . .. ⎦. Insbesondere
. . . .
⎡1⎤ ⎡ 0 ⎤ an1 an2 ··· ⎡ann
0

0 1 0
sind die Standardbasisvektoren e1 = ⎣ .. ⎦, e2 = ⎣ .. ⎦, · · · , en = ⎣ .. ⎦ Eigenvektoren
. . .
0 0 1
von A zu den Eigenwerten λ1 , λ2 , · · · , λn (diese Eigenwerte brauchen nicht gleich zu
sein) Aus Ae1 = λ1 e1 folgt
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 a12 ··· a1n 1 a11 1
⎢a a2n ⎥ ⎢ ⎥ ⎢ ⎥ ⎢0⎥
⎢ 21 a22 ··· ⎥ ⎢0⎥ ⎢a21 ⎥ ! ⎢ ⎥
⎢ . .. ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ . .. .. ⎥ ⎢ . ⎥ = ⎢ . ⎥ = λ1 ⎢ .. ⎥ ⇒ a11 = λ1 , a21 = · · · = an1 = 0.
⎣ . . . . ⎦ ⎣ .. ⎦ ⎣ .. ⎦ ⎣.⎦
an1 an2 · · · ann 0 an1 0

Aus Ae2 = λ2 e2 folgt


⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 a12 ··· a1n 0 a12 0
⎢a a2n ⎥ ⎢ ⎥ ⎢ ⎥ ⎢1⎥
⎢ 21 a22 ··· ⎥ ⎢1⎥ ⎢a22 ⎥ ! ⎢ ⎥
⎢ . .. ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ . .. .. ⎥ ⎢ . ⎥ = ⎢ . ⎥ = λ2 ⎢ .. ⎥ ⇒ a22 = λ1 , a12 = · · · = an2 = 0.
⎣ . . . . ⎦ ⎣ .. ⎦ ⎣ .. ⎦ ⎣.⎦
an1 an2 · · · ann 0 an2 0
⎡ ⎤
λ1 0 ··· 0
0 λ2 ··· 0
⎢ ⎥
Usw. Es folgt aij = λi für i = j und aij = 0 für i ̸= j, d. h. A = ⎣ . . . . ⎦. Es bleibt
.. .. . . ..
0 0 ··· λn
⎡1⎤
1
zu zeigen, dass λ1 = · · · = λn . Zu diesem Zweck betrachten wir den Vektor v = ⎣ .. ⎦.
.
1
Nach Ausnahme ist v ein Eigenvektor von A. Es sei λ der zugehörige Eigenvektor. Dann
folgt aus Av = λv
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
λ1 0 ··· 0 1 λ1 1
⎢0 0⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ λ2 ··· ⎥ ⎢1⎥ ⎢λ2 ⎥ ! ⎢1⎥
⎢. .. ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢. .. .. ⎥ ⎢ . ⎥ = ⎢ . ⎥ = λ ⎢ .. ⎥ ⇒ λ1 = · · · = λn = λ.
⎣. . . . ⎦ ⎣ .. ⎦ ⎣ .. ⎦ ⎣.⎦
0 0 · · · λn 1 λn 1
⎡λ 0 ··· 0

0 λ ··· 0
Somit ist A = ⎣ .. .. . . .. ⎦ = λE. !
. . . .
0 0 ··· λ
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
501 9
9.2 Bestimmung von Eigenwerten, deren Eigenvektoren und
Eigenräumen

Wie kann man die Eigenwerte und die zugehörigen Eigenvektoren und Eigenräume
einer gegebenen Matrix in der Praxis bestimmen?

9.2.1 Bestimmung des Eigenraumes

Sei λ ∈ K ein Eigenwert von A ∈ Kn×n mit dem Eigenvektor v ̸= 0. Dann gilt gemäß
Definition

Av = λv. (9.6)

Wir können diese Bedingung (9.6) in ein homogenes LGS umwandeln:

Av = λv = λEv ⇔ (A − λE)v = 0. (9.7)

Die Lösungsmenge dieses homogenen LGS ist der Eigenraum von A zu λ, konkret:

Eigλ (A) = {v ∈ Kn | (A − λE)v = 0} = Ker(A − λE). (9.8)

Wir haben somit Folgendes gezeigt:

# Satz 9.1
Der Eigenraum von A ∈ Kn×n zum Eigenwert λ ist der Kern von A − λE, d. h.

Eigλ (A) = Ker(A − λE) $

Mit anderen Worten: λ ∈ K ist genau dann ein Eigenwert von A ∈ Kn×n , wenn es ein
v ̸= 0 gibt mit (A − λE)v = 0. Dies ist äquivalent zu Ker(A − λE)v ̸= {0}.

Geometrische Vielfachheit
# Definition 9.4 (Geometrische Vielfachheit)
Die Dimension von Eigλ (A) nennt man die geometrische Vielfachheit des Eigenwertes λ. $

Praxistipp

Wenn wir die Dimensionsformel für Matrizen (Satz 8.9) auf A − λE anwenden, dann
erhalten wir die folgende nützliche Formel für die geometrische Vielfachheit von λ:

n = dim(Ker(A − λE)) + dim Im(A − λE) ⇒ dim(Eigλ (A)) = n − Rang(A − λE)


' () * ' () *
=dim(Eigλ (A)) =Rang(A−λE)

(9.9)
502 Kapitel 9 • Eigenwerte und Eigenvektoren

9.2.2 Bestimmung von Eigenwerten – das charakteristische


Polynom

Im letzten Abschnitt haben wir die Bestimmung des Eigenraumes Eigλ (A) auf die
Lösung des folgenden homogenen LGS reduziert:

(A − λE)v = 0. (9.10)

> Bemerkung
Erinnerung: Aus 7 Abschn. 2.3.4 wissen wir, dass es 2 Möglichkeiten für die Lösung
eines homogenen LGS gibt:
5 Ist det(A − λE) ̸= 0, so hat (A − λE)v = 0 nur die triviale Lösung v = 0;
5 Ist det(A − λE) = 0, so hat (A − λE)v = 0 unendlich viele nichttriviale Lösungen
v ̸= 0.

Da der Nullvektor 0 ∈ Kn kein Eigenvektor von A ist, interessieren wir uns nur für den
zweiten Fall, d. h. wenn Av = λv eine nichttriviale Lösung v ̸= 0 hat. Dies impliziert

det(A − λE) = 0 (9.11)

i Merkregel
Die Matrix A besitzt Eigenvektoren nur zu denjenigen λ ∈ K, welche det(A − λE) = 0
erfüllen.

Der Ausdruck pA (λ) := det(A − λE) ist ein Polynom vom Grad n in der Variablen λ
und wird charakteristisches Polynom von A benannt. Die Nullstellen des charakteris-
tisches Polynoms sind genau die Eigenwerte von A. Wir haben somit den folgenden
Satz motiviert:

# Satz 9.2
Die Eigenwerte von A ∈ Kn×n sind genau die in K liegenden Nullstellen des charakteristi-
schen Polynoms

pA (λ) = det(A − λE) (9.12)

Gl. (9.12) heißt die charakteristische Gleichung. $

Da ein Polynom vom Grad n höchstens n Nullstellen hat, erhalten wir direkt aus dem
obigen Satz 9.2 das folgende Resultat:

# Satz 9.3
Eine Matrix A ∈ Kn×n hat höchstens n Eigenwerte (mit entsprechender Vielfachheit
gezählt). $

Für komplexwertige Matrizen A ∈ Cn×n gilt der Fundamentalsatz der Algebra


(vgl. Anhang C.3): Jedes Polynom vom Grad n über C zerfällt in Linearfaktoren,
d. h., es hat n Nullstellen. Daraus folgt unmittelbar:
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
503 9
# Satz 9.4
Jede Matrix A ∈ Cn×n besitzt immer n Eigenwerte in C (mit entsprechender Vielfachheit
gezählt). $

Algebraische Vielfachheit (oder Multiplizität)


Nullstellen in pA (λ) können – wie immer bei Nullstellen von Polynomen – mehrfach
auftreten. Nur verschiedene Nullstellen liefern verschiedene Eigenwerte. Was ist
damit gemeint? Die Gleichung

(λ − 1)2 (λ − 5) = 0 (9.13)

hat beispielsweise zwei unterschiedliche Nullstellen 1 und 5. Wenn man diese Glei-
chung so aufschreibt

(λ − 1)(λ − 1)(λ − 5) = 0 (9.14)

dann wird deutlich, dass 1 jeweils die Nullstelle von zwei Linearfaktoren ist. Man
sagt, dass 1 eine zweifache Nullstelle ist, bzw., dass 1 die Vielfachheit 2 hat. Im
Allgemeinen können wir die charakteristische Gl. (9.12) auf zwei äquivalenten Arten
festlegen

pA (λ) = an (λ − λ1 ) · · · (λ − λn ) = 0 (9.15)
pA (λ) = an (λ − λ1 )m1 · · · (λ − λr )mr = 0. (9.16)

In Gl. (9.15) werden alle n Eigenwerte explizit aufgeschrieben; ein bestimmtes λi kann
daher die Nullstelle von mehreren Linearfaktoren sein. In Gl. (9.16) werden nur die
unterschiedlichen Eigenwerte aufgeschrieben; die Potenz mi ist die Vielfachheit der
Nullstelle λi in pA (λ). Aus diesem Grund definiert man:

# Definition 9.5 (Algebraische Vielfachheit)


Die Vielfachheit der Nullstelle λ in pA (λ) nennt man die algebraische Vielfachheit des
Eigenwertes λ. $

Zusammenhang der Vielfachheitsbegriffe


Für jeden Eigenwert λ unterscheidet man zwei Vielfachheitsbegriffe:
5 Die geometrische Vielfachheit von λ ist die Dimension des Eigenraumes Eigλ (A).
5 Die algebraische Vielfachheit von λ ist die Vielfachheit von λ als Nullstelle des
charakteristischen Polynoms pA (λ) (d. h. wie viel Mal λ als Nullstelle von pA (λ)
auftritt).

Zwischen den beiden Vielfachheitsbegriffe gilt der folgende Zusammenhang und


wichtige Satz:
504 Kapitel 9 • Eigenwerte und Eigenvektoren

# Satz 9.5
Für jeden Eigenwert λ gilt (vgl. Übung 9.40):

1 ≤ geometrische Vielfachheit ≤ algebraische Vielfachheit. (9.17)


$

i Merkregel
Die geometrische Vielfachheit eines Eigenwertes ist mindestens 1 und ist kleiner oder
gleich der algebraischen Vielfachheit. Diese Begriffe spielen eine zentrale Rolle bei der
Diagonalisierung von A (vgl. Prüfungstraining Lineare Algebra, Band II).

9.2.3 Kochrezept

Kochrezept 9.1 (Eigenwerte und Eigenvektoren)


Gegeben: eine (n × n)-Matrix A ∈ Kn×n .
Gesucht: die Eigenwerte und Eigenvektoren/Eigenräume von A.
Schritt 1: Bilde das charakteristische Polynom von A
+ +
+a11 − λ a12 ··· a1n ++
+
+ a a2n ++
+ 21 a22 − λ ···
pA (λ) = det(A − λI) = ++ . .. .. .. ++ .
+ .. . . . ++
+
+ a an2 · · · ann − λ+
n1

Dies ist ein Polynom vom Grad n in λ. Für (2 × 2)-Matrizen kann man die Formel von
Vieta benutzen, um pA (λ) schnell zu bestimmen (Trick # 9.1):

pA (λ) = λ2 − Spur(A) λ + det(A).

Schritt 2: Die gesuchten Eigenwerte der Matrix A sind die Nullstellen des charakte-
ristischen Polynoms pA (λ).
Schritt 3: Um die Eigenvektoren/Eigenräume zu den verschiedenen Eigenwerten zu
bestimmen, löse man jeweils das LGS (A−λE)v = 0 mit dem Gauß-Algorithmus. Diese
Prozedur führt man mit allen im Schritt 2 bestimmten Eigenwerte separat durch.

9.2.4 Weitere nützliche Eigenschaften und Tricks

Wir halten in der Folge einige interessante und praktische Tatsachen fest, die bei der
Eigenwertsuche sehr nützlich sind.
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
505 9
Trick # 9.1 Für jede Matrix A ∈ Kn×n ist pA (λ) ein Polynom vom Grad n, d. h.

pA (λ) = an λn + an−1 λn−1 + · · · + a0 . (9.18)

Dies folgt direkt aus der Definition der Determinante (vgl. Übung 9.33). Für einige
Koeffizienten von pA (λ) gelten die Formeln von Vieta (die Formeln für die anderen
Koeffizienten sind etwas komplexer und werden in diesem Buch nicht behandelt, da sie
kaum prüfungsrelevant sind):

an = (−1)n , an−1 = (−1)n−1 Spur(A), a0 = det(A) (9.19)

Insbesondere ist das charakteristische Polynom einer (2 × 2)-Matrix gleich:

pA (λ) = λ2 − Spur(A) λ + det(A) (9.20)

# Beispiel
1 2
» Die Matrix A =
12
21
erfüllt Spur(A) = 2 und det(A) = −3. Daher ist das

charakteristische Polynom von A gleich pA (λ) = λ2 − Spur(A) λ + det(A) = λ2 −


2λ − 3. $

Trick # 9.2 Die Summe der n Eigenwerte (mit Vielfachheit gezählt) ist gleich der Spur
von A (vgl. Übung 9.27):

λ1 + · · · + λn = Spur(A) (9.21)

# Beispiel
⎡ ⎤
−3 1 −1
» ⎢ ⎥
Die Matrix A = ⎣−7 5 −1⎦ hat die Eigenwerte λ1,2 = −2 (mit algebraischer
−6 6 −2
Vielfachheit 2) und λ3 = 4. Die Spur von A ist Spur(A) = −3 + 5 − 2 = 0 und
stimmt mit der Summe der Eigenwerte überein λ1 + λ2 + λ3 = −2 − 2 + 4 = 0 ".
Beachte: Der Eigenwert −2 hat algebraische Vielfachheit 2 und wird somit zwei Mal in
der Summe mitgezählt. $

> Bemerkung
Trick 9.2 ist eine schnelle Kontrollmöglichkeit, ob wir die Eigenwerte richtig berechnet
haben.

Trick # 9.3 Das Produkt der n Eigenwerte von A ist gleich der Determinante von A
(vgl. Übung 9.27):

λ1 · · · λn = det(A) (9.22)
506 Kapitel 9 • Eigenwerte und Eigenvektoren

# Beispiel
⎡ ⎤
−3 1 −1
» ⎢ ⎥
Die Determinante der Matrix A = ⎣−7 5 −1⎦ ist det(A) = 16. Dies stimmt mit dem
−6 6 −2
Produkt der Eigenwerte überein λ1 · λ2 · λ3 = (−2) · (−2) · 4 = 16 ". Beachte: Der
Eigenwert −2 (algebraische Vielfachheit 2) wird zwei Mal mitgezählt. $

> Bemerkung
Nützliche Folgerung: Gilt det(A) = 0, so hat A mindestens einen Eigenwert gleich Null.

Trick # 9.4 Für Diagonalmatrizen und Dreiecksmatrizen sind die Eigenwerte genau die
Diagonaleinträge (vgl. Übung 9.25).
# Beispiel
⎡ ⎤
2 2 3
» ⎢ ⎥
Die Matrix A = ⎣0 −4 6⎦ hat die Eigenwerte 2, −4 und 5. $
0 0 5

Trick # 9.5 Für die Bestimmung der Eigenwerte von Blockdiagonalmatrizen


⎡ ⎤
A1 · · · 0
⎢ ⎥
A = diag[A1 , · · · , Ap ] = ⎣ ... . . . ... ⎦
0 · · · Ap

darf man jeden Block A1 , · · · , Ap einzeln betrachten. Dies gilt auch bei Blockdreiecks-
matrizen.
# Beispiel
1 2 1 2
» A1 =
12
21
hat die Eigenwerte −1 und 3. Die Eigenwerte von A2 =
10
12
sind 1 und
⎡ ⎤
1200
⎢2 1 0 0⎥
⎢ ⎥
2. Daher hat die Blockdiagonalmatrix ⎢ ⎥ die Eigenwerte −1, 1, 2 und 3. $
⎣0 0 1 0⎦
0012

Trick # 9.6 Ist jede Spaltensumme (Summe aller Elementen in einer Spalte) oder jede
Zeilensumme (Summe aller Elementen in einer Zeile) von A ∈ Kn×n gleich α, so ist α
ein Eigenwert von A (vgl. Übung 9.4). Der zugehörige Eigenraum ist immer
⎡ ⎤
3 1 4
⎢1⎥
⎢ ⎥
Eigα (A) = ⎢ . ⎥ .
⎣ .. ⎦
1
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
507 9
# Beispiel
⎡ ⎤
021
» ⎢ ⎥
Für die Matrix A = ⎣1 0 2⎦ ist jede Zeilensumme gleich 3. Somit ist 3 ein Eigenwert
111
von A zum Eigenvektor [1, 1, 1]T (man mache die Probe!). $

Trick # 9.7 Sind alle Zeilen von A identisch, d. h.


⎡ ⎤
a1 a2 · · · an
⎢ a1 a2 · · · an ⎥
⎢ ⎥
A=⎢ .. ⎥,
⎣ . ⎦
a1 a2 · · · an

und ist die Spur(A) ̸= 0, so hat A nur die Eigenwerte λ = 0 (mit algebraischer
Vielfachheit n − 1) and λ = Spur(A) (mit algebraischer Vielfachheit 1). Dieses
interessante Resultat beweisen wir in Übung 9.31.
# Beispiel
⎡ ⎤
1210
⎢1 2 1 0⎥
» Alle Zeilen der Matrix A = ⎢

⎣1 2 1 0⎦

⎥ sind identisch mit der Spur(A) = 4 ̸= 0. Die

1210
Eigenwerte von A sind somit 0 (algebraische Vielfachheit 3) und 4. $

# Beispiel
⎡ ⎤
123
» ⎢ ⎥
Die Matrix A = ⎣2 4 6⎦ hat Rang 1 und Spur(A) = 14 ̸= 0. Die Eigenwerte von A
369
sind somit 0 (algebraische Vielfachheit 2) und 14. $

> Bemerkung
Trick 9.7 ist im Allgemeinen für Matrizen mit Rang(A) = 1 und Spur(A) ̸= 0 gültig.

Trick # 9.8 Ist A, eine Matrix mit Eigenwerten λ1 , · · · , λk , so gilt:


5 A + αE hat die Eigenwerte λ1 + α, · · · , λk + α (vgl. Übung 9.8);
5 Am hat die Eigenwerte λm m
1 , · · · , λk (vgl. Übung 9.9);
T
5 A hat die Eigenwerte λ1 , · · · , λk (gleich wie A) (vgl. Übung 9.35);
5 A∗ hat die Eigenwerte λ1 , · · · , λk (vgl. Übung 9.35);
5 A−1 hat die Eigenwerte λ11 , · · · , λ1 (falls λ1 , · · · , λk ̸= 0, vgl. Übung 9.13).
k

Trick # 9.9 Eigenvektoren zu unterschiedlichen Eigenwerten haben sozusagen nichts


miteinander zu tun. Genauer (vgl. Übung 9.14):
508 Kapitel 9 • Eigenwerte und Eigenvektoren

# Satz 9.6
Eigenvektoren zu unterschiedlichen Eigenwerten sind linear unabhängig. $

Trick # 9.10 Ähnliche Matrizen haben dasselbe charakteristische Polynom beziehungs-


weise dieselben Eigenwerte.

> Bemerkung
Wegen λ1 + · · · + λn = Spur(A) und λ1 · · · λn = det(A) haben ähnliche Matrizen gleiche
Spur und Determinante.
Nützliche Folgerung: Haben A, B ungleiche Spuren oder unterschiedliche Determi-
nanten, so sind A, B nicht ähnlich.

Musterbeispiel 9.1 (Eigenwerte und Eigenvektoren bestimmen)

Als Beispiel berechnen wir die Eigenwerte und Eigenvektoren der folgenden Matrix
über R:
1 2
21
A= .
12

Schritt 1: Wir berechnen das charakteristische Polynom von A:


+ +
+2 − λ 1 +
+ +
pA (λ) = det(A − λE) = + + = (2 − λ)(2 − λ) − 1
+ 1 2 − λ+

= λ2 − 4λ + 3 = (λ − 3)(λ − 1).

Alternative: Mit der Formel von Vieta (Trick # 9.1) finden wir (Spur(A) = 4,
det(A) = 3) :

pA (λ) = λ2 − Spur(A) λ + det(A) = λ2 − 4λ + 3.

Schritt 2: Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms
pA (λ):

!
pA (λ) = (λ − 3)(λ − 1) = 0 ⇒ λ1 = 3, λ2 = 1.

Da jede Nullstelle von pA nur einmal vorkommt, haben beide Eigenwerte die algebrai-
sche Vielfachheit 1.
Kontrolle: λ1 + λ2 = 3 + 1 = Spur(A) = 2 + 2 = 4 "
Schritt 3: Wir bestimmen die zugehörigen Eigenvektoren/Eigenräume. Wir betrach-
ten die verschiedenen Eigenwerte separat.
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
509 9

5 Eigenraum zu λ1 = 3: Wir lösen das LGS (A − 3E)v = 0 mit dem Gauß-


Algorithmus:
1 2 1 2 1 2
2−3 1 0 −1 1 0 (Z2 ) + (Z1 ) −1 1 0
= % = Z.
1 2−3 0 1 −1 0 0 0 0

Die Lösung ist:


5 +1 2 1 2 6 31 24
+ v
+ 1 2 1 1
Eig3 (A) = v ∈ R + =t ,t∈R = .
+ v2 1 1

Insbesondere ist dim(Eig3 (A)) = 1. Somit hat der Eigenwert λ1 = 3 die geometri-
sche Vielfachheit 1.
5 Eigenraum zu λ2 = 1. In diesem Fall lösen wir das LGS (A − E)v = 0:
1 2 1 2 1 2
2−1 1 0 1 1 0 (Z2 ) − (Z1 ) 1 1 0
= % = Z.
1 2−1 0 1 1 0 0 0 0

Die Lösung ist:


5 +1 2 1 2 6 31 24
+ v
+ 1 2 1 1
Eig1 (A) = v ∈ R + =t ,t∈R = .
+ v2 −1 −1

Wegen dim(Eig1 (A)) = 1 hat der Eigenwert λ2 = 1 die geometrische Vielfachheit 1.

> Bemerkung
Der erste Eigenvektor-Repräsentant, den wir in Musterbeispiel 9.1 berechnet haben,
war [1, 1]T , aber das ist nur ein Punkt auf der Eigenvektorlinie (Eigenraum). Der
Eigenraum zum ersten Eigenwert ist somit eine Gerade mit Steigung 1. Der erste
Eigenwert war 3. Somit wird jeder Vektor entlang der Eigenvektorlinie um Faktor 3
verlängert, wenn er unter A transformiert wird. Der zweite Eigenvektor-Repräsentant,
den wir berechnet haben, war [−1, 1]T . Daher ist der Eigenraum zum zweiten Eigen-
wert eine Gerade mit Steigung −1. Der Eigenwert ist 1, sodass sich die Punkte entlang
der zweiten Eigenvektorlinie bei der Transformation durch A überhaupt nicht bewegen
(. Abb. 9.3).
510 Kapitel 9 • Eigenwerte und Eigenvektoren

. Abb. 9.3 Musterbeispiel 9.1

Übung 9.17
• • ◦ 2 schwarze Punkte Man bestimme alle Eigenwerte und Eigenvektoren der
folgenden
1 2Matrizen über K:
1 1
a) , K=R
0 −1
1 2
53
b) , K=R
13
1 2
−1 2
c) , K = R, C
−3 1
⎡ ⎤
123
⎢ ⎥
d) ⎣0 3 1⎦ , K = R
004
⎡ ⎤
111
⎢ ⎥
e) ⎣1 1 1⎦ , K = R
111
⎡ ⎤
−3 1 −1
⎢ ⎥
f) ⎣−7 5 −1⎦ , K = R
−6 6 −2
⎡ ⎤
2 90 2
⎢−1 2 1 0 ⎥
⎢ ⎥
g) ⎢ ⎥ , K = R, C
⎣0 03 0⎦
0 0 2 −1
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
511 9
v Lösung
In allen Beispielen gehen wir nach dem Kochrezept 9.1 vor. Es ist den Lesern über-
lassen, mit welchen Methoden sie im Folgenden die Eigenwerte und die zugehörigen
Eigenräume bestimmt (Sarrus, Laplace-Entwicklung, Gauß-Algorithmus, und Spezial-
Methoden/Tricks aus diesem Kapitel).
a) Schritt 1: Wir berechnen das charakteristische Polynom
+ +
+1 − λ
+ 1 ++
pA (λ) = det(A − λE) = + + = (1 − λ)(−1 − λ) − 0 = (λ − 1)(λ + 1).
+ 0 −1 − λ+

Schritt 2: Die Eigenwerte von A sind die Nullstellen von pA (λ), d. h.1

!
pA (λ) = (λ − 1)(λ + 1) = 0 ⇒ λ1 = 1, λ2 = −1.

Da λ1 und λ2 einfache Nullstellen von pA (λ) sind, haben beide Eigenwerte algebrai-
sche Vielfachheit 1.
Schnellvariante: Weil A eine Dreiecksmatrix ist, sind die Diagonalelemente λ1 =
1 und λ2 = −1 schon die gesuchten Eigenwerte (Trick # 9.4).
Schritt 3: Um die Eigenvektoren zu den verschiedenen Eigenwerten zu bestim-
men, lösen wir jeweils das LGS (A − λE)v = 0. Wir betrachten die verschiedenen
Eigenwerte separat.
5 Eigenraum zu λ1 = 1: Wir lösen (A − E)v = 0 mit dem Gauß-Algorithmus:
1 2 1 2 1 2
1−1 1 0 0 1 0 (Z2 ) + 2(Z1 ) 0 1 0
= % = Z.
0 −1 − 1 0 0 −2 0 0 0 0

Die Lösung ist:


5 +1 2 1 2 6 31 24
+ v
+ 12 1 1
Eig1 (A) = v ∈ R + =t ,t∈R = .
+ v2 0 0

Es gilt dim(Eig1 (A)) = 1, d. h. λ1 = 1 hat geometrische Vielfachheit 1.


5 Eigenraum zu λ2 = −1: Für den zweiten Eigenwert lösen wir (A + E)v = 0:
1 2 1 2
1+1 1 0 2 1 0
= = Z.
0 −1 + 1 0 0 0 0

Die Lösung ist:


5 +1 2 1 2 6 31 24
+ v
+ 1 1
Eig−1 (A) = v ∈ R2 + 1 = t ,t∈R = .
+ v2 −2 −2

Wegen dim(Eig−1 (A)) = 1 hat λ2 = −1 geometrische Vielfachheit 1.

1 Als Kontrolle überprüfen wir, dass die Summe der gefundenen Eigenwerte gleich der Spur von A ist
(Trick # 9.2): λ1 + λ2 = 1 − 1 = 0 = Spur(A). "
512 Kapitel 9 • Eigenwerte und Eigenvektoren

b) Schritt 1: Das charakteristische Polynom ist:


+ +
+5 − λ 3 +
+ +
pA (λ) = det(A − λE) = + + = (5 − λ)(3 − λ) − 3
+ 1 3 − λ+

= λ2 − 8λ + 12 = (λ − 2)(λ − 6).

Alternative: Mit der Formel von Vieta (Trick # 9.1) finden wir (Spur(A) = 8,
det(A) = 12):

pA (λ) = λ2 − Spur(A) λ + det(A) = λ2 − 8λ + 12.

Schritt 2: Die Nullstellen von pA (λ) sind die gesuchten Eigenwerte

!
pA (λ) = (λ − 2)(λ − 6) = 0 ⇒ λ1 = 2, λ2 = 6.

Beide Nullstellen sind einfach, d. h., λ1 und λ2 haben algebraische Vielfachheit 1.


Schritt 3:
5 Eigenraum zu λ1 = 2: Wir lösen (A − 2E)v = 0 mit dem Gauß-Algorithmus:
1 2 1 2 1 2
5−2 3 0 3 3 0 3(Z2 ) − (Z1 ) 3 3 0
= % = Z.
1 3−2 0 1 1 0 0 0 0

Die Lösung ist:


5 +1 2 1 2 6 31 24
+ v
+ 1 1
Eig2 (A) = v ∈ R + 1 = t
2
,t∈R = .
+ v2 −1 −1

Wegen dim(Eig2 (A)) = 1 hat λ1 = 2 geometrische Vielfachheit 1.


5 Eigenraum zu λ2 = 6: Wir lösen (A − 6E)v = 0:
1 2 1 2 1 2
5−6 3 0 −1 3 0 (Z2 ) + (Z1 ) −1 3 0
= % = Z.
1 3−6 0 1 −3 0 0 0 0

Die Lösung ist:


5 +1 2 1 2 6 31 24
+ v
+ 1 2 3 3
Eig6 (A) = v ∈ R + =t ,t∈R = .
+ v2 1 1

λ2 = 6 hat geometrische Vielfachheit 1, weil dim(Eig6 (A)) = 1.


c) Schritt 1: Wir bestimmen das charakteristische Polynom von A
+ +
+−1 − λ 2 +
+ +
pA (λ) = det(A − λE) = + + = (−1 − λ)(1 − λ) + 6 = λ2 + 5
+ −3 1 − λ+

Schritt 2: Die Eigenwerte sind die in K liegenden Nullstellen von pA (λ).


9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
513 9
5 Weil das charakteristische Polynom keine reelle Nullstellen hat, hat die Matrix
A keine Eigenwerte in R.
5 Über C zerfällt pA (λ) in Linearfaktoren (dies ist immer der Fall, wegen des
Fundamentalsatzes der Algebra). Die Eigenwerte von A über C lauten:

! √ √
pA (λ) = λ2 + 5 = 0 ⇒ λ1 = i 5, λ2 = −i 5

und sie haben algebraische Vielfachheit 1.


Schritt 3: √ √
5 Eigenraum zu λ1 = i 5: Wir lösen (A − i 5 E)v = 0:
1 √ 2 √
1 √ 2
−1 − i 5 2 0 (1 + i 5)(Z2 ) − 3(Z1 ) −(1 + i 5) 2 0
√ % = Z.
−3 1−i 5 0 0 0 0

Die Lösung ist:


5 +1 2 1 2 6 31 24
+ v 1√ 1√
+ 1 2
Eigi√5 (A) = v∈C + = t 1+i 5 , t ∈ C = 1+i 5
.
+ v2
2 2

Es gilt dim(Eigi√5 (A)) = 1 (als komplexer Unterraum!). Somit ist die geometri-

sche Vielfachheit von λ√1 = i 5 gleich 1. √
5 Eigenraum zu λ2 = −i 5: Wir lösen (A + i 5 E)v = 0:
1 √ 2 √
1 √ 2
−1 + i 5 2 0 (1 − i 5)(Z2 ) − 3(Z1 ) −1 + i 5 2 0
√ % = Z.
−3 1+i 5 0 0 0 0

Die Lösung ist:


5 +1 2 1 2 6 31 24
+ v 1√ 1√
+ 1 2
Eig−i√5 (A) = v∈C + = t 1−i 5 , t ∈ C = 1−i 5
.
+ v2
2 2


Wegen dim(Eig−i√5 (A)) = 1 hat λ2 = −i 5 geometrische Vielfachheit 1.
d) Schritt 1+2: Da A eine Dreiecksmatrix ist sind die Diagonalelemente λ1 = 1, λ2 = 3
und λ3 = 4 bereits die gesuchten Eigenwerte (Trick # 9.4). Alle Eigenwerte haben
algebraische Vielfachheit 1.
Schritt 3: Für jeden Eigenwert lösen wir jeweils (A − λE)v = 0 mit dem Gauß-
Algorithmus.
5 Eigenraum zu λ1 = 1: Wir lösen (A − E)v = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1−1 2 3 0 0 2 3 0 0 2 3 0
⎢ ⎥ ⎢ ⎥ (Z2 ) − (Z1 ) ⎢ ⎥
⎣ 0 3−1 1 0⎦=⎣0 2 1 0⎦ % ⎣ 0 0 −2 0 ⎦
0 0 4−1 0 0 0 3 0 0 0 3 0
⎡ ⎤
0 2 3 0
2(Z3 ) + 3(Z2 ) ⎢ ⎥
% ⎣ 0 0 −2 0 ⎦ = Z.
0 0 0 0
514 Kapitel 9 • Eigenwerte und Eigenvektoren

Die Lösung ist:


⎧ +⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
⎪ + v 1 ⎪ 3 1 4
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Eig1 (A) = v ∈ R3 + ⎣v2 ⎦ = t ⎣0⎦ , t ∈ R = ⎣0⎦

⎩ + ⎪

+ v3 0 0

und dim(Eig1 (A)) = 1, d. h. λ1 = 1 hat geometrische Vielfachheit 1.


5 Eigenraum zu λ2 = 3: Wir lösen (A − 3E)v = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1−3 2 3 0 −2 2 3 0 −2 2 3 0
⎢ ⎥ ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣ 0 3−3 1 0⎦=⎣ 0 0 1 0⎦ % ⎣ 0 0 1 0 ⎦ = Z.
0 0 4−3 0 0 0 1 0 0 0 0 0

Die Lösung ist:


⎧ +⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
⎪ + v 1 ⎪ 3 1 4
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Eig3 (A) = v ∈ R3 + ⎣v2 ⎦ = t ⎣1⎦ , t ∈ R = ⎣1⎦ .

⎩ + ⎪

+ v3 0 0

Die geometrische Vielfachheit von λ2 = 3 ist 1.


5 Eigenraum zu λ3 = 4: Wir lösen (A − 4E)v = 0:
⎡ ⎤ ⎡ ⎤
1−4 2 3 0 −3 2 3 0
⎢ ⎥ ⎢ ⎥
⎣ 0 3 − 4 1 0 ⎦ = ⎣ 0 −1 1 0 ⎦ = Z.
0 0 4−4 0 0 0 0 0

Die Lösung ist:


⎧ +⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
⎪ + v 5 ⎪ 3 5 4
⎨ + 1 3 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Eig4 (A) = v ∈ R3 + ⎣v2 ⎦ = t ⎣ 1 ⎦ , t ∈ R = ⎣3⎦ .

⎩ + ⎪

+ v3 1 3

Die geometrische Vielfachheit von λ3 = 4 ist 1.


e) Schritt 1: Das charakteristische Polynom von A ist:
+ +
+1 − λ 1 1 ++
+
+ +
pA (λ) = det(A − λE) = + 1 1 − λ 1 +
+ +
+ 1 1 1 − λ+
+ + + + + +
+1 − λ 1 + +1 1 + + 1
+ + + + + 1++
= (1 − λ) + + −1 + + +1 + + = −λ2 (λ − 3).
+ 1 1 − λ+ +1 1 − λ+ +1 − λ 1+
' () * ' () * ' () *
=(1−λ)(1−λ)−1 =(1−λ)−1=−λ =1−(1−λ)=λ

Schritt 2: Die Eigenwerte sind die Nullstellen von pA (λ), d. h.

!
pA (λ) = −λ2 (λ − 3) = 0 ⇒ λ1,2 = 0 (doppelte Nullstelle), λ3 = 3.
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
515 9
In diesem Fall ist 0 eine doppelte Nullstelle. Somit hat der Eigenwert 0 algebraische
Vielfachheit 2. Die algebraische Vielfachheit von λ3 = 3 ist 1.
Elegante Alternative: Die Eigenwerte von A kann man auch mittels Tricks
bestimmen. Jede Zeilensumme ergibt 3. Somit ist 3 ein Eigenwert von A (Trick
# 9.6). Weiterhin ist die Determinante von A Null, d. h., 0 ist ein weiterer Eigenwert
von A (Trick # 9.3). Die Summe der Eigenwerte ist gleich der Spur von A (Trick
# 9.2). Wegen Spur(A) = 3 muss der letzte Eigenwert von A auch gleich 0 sein,
damit die Gesamtsumme aller Eigenwerte gleich 3 wird.
Zweite Alternative: Alle Zeilen von A sind identisch und Spur(A) = 3 ̸= 0.
Daher sind die Eigenwerte von A gleich λ1,2 = 0 (algebraische Vielfachheit 2) und
λ3 = 3 (Trick # 9.7).
Schritt 3:
5 Eigenraum zu λ1,2 = 0: Wir lösen (A − 0 E)v = 0:

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1−0 1 1 0 1 1 1 0 (Z2 ) − (Z1 ) 1 1 1 0
⎢ ⎥ ⎢ ⎥ (Z3 ) − (Z1 ) ⎢ ⎥
⎣ 1 1−0 1 0⎦=⎣1 1 1 0⎦ % ⎣ 0 0 0 0 ⎦ = Z.
1 1 1−0 0 1 1 1 0 0 0 0 0

Die Lösung ist:


⎧ +⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤ ⎡ ⎤
⎪ + v 1 0 ⎪ 3 1 0 4
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Eig0 (A) = v ∈ R3 + ⎣v2 ⎦ = t ⎣ 0 ⎦ + s ⎣ 1 ⎦ , t, s ∈ R = ⎣ 0 ⎦ , ⎣ 1 ⎦ .

⎩ + ⎪

+ v3 −1 −1 −1 −1

Die Dimension von Eig0 (A) ist 2. Also hat 0 die geometrische Vielfachheit 2,
gleich wie die algebraische Vielfachheit.
5 Eigenraum zu λ3 = 3: Wir lösen (A − 3E)v = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1−3 1 1 0 −2 1 1 0 2(Z2 ) + (Z1 ) −2 1 1 0
⎢ ⎥ ⎢ ⎥ 2(Z3 ) + (Z1 ) ⎢ ⎥
⎣ 1 1 − 3 1 0 ⎦ = ⎣ 1 −2 1 0 ⎦ % ⎣ 0 −3 3 0 ⎦
1 1 1−3 0 1 1 −2 0 0 3 −3 0
⎡ ⎤
−2 1 1 0
(Z3 ) + (Z2 ) ⎢ ⎥
% ⎣ 0 −3 3 0 ⎦ = Z.
0 0 0 0

Die Lösung ist:


⎧ +⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
⎪ + v 1 ⎪ 3 1 4
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Eig3 (A) = v ∈ R3 + ⎣v2 ⎦ = t ⎣1⎦ , t ∈ R = ⎣1⎦ .

⎩ + ⎪

+ v3 1 1

dim(Eig3 (A)) = 1, d. h. 3 hat die geometrische Vielfachheit 1.


516 Kapitel 9 • Eigenwerte und Eigenvektoren

f) Schritt 1: Das charakteristische Polynom von A ist:


+ +
+−3 − λ 1 −1 ++
+
+ +
pA (λ) = det(A − λE) = + −7 5 − λ −1 + = −(λ − 4)(λ + 2)2 .
+ +
+ −6 6 −2 − λ+

Schritt 2: Die Eigenwerte sind die Nullstellen des charakteristischen Polynoms, d. h.

!
pA (λ) = −(λ − 4)(λ + 2)2 = 0 ⇒ λ1,2 = −2 (doppelte Nullstelle), λ3 = 4.

Der Eigenwert −2 hat die algebraische Vielfachheit 2 (doppelte Nullstelle), während


λ3 = 4 die algebraische Vielfachheit 1 hat.
Schritt 3:
5 Eigenraum zu λ1,2 = −2: Wir lösen (A + 2E)v = 0:

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−3 + 2 1 −1 0 −1 1 −1 0 (Z2 ) − 7(Z1 ) −1 1 −1 0
⎢ ⎥ ⎢ ⎥ (Z3 ) − 6(Z1 ) ⎢ ⎥
⎣ −7 5 + 2 −1 0 ⎦ = ⎣ −7 7 −1 0 ⎦ % ⎣ 0 0 6 0⎦
−6 6 −2 + 2 0 −6 6 0 0 0 0 6 0
⎡ ⎤
−1 1 −1 0
(Z3 ) − (Z2 ) ⎢ ⎥
% ⎣ 0 0 6 0 ⎦ = Z.
0 0 0 0

Die Lösung ist:


⎧ +⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
⎪ + v 1 ⎪ 3 1 4
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Eig−2 (A) = v ∈ R3 + ⎣v2 ⎦ = t ⎣1⎦ , t ∈ R = ⎣1⎦ .

⎩ + ⎪

+ v3 0 0

Es gilt dim(Eig−2 (A)) = 1, d. h. der Eigenwert −2 hat die geometrische


Vielfachheit 1. In diesem Fall ist die geometrische Vielfachheit kleiner ist als
die algebraische Vielfachheit (vgl. Satz 9.5).2
5 Eigenraum zu λ3 = 4: Wir lösen (A − 4E)v = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−3 − 4 1 −1 0 −7 1 −1 0 (Z2 ) − (Z1 ) −7 1 −1 0
⎢ ⎥ ⎢ ⎥ (Z3 ) − 6(Z1 ) ⎢ ⎥
⎣ −7 5 − 4 −1 0 ⎦ = ⎣ −7 1 −1 0 ⎦ % ⎣ 0 0 0 0 ⎦ = Z.
−6 6 −2 − 4 0 −6 6 −6 0 36 0 0 0

Die Lösung ist:


⎧ +⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
⎪ + v 0 ⎪ 3 0 4
⎨ + 1 ⎬
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Eig4 (A) = v ∈ R3 + ⎣v2 ⎦ = t ⎣1⎦ , t ∈ R = ⎣1⎦ .

⎩ + ⎪

+ v3 1 1

Die geometrische Vielfachheit von λ3 = 4 ist 1.

2 Konsequenz: Die Matrix ist nicht diagonalisierbar (vgl. Prügungstraining Lineare Algebra, Band II).
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
517 9
g) Schritt 1: Wir stellen fest, dass
⎡ ⎤
2−λ 9 0 2
⎢ −1 2 − λ 1 0 ⎥
⎢ ⎥
A − λE = ⎢ ⎥
⎣ 0 0 3−λ 0 ⎦
0 0 2 −1 − λ

eine Blockdreiecksmatrix ist. Somit lässt sich das charakteristische Polynom von A
besonders leicht bestimmen (Trick # 9.5):
⎡ ⎤
2−λ 9 0 2
⎢ −1 2 − λ 1 0 ⎥
⎢ ⎥
pA (λ) = det(A − λE) = det ⎢ ⎥
⎣ 0 0 3−λ 0 ⎦
0 0 2 −1 − λ
1 2 1 2
2−λ 9 3−λ 0 ; <
= det det = (2 − λ)2 + 9 (λ − 3)(λ + 1).
−1 2 − λ 2 −1 − λ

Schritt 2: Die Eigenwerte sind die Nullstellen des charakteristischen Polynoms.


5 Über R hat pA (λ) nur zwei Nullstellen: λ1 = −1, λ2 = 3.
5 Über C hat pA (λ) vier Nullstellen: λ1 = −1, λ2 = 3, λ3 = 2 + 3i und λ4 = 2 − 3i.
Alle Eigenwerte haben algebraische Vielfachheit 1.
Schritt 3:
5 Eigenraum zu λ1 = −1: Wir lösen (A + E)v = 0:

⎡ ⎤ ⎡ ⎤
2+1 9 0 2 0 3 9 0 2 0
⎢ −1 2 + 1 1 0⎥ ⎢
⎢ 0 ⎥ ⎢ −1 3 1 0 0⎥⎥
⎢ ⎥=⎢ ⎥
⎣ 0 0 3+1 0 0⎦ ⎣ 0 0 4 0 0⎦
0 0 2 −1 + 1 0 0 0 2 0 0
⎡ ⎤
3 9 0 2 0
3(Z2 ) + (Z1 )

(Z4 ) − (Z3 ) ⎢ 0 18 3 2 0⎥⎥
% ⎢ ⎥ = Z.
⎣0 0 4 0 0⎦
0 0 0 0 0

Die Lösung ist:


⎧ +⎡ ⎤ ⎡ 1⎤ ⎫ ⎡ ⎤
+ v1 −3


⎪ + ⎪

⎪ 3 −3 4
⎨ + ⎢v ⎥ ⎢− 1 ⎥ ⎬ ⎢−1⎥
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Eig−1 (A) = v ∈ R4 (C4 ) + ⎢ 2 ⎥ = t ⎢ 9 ⎥ , t ∈ R (C) = ⎢ ⎥ .



+ ⎣
+ 3 v ⎦ ⎣ 0 ⎦ ⎪


⎣0⎦
⎩ + v ⎭
4 1 9

Der Eigenwert −1 hat die geometrische Vielfachheit 1.


518 Kapitel 9 • Eigenwerte und Eigenvektoren

5 Eigenraum zu λ2 = 3: Wir lösen (A − 3E)v = 0:

⎡ ⎤ ⎡ ⎤
2−3 9 0 2 0 −1 9 0 2 0
⎢ −1 2 − 3 1 0⎥ ⎢ 0⎥
⎢ 0 ⎥ ⎢ −1 −1 1 0 ⎥
⎢ ⎥=⎢ ⎥
⎣ 0 0 3−3 0 0⎦ ⎣ 0 0 0 0 0⎦
0 0 2 −1 − 3 0 0 0 2 −4 0
⎡ ⎤
−1 9 0 2 0
⎢ ⎥
(Z2 ) − (Z1 ) ⎢ 0 −10 1 −2 0 ⎥
% ⎢ ⎥ = Z.
⎣ 0 0 0 0 0⎦
0 0 2 −4 0

Die Lösung lautet:


⎧ +⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
+ v1 2


⎪ + ⎪

⎪ 3 2 4
⎨ + ⎢v ⎥ ⎢0⎥ ⎬ ⎢0⎥
+ ⎢ 2⎥ ⎢ ⎥ ⎢ ⎥
Eig3 (A) = v ∈ R4 (C4 ) + ⎢ ⎥ = t ⎢ ⎥ , t ∈ R (C) = ⎢ ⎥ .

⎪ + ⎣v3 ⎦ ⎣2⎦ ⎪
⎪ ⎣2⎦

⎩ + ⎪

+ v 1 1
4

Der Eigenwert 3 hat die geometrische Vielfachheit 1.


5 Eigenraum zu λ3 = 2 + 3i: Wir lösen (A − (2 + 3i)E)v = 0:

⎡ ⎤
2 − (2 + 3i) 9 0 2 0

⎢ −1 2 − (2 + 3i) 1 0 0⎥⎥
⎢ ⎥
⎣ 0 0 3 − (2 + 3i) 0 0⎦
0 0 2 −1 − (2 + 3i) 0
⎡ ⎤
−3i 9 0 2 0
⎢ −1 −3i 1
⎢ 0 0⎥⎥
=⎢ ⎥
⎣ 0 0 1 − 3i 0 0⎦
0 0 2 −3 − 3i 0
⎡ ⎤
−3i 9 0 2 0
⎢ 0
3i (Z2 ) − (Z1 ) ⎢ 0 3i −2 0⎥⎥
% ⎢ ⎥ = Z.
⎣ 0 0 1 − 3i 0 0⎦
0 0 2 −3 − 3i 0

Die Lösung ist:



+⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
+ v1
⎪ −3i ⎪ −3i 4
+⎪
⎪ ⎪
⎪ 3

+ ⎢v ⎥ ⎢ 1 ⎥ ⎬ ⎢ 1 ⎥
+⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Eig2+3i (A) = v ∈ C4 + ⎢ 2 ⎥ = t ⎢ ⎥, t ∈ C = ⎢ ⎥ .

⎪ + ⎣v3 ⎦ ⎣ 0 ⎦ ⎪
⎪ ⎣ 0 ⎦

⎩ + ⎪

+ v 0 0
4

λ3 = 2 + 3i hat somit die geometrische Vielfachheit 1.


9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
519 9
5 Eigenraum zu λ4 = 2 − 3i: Wir lösen (A − (2 − 3i)E)v = 0:

⎡ ⎤ ⎡ ⎤
2 − (2 − 3i) 9 0 2 0 3i 9 0 2 0
⎢ 0⎥ ⎢ 0⎥
⎢ −1 2 − (2 − 3i) 1 0 ⎥ ⎢ −1 3i 1 0 ⎥
⎢ ⎥=⎢ ⎥
⎣ 0 0 3 − (2 − 3i) 0 0⎦ ⎣ 0 0 1 + 3i 0 0⎦
0 0 2 −1 − (2 − 3i) 0 0 0 2 −3 + 3i 0
⎡ ⎤
3i 9 0 2 0

3i (Z2 ) + (Z1 ) ⎢ 0 0 3i 2 0⎥⎥
% ⎢ ⎥ = Z.
⎣ 0 0 1 + 3i 0 0⎦
0 0 2 −3 + 3i 0

Die Lösung ist:


⎧ +⎡ ⎤ ⎡ ⎤ ⎫ ⎡ ⎤
+ v1 3i


⎪ + ⎪

⎪ 3 3i 4
⎨ + ⎢v ⎥ ⎢1⎥ ⎬ ⎢1⎥
+ ⎢ 2⎥ ⎢ ⎥ ⎢ ⎥
Eig2−3i (A) = v ∈ C4 +⎢ ⎥ = t⎢ ⎥, t ∈ C = ⎢ ⎥ .

⎪ + ⎣v3 ⎦ ⎣0⎦ ⎪
⎪ ⎣0⎦

⎩ + ⎪

+ v 0 0
4

λ4 = 2 − 3i hat ebenso die geometrische Vielfachheit 1. !

Übung 9.18
• ◦ ◦ Für welche α ∈ R ist λ = 2 ein Eigenwert der folgenden Matrix?
1 2
1 1−α
A= .
−3 −1

Man bestimme den zugehörigen Eigenvektor. Wie lauten die weiteren Eigenwerte
von A?

v Lösung
Damit λ = 2 ein Eigenwert von A ist, muss λ = 2 eine Nullstelle des charakteristischen
Polynoms sein, d. h.
+ + + +
+1 − 2 1 − α + +−1 1 − α +
+ + + + !
det(A − 2E) = + +=+ + = 6 − 3α = 0 ⇒ α = 2.
+ −3 −1 − 2+ +−3 −3 +

Die Matrix A lautet somit:


1 2
1 −1
A= .
−3 −1

Um den Eigenvektor zum Eigenwert λ = 2 zu bestimmen, lösen wir das folgende LGS:
520 Kapitel 9 • Eigenwerte und Eigenvektoren

1 2 1 2 1 2
1 − 2 −1 0 −1 −1 0 (Z2 ) − 3(Z1 ) −1 −1 0
= % = Z.
−3 −1 − 2 0 −3 −3 0 0 0 0

Die Lösung ist:


5 +1 2 1 2 6 31 24
+ v
+ 1
2 1 1
Eig2 (A) = v ∈ R + =t ,t∈R = .
+ v2 −1 −1

Da A eine (2 × 2)-Matrix ist, hat A höchstens 2 Eigenwerte. Die Summe der Eigenwerte
von A ist gleich der Spur(A) = 0 (Trick # 9.2). Der zweite Eigenwert von A muss −2
sein. !

Übung 9.19
• ◦ ◦ Für welche α ∈ R ist λ = 1 ein Eigenwert der folgenden Matrix?
⎡ ⎤
α 10
⎢ ⎥
A = ⎣1 − α 0 2 ⎦ .
1 1α

Wie lauten die weiteren Eigenwerte von A?

v Lösung
Damit λ = 1 ein Eigenwert der Matrix A ist, muss λ = 1 eine Nullstelle des
charakteristischen Polynoms sein, d. h.
+ +
+α − 1 1 0 ++
+
+ +
pA (λ) = det(A − E) = +1 − α 0 − 1 2 +
+ +
+ 1 1 α − 1+
+ + + + + +
+−1 2 + +1 0 + + 1 0+
+ + + + + +
= (α − 1) + + −(1 − α) + + +1 + +
+ 1 α − 1+ +1 α − 1+ +−1 2+
' () * ' () * ' () *
=−(α−1)−2 =α−1 =2

!
= −(α − 1)2 − 2(α − 1) − (α − 1)(1 − α) + 2 = 4 − 2α = 0 ⇒ α = 2.
⎤⎡
2 10
⎢ ⎥
Für α = 2 lautet die Matrix A = ⎣−1 0 2⎦ . Daraus folgt:
1 12


2 10
⎢ ⎥
Spur(A) = 4 und det(A) = det ⎣−1 0 2⎦ = 0.
1 12
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
521 9
Die Summe der Eigenwerte ist Spur(A) = 4 (Trick # 9.2) und deren Produkt ist
det(A) = 0 (Trick # 9.3). Wegen det(A) = 0 ist 0 ein Eigenwert von A. Der dritte
Eigenwert ist somit 3, weil 1 + 3 = 4. !

Übung 9.20
= >
• ◦ ◦ Die Eigenwerte der Matrix A = 01 10 sind λ1 = 1 und λ2 = −1. Ohne das
= >
charakteristische Polynom zu berechnen soll man die Eigenwerte von B = α1 α1 (α ∈
R) bestimmen.

v Lösung
Wir wenden den „Verschiebungstrick“ (Trick # 9.8) an. Es gilt:
1 2 1 2 1 2
α 1 01 α 0
B= = + = A + αE.
1α 10 0α

Aus Trick # 9.8 folgt: Die Eigenwerte von B sind λ1 + α = α + 1 und λ2 + α


= α − 1. !

Die folgende Übung ist sehr praktisch und wichtig zugleich.

Übung 9.21
• ◦ ◦⎡Man ⎤bestimme möglichst geschickt die Eigenwerte der folgenden Matrizen:
120
⎢ ⎥
a) ⎣1 1 1⎦
120
⎡ ⎤
10 2
⎢ ⎥
b) ⎣0 3 −1⎦
00 2
⎡ ⎤100
011
⎢ ⎥
c) ⎣1 0 1⎦
110
⎡ ⎤
2222
⎢2 2 2 2⎥
⎢ ⎥
d) ⎢ ⎥
⎣2 2 2 2⎦
2222
⎡ ⎤
1 213
⎢−1 4 1 3⎥
⎢ ⎥
e) ⎢ ⎥
⎣−1 2 3 3⎦
−1 2 1 5
522 Kapitel 9 • Eigenwerte und Eigenvektoren

⎡ ⎤
16 0 0 0
⎢ ⎥
⎢1 0 0 0 0 ⎥
⎢ ⎥
f) ⎢ 3 ⎥
⎢0 0 2 1 2 ⎥
⎢ ⎥
⎣0 0 −2 1 − 12 ⎦
0 0 1 −1 0
Hinweis: Anwenden der Tricks # 9.1 – # 9.10.

v Lösung
a) Jede Zeilensumme von A ist 3
⎡ ⎤
1 2 0 ⇒ Summe = 3
⎢ ⎥
A = ⎣ 1 1 1 ⎦ ⇒ Summe = 3 .
1 2 0 ⇒ Summe = 3

Somit ist λ1 = 3 ein Eigenwert (Trick # 9.6). Wie lauten die anderen Eigenwerte
λ2 , λ3 ? Die Determinante und die Spur von A lauten:
+ +
+1 2 0+
+ +
+ +
det(A) = + 1 1 1 + = 0, Spur(A) = 1 + 1 + 0 = 2.
+ +
+1 2 0+

Das Produkt der Eigenwerte ist gleich det(A) und deren Summe ist Spur(A) (Tricks
# 9.2 und 9.3). Die gesuchten Eigenwerte erfüllen somit die folgenden Gleichungen:

λ1 · λ2 · λ3 = 3 · λ2 · λ3 = 0, λ1 + λ2 + λ3 = 3 + λ2 + λ3 = 2.

Daraus folgt λ1 = 3, λ2 = 0 und λ3 = −1.


b) Es ist eine obere Dreiecksmatrix. Die Eigenwerte sind somit die Diagonalelemente
(Trick # 9.4): λ1 = 1, λ2 = 2 und λ3 = 3.
c) Die Eigenwerte von Ak sind genau die Eigenwerte
? @von A hoch k (Trick # 9.8).
011
Wir betrachten also die Eigenwerte von A = 101 . Jede Zeilensumme ergibt 2,
110
d. h., λ1 = 2 ist ein Eigenwert (Trick # 9.6). Die Determinante von A ist 2 und die
Spur von A ist 0. Daraus folgt mit Tricks # 9.2 und 9.3:

λ1 · λ2 · λ3 = 2 · λ2 · λ3 = 2 ⇒ λ2 · λ3 = 1
λ1 + λ2 + λ3 = 2 + λ2 + λ3 = 0 ⇒ λ2 + λ3 = −2.

Somit sind λ1 = 2, λ2 = −1 und λ3 = −1 die Eigenwerte von A. Die Eigenwerte


von A100 sind also λ100
1 =2
100 , λ100 = 1 und λ100 = 1.
2 3
d) Alle Zeilen von A sind identisch und Spur(A) = 8 ̸= 0. Aus Trick # 9.7
folgt: die Eigenwerte von A sind λ1,2,3 = 0 (algebraische Vielfachheit 3) und
λ4 = Spur(A) = 8.
e) Dieses spezielle, aber interessante Beispiel verwendet den „Verschiebungstrick“
(Trick # 9.8). Wir schreiben A wie folgt um:
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
523 9
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 1 3 −1 2 1 3 2 00 0
⎢−1 3⎥ ⎢ ⎥ ⎢
⎢ 4 1 ⎥ ⎢−1 2 1 3⎥ ⎢0 20 0⎥⎥
A=⎢ ⎥=⎢ ⎥+⎢ ⎥.
⎣−1 2 3 3⎦ ⎣−1 2 1 3⎦ ⎣0 02 0⎦
−1 2 1 5 −1 2 1 3 0 00 2
' () * ' () *
=B =2E

Auf diese Idee kommt man, weil in jede Spalte das Diagonalelement um 2 von den
restlichen Spaltenelementen abweicht. Die Matrix A ist nun von der Form B + αE.
Aus dem Verschiebungstrick (Trick # 9.8) folgt, dass es genügt, die Eigenwerte von
B zu bestimmen, was in diesem Beispiel besonders einfach ist. Denn alle Zeilen von
B sind identisch (B hat Rang 1) und Spur(B) = 5 ̸= 0. Nach Trick # 9.7 sind die
Eigenwerte von B gleich 0 (Vielfachheit 3) und 5. Daraus ergeben sich mittels dem
Verschiebungstrick die Eigenwerte von A = B + 2E als

λ1,2,3 = 0 + 2 = 2 und λ4 = 5 + 2 = 7.

f) A ist eine Blockdiagonalmatrix


⎡ ⎤
1 6 0 0 0
⎢ ⎥
⎢1 0 0 0 0 ⎥ 1 2
3 ⎥ = A1 0
⎢ ⎥
A=⎢
⎢0 0 2 1 2 ⎥
.
⎢ ⎥ 0 A2
⎣0 0 −2 1 − 21 ⎦
0 0 1 −1 0

Wegen Trick # 9.5 können wir die zwei Blöcke getrennt betrachten. Wir beginnen
mit dem ersten Block A1 . Die Matrix A1 hat Determinante −6 und Spur 1. Die
Eigenwerte von A1 erfüllen somit λ1 λ2 = −6 und λ1 +λ2 = 1 (Tricks # 9.2 und 9.3).
Dies ergibt: λ1 = 3 und λ2 = −2. Nun betrachten wir den zweiten Block A2 . Wir
stellen fest, dass jede Spaltensumme 1 ergibt:
⎡ ⎤
2 1 32
⎢ ⎥
⎢ −2 1 − 1 ⎥
⎣ 2 ⎦
1 −1 0
⇓ ⇓ ⇓
Summe = 1 1 1

λ3 = 1 ist somit ein Eigenwert von A2 (Trick # 9.6). Die Determinante von A2 ist 0.
Somit ist λ4 = 0 ein weiterer Eigenwert von A2 . Ferner ist die Spur von A2 gleich 3.
Somit ist λ5 = 3−1 = 2 der letzte Eigenwert von A2 . Zusammenfassend: Die Matrix
A hat die Eigenwerte λ1 = 3, λ2 = −2, λ3 = 1, λ4 = 0 und λ5 = 2. Überzeugen
Sie sich von der Richtigkeit, in dem Sie mittels charakteristischen Polynom von A
zu den gleichen Eigenwerten gelangen. !
524 Kapitel 9 • Eigenwerte und Eigenvektoren

Übung 9.22
•◦◦
a) Man zeige, durch direkte Berechnung, dass das charakteristische Polynom einer (2×
2)-Matrix A lautet:
pA (λ) = λ2 − Spur(A) λ + det(A).
=1 2
>
b) Man benutze diese Formel, um das charakteristische Polynom von A = 3 −4 ,
? @
B = 75 −3
−2 schnell zu bestimmen.

v Lösung
=a b>
a) Es sei A = cd . Das charakteristische Polynom von A ist dann
+ +
+a − λ b +
+ +
pA (λ) = det (A − λE) = + + = (a − λ)(d − λ) − bc
+ c d − λ+

= λ2 − (a + d) λ + ad − bc = λ2 − Spur(A) λ + det(A).
' () * ' () *
=Spur(A) det(A)

b) Mit Teilaufgabe (a) finden wir

Spur(A) = 1 − 4 = −3, det(A) = −4 − 6 = −10

⇒ pA (λ) = λ − Spur(A) λ + det(A) = λ2 + 3λ − 10


2

Spur(B) = 7 − 2 = 5, det(B) = −14 + 15 = 1

⇒ pB (λ) = λ2 − Spur(B) λ + det(B) = λ2 − 5λ + 1 !

Übung 9.23
• ◦ ◦ Man bestimme das Spektrum und den Spektralradius der folgenden Matrix
⎡ ⎤
2 0 0
⎢ ⎥
A = ⎣−2 1 −1⎦ .
1 3 −2

v Lösung
Das charakteristische Polynom von A ist
⎡ ⎤
2−λ 0 0
⎢ ⎥
pA (λ) = det(A − λE) = ⎣ −2 1 − λ −1 ⎦
1 3 −2 − λ
+ +
+1 − λ −1 +
+ +
= (2 − λ) + + = (2 − λ)(λ2 + λ + 1).
+ 3 −2 − λ+
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
525 9
. Abb. 9.4 Alle Eigenwerte der
Matrix A von Übung 9.23 in der
komplexen Ebene sind innerhalb
einer Kreisscheibe mit Radius
ρ(A) = 2 enthalten

Die Eigenwerte von A sind



2 ! −1 ± i 3
pA = (2 − λ)(λ + λ + 1) = 0 ⇒ λ1 = 2, λ2,3 = .
2

Das Spektrum von A ist die Menge aller Eigenwerte von A, d. h. (7 Abb. 9.4)
5 √ √ 6
−1 + i 3 −1 − i 3
σ (A) = 2, , .
2 2

Um den Spektralradius von A zu bestimmen, vergleichen wir die Beträge der verschie-
denen Eigenwerte:
A A
1 3 1 3
|λ1 | = 2, |λ2 | = + = 1, |λ3 | = + =1 ⇒ ρ(A) = max{2, 1, 1} = 2.
4 4 4 4
!

Übung 9.24
• ◦ ◦ Es sei A ∈ Cn×n . Die folgende Matrix
; <−1
R(s) = sE − A , s ∈ C

heißt Resolvente von A und spielt eine wichtige Rolle bei der Lösung von Differenzial-
gleichungen (z. B. mittels der Laplace-Transformation).
a) Für welche s ∈ C ist die Resolvente von A definiert?
= >
b) Man berechne die Resolvente von A = 10 12 .
526 Kapitel 9 • Eigenwerte und Eigenvektoren

v Lösung
a) Die Resolvente ist die Inverse der Matrix sE − A. Diese Matrix ist genau dann
invertierbar, wenn

det (sE − A) ̸= 0.

Diese Bedingung erinnert uns an das charakteristischen Polynom von A,


d. h. pA (s) = det (A − sE). Es folgt: sE − A ist genau dann invertierbar, wenn s keine
Nullstelle von pA (s) ist, d. h. s kein Eigenwert von A ist. Der Definitionsbereich von
; <−1
R(s) = sE − A enthält somit alle Zahlen s ∈ C, welche keine Eigenwerte von A
sind. Der Definitionsbereich von R(s) ist also C \ σ (A), wobei σ (A) das Spektrum
von A bezeichnet. ? @
= >
b) Es gilt A = 10 12 ⇒ sE − A = s−1 −1
0 s−2 . Somit:

1 2 1 2
1 1
; <−1 1 s−2 1
R(s) = sE − A = = s−1 (s−1)(s−2)
1
.
(s − 1)(s − 2) 0 s−1 0 s−2

Beachte: R(s) ist für alle s ∈ R \ {1, 2} definiert. λ1 = 1 und λ2 = 2 sind genau die
Eigenwerte von A. !

Übung 9.25
• ◦ ◦ Man bestimme die Eigenwerte einer oberen Dreiecksmatrix.

v Lösung
Für eine obere Dreiecksmatrix A gilt:
⎡ ⎤ + +
a11 a12 · · · a1n + a11 − λ a12 ··· a1n ++
+
⎢ 0 a ··· a2n ⎥ + 0 a22 − λ ··· a2n ++
⎢ 22 ⎥ +
A=⎢
⎢ .. .. . . .. ⎥
⎥ ⇒ det(A − λE) = ++ .. .. .. .. +
+
⎣ . . . . ⎦ + . . . . +
+ +
0 0 ··· ann + 0 0 · · · ann − λ +

= (a11 − λ)(a22 − λ) · · · (ann − λ).

Die Nullstellen des charakteristischen Polynoms sind:

λ1 = a11 , λ2 = a22 , · · · λn = ann .

Somit sind die Eigenwerte von A genau die Diagonaleinträge von A. Dies gilt auch für
untere Dreiecksmatrizen und Diagonalmatrizen (Trick # 9.4). !
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
527 9

Übung 9.26
• ◦ ◦ Es sei A ∈ Rn×n . Man zeige: Ist n ungerade, so hat A mindestens einen reellen
Eigenwert.

v Lösung
Das charakteristische Polynom von A ist ein reelles Polynom vom Grad n. Da jedes
reelle Polynom ungeraden Grades mindestens eine reelle Nullstelle hat (vgl. Anhang
C.3), hat A mindestens einen reellen Eigenwert. !

Übung 9.27
• • ◦ Es sei A ∈ Kn×n . Nehmen wir an, dass A die n Eigenwerte λ1 , · · · , λn besitzt. Man
zeige:
B
a) λ1 + · · · + λn = ni=1 λi = Spur(A)
Cn
b) λ1 · · · λn = i=1 λi = det(A)
Hinweis: Formeln von Vieta für das charakteristische Polynom.

v Lösung
Das charakteristische Polynom von A ist ein Polynom vom Grad n

pA (λ) = an λn + an−1 λn−1 + · · · + a0 . (9.23)

Für die Koeffizienten an , an−1 und a0 gelten die Formeln von Vieta (Trick # 9.1)

an = (−1)n , an−1 = (−1)n−1 Spur(A), a0 = det(A).

Da die n Eigenwerte λ1 , · · · , λn die Nullstellen des charakteristischen Polynoms sind,


zerfällt pA (λ) in Linearfaktoren

pA (λ) = an (λ − λ1 )(λ − λ2 ) · · · (λ − λn ). (9.24)

Es ergeben sich daraus zwei Darstellungen von pA (λ): Gl. (9.23) und Gl. (9.24). Resultat
(a) und (b) erhalten wir jeweils durch geschicktes Vergleichen von Gl. (9.23) und
Gl. (9.24).
a) Durch Ausmultiplizieren von (9.23) erhalten wir:

pA (λ = 0) = an (λ − λ1 )(λ − λ2 ) · · · (λ − λn ) = an λn − (λ1 + · · · + λn )λn−1 + · · ·

Vergleichen wir dies mit (9.24) so erhalten wir

an−1 Spur(A)
an−1 = −an (λ1 + · · · + λn ) ⇒ λ1 + · · · + λn = − = (−1)n
an (−1)n
= Spur(A).
528 Kapitel 9 • Eigenwerte und Eigenvektoren

b) Wir werten pA (λ) bei λ = 0 aus. So gewinnen wir aus Gl. (9.23) bzw. Gl. (9.24):

pA (λ = 0) = a0 = an (−λ1 )(−λ2 ) · · · (−λn ) = (−1)n an λ1 · · · λn


a0 det(A)
⇒ λ1 · · · λn = (−1)n = (−1)n = det(A).
an (−1)n !

Übung 9.28 ? @
− sin(ϕ)
• • ◦ Man betrachte die Rotationsmatrix A = cos(ϕ)
sin(ϕ) cos(ϕ) .
a) Für welche ϕ ∈ R hat A reelle Eigenwerte? Man interpretiere das Resultat
geometrisch.
b) Man bestimme die Eigenwerte und Eigenvektoren von A auf C.

v Lösung
a) Das charakteristische Polynom von A ist:
+ +
+cos(ϕ) − λ − sin(ϕ) +
+ +
pA (λ) = det(A − λE) = + +
+ sin(ϕ) cos(ϕ) − λ+

= λ2 − 2 cos(ϕ) λ + cos(ϕ)2 + sin(ϕ)2 = λ2 − 2 cos(ϕ) λ + 1.


' () *
=1

Die Eigenwerte von A sind somit


D
! 2 cos(ϕ) ± 4 cos(ϕ)2 − 4
pA (λ) = λ2 − 2 cos(ϕ) λ + 1 = 0 ⇒ λ1,2 =
2
D
= cos(ϕ) ± cos(ϕ)2 − 1.

Die Eigenwerte von A sind reell falls cos(ϕ)2 − 1 ≥ 0 ⇒ cos(ϕ)2 ≥ 1 ⇒ ϕ = 0, π .


Interpretation: Für ϕ = 0 ist A die Einheitsmatrix (⇒ Eigenwert 1). Für ϕ = π
ist A = −E, d. h., A ist die Spiegelung an dem Nullpunkt (⇒ Eigenwerte ±1).
Für ϕ ̸= 0, π beschreibt A eine Rotation um den Winkel ϕ. In diesem Fall gibt es
keinen Vektor, der bei der Anwendung von A in einen Vektor der gleicher Richtung
übertragen wird, d. h., A hat keine reelle Eigenwerte/Eigenvektoren.
b) Wegen sin(ϕ)2 + cos(ϕ)2 = 1 lauten die (komplexen) Eigenwerte von A
D
λ1,2 = cos(ϕ) ± cos(ϕ)2 − 1 = cos(ϕ) ± i sin(ϕ) = e±iϕ .

Für ϕ ̸= 0, π gilt:
5 Eigenraum zu λ1 = eiϕ = cos(ϕ) + i sin(ϕ): Wir lösen (A − eiϕ E)v = 0 mit dem
Gauß-Algorithmus (sin(ϕ) ̸= 0):
1 2 1 2
cos(ϕ) − cos(ϕ) − i sin(ϕ) − sin(ϕ) 0 −i sin(ϕ) − sin(ϕ) 0
=
sin(ϕ) cos(ϕ) − cos(ϕ) − i sin(ϕ) 0 sin(ϕ) −i sin(ϕ) 0
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
529 9
1 2 1 2
i(Z2 ) + (Z1 ) −i sin(ϕ) − sin(ϕ) 0 (Z1 )/ sin(ϕ) −i −1 0
% % = Z.
0 0 0 0 0 0

Die Lösung ist:


+1 2
5 1 2 6 31 24
+ v
+ 1 1 2 1
Eigeiϕ (A) = v ∈ C + =t ,t∈C = .
+ v2 −i −i

5 Eigenraum zu λ2 = e−iϕ = cos(ϕ) − i sin(ϕ): Wir lösen (A − e−iϕ E)v = 0 mit


dem Gauß-Algorithmus (sin(ϕ) ̸= 0):
1 2 1 2
cos(ϕ) − cos(ϕ) + i sin(ϕ) − sin(ϕ) 0 i sin(ϕ) − sin(ϕ) 0
=
sin(ϕ) cos(ϕ) − cos(ϕ) + i sin(ϕ) 0 sin(ϕ) i sin(ϕ) 0
1 2 1 2
i(Z2 ) − (Z1 ) i sin(ϕ) sin(ϕ) 0 (Z1 )/ sin(ϕ) i 1 0
% % = Z.
0 0 0 0 0 0

Die Lösung ist:


+1 2
5 1 2 6 31 24
+ v
+ 1 1 2 1
Eige−iϕ (A) = v ∈ C + =t ,t∈C = .
+ v2 i i
!

Übung 9.29
••◦ Man bestimme das Spektrum und den Spektralradius der folgenden (n×n)-Matrix:
⎡ ⎤
0 0 ··· 0 1
⎢ ⎥
⎢ .. ⎥
⎢1 0 . 0 0⎥
⎢ ⎥
⎢ .. .. .. ⎥
A = ⎢0 1 . . .⎥ .
⎢ ⎥
⎢. .. .. ⎥
⎢. ⎥
⎣. . . 0 0⎦
0 ··· 0 1 0

v Lösung
Das charakteristische Polynom von A ist
+ +
+−λ 0 ··· 0 1 ++
+
+ +
+ . +
+ 1 −λ . . 0 0 +
+ +
+ . .. .. +
pA (λ) = det (A − λE) = + 0 1 .. . . ++ .
+
+ . .. .. +
+ . +
+ . . . −λ 0 +
+ +
+ 0 ··· 0 1 −λ+
530 Kapitel 9 • Eigenwerte und Eigenvektoren

Wir entwicklen nach der ersten Zeile [−λ, 0, · · · , 0, 1] und erhalten:


+ + + +
+−λ 0 ··· 0+ +1 −λ · · · + 0
+ + + +
+ . +
.. + . + ..
+ 1 + +0 +
+ −λ . . .
+ + 1 .. + .
pA (λ) = (−λ) + . + +(−1)n+1 +. +
+ . .. .. + +. .. .. +
+ . . . 0 ++ +. . . −λ++
+ +
+ 0 · · · 1 −λ+ +0 ··· 0 1 +
' () * ' () *
=(−λ)n−1 (Dreiecksmatrix) =1 (Dreiecksmatrix)

n−1 n+1
= (−λ)(−λ) + (−1) = (−1) λ + (−1)(−1)n = (−1)n (λn − 1).
n n

Die Eigenwerte von A sind die Nullstellen von pA (λ), d. h. die n n-ten Wurzeln von 1
(vgl. Anhang C):

! 2πik
pA (λ) = (−1)n (λn − 1) = 0 ⇒ λn = 1 ⇒ λ=e n , k = 1, 2, · · · , n − 1.

Das Spektrum von A ist somit:


E 2πik + F
+
σ (A) = e n + k = 1, 2, · · · , n − 1 .

Alle Eigenwerte liegen auf dem Einheitskreis in der komplexen Ebene (. Abb. 9.5).
Der Radius dieses Kreises ist genau der Spektralradius von A. Alle Eigenwerte haben
Betrag 1, d. h., der Spektralradius von A ist ρ(A) = 1.
Elegante Alternative: Durch direkte Berechnung zeigt man, dass An = E. Der
einzige Eigenwert von E ist 1 ⇒ An hat nur den Eigenwert 1. Daher sind die Eigenwerte
2πik
von A die n-ten Wurzeln von 1, d. h. e n mit k = 0, · · · , n − 1 (Trick # 9.8). Auf die
Idee, An zu betrachten, kommt man, weil A eine Permutationsmatrix ist. A schickt die
erste Spalte von E ganz nach rechts; A2 schickt dann die zweite Spalte von E ganz nach
rechts, usw.
⎡ ⎤ ⎡ ⎤
0 0 ··· 01 0 0 ··· 10
⎢ ⎥ ⎢ ⎥
⎢ . ⎥ ⎢ . ⎥
⎢1 0 . . 0
0⎥ ⎢0 0 . . 0 1⎥
⎢ ⎥ ⎢ ⎥
⎢ .. ⎥
.. ⎢ .. .. ⎥
A = ⎢0 1 . . . .⎥
. , A2 = ⎢1 0 . . . . .⎥ usw.
⎢ ⎥ ⎢ ⎥
⎢. . . ⎥ ⎢. . . ⎥
⎢. .. .. ⎥ ⎢. .. .. ⎥
⎣. 0 0⎦ ⎣. 0 0⎦
0 ··· 0 1 0 0 ··· 0 0 0

Bei An erhält man genau E. !


9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
531 9
. Abb. 9.5 Die Eigenwerte der
Matrix A von Übung 9.29 liegen
auf dem Einheitskreis in der
komplexen Ebene (in diesem Fall
n = 6)

Übung 9.30
• • ◦ Man betrachte die folgende (n × n)-Matrix
⎡ ⎤
1 ··· 1
⎢. .. .. ⎥
A = αE + J, J=⎢
⎣ .. .

.⎦ .
1 ··· 1

a) Man zeige, dass α und α + n Eigenwerte von A sind.


b) Was ist die Dimension der zugehörigen Eigenräume?

v Lösung
a) λ ist ein Eigenwert von A genau dann, wenn det (A − λE) = 0. Für λ = α finden
wir:
+ +
+1 1 ··· 1++
+
+1 1 ··· 1++
+
det(A − αE) = det(J) = ++ . .. .. .. ++ = 0.
+ .. . . . ++
+
+1 1 · · · 1+

Somit ist α ein Eigenwert von A. Für λ = α + n finden wir (wir addieren alle Zeilen
(Z2 ), · · · , (Zn ) zur ersten Zeile (Z1 )):
532 Kapitel 9 • Eigenwerte und Eigenvektoren

+ +
+1 − n 1 · · · 1 +
+ +
+ +
; < + 1 1 − n · · · 1 + (Z1 ) + (Z2 ) + · · · + (Zn )
det A − (α + n)E = ++ . .. . . . ++ =
+ .. . . .. +
+ +
+ 1 1 · · · 1 − n+
+ +
+1 − n + (n − 1) 1 − n + (n − 1) · · · 1 − n + (n − 1)+
+ +
+ 1 1−n ··· 1 +
+ +
= ++ .. .. .. .. +
+
+ . . . . +
+ +
+ 1 1 ··· 1−n +
+ +
+0 0 · · · 0 +
+ +
+1 1 − n · · · 1 +
+ +
= ++ . . . . + = 0.
+ .. .. . . .. ++
+ +
+1 1 · · · 1 − n+

Dies zeigt, dass α + n ein Eigenwert von A ist.


b) Für A ∈ Kn×n ist die Dimension des Eigenraumes zum Eigenwert λ gleich
dim(Eigλ (A)) = n − Rang (A − λE). Für λ = α finden wir mit dem Gauß-
Algorithmus:

⎡ ⎤ (Z2 ) − (Z1 ) ⎡ ⎤
1 1 ··· 1 .
.
1 1 ··· 1
⎢1 1 ··· 1⎥
. ⎢0 0 ··· 0⎥
⎢ ⎥ (Zn ) − (Z1 ) ⎢ ⎥
A − αE = J = ⎢
⎢ .. .. .. .. ⎥
⎥ % ⎢.
⎢. .. .. .. ⎥
⎥.
⎣. . . .⎦ ⎣. . . .⎦
1 1 ··· 1 0 0 ··· 0

Somit hat A − αE Rang 1. Daraus folgt

dim(Eigα (A)) = n − Rang (A − αE) = n − 1.

Um die Dimension des Eigenraumes zum Eigenwert α+n zu bestimmen, müssen wir
gar keine Arbeit leisten. Für jeden Eigenwert ist dim(Eigλ (A)) mindestens 1. Außer-
dem ist die Summe der Dimensionen aller Eigenräumen nie größer als n (Dimension
des ganzes Raumes). Wegen dim(Eigα (A)) = n − 1, muss dim(Eigα+n (A)) = 1
sein. !
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
533 9

Übung 9.31
• • ◦ Alle Zeilen der Matrix A ∈ Rn×n seien identisch, d. h.
⎡ ⎤
⎢ a1 a2 · · · an ⎥
⎢ ⎥
⎢ ⎥
⎢ ⎥
⎢ ⎥
⎢ a1 a2 · · · an ⎥
⎢ ⎥
A=⎢

⎥,

⎢ .. ⎥
⎢ ⎥
⎢ . ⎥
⎢ ⎥
⎢ ⎥
⎣ a1 a2 · · · an ⎦

und es gilt die Spur(A) ̸= 0.


a) Man zeige, dass 0 und Spur(A) Eigenwerte von A sind.
b) Man bestimme die zugehörigen Eigenräume.

v Lösung
a) Da alle Zeilen von A identisch sind, gilt für λ = 0:
+ +
+a1 a2 ··· an ++
+
+a a2 ··· an ++
+ 1
det(A − λE) = det(A) = ++ . .. .. .. ++ = 0.
+ .. . . . ++
+
+a a2 · · · an +
1

Somit ist 0 ein Eigenwert von A. Für λ = Spur(A) = a1 + · · · + an müssen wir etwas
mehr herumprobieren (wir addieren alle Spalten (S2 ), · · · , (Sn ) zur ersten Spalte
(S1 )):
+ +
+a1 − Spur(A) a2 ··· an +
+ +
+ a1 a2 − Spur(A) · · · an +
+ +
det(A − λE) = det(A − Spur(A)) = ++ .. .. .. . +
+
+ . . . .
. +
+ +
+ a1 a2 · · · an − Spur(A)+
+ +
+a1 + a2 + · · · + an − Spur(A) a2 ··· an +
+ +
+a + a + · · · + a − Spur(A) a − Spur(A) · · · an +
(S1 ) + (S2 ) + · · · + (Sn ) + 1 2 n 2 +
= + . . . +
+ . . .. . +
+ . . . . +
+ +
+a + a + · · · + a − Spur(A) a2 · · · an − Spur(A)+
1 2 n
+ +
+0 a2 ··· an +
+ +
+0 a − Spur(A) · · · an +
+ 2 +
= ++ . . .. . + = 0.
+
+. . .
. . .
. +
+ +
+0 a2 · · · an − Spur(A)+
534 Kapitel 9 • Eigenwerte und Eigenvektoren

Dies zeigt, dass λ = Spur(A) ein Eigenwert von A ist.


b) Um den Eigenraum zum Eigenwert λ = 0 zu bestimmen, lösen wir wie gewohnt das
LGS (A − 0E)v = 0 mit dem Gauß-Algorithmus:

⎡ ⎤ (Z2 ) − (Z1 ) ⎡ ⎤
a1 a2 ··· an 0 .
.
a1 a2 ··· an 0
⎢a a2 ··· an 0⎥
. ⎢ 0 0 ··· 0 0⎥
⎢ 1 ⎥ (Zn ) − (Z1 ) ⎢ ⎥
⎢ . .. ⎥ % ⎢ . .. ⎥
⎢ . .. .. .. ⎥ ⎢ . .. .. .. ⎥ = Z.
⎣ . . . . .⎦ ⎣ . . . . .⎦
a1 a2 · · · an 0 0 0 ··· 0 0

Nun nehmen wir ohne Beschränkung der Allgemeinheit an, dass an ̸= 0 ist (auf
diese Weise dürfen wir die erste Gleichung nach xn auflösen). Wäre an = 0, so löst
man einfach nach einem anderen xi mit ai ̸= 0 auf. Somit sind n − 1 Variablen frei
wählbar und wir setzen x1 = t1 ∈ R, x2 = t2 ∈ R, · · · , xn−1 = tn−1 ∈ R. Aus der
ersten Gleichung erhalten wir xn = −(a1 /an )t1 − (a2 /an )t2 − · · · − (an−1 /an )tn−1 .
Die Lösung ist bestimmt durch

⎤ ⎡ ⎤ ⎡ ⎤
1 0 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
3⎢ 0 ⎥ ⎢ 1 ⎥ ⎢ 0 ⎥4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ . ⎥ ⎢ . ⎥ ⎢ .. ⎥
Eig0 (A) = ⎢ .. ⎥ , ⎢ .. ⎥ , · · · ,⎢ . ⎥ .
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 ⎦ ⎣ 0 ⎦ ⎣ 1 ⎦
an−1
− aa1n − aa2n − an

Der Eigenraum zum Eigenwert λ = 0 hat die Dimension n − 1. Da die Summe der
Dimensionen aller Eigenräumen nie größer als n (Dimension des ganzes Raumes)
sein kann, muss der Eigenraum zum Eigenwert λ = Spur(A) die Dimension 1
haben. !

Übung 9.32
• • ◦ Man betrachte die folgende (n × n)-Matrix
⎡ ⎤
0 0 ··· 0 a0
⎢ ⎥
⎢ . ⎥
⎢1 0 . . 0 a1 ⎥
⎢ ⎥
⎢ .. .. ⎥
A = ⎢0 1 . . . . . ⎥ .
⎢ ⎥
⎢. . . ⎥
⎢. .. .. ⎥
⎣. 0 an−2 ⎦
0 ··· 0 1 an−1

Man zeige: Das charakteristische Polynom von A ist


G H
pA (λ) = (−1)n λn − an−1 λn−1 − an−1 λn−2 · · · − a1 λ − a0 .
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
535 9
v Lösung
Das charakteristische Polynom von A ist
+ +
+−λ 0 ··· 0 a0 +
+ +
+ +
+ . +
+ 1 −λ . . 0 a1 +
+ +
+ . .. .. +
pA (λ) = det (A − λE) = + 0 1 .. . . +.
+ +
+ . .. .. +
+ . +
+ . . . −λ an−2 +
+ +
+ 0 ··· 0 1 an−1 − λ+

Um diese Determinante zu bestimmen, führen wir einige Zeilenoperationen durch.


Zunächst addieren wir das λ-fache der zweiten Zeile zur ersten Zeile
+ + + +
+−λ 0 · · · 0 a0 ++ +0 −λ2 · · · 0 a + a λ+
+ + 0 1 +
+ + + +
+ . + + . +
+ 1 −λ . . 0 a1 + +1 −λ . . 0 a1 +
+ + (Z ) + λ(Z ) + +
+ . .. + 1 + . .. +
+ 0 1 . . . .. . + = 2 +0 1 . . . .. . +.
+ + + +
+ . . . + +. . . +
+ . .. .. + +. .. .. +
+ . −λ an−2 + +. −λ an−2 +
+ + + +
+ 0 · · · 0 1 an−1 − λ+ +0 · · · 0 1 an−1 − λ+

Dann addieren wir das λ2 -fache der dritten Zeile zur ersten Zeile
+ + + +
+0 −λ2 0 · · · 0 a + a λ+ +0 0 −λ3 · · · 0 a + a λ + a λ2 +
+ 0 1 + + 0 1 2 +
+ + + +
+ . + + .. +
+1 −λ 0 . . 0 a1 + +1 −λ 0 . 0 a1 +
+ + (Z ) + λ2 (Z ) + +
+ + 1 3 + . . +
+0 1 −λ . . . 0 a 2
+ = +0 1 −λ
.. .
. . .. +.
+ + + +
+. . + + +
+ . . . . . . . . . .. .. + + .. . . . . . . . . . +
+. . . + +. −λ an−2 +
+ + + +
+0 · · · · · · 0 1 an−1 − λ+ +0 · · · · · · 0 1 an−1 − λ +

Wir gehen auf dieser Art und Weise weiter, indem wir jeweils das λi−1 -fache der i-ten
Zeile zur ersten Zeile addieren. Am Ende bekommen wir
+ +
+0 0 · · · 0 P(λ) ++
+
+ +
+ . +
+1 −λ . . 0 a1 +
+ +
+ . .. +
pA (λ) = +0 1 . . . .. . +,
+ +
+. . . +
+. .. .. +
+. −λ an−2 +
+ +
+0 · · · 0 1 an−1 − λ+

wobei

P(λ) = a0 + a1 λ + a2 λ2 + · · · + an−2 λn−2 + (an−1 − λ)λn−1 .

Um diese Determinante zu bestimmen, entwicklen wir nach der ersten Zeile (da diese
meisten aus Nullen besteht) und erhalten
536 Kapitel 9 • Eigenwerte und Eigenvektoren

+ +
+1 −λ · · · +0
+ +
+ . +..
+0 +
n+1 + 1 .. + .
pA (λ) = (−1) P(λ) + + = (−1)n+1 P(λ)
+ .. .. .. +
+. . . −λ++
+
+0 ··· 0 1 +
' () *
=1 (Dreiecksmatrix)
G H
= (−1)n+1 a0 + a1 λ + a2 λ2 + · · · + an−2 λn−2 + (an−1 − λ)λn−1
G H
= (−1)n λn − an−1 λn−1 − an−1 λn−2 · · · − a1 λ − a0 . !

Übung 9.33
• • ◦ Man zeige: Für A ∈ Kn×n ist pA (λ) ein Polynom vom Grad n, d. h.

pA (λ) = an λn + an−1 λn−1 + · · · + a0 .

Für die Koeffizienten von pA (λ) gilt:

an = (−1)n , an−1 = (−1)n−1 Spur(A), a0 = det(A).

v Lösung
Aus der Definition pA (λ) = det(A − λE) folgt mit der Entwicklung nach der ersten
Spalte:
+ +
+a11 − λ a12 · · · a1n + + +
+ + +a − λ · · · a +
+ a + + 22 2n +
+ 21 a22 − λ · · · a2n + + . .. .. ++
pA (λ) = ++ . .. .. .. ++ = (a11 − λ) ++ .. . . +
+ . . . . . ++ + +
+ + an2 · · · ann − λ+
+ a an2 · · · ann − λ +
n1
+ + + +
+a · · · a + + a +
+ 12 1n + + 12 · · · a1n +
+ . . . + n−1
+ . .. . +
−a21 ++ .. . . .. ++ + · · · + (−1) an1 ++ .. . .. +
+
+ + + +
+an2 · · · ann − λ+ +an−1,2 · · · an−1n +
' () *
=q(λ)= Polynom vom Grad ≤n−2

..
.
= (a11 − λ)(a22 − λ)(ann − λ) + q(λ).

Somit ist pA (λ) ein Polynom vom Grad n. Ausmultiplizieren im ersten Term ergibt:

pA (λ) = (a11 − λ)(a22 − λ) · · · (ann − λ) + q(λ)

= (−1)n λn + (−1)n−1 (a11 + a22 + · · · + ann )λn−1 + q(λ).


9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
537 9
Somit ist

an = (−1)n , an−1 = (−1)n−1 Spur(A).

Die Formel a0 = det(A) erhalten wir, indem wir pA (λ) bei λ = 0 auswerten; denn es
gilt:

pA (λ = 0) = an 0n + an−1 0n−1 + · · · + a0 = a0 .

Aus pA (λ) = det(A − λE) folgt somit a0 = pA (λ = 0) = det(A − 0 E) = det(A). !

Übung 9.34
• • • Es sei K = Z2 .
a) Man bestimme alle Matrizen in (Z2 )2×2 .
b) Wie lauten die möglichen charakteristischen Polynome der Matrizen in (Z2 )2×2 ?
c) Welche Matrizen in (Z2 )2×2 haben Eigenwerte in Z2 ?

v Lösung
a) Da Z2 = {0, 1}, ist jede Komponente einer Matrix in (Z2 )2×2 entweder 0 order 1.
Es gibt somit 24 = 16 Matrizen in (Z2 )2×2 . Diese sind:
1 2 1 2 1 2 1 2 1 2 1 2 1 2 1 2
00 10 01 00 00 11 10 10
, , , , , , , ,
00 00 00 10 01 00 10 01
1 2 1 2 1 2 1 2 1 2 1 2 1 2 1 2
01 01 00 11 11 10 01 11
, , , , , , , .
10 01 11 10 01 11 11 11

b) Es sei A ∈ (Z2 )2×2 . Das charakteristische Polynom von A ist ein Polynom zweiten
Grades mit Koeffizienten aus Z2 :

pA (λ) = a0 + a1 λ + a2 λ2 , a0 , a1 , a2 ∈ Z2 .

Für die Koeffizienten von pA (λ) gelten:

a0 = det(A), a1 = Spur(A), a2 = 1.

Es gibt somit genau 4 Möglichkeiten für das charakteristische Polynom von A:

Charakteristisches Polynom Spur(A) det(A) Nullstellen

λ2 0 0 (0,0)

λ2 + λ = λ(λ + 1) 1 0 (0,1)

λ2 + 1 = (λ + 1)2 0 1 (1,1)

λ2 + λ + 1 1 1 Keine Nullstellen in Z2
538 Kapitel 9 • Eigenwerte und Eigenvektoren

c) Aus dem Resultat und der Tabelle aus (b) erhalten wir folgende komplette Über-
sicht:

Matrix Spur(A) det(A) pA (λ) Eigenwerte


=0 0>
00 0 0 λ2 (0,0)
=1 0>
00 1 0 λ2 +λ (0,1)
=0 1>
00 0 0 λ2 (0,0)
=0 0>
10 0 0 λ2 (0,0)
=0 0>
01 1 0 λ2 + λ (0,1)
=1 1>
00 1 0 λ2 + λ (0,1)
=1 0>
10 1 0 λ2 + λ (0,1)
=1 0>
01 2=0 1 λ2 + 1 (1,1)
=0 1>
10 0 −1 = 1 λ2 +1 (1,1)
=0 1>
01 1 0 λ2 + λ (0,1)
=0 0>
11 1 0 λ2 + λ (0,1)
=1 1>
10 1 −1 = 1 λ2 + λ + 1 keine Eigenwerte in Z2
=1 1>
01 2=0 1 λ2 + 1 (1,1)
=1 0>
11 2=0 1 λ2 + 1 (1,1)
=0 1>
11 1 −1 = 1 λ2 + λ + 1 keine Eigenwerte in Z2
=1 1>
11 2=0 0 λ2 (0,0)
!

Übung 9.35
• • ◦ Es sei A ∈ Cn×n . Man zeige:
a) A und AT haben dieselben Eigenwerte.
b) Ist λ ein Eigenwert von A, so ist λ ein Eigenwert von A∗ .

v Lösung
a) Die Eigenwerte von A sind genau die Nullstellen ihres charakteristischen Polynoms
pA (λ) = det(A − λE). Wie lautet das charakteristische Polynom von AT ? Es gilt:
G H G H G H
pAT (λ) = det AT − λE = det AT − λE T = det (A − λE)T

= det(A − λE) = pA (λ),


; <
wobei wir im letzten Schritt det X T = det(X) benutzt haben. Somit haben A und
T
A dasselbe charakteristische Polynom, also auch dieselben Eigenwerte.
9.2 • Bestimmung von Eigenwerten, deren Eigenvektoren und Eigenräumen
539 9
b) Wir überlegen analog wie bei Teilaufgabe (a):
; < ; < ; ; <∗ <
pA∗ (λ) = det A∗ − λE = det A∗ − λE ∗ = det A∗ − λE
; <∗ ; <
= det A − λE = det A − λE = pA (λ).
; < ; <
Aus det A∗ − λE = 0 folgt somit det A − λE = 0. Somit ist λ genau dann ein
Eigenwert von A∗ , wenn λ ein Eigenwert von A ist. !

Übung 9.36
• • ◦ A ∈ Rn×n heißt orthogonal, wenn AT A = E gilt. Wie lauten die möglichen Eigen-
werte einer reellen orthogonalen Matrix? Man interpretiere das Resultat geometrisch.

v Lösung
Es sei A ∈ Rn×n orthogonal, d. h. AT A = E. Weil A und AT dieselben Eigenwerte haben
(vgl. Übung 9.35), müssen die Eigenwerte einer orthogonalen Matrix die folgende
Gleichung erfüllen:

λ2 = 1 ⇒ λ2 − 1 = (λ + 1)(λ − 1) = 0 ⇒ λ = ±1.

Orthogonale Matrizen in Rn×n haben somit nur die Eigenwerte ±1.


Geometrische Interpretation: Orthogonale Matrizen in Rn×n beschreiben entweder
Rotationen (wenn det(A) = 1) oder Spiegelungen (wenn det(A) = −1), 7 vgl. Ab-
schn. 7.3.3. Vektoren entlang der Rotationsachse werden von der Rotation nicht
geändert (⇒ Eigenwert 1). Beachte: Wir haben gezeigt, dass wenn A Eigenwerte hat,
diese gleich ±1 sind. Dies bedeutet aber nicht, dass A immer Eigenwerte haben muss
(vgl. Übung 9.28). !

Übung 9.37
• • ◦ A ∈ Cn×n heißt unitär, wenn A∗ A = E gilt. Wie lauten die möglichen Eigenwerte
einer unitären Matrix?

v Lösung
Wegen A∗ A = E, müssen die Eigenwerte von A die folgende Gleichung erfüllen
(vgl. Übung 9.35):

λλ = 1 ⇒ |λ|2 = 1 ⇒ |λ| = 1.

Die Eigenwerte einer unitären Matrix sind somit alle komplexe Zahlen λ ∈ C mit Betrag
|λ| = 1. Es sind somit alle Zahlen λ = eiϕ mit ϕ ∈ R (die Eigenwerte liegen auf dem
Einheitskreis in der komplexen Ebene, vgl. Übung 9.29). !
540 Kapitel 9 • Eigenwerte und Eigenvektoren

Übung 9.38
• • ◦ Sei A eine invertierbare (n × n)-Matrix mit charakteristischem Polynom pA (λ).
Man finde eine Formel für das charakteristische Polynom von A−1 .

v Lösung G H
Das charakteristische Polynom von A−1 ist pA−1 (λ) = det A−1 − λE . Mit E =
; <
A−1 A, det X −1 = 1/ det(X) und det(αX) = α n det(X) finden wir:
G H G G HH G G HH
pA−1 (λ) = det A−1 − λE = det E A−1 − λE = det A−1 A A−1 − λE
G G HH G H
= det A−1 AA−1 − λAE = det A−1 (E − λA)
G G HH
G H det(E − λA) det −λ A − λ1 E
= det A−1 det (E − λA) = =
det(A) det(A)
G H
(−λ)n det A − λ1 E (−1)n λn G H
= = pA λ−1 .
det(A) det(A) !

i Merkregel
Aus Übung 9.38 folgt, dass A−1 die Eigenwerte λ−1 −1
1 , · · · , λk hat, wenn λ1 , · · · , λk ̸= 0
die Eigenwerte von A sind.

Übung 9.39
• • ◦ Man zeige, dass ähnliche Matrizen das gleiche charakteristische Polynom haben.

v Lösung
A und B sind ähnlich, wenn es eine invertierbare Transformationsmatrix P gibt, sodass
; <
B = PAP−1 gilt (7 vgl. Kap. 8). Mit der Formel det X −1 = 1/ det(X) und det (XY) =
det(X) det(Y) finden wir für das charakteristische Polynom von B:
G H G H
pB (λ) = det (B − λE) = det PAP−1 − λE = det PAP−1 − λPEP−1
G H G H
= det P(A − λE)P−1 = det(P) det(A − λE) det P−1

det(P)
= det(A − λE) = det(A − λE) = pA (λ).
det(P)

A und B haben somit das gleiche charakteristische Polynom. !

Übung 9.40
• • ◦ Man beweise Satz 9.5: geometrische Vielfachheit ≤ algebraische Vielfachheit.
9.3 • Eigenwerte und Eigenvektoren von Endomorphismen
541 9
v Lösung
Es sei λ ∈ K ein Eigenwert von A ∈ Kn×n und es bezeichne Eigλ (A) den zugehörigen
Eigenraum. Es sei dim(Eigλ (A)) = k. Dann gibt es k linear unabhängige Eigenvektoren
von A zum Eigenwert λ (vgl. Übung 9.14). Wählt man diese Vektoren als den ersten Teil
einer Basis von Kn , so hat A bezüglich dieser neuen Basis die folgende Form:
⎡ ⎤
λ ··· 0 ⋆ ··· ⋆
⎢. .. .. .. .. .. ⎥
⎢. . . ⎥
⎢. . . .⎥
⎢ ⎥
⎢0 ··· λ ⋆ ··· ⋆⎥
⎢ ⎥.
⎢0 ··· 0 ⋆ ··· ⋆⎥
⎢ ⎥
⎢. .. .. .. ⎥
⎢. .. .. ⎥
⎣. . . . . .⎦
0 ··· 0 ⋆ ··· ⋆

Das charakteristische Polynom dieser Matrix ist dann

pA (x) = (λ − x)k · (Polynom vom Grad n − k).

Die algebraische Vielfachheit von λ ist somit mindestens k, d. h. geometrische Vielfach-


heit ≤ algebraische Vielfachheit. !

9.3 Eigenwerte und Eigenvektoren von Endomorphismen

9.3.1 Definition

Es sei V ein Vektorraum über K. Eigenwerte und Eigenvektoren einer linearen


Abbildung (Endomorphismus) F : V → V sind ganz analog zu denjenigen von
Matrizen definiert:

# Definition 9.6 (Eigenwerte und Eigenvektoren von Endomorphismen)

5 λ ∈ K heißt Eigenwert von F, wenn es ein v ∈ V mit v ̸= 0 gibt, sodass

F(v) = λ v (9.25)

gilt. v ∈ V heißt Eigenvektor.


5 Der Eigenraum von F zum Eigenwert λ ist:

Eigλ (F) = {v ∈ V | F(v) = λ v} = Ker(F − λ id) (9.26)

$
542 Kapitel 9 • Eigenwerte und Eigenvektoren

9.3.2 Zusammenhang mit Matrizen

Die Bestimmung der Eigenwerte und Eigenvektoren eines Endomorphismus F :


V → V erfolgt über die Darstellungsmatrix.

> Bemerkung
Da die Darstellungsmatrix M B
B (F) von F von der Wahl der Basis B abhängig ist, könnte
man sich Folgendes fragen: Sind Eigenwerte von M B B (F) abhängig von der Wahl der
Basis? Die Antwort auf diese Frage ist nein! Ähnliche Matrizen besitzen dieselben
Eigenwerte (vgl. Übung 9.39). Weil ähnliche Matrizen denselben Endomorphismus
bezüglich unterschiedlichen Basen darstellen, bedeutet dies, dass die Eigenwerte von
MBB (F) unabhängig von der Wahl der Basis existieren.

Übung 9.41
• • ◦ Es seien P2 (R) der Vektorraum der reellen Polynomen vom Grad ≤ 2 und F :
P2 (R) → P2 (R), p(x) → F(p(x)) = p′ (x) − p(x). Man bestimme alle Eigenwerte und
Eigenvektoren von F.

v Lösung
Um die Eigenwerte von F berechnen zu können, müssen wir zuerst die Darstellungs-
matrix von F bezüglich einer Basis von P2 (R) bestimmen. Da die Eigenwerte von F
von der Wahl der Basis unabhängig sind, wählen wir hier die Standardbasis von P2 (R),
d. h. E = {1, x, x2 }. Wir bestimmen die Bilder der Basiselemente:
⎤ ⎡ ⎡ ⎤
−1 1
⎢ ⎥ ⎢ ⎥
F(1) = −1 ⇒ [F(1)]E = ⎣ 0 ⎦ , F(x) = 1 − x ⇒ [F(x)]E = ⎣−1⎦ ,
0 0
⎡ ⎤
0
⎢ ⎥
F(x2 ) = 2x − x2 ⇒ [F(x2 )]E = ⎣ 2 ⎦ .
−1

Die Darstellungsmatrix von F in der Standardbasis lautet somit:


⎡ ⎤
−1 1 0
⎢ ⎥
M EE (F) = ⎣ 0 −1 2 ⎦ .
0 0 −1

Weil M EE (F) eine obere Dreiecksmatrix ist hat F den Eigenwert −1 mit algebraischer
Vielfachheit 3. Um den zugehörigen Eigenraum zu bestimmen, lösen wir das LGS:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−1 + 1 1 0 0 0 1 0 0 3 1 4
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 −1 + 1 2 0 ⎦ = ⎣ 0 0 2 0 ⎦ ⇒ Eig−1 (F) = ⎣0⎦ = ⟨1⟩.
0 0 −1 + 1 0 0 0 0 0 0
9.3 • Eigenwerte und Eigenvektoren von Endomorphismen
543 9
Der Eigenraum zum Eigenwert −1 ist

Eig−1 (F) = {p(x) ∈ P2 (R) | p(x) = a0 , a0 ∈ R } = konstante Polynome.

Es gilt dim(Eig−1 (F)) = 1, d. h. der Eigenwert −1 hat geometrische Vielfachheit 1. !

Übung 9.42
• • ◦ Es sei V der Vektorraum mit Basis B = {ex , e−x , e2x , e−2x }.
d2 d
a) Man bestimme alle Eigenwerte des Differenzialoperators L = dx2
+ 3 dx + 2.
d2y dy
b) Man finde die allgemeine Lösung der Differenzialgleichung dx2
+ 3 dx + 2y = 0.

v Lösung
Wir berechnen die Darstellungsmatrix von L bezüglich der Basis B. Dazu bestimmen
wir die Bilder der Basiselementen:
⎡ ⎤
I J 6
; < d2 d = ; x <> ⎢0⎥
⎢ ⎥
L ex = +3 + 2 ex = ex + 3ex + 2ex = 6ex ⇒ L e B = ⎢ ⎥,
dx2 dx ⎣0⎦
0
⎡ ⎤
I J 0
; < d2 d = ; −x <> ⎢0⎥
⎢ ⎥
L e−x = +3 + 2 e−x = e−x − 3e−x + 2e−x =0 ⇒ L e = ⎢ ⎥,
dx2 dx B ⎣0⎦
0
I J
G H d2 d
L e2x = +3 + 2 e2x
dx2 dx
⎤ ⎡
0
? G H@ ⎢0⎥
⎢ ⎥
= 4e2x + 6e2x + 2e2x = 12e2x ⇒ L e2x = ⎢ ⎥,
B ⎣12⎦
0
I J
G H d2 d
L e−2x = 2
+3 + 2 e−2x
dx dx
⎡ ⎤
0
? G H@ ⎢0⎥
⎢ ⎥
= 4e−2x − 6e−2x + 2e−2x = 0 ⇒ L e−2x = ⎢ ⎥.
B ⎣0⎦
0

Die Darstellungsmatrix von L in der Basis B lautet somit:


544 Kapitel 9 • Eigenwerte und Eigenvektoren

⎡ ⎤
6 0 0 0
⎢0
⎢ 0 0 0⎥⎥
MB
B (L) = ⎢ ⎥.
⎣0 0 12 0⎦
0 0 0 0

Weil M BB (L) eine Diagonalmatrix ist, sind die Eigenwerte genau die Diagonaleinträge.
L hat somit die folgenden Eigenwerte: 0 (mit algebraischer Vielfachheit 2), 6 und 12.
2
b) Die Differenzialgleichung ddxy2 + 3 dxdy
+ 2y = 0 ist äquivalent zu L(y) = 0,
d. h., wir suchen die Eigenvektoren von L zum Eigenwert 0. Um den Eigenraum zu
0 zu bestimmen, lösen wir das LGS:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
6 0 0 0 0 3 0 0 4
⎢0 0⎥ ⎢1⎥ ⎢0⎥
⎢ 0 0 0 ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ ⇒ Eig0 (L) = ⎢ ⎥ , ⎢ ⎥ = ⟨e−x , e−2x ⟩.
⎣0 0 12 0 0⎦ ⎣0⎦ ⎣0⎦
0 0 0 0 0 0 1

Die Lösung
G 2 der Differenzialgleichung
H ist somit y = ⟨e−x , e−2x ⟩ = A e−x + B e−2x .
d d −x −2x
Probe: dx2 + 3 dx + 2 (A e + B e ) = 0 " !

Übung 9.43
=2 1> =0 0>
• • ◦ Es seien die folgenden Matrizen A = 12 ,B = 01 gegeben. Man betrachte die
folgende lineare Abbildung

T : R2×2 → R2×2 , X → T(X) = XA − BX.

a) Man bestimme die Darstellungsmatrix von T in der Standardbasis von R2×2 .


b) Man bestimme alle Eigenwerte und Eigenvektoren von T.

v Lösung
a) Die Standardbasis von R2×2 ist
5 1
2 1 2 1 2 1 26
10 01 00 00
E = E11 = , E12 = , E21 = , E22 = .
00 00 10 01

Um die Darstellungsmatrix von T in dieser Basis zu bestimmen, müssen wir einfach


T auf die verschiedenen Basiselemente anwenden
⎡ ⎤
1
21 2 1 21 2 1 2 2
⎢1⎥
10 21 00 10 21 ⎢ ⎥
T(E11 ) = − = ⇒ [T(E11 )]E = ⎢ ⎥
00 12 01 00 00 ⎣0⎦
0
9.3 • Eigenwerte und Eigenvektoren von Endomorphismen
545 9
⎡ ⎤
1 21 2 1 21 2 1 2 1
⎢2⎥
01 21 00 01 12 ⎢ ⎥
T(E12 ) = − = ⇒ [T(E12 )]E = ⎢ ⎥
00 12 01 00 00 ⎣0⎦
0
⎡ ⎤
1 21 2 1 21 2 1 2 0
⎢0⎥
00 21 00 00 00 ⎢ ⎥
T(E21 ) = − = ⇒ [T(E21 )]E = ⎢ ⎥
10 12 01 10 11 ⎣1⎦
1
⎡ ⎤
1 21 2 1 21 2 1 2 0
⎢0⎥
00 21 00 00 00 ⎢ ⎥
T(E22 ) = − = ⇒ [T(E22 )]E = ⎢ ⎥ .
01 12 01 01 11 ⎣1⎦
1

Die gesuchte Darstellungsmatrix von T lautet somit


⎡ ⎤
2 1 0 0
⎢1
⎢ 2 0 0⎥⎥
M EE (T) = ⎢ ⎥.
⎣0 0 1 1⎦
0 0 1 1

b) Weil M EE (T) eine Blockdiagonalmatrix ist, lautet das charakteristische Polynom von
M EE (T)
+ +
+2−λ 1 0 0 ++ +
+ + + +
+ 1 2−λ 0 0 ++ ++2 − λ 1 ++ ++1 − λ 1 ++
+
pT (λ) = + +=+ +·+ +
+ 0
+ 0 1 − λ 1 ++ + 1 2 − λ+ + 1 1 − λ+
+ 0 0 1 1−λ+

= (λ2 − 4λ + 3)(λ2 − 2λ) = λ(λ − 1)(λ − 2)(λ − 3).

Die Eigenwerte sind somit 0, 1, 2 und 3. Die zugehörigen Eigenräume lauten:


⎤ ⎡
0 4 3
⎢0⎥
⎢ ⎥
Eig0 (T) = Ker(T) = ⎢ ⎥ ,
⎣1⎦
−1
⎤ ⎡
1 43
⎢−1⎥
⎢ ⎥
Eig1 (T) = Ker(T − 1id) = Span ⎢ ⎥
⎣0⎦
0
546 Kapitel 9 • Eigenwerte und Eigenvektoren

⎡ ⎤
3 0 4
⎢0⎥
⎢ ⎥
Eig2 (T) = Ker(T − 2id) = Span ⎢ ⎥ ,
⎣1⎦
1
⎡ ⎤
3 1 4
⎢1⎥
⎢ ⎥
Eig3 (T) = Ker(T − 3id) = Span ⎢ ⎥
⎣0⎦
0 !

Übung 9.44
• • ◦ Es sei F : V → V linear. Man zeige:

F ist ein Isomorphismus ⇔ 0 ist kein Eigenwert von F.

v Lösung
Es gilt

Eig0 (F) = {v ∈ V | F(v) = 0 v = 0} = Ker(F).

F ist ein Isomorphismus genau dann, wenn Ker(F) = {0}. Wegen Eig0 (F) = Ker(F)
ist F genau dann ein Isomorphismus, wenn Eig0 (F) = {0}. Der Nullvektor ist jedoch
nach Definition nie ein Eigenvektor. Somit ist 0 kein Eigenwert von F. !

Übung 9.45
• • ◦ Es sei V ein Vektorraum der Dimension n und A die Darstellungsmatrix eines
Endomorphismus F : V → V . Man zeige, dass die folgenden Aussagen äquivalent
sind:
a) v ̸= 0 ist ein Eigenvektor von A zum Eigenwert λ.
b) (A − λE)v = 0 hat eine nichttriviale Lösung v ̸= 0.
c) det(A − λE) = 0.
d) Rang(A − λE) < n.
e) dim(Ker(A − λE)) ≥ 1.
f) dim(Eigλ (A)) ≥ 1.

v Lösung
a) ⇔ b) Es sei λ ein Eigenwert von A mit Eigenvektor v ̸= 0, d. h. Av = λv. Die
folgende Äquivalenz-Umformung liefert die Behauptung:

Av = λv ⇔ Av − λv = 0 ⇔ (A − λE)v = 0.
9.3 • Eigenwerte und Eigenvektoren von Endomorphismen
547 9
Dies ist ein homogenes LGS. Wegen v ̸= 0, sind die Eigenvektoren von A zum
Eigenwert λ genau die nichttrivialen Lösungen des LGS (A − λE)v = 0.
b) ⇔ c) Ein homogenes LGS Bx = 0 hat genau dann eine nichttriviale Lösung, wenn
det B = 0. In unserem Fall heißt dies: die Eigenvektoren von A zum Eigenwert
λ sind genau die nichttrivialen Lösungen des LGS (A − λE)v = 0. Diese
Lösungen gibt es nur dann, wenn det(A − λE) = 0.
c) ⇔ d) Wegen det(A − λE) = 0 ist die Matrix A − λE singulär. Insbesondere hat
A − λE nicht vollen Rang, d. h. Rang(A − λE) < n.
d) ⇔ e) Wegen Rang(A − λE) = dim(Im(A − λE)) folgt aus der Dimensionsformel:

dim(V ) = dim(Ker(A − λE)) + dim(Im(A − λE)) = dim(Ker(A − λE)) + Rang(A − λE).

Wegen Rang(A − λE) < n gilt:

dim(Ker(A − λE)) = dim(V ) − Rang(A − λE) = n − Rang(A − λE) ≥ 1.


' () *
≤n−1

a) ⇔ e) λ ist ein Eigenwert von A genau dann, wenn (A − λE)v = 0 eine nichttriviale
Lösung v ̸= 0 hat. Insbesondere ist v ̸= 0 ein Element des Kernes von A − λE.
Somit ist Ker(A − λE) ̸= {0}, d. h.

dim(Ker(A − λE)) ≥ 1.

f) Diese Aussage ist äquivalent zu (e), weil dim(Eigλ (A)) = dim(Ker(A − λE)).
!
549 10

Prüfungstrainer
Inhaltsverzeichnis

10.1 Multiple-Choice-Fragen – 550


10.2 Musterprüfung 1 – 574
10.3 Musterprüfung 2 – 577
10.4 Musterprüfung 3 – 582
10.5 Musterprüfung 4 – 587
10.6 Multiple-Choice Fragen – Lösungen – 593
10.7 Musterprüfung 1 – Musterlösung – 615
10.8 Musterprüfung 2 – Musterlösung – 619
10.9 Musterprüfung 3 – Musterlösung – 625
10.10 Musterprüfung 4 – Musterlösung – 633

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1_10
550 Kapitel 10 • Prüfungstrainer

In diesem Kapitel wird umfangsreiches Übungsmaterial zum Eintrainieren des erwor-


benen Wissens zur Verfügung gestellt. Es beinhaltet 150 (ohne sich) Multiple-Choice-
Fragen sowie 4 Musterprüfungen mit steigendem Schwierigkeitsgrad. Detaillierte
Lösungen zu allen Aufgaben und Prüfungen finden Sie unten im Lösungsteil.

10.1 Multiple-Choice-Fragen

In diesem Teil befinden sich 150 Multiple-Choice-Fragen, welche perfekt zum Über-
prüfen des Linearen-Algebra-Basiswissens passen. Der Schwierigkeitsgrad der Fra-
gen variiert bewusst von einfach bis schwierig. Beachten Sie: Es können jeweils eine,
zwei oder mehrere Antworten richtig sein.

7 Kapitel 1
1 2
? @ 1 0 ? 3 5
@
1 −1 2 1 −2
1 ◦ ◦ ◦ Es seien A = 4 −1 2 , B = 5 1 ,C = 1 1 . Welche Produkte
5 −1 10 −2
existieren?

A A2 B AB C BA D AC E BC F CA

2 ◦ ◦ ◦ Es seien A ∈ Kn×p , B ∈ Kp×m , C ∈ Km×n . Welche Größe hat die Matrix


ABC?

A n×m B n×n C nicht definiert

3 ◦ ◦ ◦ Welche Operationen extrahieren die zweite Zeile aus der Matrix A =


K L
−3 2 1 1
0 1 01 ?
2 −5 2 1

A Linksmultiplikation mit [ 0 1 0 ] C Rechtsmultiplikation mit [ 0 1 0 ]


?0@ ?0@
B Linksmultiplikation mit 1 D Rechtsmultiplikation mit 1
0 0

= 1 1
>
4 ◦ ◦ ◦ Die Inverse der Matrix A = −3 2 ist
= 2 −1 > K 1 1
L K2 L
A A−1 = − 51
3 1 B A−1 = 5 5
C A−1 = 5
− 53 2
5
3
5
1
5
10.1 • Multiple-Choice-Fragen
551 10
?0 0 0@
5 ◦ ◦ ◦ Die Matrix A = 010 ist ...
000

A eine obere Dreiecksmatrix C eine Diagonalmatrix


B eine untere Dreiecksmatrix D eine quadratische Matrix
K L
i 1+i
6 ◦ ◦ ◦ Die Adjungierte A∗ der Matrix A = 1−i 1 ist
1 −i
K L ? @ ? @
−i 1−i i 1−i 1 −i 1+i 1
A 1+i 1 B 1+i 1 −i C 1−i 1 i
1 i

7 • ◦ ◦ Welche der folgenden reellen Matrizen sind normal?


K L K L K L K L
ab ab a b ab
A B C D
0c bd −b a ba
K L
i 1 3
8 ◦ ◦ ◦ Für die Matrix A = 1 1+i 1 gilt
2+i 3i 1−6i

A Spur(A∗ ) = 2 − 4i B Spur(A∗ ) = 2 + 4i C Spur(A∗ ) = 6 + 2i

9 ◦ ◦ ◦ Für beliebige Matrizen A, B ∈ Rn×n gilt (A + B)2 = A2 + 2AB + B2 .

A Immer wahr B Immer falsch C Wahr für [A, B] = 0

10 ◦ ◦ ◦ Für beliebige Matrizen A, B, C ∈ Rn×n gilt: AB = AC ⇒ B = C.

A Wahr B Falsch

11 • ◦ ◦ Für invertierbare Matrizen A, B, C ∈ GL(n, R) berechne man


G H−1
C T AB−1 C T AB−1 .

A 0 B E C C T A−1 BC −T AB−1

12 • ◦ ◦ Für invertierbare Matrizen A, B, C ∈ GL(n, R) löse man die Matrizenglei-


G HT
chung 5A + 4AB + C = 2DAT + E nach A auf.

; <−1 ; <−1
A A = 5E + 4B − 2DT (E − C) B A = (E − C) 5E + 4B − 2DT
552 Kapitel 10 • Prüfungstrainer

= > = >
13 • • ◦ Es seien A = 3 −3 2 und B = 4 3 −2 . Man berechne AT B auf (Z3 )3×3
K L ?0 0 0@ ?0 1 0@
12 9 −6
A −12 −9 6 B 000 C 010
8 6 −4 202 000

14 • ◦ ◦ a) Die Menge S aller spurlosen Matrizen A ∈ R2×2 ist


M + = b > N
A S = A ∈ R2×2 + A = ab −a , a, b ∈ R
M + = b > N
B S = A ∈ R2×2 + A = ac −a , a, b, c ∈ R
E + ? @ F
+
C S = A ∈ R2×2 + A = ab −b −a , a, b ∈ R
b) Die Dimension von S ist

A 1 C 3
B 2 D 4
15 ◦ ◦ ◦ Welche der folgenden Aussagen sind für alle Matrizen A, B, C ∈ Rn×n
richtig?

A Spur(A + B) = Spur(A) + Spur(B) C Spur(ABC) = Spur(ACB)


B Spur(AB) = Spur(BA) D Spur(ABC) = Spur(BCA)
K L
0 A
16 • ◦ ◦ Es sei A ∈ Rn×n . Dann ist die (2n × 2n)-Blockmatrix symmetrisch.
AT 0

A Wahr B Falsch

17 • ◦ ◦ Es seien A, B ∈ Rn×n symmetrisch. Dann ist ABA symmetrisch.

A Wahr B Falsch

18 • • ◦ H2 (C) bezeichne alle hermitesche Matrizen in C2×2 . Welche Aussagen sind


richtig?

A dimR H2 (C) = 4 C dimR H2 (C) = 8


B Die Diagonaleinträge einer hermi- D Die Diagonaleinträge einer hermi-
teschen Matrix sind stets reell teschen Matrix sind stets komplex
10.1 • Multiple-Choice-Fragen
553 10

19 ◦ ◦ ◦ Welche der folgenden Matrizen sind orthogonal?

? @ K L
1 = > 1 02 1 1 −2 2
A = √ 11 11 , B= −1 1 0 , C= 2 −1 −2
2 0 11 3 2 2 1

A A B B C C D Keine
K L
−i 0 i
20 • ◦ ◦ Für welche k ∈ C ist U = √1 1 √0 1 unitär?
2 k 20

A k=0 B k=i C k=1 D k= 2

21 • ◦ ◦ Welche der folgenden Matrizen sind nilpotent (Nilpotenzgrad angeben)?

? @ ?0 1 1@ 1 ?0 1 1@
1 −1
A= 1 −1 , B= 001 , C= 101
000 3 110

A A B B C C D Keine

22 • ◦ ◦ Sind A, B ∈ Rn×n nilpotent gleichen Grades (z. B. m), so ist es auch AB.

A Immer wahr B Immer falsch C Wahr für [A, B] = 0

23 • ◦ ◦ Es sei A ∈ Rn×n . Welche Aussagen sind richtig?

A A orthogonal ⇒ A normal C A normal ⇒ A orthogonal


B A symmetrisch ⇒ A normal D A idempotent ⇒ A orthogonal

7 Kapitel 2

24 • ◦ ◦ Es sei A ∈ R2×4 . Dann besitzt Ax = 0 eine nichttriviale Lösung.

A Wahr B Falsch

25 • ◦ ◦ Es sei A ∈ R3×5 mit Rang 3. Dann hat das LGS Ax = 0:

A keine Lösung C genau eine Lösung


B eine Lösungsmenge mit 1 freien D eine Lösungsmenge mit 2 freien
Parameter Parametern
554 Kapitel 10 • Prüfungstrainer

?1 3 1
@ ?2@
26 • ◦ ◦ Es seien A = 12 0 und b = 2 . Für welche α ∈ R hat das LGS
0 0 2α+1 5
Ax = b keine Lösung?

A α ̸= −1/2 B α = −1/2 C α = 1/2

27 ◦ ◦ ◦ Für beliebige A ∈ Rm×n hat das LGS Ax = 0 eine Lösung.

A Wahr B Falsch

28 ◦ ◦ ◦ Für beliebige A ∈ Rm×n und b ∈ Rm hat das LGS Ax = b eine Lösung.

A Wahr B Falsch
?1 2 0 1
@
29 ◦ ◦ ◦ Für A = 25 4 4 hat das LGS Ax = 0
3 5 −6 4

A keine Lösung C genau eine Lösung


B eine Lösungsmenge mit 1 freien D eine Lösungsmenge mit 2 freien
Parameter Parametern
⎤ ⎡
k k k2 4
30 • ◦ ◦ Das LGS mit erweiterter Matrix ⎣ 1 1 k k ⎦ hat ...
1 2 3 2k

A keine Lösung für k ̸= ±2 C unendlich viele Lösungen für k =


B genau eine Lösung für k ̸= ±2 ±2

31 • ◦ ◦ Es sei A ∈ Rn×n so, dass die Lösungsmenge von Ax = 0 eine Ebene ist.
Dann gilt:

A dim Ker(A) = 1 C dim Ker(A) = 0 E dim Im(A) = n − 2


B dim Ker(A) = 2 D Rang(A) = n − 1 F dim Im(A) = n

32 ◦◦◦ Man bestimme die implizite Darstellung der Ebene durch den Punkt (1, 2, 3)
= >T
und senkrecht zur Geraden mit Richtungsvektor 2 −1 0 .

A x1 + 2x2 + 3x3 = 0 B 2x1 − x2 = 0 C 2x1 − x2 = 1


10.1 • Multiple-Choice-Fragen
555 10

33 ◦ ◦ ◦ Man berechne den Winkel zwischen der Normalenvektoren an den Ebenen


mit Gleichungen E1 : 2x1 + x2 + x3 = 0 und E2 : x1 + x3 = 2.

A 0 B π
6 C π
4 D π
2

34 ◦ ◦ ◦ Man betrachte die Ebenen E1 : x3 = 3, E2 : x1 + x2 + 2 = 0 und


E3 : 3x1 + 3x2 − x3 + 9 = 0. Dann enthält die Ebene E3 die Gerade E1 ∩ E2 .

A Wahr B Falsch

35 • ◦ ◦ Gegeben ist das LGS Ax = b mit A ∈ R3×6 und b ∈ R3 . Was stimmt?

A Die Lösungsmenge ist eine Teil- D Die Lösungsmenge ist ein affiner
menge des R6 Raum
B Die Lösungsmenge ist eine Teil- E Es gibt jedenfalls die triviale Lö-
sung
menge des R3
F Die Summe von zwei Lösungen ist
C Die Lösungsmenge ist ein Unter-
wieder eine Lösung
raum

36 • ◦ ◦ Gegeben ist das LGS Ax = 0 mit A ∈ R2×8 . Welche Aussagen sind richtig?

A Die Lösungsmenge ist eine Teil- D Die Lösungsmenge ist ein affiner
menge des R2 Raum
B Die Lösungsmenge ist eine Teil- E Es gibt jedenfalls die triviale Lö-
sung
menge des R8
F Die Summe von zwei Lösungen ist
C Die Lösungsmenge ist ein Unter-
wieder eine Lösung
raum

37 • ◦ ◦ Für beliebige A, B ∈ Rn×n gilt Rang(AT BT ) ≤ Rang(BT ).

A Wahr B Falsch

38 • ◦ ◦ Es seien A, B ∈ Rn×n mit AB = E. Dann gilt Rang(A) = Rang(B) = n.

A Wahr B Falsch

39 • ◦ ◦ Es seien A ∈ R2×3 und b ∈ R3 . Die Matrix A habe maximalen Rang. Dann


hat das LGS AT Av = b genau eine Lösung.

A Wahr B Falsch
556 Kapitel 10 • Prüfungstrainer

K L
1 k+2 0
40 • ◦ ◦ Für die Matrix A = k2 −1 0 4−k (k ∈ R) gilt
1 2k−3 0

A Für k = 4 ist Rang(A) = 2 C Für k ̸= 4 ist Rang(A) = 2


B Für k ̸= 5 ist Rang(A) = 3 D Für k = 5 ist Rang(A) = 1
1 2
1 −1 2
41 • ◦ ◦ Für die Matrix A = 0 k+1 k−1 (k ∈ R) gilt
0 0 k
0 0 k−3

A Für k = −1 ist Rang(A) = 2 C Für k ̸= 0 ist Rang(A) = 3


B Für k = 0 ist Rang(A) = 2 D Für k = 3 ist Rang(A) = 3
1 1 1 3 −1
2
1 0 −2 −2
42 • ◦ ◦ Für die Matrix A = 1 2
2 8 k −2k
(k ∈ R) gilt
−2 −1 k−1 3

A Für k = 0 ist Rang(A) = 2 C Für k = 2 ist Rang(A) = 3


B Für k = 0 ist Rang(A) = 3 D Für k = 1 ist Rang(A) = 4

=1 2 2 0>
43 • • ◦ Man berechne den Rang von A = 2110 über dem Körper K

A Über K = R ist Rang(A) = 2 C Über K = Z3 ist Rang(A) = 2


B Über K = Q ist Rang(A) = 1 D Über K = Z2 ist Rang(A) = 1

7 Kapitel 3
=1 1>
44 ◦ ◦ ◦ Die Inverse der Matrix A = 01 ist
= 1 −1 > =1 0>
A A−1 = 0 1 B A−1 = 11 C A−1 existiert nicht

= 1 −1 >
45 ◦ ◦ ◦ Es sei A = 1 1
∈ R2×2 . Gibt es eine Matrix B ∈ R2×2 mit AB = 7E?

A Ja B Nein

=4 2>
46 • ◦ ◦ Es sei A = 12 ∈ (Z2 )2×2 . Gibt es eine Matrix B ∈ (Z2 )2×2 mit AB = E?

A Ja B Nein
10.1 • Multiple-Choice-Fragen
557 10

47 • ◦ ◦ Es sei A ∈ Rn×n so, dass Ax = 0 nur die triviale Lösung besitzt. Dann gilt:

A A ist singulär D Rang(A) < n G Rang(A) = n


B det(A) ̸= 0 E A ist invertierbar H dim Im(A) = n
C det(A) = 0 F dim Ker(A) ≥ 1

48 ◦◦◦ Welche der folgenden Aussagen über die Determinante sind für alle Matrizen
A, B ∈ Rn×n richtig?

A det(A + B) = det(A) + det(B) C det(2A) = 2 det(A)


B det(AB) = det(B) det(A) D det(−A) = det(A)

49 ◦◦◦ Bei welchen Operationen bleibt die Determinante einer Matrix unverändert?

A Vertauschen von zwei Zeilen oder D Addieren eines Vielfachen einer


Spalten Zeile zu einer anderen Zeile
B Transponieren E Multiplikation mit einer Matrix
mit Determinante 1
C Komplex konjugieren
?0 1 1@
50 ◦ ◦ ◦ Was ist die Determinante von A = 101 ?
110

A 0 B 1 C 2 D 3
1 2
−10 11 5 4
51 • ◦ ◦ Was ist die Determinante von A = 2 1 10 −1 ?
0 0 0 0
1 1 10 4

A 0 B 10 C 50 D 100
⎡0 0 0 0 0 1⎤
000033
52 • ◦ ◦ Was ist die Determinante von A = ⎣ 00 00 01 43 62 52 ⎦?
021291
111798

A 0 B 12 C 24 D −24
558 Kapitel 10 • Prüfungstrainer

⎡1 n n ··· n

n 2 n ··· n
⎢ n n 3 ··· n ⎥
53 • • ◦ Was ist die Determinante von A = ⎣ . . . ⎦?
.. .. .. . . . ...
n n n ··· n

A 0 B n! C (−1)n−1 n! D (−1)n n!
+ +
+ 1 x x2 ··· xn +
+ a 1 x ··· xn−1 +
+ +
1 + a a 1 ··· xn−2 +
54 • • ◦ x = ist eine Nullstelle der Ordnung (n − 1) von p(x) = + . . . . +.
a + .. .. .. . . ... +
+ a a a ··· x +
+ +
a a a ··· 1

A Wahr B Falsch
?1 0 0@
55 ◦ ◦ ◦ Die Adjunkte adj(A) der Matrix A = 110 ist ...
111
?1 1 1@ K L K L K L
1 0 0 1 −1 0 1 0 0
A 011 B −1 1 0 C 0 1 −1 D −1 1 0
001 −1 −1 1 0 0 1 0 −1 1

56 ◦ ◦ ◦ Man löse das folgende LGS mit der Cramer’schen Regel:




⎨3x1 + x3 = 0

x + 2x2 + x3 = 1
⎪ 1

⎩x − x + 2x = 0
1 2 3
E? −1 @F 51 1 26 51 1 26
− 12
A L= 5 12
3 B L= 5
12 C L= 5
12
3 3
12 − 12

57 • • ◦ Der Rechenaufwand bei der Berechnung der Determinante einer Matrix


A ∈ Rn×n mittels Laplace-Entwicklung ist

A O((n + 1)!) B O(n!) C O((n − 1)!) D O(n3 )


?1 0 1@
58 • ◦ ◦ Für welche k ∈ R ist A = k12 invertierbar?
021
3
A k ̸= 1 B k ̸= 2 C k ̸= − 32 D k∈R
⎡ ⎤
0 b 3 0 0
59 • • ◦ Für welche a, b ∈ R ist A = ⎣ 10 1
1
1
1
1
1
1
−1 ⎦ invertierbar?
0 2 1 0 0
0 4 0 a 0

A a ̸= 1, b ̸= 0 B a ̸= 0, b ̸= 1 C a ̸= 0, b ̸= 6 D a ̸= 3, b ̸= 2
10.1 • Multiple-Choice-Fragen
559 10

60 • • ◦ Die Matrix A ∈ R3×3 hat nur die Einträge ±1. Dann ist det(A) ≤ 6.

A Wahr B Falsch

7 Kapitel 4
?1 1 1@
61 ◦ ◦ ◦ Die obere Dreiecksmatrix bei der LR-Zerlegung von A = 101 ist ...
011
K L ?1 1 1
@ K L
11 1 1 1 1
A R= 0 1 −1 B R= 0 −1 0 C R= 0 −1 0
0 0 −1 0 0 1 0 0 −1

62 • ◦ ◦ Die Matrix P bei der LR-Zerlegung mit Zeilenvertauschung von A =


K 3 1 0 −1 L
211 0 ist ...
210 1
123 1
K0 0 0 1L K0 0 1 0L K0 0 0 1L
A P= 0100 B P= 0100 C P= 0010
1000 0001 0100
0010 1000 1000
11 12
2 1
63 • ◦ ◦ Es sei A = LR die LR-Zerlegung von A = 3 1 . Welche Aussagen sind
4 1
5 1
richtig?

A A hat keine LR-Zerlegung D R ∈ R5×5


B L ∈ R2×5 E R ∈ R2×2
C L ∈ R5×2 F det(R) = −1
L K
01
64 • • ◦ Die Matrix A = besitzt eine eindeutige LR-Zerlegung.
00

A Wahr B Falsch

=0 1>
65 • • ◦ Die Matrix A = 10

A A besitzt eine LR-Zerlegung C A besitzt keine LR-Zerlegung


B A besitzt eine LR-Zerlegung mit D A besitzt keine LR-Zerlegung mit
Zeilenvertauschung Zeilenvertauschung
560 Kapitel 10 • Prüfungstrainer

?0 1 1@
66 • ◦ ◦ P = 100 ist eine Permutationsmatrix
001

A Wahr B Falsch

67 • ◦ ◦ Wir suchen eine Matrix P ∈ R5×5 , welche bei der Multiplikation mit dem
Vektor v ∈ R5 genau den ersten und vierten Eintrag von v vertauscht. Für welche
der folgenden Möglichkeiten ist dies gegeben?
10 0 0 1 02 1 0 0 0 1 0 2T 10 0 0 1 02
0 0 1 0 0 0 1 0 0 0 0 1 0 0 0
A 0 1 0 0 0 B 0 0 1 0 0 C 0 0 1 0 0
1 0 0 0 0 1 0 0 0 0 1 0 0 0 0
0 0 0 0 1 0 0 0 0 1 0 0 0 0 1

10 0 1 0 02
1 0 0 0 0
68 • • ◦ Gegeben ist die Permutationsmatrix P = 0 1 0 0 0 . Was stimmt?
0 0 0 0 1
0 0 0 1 0

10 0 1 0 02
A det(P) = 1 1 0 0 0 0
10 1 0 0 02 D P−1 = 0 1 0 0 0
0 0 1 0 0 0 0 0 0 1
B P−1 = 1 0 0 0 0 0 0 0 1 0
0 0 0 0 1 E det(P) = −1
0 0 0 1 0
C P wird von der Permutation σ = F P wird von der Permutation σ =
=1 2 3 4 5>
τ12 τ13 τ45 erzeugt
2 3 1 5 4 erzeugt

69 ◦◦◦ Es sei L eine untere (n×n)-Dreiecksmatrix. Man formuliere den Algorithmus


zur Lösung von Ly = b durch Vorwärtseinsetzen im Psedocode.

for j = 2 to n do y1 = b1 /ℓ11 ;
sum =0 ; for j = 2 to n do
for k = 1 to j − 1 do sum =0 ;
A sum = sum +ℓjk yk
C for k = 2 to j − 1 do
end sum = sum +ℓjk yk
yj = (bj − sum)/ℓjj end
end yj = (bj − sum)/ℓjj
end

y1 = b1 /ℓ11 ;
for j = 2 to n do y1 = b1 /ℓ11 ;
sum =0 ; for j = 2 to n do
B for k = 1 to j − 1 do sum =0 ;
sum = sum +ℓjk yk for k = 1 to j do
D sum = sum +ℓjk yk
end
yj = (bj − sum)/ℓjj end
end yj = (bj − sum)/ℓjj
end
10.1 • Multiple-Choice-Fragen
561 10

70 ◦◦◦ Die LR-Zerlegung ist rechnerisch effizienter als der Gauß-Algorithmus zum
Lösen ...

A mehrerer LGS mit unterschied- B mehrerer LGS mit derselben Dar-


lichen Darstellungsmatrizen und stellungsmatrix und verschiedenen
gleichen Vektoren auf der rechten Vektoren auf der rechten Seite
Seite C eines einzelnen LGS

7 Kapitel 5
M + = > N
71 • ◦ ◦ Die Menge G = A ∈ R2×2 + A = a0 bc , a, b, c ∈ R ist abgeschlossen
bezüglich der Matrizenaddition

A Wahr B Falsch

M + = > N
72 • • ◦ Die Menge G = A ∈ R2×2 + A = a0 bc , a, b, c ∈ N ist eine Gruppe
bezüglich der Matrizenmultiplikation

A Wahr B Falsch

73 • ◦ ◦ Es sei V = Kn×n der Vektorraum der quadratischen (n × n)-Matrizen mit


Einträgen in K. Welche der folgenden Untermengen sind Unterräume von V ?

A Die Menge der oberen Dreiecks- C Die Menge der Diagonalmatrizen


matrizen D Die Menge der symmetrischen
B Die Menge der invertierbaren Ma- Matrizen
trizen

74 ◦ ◦ ◦ U = {x ∈ R3 | x1 + 2x2 = 3(1 − x3 )} ⊂ R3

A Ist ein Unterraum C Ist ein affiner Raum


B Ist kein Unterraum D Ist kein affiner Raum

75 ◦ ◦ ◦ U = {x ∈ R3 | x1 + x2 + x3 = 0} ⊂ R3

A Ist ein Unterraum C Ist ein affiner Raum


B Ist kein Unterraum D Ist kein affiner Raum
562 Kapitel 10 • Prüfungstrainer

76 ◦ ◦ ◦ Für welche α ∈ R ist Uα = {x ∈ R3 | x1 − 2x2 + αx3 = α − 1, x1 =


(2 − α)x2 } ⊂ R3 ein Unterraum?

A α=0 B α=1 C α=2 D α∈R

77 ◦ ◦ ◦ Für welche α ∈ R ist Uα = {x ∈ R3 | x1 − x2 + 2x3 = α 2 , x1 − 3αx3 =


1 − α} ⊂ R3 ein affiner Raum?

A α=0 B α=1 C α = 0, 1 D α∈R

78 ◦ ◦ ◦ Pn (R) ist ein Unterraum von C 0 (R).

A Wahr B Falsch

79 • ◦ ◦ U = {p ∈ P2 (R) | p(x) = a(x2 − 1), a ∈ Z} ⊂ P2 (R)

A Ist ein Unterraum B Ist kein Unterraum

80 • ◦ ◦ Sei V ein Vektorraum mit Untervektorräumen U1 und U2 . Dann gilt


dim(U1 ) + dim(U2 ) ≥ dim(U1 + U2 ).

A Wahr B Falsch

81 • ◦ ◦ Sei V ein Vektorraum mit Unterräumen U1 und U2 . Es gelte dim(U1 ) =


dim(U2 ) = 2. Welche Aussagen sind richtig?

A dim(U1 + U2 ) ≤ 4 C dim(U1 ∩ U2 ) ≤ 2
B dim(V ) = 4 D dim(U1 + U2 ) ≥ 2

7 Kapitel 6

82 ◦ ◦ ◦ Es sei A ∈ Rm×n . Ist b ∈


/ Im(A), so hat Ax = b keine Lösung.

A Wahr B Falsch

83 ◦ ◦ ◦ A ∈ Rn×n ist regulär ⇔ Die Zeilen von A sind linear unabhängig.

A Wahr B Falsch
10.1 • Multiple-Choice-Fragen
563 10

84 • ◦ ◦ Die Vektoren v1 , · · · , vn sind linear unabhängig genau dann, wenn sich ein
Vektor als Linearkombination der anderen darstellen lässt.

A Wahr B Falsch
?1@ ?1@ ?2@
85 ◦ ◦ ◦ Gegeben sind die Vektoren v1 = 2 , v2 = 0 und v3 = 2 . Welche
3 1 4
Aussagen sind richtig?

A v1 , v2 sind linear unabhängig C v1 , v3 sind linear unabhängig


B v1 , v2 , v3 sind linear abhängig D v2 , v3 sind linear abhängig

? @ K L ?0@
1 2
86 ◦ ◦ ◦ Gegeben sind die Vektoren v1 = −3 , v2 = −1 und v3 = 0 . Welche
7 −1 0
Aussagen sind richtig?

A v1 ist eine Linearkombination von C v3 ist eine Linearkombination von


v2 , v3 v1 , v2
B v2 ist eine Linearkombination von D Die Vektoren v1 , v2 , v3 sind linear
v1 , v3 abhängig
? 1
@ ? 1
@ ? 3
@
87 ◦ ◦ ◦ Gegeben sind die Vektoren v1 = 2 , v2 = 1 und v3 = 7 . Für
−2 −3 k−6
welche k ∈ R sind v1 , v2 , v3 linear unabhängig?

A k=1 B k ̸= 1 C k∈R
⎡ ⎤ 112 ⎡ ⎤
0 −1
1 0 2
88 • ◦ ◦ Gegeben sind die Vektoren v1 = ⎣ −1 ⎦, v2 = 1 , v3 = ⎣ −3 ⎦ und
0 0 0
1 k 0
102
0
v4 = 0 . Welche Aussagen sind richtig?
0
0

A v1 , v2 , v3 sind für k =
̸ 2 linear C v1 , v2 , v3 , v4 sind für alle k ∈ R
abhängig linear abhängig
B v1 , v2 , v3 sind für k = ̸ 2 linear D v1 , v2 , v3 , v4 sind für alle k ∈ R
unabhängig linear unabhängig

89 ◦ ◦ ◦ 5 Vektoren in R3 sind linear abhängig.

A Wahr B Falsch
564 Kapitel 10 • Prüfungstrainer

90 ◦ ◦ ◦ 4 Vektoren in R4 bilden eine Basis.

A Wahr B Falsch
?1@ ?2@ ? −1 @ ? 1
@
91 ◦ ◦ ◦ Gegeben sind die Vektoren v1 = 1 , v2 = 4 , v3 = 2 und v4 = 1 .
2 6 5 10
Dann ist v4 ∈ ⟨v1 , v2 , v3 ⟩.

A Wahr B Falsch

= 0 1
> =2 1> = 1 2
>
92 • ◦ ◦ D = −1 2 ist eine Linearkombination von A = 11 ,B= −1 3 ,C =
= −1 1 >
2 3
.

A Wahr B Falsch

= > = 1 k> = k 1>


93 • ◦ ◦ Gegeben sind die Matrizen A = k0 00 , B = −2 0 und C = −1 1 . Für
welche k ∈ R sind A, B, C linear unabhängig?

A k ̸= 0 B k=0 C k∈R

94 • ◦ ◦ Die Koordinaten des Polynoms p(x) = x2 − x + 2 bezüglich der Basis


B = {1 + x, 1 + 2x + x2 , x − x2 } sind
K L ?3@ K L
3 −2
A [p(x)]B = −1 B [p(x)]B = 1 C [p(x)]B = −1
−2 2 3

95 • ◦ ◦ Es sei V = P2 (R) der Vektorraum der reellen Polynome vom Grad ≤ 2.


a) Die Polynome x + 1, x − 1, x2 + x, x2 − x sind linear unabhängig.

A Wahr B Falsch

b) {x + 1, x − 1, x2 + x, x2 − x} ist ein Erzeugendensystem.

A Wahr B Falsch

c) {x + 1, x − 1, x2 + x, x2 − x} ist eine Basis.

A Wahr B Falsch
10.1 • Multiple-Choice-Fragen
565 10

96 •◦◦ Es sei V = P2 (R) der Vektorraum der reellen Polynome vom Grad ≤ 2. Man
finde eine Basis B und die Dimension des folgenden Unterraums U = {p(x) ∈
P2 (R) | p(1) = 0}.

A B = {x − 1, x2 − 1}, dim(U) = 2 C B = {x2 − 1}, dim(U) = 1


B B = {1 − x2 , x − x2 }, dim(U) = 2 D B = {1 − x, x2 − x}, dim(U) = 2

97 ◦ ◦ ◦ Es sei V ein Vektorraum mit dim(V ) = 8. Ein Erzeugendensystem von V


kann höchstens 8 Elemente besitzen.

A Wahr B Falsch

98 • ◦ ◦ Es sei V = P3 (R) der Vektorraum der reellen Polynome vom Grad ≤ 3.


Was ist die Dimension des Unterraums U = {p(x) ∈ P3 (R) | p(1) = 0, p′ (1) =
O1
1, 0 p(x)dx = 2}?

A 1 B 2 C 3 D 4

99 • ◦ ◦
a) Man berechne die TransformationsmatrizenE?
TE→ @ ?T B@F
@ B? und →E zwischen der
2 0 1
Standardbasis E von R3 und der Basis B = 1 , 1 , 0 .
0 0 1
?2 0 1@ 1 1
2
0 − 21
A T E →B = 1 1 0 2
? 02 0 1@ C T E →B = − 21 1 12
0 1 0 0 1
B T B→E = 1 1 0 1 1 1
2
0 0 1 2 0 −2
D T B→E = − 21 1 12
0 0 1
?1@
b) Der Vektor w hat die Koordinaten [w]E = 1 bezüglich der Standardbasis.
1
Wie lauten die Koordinaten von w bezüglich B ?
?2@ ?0@ ?1@
A 2 B 1 C 1
1 1 1

PK 1 L K 0 LQ PK −1 L K 2 LQ
0 1
100 • ◦ ◦ Gegeben sind die Unterräume U = 1 , 1 und W = 1 , 10 .
0
0 2 0 2
Was stimmt?

A dim(U) = 2 B dim(W ) = 1 C U + W = R4 D U ∩ W = {0}


566 Kapitel 10 • Prüfungstrainer

R? 1 @S R? 1 @ ? 0 @S
101 • ◦ ◦ Gegeben sind die Unterräume U = 1 und W = 0 , 0 . Dann ist
1 0 2
R3 = U ⊕ W .

A Wahr B Falsch

M
102 •◦◦ Man bestimme eine Basis des folgenden Unterraums W = A ∈ R3×3 | aij =
0 für i ≥ j}.
E? 0 1 0 @ ? 0 0 1 @ ? 0 0 0 @F E? 0 1 1 @ ? 0 0 1 @ ? 0 1 1 @F
A 000 , 000 , 001 B 000 , 001 , 001
000 000 000 000 000 000

7 Kapitel 7 und 8

103 • ◦ ◦ Für welche Vektoren u ∈ Rn beschreibt die Matrix P = E − uuT eine


Projektion?

A Für alle u ∈ Rn C Für ||u|| = 1


B Für ||u|| = 1 oder u = 0 D Für uT u = 1 oder u = 0

104 ◦ ◦ ◦ Es sei F : V → W linear. Die Dimension des Kernes von F ist 3 und die
Dimension des Bildes von F ist 4. Welche Aussagen sind richtig?

A dim(W ) = 7 C dim(V ) = 7
B Jede Basis von V besteht aus 7 D Gilt dim(W ) = 4, so ist F surjektiv
Vektoren E F ist injektiv
1x 2
? x1 @ 1 +x2 +x3
x1 −x2 −x3
105 ◦ ◦ ◦ Gegeben ist die lineare Abbildung F : R3 → R4 , x2 → 2x1 +2x3 .
x3
x2 +x3
Man berechne die Darstellungsmatrix von F bezüglich der Standardbasis.
K L K1 1 1 L
1 1 20
A M EE (F) = 1 −1 0 1 B M EE (F) = 1 −1 −1
1 −1 2 1 2 0 2
0 1 1

106 • ◦ ◦ Gegeben ist die lineare Abbildung F : R2×2 → R2×2 , X → AX mit A =


=0 1>
2 0 . Man berechne die Darstellungsmatrix von F bezüglich der Standardbasis
von R2×2 .
K0 0 0 1L K0 0 1 0L =0 1>
A M EE (F) = 0020 B M EE (F) = 0001 C M EE (F) =
0100 2000 = 21 01 >
2000 0200 D M EE (F) = 22
10.1 • Multiple-Choice-Fragen
567 10

107 • • ◦ Es seien V der Vektorraum der reellen Polynome und ϕ, ψ lineare Abbil-
dp
dungen definiert durch ϕ : p → dt und ψ : p → x p. Man berechne [ϕ, ψ].

A 0V B x C idV D 2ϕ
?2 2 k
@
108 • ◦ ◦ Für die Matrix A = 12 k (k ∈ R) gilt
0 0 3k

A Für k = 0 ist Rang(A) = 2 C Für k ̸= 0 ist dim(Im(A)) = 3


B Für k = 1 ist Rang(A) = 2 D Für k = 0 ist dim(Ker(A)) = 2

109 • ◦ ◦ Es sei F : V → W eine lineare Abbildung mit Darstellungsmatrix A =


K L
103 k
2 1 2 k+1 (k ∈ R). Welche Aussagen sind richtig?
k0k 0

A Für k ̸= 0 ist dim(Ker(F)) = 0 D Für k ̸= 0 ist F surjektiv


B Für k ̸= 0 ist dim(Ker(F)) = 1 E Für k = 0 ist dim(Im(F)) = 2
C Für k ̸= 0 ist F invertierbar F Für k = 0 ist dim(Ker(F)) = 2

110 ◦ ◦ ◦ Die lineare Abbildung F : V → W hat die Darstellungsmatrix A ∈ R6×4 .


Welche Aussagen sind richtig?

A dim(V ) = 4 B dim(V ) = 6 C dim(W ) = 4 D dim(W ) = 6

111 ◦ ◦ ◦ Eine lineare Abbildung F : R5 → R3 kann nicht injektiv sein.

A Wahr B Falsch

112 ◦ ◦ ◦ Eine lineare Abbildung F : R2 → R4 ist immer surjektiv.

A Wahr B Falsch

113 ◦ ◦ ◦ Für welche a, b ∈ R ist die Abbildung F : R → R, x → ax + b linear?

A Für a ∈ R und b = 0 B Für a = 0 und b ∈ R C Für alle a, b ∈ R


568 Kapitel 10 • Prüfungstrainer

114 ◦ ◦ ◦ Welche der folgenden Abbildungen sind linear?


5 F1 x2 , x3 ] → [x21 , x2 , 2x3 ];
: R3 → R3 , [x1 , B
5 F2 : R → R, x → nj=1 xj ;
n
B
5 F3 : Rm×n → R, A → 1n nj=1 a1j ;
5 F4 : R2 → C4 , [x1 , x2 ] → [x1 + x2 , x1 − x2 , ix1 , −ix2 ],
5 F5 : R4 → R2 , [x1 , x2 , x3 , x4 ] →O [ex1 +x2 , x3 cos(x4 )],
x
5 F6 : Pn (R) → Pn+1 (R), p(x) → 0 p(y)dy.

A F1 B F2 C F3 D F4 E F5 F F6

? @
cos(ϕ) sin(ϕ)
115 • ◦ ◦ Welche lineare Abbildung stellt die Matrix A = sin(ϕ) − cos(ϕ) dar?

A Eine Rotation B Eine Spiegelung C Eine Projektion


1 2
1 0 0
1 1
116 • ◦ ◦ A = 2 2 − 12 ist eine Projektion.
1
2 − 12 1
2

A Wahr B Falsch

117 ◦ ◦ ◦ Welche Matrix beschreibt die lineare Abbildung in der Figur (dunkelrot →
hellrot)?

? @ ? @
1 0 − 23 0
A 2 C
? 0 − @3 ? 0 @1
1 0 0 1
B 0 23 D 2
3 0

118 ◦ ◦ ◦ Welche Matrix beschreibt die lineare Abbildung in der Figur (dunkelrot →
hellrot)?
K L K L
√1 − √1 − √1 − √1
A √1
2
√1
2
C 2 2
− √1 √1
K 2 2 L K 2 2 L
√1 √1 − √1 √1
B 2 2
D 2 2
− √1 √1 √1 √1
2 2 2 2

;1< = 3 > ;= 1 >< = 1 >


119 ◦◦◦ Gibt es eine lineare Abbildung F : R2 → R2 mit F 2 = 0 ,F 5 = 4
;= >< = >
und F 27 = 45 ?

A Ja B Nein
10.1 • Multiple-Choice-Fragen
569 10

120 ◦◦◦ Die lineare Abbildung F : R3 → R3 ist definiert durch F(e1 ) = e1 −2e2 +e3 ,
F(e2 ) = 2e2 − e3 , F(e3 ) = e1 + e3 . Man bestimme die Darstellungsmatrix von
F −1 bezüglich der Standardbasis.
K L 1 2
1 0 1 1 − 12 −1
A M EE (F −1 ) = −2 2 0 B M EE (F −1 ) = 1 0 −1
1 −1 1
0 12 1

121 • ◦ ◦ Gegeben sind die Homomorphismen F : R3 → R2 , [x1 , x2 , x3 ]T → [x1 +


x2 + x3 , x1 + x3 ]T und G : R2 → R3 , [x1 , x2 ]T → [2x1 + x2 , x1 + x2 , x2 ]T . Was
stimmt?
=3 3> =3 3>
A M EE (F ◦ G) = 22 B M EE (G ◦ F) = 22 C F ◦ G ist ein Isomor-
phismus

;= 1 >< ?1@
122 • ◦ ◦ Es sei F : R2 → R3 die lineare Abbildung definiert durch F 0 = 2 ,
1
;= >< ? 1 @ ?3@
F 01 = 0 . Ist w = 4 ∈ Im(F)?
−1 1

A Ja B Nein

123 • ◦ ◦ Man betrachte die lineare Abbildung F : R4 → R5 , [x1 , x2 , x3 , x4 ]T →


[x1 − x2 , x1 + x2 , x2 , x2 + 3x3 , −x1 − x2 ]T .
a) Welche Aussagen sind richtig?

A dim(Ker(F)) = 0 C dim(Im(F)) = 3 E F ist injektiv


B dim(Ker(F)) = 1 D dim(Im(F)) = 5 F F ist surjektiv

b) Eine Basis des Kerns von F ist gegeben durch ...


K 1 L
K0L K0L
A −1 B 0 C 0
0 0 0
0 1 0

c) Eine Basis des Bildes von F ist gegeben durch ...


⎡ ⎤ ⎡ 102 ⎤ 1 1 2 ⎡ −1 ⎤ 1 0 2
1 −1
1 0 C R5
A ⎣ 0 ⎦, ⎣ 1 ⎦, 00
1
B 0 ,⎣
2
1 ⎦, 0
0
0 1 3 0 0 3
−1 −1 0 0 0 0
570 Kapitel 10 • Prüfungstrainer

124 •◦◦ Man betrachte die lineare Abbildung F : R3 → R4 , [x1 , x2 , x3 ]T → [2kx1 −


x2 , x2 + kx3 , x1 + x2 − x3 , x1 − x2 ]T (k ∈ R). Welche Aussagen sind richtig?

A F ist injektiv ∀k ∈ R B F ist surjektiv ∀k ∈ R


1 2
0 1 3 0
0 0 −2 1
125 • ◦ ◦ Eine Basis des Bildes von A = 0 0 0 0 ist gegeben durch ...
1 −1 0 1

K0L K 1 L K 3 L K0L K 1 L K0L K0L K 1 L


A 0 , 0 , −2 B 0 , 0 , 10 C 0 , 0
0 0 0 0 0 0 0
1 −1 0 1 −1 1 1 −1

126 • ◦ ◦ Gegeben ist F : R3 → R3 , [x1 , x2 , x3 ]T → [2x1 , x2 , 0]T und die Basis


E? 1 @ ? 0 @ ? 1 @F
B= 0 , 1 , 1 . Welche Aussagen sind richtig?
1 −1 −1
?2 0 0@ ?2 0 2@
A M EE (F) = 010 B MB
E (F) = 011
000 000

127 • • ◦ Man betrachte C als zweidimensionalen reellen Vektorraum mit Basis B =


{1, i}. Welche
K lineare
L Abbildung F : C → C wird von der Darstellungsmatrix
1 0
MB B (F) = 0 0 beschrieben?

A z → z̄ B z → iz C z → Re(z) D z → z + iz
?1 i 0
@
128 • ◦ ◦ Gegeben sind die lineare Abbildung F : C3 → C3 , z → Az mit A = i 10
E? 0 @ ? 1 @ ? 0 @F 101
und die Basis B = i , 0 , −2 . Was stimmt?
1 0 i
?1 i 0
@ ? 1 1 0
@
A MB
B (F) = i 10 B MB
B (F) = −1 1 −2i
101 0 0 1

129 • ◦ ◦ Die lineare Abbildung F : R3 → R2 , [x1 , x2 , x3 ]T → [x1 , 2x2 ]T ist ein ...

A Isomorphismus B Homomorphismus C Endomorphismus

130 • • ◦ Es seien F, G ∈ End(V ) und F invertierbar. Welche Aussagen sind richtig?

A F ◦ G ist injektiv ⇒ G ist injektiv C F ◦ G ist ein Isomorphismus ⇒ G


B F ◦G ist surjektiv ⇒ G ist surjektiv ist ein Isomorphismus
10.1 • Multiple-Choice-Fragen
571 10
1 2 K1 0 0 0L
0 1 k 2
131 • • ◦ Für welche k ∈ R ist A = 1 1 0 1 äquivalent zu B = 0100 ?
0 1 1 2 0010
−2 0 1 −1 0000

A k=0 B k=1 C k = −1 D k∈R


K L ?1 1 1@
2 −1 1
132 • • ◦ Die Matrizen A = −2 3 1 und B = 121 sind ähnlich.
1 5 1 112

A Wahr B Falsch

133 • • ◦ A ∈ Kn×n und die Einheitsmatrix E ∈ Kn×n sind ähnlich. Dann ist A = E.

A Wahr B Falsch

134 • • ◦ Die reellen Vektorräume P7 (R) und C2×2 sind isomorph.

A Wahr B Falsch

7 Kapitel 9
KL
1 0
135 ◦ ◦ ◦ Welche der folgenden Vektoren sind Eigenvektoren von A = ?
−1 3
K L K L K L K L
1 2 0 1
A B C D
1 1 1 0
? @
−3 2
136 ◦ ◦ ◦ Die Matrix A = −2 2 hat den Eigenwert 1. Wie lautet der andere
Eigenwert?

A 0 B 3 C 2 D -2

137 ◦ ◦ ◦ Die Eigenwerte einer reellen Matrix sind immer reell.

A Wahr B Falsch
?0 2 1@
138 • ◦ ◦ Das Spektrum der Matrix A = 102 ist ...
111

A σ (A) = {−1, −1, 3} B σ (A) = {1, −1, 3} C σ (A) = {1, 2, 3}


572 Kapitel 10 • Prüfungstrainer

K L
−2 1 1
139 ◦ ◦ ◦ Sei A = 0 4 0 . Was stimmt?
0 0 −2

A Der Eigenwert −2 hat algebrai- C Der Eigenwert 4 hat algebraische


sche Vielfachheit 2 Vielfachheit 1
B Der Eigenwert −2 hat geometri- D Der Eigenwert −2 hat geometri-
sche Vielfachheit 2 sche Vielfachheit 1
⎡ ⎤
1241 2
0 5 2 1 −2
140 ◦ ◦ ◦ Die Eigenwerte von A = ⎣ 0 0 4 0 1 ⎦ sind ...
0002 4
0000 3

A 1, 1, 3, 3, 5 B 1, 2, 3, 4, 5 C 1, 1, 4, 4, 10
⎡ ⎤
1 1 0 0 0
1 1 0 0 0
141 • ◦ ◦ Der Spektralradius von A = ⎣0 0 −5 0 0⎦ ist ...
0 0 0 1 2
0 0 0 2 1

A ρ(A) = 0 B ρ(A) = 2 C ρ(A) = 3 D ρ(A) = 5

142 • ◦ ◦ Für welche a, b ∈ R ist 0 ein Eigenwert der folgenden Matrizen?

? 1 a −1 @ Kb 2 1 3L
A= 01 2 , B= 1011 .
a3 3 0011
1314

A Für alle a, b ∈ R B Für a = {1, − 32 } und C Für a ∈ R und b = 1


b∈R

143 • • ◦ Die lineare Abbildung F habe das charakteristische Polynom (λ − 2)(λ − 3).
Welche Aussagen sind richtig?

A Über R hat F die Eigenwerte 2 und 3.


B Über Z2 hat F die Eigenwerte 0 und 1.
C Über Z3 hat F die Eigenwerte 1 und 2.
K L
−1 0 0
144 ◦ ◦ ◦ Die Eigenwerte der Matrix A = 0 3 0 sind
0 0 −1

A 1, 2, 3 B −1, −1, 3 C 1, 1, 2 D 0, −1, 3


10.1 • Multiple-Choice-Fragen
573 10
? 2 i 0
@
145 ◦ ◦ ◦ Gegeben ist die Matrix A = −i 2 0 .
0 02
a) Die Eigenwerte von A sind:

A 1, 2, 3 B −1, −2, −3 C 1, 1, 2 D 0, 1, 3

b) Welche der folgenden Vektoren sind Eigenvektoren von A?


?1@ ? 1
@ ?i@ ? −i @
A 1 B 0 C 1 D 1
1 −1 0 0

146 ◦ ◦ ◦ Eine Matrix A ∈ Rn×n hat den Eigenwert 0 genau dann, wenn det(A) = 0
gilt.

A Wahr B Falsch
? @
5 −8
147 ◦ ◦ ◦ Man betrachte die Matrix A = −1 3 . Welche Aussagen sind richtig?

A Die Eigenwerte von A sind λ1 = 1 und λ2 = 7.


B Die Eigenwerte von A sind λ1 = 1 und λ2 = −7.
=2>
C ist ein Eigenvektor zum Eigenwert λ = 1.
= 14 >
D −1 ist ein Eigenvektor zum Eigenwert λ = 1.

148 • ◦ ◦ Das Spektrum σ (A) einer unitären Matrix A ∈ Cn×n erfüllt ...

A σ (A) ⊂ {−1, 1} B σ (A) ⊂ {λ ∈ C | |λ| = 1}

149 • • ◦ Es sei A ∈ R2×2 eine Spiegelung. Welche Aussagen sind richtig?

A det(A) = −1 C pA (x) = x2 − 1
B A hat die Eigenwerte 1 und −1

150 • • ◦ Es sei V der Vektorraum mit Basis B = {sin(x), cos(x)}. Welche Aussagen
df
über die lineare Abbildung F : V → V , f → dx sind richtig?
=0 1>
A MB
B (F) = 10 C eix ist ein Eigenvektor von F zum
B e−ix ist kein Eigenvektor von F Eigenwert i
D F ist ein Isomorphismus
574 Kapitel 10 • Prüfungstrainer

10.2 Musterprüfung 1

Schwierigkeitsgrad: • ◦ ◦ ◦ Zeit: 120 Minuten

Aufgabe Punktezahl Erreicht


1 24
2 15
3 10
4 10
5 10
6 10
7 16
8 25
Total 120

Aufgabe 1 (24 Punkte)


=1 1 1> ?0 1 0 1@
a) Gegeben sind die Matrizen A = 121 und B = 1 1 0 1 . Bestimmen Sie C =
1110
AB. Was ist der Wert des Eintrags c23 in der Matrix C?

A 0 B 1 C 2 D 3 E -1

b) Die (n × n)-Matrizen A, B erfüllen die Bedingung AB = 2E. Man berechne B−1 .

A B−1 = A B B−1 = 2A C B−1 = 12 A D B−1 = 2E


?1@ ? 0
@ ?1@
c) Die Vektoren 0 , 1 , 1 bilden eine Basis von R3 .
1 −1 0

A Wahr B Falsch
R? 1 @ ? 0
@ ? 1 @S
d) Die Dimension des Unterraumes U = 0 , 1 , 1 ist
1 −1 0

A 1 B 2 C 3 D Keiner davon
10.2 • Musterprüfung 1
575 10
e) Die (n × n)-Matrix A erfüllt det(A) = 5. Welche Aussagen sind korrekt?

A A ist singulär C Rang(A) < n


−1
B Die Inverse A existiert D Ker(A) = {0}

f) F : Rm → Rn ist genau dann linear, wenn eine (n × m)-Matrix A existiert mit


F(x) = Ax.

A Wahr B Falsch

g) Es sei F : R5 → R4 linear mit der Darstellungsmatrix A. Welche Aussagen sind


korrekt?

A A ∈ R5×4 B A ∈ R4×5 C Rang(A) ≤ 4

h) Es sei A ∈ R4×4 mit charakteristischem Polynom pA (λ) = (λ − 3)(λ + 2)3 . Welche


Aussagen sind korrekt?

A λ = 3 ist ein Eigenwert von A C λ = 2 ist ein Eigenwert von AT


B Der Eigenwert −2 hat algebra- D Alle Eigenwerte von A sind reell
ische Vielfachheit 3

Aufgabe 2 (15 Punkte)

a) Man betrachte die folgenden Matrizen


⎡ ⎤
K L α 0
0 12 ⎣
A= , B= 1 α⎦ .
−1 α 2
2 1

Für welche α ∈ R ist Spur(AAT ) = Spur(BBT )? (5 Punkte)


b) Es seien A, B ∈ Rn×n invertierbar. Die Matrix A sei symmetrisch. Man berechne
G HT
BBT AB−1 (BA)−1 BAT . (5 Punkte)
c) Es seien A, B ∈ Rn×n invertierbar. Man zeige, dass C = A−1 BBT (A−1 )T
symmetrisch ist. (5 Punkte)

Aufgabe 3 (10 Punkte)


?1@ ?1@ K k
L
a) Für welche k ∈ R sind die Vektoren v1 = 1 , v2 = k , v3 = − 54 linear
0 5 k
unabhängig? (5 Punkte) ? @
0 1 0
b) Man berechne die Eigenwerte von A = −6 −5 0 . (5 Punkte)
8 15 2
576 Kapitel 10 • Prüfungstrainer

Aufgabe 4 (10 Punkte)

Gegeben sei das lineare Gleichungssystem Ax = b mit


⎡ ⎤ ⎡ ⎤
111 3
A = ⎣0 1 a⎦ , b = ⎣2 ⎦ , a ∈ R.
2a5 0

a) Für welche a ∈ R hat das lineare Gleichungssystem genau eine Lösung? (3 Punkte)
b) Für welche a ∈ R hat das lineare Gleichungssystem keine Lösung? (3 Punkte)
c) Für welche a ∈ R hat das lineare Gleichungssystem unendlich viele Lösungen?
Was ist die Dimension der Lösungsmenge in diesem Fall? Man gebe eine geome-
trische Interpretation der Lösungsmenge. (4 Punkte)

Aufgabe 5 (10 Punkte)


K L
1k 0
Gegeben sei die Matrix A = 0 1 k−4 mit k ∈ R.
2k 0
a) Für welche k ∈ R ist A invertierbar? (5 Punkte).
b) Bestimme für die im Punkt (a) gefundenen Werte von k die Inverse von A. (5
Punkte)

Aufgabe 6 (10 Punkte)

Es sei U = {x ∈ R4 | x1 + 2x4 = 0, 3x1 + x2 = 0}.


a) Man verifiziere, dass U ein Unterraum von R4 ist. (4 Punkte)
b) Man bestimme eine Basis von U. (5 Punkte)
c) Man bestimme dim(U). (1 Punkt)

Aufgabe 7 (16 Punkte)

Man betrachte die folgende lineare Abbildung


⎡ ⎤ ⎡ ⎤
x1 x1 + x2 + 2x3 + x4
⎢x2 ⎥ ⎢ x1 + 2x2 + 4x3 + x4 ⎥
F : R4 → R4 , ⎢ ⎥ ⎢ ⎥
⎣x3 ⎦ → ⎣ 2x1 + 2x2 + 4x3 + 3x4 ⎦
x4 −x1 − 2x2 − 4x3 + 2x4

a) Man bestimme die Darstellungsmatrix von F in der Standardbasis von R4 . (2


Punkte)
b) Man bestimme eine Basis von Ker(F). (5 Punkte)
c) Man bestimme eine Basis von Im(F). (5 Punkte)
d) Ist F injektiv, surjektiv, bijketiv? (2 Punkte)
e) Man verifiziere die Dimensionsformel für F. (2 Punkte)
10.3 • Musterprüfung 2
577 10
Aufgabe 8 (25 Punkte)
?0 3 0@
Man betrachte die Matrix A = 120 .
054
a) Man beweise, dass λ = 4 ein Eigenwert von A ist. (4 Punkte)
b) Man bestimme den Eigenraum
? @ zum Eigenwert λ = 4. (4 Punkte)
3
c) Man zeige, dass v = −1 ein Eigenvektor von A ist. Wie lautet der zugehörige
1
Eigenvektor??(4 @Punkte ? @
0 3
d) Es seien u = 0 und v = −1 . Man berechne uT A100 v. (3 Punkte)
1 1
e) Wie lauten die weiteren Eigenwerte von A? (3 Punkte)
; <T
f) Man bestimme alle Eigenwerte von An + 2E . (4 Punkte)
g) Ist A invertierbar? Man bestimme alle Eigenwerte von A−1 . (3 Punkte)

10.3 Musterprüfung 2

Schwierigkeitsgrad: • • ◦ ◦ Zeit: 180 Minuten

Aufgabe Punktezahl Erreicht


1 30
2 21
3 14
4 18
5 21
6 28
7 28
Total 160

Aufgabe 1 Multiple-Choice (30 Punkte)

a) Es seien e1 , e2 , e3 die Standardbasisvektoren von R3 . Berechnen Sie


det[3e2 , −e3 , 2e1 ].

A 1 B 0 C 6 D -6

b) Es sei S eine linear unabhängige Menge von Vektoren in R7 . Welche Aussagen


sind korrekt?

A T ⊂ S ist linear unabhängig C S enthält mehr als 7 Vektoren


B T ⊂ S ist linear abhängig D S enthält ≤ 7 Vektoren
578 Kapitel 10 • Prüfungstrainer

c) Die Matrix A ∈ R4×4 hat die Eigenwerte 1, 2, 3, 4. Welche Aussagen sind korrekt?

A A ist regulär
B Rang(A) = 4
C Spur(A) = 10
D Die Diagonaleinträge von A sind alle ≥ 5
?1 1 1@
d) Die Inverse von A = 0 1 1 ist ...
001
?1 1 0@ K L K L
1 −1 0 1 −1 −1
A A−1 = 011 B A −1
= 0 1 −1 C A −1
= 0 1 −1
001 0 0 1 0 0 1

K1 2 3 2L
e) Es sei A = 1012 . Man gebe eine Matrix P an, welche durch PA die zweite
1121
0231
Zeile mit der dritten Zeile von A verstauscht.
K1 0 0 0L K0 1 0 0L
A P= 0010 B P= 1000
0100 0010
0001 0001

f) Es seien U1 = {x ∈ R3 | 2x1 − (1 − x2 ) + 2(3 + 2x3 ) = 0} ⊂ R3 und U2 = {x ∈


R5 | x1 + x3 = 0, x3 = x5 } ⊂ R5 . Welche Aussagen sind korrekt?

A U1 ist ein Unterraum C U2 ist ein Unterraum


B U1 ist kein Unterraum D U2 ist kein Unterraum

g) Es sei A ∈ R7×7 regulär. Welche Aussagen sind korrekt?

A 0 ist kein Eigenwert C Rang(A) = 7


B Das Gleichungssystem Ax = 0 D Die Spalten von A sind linear abhän-
hat eine nichttriviale Lösung gig

h) Es sei F : R2 → R2 gegeben durch F(x1 , x2 ) = [x1 + x2 , x1 − x2 ]T . Welche


Aussagen sind korrekt?

A F ist linear
= 1 1
>
B Die Darstellungsmatrix von F bezüglich der Standardbasis is −1 1
C F ist nichtlinear
=1 1
>
D Die Darstellungsmatrix von F bezüglich der Standardbasis is 1 −1
10.3 • Musterprüfung 2
579 10
i) Es sei F : R3 → R3 gegeben durch F(x1 , x2 , x3 ) = [0, x2 , x3 ]T . Welche Aussagen
sind korrekt?
A F beschreibt die Spiegelung an der x2 x3 -Ebene
B F hat den Eigenwert 0
C F beschreibt die Projektion auf die x2 x3 -Ebene
D Die Darstellungsmatrix von F ist invertierbar
j) Es sei v ∈ Rn ein Eigenvektor von A ∈ Rn×n zum Eigenwert λ ∈ R. Welche
Aussagen sind korrekt?

A −v ist ein Eigenvektor zum Eigenwert λ


B −v ist ein Eigenvektor zum Eigenwert −λ

Aufgabe 2 Wahr oder falsch? (21 Punkte)

Jede Aussage (a)–(g) ist entweder wahr oder falsch. Machen Sie ein Kreuzchen in die
richtige Spalte.
Wahr Falsch
K √
3 1
L
a) 2 √2
beschreibt eine Drehung im R2 .
− 12 23

b) Es gibt unendlich viele lineare Abbildungen F : R2 → R2 mit F(1, 1) = [1, 1]T


und F(0, 2) = [2, 3]T .

c) Die lineare Abbildung F : R4 → R3 erfüllt dim(Ker(F)) = 1. Somit ist F


surjektiv.

d) Die Polynome {x − 1, x3 + x2 , x3 } erzeugen P3 (R).

e) Es gibt keine lineare Abbildung F : R2 → R2 welche F(1, 0) = [1, 1]T ,


F(0, 1) = [1, 2]T und F(1, 1) = [2, 2]T erfüllt.
K L
2 −2 −2
f) Die Determinante von 1 1 0 ist -14
−3 4 0

?1@ ?1@
g) Die Vektoren 5 , 3 sind linear abhängig.
7 4

Aufgabe 3 (14 Punkte)

Sei A die Matrix


⎡ ⎤
2 2 2
A = ⎣ 1 1 0 ⎦.
−1 −2 −2
580 Kapitel 10 • Prüfungstrainer

a) Bestimmen Sie die LR-Zerlegung PA = LR der Matrix A. (7 Punkte)


K L
2
b) Lösen Sie das lineare Gleichungssystem Ax = b, wobei b = −2 mit der LR-
−1
Zerlegung. (7 Punkte)

Aufgabe 4 (18 Punkte)

a) Finden Sie alle x ∈ R, welche die Gleichung


⎡ ⎤
(a1 − x) a2 a3 a4
⎢ 0 −x 0 0 ⎥
det ⎢
⎣ 0
⎥=0
1 −x 0 ⎦
0 0 1 −x

erfüllen. (6 Punkte)
b) Es sei A die Matrix
⎡ ⎤
k −k 0 −1
A = ⎣1 −2 1 0 ⎦
0 1 k 1

Bestimmen Sie den Rang von A in Abhängigkeit des Parameters k ∈ R. Für welche
k ∈ R ist die Lösungsmenge des homogenen linearen Gleichungssystem Ax = 0
eine Gerade? (6 Punkte)

Es sei nun
⎡ ⎤
a b 0 1
⎢−b a −1 0 ⎥
A=⎢ ⎥
⎣ 0 1 a −b⎦ , a, b ∈ R.
−1 0 b a

c) Berechnen Sie det(A) und bestimmen Sie alle a, b ∈ R für welche A invertierbar
ist. (6 Punkte)

Aufgabe 5 (21 Punkte)

a) Es sei A ∈ R2×2 mit det(A) = 4 und Spur(A) = 5. Wie lauten die Eigenwerte von
2A + AT + 4A−1 ? (5 Punkte)
?α@
Es sei nun α = γβ ∈ R3 und F : R3 → R3 gegeben durch F(v) = α × v, wobei ×
das Kreuzprodukt von Vektoren ist.
b) Zeigen Sie, dass F linear ist. (5 Punkte)
10.3 • Musterprüfung 2
581 10
c) Zeigen Sie, dass die Darstellungsmatrix von F in der Standardbasis durch
⎡ ⎤
0 −γ β
A = ⎣ γ 0 −α ⎦
−β α 0

gegeben ist. (5 Punkte)


d) Für welche a ∈ R3 hat die Darstellungsmatrix A nur reelle Eigenwerte? (6 Punkte)

Aufgabe 6 (28 Punkte)

Es seien V = R3 , U = ⟨u1 , u2 , u3 ⟩ und W = ⟨w1 , w2 , w3 ⟩, wobei


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 1 1 2
u1 = ⎣2⎦ , u2 = ⎣ 1 ⎦ , u3 = ⎣1⎦ , w1 = ⎣ 1 ⎦ , w2 = ⎣2⎦ , w3 = ⎣ 3 ⎦ .
1 −1 3 −3 2 −1

a) Bestimmen Sie eine Basis und die Dimension von U bzw. W . (5 Punkte)
b) Bestimmen Sie eine Basis von U ∩ W . Was ist dim(U ∩ W )? (5 Punkte)

Es sei nun V = P2 (R) der Vektorraum der reellen Polynome vom Grad ≤ 2.
c) Zeigen Sie, dass B = {1+x, 1+2x+x2 , x−x2 } eine Basis von P2 (R) ist. (5 Punkte)
d) Bestimmen Sie die Matrixdarstellung des Basiswechsels von der Standardbasis
E = {1, x, x2 } nach der Basis B . Bestimmen Sie damit die Koordinaten von
p(x) = x2 −Ex + 2 bezüglich
+ der Basis B . (8 Punkte)
F
+ O1
e) Es sei U = p ∈ P2 (R) + p(0) = 0, 0 p(x)dx = 0 . Bestimmen Sie eine Basis von
U. Was ist dim(U)? (5 Punkte)

Aufgabe 7 (28 Punkte)

Es sei V = R2×2 der Vektorraum der reellen (2 × 2)-Matrizen. Man betrachte die
folgende lineareM=Abbildung
> = 0 1 > F=:0V0 >→= 0V0 definiert
>N durch F(A) = 2A − AT .
1 0
a) Es sei E = 0 0 , 0 0 , 1 0 , 0 1 die Standardbasis von V . Bestimmen Sie
die Darstellungsmatrix von F bezüglich E . (5 Punkte)
b) Bestimmen Sie Ker(F). Ist F injektiv? (4 Punkte)
c) Bestimmen Sie Im(F). Ist F surjektiv? (4 Punkte)
d) Es sei nun U = {A ∈ R2×2 | Spur(A) = 0} die Teilmenge der Spurlosen (2 × 2)-
Matrizen. Zeigen Sie, dass U ein Unterraum von V ist. (5 Punkte)
e) Finden Sie eine Basis von U. Was ist die Dimension von U? (5 Punkte)
f) Bestimmen Sie die Darstellungsmatrix der Einschränkung von F auf U.
(5 Punkte)
582 Kapitel 10 • Prüfungstrainer

10.4 Musterprüfung 3

Schwierigkeitsgrad: • • • ◦ Zeit: 180 Minuten

Aufgabe Punktezahl Erreicht


1 30
2 20
3 15
4 15
5 15
6 15
7 20
Total 130

Aufgabe 1 (30 Punkte)


⎡⋆ ⋆ ··· ⋆ 2

⋆ ⋆ ··· 2 0
⎢ ⎥
a) Es sei n ∈ N gerade und A = ⎣ ... ... . . . ... ... ⎦ ∈ Rn×n . Man berechne det(A).
⋆ 2 ··· 0 0
2 0 ··· 0 0
n n
A 22 B 2n C (−1)n 2n D (−1) 2 2n
?2 1 1@
b) Es sei A = 1 2 1 . Welche Aussagen sind richtig?
112

A A hat den Eigenwert 1. C [1, 1, 1]T ist ein Eigenvektor von A.


B A hat den Eigenwert 4. D A ist invertierbar.
10 0 1 0 02
1 0 0 0 0
c) Die Inverse von A = 0 1 0 0 0 ist ...
0 0 0 0 1
0 0 0 1 0

⎡ ⎤ 10 1 0 0 02
0 0 −1 0 0
−1 0 0 0 0 0 0 1 0 0 C A ist nichtinvertierbar
A ⎣ 0 1 0 0 0⎦ B 1 0 0 0 0
0 0 0 −1 0 0 0 0 0 1
0 0 0 0 1 0 0 0 1 0

d) Es seien A, B ∈ Rn×n . Welche Ausdrücke sind äquivalent zu (A + B)2 ?

A A(A + B) + B(A + B) C A2 + AB + BA + B2
B A2 + 2AB + B2 D (B + A)2
10.4 • Musterprüfung 3
583 10
?2 1@
e) Zu welcher linearen Abbildung gehört die Darstellungsmatrix A = 10
02
bezüglich der Standardbasis ?

A F : R2 → R3 , [x, y]T → [2x + y, x, 2y]T


B F : R3 → R2 , [x, y, z]T → [2x + y, x + 2z]T

f) 0 ist die einzige Matrix in R2×2 welche A2 = 0 erfüllt.

A Wahr B Falsch

g) Für welche Werte von k ∈ R besitzt das folgende homogene lineare Gleichungs-
system


⎨kx1 + x2 = 0

−x + kx2 − 2x3 = 0
⎪ 1

⎩x + x = 0
1 3

eine nichttriviale Lösung?

A k=0 B k=1 C k = ±1 D k=2 E k = ±2

h) Man berechne dieK Dimension


L des Bildes der linearen Abbildung mit Darstel-
1222
2 1 1
lungsmatrix A = 0 2 2 1 1
1001

A 0 B 1 C 2 D 3

i) Welche der folgenden Tupeln von Vektoren in R4 sind linear abhängig?


K0L K1L K1L K1L K1L K0L K 0 L K1L
A 0 , 0 , 1 , 2 C 1 , 0 , 1 , 00
0 0 1 3 1 1 0
K 01 L K0 0 L 0 K 0 L 1 K 1 L 1 −1
K 1 L K 0 L K 0 L K 1 L1
1

B 0 1 , 11 , 00 1 , 0 , 1 , 0
0 , −1 D 1 1 0 0
−1 0 0 1 1 1 1 1

j) Es sei Pn (R) der Vektorraum der reellen Polynome vom Grad ≤ n. Welche der
folgenden Teilmengen sind Unterräume von Pn (R)?

A {p(x) ∈ Pn (R) | p(0) = 1} C {p(x) ∈ Pn (R) | p′′ (x) = p′ (x)}


O1
B {p(x) ∈ Pn (R) | p(1) = 0} D {p(x) ∈ Pn (R) | 0 p(x)dx = 2}

k) Es sei P2 (R) versehen mit der geordneten Basis B = {(x + 1)2 , x2 − 1, (x − 1)2 }.
Wie lauten die Koordinaten von p(x) = 4x bezüglich der Basis B ?
584 Kapitel 10 • Prüfungstrainer

?1@ ? 1
@ ?1@ ? 0
@
A 0 B 0 C 1 D −1
1 −1 0 1

l) Welche Aussage über beliebige Matrizen A ∈ Kn×n ist korrekt?

A Die Anzahl der Eigenwerte von A ist genau n.


B Die Anzahl der Eigenwerte von A ist gleich Rang(A).
C Ist K = C, so hat A genau n Eigenwerte.
D Ist A eine komplexe Diagonalmatrix, so ist jeder Vektor in Cn ein Eigenvektor.

m) Es seien U1 , U2 ⊂ R50 mit dim(U1 ) = 30 und dim(U2 ) = 40. Dann kann dim(U1 ∩
U2 ) = 10 sein.

A Wahr B Falsch

n) Die Eigenwerte einer orthogonalen Projektion sind ...

A 0, 1 B −1, 1 C 0, −1

o) Die Menge {e−ix , 1, eix } ist linear unabhängig.

A Wahr B Falsch

Aufgabe 2 (20 Punkte)

a) Es seien A ∈ R7×1 und B ∈ R1×7 . Berechnen Sie det(AB). (5 Punkte)


b) Es sei
⎡ ⎤
1 bc a(b + c)
A = ⎣1 ac b(a + c)⎦ ∈ R3×3 , a, b, c ∈ R.
1 ab c(a + b)

Für welche a, b, c ∈ R ist A invertierbar? (5 Punkte)


c) Es sei
⎡ ⎤
a000 0 b
⎢0 a 0 0 b 0⎥
⎢ ⎥
⎢ ⎥
⎢0 0 a b 0 0⎥
A=⎢ ⎥ ∈ R6×6 , a, b, c, d ∈ R.
⎢0 0 c d 0 0⎥
⎢ ⎥
⎣0 c 0 0 d 0⎦
c000 0 d

Berechnen Sie det(A). (5 Punkte)


10.4 • Musterprüfung 3
585 10
d) Es sei
⎡ ⎤
0 1 1 ··· 1 1
⎢1 0 1 · · · 1 1⎥
⎢ ⎥
⎢ ⎥
⎢1 1 0 · · · 1 1⎥ n×n
A = ⎢. . . . . .⎥

⎥∈R .
⎢ .. .. .. . . .. .. ⎥
⎢ ⎥
⎣1 1 1 · · · 0 1⎦
1 1 1 ··· 1 0
G H
Zeigen Sie, dass det A − (n − 1)A−1 = (n − 2)n gilt. Hinweis: Finden Sie eine
Formel für A2 . (5 Punkte)

Aufgabe 3 (15 Punkte)

Betrachten Sie die Matrix


⎡ ⎤
111
A = ⎣2 4 6⎦ .
123

a) Bestimmen Sie alle Lösungen x ∈ R3 des linearen Gleichungssystems Ax = 0 (5


Punkte).
b) Bestimmen Sie alle Matrizen X ∈ R3×3 mit AX = 0 (5 Punkte).

Betrachten Sie nun das folgende lineare Gleichungssystem

j
T n
T
xi = 1 + xi , j = 1, · · · , n − 1
i=1 i=j+1
n
T
xi = 1.
i=1

c) Bestimmen Sie die Lösungsmenge. (5 Punkte).

Aufgabe 4 (15 Punkte)

Gegeben sind die folgenden Vektoren von R3 und R4


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 1 1 0
1 2 1 ⎢0⎥ ⎢1⎥ ⎢2⎥
v1 = ⎣1⎦ , v2 = ⎣1⎦ , v3 = ⎣1 − 2t⎦ , w1 = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣2⎦ , w2 = ⎣0⎦ , w3 = ⎣1⎦ .
0 2 t
1 3 1
586 Kapitel 10 • Prüfungstrainer

a) Bestimmen Sie die Dimension von U = ⟨v1 , v2 , v3 ⟩ in Abhängigkeit von t ∈ R (5


Punkte).
b) Für welche t ∈ R gibt es (i) keine, (ii) genau eine, (iii) mehr als eine lineare
Abbildung F : R3 → R4 mit F(vi ) = wi für i = 1, 2, 3? (5 Punkte)
c) Sei nun t = 1 und F : R3 → R4 die lineare Abbildung mit F(vi ) = wi für i =
1, 2, 3. Bestimmen Sie die Darstellungsmatrix von F bezüglich der Standardbasen
von R3 und R4 . (5 Punkte)

Aufgabe 5 (15 Punkte)

Betrachten Sie die folgende lineare Abbildung


⎡ ⎤ ⎡ ⎤
x1 2x1 − x2 − x3
F : R3 → R3 , ⎣x2 ⎦ → ⎣ x1 − x3 ⎦ .
x3 x1 − x2

a) Zeigen Sie: Für alle x ∈ R3 ist F(F(x)) = F(x), d. h. F ist idempotent (5 Punkte).
b) Bestimmen Sie eine Basis von Ker(F) und Bild(F). (5 Punkte)
c) Beweisen Sie: R3 = Ker(F) ⊕ Bild(F). (5 Punkte)

Aufgabe 6 (15 Punkte)

Die lineare Abbildung F : R2×2 → R3 hat die Darstellungsmatrix


⎡ ⎤
1 0 −1 0
B
M B21 (F) = ⎣0 2 3 1⎦
32 0 2

bezüglich der folgenden Basen von R2×2 bzw. R3


⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫
UK L K L K L K LV ⎨ 0 −1 1 ⎬
10 11 11 11
B1 = , , , , B2 = ⎣ 1 ⎦ , ⎣ 0 ⎦ , ⎣2⎦ .
00 00 10 11 ⎩ ⎭
−2 2 0
= >
a) Stellen Sie die Matrix A = ac db als Linearkombination der Basiselemente aus B1
dar. (5 Punkte)
b) Bestimmen Sie die Darstellungsmatrix von F bezüglich der Standardbasis.
(5 Punkte)
c) Ist F surjektiv? (5 Punkte)
10.5 • Musterprüfung 4
587 10
Aufgabe 7 (20 Punkte)

Sei Pn (R) der Vektorraum der reellen Polynome vom Grad ≤ n. Betrachten Sie die
lineare Abbildung

d2 G H
F : Pn (R) → Pn (R), p(x) → 2
(x + 1)2 p(x) .
dx

a) Bestimmen Sie die Darstellungsmatrix von F bezüglich der Standardbasis


{1, x, · · · , xn } von Pn (R). (5 Punkte)
b) Bestimmen Sie das Spektrum von F. (5 Punkte)
c) Zeigen Sie, dass die Polynome qk (x) = (x + 1)k mit k = 0, 1, · · · , n Eigenvektoren
von F sind. (5 Punkte)
d) Es sei k ∈ {0, 1, · · · , n}. Bestimmen Sie alle Lösungen der Differenzialgleichung

(x + 1)2 y′′ (x) + 4(x + 1)y′ (x) = [(k + 1)(k + 2) − 2]y(x),

welche in Pn (R) liegen. (5 Punkte)


Hinweis: Schreiben Sie die Differenzialgleichung mithilfe von F um.

10.5 Musterprüfung 4

Schwierigkeitsgrad: • • • • Zeit: 240 Minuten

Aufgabe Punktezahl Erreicht


1 42
2 22
3 15
4 28
5 23
6 25
7 15
Total 170

Aufgabe 1 (42 Punkte)


G H
a) Es seien A, B ∈ Km×n mit m > n. Dann ist det ABT ̸= 0.

A Wahr B Falsch

=1 1>
b) Es sei A = 11 ∈ K2×2 . Im Folgenden sei K = R. Welche Aussagen sind
korrekt?
588 Kapitel 10 • Prüfungstrainer

A A ist symmetrisch B A ist schiefsymmetrisch

Es sei nun K = Z2 . Welche Aussagen sind korrekt?

A A ist symmetrisch B A ist schiefsymmetrisch


=2 3>
c) Es sei A = 24 . Was stimmt?

A A ist invertierbar über R


B A ist invertierbar über Q
C A ist invertierbar über Z2

d) Wie viele Elemente enthält der Vektorraum (Z3 )2 ?

A 1 B 3 C 6 D 9 E ∞
M= 0 > = 1 >N
e) U = 0 , 0 ist ein Unterraum von (Z3 )2 .

A Wahr B Falsch

f) Welche der folgenden Teilmengen U ⊂ V sind Unterräume?


?0@
A V = R3 , U = {x = t , t ∈ R}
? 2t
t
@
B V = R3 , U = {x = s , t, s ∈ R, t < s}
K0 L
t
3
C V = R , U = {x = t2 , t ∈ R}
t3
2×2
= >
D V = R , U = {A = a0 bc }
= >
E V = R2×2 , U = {A = ac db , a = d, a + c = 0}
= >
F V = R2×2 , U = {A = a1 bc }

g) Welche der folgenden Mengen von Vektoren aus R4 sind linear unabhängig?
UK 1 L K 1 L K 0 L K 0 LV UK 1 L K 1 L K 0 L K 0 LV
A 0 , 1 , 0 , 1 C 0 , 0 1
, −1 , 11
0 1 1 0 0 0
UK 11 L K 11 L K 10 L K −1
0 LV
1 −1 0 0

B 0 , 1 , 0 , 0
0 1 1 0
1 1 1 0

h) Es sei V ein endlich dimensionaler Vektorraum über K und S ⊂ V . Welche


Aussagen sind Korrekt?

A Sei S linear unabhängig und T ⊂ S. Dann ist T linear unabhängig.


B Sei S linear abhängig und T ⊂ S. Dann ist T linear abhängig.
C Sei T ⊂ V mit ⟨T⟩ ⊂ ⟨S⟩. Dann ist |T| ≤ |S|.
10.5 • Musterprüfung 4
589 10
i) Welche der folgenden Abbildungen sind linear?

A F : R → R, x → x + 1
B F : R2 → R3 , [x, y]T → [0, x + y, x − y]T
C F : R2 → R3 , [x, y]T → [2, x + y, x − y]T
D F : R3 → P3 (R), [a, b, c]T → ax + bx2 + cx3
j) Es seien A, B ∈ Rn×n mit AB = E. Welche Aussagen sind korrekt?

A BA = E C B ist invertierbar
B A ist invertierbar D Keine der Aussagen ist richtig

k) Es seien nun A ∈ Rm×n und B ∈ Rn×m mit AB = E. Welche Aussagen sind


korrekt?

A BA = E C B ist invertierbar
B A ist invertierbar D Keine der Aussagen ist richtig

l) Es sei F : R2 → R2 eine lineare Abbildung mit Darstellungsmatrix A. Welche


Aussagen sind korrekt?

=0 0>
A dim(Ker(F)) = 2 − Rang(A) C dim(Ker(F)) = 2 ⇔ A = 00
B dim(Ker(F)) = 2 − det(A) D dim(Ker(F)) = 1 ⇒ det(A) = 1

m) Es sei V ein endlich dimensionaler Vektorraum über K und F ∈ End(V ). Es seien


v1 und v2 verschiedene Eigenvektoren von A. Dann ist v1 + v2 ein Eigenvektor
von A.

A Wahr B Falsch

n) Ein lineares Gleichungssystem mit mehr Unbekannten als Gleichungen hat


mindestens eine Lösung.

A Wahr B Falsch

o) Man betrachte den Vektorraum P2 (R) mit den geordneten Basen B1 = {1, x, x2 }
und B2 = {x2 , (x + 1)2 , (x + 2)2 }. Die Transformationsmatrix von B1 nach B2 ist
...
?0 1 4@ K L
2 −3 4
A T B1 →B2 = 0 2 4 C T B1 →B2 = 1
−4 4 0
? 10 1 1@ 4
0 1 K 2 −1 0L
B T B1 →B2 = 1 2 1 1 2 −3 4
4 4 1 D T B1 →B2 = 4 −1 1 0
1 −4 0
590 Kapitel 10 • Prüfungstrainer

?1 1 4@ ?0 1 1@
p) Die Matrizen 124 und 110 sind ähnlich.
120 101

A Wahr B Falsch
?1 1 1
@
q) Welche der folgenden Matrizen sind äquivalent zu 1 −1 −1 ?
0 1 1
?1 1 1@ ?1 0 0@ ?1 1 1
@
A 111 B 010 C 2 0 −1
111 000 31 0

r) Es seien V ein Vektorraum und W ⊂ V ein Unterraum. Dann ist ⟨W ⟩ = W .

A Wahr B Falsch

s) Die Menge GL(n, K) der invertierbaren Matrizen A ∈ Kn×n ist ein Unterraum
von Kn×n .

A Wahr B Falsch

t) Es sei V ein endlich dimensionaler Vektorraum und U1 , U2 , W Unterräume. Es


sei U1 ⊕ W = U2 ⊕ W . Dann ist U1 = U2 .

A Wahr B Falsch

u) Die Vektorräume P5 (R) und R2×3 sind isomorph.

A Wahr B Falsch

v) Es sei F ∈ End(V ). Dann ist dim(Ker(F 2 )) ≥ dim(Ker(F)).

A Wahr B Falsch

Aufgabe 2 (22 Punkte)

a) Geben Sie die Definition der Determinante einer Matrix A ∈ Kn×n mittels
Leibniz-Formel. Kommen die Produkte a13 a24 a53 a41 a35 und a21 a13 a34 a55 a42 in
der Definitionsformel vor, wenn A ∈ K5×5 ? (3 Punkte)
b) Es sei
⎡ ⎤
a11 0 ··· 0
⎢ 0 a22 ··· 0 ⎥
⎢ ⎥
A=⎢ . .. .. .. ⎥ ∈ Kn×n
⎣ .. . . . ⎦
0 0 · · · ann
10.5 • Musterprüfung 4
591 10
eine Diagonalmatrix. Zeigen Sie mithilfe der Leibniz-Formel, dass det(A) =
a11 a22 · · · ann gilt. (5 Punkte)
c) Es sei x = [x1 , · · · , xn−1 ]T ∈ Rn−1 . Wir definieren die Matrix An ∈ Rn×n wie folgt
⎡ ⎤
0 x1 x2 · · · xn−1
⎢ x1 1 0 · · · 0 ⎥
⎢ ⎥
⎢ ⎥
An = ⎢ x2 0 1 · · · 0 ⎥ .
⎢ . . . . . ⎥
⎣ .. .. .. . . .. ⎦
xn−1 0 0 · · · 1

Zeigen Sie, dass det(An ) = −||x||2 . (5 Punkte)


d) Es sei n ∈ N ungerade und A ∈ Rn×n schiefsymmetrisch. Zeigen Sie, dass det(A) =
0 gilt. (4 Punkte)
e) Es sei K = Zp . Zeigen Sie, dass
⎡ ⎤
5 4 4 ··· 4
⎢4 5 4 · · · 4⎥
⎢ ⎥
⎢ ⎥
A = ⎢4 4 5 · · · 4⎥
⎢. . . . .⎥
⎣ .. .. .. . . .. ⎦
4 4 4 ··· 5

genau dann singulär ist, wenn 4n + 1 durch p teilbar ist. (5 Punkte)

Aufgabe 3 (15 Punkte)

A ∈ Rn×n heißt stochastische Matrix, wenn B alle Einträge von A zwischen 0 und 1
liegen und jede Zeilensumme 1 ergibt, d. h. nj=1 aij = 1, ∀i = 1, · · · , n. Stochastische
Matrizen treten in der Wahrscheinlichkeitstheorie vor, wobei sie dort die Übergangs-
wahrscheinlichkeiten von Markow-Ketten ausdrücken.
a) Zeigen Sie, dass λ = 1 ein Eigenwert von A ist. (5 Punkte)
b) Es sei λ ein Eigenwert von A. Zeigen Sie |λ| ≤ 1. (5 Punkte)
c) Zeigen Sie, dass
⎡ ⎤
0 0 12 0 12
⎢0 0 1 0 0⎥
⎢ ⎥
⎢ 1 1⎥
A = ⎢ 14 1
4 0 4 4⎥
⎢ ⎥
⎣0 0 12 0 12 ⎦
0 0 0 0 1

eine stochastische Matrix ist. Bestimmen Sie alle Eigenwerte von A und verifizie-
ren Sie die Aussage aus Teilaufgabe (b). (5 Punkte)
592 Kapitel 10 • Prüfungstrainer

Aufgabe 4 (28 Punkte)

Es sei A ∈ Kn×n idempotent, d. h. A2 = A.


a) Zeigen Sie, dass A nur die Eigenwerte λ = 0 und λ = 1 hat. (5 Punkte)
b) Es sei b ∈ Kn \ {0}. Zeigen Sie: Das lineare Gleichungssystem Ax = b hat genau
dann eine Lösung, wenn b ein Eigenvektor zum Eigenwert λ = 1 ist. (5 Punkte)
c) Es sei Ax = b wie in (b). Zeigen Sie: Die Lösungsmenge von Ax = b ist

L = b + Eig0 (A),

wobei Eig0 (A) den Eigenraum zum Eigenwert λ = 0 bezeichnet. (5 Punkte)


d) Es sei nun K
K = R. Bestimmen
L Sie die Lösungsmenge des Gleichungssystems Ax =
2 −2 −4 ? 0 @
b für A = −1 3 4 und A = 2 . (5 Punkte)
1 −2 −3 −1
e) Zeigen Sie: Kn = Ker(A) ⊕ Im(A). (5 Punkte)
f) Ist die Aussage Kn = Ker(A) ⊕ Im(A) für allgemeine Matrizen A ∈ Kn×n richtig?
(3 Punkte)

Aufgabe 5 (23 Punkte)

Es sei V ein endlich dimensionaler Vektorraum über den Körper K und seien U1 und
U2 Unterräume von V .
a) Es sei V = U1 ⊕ U2 . Zeigen Sie: Jeder Vektor v ∈ V besitzt eine eindeutige
Zerlegung v = u1 + u2 mit u1 ∈ U1 und u2 ∈ U2 . (5 Punkte)
b) Es sei dim(U1 ) + dim(U2 ) = dim(V ). Zeigen Sie, dass die folgenden Aussagen
äquivalent sind. (5 Punkte):
(i) U1 + U2 = V
(ii) U1 ∩ U2 = {0}

3 3
Es seien @ ?V @=?R @S, U1 = {x ∈ R | x1 + x2 = 3 − k, (k − 1)x1 = (2 − k)x3 } und
R? nun
1 1 1
U2 = 0 , 2 , 1 .
1 1 1
c) Für welche k ∈ R ist U1 ein Unterraum? Man bestimme die Dimension und eine
Basis von U1 . (5 Punkte)
d) Man bestimme die Dimension und eine Basis von U2 . (3 Punkte)
e) Man zeige oder widerlege, dass R3 = U1 ⊕ U2 . (5 Punkte)

Aufgabe 6 (25 Punkte)

Es sei V = C2×2 der Vektorraum der komplexen (2 × 2)-Matrizen.


a) Zeigen Sie, dass die Menge U ⊂ V der komplexen (2×2) oberen Dreiecksmatrizen
ein Unterraum ist. (3 Punkte) = > = > = >
b) Zeigen Sie, dass die Matrizen B1 = 10 1i , B2 = 10 2i , B3 = 0i −2
i
eine Basis B
von U bilden. (5
= 1 >Punkte)
c) Es sei T = 10 −1 . Zeigen Sie, dass F : U → U, A → TAT eine wohldefinierte
lineare Abbildung ist. (5 Punkte).
10.6 • Multiple-Choice Fragen – Lösungen
593 10
d) Berechnen Sie die Darstellungsmatrix von F bezüglich der Basis in (b). (5 Punkte)
e) Bestimmen Sie alle Eigenwerte von F. (5 Punkte)
f) Zeigen Sie, dass F ein Isomorphismus ist. (2 Punkte)

Aufgabe 7 (15 Punkte)

a) Wir definieren auf Km×n eine Relation durch

A ∼ B ⇔ A und B sind äquivalent.

Zeigen Sie, dass ∼ eine Äquivalenzrelation auf Km×n definiert. (5 Punkte)


b) Es sei A ∈ Kn×n und B ∈ GL(n, K). Zeigen Sie, dass Im(AB) = Im(A). Schließen
Sie: AB und A sind äquivalent, d. h. AB ∼ A. (5 Punkte)
c) Für welche k ∈ R sind die Matrizen A und B äquivalent? (5 Punkte)
⎡ ⎤ ⎡ ⎤
k 1 2 100
A = ⎣ 1 1 1 ⎦, B = ⎣0 1 0⎦ .
−1 1 1 − k 000

10.6 Multiple-Choice Fragen – Lösungen

7 Kapitel 1

1 A B C D E F Wegen Dimensionen: A2×3 , B4×2 und C 3×2 .


2 A B C Wegen Dimensionen: An×p Bp×m C m×n = (ABC)n×n .
K L K0L
−3 2 1 1
3 A B C D [ 0 1 0 ] 0 1 0 1 = 10 .
2 −5 2 1 1
K2 1L
− = 1 1
> =1 0>
4 A B C 5
3 1
5
−3 2 = 0 1 .
5 5

5 A B C D
T
6 A B C Die Adjungierte ist A∗ = A (komplexkonjugieren und transponie-
ren).
7 A B C D A ist normal falls AT A = AAT . Für eine (2 × 2)-Matrix:

K LK L K 2 L K L K LK L
ac ab a + c2 ab + cd ! a2 + b2 ac + bd ab ac
= = =
bd cd ab + cd b2 + d 2 ac + bd c2 + d 2 cd bd

Aus a2 + c2 = a2 + b2 und b2 + d 2 = c2 + d 2 folgt b = ±c. (1) Ist b = c, so ist


ab + cd = ac + bd automatisch erfüllt. (2) Ist b = −c, so folgt (a − d)b =
= (d >− a)b,
d. h. a = d. Eine beliebige normale (2 × 2)-Matrix hat somit die Form ab db oder
= a b>
−b a .
594 Kapitel 10 • Prüfungstrainer

8 A B C Spur(A∗ ) = Spur(A) = 2 − 4i = 2 + 4i.


9 A B C [A, B] = 0 heißt AB = BA (A und B kommutieren) ⇒ (A + B)2 =
A2 + AB + BA + B2 = A2 +!2AB" + B2 .! " ! " ! "
10 A B Gegenbeispiel: A = 10 00 , B = 13 24 , C = 17 22 ⇒ AB = 10 20 = AC
aber B ̸= C. Man kann A nur dann kürzen, wenn A invertierbar ist. In diesem
Fall gilt: AB = AC ⇒ A−1 AB = A−1 AC ⇒ B = C.
# $−1
11 A B C C T AB−1 C T AB−1 = C T C −T BA−1 AB−1 = BB−1 = E.
# $T
12 A B 5A + 4AB + C = 2DAT + E = 2ADT + E T = 2ADT + E ⇒
% & % &−1
A 5E + 4B − 2DT = E − C ⇒ A = (E − C) 5E + 4B − 2DT (Inverse wird
rechts multipliziert). ' ( )
12 9 −6 000
*
T
13 A B C Auf Z3 gilt A B = −12 −9 6 = 0 0 0 .
8 6 −4 202
!a b"
14 a) A B C Eine beliebige Matrix A = c d ∈ R2×2 ist spurlos, wenn
! b "
Spur(A) = a + d = 0 ⇒ d = −a ⇒ A = ac −a .
b)
A B C D Eine beliebige Matrix A ∈ S hat 3 freie Parameter ⇒ dim(S) =
3.
15 A B C D Siehe Übung 1.20.
) *T ' # T $T ( ) * ) *
16 A B A0T A0 = 0 A = A0T A
0
⇒ 0 A
AT 0
symmetrisch.
AT 0
17 A B A, B symmetrisch (d. h. AT = A und BT B) ⇒ (ABA)T = AT BT AT =
ABA ⇒ ABA symmetrisch.
18 A B C D A ist Hermitesch falls A∗ = A. Für eine Matrix in C2×2 :


' ( ' ( ⎪
⎪y11 = y22 = 0

x11 − iy11 x21 − iy21 ! x11 + iy11 x12 + iy12
= ⇒ x12 = x21
x12 − iy12 x22 − iy22 x21 + iy21 x22 + iy22 ⎪

⎩y = −y
12 21

Aus y11 = y22 folgt, dass die Diagonaleinträge reell sind. Außerdem hat je-
de Matrix in H2 (C) genau 4 freie Parameter (frei wählbare reelle Zahlen) ⇒
dimR H2 (C) = 4.
⎡ ⎤⎡ ⎤ ⎡ ⎤
1 2 2 1 −2 2 100
19 A B C D C T C = 19 ⎣−2 −1 2⎦ ⎣2 −1 −2⎦ = ⎣0 1 0⎦ ⇒ C orthogo-
2 −2 1 2 2 1 001
nal. ⎡ √ ⎤ ⎡ ⎤
2√+ k2 2k 0 100
!
20 A B C D U ∗ U = 12 ⎣ 2k 2 0⎦ = ⎣0 1 0⎦ ⇒ k = 0.
0 0 2 001
! " )0 0 1*
21 A B C D A2 = 00 00 ⇒ A nilpotent mit Nilpotenzgrad 2. B2 = 0 0 0 ,
)0 0 0* 000
3
B = 0 0 0 ⇒ B nilpotent mit Nilpotenzgrad 3.
000
10.6 • Multiple-Choice Fragen – Lösungen
595 10
22 A B C A, B nilpotent mit Nilpotenzgrad m ⇒ Am = Bm = 0. Ist [A, B] = 0
Am 3456
(d. h. AB = BA), so gilt (AB)m = ABAB · · · AB = 3456 Bm = 0 ⇒ AB nilpotent.
=0 =0
23 A B C D A orthogonal ⇒ AT A = AAT = E. Insbesondere ist AT A =
AAT , d. h. A ist normal. A symmetrisch ⇒ AT = A. Daraus folgt AT A = AA =
AAT , d. h. A ist normal.

7 Kapitel 2

24 A B Rouché-Capelli mit m = 2, n = 4. Wegen A ∈ R2×4 hat A maximal Rang


2 ⇒ Rang(A) < 4 = n ⇒ Ax = 0 hat eine nichttriviale Lösung.
25 A B C D Rouché-Capelli mit m = 3, n = 5. Wegen Rang(A) = 3 < 5 = n
hat Ax = 0 unendlich viele Lösungen mit n − Rang(A) = 5 − 3 = 2 freien
Parametern.
26 A B C Es gilt Rang(A|b) = 3. Für α = − 12 hat A 2 Zeilen ̸= [0, 0, 0],
d. h. Rang(A) = 2. Wegen Rang(A) = 2 < 3 = Rang(A|b) besitzt das LGS keine
Lösung.
27 A B Wegen Ax = A0 = 0 ist x = 0 immer eine Lösung von Ax = 0.
28 A B Inhomogene LGS können keine Lösung besitzen.
29 A B C D Wir wenden den Gauß-Algorithmus in zwei Schritten an:

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
12 0 1 0 (Z2 ) − 2(Z1 ) 1 2 0 1 0 12 0 1 0
(Z3 ) − 3(Z1 ) (Z3 ) + (Z2 )
⎣2 5 4 4 0⎦ ! ⎣0 1 4 2 0⎦ ! ⎣0 1 4 2 0 ⎦ = Z.
3 5 −6 4 0 0 −1 −6 1 0 0 0 −2 3 0

Das LGS hat unendlich viele Lösungen mit 1 freien Parameter (L = Gerade)
7 8 ' x1 ( 9
8 x ! "
L = x ∈ R4 8 x2 = t 15 −8
8 x3
3
2 1 ,t∈R .
4

30 A B C Mit dem Gauß-Algorithmus (wichtig: wir vertauschen (Z1 ) und


(Z3 )):

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
k k k2 4 1 2 3 2k (Z2 ) − (Z1 ) 1 2 3 2k
(Z1 ) ↔ (Z3 ) (Z3 ) − k(Z2 )
⎣1 1 k k ⎦ ! ⎣1 1 k k ⎦ ! ⎣ 0 −1 k − 3 −k ⎦ = Z.
1 2 3 2k k k k2 4 0 0 0 4 − k2

Wir wenden den Satz von Rouché-Capelli an. Insbesondere ist Rang(A) =
Rang(A|b) nur wenn k ̸= ±2. Wir machen eine Fallunterscheidung:
5 k = ±2 : Rang(A) = 2 ̸= 3 = Rang(A|b) ⇒ Das LGS hat keine Lösung.
5 k ̸= ±2 : Rang(A) = 2 = Rang(A|b) ⇒ Das LGS hat unendlich viele
Lösungen mit 3 − Rang(A) = 1 freien Parameter.
596 Kapitel 10 • Prüfungstrainer

31 A B C D E F Nach dem Satz von Rouché-Capelli hat das LGS Ax = 0


unendlich viele Lösungen mit 2 Parametern (Ebene) wenn n − Rang(A) = 2
⇒ Rang(A) = dim Im(A) = n − 2. Aus der Dimensionsformel folgt dann
dim Ker(A) = n − dim Im(A) = 2. (Alternative: Die Lösungsmenge von Ax = 0 ist
Ker(A) ⇒ dim Ker(A) = 2).
! "T
32 A B C Die Ebene hat die Normale 2 −1 0 . Die implizite Gleichung ist
somit 2x1 − x2 = d mit d ∈ R. Auswerten bei (1, 2, 3): 2 − 2 = d ⇒ d = 0.
! "T
33 A B C D E1 und E2 haben die Normalenvektoren n1 = 2 1 1 und
! "T
n2 = 1 0 1 . Der Winkel zwischen n1 und n2 ist cos θ = ||n1n||1 ·n||n2 2 || = √2+1
√ =
√ 2 6
3 π
2 ⇒ θ= 6.
34 A B Wir bestimmen die Parameterdarstellung der Gerade E1 ∩ E2 :


: ⎪
x3 = 3 ⎨x1 = −2 − t

⇒ x2 = t (t ∈ R)
x1 + x2 = −2 ⎪

⎩x = 3
3

Wir zeigen nun, dass die Gerade E1 ∩E2 die Gleichung von E3 erfüllt: 3x1 +3x2 −
x3 + 9 = 3(−2 − t) + 3t − 3 + 9 = 0 " ⇒ E3 enthählt E1 ∩ E2 .
35 A B C D E F Weil A ∈ R3×6 ist x ∈ R6 . Daher ist die Lösungsmenge
eine Teilmenge von R6 . Die Lösungsmenge eines inhomogenen LGS Ax = b ist
ein affiner Raum aber kein Unterraum. Denn die Summe von zwei Lösungen ist
im Allgemeinen keine Lösung: A(x1 + x2 ) = Ax1 + Ax2 = b + b ✗.
36 A B C D E F Die Lösungsmenge eines homogenen LGS Ax = 0 ist
immer ein Unterraum (also auch ein affiner Raum). Denn die Summe von zwei
Lösungen ist wieder Lösung: A(x1 + x2 ) = Ax1 + Ax2 = 0 ".
37 A B Mit der Formel Rang(AB) ≤ min{Rang(A), Rang(B)} finden wir

Rang(AT BT ) ≤ min{Rang(AT ), Rang(BT )} ≤ Rang(BT ).

38 A B n = Rang(E) = Rang(AB) ≤ min{Rang(A), Rang(B)}. Da A und B


maximal Rang n haben folgt Rang(A) = Rang(B) = n.
39 A B Wegen A ∈ R2×3 ist AT A ∈ R3×3 . Da A maximal Rang 2 hat (wegen
A ∈ R2×3 ), ist Rang(AT A) ≤ min{Rang(AT ), Rang(A)} = Rang(A) ≤ 2 (wegen
Rang(AT ) = Rang(A)). Somit ist AT A singulär und das LGS AT Av = b hat
unendlich viele Lösungen.
40 A B C D Wir erzeugen die Zeilenstufenform mit dem Gauß-Algorithmus:

⎡ ⎤ ⎡ ⎤
1 k+2 0 (Z2 ) − (k2 − 1)(Z1 ) 1 k+2 0
(Z3 ) − (Z1 )
⎣ k2 − 1 0 4−k⎦ ! ⎣ 0 −(k2 − 1)(k + 2) 4 − k ⎦ = Z.
1 2k − 3 0 0 k−5 0
10.6 • Multiple-Choice Fragen – Lösungen
597 10
Für k ̸= 4, 5 hat die Zielmatrix 3 Zeilen ̸= [0, 0, 0] ⇒ Rang(A) = 3. Für k = 4
oder k = 5 hat Z 2 Zeilen ̸= [0, 0, 0] ⇒ Rang(A) = 2.
41 A B C D In den Spezialfällen k = 0 oder k = 3 hat A 3 Zeilen ̸= [0, 0, 0]
⎡ ⎤
1 −4 2 (Z ) + 4(Z )
⎢0 0 −1⎥ (Z34 ) − (Z22)
⇒ Rang(A) = 3. Für k = −1 lautet die Matrix A = ⎢ ⎣0 0 −4⎦
⎥ !
0 0 −1
⎡ ⎤
1 −4 2
⎢0 0 −1⎥
⎢ ⎥
⎣0 0 0 ⎦ ⇒ Rang(A) = 2. Für alle andere k hat A Rang 3.
0 0 0
42 A B C D Wir erzeugen die Zeilenstufenform mit dem Gauß-Algorithmus:

⎡ ⎤ (Z ) − (Z ) ⎡ ⎤
1 1 3 −1 2 1
(Z3 ) − (Z1 )
1 1 3 −1
⎢ 1 0 −2 −2 ⎥ + 2(Z1 ) ⎢ 0 −1 −5 −1 ⎥
⎢ ⎥ (Z4 )! ⎢ ⎥
⎣ 1 2 8 k2 − 2k ⎦ ⎣0 1 5 k2 − 2k + 1 ⎦
−2 −1 k − 1 3 0 1 k+5 1
⎡ ⎤ ⎡ ⎤
(Z3 ) + (Z2 )
1 1 3 −1 1 1 3 −1
(Z4 ) + (Z2 ) ⎢ 0 −1 −5 −1 ⎥ ↔ (Z4 ) ⎢ 0 −1 −5 −1 ⎥
! ⎢ ⎥ (Z3 )! ⎢ ⎥ = Z.
⎣ 0 0 0 k2 − 2k ⎦ ⎣0 0 k 0 ⎦
0 0 k 0 0 0 0 k2 − 2k

Für k = 0 hat die Zielmatrix 2 Zeilen ̸= [0, 0, 0] ⇒ Rang(A) = 2. Für k = 2 hat


die Zielmatrix 3 Zeilen ̸= [0, 0, 0] ⇒ Rang(A)' = 3. Für
( k ̸= 0, 2 hat ' A Rang 4.(
1220 (Z 2 ) − 2(Z ) 1 2 2 0
43 A B C D Mit dem Gauß-Algorithmus ! 1 =
2110 0 −3 −3 0
Z. Es gibt zwei Zeilen ̸= [0, 0, 0, 0]. Somit hat A den Rang 2 über dem Körper
K = R. Da alle Einträge von Z Elemente von Q sind, ist Rang(A) ' (= 2 über
1220
K = Q. Über Z3 ist −3 = 0; die Zielmatrix lautet somit Z = , d. h., A
0000
' 1 über( Z3 . Über Z2 ist −3 = 1 und 2 = 0; die Zielmatrix lautet
hat den Rang
1000
somit Z = , d. h., A hat den Rang 2 über Z2 .
0110

7 Kapitel 3
1
! " ! 1 −1 "
44 A B C Mithilfe der Formel A−1 = det(A)
d −b
−c a ⇒ A−1 = 0 1
.
45 A B Wegen det(A) = 1 + 1 = 2 ̸= 0 ist A invertierbar. Somit B = 7A−1 E
46 A B Auf Z2 ist 6 = 0, d. h. det(A) = 8 − 2 = 6 = 0 ⇒ A nichtinvertierbar.
47 A B C D E F G H Ax = 0 hat nur die triviale Lösung, wenn A
invertierbar ist. Dies ist äquivalent zu det(A) ̸= 0 und Rang(A) = dim Im(A) = n.
598 Kapitel 10 • Prüfungstrainer

48 A B C D Beachte: det(2A) = 2n det(A) und det(−A) = (−1)n det(A).


49 A B C D E
50 A B C D
51 A B C D A hat eine Nullzeile ⇒ det(A) = 0.
52 A B C D Wir vertauschen (S1) mit (S6), (S2) mit (S5) und (S3) mit (S4).
Dabei ändert sich die Determinante um den Faktor (−1)3 :

8 8 8 8
80 0 0 0 0 18 81 0 0 0 0 08
8 8 8 8
80 0 0 0 3 38 (S1 ) ↔ (S6 ) 83 3 0 0 0 08
8 8 (S2 ) ↔ (S5 )
8 8
8 8 8 8
80 0 0 4 6 58 (S3 ) ↔ (S4 ) 85 6 4 0 0 08
8 8 ! 8 8 = (−1)3 · 1 · 3 · 4 · 1 · 2 · 1 = −24.
80 0 1 3 2 28 82 2 3 1 0 08
8 8 8 8
80 2 1 2 9 18 81 9 2 1 2 08
8 8 8 8
81 1 1 7 9 88 88 9 7 1 1 18

53 A B C D Wir subtrahieren die letzte Zeile zu den anderen Zeilen:

8 8
8 8 81 − n 0 0 · · · 0 088
81 n n · · · n8 (Z1 ) − (Zn ) 8
8 8 (Z2 ) − (Zn )
8 0 2 − n 0 · · · 0 08
8n 2 n · · · n8 8 8
8 8 . 8 8
8n n 3 · · · n8
.
. 8 0 0 3 − n · · · 0 08
8 8 ! 8 . .. .. . . .. .. 88
8. . . . .8 8 .
8 .. .. .. . . .. 8 8 . . . . . .8
8 8 8 8
8n n n · · · n8 8 0 0 0 · · · −1 088
8
8 n n n · · · n n8

= (1 − n)(2 − n) · · · (−1)n = (−1)n−1 n!.

54 A B

8 8
81 x · · · xn 88
x2 8 8
8 (Z1 ) − x(Z2 ) 81 − ax 0 0 ··· 088
8a 1 · · · xn−1 88
x (Z2 ) − x(Z3 ) 8
8 8a − ax 1 − ax
8 8 0 ··· 088
· · · xn−2 8 8
.
8a a 1 .
8a − ax a − ax 1 − ax
p(x) = 88 . .. .. . 88 !
.
8 ··· 088 = (1 − ax)n−1 .
.. 8 .
8 .. . .. .. 8 8 .. .. .. .. .. 88
8 8 8 . . . .8
8a a a · · · x 88 8 a
8
8a a a · · · 18
a a ··· 1 8

1
a ist eine Nullstelle (n − 1)-ter Ordnung von p(x).
10.6 • Multiple-Choice Fragen – Lösungen
599 10
55 A B C D Es gilt:

⎡ 8 8 8 8 8 8 ⎤T
81 08 81 08 81 18
⎢ 81 18 − 881 188 881 188 ⎥
8 8
⎡ ⎤T ⎡ ⎤
⎢ 8 8 8 8 8 8⎥ 1 −1 0 1 0 0
⎢ 8 8 8 8 8 8⎥
⎢ 00 10 10⎥
adj(A) = ⎢− 88 88 88 88 − 88 88⎥ = ⎣0 1 −1⎦ = ⎣−1 1 0⎦ .
⎢ 8 1 18 18 1 8 8 1 18 ⎥
⎢ 8 8 81 08 81 08 ⎥ 0 0 1 0 −1 1
⎣ 80 08 8 8 8 8 ⎦
81 08 − 81 08 81 18

56 A B C Nach der Cramer’schen Regel

8 8 8 8 8 8
80 0 18 83 0 18 83 0 08
8 8 8 8 8 8
81 2 18 81 1 18 81 2 18
8 8 8 8 8 8
80 −1 28 −1 81 0 28 5 81 −1 08 3
x1 = = , x2 = = , x3 = =
det(A) 12 det(A) 12 det(A) 12

Die Lösung lautet somit


⎧⎡ 1 ⎤⎫
⎨ − 12 ⎬
5 ⎦ .
L = ⎣ 12
⎩ 3 ⎭
12

57 A B C D Um die Determinante von A zu berechnen, muss man n Deter-


minanten der Größe (n − 1) × (n − 1) bestimmen. Jede dieser Determinanten
berechnet man, indem man n − 1 Determinanten der Größe (n − 2) × (n − 2)
bestimmt, usw. Insgesamt braucht man n(n − 1)(n − 2) · · · 1 = n! Operationen.
58 A B C D det(A) = 2k − 3 ̸= 0 ⇒ k ̸= 32 .
59 A B C D Entwicklung nach der ersten Spalte und dann nach der letzten
Spalte ergibt:

8 8
80 b 3 0 0 8
8 8 8 8
81 1 1 1 1 8 8b 3 08
8 8 8 8
80 1 1 1 −18 = (−1) · (−1) 82 1 08 = a(b − 6) ̸= 0 ⇒ a ̸= 0, b ̸= 6.
8 8 8 8
80 2 1 0 0 8 84 0 a8
8 8
80 4 0 a 0 8



a b c
60 A B Aus der Regel von Sarrus folgt det ⎣d e f ⎦ = aei + bfg + cdh − afh −
g h i
bdi − ceg. det(A) hat somit 6 Summanden. Weil A nur Einträge ±1 hat, ist jeder
Summand entweder 1 oder −1. Die Summe von 6 Zahlen ±1 kann nicht größer
als 6 sein.
600 Kapitel 10 • Prüfungstrainer

7 Kapitel 4
⎡ ⎤ ⎡ ⎤
1 0 0 1 1 1
61 A B C Die LR-Zerlegung von A lautet L = ⎣1 1 0⎦ und R = ⎣0 −1 0⎦.
0 −1 1 0 0 1
62 A B C Die LR-Zerlegung mit Zeilenvertauschung von A lautet L =
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 0 1 2 3 1 0001
⎢2 1 0 0⎥ ⎢0 −3 −5 −2 ⎥ ⎢0 1 0 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣3 5 1 0⎦, R = ⎣0 0 − 2 − 2 ⎦ und P = ⎣1 0 0 0⎦.
3 3 3
2 1 32 1 0 0 0 2 0010
63 A B C D E F Die LR-Zerlegung von A lautet

⎡ ⎤
10
⎢2 1⎥ ' (
⎢ ⎥
⎢ ⎥ 1 1
L = ⎢3 2⎥ ∈ R5×2 , R = ∈ R2×2 (⇒ det(R) = −1).
⎢ ⎥ 0 −1
⎣4 3⎦
54

64 A B Mit Satz 4.2: Wegen det(A) = 0 besitzt A keine eindeutige LR-Zerlegung.


65 A B C D Mit Satz 4.2: Wegen det(A1 ) = 0 besitzt A keine eindeutige LR-
Zerlegung. A besitzt eine LR-Zerlegung mit Zeilenvertauschung (wenn man die
erste Spalte mit der zweiten Spalte vertauscht, erhält man die Einheitsmatrix,
welche, wegen Satz 4.2, eine LR-Zerlegung besitzt).
66 A B Eine Permutationsmatrix entsteht aus der Einheitsmatrix durch Permu-
tation der Zeilen/Spalten. P enthält somit genau eine 1 in jeder Zeile/Spalte, was
hier nicht zutrifft.
67 A B C Es gilt

⎡ ⎤⎡ ⎤ ⎡ ⎤
00010 v1 v4
⎢0 0 1 0 0⎥ ⎢v ⎥ ⎢v ⎥
⎢ ⎥ ⎢ 2⎥ ⎢ 3⎥
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢0 1 0 0 0⎥ ⎢v3 ⎥ = ⎢v2 ⎥ ✗
⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣1 0 0 0 0⎦ ⎣v4 ⎦ ⎣v1 ⎦
00001 v5 v5
⎡ ⎤T ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
00010 v1 00010 v1 v4
⎢0 1 0 0 0⎥ ⎢v ⎥ ⎢0 1 0 0 0⎥ ⎢v ⎥ ⎢v ⎥
⎢ ⎥ ⎢ 2⎥ ⎢ ⎥ ⎢ 2⎥ ⎢ 2⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
⎢0 0 1 0 0⎥ ⎢v3 ⎥ = ⎢0 0 1 0 0⎥ ⎢v3 ⎥ = ⎢v3 ⎥ "
⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥
⎣1 0 0 0 0⎦ ⎣v4 ⎦ ⎣1 0 0 0 0⎦ ⎣v4 ⎦ ⎣v1 ⎦
00001 v5 00001 v5 v5
10.6 • Multiple-Choice Fragen – Lösungen
601 10
68 A B C D E F Die Inverse einer Permutationsmatrix ist einfach die
@0 1 0 0 0A
0 0 1 0 0
Transponierte: P−1 = PT = 1 0 0 0 0 . P wird von der Permutation σ =
0 0 0 0 1
!1 2 3 4 5" 0 0 0 1 0
23154erzeugt. σ kann man als Produkt von Transpositionen wie folgt
darstellen σ = τ12 τ13 τ45 . Somit ist sign(σ ) = (−1)3 = −1. Die Determinante
von P ist det(P) = sign(σ ) = −1.
69 A B C D Beachte: L ist nicht normiert, d. h., die Diagonaleinträge von L
sind nicht unbedingt = 1.
70 A B C Bei der Lösung mehrerer LGS mit derselben Koeffizientenmatrix und
verschiedenen Vektoren auf der rechten Seite müssen wir die LR-Zerlegung der
Koeffizientenmatrix nur einmal durchführen. Die Vorwärtssubstitution und die
Rückwärtssubstitution müssen wir trotzdem jedes Mal durchführen.

7 Kapitel 5
' ( ' ( ' ( ' ( ' (
a1 b1 a2 b2 a1 b1 a2 b2 a1 + a2 b1 + b2
71 A B , ∈G⇒ + = ∈ G.
0 c1 0 c2 0 c1 0 c2 0 c + c2
' ( ' ( '1 1( 1
11 11
72 A B Gegenbeispiel: ∈ G, 12 ∈ R, aber 12 = 2 21 ∈ / G (Einträge
01 01 0 2
müssen ∈ N sein).
73 A B C D B: Nein, weil die Nullmatrix nichtinvertierbar ist, d. h. 0 ∈ / V.
74 A B C D Die Lösungsmenge eines LGS ist nur dann ein Unterraum, wenn
das LGS homogen ist. U ist somit kein Unterraum. U ist jedoch ein affiner Raum.
75 A B C D U ist die Lösungsmenge eines homogenen LGS. U ist somit ein
Unterraum (folglich auch ein affiner Raum).
76 A B C D Uα ist ein Unterraum, nur wenn Uα die Lösungsmenge eines
homogenen LGS ist. Das LGS in diesem Fall ist homogen falls α = 1.
77 A B C D Ein affiner Raum ist die Lösungsmenge eines beliebigen LGS
(homogen oder inhomogen). Uα ist somit ein affiner Raum für alle α ∈ R.
78 A B Es seien f (x) = a0 +a1 x+· · ·+an xn ∈ Pn (R), g(x) = b0 +b1 x+· · ·+bn xn ∈
Pn (R) und λ ∈ R. Wir verifizieren die 3 Bedingungen eines Unterraumes:
(U1) 0 ∈ Pn (R) "
(U2) f (x) + g(x) = (a0 + b0 ) + (a1 + b1 )x + · · · + (an + bn )xn ∈ Pn (R) "
(U3) λf (x) + g(x) = λa0 + λa1 x + · · · + λan xn ∈ Pn (R) "

79 A B Gegenbeispiel zur Unterraumbedingung (U3): p(x) = x2 − 1 ∈ U, α =


1 x2 1
2 ∈ R aber α p(x) = 2 − 2 / U.

80 A B dim(U1 ) + dim(U2 ) = dim(U1 + U2 ) + dim(U1 ∩ U2 ) ≥ dim(U1 + U2 )
81 A B C D Aus der Formel dim(U1 + U2 ) + dim(U1 ∩ U2 ) = dim(U1 ) +
dim(U2 ) = 2 + 2 = 4 folgt dim(U1 + U2 ) = 4 − dim(U1 ∩ U2 ) ≤ 4. Außerdem
ist U1 ∩ U2 ein Unterraum von U1 . Daher ist dim(U1 ∩ U2 ) ≤ 2. Daraus folgt
dim(U1 + U2 ) = 4 − dim(U1 ∩ U2 ) ≥ 4 − 2 = 2.
602 Kapitel 10 • Prüfungstrainer

7 Kapitel 6
! "T
82 A B Es seien a1 , · · · , an die Spalten von A und x = x1 · · · xn . Dann ist das
LGS Ax = b äquivalent zu x1 a1 + · · · + xn an = b, d. h. b ∈ ⟨a1 , · · · , an ⟩ = Im(A).
83 A B A regulär ⇔ Zeilenrang(A) = Spaltenrang(A) = Rang(A) = n ⇔
ZR(A) = SR(A) = Rn ⇔ Zeilen und Spalten von A sind linear unabhängig
(sind Basis von Rn ).
84 A B Linear unabhängig heißt, dass die Gleichung α1 v1 +· · ·+αn vn = 0 nur die
Lösung α1 = · · · = αn = 0 hat. Wegen αi = 0, kann man nicht auflösen nach vi ,
d. h., man kann vi nicht als Linearkombination der anderen Vektoren darstellen.
85 A B C D Es gilt v1 + v2 = v3 . Die Vektoren v1 , v2 , v3 sind somit linear
abhängig.
86 A B C D Der Nullvektor ist immer linear abhängig. Mit anderen Worten:
Jede Menge von Vektoren, welche den Nullvektor enthält, ist linear abhängig.
Somit sind v1 , v2 , v3 linear abhängig. Wir lösen die Gleichung α1 v1 +α2 v2 +α3 v3 =
0:

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 0 0 (Z2 ) + 3(Z1 ) 1 2 0 0 1 2 0 0
(Z3 ) − 7(Z1 )
⎣ −3 −1 0 0 ⎦ ! ⎣ 0 −5 0 0 ⎦ ! ⎣ 0 −5 0 0 ⎦ = Z.
7 −1 0 0 0 13 0 0 0 0 0 0

Es folgt α1 = α2 = 0 und α3 = t mit t ∈ R, d. h. 0 v1 + 0 v2 + t v3 = 0. Aus dieser


Gleichung stellen wir fest:
5 v1 kann nicht als Linearkombination von v2 , v3 geschrieben werden;
5 v2 kann nicht als Linearkombination von v1 , v3 geschrieben werden;
5 v3 ist eine Linearkombination von v2 , v3 und zwar v3 = 0 v1 + 0 v2 .

87 A B C Wir lösen die Gleichung α1 v1 + α2 v2 + α3 v3 = 0:

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 3 0 (Z2 ) − 2(Z1 ) 1 1 3 0 1 1 3 0
(Z3 ) + (Z2 ) (Z3 ) − 2(Z2 )
⎣ 2 1 7 0⎦ ! ⎣ 0 −1 1 0⎦ ! ⎣ 0 −1 1 0 ⎦ = Z.
−2 −3 k − 6 0 0 −2 k + 1 0 0 0 k−1 0

Für k = 1 hat das LGS nur die triviale Lösung α1 = α2 = α3 = 0 und


die Vektoren sind linear unabhängig. Für k ̸= 1 hat das LGS unendlich viele
Lösungen und die Vektoren sind linear abhängig.
88 A B C D Wir wissen bereits, dass v1 , v2 , v3 , v4 linear abhängig sind, weil v4
der Nullvektor ist. Wir untersuchen nun v1 , v2 , v3 auf lineare Unabhängigkeit.
Dazu lösen wir die Gleichung α1 v1 + α2 v2 + α3 v3 = 0:
10.6 • Multiple-Choice Fragen – Lösungen
603 10
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 −1 0 (Z1 ) ↔ (Z2 )
1 0 2 0 (Z3 ) − (Z2 )
1 0 2 0
⎢ 1 0 2 0⎥ (Z3 ) + (Z2 )
⎢0 1 −1 0⎥ (Z5 ) − k(Z2 )
⎢0 1 −1 0 ⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ (Z5 ) − (Z2 ) ⎢ ⎥ (Z5 ) ↔ (Z3 ) ⎢ ⎥
⎢ −1 1 −3 0⎥ ! ⎢0 1 −1 0⎥ ! ⎢0 0 k − 2 0 ⎥ = Z.
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 0 0 0⎦ ⎣0 0 0 0⎦ ⎣0 0 0 0⎦
1 k 0 0 0 k −2 0 0 0 0 0

Für k ̸= 2 hat das LGS nur die triviale Lösung α1 = α2 = α3 = 0 und


die Vektoren sind linear unabhängig. Für k = 2 hat das LGS unendlich viele
Lösungen und die Vektoren sind linear abhängig.
89 A B Mehr als 3 Vektoren in R3 sind immer linear abhängig.
90 A B Eine Basis von R4 besteht aus 4 linear unabhängigen Vektoren.
91 A B Wir lösen die Gleichung α1 v1 + α2 v2 + α3 v3 = v4 :


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎪
1 2 −1 1 (Z2 ) − (Z1 )
(Z3 ) − 2(Z1 )
1 2 −1 1
(Z3 ) − (Z2 )
1 2 −1 1 ⎨α1 = 9

⎣1 4 2 1 ⎦ ! ⎣0 2 3 0⎦ ! ⎣ 0 2 3 0 ⎦ = Z ⇒ α2 = −3


2 6 5 10 02 7 8 00 4 2 ⎩α = 2
3

Somit v4 = 9v1 − 3v2 + 2v3 = v4 , d. h. v4 ∈ ⟨v1 , v2 , v3 ⟩.


92 A B Wir lösen α1 A + α2 B + α3 C = D

' ( ' (
α1 + 2α2 − α3 2α1 + α2 + α3 ! 0 1
=
−α1 + α2 + 2α3 3α1 + α2 + 3α3 −1 2

Es ergibt sich das folgende LGS für α1 , α2 , α3 :


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 −1 0 (Z2 ) − 2(Z1 )
(Z3 ) + (Z1 )
1 2 −1 0 (Z3 + (Z2 )
1 2 −1 0
⎢ 2 1 1 1 ⎥ (Z4 ) − 3(Z1 ) ⎢0 −3 −3 1 ⎥ 3(Z4 ) − 5(Z2 ) ⎢0 −3 −3 1⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥ = Z.
⎣ −1 1 2 −1 ⎦ ⎣0 3 1 −1 ⎦ ⎣0 0 −2 0⎦
3 1 3 2 0 −5 −6 2 0 0 −3 1

Das LGS hat keine Lösung, d. h. D ist keine Linearkombination von A, B, C.


93 A B C Wir lösen α1 A + α2 B + α3 C = 0



' ( ' ( ⎨kα1 = 0

α2 + kα3 kα2 + α3 ! 0 0
= ⇒ α2 = 0
kα1 − 2α2 − α3 α3 00 ⎪

⎩α = 0
3

Für k = 0 finden wir eine nichttriviale Lösung α1 = t ∈ R und die Matrizen sind
linear abhängig. Für k ̸= 0 gibt es nur die Lösung α1 = α2 = α3 = 0 und die
Matrizen sind linear unabhängig.
604 Kapitel 10 • Prüfungstrainer

!
94 A B C Wir lösen α1 (1 + x) + α2 (1 + 2x + x2 ) + α3 (x − x2 ) = x2 − x + 2 ⇒
!
(α2 − α3 )x2 + (α1 + 2α2 + α3 )x + α1 + α2 = x2 − x + 2. Es ergibt sich das folgende
LGS für α1 , α2 , α3 :

⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎪
11 0 2
(Z2 ) − (Z1 )
11 0 2
(Z3 ) − (Z2 )
11 0 2 ⎨α1 = 3

⎣ 1 2 1 −1 ⎦ ! ⎣ 0 1 1 −3 ⎦ ! ⎣ 0 1 1 −3 ⎦ = Z ⇒ α2 = −1


0 1 −1 1 0 1 −1 1 0 0 −2 4 ⎩α = −2
3

! "T
Es folgt p(x) = 3(1 + x) − (1 + 2x + x2 ) − 2(x − x2 ), d. h. [p(x)]B = 3 −1 −2 .
95 a) A B dim P2 (R) = 3. Somit sind 4 Polynome in P2 (R) immer linear
abhängig.
b) A B Wir drücken die Polynome in der Standardbasis von P2 (R) aus
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0
[x + 1]E = ⎣1⎦ , [x − 1]E = ⎣−1⎦ , [x2 + x]E = ⎣1⎦ , [x2 − x]E = ⎣−1⎦
0 0 1 1

und betrachten die Matrix


⎡ ⎤ ⎡ ⎤
1 −1 0 0 1 −1 0 0
(Z2 ) − (Z1 )
⎣ 1 1 1 −1 ⎦ ! ⎣ 0 2 1 −1 ⎦ = Z.
0 0 1 1 0 0 1 1

Da diese Matrix Rang 3 hat, bilden die vier Polynome ein Erzeugendensystem.
c) A B Die vier Polynome sind linear abhängig, also bilden keine Basis.
96 A B C D Es sei p(x) = a+bx+cx2 ∈ P2 (R). Aus p(1) = 0 folgt a+b+c = 0.
Wir können somit eine der Parameter als Funktion der anderen 2 ausdrücken.
Wir brauchen somit nur 2 Parameter, um p(x) zu beschreiben ⇒ dim(U) = 2.
Wir können beispielsweise nach b und c auflösen ⇒ a = −(b + c) ⇒ p(x) =
−(b + c) + bx + cx2 = b(x − 1) + c(x2 − 1) ⇒ B = {x − 1, x2 − 1} ist eine
Basis von U. Alternativ können wir nach a und c auflösen ⇒ b = −(a + c) ⇒
p(x) = a − (a + c)x + cx2 = a(1 − x) + c(x2 − x) ⇒ B = {1 − x, x2 − x} ist
eine weitere Basis von U. Eine andere Möglichkeit ist nach a und b aufzulösen
⇒ c = −(a + b) ⇒ p(x) = a + bx − (a + b)x2 = a(1 − x2 ) + b(x − x2 ) ⇒
B = {1 − x2 , x − x2 } ist eine dritte Wahl für die Basis von U.
97 A B Ein Erzeugendensystem von V kann mehr als 8 Vektoren besitzen. Eine
Basis von V muss jedoch genau 8 Vektoren enthalten.
98 A B C D Wir überlegen uns mithilfe der Anzahl freier Parameter. P3 (R)
hat Dimension 4 (d. h. hat 4 freie Parameter). Jedes Element in U muss 3
unabhängige Bedingungen erfüllen. Es bleiben somit nur 4 − 3 = 1 freie
Parameter zur Beschreibung der Elementen von U ⇒ dim(U) = 1.
10.6 • Multiple-Choice Fragen – Lösungen
605 10
99 a) A B C D T B→E enthält die Basisvektoren von B als Spalten ⇒
⎡ ⎤ ⎡ ⎤−1
201 201
T B→E = ⎣1 1 0⎦. T E →B ist die Inverse von T B→E ⇒ T E →B = ⎣1 1 0⎦ =
001 001
⎡ 1 1⎤
2 0 − 2
⎣− 1 1 1 ⎦.
2 2
0 0 1
⎡ 1 1⎤ ⎡ ⎤ ⎡ ⎤
2 0 −2 1 0
b) A B C [w]B = T E →B [w]E = ⎣− 12 1 12 ⎦ ⎣1⎦ = ⎣1⎦.
0 0 1 1 1
100 A B C D Die Dimension eines Unterraums ist der Rang der Matrix, die
aus den entsprechenden Vektoren aufgebaut wird. Wir bestimmen deren Rang
mit dem Gauß-Algorithmus:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 1 0 (Z3 ) − (Z2 )
1 0
⎢0 1⎥ (Z3 ) − (Z1 ) ⎢0 1⎥ (Z4 ) − 2(Z2 ) ⎢0 1⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥ = Z.
⎣1 1⎦ ⎣0 1⎦ ⎣0 0⎦
0 2 0 2 0 0

Die Matrix hat Rang 2 ⇒ dim(U) = 2. Wir wenden dieselbe Prozedur für W an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−1 2 −1 2 −1 2
⎢ 1 1⎥ (Z2 ) + (Z1 ) ⎢ 0 3⎥ 3(Z4 ) − 2(Z2 ) ⎢ 0 3⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥ = Z.
⎣ 0 0⎦ ⎣ 0 0⎦ ⎣ 0 0⎦
0 2 0 2 0 0

Die Matrix hat Rang 2, also dim(W ) = 2. Die Summe U + W ist


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
B 1 0 −1 2 C 1 0 −1 2 1 0 −1 2
⎢0⎥ ⎢1⎥ ⎢ 1 ⎥ ⎢1⎥ ⎢ 0 1 1 1 ⎥ (Z3 ) − (Z1 ) ⎢ 0 1 1 1 ⎥
U +W = ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣1⎦ , ⎣1⎦ , ⎣ 0 ⎦ , ⎣0⎦ ⇒ ⎣ 1 1 0 0 ⎦
⎢ ⎥ ! ⎢ ⎥
⎣ 0 1 1 −2 ⎦
0 2 0 2 02 0 2 02 0 2
⎡ ⎤ ⎡ ⎤
(Z3 ) − (Z2 )
1 0 −1 2 1 0 −1 2
(Z4 ) − 2(Z2 ) ⎢ 0 1 1 1 ⎥ (Z3 ) ↔ (Z4 ) ⎢ 0 1 1 1 ⎥
! ⎢ ⎥ ! ⎢ ⎥
⎣ 0 0 0 −3 ⎦ ⎣ 0 0 −2 0 ⎦ = Z ⇒ Rang(Z) = 4.
0 0 −2 0 0 0 0 −3

Somit ist dim(U +W ) = 4 ⇒ U +W = R4 . Aus der Formel dim(U +W )+dim(U ∩


W ) = dim(U) + dim(W ) folgt dim(U ∩ W ) = dim(U) + dim(W ) − dim(U + W ) =
2 + 2 − 4 = 0. Somit ist U ∩ W = {0}.
101 A B R3 = U + W ? Wir kombinieren alle erzeugende Vektoren von U und W
als Spalten in einer einzigen Matrix. Mit dem Gauß-Algorithmus berechnen den
Rang dieser Matrix und damit die Dimension von U + W :
606 Kapitel 10 • Prüfungstrainer

⎡ ⎤ ⎡ ⎤
110 (Z2 ) − (Z1 ) 1 1 0
(Z3 ) − (Z1 )
A = ⎣1 0 0⎦ ! ⎣ 0 −1 0 ⎦ ⇒ Rang(A) = 3 ⇒ dim(U + W ) = 3.
102 0 0 2

Somit ist U + W = R3 .
U ∩ W = {0}? Es sei v ∈ U ∩ W . Dann ist v ∈ U und v ∈ W , d. h.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 0 1 −1 0 α 0
v = α ⎣1⎦ = β ⎣0⎦ + γ ⎣0⎦ ⇒ ⎣1 0 0 ⎦ ⎣β ⎦ = ⎣0⎦ .
1 0 2 1 0 −2 γ 0

Dies LGS lösen wir mit dem Gauß-Algorithmus


⎡ ⎤ ⎡ ⎤
1 −1 0 0 (Z2 ) − (Z1 ) 1 −1 0 0
(Z3 ) − (Z1 )
⎣1 0 0 0⎦ ! ⎣0 1 0 0⎦.
1 0 −2 0 0 0 −2 0

Die einzige Lösung ist α = β = γ = 0, d. h. v = 0 ⇒ U ∩ W = {0}.


Zusammenfassend: Wegen R3 = U + W und U ∩ W = {0} ist R3 = U ⊕ W .

102 A B W ist der Unterraum der oberen Dreiecksmatrizen der Form


⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0ab 010 001 000
⎣0 0 c ⎦. Eine Basis von W ist somit ⎣0 0 0⎦ , ⎣0 0 0⎦ , ⎣0 0 1⎦. Auch
000 000 000 000
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
011 001 011
⎣0 0 0⎦ , ⎣0 0 1⎦ , ⎣0 0 1⎦ ist eine Basis (es sind 3 linear unabhängigen
000 000 000
Matrizen, welche W aufspannen).

7 Kapitel 7und 8

103 A B C D P ist eine Projektion, falls P2 = P. Es muss also P2 = E −


!
2uuT + uuT uuT = P = E − uuT gelten. Daraus folgt uuT − uuT uuT = 0 ⇒
u(1 − uT u)uT = 0 ⇒ u = 0 oder uT u = ||u||2 = 1 (siehe Übung 7.33).
104 A B C D E Aus der Dimensionsformel folgt dim(V ) = dim Ker(F) +
dim Im(F) = 3 + 4 = 7. Jede Basis von V besteht somit genau aus 7 linear
unabhängigen Vektoren (und nicht beliebigen Vektoren). Für dim(W ) = 4 ist
dim Im(F) = dim(W ), d. h., F ist surjektiv. Wegen dim Ker(F) ̸= 0 ist F nicht
injektiv. @ x +x +x A
1 2 3 '1 1 1 () *
x1 −x2 −x3 x1
105 A B Wegen 2x = 1 −1 −1 x2 ist die Darstellungsmatrix von F
1 +2x3 2 0 2 x3
x2 +x3 0 1 1
'1 1 1 (
bezüglich der Standardbasis gleich M EE (F) = 1 −1 −1 .
2 0 2
0 1 1
10.6 • Multiple-Choice Fragen – Lösungen
607 10
106 A B C D Wir wenden F auf die Standardbasiselementen an:

⎡ ⎤
0
'
(' ( ' (
01 10 00 ⎢0⎥
F(E11 ) = = ⇒ [F(E11 )]E = ⎢
⎣2⎦

20 00 20
0
⎡ ⎤
0
' (' ( ' (
01 01 00 ⎢0⎥
F(E12 ) = = ⇒ [F(E12 )]E = ⎢
⎣0⎦

20 00 02
2
⎡ ⎤
1
' (' ( ' (
01 00 10 ⎢0⎥
F(E21 ) = = ⇒ [F(E21 )]E = ⎢
⎣0⎦

20 10 00
0
⎡ ⎤
0
'
(' ( ' (
01 00 01 ⎢1⎥
F(E22 ) = = ⇒ [F(E22 )]E = ⎢
⎣0⎦

20 01 00
0
'0 0 1 0(
Die gesuchte Darstellungsmatrix von F lautet somit M EE (F) = 0001 .
2000
0200
107 A B C D [ϕ, ψ] = ϕψ −ψϕ = ϕ(xp)−ψ(p′ ) = (xp)′ −xp′ = p+xp′ −xp′ =
p ⇒ [ϕ, ψ] = idV .
108 A B C D Es gilt det(A) = 6k. Für k ̸= 0 ist det(A) ̸= 0, d. h. Rang(A) =
dim Im(A) = 3. Für k = 0 ist Rang(A) ≤ 2. Mit dem Gauß-Algorithmus:

⎡ ⎤ ⎡ ⎤
220 220
2(Z2 ) − (Z1 )
A = ⎣1 2 0⎦ ! ⎣ 0 2 0 ⎦ = Z ⇒ Rang(A) = 2.
000 000

Aus der Dimensionsformel folgt dann dim Ker(A) = n − Rang(A) = 3 − 2 = 1.


109 A B C D E F Wir bringen die Matrix mit dem Gauß-Algorithmus in
Zeilenstufenform:

⎡ ⎤ ⎡ ⎤
1 0 3 k (Z2 ) − 2(Z1 ) 10 3 k
(Z3 ) − k(Z1 )
⎣2 1 2 k+1⎦ ! ⎣ 0 1 −4 1 − k ⎦ = Z.
k 0k 0 0 0 −2k −k2

Für k = 0 hat die Zielmatrix 2 Zeilen ̸= [0, 0, 0] ⇒ Rang(A) = 2. Für k ̸= 0 hat


A Rang 3.
608 Kapitel 10 • Prüfungstrainer

110 A B C D Die Darstellungsmatrix A wirkt auf Vektoren in R4 ; das Resultat


ist ein Vektor in R6 ⇒ dim(V ) = 4 und dim(W ) = 6.
111 A B Die Darstellungsmatrix von F ist eine (3 × 5)-Matrix A ∈ R3×5 . Der
Rang von F ist somit maximal gleich 3, d. h. Rang(F) ≤ 3. Der Ausgangsraum
hat Dimension 5. Aus der Dimensionsformel folgt somit dim Ker(F) = n −
Rang(F) ≥ 5 − 3 = 2. Wegen dim Ker(F) ̸= 0 ist F nicht injektiv.
112 A B Die Darstellungsmatrix von F ist eine (4 × 2)-Matrix A ∈ R4×2 . Es gilt
somit Rang(F) ≤ 2. Der Zielraum hat Dimension 4. Damit F surjektiv ist, muss
dim Im(F) = Rang(F) gleich 4 sein. Dies ist aber nie der Fall. Somit kann F nicht
surjektiv sein.
113 A B C Damit F linear ist, muss F(x) + F(y) = (ax + b) + (ay + b) =
a(x + y) + 2b gleich F(x + y) = a(x + y) + b sein ⇒ b = 0.
114 A B C D E F
' (
10
115 A B C Mit der Formel sin(ϕ)2 + cos(ϕ)2 = 1 finden wir: (1) AT A =
01
(⇒ A ist orthogonal) und (2) det(A) = −1. Somit ist A eine Spiegelung (siehe
7 Abschnitt 7.3.3). @ A
1 0 0
1 1
116 A B Wegen A2 = 2 2 − 21 = A ist A eine Projektion.
1
2 − 21 1
2

117 A B C D Diese lineare Abbildung entspricht eine Spiegelung an der


' (
1 0
x1 -Achse mit Matrixdarstellung gefolgt von einer Streckung (Verklei-
0 −1
' (
1 0
nerung) in der x2 -Richtung um den Faktor 23 mit Matrixdarstellung ⇒
0 23
' (' ( ' (
1 0 1 0 1 0
2 = . Alternative: Man kann die Bilder der Basisvektoren
0 −1 0 3 0 − 23
[1, 0]T und [0, 1]T betrachten: [1, 0]T wird auf [1, 0]T abgebildet; [0, 1]T wird auf
[0, −2/3]T abgebildet.
118 A B C D Diese lineare Abbildung entspricht einer Spiegelung an der x2 -
' (
−1 0
Achse mit Matrixdarstellung gefolgt von einer Rotation um 45 Grad in
0 1
@ 1 A @ 1 A' (
√ − √1 √ − √1 −1 0
positiver Richtung mit Matrixdarstellung 1 2 2 ⇒ 2 2 =
√ √1 √1 √1 0 1
@ 1 A 2 2 2 2
− √ − √1
2 2 . Alternative: Man kann die Bilder der Basisvektoren [1, 0]T und
− √1 √1
2 2 √ √
T betrachten: [1, 0]T wird auf [−1/ 2, −1/ 2]T abgebildet; [0, 1]T wird auf
[0, 1]√ √ T
[−1/ 2, 1/ 2] abgebildet.
119 A B Wenn F eine lineare Abbildung wäre, müsste F Folgendes erfüllen:

D' (E D' (E D' ( ' (E D' (E


1 1 1 1 2
F +F =F + =F .
2 5 2 5 7
10.6 • Multiple-Choice Fragen – Lösungen
609 10
Dies ist aber nicht der Fall:
D' (E D' (E ' ( ' ( ' ( ' ( D' (E
1 1 3 1 4 4 2
F +F = + = ̸= =F ✗
2 5 0 4 4 5 7

120 A B Die Darstellungsmatrix von F bezüglich der Standardbasis ist M EE (F) =


⎡ ⎤ ⎡ ⎤−1 ⎡ ⎤
1 0 1 1 0 1 1 − 12 −1
⎣−2 2 0⎦ ⇒ M E (F −1 ) = ⎣−2 2 0⎦ = ⎣1 0 −1⎦.
E
1 −1 1 1 −1 1 0 12 1
121 A B C Die Darstellungsmatrix von F und G bezüglich der Standardbasis
⎡ ⎤
' ( 21
E 1 1 1
sind M E (F) = bzw. M E (G) = 1 1⎦. Daraus folgt M EE (F ◦ G) =
E ⎣
101
01
⎡ ⎤
' ( 21 ' (
111 ⎣ ⎦ 33
M EE (F)M EE (G) = 11 = . M EE (G ◦ F) ist nicht definiert. Wegen
101 22
01
det M EE (F ◦ G) = 0 ist F ◦ G nichtinvertierbar, also kein Isomorphismus.
122 A B Die Darstellungsmatrix von F bezüglich der Standardbasis von R2 lautet

⎡ ⎤
1 1
M EE (F) = ⎣2 0 ⎦ .
1 −1

w gehört zu Im(F) falls es v ∈ R2 gibt, sodass F(v) = w



⎪ : ⎡ ⎤
⎨v1 + v2 = 3

v1 = 2
3
Av = w ⇒ 2v1 = 4 ⇒ ⇒ ⎣4⎦ ∈ Im(F).

⎪ v2 = 1
⎩v − v = 1
1 2
1

Alternative: w ∈ Im(F), falls Av = w eine eindeutige Lösung hat, d. h. wenn


Rang(A) = Rang(A|b). In diesem Beispiel ist Rang(A) = 2 = Rang(A|b) ".
123 a) A B C D E F Die Darstelllungsmatrix von F bezüglich der Stan-
dardbasis ist

⎡ ⎤
1 −1 0 0
⎢ 1 1 0 0⎥
⎢ ⎥
⎢ ⎥
⎢ 0 1 0 0⎥ .
⎢ ⎥
⎣ 0 1 3 0⎦
−1 −1 0 0

Wir erzeugen die Zeilenstufenform mit dem Gauß-Algorithmus:


610 Kapitel 10 • Prüfungstrainer

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −1 0 0 (Z2 ) − (Z1 )
1 −1 0 0 1 −1 0 0
⎢ 1 1 0 0⎥ (Z4 ) − (Z3 )
⎢0 2 0 0⎥ ⎢0 2 0 0⎥
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎢ ⎥ (Z5 ) + (Z2 ) ⎢ ⎥ 2(Z3 ) − (Z2 ) ⎢ ⎥
⎢ 0 1 0 0⎥ ! ⎢0 1 0 0⎥ ! ⎢0 0 0 0 ⎥ = Z.
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣ 0 1 3 0⎦ ⎣0 0 3 0⎦ ⎣0 0 3 0⎦
−1 −1 0 0 0 0 0 0 0 0 0 0

Die Zielmatrix hat 3 Zeilen ̸= [0, 0, 0, 0]. Somit ist Rang(F) = 3 ⇒


dim Im(F) = 3. Aus der Dimensionsformel folgt dann 4 = dim ker(F) +
dim Im(F) ⇒ dim Ker(F) = 4 − dim Im(F) = 4 − 3 = 1. Wegen dim Im(F) ̸= 5
ist F nicht surjektiv. Wegen dim Ker(F) ̸= 0 ist F nicht injektiv.
b) A B C Wir lösen
⎡ ⎤
1 −1 0 0 0 ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
⎢0 2 0 0 ⎥ x1 0 B 0 C
⎢ 0⎥ ⎢x2 ⎥ ⎢0⎥ ⎢0⎥
⎢ ⎥
⎢0 0 0 0 0⎥ ⇒ ⎢ ⎥ ⎢ ⎥
⎣x3 ⎦ = ⎣0⎦ , t ∈ R ⇒ ker(F) = ⎢ ⎥
⎣0⎦ .
⎢ ⎥
⎣0 0 3 0 0⎦
x4 t 1
0 0 00 0

c) A B C Aus der Zielmatrix sieht man, dass Rang(F) = 3 und


dass die ersten 3 Spalten der Darstellungsmatrix linear unabhängig sind.
Somit ist F(e ), F(e ), F(e ) eine Basis des Bildes von F, d. h. Im(F) =
B⎡ 1 ⎤ ⎡ −1 1⎤ @ 0 2AC 3
1 1 0
⎣ 0 ⎦,⎣ 1 ⎦, 0 .
0 1 3
−1 −1 0
124 A B Die Darstelllungsmatrix von F bezüglich der Standardbasis ist

⎡ ⎤
2k −1 0
⎢0 1 k⎥
⎢ ⎥.
⎣1 1 −1⎦
1 −1 0

Wir erzeugen die Zeilenstufenform mit dem Gauß-Algorithmus:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2k −1 0 (Z1 ) ↔ (Z4 )
1 −1 0 1 −1 0
(Z2 ) − (Z1 )
⎢ 0 1 k ⎥ (Z2 ) ↔ (Z3 ) ⎢ 1 1 −1 ⎥ (Z4 ) − 2k(Z1 ) ⎢0 2 −1 ⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥
⎣ 1 1 −1 ⎦ ⎣ 0 1 k ⎦ ⎣0 1 k ⎦
1 −1 0 2k −1 0 0 −1 + 2k 0
⎡ ⎤
2(Z3 ) − (Z2 )
1 −1 0
2(Z4 ) − (2k − 1)(Z3 ) ⎢ 0 2 −1 ⎥
! ⎢ ⎥
⎣ 0 0 2k + 1 ⎦ = Z.
0 0 2k − 1
10.6 • Multiple-Choice Fragen – Lösungen
611 10
2k + 1 und 2k − 1 sind nie gleichzeitig Null. Somit hat die Zielmatrix immer Rang
3 ⇒ dim Im(F) = 3. Aus der Dimensionsformel folgt dann dim ker(F) = 3 −
dim Im(F) = 3 − 3 = 0. Wegen dim ker(F) = 0 ist F injektiv. Wegen dim Im(F) ̸=
4 ist F nie surjektiv.
125 A B C Wir erzeugen die Zeilenstufenform mit dem Gauß-Algorithmus:

⎡ ⎤ ⎡ ⎤
0 1 3 0 1 −1 0 1
⎢0 0 −2 1⎥⎥ ⎢ 0 1 3 0⎥
⎢ !⎢ ⎥ = Z.
⎣0 0 0 0⎦ ⎣0 0 −2 1⎦
1 −1 0 1 0 0 0 0

Aus der Zielmatrix sieht man, dass Rang(A) = 3. Die ersten 3 Spalten von
A
F' sind
( 'linear
( 'unabhängig
(G und bilden somit eine Basis des Bildes Im(F) =
0 1 3
0 , 0 , −2 . Man könnte auch die Spalten 1,2 und 4 als Basis nehmen
0 0 0
1 −1
F' ( 0
' ( ' 0 (G
0 1
Im(F) = 0 , 0 , 10 .
0 0
1 −1 1
126 A B Die Darstellungsmatrix von F in der Standardbasis ist M EE (F) =
⎡ ⎤
200
⎣0 1 0⎦. Die Transformationsmatrix T B→E hat die Basisvektoren von B
000
⎡ ⎤
1 0 1
als Spalten T B→E = ⎣0 1 1 ⎦. Somit M B E
E (F) = M E (F)T B→E =
1 −1 −1
⎡ ⎤⎡ ⎤ ⎡ ⎤
200 1 0 1 202
⎣0 1 0⎦ ⎣0 1 1 ⎦ = ⎣0 1 1⎦.
000 1 −1 −1 000
127 A B C D Die Bilder der Basiselemente {1, i} unter der Abbildung F : C →
C z → Re(z) sind

' ( ' ( ' (


1 0 B 10
F(1) = 1 ⇒ [F(1)]B = und F(i) = 0 ⇒ [F(i)]B = ⇒ M B (F) = .
0 0 00

128 A B Die Darstellungsmatrix von F in der Standardbasis ist M EE (F) =


⎡ ⎤
1 i 0
⎣ i 1 0⎦. Die Transformationsmatrix T B→E hat die Basisvektoren von
101
⎡ ⎤
01 0
B als Spalten T B→E = ⎣ i 0 −2⎦. T E →B ist die Inverse von T B→E ,
10 i
612 Kapitel 10 • Prüfungstrainer

⎡ ⎤
0 i 2
d. h. T E →B = T −1B→E =
⎣1 0 0⎦. Somit M B (F) = T E →B M E (F)T B→E =
B E
0 −1 i
⎡ ⎤⎡ ⎤⎡ ⎤ ⎡ ⎤
0 i 2 1 i 0 01 0 1 1 0
⎣1 0 0⎦ ⎣ i 1 0⎦ ⎣ i 0 −2⎦ = ⎣−1 1 −2i⎦.
0 −1 i 101 10 i 0 0 1
129 A B C Da dim(V ) = 3 ̸= 2 = dim(W ) ist F kein Endomorphismus. Bei
Isomorphismen muss auch dim(V ) = dim(W ) sein (damit Darstellungsmatrix
invertierbar ist).
130 A B C Es sei dim(V ) = n.
5 F ◦ G injektiv ⇒ Ker(F ◦ G) = {0}. Da F invertierbar ist, gilt Ker(F ◦ G) =
Ker(G) (dies sieht man wie folgt: (F ◦G)(v) = 0 ⇔ (F −1 ◦F ◦G)(v) = F −1 (0) =
0 ⇔ G(v) = 0). Daraus folgt Ker(G) = {0} ⇒ G injektiv.
5 F ◦ G surjektiv ⇒ Rang(F ◦ G) = n. Aus der Formel Rang(F ◦ G) ≤ Rang(G)
folgt n ≤ Rang(G). Da Rang(G) nicht grösser als n sein kann, gilt Rang(G) =
n ⇒ G surjektiv.
5 Die Aussage über Isomorphismen folgt aus den obigen zwei Punkten.

131 A B C D A und B sind genau dann äquivalent, wenn Rang(A) = Rang(B)


(Satz 8.15). B hat Rang 3. Wir suchen somit k ∈ R, sodass A Rang 3 hat:

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 k 2 1 1 0 1 (Z3 ) + 2(Z1 )
11 0 1
(Z1 ) als
⎢ 1 1 0 1 ⎥ ⎢ ⎥ − (Z2 ) ⎢ 0 1 1 2⎥
⎢ ⎥ letzte!Zeile ⎢ 0 1 1 2 ⎥ (Z4 )! ⎢ ⎥
⎣ 0 1 1 2 ⎦ ⎣ −2 0 1 −1 ⎦ ⎣0 2 1 3⎦
−2 0 1 −1 0 1k 2 0 0 k−1 0
⎡ ⎤ ⎡ ⎤
11 0 1 11 0 1
(Z3 ) − 2(Z2 ) ⎢0 1 1 2 ⎥ − 1)(Z3 ) ⎢ 0 1 1 2 ⎥
! ⎢ ⎥ (Z4 ) + (k
! ⎢ ⎥
⎣ 0 0 −1 −1 ⎦ ⎣ 0 0 −1 −1 ⎦ = Z.
0 0 k−1 0 0 0 0 1−k

Für k = 1 ist Rang(A) = 3 ⇒ A und B äquivalent.


132 A B Ähnliche Matrizen haben dieselbe Spur. Wegen Spur(A) = 6 und
Spur(B) = 5 sind A und B nicht ähnlich. Alternative: Ähnliche Matrizen haben
dieselbe Determinante. Wegen det(A) = −20 und det(B) = 1 sind A und B nicht
ähnlich.
133 A B „A und E sind ähnlich“ bedeutet: es gibt eine invertierbare Matrix T ∈
GL(n, K) mit A = TET −1 . Wegen TET −1 = TT −1 = E heißt dies A = E.
134 A B V und W sind genau dann isomorph, wenn dim(V ) = dim(W ). P7 (R)
ist der Vektorraum der reellen Polynomen vom Grad ≤ 7 ⇒ dim P7 (R) = 8. Die
Dimension von C2×2 (als reeller Vektorraum) ist dim(C2×2 ) = 8 (jede Matrix in
C2×2 hat 4 Einträge; für jeden Eintrag müssen wir den Real- und den Imaginärteil
angeben ⇒ 8 freie Parameter). Wegen dim P7 (R) = dim(C2×2 ) sind P7 (R) und
C2×2 isomorph. Beachte: Als C-Vektorraum hat C2×2 die Dimension 4.
10.6 • Multiple-Choice Fragen – Lösungen
613 10
7 Kapitel 9
' (' ( ' (
1 0 2 2
135 A B C D Av1 = = = 1 · v1 ⇒ v1 ist Eigenvektor zum
−1 3 1 1
' (' ( ' (
1 0 0 0
Eigenwert 1. Analog: Av2 = = = 3 v2 ⇒ v2 ist Eigenvektor zum
−1 3 1 3
Eigenwert 3.
136 A B C D A hat zwei Eigenwerte. Deren Summe ist gleich Spur(A) = −3 +
2 = −1. Der erste Eigenwert ist 1. Der zweite Eigenwert ist somit gleich −2.
137 A B Die Eigenwerte können komplex sein, selbst wenn die Matrix reell ist,
' (
0 1
z. B. A = hat die komplexen Eigenwerte ±i.
−1 0
138 A B C Jede Zeilensumme ist gleich 3. Somit ist 3 ein Eigenwert von A. Der
andere Eigenwert ist −1 mit algebraischer Vielfachheit 2. Somit ist das Spektrum
von A gleich {−1, −1, 3}.
139 A B C D det(A − λE) = −(λ + 2)2 (λ − 4). Die Eigenwerte sind somit -2
(mit algebraischer Vielfachheit 2) und 4 (mit algebraischer Vielfachheit 1). Der
B⎡1⎤C
Eigenraum zu −2 ist Eig−2 (A) = ⎣0⎦ ⇒ −2 hat geometrische Vielfachheit 1.
0
B⎡1⎤C
Der Eigenraum zu 4 ist Eig4 (A) = ⎣6⎦ ⇒ 4 hat geometrische Vielfachheit 1.
0
140 A B C Bei Dreiecksmatrizen sind die Eigenwerte genau die Diagonaleinträ-
ge.
141 A B C D A ist eine Blockdiagonalmatrix. Somit können wir die Eigenwerte
der einzelnen Blöcke separat betrachten. Die Eigenwerte von A sind 0, 2 (erster
Block), −5 (zweiter Block) und 3, −1 (dritter Block). Der Spektralradius ist gleich
dem Betragsgrößten der Eigenwerte ρ(A) = max{|2|, |0|, | − 5|, |3|, | − 1|} = 5.
142 A B C Das Produkt der Eigenwerte einer Matrix A ist gleich det(A). Somit
ist 0 ein Eigenwert von A genau dann, wenn det(A) = 0. Wir 8suchen8 somit
8 a,8b ∈
81 28 8a −18
R, sodass det(A) = det(B) = 0 gilt. Für A gilt: det(A) = 88 88 + a 88 8 =
33 1 28
2a2 + a − 3 = 0 ⇒ a = 1 oder a = − 32 . Für B gilt (Entwicklung nach 2. Spalte):
8 8 8 8
81 1 18 8b 1 38
8 8 8 8
det(B) = 880 1 188 + 3 881 1 188 = 0 ∀b ∈ R.
81 1 48 80 1 18
143 A B C Die Eigenwerte sind die Nullstellen des charakteristischen Polynoms.
Über R sind diese Nullstellen genau 2 und 3, d. h., die Eigenwerte von F sind 2
und 3. Über Z2 gilt 2 = 0 und 3 = 1, d. h. F hat die Eigenwerte 0 und 1. Über Z3
gilt 2 = 2 und 3 = 0, d. h. F hat die Eigenwerte 0 und 2.
144 A B C D Die Eigenwerte einer Diagonalmatrix sind genau die Diagonal-
einträge.
614 Kapitel 10 • Prüfungstrainer

8 8
82 − λ i 0 88 8 8
8 82 − λ i 8
8
145 a) A B C D det(A − λE) = 8 −i 2 − λ 0 8 = (2 − λ) 88 8 8=
8 0 8 −i 2 − λ8
0 2−λ
2
(2 − λ)(λ − 4λ + 3) = (1 − λ)(2 − λ)(3 − λ) = 0 ⇒ λ = 1, 2, 3.
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 i 0 i 3i i
b) A B C D ⎣−i 2 0⎦ ⎣1⎦ = ⎣ 3 ⎦ = 3 ⎣1⎦ ⇒ Eigenvektor zu λ = 3;
0 02 0 0 0
⎡ ⎤⎡ ⎤ ⎡ ⎤
2 i 0 −i −i
Analog ⎣−i 2 0⎦ ⎣ 1 ⎦ = ⎣ 1 ⎦ ⇒ Eigenvektor zu λ = 1.
0 02 0 0
146 A B λ ist ein Eigenwert von A ⇔ det(A − λE) = 0. Für λ = 0 ist dies genau
dann der Fall, wenn det(A − 0 · E) = det(A) = 0.
147 A B C D Die Eigenwerte von A sind 7 und 1. Die zugehörigen Eigenvek-
' ( ' (
4 2
toren sind beziehungsweise .
−1 1
148 A B Die Eigenwerte einer unitären Matrix sind komplexe Zahlen mit Modulus
1.
149 A B C D A ist eine Spiegelung falls AT A = E (d. h. A ist orthogonal) und
det(A) = −1 gilt. Orthogonale Matrizen haben nur 1 und −1 als Eigenwerte. Die
Determinante von A ist gleich dem Produkt ihrer zwei Eigenwerte (wir wissen,
es gibt 2 Eigenwerte, weil A ∈ R2×2 ). Somit hat A die Eigenwerte 1 und −1. Die
Eigenwerte von A sind die Nullstellen von pA (x) und pA (x) ist ein Polynom vom
Grad 2 (Koeffizient vor x2 ist 1) ⇒ pA (x) = (x − 1)(x + 1) = x2 − 1.
150 A B C D Die Bilder der Basiselemente {sin(x), cos(x)} unter F sind

' (
0
F(sin(x)) = cos(x) ⇒ [F(sin(x))]B = und
1
' (
−1
F(cos(x)) = − sin(x) ⇒ [F(cos(x))]B = .
0
' (
0 −1
Somit ist M B
B (F) = . Die Eigenwerte dieser Matrix sind i und −i. Der
1 0
' (
1
Eigenvektor zum Eigenwert i ist . Dies entspricht cos(x) + i sin(x) = eix
i
' (
d ix ix 1
(in der Tat dx e = ie ). Der Eigenvektor zum Eigenwert −i ist . Dies
−i
entspricht cos(x)−i sin(x) = e−ix . F ist ein Isomorphismus, weil 0 kein Eigenwert
ist (Alternative: det M B
B (F) = 1 ̸= 0).
10.7 • Musterprüfung 1 – Musterlösung
615 10
10.7 Musterprüfung 1 – Musterlösung

Aufgabe 1 ' (
2312
a) A B C D E Es gilt C = AB = ⇒ c23 = 1.
3413
b) A B C D AB = 2E ⇒ A = 2EB−1 ⇒ B−1 = 12 A.
c) A B v1 , v2 , v3 sind linear abhängig, weil v3 = v1 + v2 . Somit bilden sie keine
Basis von R3 . ⎡ ⎤
1 0 1
d) A B C D dim(U) = Rang ⎣0 1 1⎦ = 2.
1 −1 0
e) A B C D det(A) ̸= 0 ⇒ A ist invertierbar (regulär und hat Rang n).
Insbesondere ist für invertierbare lineare Abbildungen Ker(A) = {0}.
f) A B Die Darstellungsmatrix einer linearen Abbildung F : Rm → Rn gehört
zu Rn×m (m und n werden “vertauscht”).
g) A B C Die Darstellungsmatrix ist eine (4 × 5)-Matrix, also Rang(A) ≤ 4
(wegen der Formel Rang(A) ≤ min{m, n} für A ∈ Rm×n ).

h) A B C D Die Eigenwerte von A (gleich wie AT ) sind die Nullstellen von


pA (λ), d. h. −2 (algebraische Vielfachheit 3) und 3 (algebraische Vielfachheit 1).

Aufgabe 2
⎡ ⎤
( 0 −1
' ' (
T 0 1 2 ⎣ ⎦ 5 α+4
a) Direkte Berechnung AA = 1 α = ⇒
−1 α 2 α + 4 α2 + 5
2 2
⎡ ⎤ ⎡ 2 ⎤
α0 ' ( α α 2α
α 1 2
Spur(AAT ) = α 2 + 10. Analog BBT = ⎣ 1 α ⎦ = ⎣ α α 2 + 1 α + 2⎦ ⇒
0α1
2 1 2α α + 2 5
T T T
Spur(BB ) = 2α +6. Aus Spur(AA ) = Spur(BB ) folgt somit α 2 +10 = 2α 2 +6
2

⇒ α 2 = 4 ⇒ α = ±2.
b) A symmetrisch ⇒ AT = A. Mit der Regel (XY)T = Y T X T finden wir:
# $T
BBT AB−1 (BA)−1 BAT = B 3BT45
B−T6 AT A−1 B −1 T
AT A−1 3456
3 45 B6 A = B 3456 AT
=E =E =A =A
−1
= BA A
3 45 A6 = BA.
=E

# $T # $T
c) Zu zeigen ist C T = C. Es gilt: C T = A−1 BBT (A−1 )T = (A−1 )T (BT )T BT
(A−1 )T = A−1 BBT (A−1 )T = C. Somit ist C symmetrisch.

Aufgabe 3
a) v1 , v2 , v3 sind genau dann linear unabhängig, wenn die Determinante der Matrix
A = [v1 , v2 , v3 ] (die Spalten von A sind die gegebenen Vektoren) gleich Null ist.
616 Kapitel 10 • Prüfungstrainer

Wegen
⎡ ⎤
11 k 8 8 8 8
8k − 4 8 81 k8
det ⎣1 k − 45 ⎦ = 88 58 − 8 8 = k2 + 4k + 4 = (k + 2)2 =! 0 ⇒ k = −2
5 k 8 85 k8
05 k

sind v1 , v2 , v3 genau dann linear unabhängig, wenn k = −2.


b) Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms
det(A − λE):
⎡ ⎤
−λ 1 0
!
det(A − λE) = det ⎣−6 −5 − λ − 45 ⎦ = (2−λ)(λ+2)(λ+3) = 0 ⇒ λ = −3, −2, 2.
8 15 2 − λ

Die Eigenwerte sind also −3, −2, 2.

Aufgabe 4 Wir berechnen den Rang der erweiterten Matrix [A|b] mit dem Gauß-
Algorithmus
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
111 3 1 1 1 3 11 1 3
(Z3 ) − 2(Z1 ) (Z3 ) − (a − 2)(Z2 )
⎣0 1 a 2⎦ ! ⎣0 1 a 2 ⎦ ! ⎣0 1 a 2 ⎦.
2a5 0 0 a − 2 3 −6 0 0 (a + 1)(3 − a) −2(a + 1)

a) Das lineare Gleichungssystem hat genau dann eine eindeutige Lösung, wenn
Rang(A) = Rang[A|b] = 3. Dies ist genau dann der Fall, wenn (a + 1)(3 − a) ̸= 0
(−2(a + 1) ̸= 0 kann beliebig sein) ⇒ a ̸= −1, 3.
b) Das lineare Gleichungssystem hat genau dann keine Lösung, wenn Rang(A) ̸=
Rang[A|b]. Dies ist genau dann der Fall, wenn (a+1)(3−a) = 0 aber −2(a+1) ̸= 0
⇒ a = 3.
c) Das lineare Gleichungssystem hat genau dann unendlich viele Lösungen, wenn
Rang(A) = Rang[A|b] < 3. Dies ist genau dann der Fall, wenn (a + 1)(3 − a) = 0
und −2(a + 1) = 0 ⇒ a = −1. In diesem Fall ist Rang(A) = 2 ⇒ die Dimension
des Lösungsraumes L ist n − Rang(A) = 3 − 2 = 1. L beschreibt eine Gerade im
dreidimensionalen Raum.

Aufgabe 5
a) Wir berechnen den Rang von A mit dem Gauß-Algorithmus
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1k 0 1 k 0 1k 0
(Z3 ) − 2(Z1 ) (Z3 ) + k(Z2 )
⎣0 1 k−4⎦ ! ⎣0 1 k−4⎦ ! ⎣0 1 k − 4 ⎦.
2k 0 0 −k 0 0 0 k(k − 4)

A ist genau dann invertierbar, wenn Rang(A) = 3. Dies ist genau dann der Fall,
wenn k(k − 4) ̸= 0 ⇒ k ̸= 0, 4.
10.7 • Musterprüfung 1 – Musterlösung
617 10
Alternative: Mit der Determinante (Entwicklung nach der dritten Spalte)
⎡ ⎤
1k 0 8 8
81 k8 !
det ⎣0 1 k − 4⎦ = −(k − 4) 88 88 = k(k − 4) ̸= 0 ⇒ k ̸= 0, 4.
2k
2k 0
b) Wir wenden den Gauß-Algorithmus auf die erweiterte Matrix [A|E] an
⎡ ⎤ ⎡ ⎤
1k 0 100 1 k 0 1 00
(Z3 ) − 2(Z1 )
⎣0 1 k−4 0 1 0⎦ ! ⎣0 1 k−4 0 1 0⎦
2k 0 001 0 −k 0 −2 01
⎡ ⎤
(Z3 ) + k(Z2 ) 10 0 −1 0 1
(Z1 ) + (Z3 )
! ⎣0 1 k−4 0 1 0⎦
0 0 k(k − 4) −2 k 1
⎡ ⎤ ⎡ ⎤
(Z2 ) − (Z3 )/k 1 0 0 −1 0 1 −1 0 1
(Z3 )/(k(k − 4)) ⎢
! ⎣0 1 0
2
k 0 − k1 ⎥
⎦ ⇒

A−1 = ⎣ k2 0 − k1 ⎥

2 1 1 2 1 1
0 0 1 − k(k−4) k−4 k(k−4) − k(k−4) k−4 k(k−4)

Aufgabe 6
a) U ist die Lösungsmenge eines homogenen linearen Gleichungssystem. Nach
Satz 5.2 ist U ein Unterraum von R4 . Alternative: Man weist die Unterraum-
Bedingungen explizit nach.

b) Wir lösen die definierenden Gleichungen x1 + 2x4 = 0 und 3x1 + x2 = 0. Es


sind zwei Gleichungen für 4 Unbekannte ⇒ zwei Variablen sind frei wählbar.
Wir wählen x1 = t und x3 = s als freie Variablen (andere Wahlen sind natürlich
möglich). Wir erhalten x4 = −x1 /2 = −t/2 und x2 = −3x1 = −3t. Die Lösung
⎡ ⎤ ⎡ ⎤ ⎧⎡ ⎤ ⎡ ⎤⎫
1 0 ⎪ 1
⎪ 0 ⎪
⎢ −3 ⎥ ⎢0⎥ ⎨⎢ ⎥ ⎢ ⎥⎪ ⎬
ist x = t ⎢ ⎥ + s ⎢ ⎥ , t, s ∈ R. Eine Basis von U ist somit ⎢ ⎥ , ⎢0⎥ .
−3
⎣ 0 ⎦ ⎣1⎦ ⎪⎣ 0 ⎦ ⎣1⎦⎪


⎩ ⎭
1
−2 0 − 12 0
c) Die gefundene Basis von U besteht aus 2 linear unabhängigen Vektoren ⇒
dim(U) = 2.

Aufgabe 7
⎡ ⎤
1 1 2 1
⎢ 1 2 4 1⎥
a) M EE (F) = ⎢
⎣ 2 2 4 3⎦

−1 −2 −4 2
b) Wir lösen F(x) = 0 mit dem Gauß-Algorithmus
⎡ ⎤ ⎡ ⎤
1 1 2 1 0 (Z2 ) − (Z1 )
(Z3 ) − 2(Z1 )
1 1 2 1 0
⎢ 1 2 4 1 0⎥ (Z4 ) + (Z1 ) ⎢0 1 2 0 0⎥
⎢ ⎥ ! ⎢ ⎥
⎣ 2 2 4 3 0⎦ ⎣0 0 0 1 0⎦
−1 −2 −4 2 0 0 −1 −2 3 0
618 Kapitel 10 • Prüfungstrainer

⎡ ⎤ ⎡ ⎤
1 1 2 1 0 1 1 2 1 0
(Z4 ) + (Z2 ) ⎢0 1 2 0 0⎥ (Z4 ) − 3(Z3 ) ⎢0 1 2 0 0⎥
! ⎢ ⎥ ! ⎢ ⎥.
⎣0 0 0 1 0⎦ ⎣0 0 0 1 0⎦
0 0 0 3 0 0 0 0 0 0

Es folgt x4 = 0 und x3 = t ∈ R (beliebig) ⇒ x2 = −2x3 = −2t und x1 =


−x2 − 2x3 − x4 = 0. Daher ist
⎧ 8 ⎡ ⎤ ⎫


8
8 0 ⎪

⎨ 8 ⎢−2⎥ ⎬
Ker(F) = x ∈ R4 8x = t⎢ ⎥, t ∈ R
8 ⎣1⎦

⎪ 8 ⎪

⎩ 8 ⎭
0
⎧⎡ ⎤⎫

⎪ 0 ⎪
⎨⎢ ⎥⎪ ⎬
−2
und eine Basis von Ker(F) ist ⎢ ⎣
⎥ .


⎪ 1 ⎪ ⎪
⎩ ⎭
0
c) Wir wenden den Gauß-Algorithmus an der Transponierten-Darstellungsmatrix
und lesen die von Null verschiedenen Zeilen am Ende des Verfahrens ab:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 2 −1 (Z2 ) − (Z1 ) 1 1 2 −1 1 1 2 −1
(Z3 ) − 2(Z1 )
⎢1 2 2 −2 ⎥ (Z4 ) − (Z1 ) ⎢0 1 0 −1 ⎥ (Z3 ) − 2(Z2 ) ⎢0 1 0 −1 ⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥.
⎣2 4 4 −4 ⎦ ⎣0 2 0 −2 ⎦ ⎣0 0 0 0 ⎦
1 1 3 2 0 0 1 3 0 0 1 3
⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎫

⎪ 1 0 0 ⎪
⎨⎢ ⎥ ⎢ ⎥ ⎢ ⎥⎪ ⎬
1 ⎥ , ⎢ ⎥ , ⎢0⎥ .
1
Eine Basis von Im(F) ist ⎢ ⎣ 2 ⎦ ⎣ 0 ⎦ ⎣1⎦⎪

⎪ ⎪
⎩ ⎭
−1 −1 3
d) Wegen Ker(F) ̸= {0} ist F nicht injektiv. Wegen Im(F) ̸= R4 ist F nicht surjektiv.
e) Mit dim(Ker(F)) = 1, dim(Im(F)) = 3 und dim(R4 ) = 4 ist die Dimensionsformel
erfüllt

dim(R4 ) = 4 = 1 + 3 = dim(Ker(F)) + dim(Im(F)) "

Aufgabe 8
a) λ ist ein Eigenwert von A genau dann, wenn det(A − λE) = 0. Wegen
⎤ ⎡ ⎡ ⎤
−4 3 0 −4 3 0
det(A − 4E) = det ⎣ 1 2 − 4 0 ⎦ = det ⎣ 1 −2 0⎦ = 0
0 5 4−4 0 5 0

ist λ = 4 ein Eigenwert von A (Determinante ist Null, weil eine Spalte ist gleich
Null ist). Alternative: Wir berechnen alle Eigenwerte von A mit dem charakteristi-
10.8 • Musterprüfung 2 – Musterlösung
619 10
⎡ ⎤
−λ 3 0
1
schen Polynoms det(A − λE) = det ⎣ 1 2 − λ 0 ⎦ = (4 − λ)(λ − 3)(λ + 1) = 0
0 5 4−λ
⇒ die Eigenwerte sind λ = −1, 3, 4.
b) Wir lösen (A − 4E)v = 0 mit dem Gauß-Algorithmus
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−4 3 0 0 −4 3 0 0 −4 3 0 0
4(Z2 ) + (Z1 )
⎣ 1 2 − 4 0 0 ⎦ = ⎣ 1 −2 0 0 ⎦ ! ⎣ 0 −5 0 0 ⎦
0 5 4−4 0 0 5 0 0 0 5 0 0
⎡ ⎤
−4 3 0 0
(Z3 ) + (Z2 )
! ⎣ 0 −5 0 0 ⎦ .
0 0 0 0

Es folgt x1⎧= 0, x28 = 0 und x3 = t ⎫∈ R, d. h. der Eigenraum zu λ = 4 ist


⎡ ⎤
⎨ 8 0 ⎬
3
8
8
Eig4 (A) = x ∈ R 8 x = t 0⎦ , t ∈ R .

⎩ 8 ⎭
1
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
030 3 −3 3
c) ⎣
Wegen Av = 1 2 0 ⎦ ⎣ −1 = 1 = − −1⎦ = (−1)v ist v ein Eigenvector
⎦ ⎣ ⎦ ⎣
054 1 −1 1
von A zum Eigenwert λ = −1.
d) Wegen Av = −v ist A100 v = (−1)100 v = v. Daher uT A100 v = uT v =
⎡ ⎤
! " 3
0 0 1 ⎣−1⎦ = 1.
1
e) Die Summe aller Eigenwerte von A ist gleich Spur(A) = 2 + 4 = 6. Aus (a) und
(d) wissen wir, dass 4 und −1 Eigenwerte sind. Der dritte Eigenwert λ erfüllt also
4 + (−1) + λ = 6 ⇒ λ = 3.
% &T
f) Die Eigenwerte von A sind 4, −1 und 3 ⇒ Die Eigenwerte von An + 2E sind
4n + 2, (−1)n + 2 und 3n + 2.
g) A ist genau dann invertierbar, wenn 0 kein Eigenwert von A ist. Da alle Eigenwerte
von A ungleich Null sind, ist A invertierbar. Die Eigenwerte von A−1 sind 1/4,
1/(−1) = −1 und 1/3.

10.8 Musterprüfung 2 – Musterlösung

Aufgabe 1
a) A B C D det[3e2 , −e3 , 2e1 ] = −6 det[e2 , e3 , e1 ] = 6 det[e2 , e1 , e3 ] =
−6 det[e1 , e2 , e3 ] = −6.
b) A B C D Eine Teilmenge einer linear unabhängigen Menge ist immer linear
unabhängig. Mehr als 7 Vektoren in R7 sind linear abhängig.
c) A B C D A ist regulär, weil 0 kein Eigenwert ist. Daher hat A maximalen
Rang, d. h. Rang(A) = 4. Die Summe aller Eigenwerte ist gleich Spur(A). Daher
620 Kapitel 10 • Prüfungstrainer

ist Spur(A) = 1 + 2 + 3 + 4 = 10. Die Diagonaleinträge von A können nicht alle


≥ 5, weil sonst wäre Spur(A) ≥ 5 + 5 + 5 + 5 = 20. Wegen Spur(A) = 10 ist dies
unmöglich.
) 1 1 1 * ' 1 −1 0 ( ) 1 0 0 *
d) A B C 0 1 1 0 1 −1 = 0 1 0
001 0 0 1 001
e) A B P ist die Permutationsmatrix, welche aus E durch Vertauschen der zweiten
'1 0 0 0(
und dritten Zeile entsteht P = 00 01 10 00 .
0001
f) A B C D Unterräume sind genau die Lösungsmengen von homogenen
LGS. Daher ist U1 kein Unterraum (LGS ist inhomogen). U2 ist ein Unterraum
(LGS ist homogen). Alternativ nach Sarrus!

g) A B C D A regulär ⇒ A hat maximalen Rang (d. h. Rang(A) = 7) und


0 ist kein Eigenwert. Das LGS Ax = 0 hat aber nur die triviale Lösung, wegen
Ax = 0 ⇒ x = A−1 0 = 0.
! x1 +x2 " !1 1
" ! x1 "
h) A B C D F ist linear mit Darstellungsmatrix x1 −x2 = 1 −1 x2 .
3 45 6
=A
i) A B C D F ist die Projektion auf die x2 x3 -Ebene. 0 ist ein Eigenwert und
die Darstellungsmatrix ist daher nichtinvertierbar.
j) A B Wegen A(−v) = −Av = −λv = λ(−v) ist (−v) ein Eigenvektor zum
Eigenwert λ.

Aufgabe 2
a) Wahr. Die Matrix beschreibt eine Drehung um ϕ = −π/6.
b) Falsch. Lineare Abbildungen F : Rn → Rn sind eindeutig durch die Angabe von
F(b1 ), · · · , F(bn ) bestimmt (wobei {b1 , · · · , bn } eine Basis von Rn ist).
c) Wahr. Aus der Dimensionsformel mit V = R4 und W = R3 folgt dim(V ) =
3 45 6
=4
dim(Ker(F)) + dim(Im(F)) ⇒ dim(Im(F)) = 4 − 1 = 3, gleich wie W ⇒ F ist
3 45 6
=1
surjektiv.
d) Falsch. P3 (R) hat die Dimension 4. Weniger als 4 Polynome bilden somit kein
Erzeugendensystem von P3 (R).
e) Wahr. Wegen! F(1, T T
" 0) = [1, 1] und F(0,
! 11) "= " 2]! 2 "ist die
! 1 [1, ! "Darstellungsmatrix
von F gleich 1 2 . Daher ist F(1, 1) = 1 2 1 = 3 ̸= 22 .
1 1 1
8 8
8 2 −2 −2 8
f) Wahr. Entwicklung nach der dritten Spalte (hat am meisten Nullen) 8 1 1 0 88 =
8
−3 4 0
8 1 18
8 8
(−2) −3 4 = (−2)(4 + 3) = −14.
)1 1*
g) Falsch. Wegen Rang 5 3 = 2 sind die Vektoren linear unabhängig.
74

Aufgabe 3
a) Wir beginnen mit dem Ausgangsschema [E|E|A] und wenden den Gauß-
Algorithmus mit Pivotstrategie an:
10.8 • Musterprüfung 2 – Musterlösung
621 10
⎡ ⎤ (Z2 ) − 1 (Z1 ) ⎡ ⎤
100 1 00 2 2 2 2
(Z3 ) + 1 (Z1 )
100 1 00 2 2 2
[E|E|A] = ⎣ 0 1 0 0 10 1 1 0 ⎦ ! 2 ⎣ 0 1 0 1 1 0 0 0 −1 ⎦
2
001 0 0 1 −1 −2 −2 0 0 1 − 12 0 1 0 −1 −1
⎡ ⎤
1 00 1 00 2 2 2
(Z3 ) ↔ (Z2 )
! ⎣0 0 1 − 12 1 0 0 −1 −1 ⎦ = [P|L|R]
0 1 0 12 0 1 0 0 −1
@ A ' (
)1 0 0* 1 00
2 2 2
Es folgt P = 0 0 1 , L = − 12 1 0 und R = 0 −1 −1 . Die Probe liefert PA =
010 1
01 0 0 −1
2
LR ".
b) Wir lösen zuerst Lz = Pb und danach Rx = y

⎤ ⎡ ⎤ ⎡ ⎤
2 1 00 2 2
Pb = ⎣−1⎦ ⇒ ⎣ − 12 1 0 −1 ⎦ ⇒ z = ⎣ 0 ⎦
1
−2 2 0 1 −2 −3
⎡ ⎤ ⎡ ⎤
2 2 2 2 1
⇒ ⎣ 0 −1 −1 0 ⎦ ⇒ x = ⎣−3⎦
0 0 −1 −3 3

Aufgabe 4
a) Entwicklung nach der ersten Spalte liefert
8 8
8(a1 − x) a2 a3 a4 8 8 8
8 8 8−x 0 0 8
8 0 −x 0 0 88 8 8
8
8 0 = (a1 −x) 8 1 −x 0 8 = (a1 −x)(−x)3 = (x−a1 )x3 .
8 1 −x 0 88 8
8 0 1 −x8
8
8 0 0 1 −x8 3 45 6
=(−x)(−x)(−x) Dreiecksmatrix

!
Aus (x − a1 )x3 = 0 folgt x = 0 oder x = a1 .

b) Wir wenden den Gauß-Algorithmus an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
k −k 0 −1 1 −2 1 0 1 −2 1 0
(Z2 ) ↔ (Z1 ) (Z2 ) − k(Z1 )
⎣ 1 −2 1 0 ⎦ ! ⎣ k −k 0 −1 ⎦ ! ⎣ 0 k −k −1 ⎦
0 1 k 1 0 1 k 1 0 1 k 1
⎡ ⎤ ⎡ ⎤
1 −2 1 0 1 −2 1 0
(Z3 ) ↔ (Z2 )
! ⎣ 0 1 k 1 ⎦ (Z3 )! − k(Z2 )
⎣0 1 k 1 ⎦.
0 k −k −1 0 0 −k(k + 1) −(k + 1)
:
3, k ̸= −1
Es folgt Rang(A) = . Die Dimension der Lösungsmenge ist 4 −
2, k = −1
!
Rang(A). Eine Gerade hat Dimension 1 ⇒ Rang(A) = 3 ⇒ k ̸= −1.
622 Kapitel 10 • Prüfungstrainer

@ A@ A ⎡ ⎤
a b 0 1 a −b 0 −1 a2 +b2 +1 0 0 0
T −b a −1 0 b a 1 0 ⎣ 0 a2 +b2 +1 0 0 ⎦.
c) Es gilt AA = 0 1 a −b 0 −1 a b =
0 0 a2 +b2 +1 0
−1 0 b a 1 0 −b a 0 0 0 2 2
a +b +1
# $
2
Wegen det AAT = det(A) det(A) = 2 2
det(A) = (a + b + 1) finden wir 4

det(A) = ±(a2 + b2 + 1)2 . Wir müssen nur noch das Vorzeichen der Determinante
bestimmen, d. h. ob det(A) = (a2 + b2 + 1)2 oder det(A) = @ −(a2 + b2 A
+ 1)2 ist.
0 0 0 1
0 0 −1 0
Zu diesem Zweck setzen wir a = b = 0 in A ein. Wegen det 0 1 0 0 = 1 ist
−1 0 0 0
det(A) = (a2 + b2 + 1)2 die richtige Antwort.

Aufgabe 5
a) Die Summe der Eigenwerte ist Spur(A) und deren Produkt ist det(A). Es seien also
λ1 und λ2 die zwei Eigenwerte von A. Dann gilt λ1 + λ2 = 5 und λ1 · λ2 = 4 ⇒
λ1 = 1 und λ2 = 4. Die Eigenwerte von 2A + AT + 4A−1 sind 2λ1 + λ1 + 4/λ1 =
2 + 1 + 4 = 7 und 2λ2 + λ2 + 4/λ2 = 8 + 4 + 1 = 13.
b) Wir verifizieren die Linearitätsbedingung (L). Es seien v, w ∈ R3 und a, b ∈ R.
Wegen der Linearität des Kreuzproduktes gilt:

F(av + bw) = α × (av + bw) = a(α × v) + b(α × w) = a F(v) + b F(w).

Somit ist F linear.


c) Es gilt:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤
α v1 βv3 − γ v2 0 −γ β v1
⎣ ⎦ ⎣ ⎦ ⎣
F(v) = α × v = β × v2 = γ v1 − αv3 = γ ⎦ ⎣ 0 −α ⎦ ⎣v2 ⎦
γ v3 αv2 − βv1 −β α 0 v3
3 45 6
=A

d) Wir berechnen das charakteristische Polynom


8 8
8 −λ −γ β 8 8 8 8 8 8 8
8 8 8−λ −α 8 8−γ β 8 8 8
8 8 8
det(A − λE) = 8 γ −λ −α 8 = −λ 8 8−γ 8 8 − β 8−γ β 8
8−β α −λ 8 α −λ 8 8 α −λ8 8 −λ −α 8

− λ(λ2 + α 2 ) − γ (γ λ − αβ) − β(αγ + βλ)


!
= −λ3 − λ(α 2 + β 2 + γ 2 ) = 0

2 2 2
H α + β + γ ≥ 0 sind die Eigenwerte von A gleich λ1 = 0, λ2,3 =
Wegen
±i α 2 + β 2 + γ 2 . A hat reelle Eigenwerte nur für α = β = γ = 0; in allen
anderen Fällen hat A komplexe Eigenwerte.

Aufgabe 6
a) Es ist dim(U) = Rang[u1 , u2 , u3 ] bzw. dim(W ) = Rang[w1 , w2 , w3 ]. Mit dem
Gauß-Algorithmus finden wir
10.8 • Musterprüfung 2 – Musterlösung
623 10
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 1 (Z2 ) − 2(Z1 ) 1 1 1 1 1 1
(Z3 ) − (Z1 ) (Z3 ) − 2(Z2 )
⎣2 1 1⎦ ! ⎣ 0 −1 −1 ⎦ ! ⎣ 0 −1 −1 ⎦
1 −1 3 0 −2 2 0 0 4
⇒ Rang[u1 , u2 , u3 ] = 3
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 2 (Z2 ) − (Z1 ) 112 112
⎣ 1 2 3 ⎦ (Z3 )!+ 3(Z1 )
⎣ 0 1 1 ⎦ (Z3 )!
− 5(Z2 )
⎣ 0 1 1 ⎦ ⇒ Rang[w1 , w2 , w3 ] = 2
−3 2 −1 055 000

Somit ist dim(U) = 3 und dim(W ) = 2. Wegen dim(U) = 3 ist {u1 , u2 , u3 } bereits
3
eine Basis von U. Wir bemerken, * ) U* = R . Daher eine weitere mögliche
) * ) dass 1 0 0
Basis ist die Standardbasis { 0 , 1 , 0 }. Wegen dim(W ) = 2 ist {w1 , w2 } eine
0 0 1
mögliche Basis von W .
b) Wegen U = R3 ist U ∩ W = R3 ∩ W = W . Also dim(U ∩ W ) = 2.
c) Wir schreiben die
) Basispolynome
* als Vektoren
) * in der Standardbasis
) * E = {1, x, x2 }
1 1 0
auf, [1 + x]E = 1 , [1 + 2x + x2 ]E = 2 , [x − x2 ]E = 1 , und schreiben diese
0 1 −1
Vektoren als Spalten in einer Matrix. Mit dem Gauß-Algorithmus bestimmen wir
den Rang dieser Matrix
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
11 0 11 0 11 0
(Z2 ) − (Z1 ) (Z3 ) − (Z2 )
⎣1 2 1 ⎦ ! ⎣0 1 1 ⎦ ! ⎣0 1 1 ⎦.
0 1 −1 0 1 −1 0 0 −2

Die Matrix hat Rang 3 ⇒ Somit ist {1 + x, 1 + 2x + x2 , x − x2 } eine Basis von


P2 (R).
d) Es gilt:
⎡ ⎤ ⎡ 3 ⎤
11 0 2 − 12 − 12
T B→E = ⎣1 2 1 ⎦ ⇒ T E →B = T −1 ⎣ 1
B→E = − 2
1
2
1
2
⎦.
0 1 −1 − 12 1
2 − 12
) 2
*
Die Koordinaten von p(x) = x2 − x + 2 in der Standardbasis sind [p(x)]E = −1 .
1
Daher
⎡ 3 ⎤⎡ ⎤ ⎡ ⎤
2 − 12 − 12 2 3
[p(x)]B = T E →B [p(x)]E = ⎣− 12 1
2
1 ⎦⎣
2 −1 ⎦ = ⎣−1⎦ .
− 12 1
2 −2 1
1 −2

Es folgt p(x) = 3(1 + x) − (1 + 2x + x2 ) − 2(x − x2 ).


!
e) Es sei p(x) = a0 + a1 x + a2 x2 . Aus p(0) = 0 folgt p(0) = a0 = 0 ⇒ a0 = 0. Aus
I1 I1 a1 a2 a1 a2 !
0 p(x)dx = 0 folgt 0 p(x)dx = a0 + 2 + #3 = 2 + = 0 ⇒ a2 = − 32 a1 . Ein
$ 3
Polynom in U sieht wie folgt aus p(x) = a1 x − 32 x2 mit a1 ∈ R. Eine Basis von
U ist also {x − 32 x2 } mit dim(U) = 1.
624 Kapitel 10 • Prüfungstrainer

Aufgabe 7
a) Wir wenden F auf jedes Element der Standardbasis von R2×2 an und bestimmen
die Koordinaten dieser Bilder in der Standardbasis von R2×2 :
⎡ ⎤
1
' (
' (T ' (
20 10 10 ⎢0⎥
F(E11 ) = − = = E11 ⇒ [F(E11 )]E = ⎢
⎣0⎦

00 00 00
0
⎡ ⎤
0
' (
' (T ' (
02 01 0 2 ⎢2⎥
F(E12 ) = − = = 2E12 − E21 ⇒ [F(E12 )]E = ⎢
⎣−1⎦

00 00 −1 0
0
⎡ ⎤
0
' ( ' (T ' (
00 00 0 −1 ⎢−1⎥
F(E21 ) = − = = −E12 + 2E21 ⇒ [F(E21 )]E = ⎢
⎣2⎦

20 10 2 0
0
⎡ ⎤
0
'( ' (T ' (
00 00 00 ⎢0⎥
F(E22 ) = − = = E22 ⇒ [F(E22 )]E = ⎢
⎣0⎦

02 01 01
1


1 0 0 0
⎢0 2 −1 0⎥
Es gilt somit M EE (F) = ⎢ ⎥
⎣0 −1 2 0⎦.
0 0 0 1
b) Wir lösen F(A) = 0 mit der Darstellungsmatrix
⎡ ⎤ ⎡ ⎤
1 0 0 0 0 1 0 0 0 0
⎢0 2 −1 0 0⎥ 2(Z3 ) + (Z2 ) ⎢0 2 −1 0 0⎥
⎢ ⎥ ! ⎢ ⎥ ⇒ Ker(F) = {0}.
⎣0 −1 2 0 0⎦ ⎣0 0 3 0 0⎦
0 0 0 1 0 0 0 0 1 0

Wegen Ker(F) = {0} folgt


# F injektiv.
$
Alternative: Wegen det M EE (F) = 3 ̸= 0 ist F injektiv und surjektiv.
c) Aus der Dimensionsformel erhalten wir mit V = R2×2

dim(R2×2 ) = dim(Ker(F)) + dim(Im(F)) ⇒ dim(Im(F)) = 4 ⇒ Im(F) = R2×2 .


3 45 6 3 45 6
=4 =0

Somit ist F surjektiv.


d) Wir weisen nach, dass die Unterraumbedingungen (UR0) und (UR) erfüllt sind.
5 Beweis von (UR0) Wegen Spur(0) = 0 ist 0 ∈ U "
10.9 • Musterprüfung 3 – Musterlösung
625 10
5 Beweis von (UR) Es seien A, B ∈ U (⇒ Spur(A) = Spur(B) = 0) und α, β ∈ R.
Dann gilt wegen der Linearität der Spur

Spur(αA + βB) = α Spur(A) + β Spur(B) = 0 + 0 = 0 ⇒ αA + βB ∈ U "

Somit ist U ein


! a bUnterraum
" von V = R2×2 .
2×2
e) Es sei A = c d ∈ R . Aus Spur(A) = 0 folgt a + d = 0 ⇒ d = −a. Die
! b "
spurlosen Matrizen sind somit gegeben durch A = ac −a ∈ R2×2 . Dies können
wir wie folgt schreiben
' ( ' ( ' ( ' (
ab 1 0 01 00
A= =a +b +c .
cd 0 −1 00 10
J! 0 " ! 0 1 " ! 0 0 "K
Eine Basis von U ist somit B = 10 −1 , 0 0 , 1 0 mit dim(U) = 3.
f) Zunächst bemerken wir, dass die Einschränkung von F auf U wohldefiniert
ist. Ist A ∈ U (d. h. Spur(A) = 0), so ist Spur(2A − AT ) = 2 Spur(A) −
Spur(A)
J = !0 ⇒ "F(A) ∈! U." Wir wenden
! "Knun F auf jedes Element der Basis
B = B1 = 10 −1 0 ,B = 0 1 ,B = 0 0
2 00 3 10 an und bestimmen die Koordinaten
dieser Bilder bezüglich B :
⎡ ⎤
'( ' (T ' ( 1
2 0 1 0 1 0
F(B1 ) = − = = B1 ⇒ [F(B1 )]B = 0⎦

0 −2 0 −1 0 −1
0
⎡ ⎤
' ( ' (T ' ( 0
02 01 0 2
F(B2 ) = − = = 2B2 − B3 ⇒ [F(B2 )]B = ⎣ 2 ⎦
00 00 −1 0
−1
⎡ ⎤
'
( ' (T ' ( 0
00 00 0 −1
F(B3 ) = − = = −B2 + 2B3 ⇒ [F(B3 )]B = −1⎦

20 10 2 0
2
⎡ ⎤
1 0 0
was M B ⎣ ⎦
B (F) = 0 2 −1 liefert.
0 −1 2

10.9 Musterprüfung 3 – Musterlösung

Aufgabe 1
a) A B C D Wir vertauschen die erste Spalte mit der letzten, dann die zweite
Spalte mit der vorletzten usw. Bei jeder Vertauschung erhalten wir einen Faktor
(−1). Wir müssen n/2 Vertauschungen machen, und erhalten somit
626 Kapitel 10 • Prüfungstrainer

8 8 8 8
8 ⋆ ⋆ · · · ⋆ 28 82 ⋆ · · · ⋆ ⋆8
8 8 8 8
8 ⋆ ⋆ · · · 2 08 80 2 · · · 2 ⋆8
8 8 8 8
8 .. .. . . .. .. 8 n 8 .. .. . . .. .. 8 n
8 . . . . . 8 = (−1) 2 8 . . . . . 8 = (−1) 2 2n .
8 8 8 8
8 ⋆ 2 · · · 0 08 80 0 · · · 2 ⋆8
8 8 8 8
82 0 · · · 0 08 80 0 · · · 0 28

b) A B C D Jede Zeilensumme ergibt 4. Somit ist 4 ein Eigenwert mit dem


Eigenvektor [1, 1, 1]T . Die Spur von A ist 6 und die Determinante ist 4. Somit ist
λ = 1 ein weiteres Eigenwert (mit algebraischer Vielfachheit 2). Wegen det(A) =
4 ̸= 0 ist A invertierbar. @ A 0 1 0 0 0
0 0 1 0 0
c) A B C A ist eine Permutationsmatrix. Daher ist A−1 = AT = 1 0 0 0 0 .
0 0 0 0 1
0 0 0 1 0
d) A B C D Aussage (B) stimmt nur wenn AB = BA, d. h. wenn A und B
kommutieren.
' ( ) *
2x+y 21 ! "
e) A B Wegen x = 1 0 xy ist (A) die richtige Antwort.
2y 02
!0 1"
f) A B Die Matrix A = 0 0 erfüllt A2 = 0 auch.
g) A B C E Das LGS Av = 0 hat genau dann eine nichttriviale Lösung,
D
' (
k 1 0 !
wenn det(A) = 0. Wegen det −1 k −2 = (k − 1)(k + 1) = 0 ⇒ k = ±1.
1 0 1
h) A B C D Es gilt dim(Im(A)) = Rang(A). Mit dem Gauß-Algorithmus
erhalten wir:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 2 2 2 1 2 2 2 (Z2 )/(−3)
1222
(Z2 ) − 2(Z1 )
⎢2 1 1 1⎥ (Z4 ) − (Z1 ) ⎢0 −3 −3 −3 ⎥ (Z4 ) + (Z3 ) ⎢0 1 1 1⎥
⎢ ⎥ ! ⎢ ⎥ ! ⎢ ⎥
⎣0 2 2 1⎦ ⎣0 2 2 1 ⎦ ⎣0 2 2 1⎦
1 0 0 1 0 −2 −2 −1 0000
⎡ ⎤
122 2
(Z3 ) − 2(Z2 ) ⎢ 0 1 1 1 ⎥
! ⎢ ⎥
⎣ 0 0 0 −1 ⎦ .
000 0

Somit ist Rang(A) = 3 ⇒ dim(Im(A)) = 3.


i) A B C D Bei (A): Jede Menge von Vektoren, welche den Nullvektor
enthält, ist@linear abhängig.
A Bei (B,C,D): Mit dem Determinantenkriterium.
1 0 0 1
0 1 1 0
Wegen det 0 −1 1 0 = 4 ̸= 0 ⇒ Vektoren in (B) linear unabhängig. Wegen
−1 0 0 1
10.9 • Musterprüfung 3 – Musterlösung
627 10
'1 0 0 1( '1 0 0 1(
det 10 1 0 = 0 ⇒ Vektoren in (C) linear abhängig. Wegen det 10 1 0 =
11 0 0 11 0 0
1 1 −1 1 1 1 −1 1
−2 ̸= 0 ⇒ Vektoren in (D) linear unabhängig.
j) A B C D Bei (A,D): Das Nullpolynom p ≡ 0 ist nicht enthalten ⇒ (A) und
(D) sind keine Unterräume.
k) A B C D Die Transformationsmatrix von B = {(x + 1)2 , x2 − 1, (x − 1)2 }
' (
1 −1 1
nach der Standardbasis E = {1, x, x2 } ist T B→E = 2 0 −2 . Die Inverse
1 1 1
@ 1 1 1A
4 4 4
ist T E →B = T −1
B→E = − 12 0 1
2 . Daher ist [p(x)]B = T E →B [p(x)]E =
1
4 − 14 14
@ 1 1 1 A
4 4 4 )0* ) 1
*
− 12 0 12 4 = 0 .
1 0 −1
4 − 41 14
) 1
*
Alternative: (x+1)2 −(x−1)2 = x2 +2x+1−(x2 −2x+1) = 4x ⇒ [p(x)]B = 0 .
−1
! "
l) A B C D Bei (A): Die Matrix 00 −1 1
hat keine reelle Eigenwerte (nur kom-
plexe Eigenwerte ±i). Bei (B): Die Nullmatrix hat Rang 0, aber hat den Eigenwert
0. Bei (C): Nach dem Fundamentalsatz der Algebra hat das charakteristische
Polynom einer komplexen Matrix A ∈ Cn×n genau n Nullstellen ! i 0 "⇒ A ∈ C
n×n

besitzt genau n Eigenwerte. Bei (D): Die komplexe Matrix 0 1 ist diagonal,
! "
jedoch ist 11 kein Eigenvektor.
m) A B Wir wenden die Formel dim(U1 ∩ U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 +
U2 ). Wir wissen auch, dass U1 + U2 ein Unterraum von R50 ist, d. h. dim(U1 +
U2 ) ≤ 50. Daraus folgt dim(U1 ∩ U2 ) = dim(U1 ) + dim(U2 ) − dim(U1 + U2 ) =
30 + 40 − dim(U1 + U2 ) = 70 − dim(U1 + U2 ) ≥ 70 − 50 = 20. Daher ist
dim(U1 ∩ U2 ) ̸= 10.
n) A B C Eine orthogonale Projektion hat die Eigenwerte 0 und 1.
o) A B Die Wronski-Determinante ist
8 8 8 8
8y1 (x) y2 (x) y3 (x)8 8 e−ix 1 eix 8 8 ix
8
−ix 8
8 8 8 8 8
8y′ (x) y′ (x) y′ (x)8 = 8−ie−ix 0 ieix 8 = − 8 −ie ie 8 = −2i ̸= 0
8 1 2 3 8 8 8 8−e−ix −eix 8
8y′′ (x) y′′ (x) y′′ (x)8 8 −eix 0 −e−ix 8
1 2 3

⇒ e−ix , 1, eix sind linear unabhängig.

Aufgabe 2
a) Für X ∈ Rm×n gilt Rang(X) ≤ min{m, n}. In unserem Fall sind A ∈ R7×1 und B ∈
R1×7 ⇒ Rang(A) ≤ 1 und Rang(B) ≤ 1. Außerdem mit der Formel Rang(XY) ≤
min{Rang(X), Rang(Y)} erhalten wir Rang(AB) ≤ 1. Daher hat AB ∈ R7×7 nicht
den vollen Rang und somit ist det(AB) = 0.
b) Wir addieren die zweite Spalte zur dritten Spalte und erhalten
628 Kapitel 10 • Prüfungstrainer

8 8 8 8 8 8
81 bc a(b + c)8 81 bc ab + ac + bc8 81 bc 18
8 8 (S3 ) + (S2 ) 8 8 8 8
81 ac b(a + c)8 = 81 ac ab + ac + bc8 = (ab + ac + bc) 81 ac 18 = 0.
8 8 8 8 8 8
81 ab c(a + b)8 81 ab ab + ac + bc8 81 ab 18

Die Determinante ist Null, weil zwei Spalten identisch sind. Wegen det(A) = 0 ist
die Matrix A für kein a, b, c ∈ R invertierbar.
c) Es sei D6 die Determinante (6 weil die Matrix 6 × 6 ist). Wir entwickeln nach der
ersten Spalte
8 8
8a 0 0 0 0 b 88 8 8 8 8
8 8a 0 0 b 08 80 0 0 0 b8
80 a 0 0 b 0 88 8 8 8 8
8 80 a b 0 0 88 8a 0 0 b 088
8 8 8 8
80 0 a b 0 08 80 c d 0
8 8 =a 8 0 88 −c 80 a b 0
8 088
80 0 c d 0 08 8c 0 0 d
8 8 8 0 88 80 c d 0
8 088
80 c 0 0 d 0 88 80 0 0 0
8
8c d8 8c 0 0 d 08
0 0 0 0 d8 3 45 6 3 45 6
3 45 6 entwicklen nach 5. Zeile entwicklen nach 1. Zeile
entwicklen nach 1. Spalte
8 8 8 8
8a 0 0 b 88 8a 0 0 b 88
8 8
80 a b 08 8 80 a b 0 88
= ad 88 8 −cb 8
80 c d = (ad − bc)D4 .
80 c d 08 8 0 88
8c 0 0 d 8 8c 0 0 d8
3 45 6 3 45 6
=D4 =D4

D4 ist eine (4×4)-Variante der ursprünglichen Determinante D6 . Wir


8 erhalten
8 eine
8a b 8
Rekursionsrelation D6 = (ad−bc)D4 = (ad−bc)2 D2 . Wegen D2 = 88 88 = ad−bc
cd
erhalten wir D6 = (ad − bc)3 .
d) Eine direkte Rechnung zeigt
⎡ ⎤
n − 1 n − 2 n − 2 ··· n − 2 n − 2
⎢n − 2 n − 1 n − 2 · · · n − 2 n − 2 ⎥
⎢ ⎥
⎢ ⎥
2
⎢ n − 2 n − 2 n − 1 · · · n − 2 n − 2 ⎥

A =⎢ . .. ⎥
. .. .. . . .. ⎥ = (n − 2)A + (n − 1)E.
⎢ . . . . . . ⎥
⎢ ⎥
⎣ n − 2 n − 2 n − 2 · · · n − 1 n − 2⎦
n − 2 n − 2 n − 2 ··· n − 2 n − 1

Wenden wir nun A−1 auf beiden Seiten der Gleichung an, so erhalten
# wir A = (n−
$
2)E + (n − 1)A ⇒ A − (n − 1)A = (n − 2)E. Daher ist det A − (n − 1)A−1 =
−1 −1

det((n − 2)E) = (n − 2)n det(E) = (n − 2)n .


10.9 • Musterprüfung 3 – Musterlösung
629 10
Aufgabe 3
a) Mit dem Gauß-Algorithmus erzeugen wir die Zielmatrix
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
111 0 (Z2 ) − 2(Z1 ) 111 0 111 0
(Z3 ) − (Z1 ) 2(Z3 ) − (Z2 )
⎣2 4 6 0⎦ ! ⎣0 2 4 0⎦ ! ⎣0 2 4 0⎦.
123 0 012 0 000 0

Es folgt x3 = tL⇒ x2 =8 −2x3 )= −2t * und xM1 = −x *Ox3 = t. Die Lösungsmenge


N) 21 −
3 8 1
ist somit L = x ∈ R 8 x = t −2 , t ∈ R = −2 .
) x11 x12 x13 * 1 1
b) Es sei X = x21 x22 x23 die gesuchte Matrix. Dann ist
x31 x32 x33
' x11 +x21 +x31 x12 +x22 +x32 x13 +x23 +x33
( )0 0 0*
!
AX = 2x11 +4x21 +6x31 2x12 +4x22 +6x32 2x13 +4x23 +6x33 = 000
x11 +2x21 +3x31 x12 +2x22 +3x32 x13 +2x23 +3x33 000

Wir erhalten 3 lineare Gleichungssysteme


⎧ ⎧ ⎧
⎪ ⎪ ⎪
⎨x11 + x21 + x31 = 0
⎪ ⎨x12 + x22 + x32 = 0
⎪ ⎨x13 + x23 + x33 = 0

2x11 + 4x21 + 6x31 = 0 2x12 + 4x22 + 6x32 = 0 2x13 + 4x23 + 6x33 = 0

⎪ ⎪
⎪ ⎪

⎩x + 2x + 3x = 0 ⎩x + 2x + 3x = 0 ⎩x + 2x + 3x = 0
11 21 31 12 22 32 13 23 33

Die Lösungen von diesen linearen Gleichungssysteme erhalten wir aus (a)
) x11 * ) 1
* ) x12 * ) 1
* ) x13 * ) 1
*
x21 =t −2 , x22 =s −2 , x23 =p −2 , t, s, p ∈ R.
x31 1 x32 1 x33 1
' t s p
(
Somit ist X = −2t −2s −2p die gesuchte Matrix.
t s p
c) Wir betrachten die erweiterte Matrix und erzeugen die Zielmatrix mit dem Gauß-
Algorithmus
⎡ ⎤ ⎡ ⎤
1 −1 −1 ··· 1 −1 (Z2 ) − (Z1 ) 1 −1 −1 ··· −1 1
(Z3 ) − (Z1 )
⎢1 1 −1 ··· 1⎥ −1 ⎢0 2 0 ··· 0 0⎥
⎢ ⎥ usw. ⎢ ⎥
⎢ .. .. .. .. .. ⎥ .. (Zn ) − (Z1 ) ⎢0 0 2 ··· 0 0⎥
⎢. . . . .⎥ . ! ⎢ ⎥ = Z.
⎢ ⎥ ⎢. .. .. .. .. .. ⎥
⎣1 1 1 · · · −1 1 ⎦ ⎣ .. . . . . .⎦
1 1 1 ··· 1 1 0 0 0 ··· 2 0

Es folgt
⎧⎡ x⎤ = x3 = · · · = xn = 0 und x1 = 1. Die Lösungsmenge ist somit
2 ⎫
⎨ 10 ⎬
L = ⎣ .. ⎦ .
⎩ . ⎭
0

Aufgabe 4
a) Wir schreiben die gegebenen Vektoren als Spalten in einer Matrix auf und
bestimmen deren Rang mittels Gauß-Algorithmus
630 Kapitel 10 • Prüfungstrainer

⎡ ⎤ ⎡ ⎤ ⎡ ⎤
12 1 1 2 1 1 2 1
(Z2 ) − (Z1 ) (Z3 ) + 2(Z2 )
⎣ 1 1 1 − 2t ⎦ ! ⎣ 0 −1 −2t ⎦ ! ⎣ 0 −1 −2t ⎦ .
02 t 0 2 t 0 0 −3t
:
2 für t = 0
Somit ist dim(U) = Rang(A) =
3 für t ̸= 0
b) t = 0 : In diesem Fall sind v1 , v2 , v3 keine Basis von R3 . Es gilt v1 = v3 . Wegen
w1 ̸= v3 kann es keine lineare Abbildung F : R3 → R4 geben mit F(v1 ) = w1 und
F(v3 ) = w3 .
t ̸= 0 : In diesem Fall sind v1 , v2 , v3 keine Basis von R3 . Daher gibt es nach
Satz 7.3 genau eine lineare Abbildung F : R3 → R4 mit F(vi ) = wi , i = 1, 2, 3.
c) Wird der Ausgangsraum R3 mit der Basis B = {v1 , v2 , v3 } versehen, so sind die
Vektoren w1 , w2 , w3 bereits die Spalten der Darstellungsmatrix, d. h. M EB (F) =
'1 1 0(
0 1 2 (Beachte: Der Zielraum ist mit der Standardbasis versehen). Die Trans-
201
131 )1 2 1 *
formationsmatrix von B nach der Standardbasis lautet T B→E = 1 1 −1 ⇒
@ A 02 1
1 0 −1
T E →B = T −1 − 31 1 2
B→E = 3 3 . Daraus wird
2
3 − 32 − 13

⎡2 1

3 3− 31
⎢ 1 −1 0 ⎥
M EE (F) = M EB (F)T E →B = ⎣ 8 2 7 ⎦.
3 −3 −3
2 1 2
3 3 3

⎡2 1

− 13 '1(
3 3 )1*
⎢ 1 −1 0 ⎥ 0
Probe: M EE (F)v1 =⎣ 8 2 7 ⎦ 1 = = w1 , usw. "
3 −3 −3 0 2
2 1 2 1
3 3 3

Aufgabe 5
a) '
Die Darstellungsmatrix
( von
' F bezüglich
( der Standardbasis von R3 ist A =
2 −1 −1 2 2 −1 −1
1 0 −1 . Wegen A = 1 0 −1 = A ist F idempotent. Alternative: Mit der
1 −1 0 1 −1 0 D' (E ' (
2x1 −x2 −x3 2x1 −x2 −x3
2
Definition von F rechnet man nach F (x) = F x1 −x3 = x1 −x3 =
x1 −x2 x1 −x2
F(x).
b) Kern: Mit dem Gauß-Algorithmus lösen wir Ax = 0:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 −1 −1 0 2(Z2 ) − (Z1 ) 2 −1 −1 0 2 −1 −1 0
2(Z3 ) − (Z1 ) (Z3 ) + (Z2 )
⎣ 1 0 −1 0 ⎦ ! ⎣ 0 1 −1 0 ⎦ ! ⎣ 0 1 −1 0 ⎦ .
1 −1 0 0 0 −1 1 0 0 0 0 0
N) 1 *O
Es folgt x3 = t ⇒ x2 = t und x1 = t, d. h. Ker(F) = 1 .
1
Bild: Wir wenden unser Kochrezept 8.1 an. Wir betrachten die Transponierte
der Darstellungsmatrix von F und wenden den Gauß-Algorithmus an
10.9 • Musterprüfung 3 – Musterlösung
631 10
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 1 1 2(Z2 ) + (Z1 ) 2 1 1 21 1
2(Z3 ) + (Z1 ) (Z3 ) + (Z2 )
⎣ −1 0 −1 ⎦ ! ⎣ 0 1 −1 ⎦ ! ⎣ 0 1 −1 ⎦ ⇒ Rang(A) = 2.
−1 −1 0 0 −1 1 00 0

Das Bild von F hat die Dimension 2. Eine Basis des Bildes können N)
wir *direkt an
) 0 *O
2
den von Null verschiedenen Zeilen der Zielmatrix erkennen Im(F) = 1 , 1 .
1 −1
c) Wir müssen zwei Bedingungen nachweisen: (1) R3 = Ker(F) + Im(F) und (2)
Ker(F) ∩ Im(F) = {0}.
R3 = Ker(F) + Im(F)? Wir kombinieren alle erzeugenden Vektoren von
Ker(F) und Im(F) als Spalten in einer einzigen Matrix. Mit dem Gauß-
Algorithmus berechnen wir den Rang dieser Matrix und damit die Dimension
von Ker(F) + Im(F):
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
12 0 (Z2 ) − (Z1 ) 1 2 0 1 2 0
(Z3 ) − (Z1 ) (Z3 ) − (Z2 )
A = ⎣1 1 1 ⎦ ! ⎣ 0 −1 1 ⎦ ! ⎣ 0 −1 1 ⎦ ⇒ Rang(A) = 3.
1 1 −1 0 −1 −1 0 0 −2

Somit ist dim(Ker(F) + Im(F)) = 3 also U1 + U2 = R3 .


Ker(F) ∩ Im(F) = {0}? Es sei v ∈ Ker(F) ∩ Im(F). Wegen v ∈ Ker(F) und
v ∈ Im(F) ist
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
1 2 0 1 −2 0 α 0
v = α ⎣1⎦ = β ⎣1⎦ + γ ⎣ 1 ⎦ ⇒ ⎣1 −1 −1⎦ ⎣β ⎦ = ⎣0⎦ .
1 1 −1 1 −1 1 γ 0

Dieses LGS lösen wir erneut mit dem Gauß-Algorithmus


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 −2 0 0 (Z2 ) − (Z1 ) 1 −2 0 0 1 −2 0 0
(Z3 ) − (Z1 ) (Z3 ) − (Z2 )
⎣ 1 −1 −1 0 ⎦ ! ⎣ 0 1 −1 0 ⎦ ! ⎣ 0 1 −1 0 ⎦ .
1 −1 1 0 0 1 1 0 0 0 2 0

Die einzige Lösung ist α = β = γ = 0, d. h. v = 0 ⇒ Ker(F) ∩ Im(F) = {0}.


Zusammenfassend: Wegen R3 = Ker(F) + Im(F) und Ker(F) ∩ Im(F) = {0} ist
R3 = Ker(F) ⊕ Im(F).

Aufgabe 6
a) J! 2×2
Wir berechnen
" ! " !die "Transformationsmatrix
10 , 01 , 00 , 00
! "K von der
J!Standardbasis
1 0
" !R1 1 "KE =
" ! 1 1 " ! 1 von
1
00 00 10 01 nach der Basis B1 = 0 0 , 0 0 , 1 0 , 1 1 . Es
gilt:
⎡ ⎤ ⎡ ⎤
1111 1 −1 0 0
⎢0 1 1 1 ⎥ ⎢0 1 −1 0 ⎥
T B1 →E =⎢ ⎥
⎣0 0 1 1 ⎦ ⇒ T E →B1 = T −1
B1 →E =⎢ ⎥
⎣0 0 1 −1⎦ .
0001 0 0 0 1
632 Kapitel 10 • Prüfungstrainer

'a(
! "
Die Koordinaten von A = ac db in E sind [A]E = bc ⇒ [A]B1 = T E →B1 [A]E =
@ A' ( @ A d
1 −1 0 0 a a−b ! " !1 0" !1 1"
0 1 −1 0 b b−c ab
0 0 1 −1 c = c−d , d. h. A = c d = (a − b) 0 0 + (b − c) 0 0 + (c −
0! 0 "0 1 ! d" d
d) 11 10 + d 11 11 .
b) Wir bestimmen die 'Transformationsmatrix
( von B2 nach der Standardbasis
0 −1 1 B
von R3 : T B2 →E = 1 0 2 . Dann ist M EE (F) = T B2 →E M B21 (F)T E →B1 =
−2 2 0
' (
3 −3 −3 4
7 −3 −5 5 .
−2 6 4 −6
c) Wir berechnen den Rang der Darstellunsgsmatrix (z. B. in den alten Basen ist es
einfacher):
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 −1 0 1 0 −1 0 1 0 −1 0
(Z3 ) − 3(Z1 ) (Z3 ) − (Z2 )
⎣0 2 3 1⎦ ! ⎣0 2 3 1⎦ ! ⎣0 2 3 1⎦.
32 0 2 02 3 2 00 0 1

Die Darstellungsmatrix hat Rang 3, d. h., dim(Im(F)) = 3. Der Zielvektorraum


ist R3 (auch Dimension 3). Daher ist Im(F) = R3 und somit F surjektiv.

Aufgabe 7 # $ # $
d2 d
a) Wir rechnen nach dx2
(x + 1)2 p(x) = dx (x + 1)2 p′ (x) + 2(x + 1)p(x) = (x +
1)2 p′′ (x) + 4(x + 1)p′ (x) + 2p(x). Somit ist

F(1) = 2
F(x) = 6x + 4
F(x2 ) = 12x2 + 12x + 2
..
.

F(xk ) = (k + 1)(k + 2)xk + 2k(k + 1)xk−1 + k(k − 1)xk−2

d. h. die Darstellungsmatrix von F bezüglich der Standardbasis von Pn (R) ist


⎡ ⎤
2 4 2 ··· 0
⎢ .. ⎥
⎢0 6 12 . . . . ⎥
⎢ ⎥
E ⎢ . ⎥
M E (F) = ⎢0 0 12 . . n(n − 1) ⎥.
⎢ ⎥
⎢. . . . ⎥
⎣ .. .. .. . . 2n(n + 1) ⎦
0 0 0 · · · (n + 1)(n + 2)

b) Die Darstellungsmatrix von F ist eine obere Dreiecksmatrix. Die Eigenwerte sind
bereits die Diagonaleinträge, also das Spektrum von F ist

σ = {2, 6, 12, · · · , (n + 1)(n + 2)} = {(k + 1)(k + 2) | k = 0, 1, · · · , n}.


10.10 • Musterprüfung 4 – Musterlösung
633 10
c) Es gilt:

d2 # 2
$ d2 # 2 k
$ d2
F(qk (x)) = (x + 1) q k (x) = (x + 1) (x + 1) = (x + 1)k+2
dx2 dx2 dx2
d # $
= (k + 2)(x + 1)k+1
dx
= (k + 1)(k + 2)(x + 1)k = (k + 1)(k + 2)qk (x).

⇒ qk (x) ist#ein Eigenvektor


$ von F zum Eigenwert (k + 1)(k + 2).
d2
d) Wegen dx2 (x + 1) y(x) = (x + 1)2 y′′ (x) + 4(x + 1)y′ (x) + 2y(x) lautet die
2

Differenzialgleichung F(y(x)) = (k + 1)(k + 2)y(x). Die Lösung y(x) besteht somit


aus allen Eigenvektoren zum Eigenwert (k + 1)(k + 2). Aus Teilaufgabe (c) folgt
somit y(x) = C(x + 1)k , wobei C eine Konstante ist.

10.10 Musterprüfung 4 – Musterlösung

Aufgabe 1
a) A B Für X ∈ Rm×n gilt Rang(X) ≤ min{m, n}. Wegen m > n heißt dies
in unserem Fall Rang(A) ≤ min{m, n} = n und Rang(B) ≤ min{m, n} = n.
Außerdem mit der Formel Rang(XY) ≤ min{Rang(X), Rang(Y)} erhalten wir
T T m×m nicht vollen Rang und somit ist
Rang(AB
# $ ) ≤ n. Daher hat AB ∈ R
det ABT = 0.
b) A B Auf R ist die Matrix symmetrisch aber nicht schiefsymmetrisch.
A B In Z2 ist −1 = 1. Daher ist die Matrix symmetrisch und auch
schiefsymmetrisch.

c) A B C Es gilt det(A) = 8−6 = 2. Die Matrix A ist somit invertierbar über R


und Q (wo det(A) = 2 ̸= 0 gilt). Über Z2 ist 2 = 0. Daher ist A nichtinvertierbar
über Z2 .
d) A B C D E Jeder Vektor in (Z3 )2 hat 2 Komponenten und jede dieser
Komponenten kann nur den Wert 0, 1 oder 2 besitzen. Da wir alle Komponenten
unabhängig voneindander wählen können, gibt es genau 32 = 9 mögliche
Vektoren in (Z3 )2 .
J! " ! "K ! " ! " ! "
e) A B U = 00 , 10 ist kein Unterraum von (Z3 )2 , weil 10 + 10 = 20 ∈ / U,
d. h., U ist nicht abgeschlossen bezüglich der Addition.
f) A B C D E F Bei (B): [0, 0, 0]T ∈ / U, also ist U kein Unterraum.
! " Zum Beispiel v =
Bei (C): U ist nicht abgeschlossen bezüglich der Addition.
[1, 1, 1] ∈ U aber v + v = [2, 2, 2]T ∈ / U. Bei (F): 00 00 ∈/ U, also ist U kein
Unterraum. '1( '0( ' 0 ( '1(
g) A B C Bei (A): Wegen 00 + 01 + 10 = 11 sind die Vektoren linear
1 1 −1 1
abhängig. Alternative: Rang- oder Determinantenkriterium. Bei (B): Jede Menge
von Vektoren, welche den Nullvektor enthält, ist linear abhängig. Bei (C): Mit
634 Kapitel 10 • Prüfungstrainer

dem Rangkriterium:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 0 (Z4 ) − (Z1 )
1 1 0 0 1 1 0 0
⎢0 0 1 1⎥ (Z3 ) + (Z2 ) ⎢0 0 1 1⎥⎥ ⎢ 0 −2 0 0⎥
⎢ ⎥ ! ⎢ !⎢ ⎥ ⇒ Rang(A) = 4.
⎣0 0 −1 1⎦ ⎣0 0 0 2⎦ ⎣0 0 1 1⎦
1 −1 0 0 0 −2 0 0 0 0 0 2

Somit sind die Vektoren linear unabhängig.


h) A B C Bei (C): Die Menge T = {v, 2v, 3v} spannt denselben Unterraum wie
S = {v}, jedoch enthält T mehr Elemente als S.
i) A B C D Bei (A) und (C): Jede lineare Abbildung erfüllt F(0) = 0. Wegen
F(0) ̸= 0 ist F nichtlinear.

j) A B C D
! " )1 0*
k) A B C D Gegenbeispiel: Betrachte A = 10 01 00 und B = 0 1 . Dann ist
)1 0 0* 00
!1 0"
AB = 0 1 , aber BA = 0 1 0 . Außerdem sind A und B nichtinvertierbar.
000

l) A B C D Zu (C): Ist dim(Ker(F)) = 2 so folgt aus der Dimensionsformel


Rang(A) = 2 − dim(Ker(F)) = 0. Die einzige Matrix, welche Rang 0 hat, ist
die Nullmatrix. Zu (D): Ist dim(Ker(F)) = 1 so folgt aus der Dimensionsformel
Rang(A) = 2 − dim(Ker(F)) = 1. Daher ist A singulär (Rang ist nicht maximal)
⇒ det(A) = 0.
m) A B Die Aussage ist im Allgemeinen falsch, wenn v1 und v2 Eigenvektoren zu
! "
unterschiedlichen Eigenwerten sind. Zum Beispiel: Es sei A = 10 02 . Dann ist
!1" !0"
v1 = 0 ein Eigenvektor zum Eigenwert 1, während v2 = 1 ein Eigenvektor
! "
zum Eigenwert 2 ist. Deren Summe v1 + v2 = 11 ist kein Eigenvektor von A,
!1 0"!1" !1"
weil 0 2 1 = 2 .
n) A B Gegenbeispiel: 0 · x1 + 0 · x2 + 0 · x3 = 1 hat keine Lösung.

o) A B C D B1 ist die Standardbasis von P2 (R). Die Basis B2 lautet explizit


{x2 , 1 + 2x + x2 , 4 + 4x + x2 }. Die Transformationsmatrix von B2 nach B1 ist
)0 1 4* ' (
1 2 −3 4
T B2 →B1 = 024 ⇒ T B1 →B2 = T −1
B2 →B1 = −4 4 0 .
111 4 2 −1 0

)1 1 4*
p) A B Ähnliche Matrizen haben dieselbe Spur. Wegen Spur 124 = 3 ̸= 2 =
)0 1 1* 120
Spur 1 1 0 sind die gegebenen Matrizen nicht ähnlich.
101
q) A B C Zwei Matrizen sind genau dann äquivalent, wenn sie denselben Rang
)1 1 1 * )1 1 1* )1 0 0*
haben. Es gilt Rang 1 −1 −1 = 2, Rang 1 1 1 = 1, Rang 0 1 0 = 2 und
)1 1 1 * 0 1 1 ) * 111 ) 1 0 0 * 0 0) 01 1 1 *
1 1 1
Rang 2 0 −1 = 2. Somit ist 1 −1 −1 äquivalent zu 0 1 0 und 2 0 −1 .
31 0 0 1 1 000 31 0
10.10 • Musterprüfung 4 – Musterlösung
635 10
r) A B ⟨W ⟩ ist der kleinste Unterraum der W enthält. Ist W ein Unterraum, so
ist ⟨W ⟩ = W .
s) A B Die Nullmatrix ist nichtinvertierbar. Somit ist 0 ∈ / GL(n, K) und
GL(n, K) ist daher kein Unterraum.
P! "Q P! "Q P! "Q
t) A B Gegenbeispiel: Es seien V = R2 , W = 01 , U1 = 10 und U2 = 11 .
Dann ist R2 = U1 ⊕ W = U2 ⊕ W aber U1 ̸= U2 .
u) A B Wegen dim(P5 (R)) = 6 = dim(R2×3 ) sind P5 (R) und R2×3 isomorph.
v) A B Wegen Ker(F) ⊂ Ker(F 2 ) ist dim(Ker(F)) ≤ dim(Ker(F 2 )). Beweis von
“Ker(F) ⊂ Ker(F 2 )”: Es sei v ∈ Ker(F) ⇒ F 2 (v) = F(F(v)) = F(0) = 0 ⇒
v ∈ Ker(F 2 ).

Aufgabe 2 R
a) det(A) := σ ∈Sn sign(σ ) a1σ (1) a2σ (2) · · · anσ (n) . In der Definition von det(A) treten
Terme der Form a1σ (1) a2σ (2) · · · anσ (n) auf, wobei σ eine Permutation der Zahlen
1, 2, · · · , n ist (σ ∈ Sn ). Der Term a13 a24 a53 a41 a35 entspricht σ = (34315), was
keine Permutation ist (3 kommt zwei Mal vor) ⇒ a13 a24 a53 a41 a35 kommt nicht
vor. Der Term a21 a13 a34 a55 a42 entspricht σ = (13452), was eine Permutation ist,
⇒ a21 a13 a34 a55 a42 kommt vor. R
b) Vgl. Übung 3.35. Nach der Leibniz-Formel gilt: det(A) = σ ∈Sn sign(σ ) a1σ (1)
a2σ (2) · · · anσ (n) . Weil alle außerdiagonalen Elemente von A verschwinden,
d. h. aij = 0 für i ̸= j, sind alle Terme a1σ (1) a2σ (2) · · · anσ (n) in der obigen Summe
gleich Null, R außer für σ = e = (12 · · · n). Daraus folgt das gewünschte Resultat
det(A) = σ ∈Sn sign(σ ) a1σ (1) a2σ (2) · · · anσ (n) = a11 a22 · · · ann .
c) Wir entwickeln nach der letzten Spalte
8 8 8 8
8 0 x1 x2 · · · xn−1 8 8 x1 1 0 · · · 088
8 8 8
8 x1 1 0 · · · 0 8 8 x2 0 1 · · · 088
8 8 8
8 8 8 .. .. .. . . .. 8
Dn = 8 x2 0 1 · · · 0 8 = (−1)n+1 xn−1 8 . . . . . 88
8 . . . . 8 8
8 .. .. .. . . ... 8 8x 0 0 · · · 188
8 8 8 n−2
8x 8 8x 0 0 · · · 08
n−1 0 0 · · · 1 n−1
3 45 6
entwickeln nach der letzten Zeile
8 8
8 0 x1 x2 · · · xn−2 88
8
8 x1 1 0 · · · 0 88
8
2n 8 x2 0 1 · · · 0 88
+ (−1) 8
8 . .. .. . . . 8
8 .. . . . .. 88
8
8x 0 0 ··· 1 8
n−2
3 45 6
=Dn−1
8 8
81 0 · · · 08
8 8
80 1 · · · 08
8 8
= (−1)n+1 (−1)n x2n−1 8 . . . . 8 + (−1)2n Dn−1 = −x2n−1 + Dn−1
3 45 6 8 .. .. . . .. 8 3 45 6
=−1 8 8 =1
80 0 · · · 18
3 45 6
=1
636 Kapitel 10 • Prüfungstrainer

Wir erhalten die Rekursionsrelation Dn = −x2n−1 + Dn−1 . Wenden wir diese


Relation wiederholt an, so erhalten wir Dn = −x2n−1 + Dn−1 = −x2n−1 − x2n−2 +
8 8
8 0 x1 8
Dn−2 = · · · = −x2n−1 − x2n−2 − · · · − x22 + D2 . Wegen D2 = 88 8 = −x2 erhalten
x1 1 8 1

wir schließlich das gewünschte Resultat Dn = −xn−1 − xn−2 − · · · − x22 − x21 =


2 2

−||x||2 . # $
d) A schiefsymmetrisch ⇒ AT = −A. Daher ist det(A) = det AT = det(−A) =
(−1)n det(A). Wenn n ungerade ist, bedeutet dies det(A) = − det(A) ⇒ det(A) = 0.
e) Wir wenden den Gauß-Algorithmus an um die Determinante zu berechnen
(vgl. Übung 3.26):
8 8 8 8
85 4 4 ··· 488 85 4 4 ··· 488
8 8
8 . 8 (Z2 ) − (Z1 ) 8 . 8 (S1 ) + (S2 )
84
8 5 4 .. 488 (Z3 ) − (Z1 )
8−1
8 1 0 .. 088 (S1 ) + (S3 )
8 . 8 etc. 8 . 8 etc.
84 4 5 .. 488 = 8−1 0 1 .. 088 =
8 8
8. .. . . . ... 88 8 . .. . . . ... 88
8 .. . . . .8 8 .. . . . .8
8 8
84 4 4 · · · 58 8−1 0 0 · · · 18
8 8
85 + (n − 1)4 4 4 ··· 488
8
8 . 8
8
8 0 1 0 .. 088
8 . 8
8
8 0 0 1 .. 088 = 5 + 4(n − 1) = 4n + 1.
8 .. .. . . . ... 88
8 . . . . .8
8
8 0 0 0 · · · 18

A ist genau dann singulär, wenn det(A) = 0 gilt. In Zp gilt 4n + 1 = 0 nur dann,
wenn 4n + 1 durch p teilbar ist (d. h. 4n + 1 = 0 mod p). Daher ist A genau dann
singulär, wenn 4n + 1 durch p teilbar ist.

Aufgabe 3
a) Wegen a11 + · · · + a1n = · · · = an1 + · · · + ann = 1 gilt:
⎡ ⎤⎡ ⎤ ⎡ ⎤ ⎡ ⎤
a11 · · · a1n 1 a11 + · · · + a1n 1
⎢ .. . . .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥ ⎢ .. ⎥
⎣ . . . ⎦ ⎣.⎦ ⎣= . =
⎦ ⎣.⎦
an1 · · · ann 1 an1 + · · · + ann 1
@ A
1
Somit ist ... ein Eigenvektor von A zum Eigenwert 1.
1
b) Es sei λ ein Eigenwert von A und v ̸= 0 der zugehörige Eigenvektor. Dann ist
Av = λv. In Komponentenschreibweise heißt dies
10.10 • Musterprüfung 4 – Musterlösung
637 10
⎡ ⎤ ⎡ ⎤
a11 v1 + · · · + a1n vn λv1 n
⎢ .. ⎥ ⎢ .. ⎥ S
⎣ . ⎦ = ⎣ . ⎦ oder aij vj = λvi ∀i = 1, · · · , n.
an1 v1 + · · · + ann vn λvn j=1

Es sei nun |vk | der betragsgrößte Eintrag von v, d. h. |vk | = max{|v1 |, · · · , |vn |}.
Dann gilt:
8 8
8 n 8 n
8S 8 S
|λvk | = |λ| |vk | = 88 akj vj 88 ≤ akj |vj | (Dreiecksungleichung |x + y| ≤ |x| + |y| )
8 j=1 8 j=1

|vj |≤|vk | n
S n
S
≤ akj |vk | = |vk | akj = |vk |.
j=1 j=1
3 45 6
=1

Es folgt |λ| |vk | ≤ |vk | ⇒ λ ≤ 1.


c) Wir berechnen das charakteristische Polynom von A
8 1 88
8−λ 0 12 0 2 8
8
8 0 −λ 1 0 0 88 D E D E
1 8 = −λ2 λ3 − λ2 − λ + 1 = −λ2 (λ − 1) λ2 − 1 =
8 1 1 1 !
8 0
8 4 4 −λ 4 4 8 2 2 2
8 0 0 1 −λ 1 8
8 2 8
8 0 0 02 0 1 − λ8

Es folgt λ = 0 (algebraische Vielfachheit 2), λ = 1 (algebraische Vielfachheit 1),


λ = ± √1 (jeweils algebraische Vielfachheit 1). Wie erwartet gilt |λ| ≤ 1.
2

Aufgabe 4
a) Wir gehen wie in Übung 9.10 vor. Es sei A ∈ Kn×n idempotent, d. h., A2 = A.
Es sei λ ein Eigenwert von A mit Eigenvektor v ̸= 0. Dann ist λ2 ein Eigenwert
von A2 mit demselben Eigenvektor (vgl. Übung 9.9). Wegen A2 = A müssen die
Eigenwerte von A die folgende Gleichung erfüllen:

λ2 = λ ⇒ λ2 − λ = λ(λ − 1) = 0 ⇒ λ = 0, 1.

Eine idempotente Matrix kann somit nur die Eigenwerte λ = 0 und λ = 1


besitzen.
b) “⇒” Nehmen wir an, dass das LGS Ax = b eine Lösung x besitze. Wir wenden
nun A auf beiden Seiten der Gleichung an. Wegen A2 = A erhalten wir

A2 x = Ab
3456 ⇒ Ab = b.
=Ax=b

Somit ist b ein Eigenvektor von A zum Eigenwert λ = 1.


“⇐” Nehmen wir jetzt an, dass b ein Eigenvektor von A zum Eigenwert λ = 1 ist
⇒ Ab = b. Dies heißt, dass b eine Lösung des LGS Ax = b ist.
638 Kapitel 10 • Prüfungstrainer

c) Die Lösungsmenge von Ax = b ist x = xHomo + xp , wobei xHomo die allgemeine


Lösung des zugehörigen homogenen LGS Ax = 0 ist und xp eine partikuläre
Lösung von Ax = b ist. Die Lösungsmenge des homogenen LGS Ax = 0 ist genau
die Menge aller Eigenvektoren von A zum Eigenwert λ = 0, d. h. Eig0 (A) = {x ∈
Kn | Ax = 0}. Außerdem, aus (b) wissen wir, dass b eine partikuläre Lösung von
Ax = b ist. Daher
' ist die Lösungsmenge
( L = b + Eig0 (A).
2 −2 −4
d) Es gilt A2 = −1 3 4 = A ⇒ A ist idempotent. Außerdem ist Ab =
' ( ) * 1 )−2 −3
*
2 −2 −4 0 0
−1 3 4 2 = 2 = b ⇒ b ist Eigenvektor zum Eigenwert λ = 1. Aus (c)
1 −2 −3 −1 −1
wissen wir, dass die Lösungsmenge von Ax = b durch L = b + Eig0 (A) gegeben
ist. Wir müssen also nur noch den Eigenraum zu λ = 0 bestimmen. Dazu wenden
wir den Gauß-Algorithmus an:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
2 −2 −4 0 2(Z2 ) + (Z1 ) 2 −2 −4 0 2 −2 −4 0
2(Z3 ) − (Z1 ) 2(Z3 ) + (Z2 )
⎣ −1 3 4 0 ⎦ ! ⎣0 4 4 0⎦ ! ⎣0 4 4 0⎦.
1 −2 −3 0 0 −2 −2 0 0 0 0 0
N) 1 *O
Es folgt x3 = t ⇒ x2 = −x3 = −t und x1 = x2 + 2x3 = t, d. h. Eig0 (A) = −1 .
) 0 * ) 1 * 1
Die Lösungsmenge des LGS ist somit L = b+Eig0 (A) = 2 +t −1 mit t ∈ R.
−1 1
e) Um zu beweisen, dass Kn = Ker(A) ⊕ Im(A) ist, müssen wir die folgenden zwei
Bedingungen nachweisen:

(i) Kn = Ker(A) + Im(A) (ii) Ker(A) ∩ Im(A) = {0}

Beweis von (i). Wir zeigen Kn ⊂ Ker(A) + Im(A) und Kn ⊃ Ker(A) + Im(A).
“Kn ⊃ Ker(A) + Im(A)′′ Ker(A) und Im(A) sind Unterräume von Kn . Daher ist
deren Summe Ker(A)+Im(A) auch ein Unterraum von Kn , d. h. Ker(A)+Im(A) ⊂
Kn .
“Kn ⊂ Ker(A) + Im(A)′′ Es sei v ∈ Kn . Dann ist

v = v + Av − Av = 3456
Av + (v − Av)
3 45 6
=:y =:z

Der erste Term y = Av gehört (per Definition) zu Im(A). Der zweite Term z =
v − Av gehört zu Ker(A), weil

A2 =A
Az = A(v − Av) = Av − A2 v = Av − Av = 0 ⇒ z ∈ Ker(A).

Somit

Av + (v − Av) ∈ Im(A) + Ker(A)


v = 3456
3 45 6
∈Im(A) ∈Ker(A)
10.10 • Musterprüfung 4 – Musterlösung
639 10
Dies zeigt Kn ⊂ Ker(A) + Im(A).
Beweis von (ii). Die Strategie ist wie folgt: Wir betrachten ein beliebiges Element
in Ker(A) ∩ Im(A) und zeigen, dass es 0 ist. Es sei also v ∈ Ker(A) ∩ Im(A). Wegen
v ∈ Ker(A) ist Av = 0. Wegen v ∈ Im(A) gibt es ein w ∈ Kn mit Aw = v. Dann ist

A2 =A
0 = Av = A(Aw) = A2 w = Aw = v ⇒ v = 0.

Dies zeigt Ker(A) ∩ Im(A) = {0}.


f) Die Aussage Kn = Ker(A)! ⊕ "Im(A) stimmt für allgemeine Matrizen
P! "Q A ∈ Kn×n
nicht. Gegenbeispiel: A = 00 10 . Der Kern von A ist Ker(A) = 10 . Das Bild von
P! "Q
A ist Im(A) = 10 . Somit ist R2 ̸= Ker(A) + Im(A) und Ker(A) ∩ Im(A) ̸= {0}.

Aufgabe 5
a) Es sei V = U1 ⊕ U2 . Per Definition heißt dies V = U1 + U2 und U1 ∩ U2 = {0}.
Es sei v ∈ V . Wegen V = U1 + U2 gibt es ja ein u1 ∈ U1 und u2 ∈ U2 mit
v = u1 + u2 . Wir zeigen, dass diese Zerlegung eindeutig ist. Zu diesem Zweck
betrachten wir eine weitere Zerlegung v = u′1 + u′2 mit u′1 ∈ U1 und u′2 ∈ U2 .
Dann ist v = u1 + u2 = u′1 + u′2 ⇒ u1 − u′1 = u2 − u′2 . Wegen u1 − u′1 ∈ U1 und
u2 −u′2 ∈ U2 impliziert die Gleichheit u1 −u′1 = u2 −u′2 , dass u1 −u′1 ∈ U1 ∩U2 und
u2 − u′2 ∈ U1 ∩ U2 . Wegen U1 ∩ U2 = {0} finden wir u1 − u′1 = 0 und u2 − u′2 = 0,
d. h. u1 = u′1 und u2 = u′2 . Die Zerlegung v = u1 + u2 ist somit eindeutig.
b) Wir betrachten die Dimensionsformel dim(U1 ) + dim(U2 ) = dim(U1 + U2 ) +
dim(U1 ∩ U2 ). Dann gilt: U1 ∩ U2 = {0} ⇔ dim(U1 ∩ U2 ) = 0 ⇔ dim(U1 ) +
dim(U1 )+dim(U2 )=dim(V )
dim(U2 ) = dim(U1 + U2 ) ⇔ U1 + U2 = V .
c) Unterräume sind genau die Lösungsmengen von homogenen linearen Gleichungs-
systemen. Somit ist U1 ein Unterraum für k = 3. Aus den Gleichungen x1 +x
F' 2 =(G0
1
und 2x1 = −x3 folgt dann x1 = t ⇒ x2 = −t ⇒ x3 = −2t, d. h. U1 = −1 .
' (−2
1
Somit ist dim(U1 ) = 1 und eine Basis von U1 besteht aus dem Vektor −1 .
−2
d) Mit dem Gauß-Algorithmus untersuchen wir die gegebenen Vektoren auf lineare
Unabhängigkeit:
⎡ ⎤ ⎡ ⎤
111 111
(Z3 ) − (Z1 )
A = ⎣0 2 1⎦ ! ⎣ 0 2 1 ⎦ ⇒ Rang(A) = 2 ⇒ dim(U2 ) = 2.
111 000
L) 1 * ) 1 *M
Eine mögliche Basis von U2 (es gibt mehrere Möglichkeiten) ist 0 , 1 .
1 1
e) R3 = U1 + U2 ? Wir kombinieren alle erzeugende Vektoren von U1 und U2 als
Spalten in einer einzigen Matrix. Mit dem Gauß-Algorithmus berechnen wir den
Rang dieser Matrix und somit auch die Dimension von U1 + U2 :
⎡ ⎤ ⎡ ⎤
11 1 11 1
(Z3 ) − (Z1 )
A = ⎣ 0 1 −1 ⎦ ! ⎣ 0 1 −1 ⎦ ⇒ Rang(A) = 3 ⇒ dim(U1 + U2 ) = 3.
1 1 −2 0 0 −3
640 Kapitel 10 • Prüfungstrainer

Somit ist U1 + U2 = R3 .
U1 ∩ U2 = {0}? Es sei v ∈ U1 ∩ U2 . Wegen v ∈ U1 und v ∈ U2 ist
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤⎡ ⎤ ⎡ ⎤
1 1 1 1 1 −1 α 0
v = α ⎣0⎦ + β ⎣1⎦ = γ ⎣−1⎦ ⇒ ⎣0 1 1 ⎦ ⎣β ⎦ = ⎣0⎦ .
1 1 −2 11 2 γ 0

Dies LGS lösen wir mit dem Gauß-Algorithmus


⎡ ⎤ ⎡ ⎤
1 1 −1 0 1 1 −1 0
(Z3 ) − (Z1 )
⎣0 1 1 0⎦ ! ⎣0 1 1 0⎦.
11 2 0 00 3 0

Die einzige Lösung ist α = β = γ = 0, d. h. v = 0 ⇒ U1 ∩ U2 = {0}.


Zusammenfassend: Wegen R3 = U1 + U2 und U1 ∩ U2 = {0} ist R3 = U1 ⊕ U2 .

Aufgabe 6
a) Wir verifizieren die Unterraumbedingungen (UR0) und (UR).
Beweis von (UR0): Die Nullmatrix ist eine obere Dreiecksmatrix, d. h. 0 ∈
U. " !a a " ) *
Beweis von (UR): Es seien A = 01 a23 ∈ U, B = b01 bb2 ∈ U und α, β ∈ C.
) * 3

Dann ist αA+βB = αa1 +βb 0


1 αa2 +βb2
αa3 +βb3 eine obere Dreiecksmatrix, also αA+βB ∈
U. "
b) Mit dem Rangkriterium
⎡ ⎤ ⎡ ⎤
1 1 i 1 1 i
(Z2 ) − i(Z1 )
⎢i i −2 ⎥ (Z4 ) − (Z1 ) ⎢0 0 −3 ⎥
A=⎢
⎣0
⎥ ! ⎢ ⎥ ⇒ Rang(A) = 3 ⇒ dim(U) = 3.
0 0 ⎦ ⎣0 0 0 ⎦
1 2 i 0 1 0

Die drei Matrizen bilden somit eine Basis von U.


c) Das Produkt von oberen Dreiecksmatrizen ist wieder eine obere Dreiecksmatrix.
Daraus folgt: Ist A ∈ U eine obere Dreiecksmatrix, so ist F(A) = TAT eine obere
Dreiecksmatrix und somit in U. Deshalb ist F wohldefiniert. Nun zeigen wir, dass
F linear ist. Es seien A, B ∈ U und α, β ∈ C. Dann gilt F(αA + βB) = T(αA +
βB)T = αTAT + βTBT = αF(A) + βF(B). Somit ist F linear. "
d) Wir berechnen zuerst die Darstellungsmatrix von F in der Standardbasis und
führen dann einen! Basiswechsel
" ! nach
" der Basis
! B " durch. Die Standardbasis von
U ist E = {E11 = 10 00 , E12 = 00 10 , E22 = 00 01 }. Wir bestimmen die Bilder der
Basisvektoren vermögen der Abbildung F:
' (' (' ( ' (
1 1 10 1 1 11
F(E11 ) = =
0 −1 0 0 0 −1 00
10.10 • Musterprüfung 4 – Musterlösung
641 10
⎡ ⎤
1
= E11 + E12 ⇒ [F(E11 )]E = ⎣1⎦
0
' (' (' ( ' (
1 1 01 1 1 0 −1
F(E12 ) = =
0 −1 0 0 0 −1 0 0
⎡ ⎤
0
= −E12 ⇒ [F(E12 )]E = ⎣−1⎦
0
' (' (' ( ' (
1 1 00 1 1 0 −1
F(E22 ) = =
0 −1 0 1 0 −1 0 1
⎡ ⎤
0
= −E12 + E22 ⇒ [F(E22 )]E = ⎣−1⎦
1
)1 0 0
*
Es gilt somit M EE (F) = 1 −1 −1 .
0 0 1
Die Transformationsmatrix von B nach der Standardbasis E ist
⎡ ⎤ ⎡ ⎤
11 i 3 i −1
T B→E = ⎣ i i −2⎦ ⇒ T E →B = T −1
B→E = ⎣−1 0 1 ⎦ .
12 i i −1 0

Somit gilt:
⎡ ⎤
3 2 − i 4i
MB E
B (F) = T E →B M E (F)[T B→E = ⎣0 1 0 ⎦.
2i 1 + 2i −3

e) Die Eigenwerte sind unabhängig von der Wahl der Basis. Wir berechnen das
charakteristische Polynom der Darstellungsmatrix bezüglich der Standardbasis
(ist einfacher)
⎡ ⎤
1−λ 0 0
!
det(A − λE) = ⎣ 1 −1 − λ −1 ⎦ = −(λ−1)2 (λ+1) = 0 ⇒ λ1,2 = 1, λ3 = −1.
0 0 1−λ

f) Die Determinante der Darstellungsmatrix ist −1 ̸= 0. Daher ist F ein Isomor-


phismus.

Aufgabe 7
a) Zwei Matrizen A, B ∈ Km×n heißen äquivalent, wenn es invertierbare Matrizen
S ∈ GL(m, K) und T ∈ GL(n, K) gibt mit

B = SAT −1 .
642 Kapitel 10 • Prüfungstrainer

Wir müssen die drei Eigenschaften der Definition einer Äquivalenzrelation über-
prüfen. Es seien also A, B, C ∈ Km×n . Dann gilt:
1) Reflexivität: Offenbar ist A = EAE −1 , d. h. A ∼ A. Somit erfüllt “∼” die
Reflexivität-Eigenschaft. "
2) Symmetrie: Ist A ∼ B, so gibt es invertierbare Matrizen S, T mit B =
SAT −1 . Daraus ergibt sich:
% &−1
A = S −1 BT = S −1 B T −1 .

Somit ist B ∼ A und die Symmetrie-Eigenschaft ist gezeigt. "


3) Transitivität: Ist A ∼ B und A ∼ C, so gibt es invertierbare Matrizen S1 , T1
bzw. S2 , T2 mit B = S1 AT1 −1 bzw. C = S2 BT2 −1 . Daraus folgt:

C = S2 BT2 −1 = S2 S1 AT1 −1 T2 −1 = (S2 S1 )A(T2 T1 )−1 .

Somit ist A ∼ C und auch die Transitivität von ∼ ist erfüllt. "
Die drei Eigenschaften der Definition einer Äquivalenzrelation sind somit erfüllt.
Also definiert “∼” eine Äquivalenzrelation auf Km×n .
b) Wir beweisen Im(AB) ⊂ Im(A) und Im(AB) ⊃ Im(A).
Beweis vonIm(AB) ⊂ Im(A) : Es sei v ∈ Im(AB). Dann gibt es ein w ∈ Kn mit
ABw = v. Setzen wir z = Bw, so gilt Az = v, d. h. v ∈ Im(A).
Beweis vonIm(AB) ⊃ Im(A) : Es sei nun v ∈ Im(A). Dann gibt es ein w ∈ Kn
mit Aw = v. Da B invertierbar ist definieren wir z = B−1 w. Dann ist ABz =
ABB−1 w = Aw = v, d. h. v ∈ Im(AB).
c) Zwei Matrizen sind genau dann äquivalent, wenn sie denselben Rang besitzen
(Satz 8.15). Wir suchen also alle k ∈ R, sodass Rang(A) = 2:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
k 1 2 1 1 1 (Z2 ) − k(Z1 ) 1 1 1
(Z2 ) ↔ (Z1 ) (Z3 ) + (Z1 )
A=⎣ 1 1 1 ⎦ ! ⎣ k 1 2 ⎦ ! ⎣0 1−k 2−k⎦
−1 1 1 − k −1 1 1 − k 0 2 2−k
⎡ ⎤ ⎡ ⎤
1 1 1 11 1
(Z2 ) ↔ (Z3 ) 2(Z3 ) − (1 − k)(Z2 )
! ⎣0 2 2−k⎦ ! ⎣0 2 2−k ⎦
0 1−k 2−k 0 0 (1 + k)(2 − k)

Es ist Rang(A) = 2 genau dann, wenn k = −1 oder k = 2.


643

Serviceteil
Anhang A Analytische Geometrie – 644

Anhang B Mengen, Gruppen und Körper – 658

Anhang C Die komplexen Zahlen – 665

Literaturverzeichnis – 678

Stichwortverzeichnis – 679

© Der/die Autor(en), exklusiv lizenziert durch Springer Nature Switzerland AG 2022


T. C. T. Michaels, M. Liechti, Prüfungstraining Lineare Algebra, Grundstudium Mathematik
Prüfungstraining, https://doi.org/10.1007/978-3-030-65886-1
644 Anhang A Analytische Geometrie

Anhang A Analytische Geometrie

Mithilfe von Vektoren kann man geometrische Objekte wie Geraden oder Ebenen
mathematisch beschreiben. Dies ist der Inhalt der analytischen Geometrie. In diesem
Anhang werden kurz und bündig die wichtigsten Tatsachen in Erinnerung gerufen.

A.1 Vektoren

A.1.1 Skalarprodukt
# Definition A.1
@ u1 A @ v1 A
Für zwei Vektoren u = . , v = .. ∈ Rn definiert man das Skalarprodukt von u und
.
. .
un vn
v als
n
S
u · v = u1 v1 + u2 v2 + · · · + un vn = ui vi . (A.1)
i=1

> Bemerkung
Beachte: Das Skalarprodukt von u und v kann man auch wie folgt schreiben:
@ v1 A
T T
u · v = u v = v u = u1 . . . un .. . (A.2)
.
vn

Länge eines Vektors


Der Skalarprodukt ist eine nützliche Operation, um die Länge eines Vektors oder den
Winkel zwischen Vektoren zu bestimmen.

# Definition A.2
@ u1 A
Die Länge eines Vektors u = .. ∈ Rn ist
.
un

T
U n
√ US
||u|| := u · u = V u2 i (A.3)
i=1

u ∈ Rn heißt normiert, wenn ||u|| = 1 gilt. $

Winkel zwischen zwei Vektoren


# Definition A.3
Der Winkel θ zwischen zwei Vektoren u, v ∈ Rn ist
Anhang A Analytische Geometrie
645 A
a b c

. Abb. A.1 (a) Geometrische Interpretation des Skalarproduktes zwischen zwei Vektoren u, v. (b) Wenn
u und v senkrecht zueinander stehen ist u · v = 0, denn das Projizieren von u auf v führt zu einem Vektor
mit Länge 0. (c) Winkel zwischen zwei Vektoren

u·v
cos θ := (A.4)
||u|| ||v||

Orthogonale Vektoren
Zwei Vektoren u, v ∈ Rn heißen orthogonal (oder senkrecht), wenn u · v = 0 gilt.
Geometrisch sind zwei Vektoren genau dann orthogonal, wenn ihr Zwischenwinkel
θ = π/2 beträgt (cos θ = 0) bzw. wenn sie senkrecht zueinander stehen. Man schreibt
dann u ⊥ v (. Abb. A.1).

Rechenregeln
Es gelten für Vektoren v, u folgende Rechenregeln:

# Satz A.1 (Rechenregeln für Skalarprodukt)


Es seien u, v ∈ Rn und α ∈ R. Dann gilt:
5 v · u = u · v (Reihenfolge der Vektoren spielt keine Rolle!)
5 u · (v + w) = u · v + u · w
5 (α u) · v = u · (α v) = α u · v
5 u · v = 0 genau dann, wenn u ⊥ v (d. h. wenn u und v senkrecht sind) $

Übung A.1
◦ ◦ ◦ Für welche s ∈ R ist u orthogonal zu v und w?
⎡ ⎤ ⎡ ⎤ ⎡

0 s s
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
u = ⎣1⎦ , v = ⎣1⎦ , w=⎣ s ⎦
s 2 −1
646 Anhang A Analytische Geometrie

v Lösung
Es gilt:
⎡ ⎤ ⎡ ⎤
0 s
⎢ ⎥ ⎢ ⎥ ! 1
u · v = ⎣1⎦ · ⎣1⎦ = 0 + 1 + 2s = 2s + 1 = 0 ⇒ s = −
2
s 2
⎡ ⎤ ⎡ ⎤
0 s
⎢ ⎥ ⎢ ⎥
u · w = ⎣1⎦ · ⎣ s ⎦ = 0 + s − s = 0 ".
s −1

Somit s = −1/2. %

Übung A.2
◦ ◦ ◦ Man betrachte die Vektoren u = [1, 1, 0]T und v = [0, −2, 2]T .
a) Man bestimme die Länge von u und v.
b) Man bestimme den Winkel zwischen u und v.

v Lösung
a) Es gilt:
⎡ ⎤ ⎡ ⎤
1 1 √
⎢ ⎥ ⎢ ⎥ √
u · u = ⎣1⎦ · ⎣1⎦ = 1 + 1 + 0 = 2 ⇒ ||u|| = u · u = 2
0 0
⎡ ⎤ ⎡ ⎤
0 0 √
⎢ ⎥ ⎢ ⎥ √
v · v = ⎣−2⎦ · ⎣−2⎦ = 0 + 4 + 4 = 8 ⇒ ||v|| = v · v = 2 2.
2 2

b) Der Winkel zwischen u und v beträgt


⎡ ⎤ ⎡ ⎤
1 0
⎢ ⎥ ⎢ ⎥
⎣1⎦ · ⎣−2⎦
u·v 0 2 −2
cos θ = = √ √ = √ √
||u|| ||v|| 2·2 2 2·2 2
D E
1 1 2π
=− ⇒ θ = arccos − = .
2 2 3 %

Übung A.3
• ◦ ◦ Man betrachte die Vektoren u = [1, 1, 1]T und v = [1, −1, −1]T . Man bestimme
alle Vektoren w ∈ R3 der Länge 1, welche orthogonal zu u und v sind.
Anhang A Analytische Geometrie
647 A
v Lösung
Es sei w = [x1 , x2 , x3 ] ∈ R3 der gesuchte Vektor. Dieser Vektor muss gleichzeitig w·u =
0 und w · v = 0 erfüllen, d. h.
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x1 1 x1 1
⎢ ⎥ ⎢ ⎥ ! ⎢ ⎥ ⎢ ⎥ !
w · u = ⎣x2 ⎦ · ⎣1⎦ = x1 + x2 + x3 = 0, w · v = ⎣x2 ⎦ · ⎣−1⎦ = x1 − x2 − x3 = 0.
x3 1 x3 −1

Wir erhalten also das folgende LGS


⎧ @ A
⎨x + x + x = 0
1 2 3 1 1 1 0
! [A|b] = .
⎩x − x − x = 0
1 2 3 1 −1 −1 0

Um das LGS, zu lösen wenden wir den Gauß-Algorithmus an:


@ A @ A
1 1 1 0 (Z2 ) − (Z1 ) 1 1 1 0
! = Z.
1 −1 −1 0 0 −2 −2 0

Man erhält zwei Gleichungen mit drei Unbekannten. Wir setzen x3 = t. Daraus folgt
x2 = −x3 = −t und x1 = −x2 − x3 = 0. Es gilt somit:
⎡ ⎤ ⎡ ⎤
x1 0
⎢ ⎥ ⎢ ⎥
w = ⎣x2 ⎦ = t ⎣−1⎦ , t ∈ R.
x3 1
H √ √
Die Länge von w ist ||w|| = 02 + t2 + t2 = 2t2 . Aus ||w|| = 1 folgt somit 2t2 = 1
@ 0 A
√ √1
⇒ t = ±1/ 2. Die gesuchten Vektoren sind somit w = ± − 2 . %
√1
2

A.1.2 Orthogonale Projektionen

Eine wichtige Anwendung des Skalarprodukts ist die Bestimmung von orthogonalen
Projektionen. Man betrachte zwei Vektoren u, v ∈ Rn . Wir wollen den Vektor u in
einen zu v parallelen und einen dazu senkrechten Vektor zerlegen (. Abb. A.2).

# Definition A.4
Die orthogonale Projektion von u auf v ist

u·v
u∥ := Projv (u) = v. (A.5)
||v||2

Dementsprechend findet man die orthogonale Projektion von u senkrecht zu v:

u·v
u⊥ = u − u∥ = u − Projv (u) = u − v. (A.6)
||v||2

Es gilt u = u∥ + u⊥ . $
648 Anhang A Analytische Geometrie

. Abb. A.2 Orthogonale


Projektion von u auf v. Es gilt
u = u⊥ + u∥

Übung A.4
• ◦ ◦ Man finde die orthogonalen Projektionen von u = [1, 1, 2]T auf v = [0, −1, 1]T .

v Lösung ' (' (


1 0 @ A
1 · −1 ) 0
* 0
u·v 2 1 − 12
Es gilt: u∥ = Projv (u) = v= ||v||2 2 −1 = . Daraus folgt u⊥ = u −
1 1
@ A @ A 2
)1* 0 1
1 3
Projv (u) = 1 − − 2 = 2 .
2 1 3
@2 2
A @ A
0 1 )1*
3
Beachte: u∥ + u⊥ = − 12 + 2 = 1 =u" %
1 3 2
2 2

Übung A.5
• ◦ ◦ Man zeige, dass u⊥ orthogonal zu v ist.

v Lösung
Es gilt:
D E
u·v u·v
u⊥ · v = u − v ·v=u·v− v · v = u · v − u · v = 0.
||v||2 ||v||2 3456
=||v||2

Somit ist u⊥ orthogonal zu v. %

A.1.3 Das Kreuzprodukt


# Definition A.5
Es seien u = [u1 , u2 , u3 ]T ∈ R3 und v = [v1 , v2 , v3 ]T ∈ R3 . Der Vektor
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
u1 v1 u2 v3 − u3 v2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
u × v := ⎣u2 ⎦ × ⎣v2 ⎦ = ⎣u3 v1 − u1 v3 ⎦ (A.7)
u3 v3 u1 v2 − u2 v1

heißt Kreuzprodukt (oder Vektorprodukt) von u und v. $


Anhang A Analytische Geometrie
649 A
. Abb. A.3 Geometrische
Deutung des Kreuzprodukts

Geometrische Deutung
u × v hat zwei geometrische Interpretationen (. Abb. A.3):
5 Der Vektor u × v ist sowohl zu u als auch zu v orthogonal.
5 Die Länge des Vektors u × v ist

||u × v|| = ||u|| ||v|| sin θ,

wobei θ der Winkel zwischen u und v ist. ||u × v|| entspricht konkret dem
Flächeninhalt des von den Vektoren u und v aufgespannten Parallelogramms.

Rechenregeln
Es gelten folgende Rechenregeln:

# Satz A.2 (Rechenregeln für Kreuzprodukt)


Es seien u, v ∈ Rn und α ∈ R. Dann gilt:
5 v × u = −u × v (Reihenfolge der Vektoren ist wichtig!)
5 u × (v + w) = u × v + u × w
5 (α u) × v = u × (α v) = α u × v
5 u × v = 0 genau dann, wenn u ∥ v (d. h. wenn u und v parallel sind) $

Übung A.6
◦ ◦ ◦ Man bestimme das Kreuzprodukt der Vektoren u = [1, 2, 1]T und v = [3, 1, 2]T .

v Lösung ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 3 4−1 3
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Es gilt: u × v = ⎣2⎦ × ⎣1⎦ = ⎣3 − 2⎦ = ⎣ 1 ⎦ . %
1 2 1−6 −5

Übung A.7
• ◦ ◦ Man zeige, dass u × v sowohl zu u als auch zu v orthogonal ist.
650 Anhang A Analytische Geometrie

v Lösung
Es gilt:
⎡ ⎤ ⎡ ⎤
u1 u2 v3 − u3 v2
⎢ ⎥ ⎢ ⎥
u · (u × v) = ⎣u2 ⎦ · ⎣u3 v1 − u1 v3 ⎦ = u1 (u2 v3 − u3 v2 ) + u2 (u3 v1 − u1 v3 ) + u3 (u1 v2 − u2 v1 )
u3 u1 v2 − u2 v1

= u1 u2 v3 − u1 u3 v2 + u2 u3 v1 − u2 u1 v3 + u3 u1 v2 − u3 u2 v1
=0 ⇒ u ⊥ u × v.

Analog zeigt man, dass v ⊥ u × v ist. %

A.2 Geraden im Raum

Eine Gerade im Raum kann man auf zwei Arten beschreiben (. Abb. A.4): (1)
Parameterform oder (2) implizite Darstellung.

A.2.1 Parameterform
# Definition A.6 (Parameterform einer Gerade im Raum)
Die Gleichung

x = x0 + tv, t ∈ R (A.8)

beschreibt eine Gerade g, welche in Richtung v zeigt und durch den Punkt x0 geht. x0 heißt
Stützvektor und v heißt Richtungsvektor. $

Übung A.8
◦ ◦ ◦ Man bestimme die Parameterform der Gerade g, welche durch [1, 1, 1]T und
[1, 2, 3]T läuft.

a b

. Abb. A.4 (a) Parameterform und (b) implizite Darstellung einer Gerade g. In der Parameterform
werden Stützvektor x0 und Richtungsvektor v angegeben. Bei der impliziten Darstellung wird statt
Richtungsvektor die Normale n angegeben
Anhang A Analytische Geometrie
651 A
v Lösung
Wir setzen x0 = [1, 1, 1]T als Ausgangspunkt (Stützvektor) der Gerade. Der Rich-
tungsvektor ist dann
⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v = ⎣2⎦ − ⎣1⎦ = ⎣1⎦ .
3 1 2
⎧ 8 ⎡ ⎤ ⎡ ⎤ ⎫
⎪ 8 1 0 ⎪
⎨ 8 ⎬
8 ⎢ ⎥ ⎢ ⎥
Daraus folgt g = x ∈ R3 8 x = ⎣1⎦ + t ⎣1⎦ , t ∈ R . %

⎩ 8 ⎪

8 1 2

A.2.2 Implizite Darstellung


# Definition A.7 (Implizite Darstellung einer Geraden in R2 )
Jede Gerade g in R2 lässt implizit sich durch die Gleichung

a1 x1 + a2 x2 − b = 0 (A.9)

beschrieben, auch Koordinatenform genannt. $

> Bemerkung
Geometrisch ist n = [a1 , a2 ]T die Normale (oder Normalenvektor) zur Geraden g. Denn
ein Punkt x = [x1 , x2 ]T liegt genau dann auf der Geraden g (durch x0 und mit der
Normale n), wenn

n · (x − x0 ) = 0. (A.10)

Dadurch erhalten wir

a1 x1 + a2 x2 − b = 0 mit b = n · x0 , (A.11)

was Gl. (A.9) entspricht.

Übung A.9
◦ ◦ ◦ Eine Gerade g durch den Punkt x0 = [0, 1]T hat den Normalenvektor n = [2, 3]T .
Man gebe die implizite Darstellung der Geraden an.

v Lösung
Mit x0 = [0, 1]T und n = [2, 3]T erhalten wir
@ A W@ A @ AX
2 x1 0
n · (x − x0 ) = 0 ⇒ · − = 2x1 + 3x2 − 3 = 0.
3 x2 1 %
652 Anhang A Analytische Geometrie

A.3 Ebenen im R3

Wie für Geraden kann man auch Ebenen in R3 auf mindestens zwei Arten beschrei-
ben (. Abb. A.5): (1) Parameterform oder (2) implizite Darstellung.

A.3.1 Parameterform
# Definition A.8 (Parameterform einer Ebene in R3 )
Die Gleichung

x = x0 + tv1 + sv2 , t, s ∈ R (A.12)

beschreibt die Ebene E, welche durch x0 geht und durch die zwei nicht parallelen (linear
unabhängigen) Vektoren v1 und v2 aufgespannt wird. $

Gl. (A.12) heißt Ebenengleichung in Parameterform. Die zwei Parameter sind t und s.
Wenn wir diese Parameter variieren, bewegen wir uns innerhalb der Ebene. x0 heißt
Stützvektor. v1 und v2 heißen Spannvektoren (oder Erzeugendessystem). Oft hat die
Lösung eines LGS diese Form.

Übung A.10
◦ ◦ ◦ Man bestimme die Parameterform der Ebene E, welche die Punkte [1, 0, 0]T ,
[1, 1, 1]T und [2, 1, 2]T beinhaltet.

v Lösung
Wir wählen x0 = [1, 0, 0]T als Ausgangspunkt (Stützvektor). Wir bilden die Spann-
vektoren v1 und v2 :

a b

. Abb. A.5 (a) Parameterform und (b) implizite Darstellung einer Ebene E. In der Parameterform werden
Stützvektor x0 und zwei Spannvektoren v1 , v2 angegeben. Bei der impliziten Darstellung wird statt den
Spannvektoren die Normale n angegeben
Anhang A Analytische Geometrie
653 A
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 1 0 2 1 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
v1 = ⎣1⎦ − ⎣0⎦ = ⎣1⎦ , v2 = ⎣1⎦ − ⎣0⎦ = ⎣1⎦ .
1 0 1 2 0 2
⎧ 8 ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ 8 1 0 1 ⎪
⎨ 8 ⎬
8 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
Daraus folgt E = x ∈ R3 8 x = ⎣0⎦ + t ⎣1⎦ + s ⎣1⎦ , t, s, ∈ R in Parameter-

⎩ 8 ⎪

8 0 1 2
form. %

A.3.2 Implizite Darstellung


# Definition A.9 (Implizite Darstellung einer Ebene in R3 )
Eine Ebene E im R3 kann man auch implizit mit der folgenden Gleichung beschreiben:

a1 x1 + a2 x2 + a3 x3 − b = 0 (A.13)

> Bemerkung
Die geometrische Interpretation der Koordinatenform (A.13) ist die folgende: Sind v1
und v2 die Spannvektoren von E, so ist der Vektor

n = v1 × v2 (A.14)

normal zu E. n heißt die Normale zu E. Ein Punkt x liegt genau dann in der Ebene E,
wenn der Ortsvektor x − x0 normal zu n ist, d. h.

n · (x − x0 ) = 0. (A.15)

Mit n = [a1 , a2 , a3 ]T und b = n · x0 erhalten wir

a1 x1 + a2 x2 + a3 x3 − b = 0. (A.16)

Das ist genau die gewünschte Gl. (A.13).

Übung A.11
• ◦ ◦ Man bestimme die Koordinatenform der Ebene E, welche durch die Punkte
[1, 0, 0]T , [1, 1, 1]T und [2, 1, 2]T läuft.
654 Anhang A Analytische Geometrie

v Lösung
1. Möglichkeit: Aus Übung A.10 kennen wir die Parameterform von E:
⎧ 8 ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ 8 1 0 1 ⎪
⎨ 8 ⎬
8 ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
E = x ∈ R3 8 x = ⎣0⎦ + t ⎣1⎦ + s ⎣1⎦ , t, s, ∈ R

⎩ 8 ⎪

8 0 1 2

Mit den Spannvektoren v1 und v2 bilden wir die Normale zu E


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
0 1 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
n = v1 × v2 = ⎣1⎦ × ⎣1⎦ = ⎣ 1 ⎦ ⇒ a1 = 1, a2 = 1, a3 = −1.
1 2 −1

Mithilfe von n können wir b bestimmen


⎡ ⎤ ⎡ ⎤
1 1
⎢ ⎥ ⎢ ⎥
b = n · x0 = ⎣−1⎦ · ⎣0⎦ = 1.
−1 0

Die gesuchte Koordinatenform von E ist somit


L M
E = x ∈ R3 | x1 + x2 − x3 − 1 = 0 .

2. Möglichkeit: Wir suchen die Ebene a1 x1 + a2 x2 + a3 x3 − b = 0, sodass die Punkte


[1, 0, 0]T , [1, 1, 1]T und [2, 1, 2]T in der Ebene liegen. Einsetzen liefert uns ein LGS
⎧ ⎡ ⎤

⎨a1 − b = 0
⎪ 1 0 0 −1 0
⎢ ⎥
a1 + a2 + a3 − b = 0 ! [A|b] = ⎣ 1 1 1 −1 0 ⎦ .


⎩ 2 1 2 −1 0
2a1 + a2 + 2a3 − b = 0

Um das LGS zu lösen, wenden wir den Gauß-Algorithmus an:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
1 0 0 −1 0 (Z2 ) − (Z1 ) 1 0 0 −1 0 1 0 0 −1 0
⎢ ⎥ (Z3 ) − 2(Z1 ) ⎢ ⎥ (Z3 ) − (Z2 ) ⎢ ⎥
⎣ 1 1 1 −1 0 ⎦ ! ⎣0 1 1 0 0⎦ ! ⎣0 1 1 0 0⎦=Z
2 1 2 −1 0 0 1 2 1 0 0 0 1 1 0

Das LGS hat 3 Gleichungen mit 4 Unbekannten. Wir setzen b = t als freien Parameter.
Aus der dritten Gleichung folgt dann a3 = −b = −t. Einsetzen in der zweiten
Gleichung liefert a2 = −a3 = t. Ferner, aus der ersten Gleichung erhalten wir
a1 = b = t. Schlussendlich ergibt dies:

t x1 + t x2 − t x3 − t = 0 ⇒ x1 + x2 − x3 − 1 = 0. %
Anhang A Analytische Geometrie
655 A

Übung A.12
◦ ◦ ◦ Man bestimme die Parameterform der Ebene E mit der Gleichung x1 + 3x2 −
2x3 − 5 = 0 (Parameterform).

v Lösung
Die Ebene E definiert eine Gleichung mit 3 Unbekanntenn:

x1 + 3x2 − 2x3 − 5 = 0.

Die Lösung besitzt zwei freie Parameter x2 = t und x3 = s. Daraus folgt x1 = 5 −


3x2 + 2x3 = 5 − 3t + 2s, d. h., die Parameterform von E ist bestimmt durch:
⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤
x1 5 −3 2
⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥
⎣x2 ⎦ = ⎣0⎦ + t ⎣ 1 ⎦ + s ⎣0⎦ .
x3 0 0 1

Beachte, dass die Normale zu E durch n festgelegt ist:


⎡ ⎤ ⎡ ⎤ ⎡ ⎤
−3 2 1
⎢ ⎥ ⎢ ⎥ ⎢ ⎥
n = ⎣ 1 ⎦ × ⎣0⎦ = ⎣ 3 ⎦ .
0 1 −2

Die Komponenten von n sind genau die Koeffizienten von x1 , x2 , und x3 in der
Gleichung der Ebene E. %

A.4 Geometrische Interpretation von LGS

Die Lösungsmenge eines LGS beschreibt oft eine Gerade oder eine Ebene im Raum.

Übung A.13
• ◦ ◦ Man beschreibe die Lösung des folgenden LGS geometrisch:

⎨x − 2x = 1
1 2
⎩2x + 2x = 0
1 2

v Lösung
⎧ @ A
⎨x − 2x = 1
1 2 1 −2 1
! [A|b] = .
⎩2x + 2x = 0
1 2 2 2 1

Um das LGS zu lösen, wenden wir den Gauß-Algorithmus an:


656 Anhang A Analytische Geometrie

@ A @ A @ A @ A
2
1 −2 1 (Z2 ) − 2(Z1 ) 1 −2 1 x
! = Z ⇒ x = 1 = 31 .
2 2 1 0 6 −1 x2 −6

Die zwei Gleichungen des LGS, x1 − 2x2 = 1 und 2x1 + 2x2 = 0 beschreiben zwei
Geraden welche sich im Punkt [ 23 , − 16 ] schneiden. %

Übung A.14
• ◦ ◦ Man beschreibe die Lösung des folgenden LGS geometrisch:

⎨x + 2x = 3
1 2
⎩2x + 4x = 6
1 2

v Lösung
⎧ @ A
⎨x + 2x = 3
1 2 123
! [A|b] = .
⎩2x + 4x = 6
1 2 246

Um das LGS zu lösen, wenden wir den Gauß-Algorithmus an:


@ A @ A
1 2 3 (Z2 ) − 2(Z1 ) 1 2 3
! = Z.
2 4 6 0 0 0

In diesem Fall hat das LGS unendlich viele Lösungen. Eine Variable ist frei wählbar.
Wir setzen x2 = t. Daraus folgt x1 = 3 − 2x2 = 3 − 2t. Die Lösungsmenge
:8@ A @ A @ A Y
8 x
8 1 3 −2
2
L= x∈R 8 = +t , t∈R
8 x2 0 1

ist somit eine Gerade. In der Tat, die zwei Gleichungen des LGS, x1 + 2x2 = 3 und
2x1 + 4x2 = 6 beschreiben dieselbe Gerade in R2 . %

Übung A.15
• ◦ ◦ Man interpretiere die Lösung des folgenden LGS geometrisch:

⎨x − 2x = 1
1 2
⎩x − 2x = −2
1 2

v Lösung
⎧ @ A
⎨x − 2x = 1
1 2 1 −2 1
! [A|b] = .
⎩x − 2x = −2
1 2 1 −2 −2
Anhang A Analytische Geometrie
657 A
Um das LGS zu lösen, nutzen wir den Gauß-Algorithmus:
@ A @ A
1 −2 1 (Z2 ) − (Z1 ) 1 −2 1
! = Z.
1 −2 −2 0 0 3

Das LGS hat keine Lösung. In der Tat, die zwei Gleichungen des LGS, x1 − 2x2 = 1
und x1 − 2x2 = −2 sind zwei disjunkte parallele Geraden im R2 . %

Übung A.16
• ◦ ◦ Man beschreibe die Lösung des folgenden LGS geometrisch:

⎨x + x + x = 1
1 2 3
⎩x + 2x + 2x = 1
1 2 3

v Lösung
⎧ @ A
⎨x + x + x = 1
1 2 3 1111
! [A|b] = .
⎩x + 2x + 2x = 1
1 2 3 1221

Wir wenden wieder den Gauß-Algorithmus an:


@ A @ A
1 1 1 1 (Z2 ) − (Z1 ) 1 1 1 1
! = Z.
1 2 2 1 0 1 1 2

Man erhält zwei Gleichungen in drei Unbekannten. Wir setzen x3 = t als freien
Parameter. Daraus folgt x2 = 2 − x3 = 2 − t und x1 = 1 − x2 − x3 = −1. Die
Lösungsmenge
⎧ 8⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫
⎪ 8 x −1 0 ⎪
⎨ 8 1 ⎬
8⎢ ⎥ ⎢ ⎥ ⎢ ⎥
L = x ∈ R3 8 ⎣x2 ⎦ = ⎣ 2 ⎦ + t ⎣−1⎦ , t ∈ R

⎩ 8 ⎪

8 x3 0 0

beschreibt eine Gerade im R3 , welche den Durchschnitt zwischen den Ebenen x1 + x2 +


x3 = 1 und x1 + 2x2 + 2x3 = 1 darstellt. %
658 Anhang B Mengen, Gruppen und Körper

Anhang B Mengen, Gruppen und Körper

In diesem Anhang wollen wir kompakt die wichtigsten Tatsachen über Mengen,
Gruppen, Körper festhalten, ohne grosse mathematische Strenge.

B.1 Mengen

Eine Menge X ist eine Ansammlung von Elementen. Bekannte Beispiele von Mengen
sind (. Abb. B.1):
5 N = {0, 1, 2, 3, · · · } = natürliche Zahlen;
5 N∗ = {1, 2, 3, · · · } = natürliche Zahlen ohne Null;
5 Z = {· · · , −3, −2, −1, 0, 1, 2, 3, · · · } = ganze Zahlen;
5 Zp = ganze Zahlen modulo p;
5 Q = rationale Zahlen;
5 R = reelle Zahlen;
5 C = komplexe Zahlen;
5 ∅ = { } = leere Menge.

B.1.1 Gleichheit von Mengen

Zwei Mengen X und Y sind gleich (X = Y ), wenn für jedes x gilt: x ∈ X ⇔ x ∈ Y .


Dies ist äquivalent zur folgenden Bedingung

X =Y ⇔ X ⊂ Y und Y ⊂ X . (B.1)

Praxistipp

Nützlicher Trick beim Beweisen. Die obige Definition (B.1) wendet man oft an, um
Mengengleichheit in der Praxis zu zeigen. Will man beweisen, dass zwei Mengen X und
Y gleich sind, so zeigt man konkret, dass X ⊂ Y und Y ⊂ X gilt. Um X ⊂ Y zu

. Abb. B.1 Bekannte Beispiele


von Mengen
Anhang B Mengen, Gruppen und Körper
659 B

zeigen, geht man wie folgt vor: Man wählt ein beliebiges Element x ∈ X aus und zeigt,
dass x auch in Y enthalten ist (d. h. x ∈ Y ). Analog zeigt man Y ⊂ X .

B.1.2 Kartesisches Produkt

Das kartesische Produkt von n Mengen X1 , · · · , Xn bezeichnet die Menge aller n-


Tupel (x1 , · · · , xn ) mit x1 ∈ X1 , · · · , xn ∈ Xn

X1 × · · · × Xn := {(x1 , · · · , xn ) | xi ∈ Xi , i = 1, · · · , n}.

Beim kartesischen Produkt von n Kopien derselben Menge X notieren wir

X n := X × X × · · · × X .
3 45 6
n Mal

# Beispiel
Rn = R × · · · × R = Vektoren mit Komponenten aus R. $
3 45 6
n Mal

# Beispiel
Cn = C × · · · × C = Vektoren mit Komponenten aus C. $
3 45 6
n Mal

# Beispiel
(Z2 )n = Z2 × · · · × Z2 = Vektoren mit Komponenten aus Z2 . $
3 45 6
n Mal

B.1.3 Operationen mit Mengen

Für zwei Mengen X und Y definieren wir

X ∪ Y := {z | z ∈ X oder z ∈ Y } Vereinigung
X ∩ Y := {z | z ∈ X und z ∈ Y } Durchschnitt
X \ Y := {z | z ∈ X und z ∈
/ Y} Differenz

B.1.4 Äquivalenzrelationen

Sei X eine beliebige Menge. Eine Beziehung (Relation) „∼“ zwischen Elementen der
Menge X heißt Äquivalenzrelation, falls die folgenden Eigenschaften erfüllt sind:
1) ∀x ∈ X : x ∼ x (Reflexivität)
2) ∀x, y ∈ X : x ∼ y =⇒ y ∼ x (Symmetrie)
3) ∀x, y, z ∈ X : x ∼ y und y ∼ z =⇒ x ∼ z (Transitivität)
660 Anhang B Mengen, Gruppen und Körper

Der Ausdruck x ∼ y wird stets „x ist äquivalent zu y“ gelesen und falls x ∼ y gilt, so
nennt man x und y äquivalent (bezüglich der Äquivalenzrelation ∼).

Äquivalenzklassen
Sei nun ∼ eine Äquivalenzrelation auf X und x ∈ X ein beliebiges Element von X .
Die Menge aller Elemente y ∈ X , welche äquivalent zu x sind, bildet die sogenannte
Äquivalenzklasse von x, welche geschrieben wird als

[x] := {y ∈ X | x ∼ y}.

Falls y ∈ [x], so sind natürlich die von x und y erzeugten Äquivalenzklassen identisch,
weil nach der Transitivität alle Elemente von X , die äquivalent zu x sind, auch
äquivalent zu y sind, und umgekehrt. Mit anderen Worten

∀y ∈ [x]gilt : [y] = [x].

Da alle Elemente einer Äquivalenzklasse zueinander äquivalent sind, kann man als
Repräsentanten der Äquivalenzklasse jedes beliebige Element auswählen. Die Menge,
bestehend aus allen unterschiedlichen Äquivalenzklassen (jede wird nur einmal ge-
zählt), bezeichnet man mit

X / ∼ = {[x] | Alle Repräsentanten x}

und heißt Quotientenmenge von X bezüglich ∼.

B.2 Gruppen
# Definition B.10 (Gruppe)
Eine Gruppe (G,o,e) (oder Kurz (G,o)) ist eine Menge G versehen mit einer Operation “◦”

◦ : G × G → G, (a, b) → a ◦ b

und einem neutralen Element e, sodass die folgenden drei Axiome erfüllt sind:
(G1) ∀a, b, c ∈ G gilt: a ◦ (b ◦ c) = (a ◦ b) ◦ c (Assoziativität);
(G2) ∀a ∈ G gilt e ◦ a = a (neutrales Element);
(G3) zu jedem Element a ∈ G gibt es ein eindeutig bestimmtes Element a′ ∈ G sodass
a′ ◦ a = e gilt (linksinverses Element). $

> Bemerkung
Ist ◦ = + (Addition), so nennt man G eine additive Gruppe. Ist ◦ = · (Multiplikation),
so nennt man G eine multiplikative Gruppe.

# Beispiel
Bekannte Beispiele von Gruppen sind (N, +, 0), (R, +, 0) und (R, ·, 1). $
Anhang B Mengen, Gruppen und Körper
661 B
B.2.1 Abelsche Gruppen

Eine Gruppe (G, ◦, e) heißt abelsch, wenn zusätzlich zu (G1)–(G3) gilt:

∀a, b ∈ G : a ◦ b = b ◦ a (Kommutativität)

# Beispiel
Zum Beispiel: (N, +, 0), (R, +, 0) und (R, ·, 1) sind abelsch. $

B.3 Körper

B.3.1 Definition
# Definition B.11 (Körper)
Ein Körper (K, +, ·) ist eine Menge K versehen mit einer Addition “+”

+ : K × K → K, (a, b) → a + b

und einer Skalarmultiplikation “·”

· : K × K → K, (a, b) → a · b,

sodass für alle a, b, c ∈ K die folgenden neun Axiome erfüllt sind:


(K1) a + b = b + a (Kommuntativität der Addition);
(K2) a + (b + c) = (a + b) + c (Assoziativität der Addition);
(K3) es gibt ein eindeutig bestimmtes Nullelement 0 ∈ F sodass 0 + a = a + 0 = a für alle
a ∈ K gilt (neutrales Element der Addition);
(K4) zu jedem Element a ∈ K gibt es ein eindeutig bestimmtes Element (−a) ∈ K sodass
a + (−a) = (−a) + a = 0 gilt (inverses Element der Addition);
(K5) a · b = b · a (Kommuntativität der Multiplikation);
(K6) (a · b) · c = a · (b · c) (Assoziativität der Multiplikation);
(K7) es gibt ein eindeutig bestimmtes neutrales Element 1 ∈ K sodass 1 · a = a für alle
a ∈ K gilt (neutrales Element der Multiplikation);
(K8) zu jedem a ∈ K gibt es ein eindeutig bestimmtes inverses Element a−1 ∈ K mit a ·
a−1 = a−1 · a = 1 (inverses Element der Multiplikation);
(K9) a · (b + c) = a · b + a · c (Distributivität der Multiplikation). $

# Beispiel
Bekannte Beispiele von Körpern sind:
5 K = R (mit der üblichen Addition und Multiplikation von reellen Zahlen);
5 K = C (mit der üblichen Addition und Multiplikation von komplexen Zahlen);
5 K = Q (mit der üblichen Addition und Multiplikation von rationalen Zahlen);
5 Der Primkörper Zp , wobei p eine Primzahl ist. $
662 Anhang B Mengen, Gruppen und Körper

Zusammenhang mit Gruppen


5 Axiome (K1)–(K4) besagen, dass (K, +, 0) eine abelsche additive Gruppe ist.
5 Axiome (K5)–(K8) besagen, dass (K, ·, 1) eine abelsche multiplikative Gruppe ist.
5 Axiom (K9) verknüpft Addition und Multiplikation.

B.3.2 Charakteristik eines Körpers

Es sei K ein Körper. Die Charakteristik von K ist die kleinste natürliche Zahl n ∈
N∗ = {1, 2, · · · } für welche n · 1 = 0 gilt. Mathematisch:

Char(K) = min{n ∈ N∗ | n · 1 = 0}.

Fall es kein solches n gibt, so setzt man Char(K) = 0.

# Beispiel
Char(R) = 0, Char(C) = 0, Char(Q) = 0. $

# Beispiel
Ist p eine Primzahl, so ist Char(Zp ) = p. $

B.4 Der Primkörper Zp

Zwei ganze Zahlen a, b ∈ Z heißen kongruent modulo p ∈ N, falls es ein k ∈ Z gibt


mit

b = a + k p. (B.2)

Geschrieben wird a = b (mod p).

# Beispiel
6 = 1 (mod 5), weil 6 = 1 + 1 · 5. $

# Beispiel
17 = 1 (mod 2), weil 17 = 1 + 8 · 2. $

B.4.1 Die Menge Zp

Wir definieren Zp (auch Z/pZ oder Fp ):

Zp = Menge der ganzen Zahlen modulo p.

Zp heißt Restklassenring modulo p (ausgesprochen „Z modulo p“).


Anhang B Mengen, Gruppen und Körper
663 B
B.4.2 Der Primkörper Zp
# Satz B.3
Ist p eine Primzahl, so ist Zp ein Körper. Zp heißt der Primkörper. $

# Beispiel
Für p = 2 ist Z2 der Körper der binären Zahlen Z2 = {0, 1} (auch Z2 = {0̄, 1̄} geschrieben)
mit den Operationen

+01 · 01
0 01 000
1 10 101

Auf Z2 gilt 1 = 3 = 5 = 7 = · · · und 0 = 2 = 4 = 6 = · · · . Graphische Interpretation:

Z · · · −3 −2 −1 0 1 2 3 4 5 6 7 · · ·
$
Z2 · · · 1 0 1 0 1 0 1 0 1 0 1 · · ·

# Beispiel
Für p = 3 ist Z3 = {0, 1, 2} (auch Z3 = {0̄, 1̄, 2̄} geschrieben) mit den Operationen

+ 0 1 2 · 0 1 2
0 0 1 2 0 0 0 0
1 1 2 0 1 0 1 2
2 2 0 1 2 0 2 1

Auf Z3 gilt 0 = 3 = 6 = · · · , 1 = 4 = 7 = · · · und 2 = 5 = 8 = · · · . Graphische


Interpretation:

Z · · · −3 −2 −1 0 1 2 3 4 5 6 7 8 · · ·
$
Z3 · · · 0 1 2 0 1 2 0 1 2 0 1 2 · · ·

# Beispiel
Für p = 5 ist Z5 = {0, 1, 2, 3, 4} mit den Operationen

+ 0 1 2 3 4 · 0 1 2 3 4
0 0 1 2 3 4 0 0 0 0 0 0
1 1 2 3 4 0 1 0 1 2 3 4
2 2 3 4 0 1 2 0 2 4 1 3
3 3 4 0 1 2 3 0 3 1 4 2
4 4 0 1 2 3 4 0 4 3 2 1

Z5 graphisch interpretiert:

Z · · · −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 8 9 · · ·
$
Z5 · · · 0 1 2 3 4 0 1 2 3 4 0 1 2 3 4 · · ·
664 Anhang B Mengen, Gruppen und Körper

Gleichungen über Zp
Wir lösen die Gleichung 11x + 6 = 5 über K = R, Z2 und Z5 .
5 Über K = R gilt: 11x + 6 = 5 ⇒ 11x = −1 ⇒ x = −1/11.
5 Über K = Z2 gilt: 11 = 1, 6 = 0 und 5 = 1. Daraus folgt x + 0 = 1 ⇒ x = 1.
5 Über K = Z5 gilt: 11 = 1, 6 = 1 und 5 = 0. Daraus folgt x+1 = 0 ⇒ x = −1 = 4.
Anhang C Die komplexen Zahlen
665 C

Anhang C Die komplexen Zahlen

In diesem Anhang wollen wir konzentriert die wichtigsten Tatsachen über komplexen
Zahlen festhalten.

C.1 Darstellung von komplexen Zahlen

Komplexe Zahlen können auf drei Arten dargestellt werden.

C.1.1 Kartesische Darstellung

In der kartesischen Form wird die komplexe Zahl z ∈ C durch ihre (reellen)
Koordinaten x und y in der komplexen Ebene (Gausschen Zahlenebene) identifiziert

z = x + iy. (C.1)

Die x-Koordinate ist der Realteil von z, während y der Imaginärteil von z ist:

x = Re(z) = Realteil von z, (C.2)


y = Im(z) = Imaginärteil von z. (C.3)

i ist der Imaginäreinheit, definiert durch i2 = −1, d. h. i = −1 (. Abb. C.1).

C.1.2 Polare oder trigonometrische Darstellung

In der polaren bzw. trigonometrischen Darstellung wird die komplexe Zahl z durch
dem Betrag |z| = r und dem Argument Arg(z) = ϕ bestimmt. Der Betrag von z ist
der Abstand des Punktes z vom Ursprung (in der Gauß’schen Zahlenebene). Das
Argument von z ist der Winkel ϕ zwischen z und der positiven reellen Achse (der
Winkel hat positive Werte, wenn ϕ im Gegenuhrzeigersinn gemessen wird). Auf diese
Weise können wir schreiben:

z = r(cos ϕ + i sin ϕ), (C.4)

. Abb. C.1 Kartesische


Darstellung einer komplexen
Zahl
666 Anhang C Die komplexen Zahlen

wobei
Z
r = |z| = x2 + y2 = Betrag von z, (C.5)
#y$
ϕ = Arg(z) = arctan = Argument von z. (C.6)
x

Beachte: In der polaren bzw. trigonometrischen Darstellung von z gibt es eine gewisse
Freiheit für die Wahl von ϕ. Denn der Winkel ϕ ist nur Modulo 2π eindeutig, d. h., wir
können ein beliebiges Vielfaches von 2π (was eine volle Umdrehung in der komplexen
Ebene entspricht) zu ϕ addieren, ohne z zu ändern. Normalerweise werden Werte von
ϕ zwischen 0 und 2π gewählt.

C.1.3 Euler’sche oder Exponentialdarstellung

Mit der Euler’schen Formel (. Abb. C.2)

eiϕ = cos ϕ + i sin ϕ (C.7)

können wir die komplexe Zahl z in Euler’schen Form (oder Exponentialform) darstel-
len:

z = reiϕ . (C.8)

C.1.4 Zusammenhang zwischen verschiedenen Darstellungen

Von der kartesischen Form zu Polarform oder Euler’schen Form


Eine komplexe Zahl in kartesischer Form z = x+iy kann man wie folgt in Polarform,
z = r(cos ϕ + i sin ϕ) bzw. Euler’schen Form (Exponentialform) z = reiϕ umwandeln:
Z #y$
r= x2 + y2 , ϕ = arctan . (C.9)
x

r = |z| ist der Betrag von z und ϕ ist der Argument.

. Abb. C.2 Euler’sche


bzw. Exponential-Darstellung
einer komplexen Zahl
Anhang C Die komplexen Zahlen
667 C
> Bemerkung
Der Übergang von der kartesischen Form zur Euler’schen Form wird durch die
Ungewissheit des Argumentes erschwert: Wir können ein beliebiges Vielfaches von 2π
zum Argument addieren

Arg(z) = ϕ + 2πk, k ∈ Z. (C.10)

In der Praxis wählt man das Argument aus einem bestimmten Intervall, z. B. ϕ ∈
(−π, π]. Dies wird bei der Definition des Hauptzweiges des Logarithmus oder der
Wurzel wichtig sein.

Von der Polarform oder Euler’schen Form zur kartesichen Form


Eine komplexe Zahl in Polarform z = r(cos ϕ+i sin ϕ) oder Euler’schen Form z = reiϕ
kann man wie folgt auf die kartesische Form z = x + iy bringen:

x = r cos ϕ, y = r sin ϕ. (C.11)

Übung C.17
◦ ◦ ◦ Man stelle die folgenden komplexen Zahlen in der komplexen Ebene dar: a) z1 =

1 + i, b) z2 = 2ei 4 .

v Lösung
a) Die komplexe Zahl z1 = 1 + i hat die Euler’sche Darstellung
D E
H √ 1 π √ π
r= 12 + 12 = 2, ϕ = arctan = ⇒ z1 = 1 + i = 2ei 4 .
1 4

1 + i hat somit den Abstand 2 vom Ursprung und bildet den Winkel π/4 = 45◦
mit der reellen Achse.

b) Die komplexe Zahl z2 = 2ei 4 ist bereits in Exponentialform. Der Betrag von w ist
2 und der Winkel mit der reellen Achse ist 3π/4 = 135◦ (. Abb. C.3). %

. Abb. C.3 Übung C.17


668 Anhang C Die komplexen Zahlen

C.2 Operationen mit komplexen Zahlen

C.2.1 Summe

Das Addieren zweier komplexer Zahlen ist einfach: Die Realteile und die Imaginär-
teile werden separat addiert. Für z1 = x1 + iy1 und z2 = x2 + iy2 gilt

z1 + z2 = (x1 + x2 ) + i(y1 + y2 ). (C.12)

Daher wird die Summe von komplexen Zahlen am einfachsten in der kartesischen
Form durchgeführt. In der komplexen Ebene kann man die Summe von z1 und z2 als
die Summe der entsprechenden „Ortsvektoren“ interpretieren (. Abb. C.4).

Übung C.18

◦ ◦ ◦ Man berechne z1 + z2 für z1 = 1 + i und z2 = 2ei 4 .

v Lösung
Die komplexe Zahl z1 = 1 + i ist bereits in kartesischen Form. Die komplexe Zahl

z2 = 2ei 4 schreiben wir in kartesicher Form
D E D E √
3π √ 3π √ √
x2 = 2 cos = − 2, y2 = 2 sin = 2 ⇒ z2 = − 2 + i 2.
4 4
3 45 6 3 45 6
=− √1 = √1
2 2

Die Summe z1 + z2 lautet somit


√ √ √ √
z1 + z2 = (1 + i) + (− 2 + i 2) = 1 − 2 + i(1 + 2).

(zu C.2.2) %

. Abb. C.4 Summe von


komplexen Zahlen
Anhang C Die komplexen Zahlen
669 C
C.2.2 Komplexe Konjugation

Für eine komplexe Zahl z = x + iy = r eiϕ , ist die konjugiert komplexe Zahl definiert
durch

z̄ = x − iy = r e−iϕ . (C.13)

Die komplexe Konjugation entspricht der Spiegelung von z an der reellen Achse
(Winkel ϕ wird zu −ϕ) (siehe . Abb. C.5).

> Bemerkung
Beachte, dass man Re(z) und Im(z) mithilfe der komplexen Konjugation auch wie folgt
schreiben kann:

z+z z−z
Re(z) = , Im(z) = . (C.14)
2 2i

C.2.3 Produkt

Kartesische Darstellung
In kartesischer Form bestimmt man das Produkt von zwei komplexen Zahlen z1 =
x1 + iy1 und z2 = x2 + iy2 mithilfe der Formel i2 = −1

z1 z2 = (x1 + iy1 )(x2 + iy2 ) = x1 x2 − y1 y2 + i(x1 y2 + x2 y1 ). (C.15)

> Bemerkung
Beachte:

z z = (x + iy)(x − iy) = x2 + y2 − ixy + ixy = x2 + y2 = |z|2 . (C.16)



Daher ist |z| = z z.

. Abb. C.5 Komplexe


Konjugation
670 Anhang C Die komplexen Zahlen

. Abb. C.6 Produkt gezeigt mit


der Euler’schen Darstellung

Euler’sche Form
Die geometrische Interpretation des Produkts wird einleuchtender, wenn die kom-
plexen Zahlen in der Euler’schen Form dargestellt werden. Für z1 = r1 eiϕ1 mit
z2 = r2 eiϕ2 gilt:

z1 z2 = r1 r2 ei(ϕ1 +ϕ2 ) . (C.17)

Beim Produkt werden


π
die Beträge multipliziert und die Argumente (Winkeln) addiert.
Wegen i = ei 2 entspricht die Multiplikation mit i einer Rotation um π/2 = 90◦
(. Abb. C.6).

Übung C.19
◦ ◦ ◦ Man berechne z1 z2 für: √ π
π
a) z1 = 1 + i und z2 = 1 − 2i, b) z1 = 2 ei 2 und z2 = 2 ei 3 .

v Lösung
a) Es gilt: z1 z2 = (1 + i)(1 − 2i) = 1 + 2 + i − 2i = 3 − i.
π π 5π
b) Es gilt: z1 z2 = 23/2 ei( 2 + 3 ) = 23/2 ei 6 . %

C.2.4 Division

Kartesische Darstellung
Mithilfe der Formel z z = |z|2 können wir immer eine Division elegant in ein Produkt
umwandeln
z1 z1 z2 z1 z2
= = . (C.18)
z2 z2 z2 |z2 |2

Euler’sche Darstellung
In der Euler’schen Darstellung ist die Division von z1 = r1 eiϕ1 mit z2 = r2 eiϕ2 sehr
einfach:
z1 r1
= ei(ϕ1 −ϕ2 ) . (C.19)
z2 r2
Anhang C Die komplexen Zahlen
671 C

Übung C.20
◦ ◦ ◦ Man berechne z1 /z2 für:
a) z1 = 1 + i und z2 = 1√− i,
π π
b) z1 = 2 ei 2 und z2 = 2 ei 3 .

v Lösung
z1 1+i (1+i) (1+i) (1+i)(1+i) 1−1+i+i
a) Es gilt: z2 = 1−i = (1−i) (1+i) = 12 +12
= 2 = i.
z1 iπ
2e 2
√ i( π
− π3
√ i π6
b) Es gilt: = √ iπ = 2e 2 )= 2e . %
z2 2e 3

C.2.5 Potenz

Wie wir gesehen haben, ist die Euler’sche Form besonders praktisch, wenn wir
Produkte oder Quotienten berechnen müssen. Beispielsweise erfolgt die Berechnung
des Quadrats einer komplexen Zahl z = r eiϕ elegant auf folgende Weise

z2 = r2 e2iϕ . (C.20)

In der komplexen Ebene entspricht die zweite Potenz z2 einer Verdopplung des Ar-
gumentes von z. Im Allgemeinen ist die n-te Potenz von z = r eiϕ gleich (. Abb. C.7)

zn = rn ei nϕ . (C.21)

Übung C.21
◦ ◦ ◦ Man schreibe die folgenden komplexen Zahlen in kartesischer Form, d. h. in der
Form z = x + iy:
a) (1 + i)8
b) (2 + 3i)3
# $80
c) 1+i√
2
d) (1 + 2i)720 .

. Abb. C.7 Potenz


672 Anhang C Die komplexen Zahlen

v Lösung
a) Es ist viel einfacher, die Potenz einer komplexen Zahl zu bestimmen, wenn diese
Zahl in der Euler’schen Form vorliegt. Also bringen wir die Zahl die Zahl z = 1 + i
in die Eulerform.
√ D E
√ 1 π
Betrag: r = |1+i| = 1 + 1 = 2, Argument: ϕ = arctan = arctan(1) =
1 4
√ π
Mit z = 1 + i = 2ei 4 . Daher wird:
!√ π "8 π
(1 + i)8 = 2ei 4 = 24 ei 4 ·8 = 24 e4π i = 26 = 16.

b) In diesem Fall ist es ist schneller, die Potenz mittels 3. Binom zu bestimmen (es ist
nur eine dritte Potenz!):

(2 + 3i)3 = 8 + 36i − 54 − 27i = −46 + 9i.

1+i
c) Wir schreiben zuerst die Zahl z = √ in Exponentialform
2

8 8 [ D E
81 + i8 1 1 1 π
Betrag: r = 88 √ 88 = + = 1, Argument: ϕ = arctan = arctan(1) = .
2 2 2 1 4

1+i π
Somit z = √ = ei 4 . Wir erhalten
2

D E80
1+i π
√ = e80i 4 = e40πi = 1.
2

d) Wir schreiben die Zahl z = 1 + 2i in Exponentialform:


D E
√ √ 2
Betrag: r = |1 + 2i| = 1+4= 5, Argument: ϕ = arctan = arctan(2).
1

Also

z = 1 + 2i = 5 ei arctan(2) .

Wir finden somit

%
z720 = 5360 e720i arctan(2) .

Übung C.22
π
◦ ◦ ◦ Man berechne zn , n = 2, 3, 4, 5, 6 für z = 2 ei 3 .
Anhang C Die komplexen Zahlen
673 C
v Lösung
Es gilt:

π 2π 3π
z = 2 ei 3 z2 = 4 ei 3 z3 = 8 ei 3 = 8 eiπ = −8
4π 5π 6π
z4 = 16 ei 3 z5 = 32 ei 3 z6 = 64 ei 3 = 64 e2πi = 64. %

> Bemerkung
Anhand der letzten Beispiele sieht man, dass bei Potenzen z, z2 , z3 , · · · , zn , · · · einer
komplexen Zahl z die entsprechenden „Ortsvektoren“ um den Ursprung „gedreht“
werden. Wenn außerdem r > 1, dann bewegen sich die Potenzen nach „aussen“ (Betrag
wächst mit n). Ist r = 1, so bleiben die Potenzen auf dem Einheitskreis. Schließlich,
wenn r < 1, nähern sich die Potenzen dem Ursprung. Man spricht von:
5 r > 1 ⇒ Drehstreckung
5 r = 1 ⇒ Drehung
5 r > 1 ⇒ Drehschrumpfung

C.2.6 Komplexe Wurzel

Auf C hat die Gleichung wn = z genau n Lösungen. Diese sind die n Wurzeln von z:
7 # $8 9
√ H i ϕ 2π k
n+ n
8
n
z := n
|z| e 8 k = 0, 1, · · · , n − 1 . (C.22)
8

In der komplexen Ebene liegen die n Wurzeln von z an den Eckpunkten eines
regelmäßigen n-Polygons oder n-Ecks.

> Bemerkung

Beachte, dass n
z eine Menge ist (mit n Elementen).

Übung C.23 √ √ √
3 4 6
◦ ◦ ◦ Man berechne: a) 1, b) −1, c) 1.

v Lösung
a) Wegen 1 = e0 ist

3 2π ki
1 = {e 3 | k = 0, 1, 2}

Explizit lauten die 3 Wurzeln

1+i
k=0: e0 = √
2

2π −1 + 3 i
k=1: ei 3 =
2
674 Anhang C Die komplexen Zahlen


4π −1 − 3 i
k=2: ei 3 =
2

Die 3 Wurzeln von z = 1 liegen auf dem gleichseitigen Dreieck.


b) Zuerst schreiben wir Zahl z = −1 in Exponentialdarstellung

Betrag: r = | − 1| = 1 + 0 = 1, Argument: ϕ = π ⇒ z = −1 = eiπ .

Daraus folgt:
√ π 2πki
−1 = {ei 4 +
4
4 | k = 0, 1, 2, 3}.

Explizit lauten die 4 Wurzeln:

π 1+i
k=0: ei 4 = √
2
π −1 + i
k=1: e3i 4 = √
2
π −1 − i
k=2: e5i 4 = √
2
π 1−i
k=3: e7i 4 = √ .
2

c) Wegen 1 = e0 ist

6 2πki
1 = {e 6 | k = 0, 1, 2, 3, 4, 5}.

Explizit lauten die 6 Wurzeln


π
k=0: e6i 3 = 1

i π3 1 3
k=1: e = +i
2 2

2i π3 1 3
k=2: e =− +i
2 2
π
k=3: e3i 3 = −1

4i π3 1 3
k=4: e =− −i
2 2

π 1 3
k=5: e5i 3 = −i .
2 2

Die 6 Wurzeln von z = 1 liegen auf den Ecken des regelmäßigen 6-Ecks
(. Abb. C.8–C.10). %
Anhang C Die komplexen Zahlen
675 C
. Abb. C.8 Übung C.23(a) a

. Abb. C.9 Übung C.23(b) b

. Abb. C.10 Übung C.23(c) c

C.3 Gleichungen in C – Der Fundamentalsatz der Algebra

Viele Probleme der Mathematik haben mit der Lösbarkeit von Gleichungen n-ter
Ordnung zu tun:

a0 + a1 z + a2 z2 + · · · + an zn = 0. (C.23)

Diese Frage ist äquivalent zur Bestimmung der Nullstellen des Polynoms
n
S
p(z) = a0 + a1 z + a2 z2 + · · · + an zn = a i zi . (C.24)
i=0

Aus dem Gymnasium wissen wir bereits, dass über R solche Gleichungen (C.24)
höchstens n Lösungen besitzen. In manchen Situationen gibt es sogar keine Lösung!
Insbesondere:
676 Anhang C Die komplexen Zahlen

5 Ist n ungerade, so hat die Gleichung mindestens eine reelle Lösung. Zum Beispiel,
das Polynom p(z) = z3 − 1 kann man wie folgt schreiben: p(z) = (z − 1)(z2 + z + 1).
Es gibt nur eine reelle Nullstelle λ = 1 (die anderen zwei Nullstellen sind komplex
2π 4π
ei 3 und ei 3 , genauer konjugiert komplex).
5 Ist n gerade, so kann die Gleichung über R unlösbar sein. Zum Beispiel, das
Polynom p(z) = z2 + 1 hat keine reelle Nullstellen (die Nullstellen sind komplex
±i).

Über C ist die Situation ganz anders: Alle Polynome vom Grad n ≥ 1 haben genau
n komplexe Nullstellen. Dies ist die Aussage des sogenannten Fundamentalsatzes der
Algebra.

C.3.1 Zerlegung in Linearfaktoren

Es sei p(z) ein Polynom vom Grad n ≥ 1 mit Koeffizienten aus dem Körper K. Eine
Nullstelle von p(z) ist eine Zahl λ ∈ K mit p(λ) = 0. Ist λ eine Nullstelle von p(z), so
lässt sich p(z) wie folgt schreiben

p(z) = (z − λ)q(z), (C.25)

wobei q(z) ein Polynom vom Grad n−1 ist. Der Term (z−λ) nennt man Linearfaktor.
Im Sonderfall, dass p(z) genau n Nullstellen über K hat, kann man p(z) vollständig
in Linearfaktoren zerlegen:

# Definition C.12 (Zerlegung in Linearfaktoren)


Ein Polynom p(z) vom Grad n zerfällt in Linearfaktoren über K, wenn p(z) sich in der
folgenden Form schreiben lässt:

p(z) = a (z − λ1 )(z − λ2 ) · · · (z − λn ), (C.26)

wobei λ1 , λ2 , · · · , λn ∈ K die Nullstellen von p(z) sind. $

Der Fundamentalsatz der Algebra


# Satz C.4 (Fundamentalsatz der Algebra)
Jedes Polynom vom Grad n ≥ 1 über C zerfällt in Linearfaktoren, d. h. hat genau n
Nullstellen in C. $

> Bemerkung
Wir halten einen interessanten Fakt über komplexen Nullstellen fest: Ist λ eine kom-
plexe Nullstelle von p(z), so ist auch ihr komplex Konjugiertes λ̄ eine Nullstelle von
p(z).
Anhang C Die komplexen Zahlen
677 C
Algebraisch abgeschlossene Körper
Ein Körper K heißt algebraisch abgeschlossen, wenn jedes nicht konstantes Polynom
über K in Linearfaktoren zerfällt. Der Fundamentalsatz der Algebra besagt somit,
dass C algebraisch abgeschlossen ist.

Einige nützliche Eigenschaften


Wir halten zwei interessante Tatsachen über komplexen Nullstellen fest.
5 Ist λ eine komplexe Nullstelle von p(z), so ist auch ihr komplex Konjugiertes λ̄
eine Nullstelle von p(z).
5 Sind λ1 , λ2 , · · · , λn ∈ C die n Nullstellen von p(z) = a0 +a1 z+· · ·+an−1 zn−1 +an zn ,
so gilt:
an−1 a0
λ1 + λ2 + · · · + λn = − und λ1 · λ2 · · · λn = (−1)n . (C.27)
an an
678 Literaturverzeichnis

Literaturverzeichnis
1. T. Bröcker, Lineare Algebra und Analytische Geometrie: Ein Lehrbuch für Physiker und Mathematiker.
Birkhäuser-Springer, 2013.
2. P. Gabriel, Matrizen, Geometrie, Lineare Algebra, Birkhäuser-Springer, 2013.
3. D. Wille, Repetitorium der Linearen Algebra Teil 1, Binomi, 1997.
4. M. Holz, D. Wille, Repetitorium der linearen Algebra Teil 2, Binomi, 1993.
5. K. Nipp, D. Stoffer, Lineare Algebra: eine Einführung für Ingenieure unter besonderer Berücksichtigung
numerischer Aspekte, vdf Hochschulverlag AG, 2002.
6. G. Strang, Lineare Algebra, Springer, 2003.
7. G.M. Gramlich, Lineare Algebra: Eine Einführung, Carl Hanser, 2014.
8. G. Fischer, Lernbuch lineare Algebra und analytische Geometrie, Vieweg+ Teubner, 2011.
9. A. Howard, R.C. Busby, Contemporary linear algebra, Wiley, 2003.
10. P. Furlan, Das gelbe Rechenbuch, Furlan, 1995.
11. K.F. Riley, M.P. Hobson, S.J. Bence, Mathematical Methods for Physics and Engineering, Cambridge
University Press, 2012.
12. H. Stoppel, B. Griese, Übungsbuch zur Linearen Algebra, Vieweg, 1998.
13. T. Arens, F. Hettlich, Ch. Karpfinger, U. Kockelkorn, K. Lichtenegger, H. Stachel, Mathematik, 2.
Aufl., Springer Spektrum, 2010.
14. T. Arens, F. Hettlich, Ch. Karpfinger, U. Kockelkorn, K. Lichtenegger, und H. Stachel, Arbeitsbuch
Mathematik, Springer Spektrum, 2010.
679

Stichwortverzeichnis

A E
Abgeschlossenheit 257 E 308
Addition 246 Ebene 59, 652
adj(A) 185 – Implizite Darstellung 653
Adjungierte 15 – Parameterform 652
Adjunkte Matrix 185 – Spannvektoren 652
Affiner Unterraum 259, 270 Eigenraum 488
– Parameterdarstellung 272 Eigenvektor 488
Ähnliche Matrizen 475 Eigenwert 488
Algebraische Vielfachheit 503 Elementare Zeilenoperationen 62
Antikommutator 24 Endomorphismus 372
Äquivalente Matrizen 474 End(V ) 373
Äquivalenzklasse 660 Erzeugendensystem 296
Äquivalenzrelation 659
Assoziativität 10, 12, 19
Automorphismus 372
F
Falksches Schema 17
B Formeln von Vieta 505
Fundamentalsatz der Algebra 675
Basis 307
Basiswechsel 350, 453
Bild 422
G
C Gauss-Algorithmus 63
– mit Pivotstrategie 225
C 665 Geometrische Vielfachheit 501
Charakteristik 662 Gerade 59, 650
Charakteristisches Polynom 502 – Implizite Darstellung 651
cof(A) 184 – Normale 651
Cramer’sche Regel 194 – Parameterform 650
– Richtungsvektor 650
– Stützvektor 650
D GL(n, K) 34
GL(n, R) 260
Darstellungsmatrix 379
Gruppe 660
det(A) 138
– Abelsch 661
Determinante 138
– allgemeine lineare Gruppe 34
– Gauß-Algorithmus 160
– orthogonale Gruppe 46
– Inverse Matrix 183
– unitäre Gruppe 49
Determinanten-Kriterium 325
Diagn (R) 260
Diagonalelemente 5
Dimension 6, 309 H
Dimensionsformel 423, 426
dim(V ) 309 Hn (C) 44
Direkte Summe 280 Homomorphismus 371, 372
Distributivität 12, 19 Hom(V , W ) 373
Durchschnitt 274 Hyperebene 59
680 Stichwortverzeichnis

I – LR-Zerlegung 217, 231


– Matrixdarstellung 65
Im 422 – Pivotstrategie 225
Injektivität 424 – quadratisch 58
Inverse 33, 183 – triviale Lösung 123
Isomoprhsatz 447 – überbestimmt 58
Isomorphe Vektorräume 323, 446 – unterbestimmt 58
Isomorphiesatz 323 – Unterraum 260
Isomorphismus 372, 424 Lineare Unabhängigkeit 297
Linearfaktoren 676
Linearitätsbedingungen 370
K Linearkombination 289
LR-Zerlegung 202
ker 422 – Existenz 211
Kern 422 – Lineare Gleichungssysteme 217, 231
Km×n 6 – mit Zeilenvertauschung 226
Kofaktormatrix 184 – ohne Zeilenvertauschung 202
Kommutatives Diagramm 448
Kommutativität 10
Kommutator 19 M
Komplexe Zahl 665
Koordinaten 316 B
M B12 (F) 382
Koordinatenvektor 316 Matrix 5
Körper 6 661 – Addition 9
– Charakteristik 662 – Adjungierte 15
Kreuzprodukt 648 – Adjunkte 185
Kronecker-Delta 7 – Ähnlich 475
– antisymmetrisch 41
– Äquivalent 474
L – Basiswechsel 350
– Blockdiagonalmatrix 8
Laplace-Entwicklung 141 – Blockmatrix 24
Leibniz-Formel 174 – Charakteristisches Polynom 502
Lineare Abbildung 370 – Diagonalmatrix 8
– Basiswechsel 453 – Dimensionsformel 426
– Bild 422 – Dreiecksform 67
– Darstellungsmatrix 379 – Eigenraum 488
– Dimensionsformel 423 – Eigenvektor 488
– Eigenraum 488 – Eigenwert 488
– Eigenvektor 488 – Einheitsmatrix 7
– Eigenwert 488 – erweiterte Matrix 66
– Injektivität 424 – hermitesch 44
– Kern 422 – idempotent 50
– Klassifikation 416 – Identitätsmatrix 7
– Matrixdarstellung 379 – Inverse 33, 127, 183
– Rang 425 – involutiv 52
– Spektralradius 490 – Kästchenmatrix 8
– Spektrum 490 – Kofaktormatrix 184
– Surjektivität 424 – kommutativ 19
Lineare Abhängigkeit 297 – komplex 6
Lineares Gleichungssystem (LGS) 58 – komplexe Konjugation 14
– Affiner Unterraum 271 – LR-Zerlegung 202
– bestimmt 58 – Matrixmultiplikation 18
– erweiterte Matrix 66 – nilpotent 53
– homogen 58, 123, 199 – normal 56
– inhomogen 58 – Nullmatrix 7
– Lösungsmenge 58 – obere Dreiecksmatrix 8
681 A–Z
Stichwortverzeichnis

– orthogonal 46 R
– Permutationsmatrix 222
– Produkt 16 Rang 106, 425
– quadratisch 7 Rang(A) 106
– Rang 106 Rang(F) 425
– reell 5 Rang-Kriterium 324
– regulär 33 Resolvente 525
– Rotationsmatrix 23, 47 ρ(A) 490
– schiefsymmetrisch 41 Rotation 408, 410, 416
– selbstadjungiert 44 Rouché-Capelli, Satz von 115, 123
– singulär 34
– skew symmetric 41
– Spektralradius 490
– Spektrum 490 S
– Subtraktion 9
⟨S⟩ 292
– symmetrisch 39
Sn 176
– Transformationsmatrix 350
Sarrus, Regel von 140
– Transponierte 13
σ (A) 490
– Treppenform 68
sign(σ ) 178
– unitär 49
Signum 178
– Zeilenstufenform 63
Skalar 11
– Zielmatrix 67
Skalarmultiplikation 11, 246
Matrixdarstellung
Skalarprodukt 644
– LGS 65
Skewn (K) 42
– Lineare Abbildung 379
Skewn (R) 260
Matrixeinträge 5
Spaltenvektor 8
Matrixelemente 5
Span 292
Matrixpolynom 27
Spannvektor 272
Matrizengleichungen 126
Spektralradius 490
Minoren 141
Spektrum 490
Möbius-Transformation 38
Spiegelung 408, 410, 416
Monomorphismus 372
Spur 31
Standardbasis 308
Streckungen 408, 410, 416
N Stützvektor 271
Summe 278
Nilpotenzgrad 53
Surjektivität 424
Normale 653
Symn (K) 39
Symn (R) 260
O Symmetrische Gruppe 176

On (K) 46
On (R) 260
Orthogonale Projektion 647
T
T B→C 350
τi,j 177
P Transformationsmatrix 350
Pauli-Matrizen 24, 45, 52 Transponierte 13
Permutation 174 Transposition 177
– Signum 178 Triviale Lösung 123
Permutationsmatrix 222
Pivotstrategie 226
Potenz 27 U
Primkörper 662
Produkt von Matrizen 16 Un (C) 49
Projektion 408, 410, 416 U ∩ W 274
682 Stichwortverzeichnis

untere Dreiecksmatrix 8 Vektorram


Unterraum 257 – Isomorph 323
– Direkte Summe 280 Vektorraum 246
– Durchschnitt 274 – Isomorph 446
– Summe 278 Vereinigung 274
– Vereinigung 274 Vielfachheit
U ⊕ W 280 – Algebraische 503
U + W 278 – Geometrische 501

W
V Wronski-Determinante 325
[v]B 316
Vandermonde Determinante 171 Z
Vektor
– Kreuzprodukt 648 Z 67
– Länge 644 z̄ 669
– Orthogonal 645 Zp 662
– Skalarprodukt 644 Zeilenstufenform 63
– Winkel 644 Zeilenvektor 8

Das könnte Ihnen auch gefallen