Notizen zur Linearen Algebra

Transcrição

Notizen zur Linearen Algebra
J. Wolfart
WiSe 2008/09
Notizen zur Linearen Algebra
1
1.1
Tipps und Gebrauchsanweisungen für den Anfang
Die Rolle dieser Notizen
Die Lineare Algebra gehört zum Pflichtprogramm für alle Studierenden in den Studiengängen Bachelor Mathematik (1. Fachsemester, Modul BaM–GS) und Mathematik für das
Lehramt an Gymnasien (3. Fachsemester, Modul L3M–RF). Die nachstehenden Notizen
sind kein Skriptum, denn das wäre überflüssig: Es gibt genügend brauchbare Literatur zum
Thema. Allerdings enthalten sie weiter unten ein ausführliches Inhaltsverzeichnis, ergänzt
um einige Punkte, die nicht in jener Literatur enthalten sind, die ich in der Vorlesung
vorwiegend verwende, dazu die Übungsaufgaben dieses Semesters und wichtige Bekanntmachungen zur Vorlesung, zu den Übungen und der Klausur am Ende des Semesters.
Zum größten Teil sind die Notizen jetzt vollständig, aber gegebenenfalls noch korrekturbedürftig; insbesondere die letzten drei Abschnitte werden während des Semesters ergänzt
und fortgeschrieben. Man sollte also jede Woche einen Blick hineinwerfen und sich mindestens die letzten Meldungen am Ende mit den jeweils aktuellen Übungsaufgaben und
Bekanntmachungen ausdrucken.
1.2
Literatur
Sie sollten frühzeitig lernen, mit Fachbüchern zu studieren. Am Anfang macht das Mühe,
weil Bücher meistens viel mehr enthalten als die Vorlesung bieten kann, und weil man
lieber zu Anfang eine Schneise in das Dickicht schlagen möchte. Ich werde in der Vorlesung
weitgehend — wenn auch nicht immer in der gleichen Reihenfolge — nach dem Buch
K. Jänich : Lineare Algebra, Springer Verlag
vorgehen, das einiges mehr an Material enthält als die Vorlesung, das ich aber in anderen
Punkten auch durch Seitenwege ergänzen werde; davon wird im Skriptenteil = Abschnitt
3 dieser Notizen noch ausführlich die Rede sein. Andere gute Bücher sind
G. Fischer : Lineare Algebra, Vieweg
A. Beutelspacher : Lineare Algebra, Vieweg Verlag.
Wer gerne am Computer lernt — E–learning ist große Mode — mag sich dazu noch
A. Beutelspacher, M.–A. Zschiegner : Lineare Algebra interaktiv, Vieweg
1
zulegen, eine CD–Rom mit Quizzen und viel mehr Übungsaufgaben, als Sie in diesem
Wintersemester lösen können. Ein ganz ausführliches Buch, das Stoff für mindestens drei
vierstündige Vorlesungen enthält, ist schließlich
Th. Bröcker : Lineare Algebra und Analytische Geometrie, Birkhäuser Verlag.
Außer den genannten Bücher gibt es einige Dutzend weitere! Eines sollten Sie sich im Laufe
dieses Semesters anschaffen; am besten aber vorher in der Bibliothek stöbern, welches
Ihnen persönlich am meisten zusagt. Es gibt keine für alle Bedürfnisse gleich passende
Empfehlung. Es ist fruchtbar, neben der Vorlesung als Kontrastprogramm einen anderen
Zugang kennenzulernen. Erst im Vergleich merkt man, was wirklich wichtig ist.
1.3
Wie studiert man Mathematik?
Die Drittsemester unter den Studierenden werden das inzwischen wissen, aber für die
Bachelor–Anfänger sind ein paar Hinweise angebracht, wie man sich den Stoff einer Vorlesung erarbeiten kann. Mitschreiben? Einfach nur zuhören und zuhause nachlesen? Zuhause
bleiben und Bücher lesen? Sätze und Beweise auswendig lernen? (Vor der letzteren Idee sei
gleich gewarnt: Lernen geht automatisch mit Verstehen einher, Auswendiglernen hat mit
Mathematikstudium nichts zu tun.)
Wie man den Stoff einer Vorlesung am besten verdaut, ist individuell sehr verschieden. Sie
müssen selbst ausprobieren, ob Sie am meisten profitieren, wenn Sie z.B.
• mitschreiben und zuhause ausarbeiten (Nachteil: Es wird Ihnen schwerlich gelingen,
gleichzeitig mitzuschreiben und mitzudenken — es geht alles zu schnell),
• zuhören und nur kleine Notizen zu machen als Erinnerungsstütze, dann zuhause in
Büchern nachlesen,
• lieber ausschlafen und sich ganz auf Bücher verlassen (Vorteil: Sie können die Lektüre
Ihrer Lerngeschwindigkeit anpassen, Nachteil: Sie können dem Buch keine Zwischenfragen stellen, wie Sie das in der Vorlesung tun dürfen bzw. sogar sollen),
• in einer Lerngruppe eine(n) mit Mitschreiben beauftragen, die anderen mit aufpassen,
anschließend Mitschrift für alle kopieren und darüber reden.
Obwohl Bücher sehr wichtig sind: Das häusliche Studium ganz alleine kann sehr frustrierend
sein, weil man selten erfährt, was die ganz wichtigen Punkte sind und wo der rote Faden
verlaufen könnte. Darum:
Kommen Sie regelmäßig in die Vorlesung! Um die Linksdrehung beim Tango zu lernen,
brauchen Sie schließlich auch jemanden, der Ihnen sie vormacht und erklärt, worauf es
dabei ankommt. Trotzdem:
Die Vorlesung ist nicht so wichtig, Sie lernen die Linksdrehung beim Tango ja auch nicht
durchs Zusehen, sondern durch beharrliches Üben. So wird auch der Erkenntnisprozess in
2
der Linearen Algebra eher beim häuslichen Nacharbeiten des Vorlesungsstoffs und beim
Lösen der wöchentlichen Übungsaufgaben stattfinden als im Hörsaal. Also:
Die Übungen sind weit wichtiger als die Vorlesung. Sie werden anhand der wöchentlichen
Hausaufgaben
• sich wichtige Punkte der Vorlesung erarbeiten können,
• Mathematik nicht nur passiv, sondern aktiv als Problemlöse–Wissenschaft erfahren,
• korrektes mathematisches Formulieren einüben (das ist einem meist nicht in die Wiege gelegt),
• beim Gedankenaustausch mit anderen das Kommunizieren über Mathematik lernen.
Damit ist bereits der nächste wichtige Punkt angesprochen:
Gründen Sie eine Lerngruppe oder schließen Sie sich einer an, schon damit Sie merken,
dass Sie nicht die/der einzige sind, der/dem das alles zu schnell geht und die/der Probleme
hat, den Stoff zu verstehen. Sie kommen besser zurecht, wenn Sie sich über offene Fragen
und Lösungsideen zu den Hausaufgaben austauschen. Auch das gegenseitige Vermitteln
von Mathematik muss man lernen, und zwar nicht nur die angehenden Lehrer; auch fertige
Bachelor–Mathematiker werden später nicht einfach im stillen Kämmerlein vor sich hin
arbeiten, sondern müssen mathematische Ideen und Verfahren anderen mitteilen können.
In einem Punkt hat die Zusammenarbeit mit anderen ihre Grenzen:
Schreiben Sie die Lösung Ihrer Übungsaufgaben alleine auf. Korrektes und klares mathematisches Formulieren ist nämlich nicht so leicht und muss gerade am Anfang beständig
durch eigene Versuche geübt werden, der Tutor Ihrer Übungsgruppe hilft Ihnen dabei mit
dem Rotstift. Anders gesagt:
Schreiben Sie Ihre Hausaufgaben nicht ab, Sie betrügen damit andere und sich selbst und
werden am Ende doch nur Ihre Klausur versieben (garantiere ich hiermit).
Kommen Sie regelmäßig in Ihre Übungsgruppe und lassen sich von Ihrem Tutor nochmal
erklären, was in der Vorlesung unklar war, wie man die alten Aufgaben besser hätte formulieren können, wie man die neuen Aufgaben angehen könnte u.s.w. Außerdem können und
sollen Sie Ihre Lösungen vortragen, also über Mathematik reden einüben, kleine Vorübung
für Proseminar, Seminar und Beruf.
3
2
Inhaltsverzeichnis
Die Angabe J bezieht sich immer auf das oben genannte Buch von Jänich, 11. Auflage
(2007). Da ich mich nicht so genau an seine Reihenfolge halte und einige wichtige Inhalte
dort fehlen, gibt’s hier einen ausführlichen Fahrplan und im Abschnitt 3 dieser Notizen
eine Art Teil–Skriptum für die nicht in J enthaltenen Teile.
1 Vektorräume
Zahlbereiche, insbesondere die Menge R der reellen Zahlen (J 1.1). Rechenoperationen
im R2 , im R3 und im Rn , der Begriff des reellen Vektorraums Die Vektorraumaxiome
und einige einfache Folgerungen daraus (J 2.1). Andere Beispiele von Vektorräumen: Vektorräume von Funktionen (J 1.2), Vektorräume aus Lösungen linearer Gleichungssysteme
(J, S. 158), Untervektorräume (J 2.3).
2 Dimensionen
Linearkombinationen von Vektoren, Erzeugung einer Vektorraums. Die Begriffe linear abhängig, linear unabhängig und Basis. Existenz einer Basis, Konstruktion einer Basis, Basisergänzungssatz, Austauschsatz von Steinitz (J 3).
3 Lineare Abbildungen und Matrizen
Lineare Abbildungen (J 4.1) und ihre Beschreibung durch Matrizen (J 4.2), Drehungen
und Spiegelungen der Ebene (J 4.5).
4 Matrizenrechnung
Multiplikation, Rang, elementare Umformungen, Inversenberechnung (J 5).
5 Einige abstraktere Konzepte
Komplexe Zahlen (J 2.2), Körper (J 2.5), Äquivalenzrelationen (J 11.1), Quotienten(vektor)räume (J 4.4).
6 Determinanten
Determinante von Matrizen, Verhalten bei elementaren Umformungen und beim Transponieren, Determinanten–Multiplikationssatz, Determinante von Endomorphismen (J 6.1 bis
6.7).
4
7 Gruppen und Permutationen
Gruppen (J 8.4), Permutationsgruppen und Gruppenhomomorphismen (s. Abschnitt 3),
die Leibnizformel für die Determinante (J 6.8).
8 Lineare Gleichungssysteme
Anwendung der Matrizenrechnung, Gaußverfahren (J 7).
9 Affine Räume, Geometrie mit Vektoren
Der Punktraum zu einem Vektorraum, affine Unterräume, Parallelität, ein neuer Blick auf
lineare Gleichungssysteme. Elementargeometrie mit Vektoren. Ein Axiomensystem für affine Ebenen (s. Abschnitt 3).
10 Eigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren von Matrizen und Endomorphismen, Polynome, insbesondere das charakteristische Polynom (J 9.1 bis 9.4).
11 Euklidische Vektorräume
Skalarprodukt, Länge und Winkel. Orthogonale Transformationen und orthogonale Gruppen (J 8.1 bis 8.3). Ein Rückblick auf Drehungen, Spiegelungen und deren Eigenwerte.
Geometrische Bedeutung der Determinante (s. Abschnitt 3).
12 Lineare Ungleichungen, Konvexität
Strecken, Konvexität, Halbräume in reellen affinen Räumen. Konvexe Hülle, konvexe Polytope, Satz von Carathéodory (s. Abschnitt 3).
13 Normalformen von Matrizen
Nochmal Äquivalenzrelationen, diesmal auf Räumen von Matrizen. Basiswechsel und Ähnlichkeit von Matrizen. Jordansche Normalform (nur Bericht), Diagonalisierbarkeit und
Trigonalisierbarkeit von Matrizen (J 11.1 bis 11.3 und Abschnitt 3). Satz von Cayley–
Hamilton.
5
3
Ein paar Einzelheiten
Hier finden Sie knappe Notizen zu Punkten aus den einzelnen Vorlesungskapiteln, die in J
nicht enthalten sind.
7 Permutationsgruppen und Gruppenhomomorphismen
Permutationen sind Bijektionen einer endlichen Menge auf sich. Der Einfachheit halber
nimmt man meistens die endliche Menge {1, 2, . . . , n} und bezeichnet die Menge aller Permutationen dieser Menge mit Sn , das ist die symmetrische Gruppe von n Elementen.
Warum Gruppe? Bijektionen f, g einer beliebigen Menge in sich kann man immer durch
Hintereinanderausführen zusammensetzen zu einer neuen Bijektion f ◦ g . Dabei spielt die
Identität id auf der Menge die Rolle des Einselements und die Umkehrabbildung f −1
jeweils die Rolle des inversen Elements (Nachrechnen!), und übrigens ist immer g −1 ◦ f −1
die zu f ◦g inverse Abbildung. Damit ist auch die Bijektivität der zusammengesetzten Abbildung klar. Die Bijektionen einer Menge in sich bilden also immer eine Gruppe bezüglich
der Hintereinanderausführung als Multiplikation, denn das Assoziativgesetz gilt für Abbildungen sowieso immer.
Insbesondere ist tatsächlich Sn eine Gruppe, und in Zukunft werden wir das Zeichen ,,◦” für
die Multiplikation wieder der Einfachheit halber unterschlagen und für das Einselement (1)
schreiben. Überhaupt, die Schreibweise: man kann die Elemente von Sn als 2 × n–Matrizen
angeben, dabei oben die Urbilder und unten die Bilder, z.B. als
1 2 3 4 5 6 7 8 9
∈ S9 .
σ :=
2 4 7 1 9 8 3 5 6
Auf den ersten Blick weniger übersichtlich, aber letztlich bequemer ist die Zykelschreibweise, die auf der Beobachtung beruht, dass jede Permutation einer endlichen Menge in
Zyklen zerfällt. Im Beispiel bewirkt σ nämlich die Abbildung
1 7→ 2 7→ 4 7→ 1 ,
3 7→ 7 7→ 3 ,
5 7→ 9 7→ 6 7→ 8 7→ 5 ,
die man darum kürzer als (124)(37)(5968) notiert. Werden durch die Permutation Elemente festgelassen, lässt man diese ganz aus der Notation weg, Ausnahme ist nur id = (1) ,
man schreibt nämlich nicht, was eigentlich konsequent wäre, id = (1)(2) . . . (n) . Wir notieren ein paar einfache Fakten über die Gruppe Sn :
Sn hat n! Elemente (Übungsaufgabe zur vollständigen Induktion), in der Gruppentheorie
sagt man dazu auch: Die Ordnung der Gruppe ist n! .
Sn ist für n > 2 nicht kommutativ, wie man schon an dem einfachen Beispiel
(12)(23) = (123) ,
(23)(12) = (132)
sieht; in der Tat ist die S3 die kleinste nichtabelsche Gruppe überhaupt.
6
Die Transpositionen, d.h. die Vertauschungen (ij) erzeugen die ganze Gruppe Sn , d.h.
jede Permutation lässt sich als Produkt von Transpositionen schreiben. Es genügen dazu
sogar Nachbarvertauschungen! Auch das lässt sich leicht durch Induktion über n beweisen.
Inverse kann man einfach durch Umkehr der Reihenfolge in den Zykeln gewinnen, also z.B.
((124)(37)(5968))−1 = (421)(73)(8695) = (142)(37)(5869) .
Man beachte, dass die Reihenfolge der Elemente in einem Zykel natürlich nur bis auf zyklische Vertauschung eindeutig ist. Noch eine Beobachtung: Transpositionen erfüllen immer
(ij)2 = (1) , sind also zu sich selbst invers.
Eine Abbildung h : G → H einer Gruppe G in eine Gruppe H nennt man einen Gruppenhomomorphismus, wenn f mit der Gruppenstruktur verträglich ist, genauer gesagt
wenn für alle x, y ∈ G in der Bildgruppe
f (xy) = f (x)f (y)
und
f (x−1 ) = f (x)−1
wobei wir von beiden Gruppen stillschweigend annehmen, dass sie multiplikativ geschrieben werden und dass wir wie so oft den Multiplikationspunkt unterschlagen. Beispiele für
Gruppenhomomorphismen kennen wir bereits, wenn auch nicht unter diesem Namen:
1. Alle linearen Abbildungen von Vektorräumen f : V → W sind Gruppenhomomorphismen für deren additive Gruppen, wobei wir die Multiplikation mit Skalaren
einfach ,,vergessen”.
2. Für jeden Körper K ist K ∗ → K ∗ : x → x2 Homomorphismus der zugehörigen
multiplikativen Gruppen.
3. Ganz ähnlich ist für jede ganze Zahl m die Abbildung Z → Z : n 7→ mn ein
Homomorphismus der additiven Gruppe Z in sich.
4. Nach dem Determinantenmultiplikationssatz ist GL (n, K) → K ∗ : M 7→ det M
ein Gruppenhomomorphismus der multiplikativen Gruppe der invertierbaren n × n–
Matrizen in die multiplikative Gruppe des zugrundeliegenden Körpers.
5. Trivialerweise ist immer die Identität id : G → G auf einer Gruppe ein Gruppenhomomorphismus, und ebenso die konstante Abbildung G → {e} auf ihr Einselement.
6. Die Exponentialfunktion ist wegen des Additionstheorems ex+y = ex ey ein Homomorphismus der additiven Gruppe R in die multiplikative Gruppe R∗ .
Gruppenhomomorphismen haben viele schöne und leicht zu beweisende Eigenschaften:
Einselement wird auf Einselement abgebildet. Im Fall der Exponentialfunktion heißt das
natürlich e0 = 1 .
7
Die Bildmenge f (G) ist eine Untergruppe von H , ganz ähnlich wie bei Vektorraumhomomorphismen.
Der Kern des Homomorphismus, das ist Kern f := {x ∈ G | f (x) = e ∈ H} , ist eine Untergruppe von G . Im Beispiel 2) besteht der Kern also aus der Untergruppe {±1} ⊂ K ∗ ,
im Beispiel 1) ist es der uns längst bekannte Kern des Vektorraumhomomorphismus, im
Beispiel 4) die multiplikative Gruppe SL(n, K) der (n × n)–Matrizen mit Determinante 1.
Wir konstruieren nun den Vorzeichen– oder Signum–Homomorphismus
sign : Sn → {±1} für symmetrische Gruppen mit n > 1 , und zwar folgendermaßen. Man
betrachte das Polynom
Y
p(x1 , x2 , . . . , xn ) :=
(xi − xj )
1≤i<j≤n
mit reellen Koeffizienten und in den n Variablen x1 , . . . , xn . Permutiert man die Indizes
der Variablen mit einem σ ∈ Sn , geht man also zum Polynom
Y
pσ (x1 , . . . , xn ) := p(xσ(1) , . . . , xσ(n) ) =
(xσ(i) − xσ(j) )
i<j
über, so stellt man fest, dass ebenso wie in p alle Differenzen der verschiedenen Variablen
in diesem Produkt vorkommen, nun allerdings mit gegebenenfalls verändertem Vorzeichen.
Man kann daher
pσ = ±p =: sign(σ) · p ,
setzen, und dass durch diese Vorschrift ein Gruppenhomomorphismus definiert wird, lässt
sich leicht nachrechnen: Jedes τ ∈ Sn bewirkt in der Produktdarstellung von pσ ebensoviele
Vorzeichenänderungen wie in p , deswegen ist
sign(τ σ) p = pτ σ = sign(τ ) pσ = sign(τ ) sign(σ) p ,
darum also sign(τ σ) = sign(τ )sign(σ) . Die Verträglichkeit mit der Inversenbildung beweist
man ähnlich.
Wichtig: Der Signum–Homomorphismus ist nicht der triviale Homomorphismus, denn offensichtlich ist — egal in welcher symmetrischen Gruppe — sign(12) = −1 . Genauso leicht
sieht man ein, dass für alle Nachbartranspositionen sign(i, i + 1) = −1 ist, ja sogar für alle
Transpositionen überhaupt, weil jedes (ij) Produkt einer ungeraden Anzahl von Nachbartranspositionen ist; dann wende man einfach die Homomorphieeigenschaft von sign an.
Da jede Permutation Produkt von Transpositionen ist, folgt mit der gleichen Schlussweise
ein nicht so naheliegender Sachverhalt:
Satz Stellt man eine Permutation σ ∈ Sn , n > 1 , als Produkt von Transpositionen dar, so
ist die benötigte Anzahl von Transpositionen durch σ zwar nicht eindeutig bestimmt, wohl
aber die Parität dieser Anzahl.
8
Aus diesem Grund spricht man von geraden und ungeraden Permutationen je nach Vorzeichen von σ . Da es sich bei den geraden Permutationen um den Kern des Signum–
Homomorphismus handelt, bilden diese eine Untergruppe von Sn , die alternierende Gruppe
An . Diese hat n!/2 Elemente, denn Multiplikation mit (12) stellt eine Bijektion zwischen
An und Sn \An her.
9 Affine Räume, Geometrie mit Vektoren
In diesem Abschnitt geht es darum, die Brücke zur Geometrie zu schlagen — eigentlich Thema des nächsten Semesters, aber es wird sich zeigen, dass sie auch zum besseren Verständnis
der linearen Gleichungssysteme einiges beitragen kann, darum also hier ein Vorgeschmack
darauf.
Man kann zunächst versuchen, Geometrie axiomatisch einzuführen, wir wollen das an einem
sehr einfachen Axiomensystem für die ebene Geometrie versuchen. Eine affine Ebene A
soll aus einer Punktmenge P und einer Geradenmenge G bestehen, dabei verstehen wir
unter den Geraden g ∈ G nichtleere Untermengen von P und gebrauchen die üblichen
geometrischen Sprechweisen wie ,,P liegt auf g” oder ,,g geht durch P ”, wenn wir Inzidenz
P ∈g,
P ∈P,
g∈G
ausdrücken wollen. Damit man sinnvoll Geometrie betreiben kann, muss man von der
Inzidenz gewisse Grundeigenschaften verlangen, also Axiome für affine Ebenen.
1. Verbindungsaxiom: Durch zwei Punkte P 6= Q geht genau eine Gerade, kurz P Q
geschrieben.
2. Parallelenaxiom: Zu jeder Geraden g und jedem Punkt P gibt es genau eine Parallele
h zu g durch P , das heißt eine Gerade h ∈ G mit P ∈ h und entweder g = h oder
g ∩ h = ∅ , kurz gkh geschrieben.
3. Reichhaltigkeitsaxiom: Es gibt mindestens drei nicht kollineare Punkte, d.h. die nicht
alle drei auf einer Geraden liegen.
Von feineren geometrischen Eigenschaften wie Strecken, Längen und Winkeln ist noch lange nicht die Rede, trotzdem kann man einige einfache und plausible Eigenschaften daraus
schon beweisen.
Satz Jede affine Ebene hat mindestens vier Punkte.
9
C
g
h
A
B
Beweis. Drei nicht kollineare Punkte A, B, C existieren bereits nach dem Reichhaltigkeitsaxiom. Sei nun g die Parallele der Verbindungsgeraden AB durch den Punkt C und
h die Parallele zu AC durch den Punkt B . Der Kandidat für den vierten Punkt ist dann
natürlich der Schnittpunkt D := g ∩ h (warum kann da eigentlich nur einer existieren?).
Einziges Problem: Könnte es sein, dass sich g und h nicht schneiden? In diesem Fall hätte
g durch den Punkt B sogar zwei Parallelen, nämlich AB und h im Widerspruch zur Eindeutigkeitsforderung von Axiom 2. 2
Es mag kurios erscheinen: Man kann aus den Axiomen nicht beweisen, dass A fünf Punkte
besitzt. Weiter unten werden wir nämlich einsehen, dass es affine Ebenen mit nur vier
Punkten (und sechs Geraden) wirklich gibt. Zunächst aber eine andere kleine Konsequenz
aus den Axiomen:
Satz Parallelität ist eine Äquivalenzrelation auf der Geradenmenge G .
Beweis. Unmittelbar aus der Definition der Parallelität ergeben sich die Reflexivität gkg
und die Symmetrie gkh ⇒ hkg für alle Geraden g, h , nur die Transitivität gkh , hkk ⇒
gkk erfordert etwas mehr Nachdenken. Wenn zwei der drei Geraden übereinstimmen, ist
die Aussage wieder evident, wir nehmen also an, es seien
g∩h=∅,
h∩k =∅,
g 6= k .
Wäre nun g ∩ k 6= ∅ (nicht parallel), dann hätten beide Geraden einen Schnittpunkt P ,
und die Gerade h besäße zwei verschiedene Parallelen durch den Punkt P , Widerspruch. 2
Gibt es überhaupt affine Ebenen, d.h. gibt es Modelle, die dieses Axiomensystem erfüllen?
Mit Hilfe linearer Algebra kann man solche Ebenen leicht konstruieren: Man nehme einen
2–dimensionalen Vektorraum V über einem Körper K und definiere eine zugehörige affine
Ebene A = A(V ) = A2 (K) durch folgende Angabe von Punkt– bzw. Geradenmenge:
10
P sei die Menge V bzw. K 2 , deren Elemente nun Punkte genannt werden.
G sei die Menge aller ,,verschobenen” eindimensionalen Untervektorräume in V , besteht
also aus allen g := A + L mit A ∈ V und eindimensionalen Untervektorräumen L ⊂ V .
In anderer Sprechweise könnte man die Geraden also als Restklassen in allen Quotientenräumen V /L beschreiben, bei denen L alle eindimensionalen Untervektorräume von V
durchläuft.
Sind mit diesen Vereinbarungen nun die Axiome erfüllt? Für P 6= Q ∈ P = V nehme man
als Verbindungsgerade einfach P + hQ − P i , wobei wir mit hQ − P i := L(Q − P ) hier die
lineare Hülle {t(Q−P ) | t ∈ K} des Vektors Q−P bezeichnen. Man überlege sich, dass nur
diese Verbindungsgerade in Frage kommt (klar: P = P + 0 · (Q − P ) , Q = P + 1 · (Q − P ) ,
sie enthält also wirklich beide Punkte).
Zum Nachweis der Gültigkeit des Parallelenaxioms nehme man die Gerade g = A + L
und den Punkt P . Behauptung: Die Gerade h := P + L tut’s, enthält also P (klar wegen
0 ∈ L ), ist parallel zu g wegen
(A + L) ∩ (P + L) 6= ∅ ⇔ A − P ∈ L ⇔ A + L = P + L ,
und die Eindeutigkeit folgt daraus, dass für jeden anderen eindimensionalen Untervektorraum L′ nach dem Dimensionssatz für Untervektorräume L + L′ = V richtig ist, also
A−P ∈ L+L′ ⇒ A−P = −x+y , x ∈ L , y ∈ L′ ⇒ A+x = P +y ⇒ (A+L)∩(P +L′ ) 6= ∅ .
Das Reichhaltigkeitsaxiom ist offensichtlich erfüllt: Man betrachte einfach zwei verschiedene eindimensionale Unterräume L1 , L2 von V und die Punkte auf den beiden Geraden
A + L1 , A + L2 .
Nun wird auch klar, dass es sehr armselige affine Ebenen gibt: Man nehme einfach V = F22 ,
den zweidimensionalen Vektorraum über dem Körper mit 2 Elementen; die Ebene hat dann
nur vier Punkte, und jede der sechs Zweiermengen von Punkten macht genau eine Gerade
aus!
Aus dem Nachweis der Gültigkeit der Axiome können wir noch eine weitere nützliche Lehre
ziehen: Parallelität kann man in diesen Koordinatenebenen dadurch charakterisieren, dass
es sich um Geraden handelt, die mit Hilfe des gleichen eindimensionalen Unterraums L
gebildet sind, anschaulich: die durch Parallelverschiebung aus der gleichen Geraden
L = 0 + L durch den Nullpunkt entstanden sind. Merke: In diesem Bild sind die eindimensionalen Untervektorräume die Geraden durch 0 .
Wird L vom Vektor v 6= 0 erzeugt, ist
P + L = P + hvi = P + {tv | t ∈ K}
die (vielleicht aus der Schule bekannte) vektorielle Darstellung einer Geraden. Im Fall der
reellen affinen Ebene kann man nun auch die Strecke P Q zwischen den Punkten P und Q
einführen als Teilmenge P + {t(Q − P ) | t ∈ [0, 1] ⊂ R} der Geraden P + hQ − P i und
11
etwa Teilungspunkte wie den Mittelpunkt P + 21 (Q − P ) = 12 (Q + P ) . Damit ergibt sich
die Möglichkeit, lineare Algebra zum Beweis elementargeometrischer Sätze einzusetzen. Als
Beispiel nehmen wir den
Satz über den Schnitt der Seitenhalbierenden im Dreieck Die drei Seitenhalbierenden eines Dreiecks schneiden sich in einem Punkt S . Dieser teilt die Seitenhalbierenden
im Verhältnis 2 : 1 .
Beweis. Wir identifizieren den Vektorraum R2 mit seiner affinen Ebene, nach Bedarf
können wir die Punkte der Ebene also als Vektoren schreiben (im Bild angedeutet für
den Eckpunkt A des Dreiecks).
C
O
S
B
A
Wie oben erläutert ist der Mittelpunkt der Verbindungsstrecke AB der Punkt
die vom Eckpunkt C ausgehende Seitenhalbierende also
1
(1 − t)C + t · (A + B) ,
2
1
(A
2
+ B) ,
0≤t≤1,
und der Punkt S , welcher diese Strecke im Verhältnis 2 : 1 teilt, wird bei t = 32 erreicht, ist also S = 13 (A + B + C) . Dieses Resultat ändert sich nicht, wenn wir in unseren
Überlegungen die Eckpunkte A, B, C vertauschen, also die anderen Seitenhalbierenden untersuchen. S liegt somit auf allen drei Seitenhalbierenden und teilt diese alle im Verhältnis
2 : 1. 2
Mit den gleichen Ideen kann man natürlich auch Geometrie in anderen Dimensionen betreiben. Die Frage nach einer geeigneten Axiomatik lassen wir hier ganz beiseite — kurioserweise ist sie ausgerechnet für die ebene Geometrie besonders schwierig — und beschränken
uns gleich auf affine Räume A = A(V ) = An (K) , die zu einem n–dimensionalen K–
Vektorraum gehören, wobei K ein beliebiger Körper sein darf. Wie im Fall der Ebenen ist
12
V nun die Punktmenge P des Raumes, nun braucht man aber nicht nur Geraden, sondern
affine Unterräume U ⊂ P in allen Dimensionen k zwischen 0 und n . Definiert werden
sie analog zu den Geraden der Ebene als ,,verschobene” Untervektorräume U = A + L ,
wo A ein spezieller Punkt auf U und L ein k–dimensionaler Untervektorraum von V ist.
Für k = 0 erhalten wir wieder Punkte, für k = 1 sprechen wir von (affinen) Geraden, für
k = 2 von (affinen) Ebenen, für k = n − 1 von (affinen) Hyperebenen in A . Wir nennen
die affinen Unterräume U und U ′ parallel, wenn sie durch Verschiebung des gleichen Untervektorraums L entstehen, also von der Form U = A + L , U ′ = A′ + L sind; man könnte
also auch sagen: wenn sie Restklassen im gleichen Quotientenraum V /L sind. Klar, dass
Parallelität wieder eine Äquivalenzrelation ist.
Randbemerkung: Manchmal wird der Begriff Parallelität auch dann verwendet, wenn z.B.
U = A + L , U ′ = A′ + L′ mit L′ ⊂ L , etwa wenn man sagt ,,die Gerade g im R3 verläuft
parallel zur Ebene E ”. Dieser erweiterte Parallelitätsbegriff ist mit Vorsicht zu genießen,
denn er ist keine Äquivalenzrelation mehr! Warum?
Ein Blick zurück auf die linearen Gleichungssysteme, zunächst auf eine einzelne Gleichung
a1 x 1 + a 2 x 2 + . . . + a n x n = b
in n Unbekannten mit Koeffizienten, die nicht alle = 0 sind. Dann sagt die allgemeine
Theorie aus Kapitel 3 und Kapitel 8, dass die entsprechende homogene Gleichung, also
der Spezialfall b = 0 , als Lösungsmenge einen Untervektorraum L ⊂ K n der Dimension
n − 1 besitzt. Nun können wir L genauso gut als Hyperebene durch den Nullpunkt ansehen! Das ist praktisch, denn es existiert sicher auch eine Lösung X0 des inhomogenen
Gleichungssystems (warum?) und darum kann man die gesamte Lösungsmenge des inhomogenen Systems als X0 + L beschreiben, also als affine Hyperebene im An (k) = K n
parallel zu L .
Wenn man nun allgemeiner m Gleichungen in n Unbekannten hat — der Einfachheit halber
ohne Nullzeile — kann man die Lösungsmenge geometrisch als Schnitt von m Hyperebenen
des affinen Punktraums An (K) ansehen. Damit wird anschaulich sofort klar, dass es Fälle
geben kann, in denen die Lösungsmenge leer ist, z.B. bei zwei Gleichungen
a1 x 1 + a2 x 2 + . . . + a n x n = b 1
a1 x 1 + a2 x 2 + . . . + a n x n = b 2
mit b1 6= b2 , aber gleichen linken Seiten, weil diese dann parallele Hyperebenen beschreiben.
Allgemeiner sind die affinen Unterräume nur eine geometrische Sicht auf die Lösungsmengen
linearer Gleichungssysteme; wie am Beispiel von Hyperebenen erläutert, beweist man ebenso den
Satz Sei A eine (m × n)–Matrix mit Einträgen im Körper K , dazu b ∈ K m . Wenn
die Lösungsmenge aller x ∈ K n des Gleichungssystems Ax = b nicht leer ist, bildet sie
einen affinen Unterraum des K n . Umgekehrt lässt sich jeder affine Unterraum des K n als
Lösungsraum eines linearen Gleichungssystems beschreiben.
13
Klar, dass man dann auch die Dimension des zugehörigen Untervektorraums L als Dimension des affinen Unterraums bezeichnet, und diese stimmt widerum mit der Dimension des
Lösungsraums von Ax = b überein — es passt alles zusammen.
11 Die geometrische Bedeutung der Determinante
Satz a1 , . . . , an Seien Vektoren des Rn . Dann ist der Determinantenbetrag | det(a1 , . . . , an )|
ein Maß für das Volumen des Parallelepipeds
P (a1 , . . . , an ) := { x1 a1 + . . . + xn an | alle xi ∈ R, 0 ≤ xi ≤ 1 } .
Zum Beweis muss man zunächst präzisieren, was man von solch einem Volumenmaß vernünftigerweise verlangen will. Der Einheitsquader sollte natürlich das Maß
Vol P (e1 , . . . , en ) = 1
erhalten, und das ist durch den Determinantenbetrag offensichtlich erfüllt. Ferner sollte
eine Art Multilinearität richtig sein: Multipliziert man einen der Vektoren mit r ∈ R und
hält die anderen fest, so sollte sich das Volumen mit |r| multiplizieren (linke Bildhälfte),
b
a
rb
und beim Aneinanderfügen zweier Parallelepipede P (a, a2 , . . . , an ) und P (b, a2 , . . . , an )
sollte sich das Volumen des Parallelepipeds P (a + b, a2 , . . . , an ) ergeben — jedenfalls wenn
sich die beiden nicht überlappen (rechte Bildhälfte; man beachte, dass die beiden grauen
Dreiecke, berandet von den Vektoren a, b, a + b , kongruent und daher volumengleich sind).
Klar, dass das gleiche Verhalten in jeder anderen Koordinate genauso gelten muss, und
dass auch hier der Determinantenbetrag das Geforderte leistet. Schließlich sollte man noch
verlangen, dass das Volumen verschwindet, wenn die a1 , . . . , an in einem echten linearen
14
Unterraum liegen, also linear abhängig sind. Auch das wird von der Determinante erfüllt. 2
Besonders wichtig für die Integralrechnung in mehreren Variablen ist die Volumenänderung
bei linearen Abbildungen, weil bei der Transformationsformel für n–dimensionale Integrale
Substitutionen durch lineare Transformationen approximiert werden. Hier gilt der
Satz Unter der linearen Transformation Rn → Rn : x 7→ Ax wird jeder messbare Bereich
mit Volumen V in einen messbaren Bereich mit Volumen | det A| · V abgebildet.
Was messbare Bereiche sind, gehört nicht in eine Vorlesung über Lineare Algebra, darum
beschränken wir uns auf die Betrachtung des Einheitsquaders; darauf lässt sich letztlich
alles zurückführen. Dieser ist in unserer Sprechweise nun P (e1 , . . . , en ) , und bekanntlich ist
sein Bild unter x 7→ Ax nichts anderes als P (a1 , . . . , an ) , wobei die ai die Spaltenvektoren
von A , anders gesagt die A–Bilder der ei sind. Damit folgt der Satz aus unserer Kenntnis
der Volumina von Parallelepipeden. 2
Hat das Vorzeichen der Determinante auch eine Bedeutung? Ja, aber die ist schwerer zu
erklären: Sie gibt die Orientierung der Basis a1 , . . . , an an. Man mag sich das an der linken Bildhälfte auf der vorigen Seite veranschaulichen; Wegen r < 0 haben det(a, b) und
det(ra, b) verschiedene Vorzeichen, und in der Tat liegt a links von b , aber ra rechts von
b . Ganz allgemein gilt: Als lineare Abbildung ist x 7→ Ax orientierungserhaltend, wenn
det A > 0 , andernfalls orientierungsumkehrend. Dieser Unterschied wird uns in der Geometrie z.B. als Unterschied von Drehungen und Spiegelungen noch beschäftigen.
12 Lineare Ungleichungen, Konvexität
Ein Beispiel für die Problemstellung der linearen Optimierung.
Ein Bauer hat 20 ha Land und einen Stall für 10 Kühe; er kann im Jahr 2400 Arbeitsstunden
aufwenden. Pro Kuh braucht er 0,5 ha Land und 200 Stunden Arbeit. Anbau von 1 ha
Weizen erfordert 100 Stunden Arbeit. Gewinn: 150 EUR pro Kuh, 130 EUR pro ha Weizen.
Wie teilt er seine Ressourcen am besten ein? Es bezeichne dazu x die Größe des zum
Weizenanbau verwendeten Landes in ha, y die Zahl seiner Kühe. Dann ist das Maximum
der linearen Funktion f (x, y) := 130x+150y zu suchen auf dem Bereich des R2 , der durch
die Ungleichungen
x ≥ 0
y ≥ 0
1
x + y ≤ 20
2
y ≤ 10
100x + 200y ≤ 2400
15
y
10
x
20
beschrieben wird. Diese Ungleichungen beschreiben ein konvexes Polyeder, was im Folgenden in größerer Allgemeinheit — nämlich im affinen Raum Rn — definiert und untersucht
werden soll. Die eigentliche Lösung des Problems ist dann Gegenstand der Optimierungstheorie und wird in Veranstaltungen über Diskrete Mathematik, Algorithmische Geometrie
oder Numerik behandelt werden; hier sei nur soviel verraten, dass man relativ elementar,
spätestens aber mit den Methoden der Analysis II erkennen kann, dass das Maximum von
f sicher auf dem Rand, genauer sogar auf einem Eckpunkt des Polyeders angenommen
wird.
Erinnerung 1 : Die Verbindungsgerade der beiden Punkte P 6= Q ∈ Rn ist
{P + x(Q − P ) = (1 − x)P + xQ | x ∈ R} = {yP + xQ | x, y ∈ R , x + y = 1} ,
die Verbindungsstrecke der beiden ist
P Q := {yP + xQ | x, y ∈ R , x + y = 1 , x, y ≥ 0} .
Erinnerung 2 : Wenn nicht alle ai = 0 sind, beschreibt die Gleichung
a1 x 1 + . . . + a n x n = b
eine affine Hyperebene im Rn . Ihr Komplement zerfällt in die beiden Halbräume
a1 x1 + . . . + an xn > b und a1 x1 + . . . + an xn < b .
Definition K ⊂ Rn heißt konvex, wenn K nichtleer ist und mit je zwei Punkten P, Q ∈
K auch die ganze Verbindungsstrecke P Q in K liegt.
Beispiele. Rn ist konvex, einpunktige Mengen {P } sind konvex, Kugeln sind konvex (gar
nicht sooo leicht zu zeigen). Weitere wichtige Beispiele liefern die beiden folgenden Sätze.
16
Satz Nichtleere Durchschnitte
T
i∈I
Ki konvexer Mengen Ki ⊆ Rn sind konvex. (klar!)
Satz Halbräume sind konvex.
Beweis. Seien P = (p1 , . . . , pn ) und Q = (q1 , . . . , qn ) im Halbraum
H = K : a1 x1 + . . . + an xn > b gelegen, o.B.d.A.
a1 p 1 + . . . + a n p n ≥ a1 q 1 + . . . a n q n > b .
Dann ist für alle x ∈ [0, 1]
a1 ((1 − x)p1 + xq1 ) + . . . + an ((1 − x)pn + xqn ) =
(1 − x)(a1 p1 + . . . + an pn ) + x(a1 q1 + . . . + an qn ) ≥
(1 − x + x)(a1 q1 + . . . + an qn ) > b ,
also (1 − x)P + xQ ∈ H für alle x zwischen 0 und 1 .
Folgerung Nichtleere Durchschnitte endlich vieler Halbräume — konvexe Polytope genannt — sind konvex.
Definition Die konvexe Hülle einer nichtleeren Menge M ⊆ Rn ist die kleinste konvexe
Menge im Rn , welche M enthält, oder auch: der Durchschnitt aller konvexen K ⊇ M .
Wenn a0 , a1 , . . . , an ∈ Rm , n ≤ m , nicht kollinear sind (d.h. nicht in einem affinen Unterraum der Dimension n − 1 enthalten sind), heißt die konvexe Hülle der endlichen Menge
{a0 , . . . , an } das Simplex mit Ecken a0 , . . . , an .
Satz (Carathéodory) Seien a0 , a1 , . . . , an ∈ Rm , n ≤ m , nicht kollinear. Dann stimmt
ihre konvexe Hülle ∆ überein mit
n
n
X
X
S(∆) := {
x i ai |
xi = 1 , 0 ≤ xi ≤ 1 für alle
i=0
i = 0, . . . n} .
i=0
Beweis durch vollständige Induktion über n .
Induktionsanfang: Für n = 1 ist der Satz richtig, weil S(∆) die Verbindungsstrecke a0 a1
ist, und diese ist offensichtlich die kleinste konvexe Menge, die a0 und a1 enthält.
Induktionsannahme: Die Aussage sei für n − 1 schon bewiesen, also z.B. für das (n − 1)–
dimensionale Simplex mit den Eckpunkten a1 , . . . , an .
Induktionsschritt: Daraus leiten wir nun die Richtigkeit von ∆ = S(∆) für das n–dimensionale
Simplex her. Für die Gleichheit der beiden Mengen sind zwei Dinge zu zeigen:
1. ∆ ⊂ S(∆) . Dazu zeigt man zuerst, dass alle Eckpunkte ai zu S(∆) gehören, indem
man einfach xi = 1 und alle anderen xj = 0 setzt. Dann überlege man sich, dass S(∆)
17
konvex ist: Für zwei Punkte
n
X
i=0
x i ai ,
n
X
yi ai ∈ S(∆)
i=0
hat ein beliebiger Punkt der Verbindungsstrecke die Form
x
n
X
xi ai + (1 − x)
i=0
n
X
i=0
y i ai =
n
X
(xxi + (1 − x)yi )ai , 0 ≤ x ≤ 1 ,
i=0
und man überprüft leicht, dass die neuen Koeffizienten xxi + (1 − x)yi alle fraglichen
Bedingungen erfüllen (Summe = 1 , alle zwischen 0 und 1 ), wenn sie für die xi und die yi
erfüllt waren. S(∆) ist also konvex und enthält die a0 , a1 , . . . , an , also auch ihre konvexe
Hülle ∆ .
2. Fehlt noch die Umkehrung, dass S(∆) auch nicht größer sein kann als ∆ . Jene Punkte,
für die x0 = 0 ist, gehören sicher zu ∆ , denn sie liegen sogar in der konvexen Hülle von
a1 , . . . , an , und diese erfüllt die Induktionsannahme. Geometrisch gesehen bilden diese
Punkte ein (n − 1)–dimensionales ,,Randsimplex” von ∆ , das dem Punkt a0 gegenüber
liegt. Natürlich gehört a0 ebenfalls zu ∆ . Alle übrigen Punkte von S(∆) erfüllen aber
x0 6= 1 und liegen auf Verbindungsstrecken von a0 mit Punkten dieses Randsimplexes, wie
man an folgender Gleichung abliest:
n
X
xi ai = x0 a0 + (1 − x0 )
i=0
n
X
i=1
xi
ai
1 − x0
Man überzeuge
davon, dass die Summe rechts tatsächlich zum Randsimplex gehört,
Psich
n
insbesondere
i=1 xi /(1 − x0 ) = 1 erfüllt! Also liegen alle Punkte von S(∆) entweder
offensichtlich in ∆ (Eckpunkte, Randsimplex nach Induktionsannahme) oder auf Verbindungsstrecken von Punkten aus ∆ , wegen Konvexität also in ∆ selbst; damit haben wir
auch S(∆) ⊂ ∆ gezeigt. 2
13 Trigonalisierbarkeit von Matrizen
Satz f : V → V sei Endomorphismus eines K–Vektorraums V , dessen charakteristisches
Polynom χf vollständig in Linearfaktoren zerfällt. Dann gibt es eine Basis von V , in der
f durch eine obere Dreiecksmatrix beschrieben wird.
Die Aussage des Satzes ist äquivalent dazu, dass es eine echt absteigende Folge von Unterräumen V = Un ⊃ Un−1 ⊃ . . . ⊃ U2 ⊃ U1 ⊃ U0 := {0} gibt, alle von Dimension
dim Ui = i und mit der Eigenschaft f (Ui ) ⊂ Ui : Nach dem Basisergänzungssatz kann man
dann eine Basis e1 , . . . , en von V so wählen, dass gerade immer Ui von e1 , e2 , . . . , ei erzeugt
ist, und wegen f (Ui ) ⊂ Ui wird f bezüglich dieser Basis durch eine obere Dreiecksmatrix
beschrieben. (Denken Sie daran, dass die Spalten der Matrix die Bilder der Basisvektoren
18
sind; die Umkehrung gilt entsprechend: Wenn f durch eine solche Dreiecksmatrix beschrieben wird, gibt es eine solche sog. Fahne von Unterräumen, die durch f in sich abgebildet
wird.) Wie findet man nun eine solche Fahne von Unterräumen?
Zum Beispiel durch Induktion über die Dimension. Der Induktionsanfang n = 1 ist trivial.
Induktionsvoraussetzung: Die Aussage sei für kleinere Dimensionen als n bereits bewiesen,
und f sei wie im Satz gegeben. Dann wissen wir, dass f einen Eigenwert λ1 ∈ K und
dazu einen Eigenvektor e1 ∈ V besitzt. Ergänzt man nun e1 in beliebiger Weise durch
e∗2 , . . . , e∗n zu einer Basis von V , so wird f in dieser Basis durch eine Matrix
λ1 ∗
A :=
0 A1,1
beschrieben, wobei ∗ für einen Zeilenvektor aus K n−1 , 0 für den Nullspaltenvektor aus
K n−1 und A1,1 für eine (n − 1) × (n − 1)–Matrix mit Einträgen aus K steht. Dabei ist
nun A1,1 die Matrix einer linearen Abbildung f ∗ des (n − 1)–dimensionalen Vektorraums
L(e∗2 , . . . , e∗n ) , auf die wir die Induktionsvoraussetzung anwenden können, wenn wir nur
nachweisen können, dass das charakteristische Polynom χf ∗ in Linearfaktoren zerfällt.
Diesen Nachweis kann man z.B. so führen: Man entwickelt χf (x) = det(A − xE) nach der
ersten Spalte; diese enthält nur ein Element 6= 0 , darum erhält man gerade
(λ1 − x) det(A1,1 − xE) = (λ1 − x)χf ∗ (x) , also besteht χf ∗ aus n − 1 Linearfaktoren von
χf . 2
Mit der gleichen Idee kann man den folgenden Satz von Cayley–Hamilton beweisen. Man
beachte dabei, dass man Endomorphismen f eines Vektorraums sogar potenzieren kann,
wenn man f n interpretiert als die n–fache Hintereinanderausführung f ◦ f ◦ . . . ◦ f (entspricht gerade der Potenzierung der Matrix A ). Die Potenzen von f kommutieren alle
miteinander und mit der Identität — die wir als f 0 auffassen können — ebenso wie die
A–Potenzen miteinander und mit E . Außerdem darf man Endomorphismen punktweise addieren und mit Skalaren aus K multiplizieren. Es ist also kein Problem, Endomorphismen
in Polynome aus K[x] für die Variable x einzusetzen.
Satz Für jeden Endomorphismus f eines endlichdimensionalen K–Vektorraums ist χf (f ) =
0 , d.h. der Null–Endomorphismus, der ganz V auf den Nullvektor abbildet.
Man mag sich erstmal wundern, warum hier nicht davon die Rede ist, dass χf in Linearfaktoren zerfällt. Grund: Man kann zu einem Erweiterungskörper übergehen, in dem dies
so ist (im Fall von R oder Q tut’s der Körper C der komplexen Zahlen), und über diesem
Körper — nennen wir ihn wieder K — sieht χf nicht anders aus als vorher. Können wir
also die Aussage unter dieser Zusatzvoraussetzung beweisen, dann ist sie immer richtig;
wir dürfen also o.B.d.A. voraussetzen, dass f durch eine obere Dreiecksmatrix A beschrieben wird, vgl. den Satz oben. Determinanten oberer Dreiecksmatrizen sind bekanntlich die
Produkte der Diagonalelemente, also ist
χf (x) = (−1)n Πni=1 (x − λi ) ;
dabei sind die λi die Diagonalelemente der oberen Dreiecksmatrix = die Eigenwerte von
f . Die Nummerierung der λi soll von links oben nach rechts unten erfolgen, dann hat die
19
Matrix A − λn E von f − λn id als letzte Zeile eine Nullzeile, somit ist, wenn wir die
gleichen Bezeichnungen wie im ersten Satz benutzen, (f − λn id)(V ) ⊂ Un−1 . Genau so
fährt man fort:
(f − λn−1 id)(f − λn id)(V ) ⊂ Un−2 , . . . , Πni=1 (f − λi id)(V ) ⊂ U0 = {0} 2
4
Archiv für Übungsaufgaben
1. Beweisen Sie, dass die Lösungsmenge L aller Tripel (x, y, z) ∈ R3 , welche die lineare
Gleichung
ax + by + cz = d
erfüllen (dabei seien a, b, c, d ∈ R fest gewählt) nur dann einen Untervektorraum des R3
bilden, wenn d = 0 ist.
(Man könnte auch stattdessen ,,genau dann” sagen, denn aus der Vorlesung wissen Sie, dass
die Lösungen einer homogenen linearen Gleichung immer einen Untervektorraum bilden.)
2. Fortsetzung: Welche Gestalt hat L im Anschauungsraum? Überlegen Sie sich das zunächst
für den Fall d = 0 und beschreiben Sie mit Ihren Worten, was für ein geometrisches Gebilde L darstellt. Und was passiert, wenn man auf der rechten Seite 0 durch ein d 6= 0 ersetzt?
Wenn man verschiedene d betrachtet: Was haben dann die verschiedenen Lösungsmengen
miteinander zu tun? Achtung: a = b = c = 0 ist ein Sonderfall.
3. V sei ein Vektorraum, U1 und U2 zwei Untervektorräume darin. Beweisen Sie: Wenn die
Vereinigung der beiden, also
U1 ∪ U2 := { u ∈ V | u ∈ U1
oder u ∈ U2 }
der gesamte Vektorraum ist, muss U1 = V oder U2 = V sein.
Erinnerung zur Sprechweise: ,,:=” heißt, dass die linke Seite durch die rechte Seite definiert
ist; ,,oder” ist nicht in ausschließendem Sinn gemeint, beide Teile der Aussage können also
zutreffen, andernfalls heißt es ausdrücklich ,,entweder . . . oder”.
Musterlösung zu 3. (M. Gärtner) Sei V ein Vektorraum und seien U1 , U2 zwei Untervektorräume von V mit
V = U1 ∪ U2 := {u ∈ V | u ∈ U1 oder u ∈ U2 }.
Zu zeigen: Dann ist U1 = V oder U2 = V .
Da nach Voraussetzung V = U1 ∪ U2 ist, können wir die folgende Äquivalenz benutzen:
U2 ⊂ U1 oder U1 ⊂ U2 ⇐⇒ U1 = V oder U2 = V.
Beweis durch Widerspruch:
Annahme: Die zu beweisende Behauptung sei falsch, d.h. U1 6= V und U2 6= V .
=⇒ U2 6⊂ U1 und U1 6⊂ U2 =⇒ es gibt ein u1 , das in U1 , nicht aber in U2 enthalten ist, in
20
Kurzform geschrieben ∃ u1 ∈ U1 \ U2 , und ebenso ∃ u2 ∈ U2 \ U1 =⇒ u1 , u2 ∈ U1 ∪ U2 .
Da u1 + u2 ∈
/ U1 (andernfalls −u1 + u1 + u2 = u2 ∈ U1 ) und ebenso u1 + u2 ∈
/ U2 , folgt
u1 + u 2 ∈
/ U1 ∪ U2 .
=⇒ U1 ∪ U2 ist nicht abgeschlossen bezüglich +“ =⇒ V = U1 ∪ U2 ist kein Vektorraum:
”
Widerspruch zur Voraussetzung, dass V ein Vektorraum ist. Also ist die Annahme falsch
und die zu beweisende Behauptung richtig.
4. Leiten Sie aus den Axiomen für Vektorräume die folgenden Aussagen ab.
v+v
u + (v + w)
0v
(−1)v
=
=
=
=
2v
(w + u) + v
0
−v
für alle u, v, w im Vektorraum. Erinnerung: 2 = 1 + 1 . Und Vorsicht: In der 3. Zeile steht
links die Zahl 0 , rechts der Nullvektor.
5. a) Beweisen Sie, dass die Vektoren (4, 2, −1) , (1, 1, 1) , (2, 0, −3) ∈ R3 linear abhängig
sind.
b) Beweisen Sie, dass n Vektoren v1 , . . . , vn ∈ Rn linear abhängig sind, wenn deren erste
Komponenten alle = 0 sind.
6. V sei die Menge aller Polynome mit reellen Koeffizienten vom Grad ≤ 5 und mit
kontantem Glied 0 . Zeigen Sie: V ist ein Vektorraum. Dimension? Basis?
7. U1 , U2 seien zwei 2–dimensionale Untervektorräume des R3 . Beweisen Sie, dass der
Untervektorraum U1 ∩ U2 nicht nur aus dem Nullvektor bestehen kann.
8. Erfinden Sie zwei Vektorräume U ⊂ V , U 6= V , welche beide die gleiche Dimension ∞
besitzen. (Bei endlicher Dimension kann es solche Vektorräume bekanntlich nicht geben!)
9. Zeigen Sie: Die Dimension eines Vektorraums V ist die maximale Anzahl linear unabhängiger Vektoren in V .
10. f : V → W und g : U → V seien Abbildungen, f ◦ g (kurz geschrieben f g ) sei ihre
Zusammensetzung. ( U, V, W müssen hier keine Vektorräume sein, und Linearität von f
und g brauchen wir ebensowenig.) Beweisen Sie:
a) Wenn f und g injektiv sind, dann auch f ◦ g .
b) Wenn f und g surjektiv sind, dann auch f ◦ g .
c) Wenn f ◦ g injektiv ist, dann auch g .
d) Wenn f ◦ g surjektiv ist, dann auch f .
11. Aber jetzt sei f : V → V eine lineare Abbildung des Vektorraums V in sich, dim V <
∞ . Man zeige, dass f genau dann injektiv ist, wenn f surjektiv ist.
Musterlösung zu 11. (Huang) f ist injektiv genau dann, wenn Kern f = {0} ⇔
dim(Kern f ) = 0 ; nach dem Satz über Rang und Kern von f ist das gleichbedeutend
mit Rang f = dim V , also mit der Surjektivität von f .
21
12. Eine lineare Abbildung f : V → W von Vektorräumen heißt Nullabbildung (geschrieben schon wieder als 0 ), wenn jeder Vektor v ∈ V auf den Nullvektor 0 ∈ W abgebildet
wird. Erfinden Sie eine lineare Abbildung f : R2 → R2 , welche nicht die Nullabbildung
ist, für die aber f ◦ f die Nullabbildung ist!
13. Man nennt einen Vektorraum V die direkte Summe von zwei Untervektorräumen U, U ′ ,
wenn V = U + U ′ und U ∩ U ′ = {0} ist, geschrieben dann als V = U ⊕ U ′ . Man beweise:
Jedes v ∈ V besitzt in diesem Fall genau eine Zerlegung v = u + u′ in Summanden
u ∈ U , u′ ∈ U ′ , m.a.W.: Es gibt so eine Zerlegung, aber auch nur eine.
14. Sei f : V → W eine lineare Abbildung von Vektorräumen. Zeigen Sie:
a) Wenn v1 , . . . , vr ∈ V linear abhängig sind, dann auch f (v1 ), . . . , f (vr ) ∈ W .
b) Für jeden Untervektorraum U ⊂ V ist dim f (U ) ≤ dim U .
c) f ist injektiv genau dann, wenn jedes System linear unabhängiger v1 , . . . , vr ∈ V auf
linear unabhängige f (v1 ), . . . , f (vr ) ∈ W abgebildet wird.
d) f ist injektiv genau dann, wenn dim f (U ) = dim U gilt für jeden Untervektorraum U
von V .
15. Fingerübungen in Matrixmultiplikation: Berechnen Sie

6
1 1 0
 −1 0 0  ,
0 0 −1
4

0 1 0
 −1 0 0  ,
0 0 −1

1
 0

 0
0
1
1
0
0
0
0
1
1
17
0
0 

0 
1
(Angabe des Ergebnisses und eines Zwischenschritts genügt, bitte keine 10 Seiten Nebenrechnungen abgeben!)
16. A sei eine m × n–Matrix und Ei,j (λ) eine sogenannte n × n–Elementarmatrix, welche
in ihrer i–ten Zeile und j–ten Spalte ( i 6= j ) den Eintrag eij = λ hat, in der Diagonalen
lauter Einsen (also eii = 1 für alle i = 1, . . . , n ), und an allen anderen Stellen Nullen.
Zeigen Sie, dass das Matrixprodukt A · Ei,j (λ) aus der Matrix A durch eine elementare
Spaltenumformung hervorgeht, nämlich die Addition des λ–fachen der i–ten Spalte zur
j–ten Spalte. Was passiert, wenn man stattdessen A von links mit einer Elementarmatrix
vom Format m × m multipliziert?
Musterlösung zu 16. (Anul) A besitze die Einträge ast , s = 1, . . . , m , t = 1, . . . , n .
Dann ist nach Definition der Matrixmultiplikation
AEi,j (λ) = (cst )s=1,...,m, t=1,...,n
mit cst =
n
X
ask ekt .
k=1
Für t 6= j ist nach Voraussetzung ett = 1 , alle anderen ekt = 0 , also cst = ast für alle s .
Für t = j ist
ejj = 1 , eij = λ , alle anderen ekj = 0 ,
also csj = asj + asi λ für alle s . In Worten bedeutet das: Bei Multiplikation von A von
rechts mit Eij (λ) bleibt A ungeändert bis auf die Tatsache, dass das λ–fache der i ten
22
Spalte zur j-ten Spalte addiert wird.
Ganz analog führt die Multiplikation mit einer m × m–Elementarmatrix auf die entsprechende elementare Zeilenumformung.
17. Man zeige: Jeder Vektorraum V über dem Körper C der komplexen Zahlen ist auch
ein reeller Vektorraum; allerdings gilt dimR V = 2 · dimC V , wenn damit die Dimension
als R–Vektorraum bzw. als C–Vektorraum bezeichnet wird.
Musterlösung zu 17. Klar, dass die Additionsaxiome für V gültig sind, wenn nur V ein
C–Vektorraum ist. Dass die Axiome für Multiplikation mit Skalaren aus R gültig sind,
liegt daran, dass reelle Zahlen nur spezielle komplexe Zahlen sind, also an R ⊂ C . Somit
ist V auch ein R–Vektorraum.
Nun sei v1 , . . . , vn eine Basis von V als C–Vektorraum. Dann bilden die 2n Vektoren
v1 , iv1 , v2 , iv2 , . . . , vn , ivn eine Basis von V als R–Vektorraum, denn
a) diese Vektoren erzeugen V als R–Vektorraum, denn jedes v ∈ V besitzt eine Darstellung
als Linearkombination
v = λ1 v1 + . . . λn vn
mit komplexen Koeffizienten λj = ρj + iσj , wenn wir mit ρj und σj ∈ R jeweils Real–
und Imaginärteil von λj bezeichnen. Die Linearkombination lässt sich also umschreiben in
eine Linearkombination der v1 , iv1 , . . . , vn , ivn mit reellen Koeffizienten
v = ρ1 v1 + σ1 iv1 + ρ2 v2 + σ2 iv2 + . . . .
b) Die Lineare Unabhängigkeit der v1 , iv1 , . . . , vn , ivn über R lässt sich ganz ähnlich beweisen; man kann einfacher aber auch so argumentieren: Da die vj linear unabhängig über
C sind, sind die komplexen Koeffizienten λj in der Linearkombination von v eindeutig bestimmt, also auch ihre Real– und Imaginärteile ρj , σj , somit die Koeffizienten der reellen
Linearkombination der v1 , iv1 , v2 , iv2 , . . . , vn , ivn . Eindeutigkeit der Koeffizienten hat man
aber bekanntlich nur bei linearer Unabhängigkeit.
Die Dimensionsaussage gilt schließlich auch für unendliche Dimension im Sinne von ∞ =
dimR V = 2 dimC V = 2∞ : Wenn beliebig viele über C linear unabhängige vj ∈ V existieren, dann sind sie erst recht über R linear unabhängig.

2
 1
18. Gegeben sei die Matrix 
 1
2
a) R4×4 ,
b) F54×4 ,
c) F74×4 ,
1
2
0
2
0
1
3
4

1
0 
 . Bestimmen Sie ihren Rang als Matrix in
4 
4
4×4
d) F11
.
19. Sei p eine Primzahl. Man beweise:
a) Ein n–dimensionaler Vektorraum über dem Körper Fp hat pn Elemente.
b) Wenn F ein endlicher Körper ist, der Fp als Unterkörper enthält, dann ist die Anzahl
der Elemente von F eine Potenz von p .
Musterlösung zu 19. a) Sei v1 , . . . , vn eine Basis des Fp –Vektorraums V . Dann besitzt jedes v ∈ V eine — bekanntlich eindeutige! — Darstellung als Linearkombinati23
on λ1 v1 + . . . + λn vn mit (skalaren) Koeffizienten λ1 , . . . , λn ∈ Fp . Da man für jedes
λi unabhängig voneinander p verschiedene Werte einsetzen kann, erhält man insgesamt
pn verschiedene Vektoren. (Vornehmer gesagt, haben wir V ∼
= Fnp benutzt und dort die
möglichen Koordinatenvektoren (λ1 , . . . , λn ) abgezählt.)
b) Fp ⊂ F sind Körper, und die Körperaxiome für F enthalten in der Tat die Vektorraumaxiome für F als Fp –Vektorraum: klar für die Axiome der Addition, und bei der
Multiplikation betrachtet man einfach nur solche Produkte, in denen der linke Faktor im
Teilkörper Fp liegt. Wenn F als Fp –Vektorraum die Dimension n hat, dann wissen wir aus
Teil a), dass F pn Elemente besitzt. Bei unendlicher Dimension hätte F unendliche viele
Elemente (sogar linear unabhängige!), das kann also nicht auftreten.
20. Entscheiden Sie, ob die folgenden Relationen ,,∼” auf der Menge M Äquivalenzrelationen
sind — und geben Sie eine kurze Begründung für Ihr Urteil.
a) M = R und a ∼ b :⇔ a ≤ b
b) M = R und a ∼ b :⇔ a − b ∈ Z (Menge der ganzen Zahlen)
c) M = Q∗ (rationale Zahlen ohne die 0 ) und a ∼ b :⇔ a/b ist ein Quadrat in Q
d) M = Q und a ∼ b :⇔ es gibt ein Quadrat q ∈ Q mit a = qb
21. I sei eine Menge mit zwei inneren Verknüpfungen ,,+” und ,,·”, die allen Körperaxiomen
genügt mit Ausnahme von Axiom 8 (Existenz des multiplikativen Inversen). Stattdessen
verlangen wir nur
(8’) Aus ab = 0 folgt a = 0 oder b = 0 .
So ein I nennt man Integritätsbereich oder nullteilerfreien Ring (Beispiel: Z ). Beweisen Sie:
Ein endlicher Integritätsbereich ist ein Körper.
22. Sei K ein Körper, V ein endlich–dimensionaler K–Vektorraum mit Untervektorraum
U . Man zeige:
a) Es gibt einen weiteren Untervektorraum U ′ von V , so dass V = U ⊕ U ′ (vgl. Aufg. 13;
U ′ heißt Komplement von U ). U ′ ist i.a. nicht eindeutig bestimmt, aber es gilt
b) dim V = dim U + dim U ′ und
c) V /U ∼
= U′ .
Musterlösung zu 22. (M. Gärtner) Sei V ein endlich-dimensionaler Vektorraum über
einen Körper K und U ein Untervektorraum von V .
(a) Zu zeigen: Es gibt einen Untervektorraum U ′ von V , für den gilt: V = U ⊕ U ′ .
Sei v1 , . . . , vr eine Basis von U . Ergänze diese Basis durch geeignete vr+1 , . . . , vn zu einer
Basis von V . Setze U ′ := L(vr+1 , . . . , vn ) = hvr+1 , . . . , vn i. vr+1 , . . . , vn ist also eine Basis
von U ′ . U ′ erfüllt dann V = U ⊕ U ′ , denn:
(i) v1 , . . . , vr , vr+1 , . . . , vn ist als Basis von V linear unabhängig. Somit ist die Gleichung
λ1 v1 + . . . + λr vr = λr+1 vr+1 + . . . + λn vn
|
{z
} |
{z
}
∈U
∈U ′
nur lösbar, wenn alle λi = 0 sind, i = 1, . . . , r, r + 1, . . . , n. Also ist U ∩ U ′ = {0}.
24
(ii) Jedes v = µ1 v1 + . . . + µr vr + µr+1 vr+1 + . . . + µn vn ∈ V ist auch Element von U+U’,
denn µ1 v1 + . . . + µr vr ∈ U und µr+1 vr+1 + . . . + µn vn ∈ U ′ . Andersherum ist jedes
u + u′ ∈ U + U ′ mit u ∈ U, u′ ∈ U ′ auch ein Element von V , da u, u′ ∈ V gilt. Damit
ist V = U + U ′ .
Ist V = U , so lässt sich die Basis von U nicht ergänzen. V = U ⊕ U ′ wird dann von
U ′ := {0} erfüllt.
U ′ ist i. A. nicht eindeutig bestimmt, da die vr+1 , . . . , vn i. A. nicht eindeutig sind. Beispielsweise lässt sich vr+1 , sofern Basisergänzung möglich war, durch v1 + vr+1 ersetzen.
(b) Durch Abzählen der Basiselemente sieht man:
dim V = n = r + (n − r) = dim U + dim U ′ .
(c) Die Abbildung ϕ : U ′ → V /U sei definiert durch ϕ(u′ ) := u′ + U für alle u′ ∈ U ′ .
Zu zeigen: ϕ ist ein Isomorphismus.
(i) Zu zeigen: ϕ ist linear.
Seien x, y ∈ U ′ , λ ∈ K. Dann folgen aus der Definition der Addition und skalaren
Multiplikation auf V /U
ϕ(x + y) = (x + y) + U = (x + U ) + (y + U ) = ϕ(x) + ϕ(y)
und
ϕ(λx) = (λx) + U = λ(x + U ) = λϕ(x).
Also ist ϕ linear.
(ii) Zu zeigen: ϕ ist injektiv.
Sei x ∈ kern ϕ ⊂ U ′ ⇒ U = ϕ(x) = x + U , denn U =: 0 ∈ V /U ⇒ x ∈ U . Also
ist x ∈ U ∩ U ′ = {0} und somit x = 0. Daraus folgt, dass kern ϕ = {0} ist und ϕ
injektiv.
(iii) Zu zeigen: ϕ ist surjektiv.
Sei v + U ∈ V /U . Da v ∈ V = U ⊕ U ′ ist, gibt es eine eindeutige Zerlegung v = u + u′
mit u ∈ U und u′ ∈ U ′ (vgl. Aufg. 13). Somit ist v + U = u + u′ + U = u′ + U = ϕ(u′ ).
Es gibt also zu jedem v + U ∈ V /U ein u′ ∈ U ′ mit ϕ(u′ ) = v + U . Damit ist ϕ
surjektiv.
Aus (i) bis (iii) folgt, dass ϕ ein Isomorphismus von U ′ auf V /U . Also sind V /U und U ′
isomorph oder kurz: V /U ∼
= U ′.
25
23. Berechnen Sie die Determinanten der beiden folgenden n×n–Matrizen (Resultat hängt
von n ab!):




0 1 0 0 ...
0
0 0 ...
... 0 1
 1 0 1 0 ...
0 
 0 0 ...



.
.
.
1
0


 0 1 0 1 0 ... 0 






 0 0 1 0 1 ... 0 
 0 0 ... 1 ...



0 
und













 0 1

 0 0 ... 0 1 0 1 
1 0 ...
...
0
0 0 ... ... 0 1 0
Die erste Matrix hat also Einträge aij = 1 für i + j = n + 1 , sonst aij = 0 , die zweite hat
Einsen in den ,,Nebendiagonalen” i = j ± 1 , sonst Nullen.
Tipp: Bringen Sie die Matrizen durch elementare Zeilen– oder Spaltenoperationen auf
obere Dreiecksgestalt. Wie könnte man die untere Nebendiagonale der zweiten Matrix am
einfachsten nach oben auf die Diagonale verschieben?
24. A sei eine m × n–Matrix mit Einträgen im Körper K , und k sei ≤ m, n . Streicht
man aus A nun m − k Zeilen und n − k Spalten, so bleibt eine quadratische Matrix vom
Format k × k übrig. Deren Determinante heißt eine k–Unterdeterminante von A . Man
beweise: Der Rang von A ist das maximale k , für welches eine k–Unterdeterminante 6= 0
existiert.
25. Seien A, B ∈ K n×n quadratische Matrizen mit Einträgen im Körper K . Beweisen Sie:
a) Rang AB ≤ Rang A , Rang B .
b) Rang AB = n genau dann, wenn Rang A = Rang B = n .
26. Sei M die Menge der n × n–Matrizen mit Einträgen im Körper K . In M gelte die
Relation A ∼ B (,,ähnlich zu”) genau dann, wenn eine invertierbare Matrix S ∈ M
existiert mit B = S −1 AS . Man zeige, dass Ähnlichkeit eine Äquivalenzrelation ist.
Tipp: Überlegen Sie zunächst, dass für invertierbare Matrizen S, T ∈ M gilt:
(S −1 )−1 = S , (ST )−1 = T −1 S −1
27. Die invertierbaren n × n–Matrizen mit Einträgen im Körper K bilden eine Gruppe GL (n, K) (siehe Aufg. 25.b) oder den Tipp zu 26.). Wieviele Elemente besitzen die
Gruppen GL (2, F2 ) , GL (3, F2 ) , GL (2, F3 ) , GL (3, F3 ) ?
Musterlösung zu 27. (Huang/Wolfart) Warum Gruppe? Produkte existieren für alle
n × n–Matrizen mit Koeffizienten in K , und nach 25.b) ist so ein Produkt wieder invertierbar, wenn die Faktoren invertierbar sind. Assoziativität gilt bekanntlich für die Matrixmultiplikation, und die Einheitsmatrix spielt die Rolle des neutralen Elements.
Die Elemente von GL (2, F2 ) sind
0 1
1 0
1 1
1 1
0 1
1 0
1 1
1 1
0 1
1 0
1 0
0 1
26
Qn−1 n
i
Die Anzahl der Elemente in GL (n, Fq ) lässt sich durch die Formel
i=0 (q − q ) beschreiben, wobei q die Anzahl der Elemente des Körpers ist.
Idee: Wir betrachten zuerst die erste Spalte, für die gibt es q n Möglichkeiten, aber der
Nullvektor ist nicht zugelassen, da er linear abhängig ist. Dann betrachten wir die zweite
Spalte, die muss linear unabhängig von der ersten Spalte sein, deswegen haben wir q n − q 1
Möglichkeiten. In der i+1–ten Spalte gibt es entsprechend q n Möglichkeiten, ausgenommen
jene q i Spaltenvektoren, die schon in dem Unterraum liegen, der von den vorher gewählten
i Spalten erzeugt wird, man erinnere sich an Aufg. 19.a)
In GL (2, F2 ) liegen also (22 − 1)(22 − 2) = 6 Elemente, in GL (3, F2 ) 168, in GL (2, F3 )
48 und GL (3, F3 ) enthält (33 − 1)(33 − 3)(33 − 9) = 11232 Gruppenelemente.
28. G ⊂ GL (3, R) bestehe aus den Matrizen jener linearen Abbildungen, welche die
Standard–Einheitsvektoren e1 , e2 , e3 des R3 permutieren. Wieviele gibt es davon? Wie
sehen sie aus? Determinante? Bilden sie eine Untergruppe von GL (3, R) ?
29. Beweisen Sie, dass es in der Gruppe Sn genau (n − 1)! verschiedene Permutationen
vom Typ (a1 a2 . . . an ) gibt, die also alle n Objekte zyklisch vertauschen.
Tipp: Wie viele Möglichkeiten gibt es, die Einträge in dem n–Tupel (1 2 . . . n) zu permutieren? Wann beschreiben diese n–Tupel die gleiche Permutation?
30. Für welche x ∈ R haben die Matrizen


−1 − x
1
0


1
4−x
1
bzw.
0
1
−1 − x

2−x
0
3
 0
−2 − x
0 
3
0
1−x

den Maximalrang 3 , für welche nicht?
Tipp: Das Gaußverfahren eignet sich für solche Fragen nicht so gut; studieren Sie lieber
nochmal §6 der Vorlesung!
31. Sei A ∈ K n×n und B jene Matrix, welche aus A entsteht, indem man die n Zeilen mit
der Permutation σ ∈ Sn vertauscht. Beweisen Sie
det B = sign(σ) · det A .
32. Sei K ein Körper, u0 ∈ K n und U ein Untervektorraum des K n . Man zeige, dass
es eine Matrix A ∈ K n×n und einen (Spalten)vektor b ∈ K n gibt, so dass das lineare
Gleichungssystem Ax = b die genaue Lösungsmenge u0 + U ⊂ K n besitzt.
Musterlösung zu 32. Sei v1 , . . . , vk eine Basis von U . Wir ergänzen diese durch vk+1 , . . . , vn
zu einer Basis von V . Eine lineare Abbildung f : K n → K n ist durch ihre Werte auf einer
Basis eindeutig bestimmt, und man darf diese Werte auf einer Basis bekanntlich sogar
beliebig vorgeben. Wir definieren f darum z.B. durch
f (v1 ) = . . . = f (vk ) = 0 ∈ K n , f (vk+1 ) = ek+1 , . . . , f (vn ) = en .
(Die letzten n−k sind Standard–Einheitsvektoren, erzeugen also einen Bildvektorraum der
Dimension n − k .) Damit wird U = Kern f , und nun wählen wir die Matrix A ∈ K n×n
27
so, dass f (x) = Ax für alle x ∈ K n ist. Geht das? Klar: die Spalten von A sind einfach die
f (ej ), j = 1, . . . , n . Nun ist also U der Lösungsraum unseres homogenen Gleichungssystems
Ax = 0 . Woher erhalten wir die Inhomogenität b ∈ K n ? Wir definieren einfach b := Au0 .
33. Man beweise: Wenn in einer (multiplikativ geschriebenen) Gruppe G jedes a ∈ G die
Gleichung a2 = 1 erfüllt, dann ist G kommutativ.
Tipp: Bedenken Sie (ab)−1 = ab (nanu, wieso das?).
34. Sei K ein Körper, A ∈ K n×n und b, c ∈ K n (Spalten–)Vektoren. Beantworten Sie —
mit Begründung — die folgenden Fragen:
a) Ax = b besitze genau eine Lösung. Hat dann auch das Gleichungssystem Ax = c eine
Lösung x ∈ K n ?
b) Ax = b besitze keine Lösung. Gibt es dann ein c , für das Ax = c mehr als eine Lösung
x ∈ K n besitzt?
35. A sei eine endliche affine Ebene mit Axiomensystem wie in der Vorlesung (s.o. S. 9/10).
Beweisen Sie, dass alle Geraden gleichviele Punkte besitzen! Die Anzahl n dieser Punkte
nennt man übrigens die Ordnung von A .
Tipp: Es ist fast bequemer, noch etwas mehr zu beweisen, dass nämlich auch noch jede
Parallelenschar aus n Geraden besteht: Wenn die Geraden g und h nicht parallel sind und
n Punkte auf g liegen, dann zeigen Sie zunächst, dass es zu h genau n Parallelen gibt
— warum? Und dann nehmen Sie eine dritte Gerade k , nicht parallel zu h : In wievielen
Punkten wird die von der Parallelenschar zu h geschnitten? Sind das schon alle Punkte auf
k ? Was fehlt dann noch zum Beweis?
36. Eine Art Gegenstück zu Aufgabe 25, jetzt aber im Projekt–Stil: Seien A, B ∈ K n×n
quadratische Matrizen mit Einträgen im Körper K und Rängen r bzw. s . Wie groß wird
der Rang von AB mindestens werden?
Tipp: Wenn Sie sich nicht gern in uferlose Rechnungen stürzen, sollten Sie die Aufgabe
etwas abstrakter umformulieren in die Frage, wie der Rang einer zusammengesetzten linearen Abbildung f g : V → V ausfallen kann, wenn man die Ränge von f bzw. g kennt.
Zum Warmwerden könnten Sie schon mal für r + s ≤ n Beispiele konstruieren, in denen
Rang f g = 0 ist. Wenn Sie über dieses Beispiel meditieren, werden Sie merken, dass es
darauf ankommt, wie groß g(V ) ∩ Kern f wird bzw. werden kann, wenn r und s gegeben
sind.
Musterlösung. Seien Rang f = r und Rang g = s . Gesucht ist eine möglichst gute
untere Abschätzung von Rang f g = n− dim Kern f g oder — genauso gut — eine möglichst
gute obere Abschätzung von dim Kern f g . Nun ist
Kern f g = g −1 (g(V ) ∩ Kern f ) := { v ∈ V | g(v) ∈ (g(V ) ∩ Kern f ) } ,
und die Dimension dieses Unterraums lässt sich leicht berechnen, indem man eine Basis
von Kern g ergänzt durch weitere Basisvektoren, die auf eine Basis von g(V ) ∩ Kern f
abgebildet werden: Es ist
dim Kern f g = dim g −1 (g(V ) ∩ Kern f ) = dim Kern g + dim g(V ) ∩ Kern f =
28
= n − s + dim(g(V ) ∩ Kern f ) ,
dabei ist
dim(g(V ) ∩ Kern f ) = dim g(V ) + dim Kern f − dim(g(V ) + Kern f ) .
Dieser Ausdruck ist ≤ s + n − r − max{s, n − r} = min{s, n − r} , und dieses ist die
bestmögliche Abschätzung, wie man sich anhand der Extremfälle g(V ) ⊂ Kern f und
Kern f ⊂ g(V ) klar macht. Insgesamt ergibt sich also
dim Kern f g ≤ n − s + min{s, n − r} = min{2n − r − s, n}
bzw.
Rang f g = n − dim Kern f g ≥ max{r + s − n, 0} .
37. Fortsetzung von Aufgabe 33: Erfinden Sie eine Gruppe mit 4 Elementen, in der jedes
Element die Gleichung a2 = 1 erfüllt. Schaffen Sie es auch, so eine Gruppe mit 8 Elementen
zu konstruieren?
Tipp: Denken Sie an Symmetriegruppen!
38. A, B, C, D seien vier Punkte der rellen affinen Raums A3 (R) , die nicht in einer Ebene
liegen. Sie bilden die Eckpunkte eines Tetraeders. Jedes Randdreieck besitzt einen Schwerpunkt, d.h. den Schnittpunkt seiner Seitenhalbierenden (vg. S. 12). Man beweise: Verbindet
man jeden dieser Schwerpunkte mit dem gegenüberliegenden Eckpunkt des Tetraeders, so
schneiden sich diese vier Verbindungsstrecken in einem Punkt S . Dieser teilt alle vier
Verbindungsstrecken im Verhältnis 3 : 1 .
39. Zeigen Sie — nicht mit Schulmathematik, sondern mit den Mitteln von §9 der Vorlesung — dass sich in der rellen affinen Ebene die beiden Diagonalen eines Parallelogramms
gegenseitig halbieren.
40. Finden Sie die Lösungsmenge der linearen Gleichungssysteme



x1
1 0 0 2 0
 0 2 1 2 0   x2 



 0 1 1 0 2   x3  = b ,



 2 0 0 1 1   x4 
x5
0 2 0 1 2
5×5
wobei die Matrix
ist und für die Inhomogenität b ∈ F55 auf der rechten
 
 in F5 gewählt
0
0
0
1
 
 

1
0
zu setzen ist.
b)
b
=
Seite a) b = 
 
 
2
0
0
0
Tipp: Keine Angst vor dem Rechnen in F5 ! Solange Sie nicht dividieren (und das müssen
Sie nicht unbedingt), geht alles wie in Z , wenn Sie z.B. 1 = . . . = −4 = 6 = 11 = . . .
beachten. Allerdings aufpassen: Im Gaußverfahren ist Multiplikation der Zeilen mit
. . . , −5, 5, 10, 15, . . . nicht erlaubt, weil diese in F5 die Nullrestklasse ergeben.
29
41. Im affinen Raum A3 (K) seien durch
a1 x + a 2 y + a 3 z = a
b1 x + b 2 y + b3 z = b
c1 x + c2 y + c3 z = c
drei paarweise nicht parallele Ebenen gegeben, die sich also paarweise in je einer Geraden
schneiden. Insgesamt erhält man somit drei Schnittgeraden. Es kann vorkommen, dass das
System aus allen drei Gleichungen keine gemeinsame Lösung besitzt. Zeigen Sie, dass in
diesem Fall die drei Schnittgeraden parallel sind.
Musterlösung (Anul/Wolfart): Die Gleichungssysteme sind äquivalent zu
   

a
x
a1 a2 a3
 b1 b2 b3   y  =  b 
c
z
c1 c2 c3
d.h wir haben wieder ein Gleichungssystem der Form Ax = b. Wir wissen, dass solch
ein Gleichungssystem genau dann keine Lösung besitzt, wenn Rang(A) < Rang(A, b) .
Um dies zu erfüllen muss Rang(A) = 2 sein, denn der Rang(A, b) ≤ 3 (wegen der max.
Zeilenanzahl) und Rang(A) ≥ 2 weil die Ebenen nicht parallel sind.
Die durch die drei Gleichungen definierten Ebenen E1 , E2 , E3 sind sogar paarweise nicht
parallel, schneiden sich also in Geraden g1,2 := E1 ∩ E2 , g2,3 := E2 ∩ E3 bzw. g1,3 :=
E1 ∩ E3 , jeweils mit Richtungsvektoren r1,2 , r2,3 und r1,3 . Die Geraden g12 und g13 liegen
beide in E1 und müssen in E1 parallel sein, sonst hätten sie in dieser affinen Ebene einen
Schnittpunkt, und der läge nach Definition in E1 ∩ E2 ∩ E3 (leer nach Voraussetzung).
Es ist also L(r1,2 ) = L(r1,3 ) , die beiden Geraden sind also auch im Raum A3 (K) parallel. Genauso zeigt man (unter Verwendung von E2 ), dass g1,2 ||g2,3 ; damit sind alle drei
Geraden parallel.
cos α sin α
2
2
gegeben,
42. Die lineare Abbildung f : R → R sei durch die Matrix
sin α − cos α
α ∈ R beliebig
gewählt. Beweisen Sie, dass es eine Basis des R2 gibt, in der f durch die
1 0
beschrieben wird.
Matrix
0 −1
Musterl
Eine Matrix
S ist in der Aufgabe gesucht, welche die Gleichung
ösung (Huang):
cos
α
sin
α
cos
α
sin
α
1 0
spieS erfüllt. Die Spiegelungsmatrix
= S −1
sin α − cos α
sin α − cos α
0 −1
gelt die Vektorenan der Geraden,
die durch den Ursprung mit der x–Achse den Winkel α/2
1 0
bedeutet, dass alle Vektoren an der (neuen) x–Achse gespiegelt
einschließt. Und
0 −1
werden.
Wir suchen darum eine Drehmatrix mit derEigenschaft, alle
Vektoren gegen den Uhrzeigerα
α
cos 2 − sin 2
sinn um den Winkel α/2 zu drehen. S =
tut’s: Zum Überprüfen setzen
sin α2 cos α2
30
wir die Matrix
ein, passt!
cos α2 − sin α2
sin α2 cos α2
43. Bestimmen Sie alle Eigenwerte

0
4

0
0
sin α
1 0
−1 cos α
S
=S
in die Gleichung
sin α − cos α
0 −1
und alle Eigenvektoren der Matrix

4 0 0
6 0 0
 ∈ C4×4 .
0 0 −1
0 1 0
Tipp: Bedenken Sie, dass die Berechnung von Determinanten durch Entwicklung nach
Zeilen und Spalten ziemlich einfach werden kann, wenn die Matrix genügend viele Nullen
enthält. Wenn ein Polynom 4. Grades sich als Produkt zweier quadratischer Polynome
schreiben lässt, kann man seine Nullstellen leicht berechnen.
44. Bestimmen Sie Eigenwerte und Eigenräume der folgenden Matrizen in R3×3 .






0 1 3
0 0 3
0 0 3
0 3 0
0 3 0 ,
0 2 0 ,
1 1 2
1 0 2
1 0 2
Diagonalisierbar?
45. Zur Abwechslung mal wieder eine Aufgabe über Vektorräume unendlicher Dimension:
V := K N sei der K–Vektorraum aller unendlichen Folgen (a1 , a2 , a3 , . . . ) in K , und
f : V → V sei die lineare Shift–Abbildung dieses Folgenraums in sich, definiert durch die
Vorschrift (a1 , a2 , a3 , a4 , . . . ) 7→ (a2 , a3 , a4 , . . . ) . Ermitteln Sie alle Eigenwerte und dazu
jeweils alle Eigenvektoren!
Tipp: Determinante und charakteristisches Polynom gibt’s hier nicht; zurück zur Definition, und dann einfach ausprobieren!
46. Seien A, B ∈ K n×n quadratische Matrizen, jeweils mit n paarweise verschiedenen
Eigenwerten. Man beweise: Es gilt genau dann die Kommutativität AB = BA , wenn A
und B die gleichen Eigenvektoren besitzen.
Musterlösung: Die Eigenräume sind jeweils eindimensional; wenn also Av = λv ist, folgt
aus ABv = Bλv = λBv , dass auch Bv = 0 oder ein Eigenvektor von A zum Eigenwert λ
sein muss, also stets ein Vielfaches von v . Umgekehrt: Wenn beide Matrizen die gleichen
Eigenvektoren haben, nehme man eine Basis aus diesen Eigenvektoren; in dieser Basis sind
sowohl A als auch B diagonal, kommutieren also miteinander. Man spricht dabei auch von
simultaner Diagonalisierung. Beachte: A und B kommutieren genau dann miteinander,
wenn P −1 AP und P −1 BP kommutieren.
47. Zerlegen Sie das Polynom x4 − 1 ∈ K[x] in Faktoren möglichst kleinen Grades, und
zwar für die Körper K = R, C, F2 , F3 , F5 , F7 , F11 , F13 .
Tipp: Zwei der vier Nullstellen sehen Sie sofort. Ob dann noch x2 + 1 Nullstellen hat,
hängt sehr vom verwendeten Körper ab. Beachten Sie, dass in F2 sogar +1 = −1 ist.
31
48. Die Matrix A ∈ K n×n besitze den Rang m < n . Zeigen Sie, dass 0 Eigenwert von A
mit geometrischer Multiplizität n − m ist.
Musterlösung (Anul): Sei A ∈ K nxn mit Rang(A) = m < n . Wir wollen nun zeigen,
dass λ = 0 ein Eigenwert von A ist mit geometrischer Multiplizität n − m ist. Für einen
Eigenwert von A muss die Gleichung det(A − λE) = 0 erfüllt sein. Dies ist offensichtlich
erfüllt; da A nicht den vollen Rang hat, gilt: det(A − 0E) = det(A) = 0.
Die geometrische Multiplizität eines Eigenwertes ist definiert als die Dimension des zugehörigen Eigenraumes E(λ) = {x ∈ K n |Ax = λx} . Für λ = 0 ist E(λ) = Kern(A) . Inbesondere gilt dann mit der Dimensionsformel dim(E(λ)) = dim(Kern(A)) = dim(K n ) −
Rang(A) = n − m.
49. Sei B ∈ GL(n, R) . Beweisen Sie, dass hx, yi := xt B t By ein Skalarprodukt auf dem
Rn definiert. Geben Sie eine Orthonormalbasis für dieses Skalarprodukt an!
50. V sei der euklidische Vektorraum
der reellen Polynome vom Grad ≤ 3 , versehen mit
R1
dem Skalarprodukt hp, qi := 0 p(x)q(x)dx . Bestimmen Sie eine Orthonormalbasis von V .
51. Sei A ∈ O(n) eine orthogonale (n × n)–Matrix mit n reellen Eigenwerten. Beweisen
Sie A2 = E .
52. V sei euklidischer Vektorraum mit Untervektorräumen U, W . Das orthogonale Komplement von U ist U ⊥ := {v ∈ V | hv, ui = 0 ∀ u ∈ U } . Zeigen Sie, dass U ⊥ ein
Untervektorraum ist, und dass (U + W )⊥ = U ⊥ ∩ W ⊥ und (U ∩ W )⊥ ⊃ U ⊥ + W ⊥ gilt.
(Bei endlicher Dimension gilt auch hier die Gleichheit, aber das ist etwas komplizierter.)
Musterlösung:
1. Angenommen, es sei v⊥(U + W ) . Dann ist erst recht v⊥U und v⊥W , also auch
v ∈ U ⊥ ∩ W ⊥ , somit (U + W )⊥ ⊂ U ⊥ ∩ W ⊥ .
2. Umkehrung ähnlich: Wenn v ∈ U ⊥ ∩W ⊥ , dann ist v⊥U und v⊥W , nach der Linearität
des Skalarprodukts im zweiten Argument also auch v⊥(U + W ) .
3. Sei u + w ∈ U ⊥ + W ⊥ mit u ∈ U ⊥ , w ∈ W ⊥ , dann sind erst recht u und w beide
⊥U ∩ W , also u + w ∈ (U ∩ W )⊥ .
4. Bei endlicher Dimension n = dim V beweise man zunächst dim U ⊥ = n − dim U , indem
man eine Orthonormalbasis u1 , . . . , ur von U durch ur+1 , . . . , un zu einer Orthonormalbasis von V ergänzt und feststellt, dass die ur+1 , . . . , un gerade eine Orthonormalbasis von
U ⊥ bilden. Dann kann man im dritten Schritt sogar die Gleichheit zeigen, weil wegen der
Dimensionsformel für Untervektorräume die Gleichheit der Dimensionen gilt:
dim(U ∩ W )⊥ = n − dim(U ∩ W ) = n − dim U − dim W + dim(U + W ) =
dim U ⊥ + dim W ⊥ − dim(U + W )⊥ = dim U ⊥ + dim W ⊥ − dim(U ⊥ ∩ W ⊥ ) = dim(U ⊥ + W ⊥ )
53. Sei A ∈ O(n) , E die Einheitsmatrix. Man beweise Bild (A − E) ⊥ Kern (A − E) .
54. Durch die Ungleichung ||x|| < 1 wird im euklidischen Rn die Einheitskugel K beschrieben. Zeigen Sie: K ist konvex.
32
Musterlösung (Anul): Angenommen es gibt zwei Vektoren x, y ∈ Rn aus der Einheitskugel, sodass ein Punkt aus ihrer Verbindungsstrecke nicht in der Einheitskugel liegt, d.h.
kxk < 1, kyk < 1 und kλx + (1 − λ)yk ≥ 1 mit
0≤λ≤1
Daraus folgt mit der Dreiecksungleichung für die euklidische Norm
1 ≤ kλx + (1 − λy)k ≤ λkxk + (1 − λ)kyk < λ1 + (1 − λ)1 = 1
Widerspruch! (1 < 1)
55. Beweisen Sie: Jeder affine Unterraum des An (R) ist konvex.
5
Archiv für Bekanntmachungen
Eine kleine Warnung hinsichtlich Lernzentrum: Es ist in Ordnung, wenn Sie sich dort Tipps
holen; Sie sollten sie aber verstanden haben, wenn Sie sie verwenden — und natürlich bereit sein, die damit entstandene Lösung auch in der Übungsgruppe vorzutragen! Bitte keine
vorgefertigten Musterlösungen, die Sie nicht selbst durchschauen...
Klausur: Formalien
Jede/r, die/der die Modulteilprüfung bestehen will oder einen Übungsschein erwerben will,
muss die Klausur oder die Nachklausur bestehen. Alle, die einen erfolglosen Versuch dazu
am Ende des WS 07/08 gemacht haben, haben diese Alternative nicht, sie müssen die
Klausur jetzt direkt am Ende des Semesters bestehen; alle anderen können jetzt teilnehmen
und bei Misserfolg einen zweiten Versuch in der Nachklausur machen, es bleibt dann immer
noch ein dritter und letzter Versuch am Ende der Linearen Algebra des Sommersemesters
09 oder des Wintersemesters 09/10.
Eine besondere Anmeldung zur Klausur ist nicht erforderlich und findet zu Beginn der
Klausur per Ausfüllen eines Formblatts statt. Die Bachelor–Studierenden müssen sich allerdings im Januar im Prüfungsamt der Mathematik (Robert-Mayer-Str. 6–8, 2. OG, Zi.
215) zur Bachelor–Prüfung anmelden.
Es gibt delikate Unterschiede in den Prüfungsordnungen für Bachelor und L3: Für L3
kann eine missglückte Klausur in Linearer Algebra mit einer guten Klausur in der Geometrie des SoSe 09 ausgeglichen werden. Für die Bachelorstudierenden gibt es dies Möglichkeit
nicht, diese müssen beide Klausuren bestehen. Dafür haben die L3–Studierenden aber folgendes Handicap: nur Anspruch auf eine Nachprüfung (den 2. der drei Versuche), wenn in
der 1. Klausur 3 oder 4 Punkte erreicht wurden, entspricht also einer besseren Variante
von Note 5.
Es gibt keinen Freiversuch, das heißt: Wenn Sie die Klausur mit Note 4 bestehen, dürfen
Sie nicht in die Nachklausur zum Nachbessern. Überlegen Sie sich also gut, ob Sie nicht
33
von vornherein die Nachklausur als 1. Versuch ansteuern; das würde sich vor allem dann
lohnen, wenn Sie in der vorlesungsfreien Zeit Gelegenheit zum Lernen und Muße zum mathematischen Verdauungsprozess haben. Die Nachklausur wird mit gleicher Schwierigkeit,
unter den gleichen Bedingungen und im gleichen Stil wie die erste Klausur stattfinden, umfasst dann allerdings auch noch den letzten Paragraphen der Vorlesung, der in der ersten
Klausur unberücksichtigt bleibt.
Klausur: Spielregeln
Verboten ist die Verwendung von Mobiltelefonen, Taschenrechnern, Laptops, Bücher und
Skripten. Am besten gar nicht erst mitbringen! Wenn Sie den Tag nicht ohne Ihr Handy
verbringen können, dann dieses ausschalten und tief in eine verschlossene Tasche versenken. Jeder Betrugsversuch hat Ausschluss aus der Klausur und Note 6 zur Folge. Jeder
Teilnehmer muss bis zum Ende der Klausur auf seinem Platz bleiben. Toilettenbesuch nur
einzeln und unter Zurücklassung allen Materials.
Erlaubt ist ein eigenhändig handschriftlich hergestellter DIN A4 –Spickzettel, beidseitig
beschrieben (keine Kopie!).
Mitzubringen sind mindestens zwei funktionsfähige Stifte als Schreibzeug sowie Schmierpapier, am besten auch Bleistift und Radiergummi, ebenso Personalausweis, Studentenausweis oder Goethecard. Diese sichtbar auf den Tisch legen!
Sitzordnung: Jede zweite Reihe bleibt frei, zwischen Ihnen und Ihren nächsten Nachbarn
sind mindestens drei Plätze frei zu halten.
Die Klausur wird wie die unten angehängte Probeklausur aus fünf Aufgaben bestehen, jede
Aufgabe bringt bei komplett richtiger Lösung 20 Punkte. In den ersten beiden Aufgaben
sind nur die Ergebnisse anzugeben, und nur diese zählen, Rechenweg egal. Also einfach
Resultat auf das Blatt eintragen, fertig. Die dritte Aufgabe ist zum Ankreuzen, also eine
Art Multiple choice–Aufgabe. Bei den beiden letzten ist eine Begründung bzw. ein Beweis
gefragt, den Sie auf die Rückseite oder auf ein Extrablatt schreiben; bitte auf alle Blätter
Ihren Namen!! Bewertung: Bis zu 100 Klausurpunkte können in der Klausur erreicht
werden. Notenpunkte und Noten ergeben sich daraus wie folgt. Nicht bestanden ist die
Klausur mit
Klausurpunkten 0–15 16–25 26–35 36–40 41–45
Notenpunkten
0
1
2
3
4
Noten
6
5
5
5
5
Bestanden ist sie mit (Zeilen geben wieder Klausurpunkte, Notenpunkte, Note an)
46–50 51–55 56–60 61–65 66–70 71–75 76–80 81–85 86–90 91–95 96–100
5
6
7
8
9
10
11
12
13
14
15
4
4
3
3
3
2
2
2
1
1
1
Die Klausurergebnisse werden nach Korrektur an meiner Zimmertür — Robert–Mayer-Str.
34
6–8, 2. OG, Zi. 205 — und auf meiner Homepage anonymisiert für ca. 10 Tage aushängen.
Übungsscheine alter Art (z.B. für Studierende nicht-modularisierter Studiengänge) gibt es
dann direkt bei mir, ebenso kann ich Modulbescheinigungen für L–Studiengänge ausstellen (Vordruck ausgefüllt mitbringen, gibt es zum Herunterladen auf der ZPL–Homepage);
meine Sprechstunden sind an meiner Zimmertür bzw. in meiner Homepage zu finden. Modulbescheinigungen für Bachelors stellt Fr. Weiglhofer im Prüfungsamt der Mathematik
aus (wie oben Zi. 215).
Der wichtigste Tipp für die Klausur: Lesen Sie die Aufgaben genau! Nichts ist ärgerlicher,
als wenn man nachher merkt, dass man die Aufgabe falsch verstanden hat und z.B. die
falsche Richtung der Behauptung bewiesen hat.....
Gehen Sie nochmal die Probeklausur durch und die Musterlösungen zu den Hausaufgaben
dieses Semesters. Bedenken Sie, dass viele Klausuraufgaben kleine Varianten alter Hausaufgaben sein werden! Lesen Sie nochmal die auf S. 32–34 versammelten Anweisungen zur
Klausur sorgfältig durch und überlegen Sie sich gut, was Sie auf Ihren Spickzettel speichern
wollen.
Gilt alles genauso für die Nachklausur!
Probeklausur: Lösungen



1. Geben Sie den Rang der Matrix 


Koeffizienten a) in C : 5
1
0
0
2
0
b) in F3 : 4
0
2
1
0
2
0
1
1
0
0
2
2
0
1
1
0
0
2
1
2
c) in F5 : 4



 an, und zwar als Matrix mit


d) in F11 : 5
−1
cos α sin α
cos α − sin α
,
=
2. Tragen Sie hier die Resultate ein für
− sin α cos α
sin α cos α

3


2
1 0 12
1 0 4
1 0
cos α sin α
,  0 2 0  = 0 8 0 
=
0 1
sin α − cos α
0 0 1
0 0 1
3. Hier sind 9 Behauptungen, von denen genau 5 richtig und 4 falsch sind. Kreuzen Sie
die 5 richtigen an, nicht mehr und nicht weniger! Bei 5 richtig gesetzten Kreuzen gibt’s 20
Punkte, bei 4 Richtigen 12 Punkte und bei 3 Richtigen 4 Punkte.
Für alle zusammengesetzten Abbildungen gilt: f g surjektiv ⇒ g surjektiv
2
2
R hat genau vier Untervektorräume
2
vn Linearkombination der Vektoren v1 , . . . , vn−1 ⇒ v1 , . . . , vn linear abhängig
X
Der Kern einer linearen Abbildung ist ein Untervektorraum
35
X
Der Rang einer Matrix bleibt bei elementaren Umformungen erhalten
Die Determinante ändert ihr Vorzeichen, wenn man zwei Spalten vertauscht
X
X
Das Matrixprodukt AB existiert immer, wenn Zeilenzahl A = Spaltenzahl B
Der affine Raum A3 (F3 ) besitzt 26 Punkte
In Gruppen gilt die Kürzungsregel ab = ac ⇒ b = c
2
2
X
4. A sei eine endliche affine Ebene, dann gibt es bekanntlich (s. Übungsaufg. 35) eine
natürliche Zahl n , so dass auf jeder Geraden n Punkte liegen. Beweisen Sie mit Hilfe dieser
Eigenschaft und den Axiomen für affine Ebenen, dass jeder Punkt auf n + 1 Geraden liegt.
Beweis. Sei P ein Punkt und g eine Gerade, die nicht durch P geht. Deren Punkte seien
Q1 , . . . , Qn . Die Verbindungsgeraden P Qj sind alle verschieden: Wäre P Qi = P Qj für
i 6= j , so wären P Qi und g zwei verschiedene Verbindungsgeraden von Qi und Qj im Widerspruch zur Eindeutigkeit der Verbindungsgeraden. Außer diesen n Verbindungsgeraden
gibt es noch genau eine weitere Gerade durch P , welche g nicht trifft, nämlich die Parallele.
5. f : V → W sei ein Epimorphismus von K–Vektorräumen, also eine surjektive lineare
Abbildung; sei U := Kern f . Zeigen Sie, dass der Quotientenraum V /U und der Bildraum
W isomorph sind.
Beweis. Einen Isomorphismus F : V /U → W kann man einfach durch F (v + U ) := f (v)
definieren. Zu zeigen sind:
a) F ist wohldefiniert: Wenn v + U = v ′ + U , dann gibt es ein u ∈ U mit v ′ = v + u , also
f (v ′ ) = f (v + u) = f (v) + f (u) = f (v) + 0 = f (v) wegen U := Kern f .
b) F linear, weil repräsentantenweise via f definiert und f linear — fast trivial.
c) F surjektiv, weil f surjektiv: Jedes Bild von f kommt als Bild von F vor.
d) F injektiv, weil Kern F = {0 + U } wegen Kern f = U ist, und 0 + U ist der Nullvektor
in V /U .
6
Letzte Meldungen
Das Repetitorium zu Linearen Algebra wird 7 Doppelstunden umfassen und vom 16. bis
20. plus 30./31. März stattfinden, jeweils von 17.00 (s.t.) bis mindestens 18.30 Uhr.
Hier eine Latte von Aufgaben für die Ferien, für’s Repetitorium und für die Vorbereitung
zur Nachklausur.
Diese findet statt am Mittwoch, 15.4.09, 8.15 – 9.45 Uhr im Hörsaal I.
56. Seien A, B ∈ K n×n gegeben mit der Eigenschaft AB − BA = E (Einheitsmatrix).
Zeigen Sie: Für alle natürlichen Exponenten m ist Am B − BAm = mAm−1 .
36
a b
. Gibt es überhaupt Matrizen X ∈ K n×n mit AX − XA = E ?
57. Sei A :=
c d
Untersuchen Sie das Problem für K = R und K = F2 .
58. In einer (multiplikativ geschriebenen) Gruppe G sei ab = ba . Gilt dann auch
a−1 b = ba−1 ?
59. Beweisen Sie, dass die Symmetriegruppe des regulären Ikosaeders die Ordnung 120
besitzt.


1 1

1 1
 zu einer orthogonalen Matrix in O4 .
60. Ergänzen Sie 12 

1 −1
1 −1
61. V sei endlich–dimensionaler euklidischer Vektorraum, U ⊂ V ein Untervektorraum.
Beweisen Sie V = U ⊕ U ⊥ . Erinnerung: V ist die direkte Summe U ⊕ W der beiden
Untervektorräume U, W , wenn V = U + W und U ∩ W = {0} .
62. In welchem Winkel schneiden sich die Diagonalen eines Würfels?
63. Man beweise: Wenn eine orthogonale Matrix gleichzeitig obere Dreiecksmatrix ist, dann
ist sie sogar Diagonalmatrix.
64. Zeigen Sie, dass in der Carathéodory–Beschreibung
der Punkte des n–Simplexes mit
Pn
Pn
m
Eckpunkten a0 , . . . , an ∈ R , also in
i=0 xi ai ,
i=1 xi = 1 mit xi ≥ 0 , die Koeffizienten xi eindeutig bestimmt sind.
65. P ∈ K n×n besitze in jeder Zeile und in jeder Spalte genau eine 1 und sonst nur die
Einträge 0 . Welche Wirkung hat die Multiplikation von P von links auf eine n × n–Matrix
A ? Und von rechts? Begründen Sie: Für K = R ist P ∈ On .
66. A ∈ K n×n habe die Eigenschaft An = 0 . Zeigen Sie: 0 ist der einzige Eigenwert von
A . Ist A die Nullmatrix?
67. U sei ein Eigenraum der Matrix A ∈ K n×n . Zeigen Sie, dass für jedes m ∈ N dieser
Eigenraum U Untervektorraum eines Eigenraums von Am ist. Ist U sogar Eigenraum von
Am ?
37

Documentos relacionados