Vorlesungsskript
Transcrição
Vorlesungsskript
Ein Skript für Lineare Algebra (Spezielle Aspekte der Mathematik) Chris Preston Sommersemester 2008 Inhaltsverzeichnis 1 Lineare Gleichungssysteme 2 2 Untervektorräume 16 3 Basen 25 4 Matrizen 31 5 Diagonalisierbarkeit von Matrizen 44 6 Die Fibonacci-Zahlen 59 7 Das Skalarprodukt 65 1 Lineare Gleichungssysteme Sei n ≥ 1; mit Rn wird die Menge aller n-Tupel reeller Zahlen bezeichnet. Ein Element von Rn hat also die Form (x1 , . . . , xn ) mit x1 , . . . , xn Elemente aus R. Die Elemente von Rn werden Vektoren genannt. Zum Beispiel sind (3, −4, 6), (1, 0, 42) und (−1, −1, −2) Vektoren in R3 , (3, 4, 5, 1) ist ein Vektor in R4 und (1, 2, 3, 4, 5, 6, 7, 8, 9) ein Vektor in R9 . Ist v = (x1 , . . . , xn ) ∈ Rn ein Vektor und ist 1 ≤ k ≤ n, so heißt xk die k-te Komponente von v. Per Definition gilt (x1 , . . . , xn ) = (y1 , . . . , yn ) genau dann, wenn xk = yk für jedes k = 1, . . . , n. Zwei Vektoren u, v ∈ Rn sind also genau dann gleich, wenn für jedes k = 1, . . . , n ihre k-ten Komponenten gleich sind. Der Vektor (0, . . . , 0) ∈ Rn heißt Null-Vektor und wird mit 0 bezeichnet. Die Vektoren e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . ., en = (0, . . . , 0, 1) heißen die Einheitsvektoren in Rn . Eine Addition auf Rn wird erklärt durch (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn ) und eine Multiplikation eines Elements von Rn mit einer reellen Zahl durch c (x1 , . . . , xn ) = (cx1 , . . . , cxn ) . Zum Beispiel ist in R3 (2, 3, 4) + (4, 8, 1) (4, −2, 0) + (−4, −5, 4) 4(2, 3, −7) (−3)(4, −2, 5) = = = = (2 + 4, 3 + 8, 4 + 1) = (6, 11, 5) , (4 + −4, −2 + −5, 0 + 4) = (0, −7, 4) , (4 · 2, 4 · 3, 4 · (−7)) = (8, 12, −28) , (−3 · 4, −3 · (−2), −3 · 5) = (−12, 6, −15) = = = = = (1 + −7, 2 + 4, 3 + 8, 4 + 1) = (−6, 6, 11, 5) , (6 + 2, 4 + −4, −2 + −5, 0 + 4) = (8, 0, −7, 4) , (4 · 8, 4 · 2, 4 · 3, 4 · (−7)) = (32, 8, 12, −28) , ((−3) · 2, −3 · 4, −3 · (−2), −3 · 5) (−6, −12, 6, −15) . und in R4 (1, 2, 3, 4) + (−7, 4, 8, 1) (6, 4, −2, 0) + (2, −4, −5, 4) 4(8, 2, 3, −7) (−3)(2, 4, −2, 5) Aus den entsprechenden Regeln für die Addition und Multiplikation von reellen Zahlen sieht man leicht, dass die Addition und die Skalar-Multiplikation von Vektoren in Rn den folgenden Regeln unterliegen: 2 3 1 Lineare Gleichungssysteme (A1) Für alle u, v, w ∈ Rn gilt (u + v) + w = u + (v + w). (A2) Für alle u, v ∈ Rn gilt u + v = v + u. (A3) Für alle v ∈ Rn ist 0 + v = v. (A4) Zu jedem v ∈ Rn gibt es ein eindeutiges −v ∈ Rn mit (−v) + v = 0. Ist v = (x, y), so ist −v = (−x, −y). (M1) Für alle c, d ∈ R und alle v ∈ Rn gilt (cd)v = c(dv). (M2) Für alle v ∈ Rn ist 1v = v. (D1) Für alle c ∈ R und alle u, v ∈ Rn gilt c(u + v) = cu + cv. (D2) Für alle c, d ∈ R und alle v ∈ Rn gilt (c + d)v = cv + dv. Man beachte: Für alle v ∈ Rn , c ∈ R ist cv 6= 0 genau dann, wenn c 6= 0 und v 6= 0. Insbesondere ist c0 = 0v = 0. Seien u, v ∈ Rn ; dann wird der Vektor v + −u meistens mit v − u bezeichnet. Ist u = (x1 , . . . , xn ) und v = (y1 , . . . , yn ), so ist v − u = (x1 − y1 , . . . , xn − yn ). Ferner ist v − u der eindeutige Vektor mit v = u + (v − u). Seien u, v ∈ Rn ; dann heißt v ein Vielfaches von u, wenn es ein t ∈ R mit v = tu gibt. Für jedes u ∈ Rn ist der Null-Vektor 0 ein Vielfaches von u, da 0 = 0u. Andererseits ist 0 das einzige Vielfache von 0, da t 0 = 0 für alle t ∈ R. Da die Addition in Rn assoziativ ist (d.h. (A1) gilt), können wir eine Summe v1 + · · · + vm von m Vektoren v1 , . . . , vm ohne Klammern schreiben. Genauso schreiben wir c1 v1 + · · · + cm vm für eine Summe von Vielfachen der Vektoren v1 , . . . , vm . Zum Beispiel ist 2(2, 3, 4) + 3(4, 8, 1) + 4(2, 1, 6) = (2 · 2, 2 · 3, 2 · 4) + (3 · 4, 3 · 8, 3 · 1) + (4 · 2, 4 · 1, 4 · 6) = (4, 6, 8) + (12, 24, 3) + (8, 4, 24) = (4 + 12 + 8, 6 + 24 + 4, 8 + 3 + 24) = (24, 34, 35) . Seien m, n ≥ 1; eine m × n Matrix ist R nach folgendem Schema a11 a12 a21 a22 .. .. . . am1 am2 eine Anordnung von mn Elementen von · · · a1n · · · a2n .. . · · · amn . 4 1 Lineare Gleichungssysteme Zum Beispiel sind 1 2 3 4 −1 −4 3 4 0 4 5 3 und 2 4 −5 −3 3 3 3 3 −1 3 −3 3 3 × 4 Matrizen und sind 4 × 3 Matrizen. 2 4 8 3 3 5 7 3 −4 3 4 4 3 und 4 −5 −3 3 −8 −9 4 3 −3 3 3 Die Menge der m × n Matrizen wird mit M(m × n, R) bezeichnet. Sei a11 · · · a1n .. ∈ M(m × n, R) ; A = ... . am1 · · · amn eine m × n Matrix; dann schreibt man auch A = (aij )1≤i≤m, 1≤j≤n oder nur A = (aij ). Seien 1 ≤ i ≤ m, 1 ≤ j ≤ n; der waagerecht geschriebene n-Tupel (ai1 , . . . , ain ) wird die i-te Zeile von A und der senkrecht geschriebene m-Tupel a1j .. . amj die j-te Spalte von A genannt. Die Zeilen von A werden als Elemente von Rn und die Spalten von A als Elemente von Rm betrachtet. Zum Beispiel ist 3 5 2 die 3-te Spalte und (0, 4, 5, 3) die 2-te Zeile der 3 × 4 Matrix 1 2 3 4 0 4 5 3 . 3 3 2 3 Die Matrix 0 ··· .. . 0 .. ∈ M(m × n, R) . 0 ··· 0 1 Lineare Gleichungssysteme 5 wird mit 0 bezeichnet. Da die Spalten von A ∈ M(m × n, R) als Elemente von Rm betrachtet werden, können wir die Spalten addieren und mit Elementen von R multilplizieren. Zum Beispiel ist 3 4 1 4·3 2·4 3·1 45 + 23 + 30 = 4 · 5 + 2 · 3 + 3 · 0 2 3 3 4·2 2·3 3·3 12 8 3 = 20 + 6 + 0 8 6 9 12 + 8 + 3 23 = 20 + 6 + 0 = 26 . 8+6+9 23 Seien m, n ≥ 1 und A = (aij ) ∈ M(m × n, R), b = (b1 , . . . , bm ) ∈ Rm ; dann heißt a11 x1 + a12 x2 + · · · + a1n xn = b1 a21 x1 + a22 x2 + · · · + a2n xn = b2 .. . am1 x1 + am2 x2 + · · · + amn xn = bm das zu A und b gehörige lineare Gleichungssystem. Ein Vektor (y1 , . . . , yn ) ∈ Rn heißt Lösung des zu A und b gehörigen linearen Gleichungssystems, wenn y1 , . . . , yn die m Gleichungen erfüllen, d.h., wenn a11 y1 + a12 y2 + · · · + a1n yn = b1 a21 y1 + a22 y2 + · · · + a2n yn = b2 .. . am1 y1 + am2 y2 + · · · + amn yn = bm Die Menge aller Lösungen des Systems wird mit Lös(A, b) bezeichnet. Beispiel: Betrachte die 3 × 4 Matrix 4 2 3 4 A = 2 4 5 3 . 3 3 2 3 und den Vektor b = (9, 3, 7) ∈ R3 . Dann ist 4x1 + 2x2 + 3x3 + 4x4 = 9 2x1 + 4x2 + 5x3 + 3x4 = 3 3x1 + 3x2 + 2x3 + 3x4 = 7 6 1 Lineare Gleichungssysteme das zu A und b gehörige lineare Gleichungssystem und der Vektor (1, 0, −1, 2) ist eine Lösung, da 4 · 1 + 2 · 0 + 3 · (−1) + 4 · 2 = 9 2 · 1 + 4 · 0 + 5 · (−1) + 3 · 2 = 3 3 · 1 + 3 · 0 + 2 · (−1) + 3 · 2 = 7 . Satz 1.1 Seien A ∈ M(m × n, R), b ∈ Rm ; seien v1 , . . . , vn ∈ Rm die Spalten von A. Dann ist (y1 , . . . , yn ) ∈ Rn eine Lösung des zu A und b gehörigen linearen Gleichungssystems genau, wenn y1 v1 + · · · + yn vn = b . Beweis Sei A = (aij ), und insbesondere ist a1j a2j vj = .. . amj die j-te Spalte von A für jedes j = 1, . . . , n; sei b = (b1 , . . . , bm ). Nun ist a11 a1n y1 v1 + · · · + yn vn = y1 ... + · · · + yn ... am1 = y1 a11 .. . y1 am1 amn yn a1n . + · · · + .. yn amn y1 a11 + · · · + yn a1n a11 y1 + · · · + a1n yn .. .. = = . . y1 am1 + · · · + yn amn am1 y1 + · · · + amn yn und folglich gilt y1 v1 + · · · + yn vn = b genau dann, wenn a11 y1 + · · · + a1n yn = b1 .. . am1 y1 + · · · + amn yn = bm , d.h. genau dann, wenn (y1 , . . . , yn ) eine Lösung des zu A und b gehörigen linearen Gleichungssystems ist. 1 Lineare Gleichungssysteme 7 Beispiel: Betrachte wieder die 3 × 4 Matrix 4 2 3 4 A = 2 4 5 3 . 3 3 2 3 und den Vektor b = (9, 3, 7) ∈ R3 . Seien 4 2 3 4 v1 = 2 , v2 = 4 , v3 = 5 , v4 = 3 3 3 2 3 die Spalten von A. Dann ist 4 2 3 4 1 · v1 + 0 · v2 + (−1) · v3 + 2 · v4 = 1 2 + 0 4 + (−1) 5 + 2 3 3 3 2 3 1 · 4 + 0 · 2 + (−1) · 3 + 2 · 4 = 1 · 2 + 0 · 4 + (−1) · 5 + 2 · 3 1 · 3 + 0 · 3 + (−1) · 2 + 2 · 3 9 = 3 = b 7 und damit ist der Vektor (1, 0, −1, 2) eine Lösung. Das Gleichungssystem heißt lösbar, wenn Lös(A, b) mindestens ein Element von Rn enthält. Es heißt eindeutig lösbar, wenn Lös(A, b) aus genau einem Element von Rn besteht. Das zu A und b gehörige lineare Gleichungssystem heißt homogen, wenn b = 0, d.h., wenn bj = 0 für jedes j = 1, . . . , m. Ein homogenes Gleichungssystem besitzt stets die triviale Lösung 0 = (0, . . . , 0). (Insbesondere ist ein homogenes Gleichungssystem stets lösbar.) Satz 1.2 Seien A ∈ M(m × n, R), b ∈ Rm , u ∈ Lös(A, b) und u′ ∈ Rn . Dann gilt u′ ∈ Lös(A, b) genau, wenn u′ − u ∈ Lös(A, 0). Beweis Sei u = (y1 , . . . , yn ), u′ = (y1′ , . . . , yn′ ) und seien v1 , . . . , vn ∈ Rm die Spalten von A. Da u ∈ Lös(A, b), ist nach Satz 1.1 y1 v1 + · · · + yn vn = b und folglich ist y1′ v1 + · · · + yn′ vn = (y1 v1 + · · · + yn vn ) + ((y1 − yn′ )v1 + · · · + (yn − yn′ )vn ) = b + ((y1 − yn′ )v1 + · · · + (yn − yn′ )vn ) . 1 Lineare Gleichungssysteme 8 Nach Satz 1.1 gilt also u′ ∈ Lös(A, b) genau dann, wenn (y1 − yn′ )v1 + · · · + (yn − yn′ )vn = 0 und wieder nach Satz 1.1 gilt (y1 −yn′ )v1 + · · ·+ (yn −yn′ )vn = 0 genau dann, wenn (y1 − y1′ , . . . , yn − yn′ ) ∈ Lös(A, 0), d.h. genau dann, wenn u′ − u ∈ Lös(A, 0). Nach Satz 1.2 erhält man alle Lösungen des zu A und b gehörigen Gleichungssystems, indem man zu einer speziellen Lösung dieses Systems alle Lösungen des homogenen Gleichungssystems addiert: Sei u ∈ Lös(A, b); ist w ∈ Lös(A, 0), so ist u′ = u + w ∈ Lös(A, b), da w = u′ − u. Ist umgekehrt u′ ∈ Lös(A, b), so ist u′ = u + w mit w = u′ − u und u′ − u ∈ Lös(A, 0). Beispiel: Betrachte die 3 × 4 Matrix 1 2 1 4 A = 2 1 4 5 . 1 3 6 5 und den Vektor b = (8, 12, 15) ∈ R3 . Dann ist 1x1 + 2x2 + 1x3 + 4x4 = 8 2x1 + 1x2 + 4x3 + 5x4 = 12 1x1 + 3x2 + 6x3 + 54 = 15 das zu A und b gehörige lineare Gleichungssystem und der Vektor (1, 1, 1, 1) ist eine Lösung, da 1·1+2·1+1·1+4·1 = 8 2 · 1 + 1 · 1 + 4 · 1 + 5 · 1 = 12 1 · 1 + 3 · 1 + 6 · 1 + 5 · 1 = 15 . Ferner ist (−2, −1, 0, 1) eine Lösung des homogenen Gleichungssytems, da 1 · (−2) + 2 · (−1) + 1 · 0 + 4 · 1 = 0 2 · (−2) + 1 · (−1) + 4 · 0 + 5 · 1 = 0 1 · (−2) + 3 · (−1) + 6 · 0 + 5 · 1 = 0 , und damit ist (1, 1, 1, 1) + (−2, −1, 0, 1) = (−1, 0, 1, 2) auch eine Lösung des zu A und b gehörigen Gleichungssystems. 1 Lineare Gleichungssysteme 9 Unter elementaren Zeilenumformungen einer Matrix versteht man die folgenden Operationen: I Addition eines Vielfachen einer Zeile zu einer anderen Zeile. II Vertauschen zweier Zeilen. Zu jeder dieser Umformungen gibt es eine entsprechende Umkehr-Umformung: – Entsteht A′ durch Addition des c-fachen der p-ten Zeile zu der q-ten Zeile von A, (wobei c ∈ R und p 6= q), so erhält man A wieder durch Addition des −c-fachen der p-ten Zeile zu der q-ten Zeile von A′ . – Entsteht A′ durch Vertauschen der p-ten und der q-ten Zeile von A, so erhält man A wieder durch Vertauschen der p-ten und der q-ten Zeile von A′ . Wird eine Matrix A durch eine elementare Zeilenumformung zu einer Matrix A′ verändert, so gilt A′ = 0 genau dann, wenn A = 0. Seien m, n ≥ 1 und A = (aij ) ∈ M(m × n, R), b = (b1 , . . . , bm ) ∈ Rm ; dann wird die m × (n + 1) Matrix a11 · · · a1n b1 .. .. .. . . . am1 · · · amn bm mit (A, b) bezeichnet. Satz 1.3 Wird (A, b) durch eine elementare Zeilenumformung zu einer Matrix (A′ , b′ ) verändert, so gilt Lös(A, b) = Lös(A′ , b′ ). Beweis Entsteht (A′ , b′ ) aus (A, b) durch Vertauschen zweier Zeilen, so ist es klar, dass Lös(A, b) = Lös(A′ , b′ ). Nehme also an, dass (A′ , b′ ) aus (A, b) durch eine Zeilenumformung vom Typ I entsteht. Genauer wird angenommen, dass (A′ , b′ ) durch Addition des c-fachen der p-ten Zeile zu der q-ten Zeile von (A, b) entsteht, (wobei c ∈ R und p 6= q). Seien A′ = (a′ij ), b′ = (b′1 , . . . , b′m ); dann gilt – a′ij = aij für alle j = 1, . . . , n, i 6= q, – a′qj = aqj + capj für alle j = 1, . . . , n, – b′i = bi für i 6= q, – b′q = bq + cbp . Sei y = (y1 , . . . , yn ) ∈ Lös(A, b); d.h., ai1 y1 + ai2 y2 + · · · + ain yn = bi für jedes i = 1, . . . , m. Dann gilt a′i1 y1 + a′i2 y2 + · · · + a′in yn = ai1 y1 + ai2 y2 + · · · + ain yn = bi = b′i 10 1 Lineare Gleichungssysteme für jedes i 6= q und a′q1 y1 + a′q2 y2 + · · · + a′qn yn = (aq1 + cap1 )y1 + (aq2 + caq2 )y2 + · · · + (aqn + capn )yn = aq1 y1 + aq2 y2 + · · · + aqn yn + c(ap1 y1 + ap2 y2 + · · · + apn yn ) = bq + cbp = b′q , und damit ist y ∈ Lös(A′ , b′ ). Sei umgekehrt y = (y1 , . . . , yn ) ∈ Lös(A′ , b′ ); d.h., a′i1 y1 + a′i2 y2 + · · · + a′in yn = b′i für jedes i = 1, . . . , m. Dann gilt ai1 y1 + ai2 y2 + · · · + ain yn = a′i1 y1 + a′i2 y2 + · · · + a′in yn = b′i = bi für jedes i 6= q und aq1 y1 + aq2 y2 + · · · + aqn yn = (a′q1 − cap1 )y1 + (a′q2 − caq2 )y2 + · · · + (a′qn − capn )yn = a′q1 y1 + a′q2 y2 + · · · + a′qn yn − c(ap1 y1 + ap2 y2 + · · · + apn yn ) = b′q − cbp = bq ; folglich ist y ∈ Lös(A, b). Dies zeigt also, dass Lös(A, b) = Lös(A′ , b′ ). Beispiel: Betrachte die 2 × 2 Matrix A= 1 2 2 5 und den Vektor b = (3, 7) ∈ R2 . Dann ist 1x1 + 2x2 = 3 2x1 + 5x2 = 7 das zu A und b gehörige lineare Gleichungssystem. Sei (A′ , b′ ) die Matrix, die aus (A, b) durch Addition des −2-fachen der 1-ten Zeile zu der 2-ten Zeile von (A, b) entsteht. Folglich ist 1 2 ′ A = 0 1 und b′ = (3, 1) und das zu A′ und b′ gehörige lineare Gleichungssystem ist 1x1 + 2x2 = 3 x2 = 1 Es ist klar, dass dieses System eindeutig lösbar ist mit Lös(A′ , b′ ) = {(1, 1)}. Damit ist nach Satz 1.3 das zu A und b gehörige lineare Gleichungssystem auch eindeutig lösbar mit Lös(A, b) = {(1, 1)}. 11 1 Lineare Gleichungssysteme Eine Matrix A ∈ M(m × n, R) hat Zeilen-Stufen-Form, wenn für jede Zeile der Matrix folgende zwei Bedingungen erfüllt sind: – Sind die ersten p Elemente der Zeile Null für ein p mit p < n, so sind für alle folgenden Zeilen mindestens die ersten p + 1 Elemente Null. – Sind alle Elemente der Zeile Null, so ist jedes Element von jeder der folgenden Zeilen Null. (Eine solche Matrix sieht 0 0 ∗ · 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 etwa so aus: · ∗ 0 0 0 0 0 0 0 0 · · ∗ 0 0 0 0 0 0 0 · · · ∗ 0 0 0 0 0 0 · · · · 0 0 0 0 0 0 · · · · · · · · 0 ∗ 0 0 0 0 0 0 0 0 0 0 · · · · · · · · · · ∗ · 0 ∗ 0 0 0 0 0 0 · · · · · · · · · · · · · · · · · · · · · 0 0 ∗ 0 0 0 0 0 0 · · · · · · · · 0 0 Dabei sind die mit einem Stern angedeuteten Elemente verschieden von Null und die mit einem Punkt angedeuteten Elemente beliebig. Die mit einem Stern angedeuteten Elemente bezeichnen also, soweit vorhanden, in jeder Zeile das erste nicht-verschwindende Element.) Insbesondere hat die Null-Matrix 0 Zeilen-Stufen-Form. Sei A = (aij ) ∈ M(m × n, R) mit A 6= 0 und für i = 1, . . . , m sei min{1 ≤ j ≤ n : aij 6= 0} falls (ai1 , . . . , ain ) 6= 0 , pi = 0 sonst . Die Matrix A (mit A 6= 0) hat also Zeilen-Stufen-Form genau dann, wenn 1 ≤ p 1 < p2 < · · · < pr , wobei r der Index der letzten von Null verschiedenen Zeile von A ist. Hat A Zeilen-Stufen-Form, so nennt man p1 , . . . , pr die Treppen-Folge von A. Da r der Index einer Zeile ist, ist 1 ≤ r ≤ m. Da aber 1 ≤ p1 < p2 < · · · < pr , ist auch r ≤ n. Daher ist 1 ≤ r ≤ max{m, n}. Satz 1.4 Seien A = (aij ) ∈ M(m × n, R), b = (b1 , . . . , bm ) ∈ Rm mit (A, b) 6= 0. Nehme an, dass (A, b) Zeilen-Stufen-Form hat, und sei p1 , . . . , pr die TreppenFolge von (A, b). Dann ist das zu A und b gehörige lineare Gleichungssystem lösbar genau, wenn pr 6= n + 1. Ferner ist das Gleichungssystem eindeutig lösbar genau dann, wenn r = n und pj = j für jedes j = 1, . . . , n. 12 1 Lineare Gleichungssysteme Beweis 0 0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 · · 0 ∗ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 · · ∗ 0 0 0 0 0 0 0 · · · ∗ 0 0 0 0 0 0 · · · · 0 0 0 0 0 0 · · · · · · · · 0 ∗ 0 0 0 0 0 0 0 0 0 0 · · · · · · · · · · ∗ · 0 ∗ 0 0 0 0 0 0 · · · · · · · · · · · · · · · · · · · · · · · · · · · · 0 0 0 ∗ 0 0 0 0 0 0 0 0 · · · · · · · · · · ∗ · 0 ∗ 0 0 0 0 0 0 · · · · · · · · · · · · · · 0 ∗ 0 0 0 0 nicht lösbar 0 0 0 0 0 0 0 0 0 0 0 ∗ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 · · 0 ∗ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 · · ∗ 0 0 0 0 0 0 0 · · · ∗ 0 0 0 0 0 0 · · · · 0 0 0 0 0 0 · · · · · · · · 0 ∗ 0 0 0 0 0 0 0 0 0 0 lösbar ∗ · 0 ∗ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 · · · · ∗ · 0 ∗ 0 0 0 0 0 0 0 0 0 0 0 0 · · · · · · · · · · · · ∗ · · 0 ∗ · 0 0 ∗ 0 0 0 0 0 0 0 0 0 eindeutig lösbar · · · · · · · · · · · · · · ∗ · 0 0 0 0 · · · · · · · · 0 0 · · · · · · · · 0 0 Satz 1.5 Jede Matrix in M(m×n, R) läßt sich durch eine Folge von elementaren Zeilenumformungen in eine Matrix mit Zeilen-Stufen-Form überführen. 1 Lineare Gleichungssysteme 13 Beweis Der Beweis besteht in der Angabe des Gaußschen Algorithmus, der die gesuchte Folge von elementaren Zeilenumformungen bestimmt. Der Hauptschritt dieses Algorithmus wird nun beschrieben. Sei A = (aij ) ∈ M(m × n, R); für jedes j = 1, . . . , n bezeichne mit bj (A) die m × j reelle Matrix, die aus den ersten j Spalten von A besteht. Sei max{j : bj (A) hat Zeilen-Stufen-Form} falls es ein solches j gibt , ′ q = 0 sonst , und definiere p′ ≥ 0 wie folgt: — p′ = 0, falls q ′ = 0 oder q ′ > 0 und bq′ (A) = 0, — p′ sei der Index der letzten von Null verschiedenen Zeile von bq′ (A), falls q ′ > 0 und bq′ (A) 6= 0. Setze p = p′ + 1 und q = q ′ + 1. Nehme jetzt an, dass A nicht Zeilen-StufenForm hat. Dann ist q ≤ n; ferner ist p ≤ m und es gibt mindestens ein i mit p ≤ i ≤ m und aiq 6= 0 (sonst hätte bq (A) Zeilen-Stufen-Form). Der Hauptschritt des Gaußschen Algorithmus besteht in der Ausführung der folgenden elementaren Zeilenumformungen: — Gegebenenfalls die Vertauschung der p-ten und der i-ten Zeilen für ein i mit p < i ≤ m, um ein von Null verschiedenes Element in die pq-te Stelle der Matrix zu bringen. — Für i = p + 1, . . . , m die Addition des geeigneten Vielfachen der p-ten Zeile zu der i-ten Zeile, um eine Null in die iq-te Stelle der Matrix zu bringen. Diese Folge von elementaren Umformungen überführt A in eine Matrix A′ mit folgenden Eigenschaften: — Für i = 1, . . . , p′ ist die i-te Zeile von A′ gleich die i-te Zeile von A, d.h., a′ij = aij für alle i = 1, . . . , p′ , j = 1, . . . , m. — bq′ (A′ ) = bq′ (A). — a′pq 6= 0. — a′iq = 0 für i = p + 1, . . . , m. Insbesondere hat dann bp (A′ ) Zeilen-Stufen-Form und damit ist die Matrix A′ “näher” an der Zeilen-Stufen-Form als A. Nach höchstens n-maliger Wiederholung dieses Hauptschrittes wird jede Matrix in M(m × n, R) in eine Matrix mit Zeilen-Stufen-Form überführt. Seien m, n ≥ 1 und A = (aij ) ∈ M(m × n, R), b = (b1 , . . . , bm ) ∈ Rm . Es ist klar, dass Lös(0, 0) = Rn ; nehme also an, dass (A, b) 6= 0. Mit Hilfe des Gaußschen 14 1 Lineare Gleichungssysteme Algorithmus kann die Matrix (A, b) in eine Matrix (A′ , b′ ) mit Zeilen-Stufen-Form überführt werden und nach Satz 1.3 gilt dann Lös(A, b) = Lös(A′ , b′ ). Ferner ist (A′ , b′ ) 6= 0, da (A, b) 6= 0. Folglich kann Satz 1.4 verwendet werden, um festzustellen, ob das zu A und b gehörige lineare Gleichungssystem lösbar bzw. eindeutig lösbar ist. Beispiel: Sei b = (1, 3, 9) und sei A die 3 × 3 Matrix 1 −2 2 −1 3 1 . 1 0 8 Dann gilt: 1 −2 (A, b) = −1 3 1 0 2 1 1 3 8 9 ⇓ (2. Zeile ⇒ 2. Zeile + 1. Zeile) 1 −2 0 1 1 0 2 1 3 4 8 9 1 −2 0 1 0 2 2 1 3 4 6 8 2 1 3 4 = (A′ , b′ ) 0 0 ⇓ (3. Zeile ⇒ 3. Zeile − 1. Zeile) ⇓ (3. Zeile ⇒ 3. Zeile − 2 × 2. Zeile) wobei b′ = (1, 4, 0) und 1 −2 0 1 0 0 1 −2 A′ = 0 1 0 0 2 3 , 0 und es gilt Lös(A, b) = Lös(A′ , b′ ). Das zu A′ und b′ gehörige Gleichungssystem ist lösbar, aber nicht eindeutig lösbar. (Zum Beispiel sind (1, 1, 1) und (9, 4, 0) beide Lösungen.) Folglich ist das zu A und b gehörige Gleichungssystem ebenfalls lösbar, aber nicht eindeutig lösbar. 1 Lineare Gleichungssysteme 15 Satz 1.6 Sei A ∈ M(m × n, R) mit m < n und sei b ∈ Rm . Dann ist das zu A und b gehörige lineare Gleichungssystem nicht eindeutig lösbar. Insbesondere ist das zu A und 0 gehörige Gleichungssystem lösbar, aber nicht eindeutig lösbar. Beweis Da das zu 0 und 0 gehörige lineare Gleichungssystem nicht eindeutig lösbar ist, können wir annehmen, dass (A, b) 6= 0. Nun läßt sich die Matrix (A, b) nach Satz 1.5 durch eine Folge von elementaren Zeilenumformungen in eine Matrix (A′ , b′ ) mit Zeilen-Stufen-Form überführen und nach Satz 1.3 ist Lös(A, b) = Lös(A′ , b′ ). Ferner ist (A′ , b′ ) 6= 0, da (A, b) 6= 0. Sei p1 , . . . , pr die Treppen-Folge von (A′ , b′ ). Dann ist r ≤ m < n und insbesondere ist r 6= n. Nach Satz 1.4 ist also das zu A′ und b′ gehörige lineare Gleichungssystem nicht eindeutig lösbar und daraus ergibt sich, dass das zu A und b gehörige lineare Gleichungssystem ebenfalls nicht eindeutig lösbar ist. 2 Untervektorräume Eine Teilmenge U von Rn heißt Untervektorraum von Rn , wenn gilt: (U1) 0 ∈ U, (U2) u + v ∈ U für alle u, v ∈ U, (U3) cu ∈ U für alle c ∈ R, u ∈ U. Lemma 2.1 (1) Sei U ein Untervektorraum von Rn . Dann gilt bu + cv ∈ U für alle u, v ∈ U und alle b, c ∈ R. (2) Sei U eine Teilmenge von Rn . Ist 0 ∈ U und gilt bu+cv ∈ U für alle u, v ∈ U und alle b, c ∈ R, so ist U ein Untervektorraum von Rn . Beweis (1) Seien u, v ∈ U und alle b, c ∈ R. Nach (U3) gilt bu ∈ U, cv ∈ U und also ist nach (U2) bu + cv ∈ U. (2) Seien u, v ∈ U; da w = 1w für alle w ∈ Rn , ist dann u + v = 1u + 1v ∈ U. Ferner ist cu = cu + 0 = cu + 0u ∈ U für alle u ∈ U, c ∈ R. Dies zeigt, dass U ein Untervektorraum von Rn ist. Lemma 2.2 Sei U ein Untervektorraum von Rn und seien u1 , . . . , um Elemente von U (mit m ≥ 1). Für alle c1 , . . . , cm ∈ R ist dann c1 u1 + · · · + cm um wieder ein Element von U. Beweis Es wird durch Induktion nach ℓ gezeigt, dass c1 u1 +· · ·+cℓ uℓ ein Element von U ist für jedes ℓ = 1, . . . , m. Nach (U2) ist c1 u1 ein Element von U. Sei nun ℓ mit 1 ≤ ℓ < m und nehme an, dass c1 u1 + · · · + cℓ uℓ ein Element von U ist. Nach (U2) ist cℓ+1 uℓ+1 ein Element von U, und daraus folgt nach (U1), dass c1 u1 + · · · + cℓ+1 uℓ+1 = (c1 u1 + · · · + cℓ uℓ ) + cℓ+1 uℓ+1 auch ein Element von U ist. Damit ist c1 u1 + · · · + cℓ uℓ ein Element von U für jedes ℓ = 1, . . . , m. Insbesondere ist c1 u1 + · · · + cm um ein Element von U. Satz 2.1 Sei A = (aij ) ∈ M(m × n, R); dann ist Lös(A, 0) ein Untervektorraum von Rn . (Die Lösungsmenge eines homogenen linearen Gleichungssytems für n Unbekannte ist ein Untervektorraum von Rn .) 16 17 2 Untervektorräume Beweis Seien v1 , . . . , vn ∈ Rm die Spalten von A. Nach Satz 2.1 gilt also, dass (y1 , . . . , yn ) ∈ Lös(A, 0) genau dann, wenn y1 v1 + · · · + yn vn = 0. (U1): Da 0v1 + · · · + 0vn = 0, ist 0 = (0, . . . , 0) ∈ Lös(A, 0). (U2): Seien u = (y1 , . . . , yn ), u′ = (y1′ , . . . , yn′ ) ∈ Lös(A, 0); dann ist (y1 + y1′ )v1 + · · · + (yn + yn′ )vn = (y1 v1 + · · · + yn vn ) + (y1′ v1 + · · · + yn′ vn ) = 0 + 0 = 0 und damit ist u + u′ = (y1 + y1′ , . . . , yn + yn′ ) ∈ Lös(A, 0). (U3): Seien u = (y1 , . . . , yn ) ∈ Lös(A, 0), y ∈ R; dann gilt (yy1)v1 + · · · + (yyn )vn = y(y1v1 + · · · + yn vn ) = y0 = 0 . Folglich ist auch yu = (yy1, . . . , yyn) ∈ Lös(A, 0). Seien v1 , . . . , vm ∈ Rn (mit m ≥ 1). Ein Vektor v ∈ Rn heißt Linearkombination von v1 , . . . , vm , wenn es c1 , . . . , cm ∈ R gibt, so dass v = c1 v1 + · · · + cm vm . Die Menge aller Linearkombinationen von v1 , . . . , vm nennt man die lineare Hülle von v1 , . . . , vm ; sie wird mit L(v1 , . . . , vm ) bezeichnet. Wichtiges Beispiel: Für j = 1, . . . , n sei ej = (0, . . . , 0, 1, 0, . . . , 0) mit der Eins in der j-ten Komponente. Dann gilt c1 e1 + · · · + cn en = (c1 , . . . , cn ) für alle c1 , . . . , cn ∈ R und daraus ergibt sich, dass L(e1 , . . . , en ) = Rn . Seien nun v1 , . . . , vm ∈ Rn (mit m ≥ 1). Satz 2.2 L(v1 , . . . , vm ) ist ein Untervektorraum von Rn mit vj ∈ L(v1 , . . . , vm ) für jedes j = 1, . . . , m. Beweis Nach Lemma 2.2 ist 0 = 0v1 + · · · + 0vm ∈ L(v1 , . . . , vm ). Seien nun u, v ∈ L(v1 , . . . , vm ); dann gibt es Elemente c1 , . . . , cm , d1 , . . . , dm ∈ R, so dass u = c1 v1 + · · · + cm vm und v = d1 v1 + · · · + dm vm . Folglich gilt u + v = c1 v1 + · · · + cm vm + d1 v1 + · · · + dm vm = (c1 + d1 )v1 + · · · + (cm + dm )vm , 2 Untervektorräume 18 und damit ist u + v ∈ L(v1 , . . . , vm ). Für jedes c ∈ R gilt ferner cu = c(c1 v1 + · · · + cm vm ) = (cc1 )v1 + · · · + (ccm )vm , und folglich ist auch cu ∈ L(v1 , . . . , vm ). Dies zeigt also, dass L(v1 , . . . , vm ) ein Untervektorraum von Rn ist. Sei nun j mit 1 ≤ j ≤ m und definiere c1 , . . . , cm ∈ R durch 1 falls i = j , ci = 0 falls i 6= j . Dann ist vj = 0 + · · · + 0 + 1vj + 0 + · · · + 0 = c1 v1 + · · · + cm vm , und damit ist vj ∈ L(v1 , . . . , vm ). Satz 2.3 Sei U ein Untervektorraum von Rn mit vj ∈ U für jedes j. Dann gilt L(v1 , . . . , vm ) ⊂ U. Damit ist L(v1 , . . . , vm ) der kleinste Untervektorraum von Rn , der die Elemente v1 , . . . , vm enthält. Beweis Sei v ∈ L(v1 , . . . , vm ); dann gibt es Elemente c1 , . . . , cm ∈ R, so dass v = c1 v1 + · · · + cm vm und nach Lemma 2.2 ist c1 v1 + · · · + cm vm ein Element von U, d.h., v ∈ U. Folglich ist L(v1 , . . . , vm ) ⊂ U. In den folgenden Lemmas sei m ≥ 1 und seien v1 , . . . , vm ∈ Rn . Lemma 2.3 Es gilt L(v1 , . . . , vm ) = {0} genau dann, wenn vj = 0 für jedes j = 1, . . . , m. Beweis Nach Satz 2.2 enthält L(v1 , . . . , vm ) die Elemente v1 , . . . , vm und folglich ist L(v1 , . . . , vm ) 6= {0}, wenn vj 6= 0 für ein j. Ist andererseits vj = 0 für jedes j = 1, . . . , m, dann gilt c1 v1 + · · · + cm vm = 0 für alle c1 , . . . , cm ∈ R und damit ist L(v1 , . . . , vm ) = {0}. Lemma 2.4 Seien c1 , . . . , cm ∈ R mit cj 6= 0 für jedes j = 1, . . . , m. Dann gilt L(c1 v1 , . . . , cm vm ) = L(v1 , . . . , vm ). Beweis Nach Satz 2.2 ist cj vj ∈ L(v1 , . . . , vm ) für jedes j = 1, . . . , m und daraus folgt nach Satz 2.3, dass L(c1 v1 , . . . , cm vm ) ⊂ L(v1 , . . . , vm ). Umgekehrt ist −1 vj = 1vj = (c−1 j cj )vj = cj (cj vj ) ∈ L(c1 v1 , . . . , cm vm ) für jedes j und damit ist auch L(v1 , . . . , vm ) ⊂ L(c1 v1 , . . . , cm vm ). 2 Untervektorräume 19 Lemma 2.5 Für jede Permutation {i1 , . . . , im } von {1, . . . , m} gilt L(vi1 , . . . , vim ) = L(v1 , . . . , vm ) . Beweis Nach Satz 2.2 ist vij ∈ L(v1 , . . . , vm ) für jedes j = 1, . . . , m und daraus folgt nach Satz 2.3, dass L(vi1 , . . . , vim ) ⊂ L(v1 , . . . , vm ). Genauso gilt dann auch L(v1 , . . . , vm ) ⊂ L(vi1 , . . . , vim ). Lemma 2.6 Sei u ∈ Rn . Dann gilt L(v1 , . . . , vm ) ⊂ L(v1 , . . . , vm , u). Ferner gilt L(v1 , . . . , vm ) = L(v1 , . . . , vm , u) genau dann, wenn u ∈ L(v1 , . . . , vm ). Beweis Nach Satz 2.2 ist vj ∈ L(v1 , . . . , vm , u) für jedes j und daraus ergibt sich nach Satz 2.3, dass L(v1 , . . . , vm ) ⊂ L(v1 , . . . , vm , u). Gilt L(v1 , . . . , vm ) = L(v1 , . . . , vm , u), so ist u ∈ L(v1 , . . . , vm ), da nach Satz 2.2 u in L(v1 , . . . , vm , u) liegt. Ist umgekehrt u ∈ L(v1 , . . . , vm ), so ist nach Satz 2.3 L(v1 , . . . , vm , u) ⊂ L(v1 , . . . , vm ) und damit L(v1 , . . . , vm ) = L(v1 , . . . , vm , u), da nach Satz 2.2 vj ∈ L(v1 , . . . , vm ) für jedes j. Lemma 2.7 Seien u, w ∈ Rn . Es gilt u ∈ L(v1 , . . . , vm , w) \ L(v1 , . . . , vm ) genau dann, wenn w ∈ L(v1 , . . . , vm , u) \ L(v1 , . . . , vm ). Beweis Nehme zunächst an, dass w ∈ L(v1 , . . . , vm , u) \ L(v1 , . . . , vm ). Dann ist insbesondere L(v1 , . . . , vm , u) 6= L(v1 , . . . , vm ) und daraus folgt nach Lemma 2.6, dass u ∈ / L(v1 , . . . , vm ). Da w ∈ L(v1 , . . . , vm , u), gibt es c1 , . . . , cm+1 ∈ R, so dass w = c1 v1 + · · · + cm vm + cm+1 u. Ferner ist cm+1 6= 0, sonst würde w in L(v1 , . . . , vm ) liegen. Damit ist u = d1 v1 + · · · + dm vm + dm+1 w , −1 wobei dj = (−1)c−1 m+1 cj für j = 1, . . . , m und dm+1 = cm+1 . Dies zeigt also, dass u ∈ L(v1 , . . . , vm , w) \ L(v1 , . . . , vm ). Der Beweis für die Umkehrung ist identisch, die Rollen von u und w müssen lediglich getauscht werden. Satz 2.4 Seien v1 , . . . , vm ∈ Rn und sei A ∈ M(n × m, R) die Matrix, in der die Vektoren v1 , . . . , vm als Spalten vorkommen. (Man beachte: A ist eine n × m und nicht eine m × n Matrix.) Für v ∈ Rn gilt v ∈ L(v1 , . . . , vm ) genau dann, wenn das zu A und v gehörige lineare Gleichungssystem lösbar ist. Mit anderen Worten: L(v1 , . . . , vm ) besteht aus genau denen Vektoren v ∈ Rn , für die das zu A und v gehörige lineare Gleichungssystem lösbar ist. 20 2 Untervektorräume Beweis Nehme zunächst an, dass das zu A und v gehörige lineare Gleichungssystem lösbar ist. Es gibt also u = (c1 , . . . , cm ) ∈ Lös(A, v) und nach Satz 2.1 ist v = c1 v1 + · · · + cm vm , d.h. v ∈ L(v1 , . . . , vm ). Nehme nun umgekehrt an, dass v ∈ L(v1 , . . . , vm ). Dann gibt es c1 , . . . , cm ∈ R, so dass v = c1 v1 + · · · + cm vm und folglich ist nach Satz 2.1 (c1 , . . . , cm ) ∈ Lös(A, v); insbesondere ist das zu A und v gehörige lineare Gleichungssystem lösbar. Seien v1 , . . . , vm ∈ Rn (mit m ≥ 1). Die Vektoren v1 , . . . , vm heißen linear abhängig, wenn es c1 , . . . , cm ∈ R mit cj 6= 0 für mindestens ein j gibt, so dass c1 v1 + · · · + cm vm = 0 . Die Vektoren v1 , . . . , vm sind linear unabhängig, wenn sie nicht linear abhängig sind. Mit anderen Worten sind die Vektoren v1 , . . . , vm linear unabhängig genau dann, wenn aus c1 v1 + · · · + cm vm = 0 stets folgt, dass c1 = · · · = cm = 0, d.h., wenn eine Linearkombination von v1 , . . . , vm nur dann Null sein kann, wenn alle “Koeffizienten” verschwinden. Wichtiges Beispiel: Für j = 1, . . . , n sei wieder ej = (0, . . . , 0, 1, 0, . . . , 0) mit der Eins in der j-ten Komponenten. Dann sind e1 , . . . , en linear unabhängig: Sind c1 , . . . , cn ∈ R mit c1 e1 + · · · + cn en = 0, so ist (c1 , . . . , cn ) = 0, d.h., cj = 0 für jedes j = 1, . . . , n, da c1 e1 + · · · + cn en = (c1 , . . . , cn ). In den folgenden Lemmas sei m ≥ 1 und seien v1 , . . . , vm ∈ Rn . Lemma 2.8 Sind v1 , . . . , vm linear unabhängig, so ist vj 6= 0 für jedes j und ferner ist vj 6= vk , falls j 6= k. Beweis Nehme an, dass vj = 0 für ein j, und definiere c1 , . . . , cm ∈ R durch 1 falls i = j , ci = 0 falls i 6= j . Dann ist ci 6= 0 für mindestens ein i und nach Lemma 2.2 ist c1 v1 + · · · + cm vm = 0v1 + · · · + 0vj−1 + 1vj + 0vj+1 + · · · + 0vm = 0 + · · · + 0 + 1vj + 0 + · · · + 0 = 1vj = vj = 0 . Damit wären v1 , . . . , vm linear abhängig. Folglich ist vj 6= 0 für jedes j. Nehme nun an, dass es j, k mit j 6= k und vj = vk gibt, und definiere diesmal −1 falls i = j , 1 falls i = k , ci = 0 sonst . 2 Untervektorräume 21 Dann ist ci 6= 0 für mindestens ein i und nach Lemma 2.1 und Lemma 2.2 ist c1 v1 + · · · + cm vm = (−1)vj + 1vk = (−vj ) + vj = 0 , und wieder wären v1 , . . . , vm linear abhängig. Folglich ist vj 6= vk , falls j 6= k. Lemma 2.9 Seien c1 , . . . , cm ∈ R mit cj 6= 0 für jedes j = 1, . . . , m. Die Vektoren c1 v1 , . . . , cm vm sind genau dann linear unabhängig, wenn v1 , . . . , vm linear unabhängig sind. Beweis Es wird gezeigt, dass v1 , . . . , vm genau dann linear abhängig sind, wenn c1 v1 , . . . , cm vm linear abhängig sind. Nehme zunächst an, dass c1 v1 , . . . , cm vm linear abhängig sind. Dann gibt es d1 , . . . , dm ∈ R mit dj 6= 0 für mindestens ein j, so dass d1 (c1 v1 ) + · · · + dm (cm vm ) = 0. Für j = 1, . . . , m sei d′j = dj cj ; dann ist d′j 6= 0 für mindestens ein j, da d′j = 0 genau dann, wenn dj = 0, und d′1 v1 + · · · + d′m vm = (d1 c1 )v1 + · · · + (dm cm )vm = d1 (c1 v1 ) + · · · + dm (cm vm ) = 0 . Damit sind v1 , . . . , vm linear abhängig. Nehme nun umgekehrt an, dass v1 , . . . , vm linear abhängig sind. Dann gibt es d1 , . . . , dm ∈ R mit dj 6= 0 für mindestens ein j, so dass d1 v1 + · · · + dm vm = 0. ′ ′ Für j = 1, . . . , m sei d′j = dj c−1 j ; dann ist dj 6= 0 für mindestens ein j, da dj = 0 genau dann, wenn dj = 0. Ferner gilt d′j cj = dj c−1 j cj = dj 1 = dj für jedes j und daraus ergibt sich, dass d′1 (c1 v1 ) + · · · + d′m (cm vm ) = (d′1 c1 )v1 + · · · + (d′m cm )vm = d1 (c1 v1 ) + · · · + dm (cm vm ) = 0 . Folglich sind c1 v1 , . . . , cm vm linear abhängig. Lemma 2.10 Seien i1 , . . . , in (mit n ≥ 1) paarweise verschiedene Elemente aus der Menge {1, 2, . . . , m}. (Es gilt also n ≤ m, 1 ≤ ij ≤ m für j = 1, . . . , n und ij 6= ik , falls j 6= k.) Sind v1 , . . . , vm linear unabhängig, so sind auch vi1 , . . . , vin linear unabhängig. Beweis Nehme an, dass vi1 , . . . , vin linear abhängig sind. Es gibt also Elemente ci1 , . . . , cin ∈ R mit cij 6= 0 für mindestens ein j, so dass ci1 vi1 + · · · + cin vin = 0. Definiere d1 , . . . , dm ∈ R durch cij falls k = ij für ein j = 1, . . . , n , dk = 0 sonst . 2 Untervektorräume 22 Dann ist dk 6= 0 für mindestens ein k und nach Lemma 2.2 ist d1 v1 + · · · + dm vm = ci1 vi1 + · · · + cin vin = 0 . Aber dies ist nicht möglich, da dann v1 , . . . , vm linear abhängig wären. Also sind vi1 , . . . , vin linear unabhängig. Seien v1 , . . . , vm linear unabhängig. Dann gibt es folgende spezielle Fälle von Lemma 2.10: — Für jedes n = 1, . . . , m sind v1 , . . . , vn linear unabhängig. — Ist m ≥ 2, so sind v1 , . . . , vj−1 , vj+1 , . . . , vm linear unabhängig für jedes j = 1, . . . , m. — Für jede Permutation {i1 , . . . , im } von {1, . . . , m} sind vi1 , . . . , vim linear unabhängig. Satz 2.5 (1) Sei v ∈ Rn ; dann ist v linear unabhängig genau, wenn v 6= 0. (2) Seien v1 , . . . , vm ∈ Rn mit m ≥ 2. Dann sind v1 , . . . , vm linear unabhängig genau, wenn vk ∈ / L(v1 , . . . , vk−1, vk+1 , . . . , vm ) für jedes k = 1, . . . , m. Beweis (1) Ist c ∈ R mit c 6= 0, so ist cv = 0 genau dann, wenn v = 0. Folglich ist v linear abhängig genau dann, wenn v = 0, d.h., v ist linear unabhängig genau dann, wenn v 6= 0, (2) Es wird gezeigt, dass vk ∈ L(v1 , . . . , vk−1 , vk+1, . . . , vm ) für ein k genau dann gilt, wenn v1 , . . . , vm linear abhängig sind. Nehme zunächst an, dass vk ∈ L(v1 , . . . , vk−1 , vk+1, . . . , vm ) für ein k. Dann gibt es c1 , . . . , ck−1 , ck+1, . . . , cm ∈ R, so dass vk = c1 v1 + · · · + ck−1 vk−1 + ck+1 vk+1 + · · · + cm vm . Setze ck = −1; dann ist ck 6= 0 und c1 v1 + · · · + cm vm = c1 v1 + · · · + ck−1 vk−1 + (−1)vk + ck+1vk+1 + · · · + cm vm = (−1)vk + c1 v1 + · · · + ck−1vk−1 + ck+1vk+1 + · · · + cm vm = (−1)vk + vk = (−vk ) + vk = 0 , (da −v = (−1)v für jedes v ∈ Rn ). Damit sind v1 , . . . , vm linear abhängig. Nehme nun umgekehrt an, dass v1 , . . . , vm linear abhängig sind. Dann gibt es c1 , . . . , cm ∈ R mit cj 6= 0 für mindestens ein j, so dass c1 v1 + · · · + cm vm = 0. 2 Untervektorräume 23 Wähle k mit ck 6= 0 und für jedes j mit j 6= k sei dj = bcj , wobei b = −c−1 k . Dann ist bck = −(c−1 c ) = −1 und k k vk = = = = = 0 + vk = b0 + vk = b(c1 v1 + · · · + cm vm ) + vk (bc1 )v1 + · · · + (bcm )vm + vk d1 v1 + · · · + dk−1 vk−1 + dk+1vk+1 + · · · + dm vm + (bck )vk + vk d1 v1 + · · · + dk−1 vk−1 + dk+1vk+1 + · · · + dm vm + (−1)vk + vk d1 v1 + · · · + dk−1 vk−1 + dk+1vk+1 + · · · + dm vm und damit ist vk ∈ L(v1 , . . . , vk−1 , vk+1, . . . , vm ). Lemma 2.11 Seien v1 , . . . , vm ∈ Rn linear unabhängig und sei u ∈ Rn . Dann sind v1 , . . . , vm , u linear unabhängig genau, wenn u ∈ / L(v1 , . . . , vm ). Beweis Sind v1 , . . . , vm , u linear unabhängig, dann gilt nach Satz 2.5 (2), dass insbesondere u ∈ / L(v1 , . . . , vm ). Es bleibt also zu zeigen, dass u ∈ L(v1 , . . . , vm ), wenn v1 , . . . , vm , u linear abhängig sind. Sind die Vektoren v1 , . . . , vm , u linear abhängig, dann gibt es c1 , . . . , cm+1 ∈ R mit cj 6= 0 für mindestens ein j, so dass c1 v1 + · · · + cm vm + cm+1 u = 0. Nehme an, dass cm+1 = 0; dann ist cj 6= 0 für mindestens ein j mit 1 ≤ j ≤ m und c1 v1 + · · · + cm vm = 0. Dies steht aber im Widerspruch zu der Annahme, dass v1 , . . . , vm linear unabhängig sind, und daraus ergibt sich, dass cm+1 6= 0. Für j = 1, . . . , m setze dj = bcj , wobei b = −c−1 m+1 . Dann ist bcm+1 = −1 und u=0+u = = = = b0 + u = b(c1 v1 + · · · + cm vm + cm+1 u) + u (bc1 )v1 + · · · + (bcm )vm + (bcm+1 )u + u d1 v1 + · · · + dm vm + (−1)u + u d1 v1 + · · · + dm vm + 0 = d1 v1 + · · · + dm vm ; d.h., u ∈ L(v1 , . . . , vm ). Lemma 2.12 Die Vektoren v1 , . . . , vm sind linear unabhängig genau dann, wenn v1 6= 0 und vn ∈ / L(v1 , . . . , vn−1 ) für jedes n = 2, . . . , m. Beweis Sind v1 , . . . , vm linear unabhängig, dann ist nach Lemma 2.8 v1 6= 0 und nach Satz 2.5 (2) gilt vn ∈ / L(v1 , . . . , vn−1 ) für jedes n = 2, . . . , m. Nehme nun umgekehrt an, dass die Vektoren v1 , . . . , vm linear abhängig sind. Dann gibt es c1 , . . . , cm ∈ R mit cj 6= 0 für mindestens ein j, so dass c1 v1 + · · · + cm vm = 0. Sei n = max{1 ≤ j ≤ m : cj 6= 0}; also ist cn 6= 0 und c1 v1 + · · · + cn vn = 0. Falls n = 1, so ist c1 6= 0 und c1 v1 = 0, und damit ist v1 = 0. Wenn aber n ≥ 2, so ist vn = d1 v1 + · · · + dn−1 vn−1 , wobei dj = (−1)c−1 n cj für j = 1, . . . , n − 1, und hier ist vn ∈ L(v1 , . . . , vn−1 ). Daraus ergibt sich, dass v1 , . . . , vm linear unabhängig sein müssen, wenn v1 6= 0 und vn ∈ / L(v1 , . . . , vn−1 ) für jedes n = 2, . . . , m. 2 Untervektorräume 24 Satz 2.6 Seien v1 , . . . , vm ∈ Rn und sei A ∈ M(n × m, R) die Matrix, in der die Vektoren v1 , . . . , vm als Spalten vorkommen. (Man beachte: A ist eine n × m und nicht eine m × n Matrix.) Die Vektoren v1 , . . . , vm sind linear unabhängig genau dann, wenn das zu A und 0 gehörige lineare Gleichungssystem eindeutig lösbar ist (d.h., genau dann, wenn Lös(A, 0) = {0}). Beweis Genau wie im Beweis für Satz 2.4 gilt c1 v1 + · · · + cn vn = 0 genau dann, wenn (c1 , . . . , cn ) ∈ Lös(A, 0). Damit sind v1 , . . . , vn linear unabhängig genau dann, wenn Lös(A, v) = {0}. Satz 2.7 Sind die Vektoren v1 , . . . , vm ∈ Rn linear unabhängig, so ist m ≤ n. Beweis Seien v1 , . . . , vm ∈ Rn linear unabhängig und sei A ∈ M(n × m, R) die Matrix, in der die Vektoren v1 , . . . , vm als Spalten vorkommen. Nach Satz 2.6 ist also das zu A und 0 gehörige lineare Gleichungssystem eindeutig lösbar und daraus ergibt sich nach Satz 2.6, dass m ≤ n. 3 Basen Sei U ein Untervektorraum von Rn und seien v1 , . . . , vm ∈ Rn (mit m ≥ 1). Das m-Tupel (v1 , . . . , vm ) heißt dann Basis von U, wenn gilt: (B1) Die Vektoren v1 , . . . , vm sind linear unabhängig, (B2) L(v1 , . . . , vm ) = U. Sei (v1 , . . . , vm ) eine Basis eines Untervektorraumes U von Rn . Nach Lemma 2.8 ist dann vj 6= 0 für jedes j, und daraus folgt nach Satz 2.2, dass U 6= {0}. Der triviale Untervektorraum {0} von Rn kann also im obigen Sinn keine Basis besitzen. Es erweist sich aber als nützlich, die leere Menge ∅ als Basis von {0} anzusehen. Wichtiges Beispiel: Für j = 1, . . . , n sei wieder ej = (0, . . . , 0, 1, 0, . . . , 0) mit der Eins in der j-ten Komponenten. Dann sind e1 , . . . , en linear unabhängig und es gilt auch L(e1 , . . . , en ) = Rn . Damit ist (e1 , . . . , en ) eine Basis von Rn . Sie wird die kanonische Basis von Rn genannt. Satz 3.1 Jeder Untervektorraum U von Rn besitzt eine Basis. Beweis Da {0} die Basis ∅ besitzt, können wir annehmen, dass U 6= {0}. Da U 6= {0}, gibt es u1 ∈ U mit u1 6= 0 und nach Satz 2.5 (1) ist u1 linear unabhängig. Gilt U = L(u1 ), dann ist (u1 ) schon eine Basis von U. Ist dagegen U 6= L(u1 ), so gibt es u2 ∈ U \ L(u1) und nach Lemma 2.11 sind dann u1 , u2 linear unabhängig. Gilt U = L(u1, u2 ), dann ist (u1, u2 ) eine Basis von U. Ist dagegen U 6= L(u1 , u2), so gibt es u3 ∈ U \L(u1, u2 ) und nach Lemma 2.11 sind dann u1 , u2 , u3 linear unabhängig. Gilt U = L(u1, u2 , u3 ), dann ist (u1, u2 , u3 ) eine Basis von U. Ist dagegen U 6= L(u1 , u2, u3 ), so gibt es u4 ∈ U \ L(u1 , u2, u3 ) und . . . . Entweder hört dieses Verfahren auf, indem U = L(v1 , . . . , vm ) für ein m ≥ 1, und damit ist (v1 , . . . , vm ) eine Basis von U, oder das Verfahren hört nie auf, und in diesem Fall ist {vk }k≥1 eine Folge von Elementen aus U mit der Eigenschaft, dass für jedes m ≥ 1 die Vektoren v1 , . . . , vm linear unabhängig sind. Aber nach Satz 2.7 sind die Vektoren v1 , . . . , vn+1 linear abhängig und daraus ergibt sich, dass (v1 , . . . , vm ) eine Basis von U ist für ein m ≤ n. 25 26 3 Basen Lemma 3.1 Sei U 6= {0} ein Untervektorraum von Rn und sei (v1 , . . . , vm ) eine Basis von U. (1) Seien c1 , . . . , cm ∈ R mit cj 6= 0 für jedes j; dann ist (c1 v1 , . . . , cm vm ) auch eine Basis von U. (2) Sei {i1 , . . . , im } eine Permutation von {1, . . . , m}; dann ist (vi1 , . . . , vim ) auch eine Basis von U. Beweis (1) Nach Lemma 2.4 ist L(c1 v1 , . . . , cm vm ) = U und nach Lemma 2.9 sind c1 v1 , . . . , cm vm linear unabhängig. Damit ist (c1 v1 , . . . , cm vm ) eine Basis von U. (2) Nach Lemma 2.10 sind vi1 , . . . , vim linear unabhängig und nach Lemma 2.5 ist L(vi1 , . . . , vim ) = U. Damit ist (vi1 , . . . , vim ) eine Basis von U. Satz 3.2 Seien (v1 , . . . , vp ), (w1 , . . . , wq ) zwei Basen eines Untervektorraumes U von Rn mit U 6= {0}. Dann ist p = q. Beweis Für den Beweis wird folgendes Austauschlemma gebraucht: Lemma 3.2 Sei U 6= {0} ein Untervektorraum von Rn und seien (v1 , . . . , vp ), (w1 , . . . , wq ) zwei Basen von U mit p ≥ 2 und q ≥ 1. Dann gibt es zu jedem j = 1, . . . , p ein k mit 1 ≤ k ≤ q, so dass (v1 , . . . , vj−1, vj+1 , . . . , vp , wk ) wieder eine Basis von U ist. Beweis Sei j mit 1 ≤ j ≤ p fest. Nehme an, wk ∈ L(v1 , . . . , vj−1, vj+1 , . . . , vp ) für jedes k = 1, . . . , q. Dann gilt nach (B2) und Satz 2.2, dass U = L(w1 , . . . , wq ) ⊂ L(v1 , . . . , vj−1 , vj+1, . . . , vp ) , und nach Satz 2.1 ist vj ∈ U; d.h., vj ∈ L(v1 , . . . , vj−1 , vj+1, . . . , vp ). Dies steht aber im Widerspruch zu Satz 2.5 (2), da v1 , . . . , vp linear unabhängig sind. Damit gibt es ein k mit 1 ≤ k ≤ q, so dass wk ∈ / L(v1 , . . . , vj−1 , vj+1 , . . . , vp ). Es wird nun gezeigt, dass {v1 , . . . , vj−1 , vj+1, . . . , vp , wk } eine Basis von U ist. Nach Lemma 2.10 sind v1 , . . . , vj−1 , vj+1, . . . , vp linear unabhängig, und folglich sind nach Lemma 2.11 v1 , . . . , vj−1 , vj+1 , . . . , vp , wk auch linear unabhängig. Es bleibt zu zeigen, dass L(v1 , . . . , vj−1, vj+1 , . . . , vp , wk ) = U. Nach (B2), Satz 2.1 und Lemma 2.5 ist wk ∈ U = L(v1 , . . . , vp ) = L(v1 , . . . , vj−1, vj+1 , . . . , vp , vj ) . 3 Basen 27 Aber wk ∈ / L(v1 , . . . , vj−1 , vj+1, . . . , vp ), d.h., wk ∈ L(v1 , . . . , vj−1, vj+1 , . . . , vp , vj ) \ L(v1 , . . . , vj−1, vj+1 , . . . , vp ) , und daraus folgt nach Lemma 2.7, dass vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vp , wk ). Nach Satz 2.2 ist also U = L(v1 , . . . , vp ) ⊂ L(v1 , . . . , vj−1 , vj+1 , . . . , vp , wk ); und daher ist U = L(v1 , . . . , vj−1 , vj+1, . . . , vp , wk ). Nun zum Beweis für Satz 3.2, und ohne Beschränkung der Allgemeinheit kann man annehmen, dass p ≥ q ≥ 1. Ist p = 1, dann ist p = q trivial richtig; es kann also weiter angenommen werden, dass p ≥ 2. Nun wird Lemma 3.2 wiederholt angewendet. Zuerst gibt es nach Lemma 3.2 ein k1 mit 1 ≤ k1 ≤ q, so dass (v2 , . . . , vp , wk1 ) eine Basis von U ist. Nun sind (v2 , . . . , vp , wk1 ) und (w1 , . . . , wq ) Basen von U; also gibt es nach Lemma 3.2 ein k2 mit 1 ≤ k2 ≤ q, so dass (v3 , . . . , vp , wk1 , wk2 ) eine Basis von U ist. Nach p-maliger Anwendung dieses Verfahrens erhält man eine Basis (wk1 , . . . , wkp ) von U. Insbesondere sind dann wk1 , . . . , wkp linear unabhängig und daraus folgt nach Lemma 2.8, dass wki 6= wkj und damit ki 6= kj , falls i 6= j. Da aber 1 ≤ kj ≤ q für jedes j = 1, . . . , p, ist dies nur möglich, wenn p = q. Sei U 6= {0} ein Untervektorraum von Rn ; nach Satz 3.1 besitzt U eine Basis und nach Satz 3.2 gibt es ein m ≥ 1, so dass jede Basis von U aus genau m Elementen besteht. Diese Zahl m wird die Dimension von U gennant und wird mit dim U abgekürzt. Per Definition wird der Untervektorraum {0} die Dimension 0 zugeordnet (dim{0} = 0). Insbesondere ist dim Rn = n, da (e1 , . . . , en ) eine Basis von Rn ist. Satz 3.3 (Basisergänzungssatz) Seien U, V Untervektorräume von Rn mit {0} = 6 U ⊂ V ; sei (u1 , . . . , um ) eine Basis von U. Dann gibt es k ≥ 0 und v1 , . . . , vk ∈ V , so dass (u1 , . . . , um, v1 , . . . , vk ) eine Basis von V ist. Beweis Dies ist sehr ähnlich zum Beweis für Satz 3.1. Da (u1 , . . . , um) eine Basis von U ist, ist U = L(u1 , . . . , um ) und insbesondere ist L(u1 , . . . , um ) ⊂ V . Gilt V = L(u1 , . . . , um ), dann ist (u1 , . . . , um ) schon eine Basis von V (und hier ist k = 0). Ist dagegen V 6= L(u1 , . . . , um), so gibt es ein v1 ∈ V \ L(u1 , . . . , um ) und nach Lemma 2.11 sind u1 , . . . , um , v1 linear unabhängig. Gilt V = L(u1 , . . . , um , v1 ), dann ist (u1 , . . . , um, v1 ) eine Basis von V . Ist dagegen V 6= L(u1, . . . , um , v1 ), so gibt es ein v2 ∈ V \ L(u1, . . . , um , v1 ) und nach Lemma 2.11 sind die Vektoren u1 , . . . , um , v1 , v2 linear unabhängig. Gilt V = L(u1 , . . . , um , v1 , v2 ), dann ist (u1 , . . . , um , v1 , v2 ) eine Basis von V . 28 3 Basen Ist dagegen V 6= L(u1 , . . . , um , v1 , v2 ), so gibt es ein v3 ∈ V \ L(u1 , . . . , um, v1 , v2 ) und . . . . Entweder hört dieses Verfahren auf, indem V = L(v1 , . . . , vm , v1 , . . . , vk ) für ein k ≥ 0, und damit ist (v1 , . . . , vm , v1 , . . . , vk ) eine Basis von V , oder das Verfahren hört nie auf, und in diesem Fall ist {vj }j≥1 eine Folge von Elementen aus V mit der Eigenschaft, dass für jedes j ≥ 1 die Vektoren u1 , . . . , um , v1 , . . . , vj linear unabhängig sind. Aber nach Satz 2.7 sind u1 , . . . , um , v1 , . . . , vj linear abhängig, falls m + j > n und daraus ergibt sich, dass (u1 , . . . , um , v1 , . . . , vk ) eine Basis von V ist für ein k ≥ 0 mit m + k ≤ n. Satz 3.4 Seien U und V Untervektorräume von Rn mit U ⊂ V . Dann gilt dim U ≤ dim V und es gilt dim U = dim V genau dann, wenn U = V . Beweis Dies ist trivial richtig, wenn U = {0}, und also können wir annehmen, dass U 6= {0}. Sei (u1, . . . , um ) eine Basis von U; dann gibt es nach Satz 3.3 k ≥ 0 und v1 , . . . , vk ∈ V , so dass (u1 , . . . , um, v1 , . . . , vk ) eine Basis von V ist. Damit ist dim U = m ≤ m + k = dim V . Ist ferner dim U = dim V , so ist k = 0 und in diesem Fall gilt U = L(u1 , . . . , um ) = V . Ist umgekehrt U = V , so ist natürlich dim U = dim V . Nach Satz 3.4 gilt insbesondere, dass dim U ≤ n für jeden Untervektorraum U von Rn . Satz 3.5 Sei U 6= {0} ein Untervektorraum von Rn und sei (u1 , . . . , um ) eine Basis von U. Dann gibt es zu jedem u ∈ U genau ein (c1 , . . . , cm ) ∈ Rm , so dass u = c1 u 1 + · · · + cm u m . Beweis Sei u ∈ U; da U = L(u1 , . . . , um ), gibt es mindestens ein m-Tupel (c1 , . . . , cm ) ∈ Rm , so dass u = c1 u1 + · · · + cm um . Nehme also an, dass auch u = d1 u1 + · · · + dm um für ein (d1 , . . . , dm ) ∈ Rm . Dann ist (d1 − c1 )u1 + · · · + (dm − cm )um = (d1 u1 + · · · + dm um ) − (c1 u1 + · · · + cm um ) = u−u=0, und daraus folgt, dass dj − cj = 0 für jedes j = 1, . . . , m, da u1 , . . . , um linear unabhängig sind. Damit ist cj = dj für jedes j = 1, . . . , m. Für Untervektorräume U, V von Rn bezeichne mit U +V die Menge aller Vektoren in Rn , die eine Darstellung der Form u + v haben mit u ∈ U und v ∈ V . 29 3 Basen Lemma 3.3 Für alle Untervektorräume U, V von Rn sind U + V und U ∩ V auch Untervektorräume von Rn . Beweis Man sieht leicht, dass U ∩ V ein Untervektorraum von Rn ist. Wir zeigen also lediglich, dass U + V ein Untervektorraum ist. (U1): Da 0 ∈ U, 0 ∈ V und 0 = 0 + 0, ist 0 ∈ U + V . (U2): Seien w, w ′ ∈ U +V ; es gibt also u, u′ ∈ U und v, v ′ ∈ V mit w = u+v und w ′ = u′ + v ′ und dann ist w + w ′ = (u + v) + (u′ + v ′) = (u + u′) + (v + v ′) ∈ U + V , da u + u′ ∈ U und v + v ′ ∈ V . (U3): Sei w ∈ U + V , es gibt also u ∈ U und v ∈ V mit w = u + v. Für alle c ∈ R ist dann cw = c(u + v) = cu + cv ∈ U + V , da cu ∈ U und cv ∈ V . Damit ist U + V ein Untervektorraum von Rn . Satz 3.6 Für alle Untervektorräume U, V von Rn gilt dim(U + V ) + dim(U ∩ V ) = dim U + dim V . Beweis Sei (w1 , . . . , wm ) eine Basis von U ∩V (mit m = 0, falls U ∩V = {0}). Da U ∩ V ⊂ U und U ∩ V ⊂ V , gibt es nach Satz 3.3 Vektoren u1, . . . , up ∈ U (mit p ≥ 0) und Vektoren v1 , . . . , vq ∈ V (mit q ≥ 0), so dass (w1 , . . . , wm , u1, . . . , up ) eine Basis von U und (w1 , . . . , wm , v1 , . . . , vq ) eine Basis von V ist. Dann ist dim(U ∩ V ) = m, dim U = m + p und dim V = m + q, und also genügt es zu zeigen, dass (w1 , . . . , wm , u1 , . . . , up, v1 , . . . , vq ) eine Basis von U + V ist. Sei w ∈ U + V ; dann gibt es u ∈ U und v ∈ V , so dass w = u + v. Ferner gibt es b1 , . . . , bm , c1 , . . . , cp ∈ R mit u = b1 w1 + · · · + bm wm + c1 u1 + · · · + cp up , da (w1 , . . . , wm , u1 , . . . , up ) eine Basis von U ist, und b′1 , . . . , b′m , d1 , . . . , dq ∈ R mit v = b′1 w1 + · · · + b′m wm + d1 v1 + · · · + dq vq , da (w1 , . . . , wm , v1 , . . . , vq ) eine Basis von V ist. Daraus folgt, dass w = u + v = b′′1 w1 + · · · + b′′m wm + c1 u1 + · · · + cp up + d1 v1 + · · · + dq vq , wobei b′′j = bj + b′j für jedes j, d.h., w ∈ L(w1 , . . . , wm , u1, . . . , up , v1 , . . . , vq ). Damit ist U + V ⊂ L(w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq ). Andererseits folgt L(w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq ) ⊂ U + V unmittelbar aus Satz 2.2, da w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq ∈ U + V , d.h., es gilt L(w1 , . . . , wm , u1, . . . , up , v1 , . . . , vq ) = U + V . Es wird nun gezeigt, dass w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq linear unabhängig sind. Seien b1 , . . . , bm , c1 , . . . , cp , d1 , . . . , dq ∈ R mit b1 w1 + · · · + bm wm + c1 u1 + · · · + cp up + d1 v1 + · · · + dq vq = 0 . 3 Basen 30 Setze u = b1 w1 + · · · + bm wm + c1 u1 + · · · + cp up und v = d1 v1 + · · · + dq vq . Dann ist u ∈ L(w1 , . . . , wm , u1 , . . . , up ) = U und v ∈ L(v1 , . . . , vq ) ⊂ V . Aber u + v = 0, d.h., v = −u = (−1)u und damit ist auch v ∈ U, d.h., v ∈ U ∩V . Da (w1 , . . . , wm ) eine Basis von U ∩ V ist, gibt es b′1 , . . . , b′m ∈ R, so dass v = b′1 w1 + · · · + b′m wm . Es gilt also 0 = u+v = b1 w1 + · · · + bm wm + c1 u1 + · · · + cp up + b′1 w1 + · · · + b′m wm = (b1 + b′1 )w1 + · · · + (bm + b′m )wm + c1 u1 + · · · + cp up und w1 , . . . , wm , u1 , . . . , up sind linear unabhängig. Insbesondere ist dann ci = 0 für jedes i = 1, . . . , p und folglich ist b1 w1 + · · · + bm wm + d1 v1 + · · · + dq vq = 0. Aber w1 , . . . , wm , v1 , . . . , vq sind linear unabhängig und daraus ergibt sich, dass auch bj = 0 für j = 1, . . . , m und dk = 0 für k = 1, . . . , q. Dies zeigt, dass w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq linear unabhängig sind. 4 Matrizen Für jedes n ≥ 1 sei En ∈ M(n × n, R) 1 0 En = .. . 0 folgende Matrix: 0 ··· 0 1 ··· 0 .. . . .. . . . . 0 ··· 1 1 falls i = j , En heißt Einheitsmatrix. 0 sonst . Man schreibt oft einfach E statt En , wenn es klar ist, was n ist. Sei wieder Es gilt also En = (δij ), wobei δij = ej = (0, . . . , 0, 1, 0, . . . , 0) mit der Eins in der j-ten Komponente; es gilt c1 e1 + · · · + cn en = (c1 , . . . , cn ) für alle c1 , . . . , cn ∈ R. Sei A ∈ M(m × n, R) eine m × n Matrix und v ∈ Rn ; dann wird ein Vektor Av ∈ Rm definiert durch die Vorschrift b1 a11 · · · a1n b a11 b1 + · · · + a1n bn a21 · · · a2n .2 a21 b1 + · · · + a2n bn .. .. .. .. = . .. . . . . . .. am1 · · · amn am1 b1 + · · · + amn bn bn Zum Beispiel ist 2 1 4 6 2 · 6 + 3 · (−5) + 1 · 1 + (−2) · 2 −6 3 1 −2 −5 = 19 1 · 6 + 0 · (−5) + 7 · 1 + 3 · 2 0 7 3 1 = 4 · 6 + (−3) · (−5) + 0 · 1 + (−5) · 2 29 −3 0 −5 2 5 1 · 4 + 2 · (−2) + 1 · 5 1 2 1 3 1 6 4 3 · 4 + 1 · (−2) + 6 · 5 40 2 −3 2 −2 = 2 · 4 + (−3) · (−2) + 2 · 5 = 24 . 4 · 4 + (−8) · (−2) + 7 · 5 67 4 −8 7 5 30 6 · 4 + (−3) · (−2) + 0 · 5 6 −3 0 Für alle v ∈ Rn gilt En v = v. Für die m × n Matrix 0 gilt 0v = 0 für alle v ∈ Rn . 31 32 4 Matrizen Lemma 4.1 Sei A ∈ M(m × n, R) eine Matrix mit Spalten w1 , . . . , wn ∈ Rm . Dann gilt b1 .. A . = b1 w1 + · · · + bn wn bn für alle b1 , . . . , bn ∈ R. Insbesondere ist Aek = wk für k = 1, . . . , n. Beweis Sei A = (aij ); dann gilt a11 b1 + · · · + a1n bn a11 b1 a1n bn b1 a2n bn .. a21 b1 + · · · + a2n bn a21 b1 A . = = + · · · + .. .. .. . . . bn am1 b1 + · · · + amn bn am1 b1 amn bn b1 a11 bn a1n a11 a1n b1 a21 bn a2n a21 a2n = .. + · · · + .. = b1 .. + · · · + bn .. . . . . b1 am1 bn amn am1 amn = b1 w1 + · · · + bn wn . Lemma 4.2 Sei A ∈ M(m × n, R) eine m × n Matrix und b ∈ Rm . Dann ist Lös(A, b) = {v ∈ Rn : Av = b} . Mit anderen Worten: Ein Vektor v ∈ Rn ist eine Lösung des zu A und b gehörigen linearen Gleichungssystems genau dann, wenn Av = b. Beweis Seien w1 , . . . , wn die Spalten von A. Nach Satz 2.1 ist (r1 , . . . , rn ) in Lös(A, b) genau dann, wenn r1 w1 + · · · + rn wn = b. Nach Lemma 4.1 ist aber r1 .. r1 w 1 + · · · + rn w n = A . rn und folglich ist Lös(A, b) = {v ∈ Rn : Av = b}. Die Operation v 7→ Av hat folgende wichtige Eigenschaft: Satz 4.1 Sei A ∈ M(m × n, R) eine m × n Matrix. Dann gilt A(bu + cv) = bAu + cAv für alle u, v ∈ Rn und alle b, c ∈ R. 33 4 Matrizen p1 q1 .. .. Beweis Sei u = . , v = . und b, c ∈ R; also ist pn qn p1 q1 bp1 + cq1 .. bu + cv = b ... + c ... = . . pn qn bpn + cqn Seien nun w1 , . . . , wn die Spalten von A; dann ist nach Lemma 4.1 A(bu + cv) = = = = (bp1 + cq1 )w1 + · · · + (bpn + cqn )wn bp1 w1 + cq1 w1 + · · · + bpn wn + cqn wn bp1 w1 + · · · + bpn wn + cq1 w1 + · · · + cqn wn b(p1 w1 + · · · + pn wn ) + c(q1 w1 + · · · + qn wn ) = bAu + cAv . Sei A ∈ M(m × n, R). Durch Induktion nach p folgt aus Satz 4.1, dass A(c1 v1 + · · · + cp vp ) = c1 Av1 + · · · + cp Avp für alle v1 , . . . , vp ∈ Rn und alle c1 , . . . , cp ∈ R für jedes p ≥ 2. Eine Abbildung f : Rn → Rm heißt linear, wenn f (c1 v1 + c2 v2 ) = c1 f (v1 ) + c2 f (v2 ) für alle v1 , v2 ∈ Rn und alle c1 , c2 ∈ R gilt. Ist f : Rn → Rm linear, so folgt wieder durch Induktion nach p, dass f (c1 v1 + · · · + cp vp ) = c1 f (v1 ) + · · · + cp f (vp ) für alle v1 , . . . , vp ∈ Rn und alle c1 , . . . , cp ∈ R für jedes p ≥ 2. Für jede Matrix A ∈ M(m × n, R) definieren wir eine Abbildung fA : Rn → Rm durch fA (v) = Av für alle v ∈ Rn . Nach Satz 4.1 ist die Abbildung fA linear. Man beachte, dass nach Lemma 4.1 fA (ek ) = wk für k = 1, . . . , n, wobei w1 , . . . , wn die Spalten von A sind. Satz 4.2 Sei f : Rn → Rm linear und setze uk = f (ek ) für k = 1, . . . , n. Sei A ∈ M(m × n, R) die Matrix, die u1 , . . . , un als Spalten hat. Dann gilt f = fA . 34 4 Matrizen r1 Beweis Sei v ∈ Rn mit v = ... ; dann gilt rn r1 r1 0 0 r2 0 r2 0 v = .. = .. + .. + · · · + .. . . . . rn 0 0 rn 0 0 1 0 1 0 = r1 .. + r2 .. + · · · + rn .. = r1 e1 + · · · + rn en . . . 1 0 0 und daraus ergibt sich nach Lemma 4.1, dass f (v) = f (r1 e1 + · · · + rn en ) = r1 f (e1 ) + · · · + rn f (en ) r1 = r1 u1 + · · · + rn un = A ... = Av = fA (v) . rn Dies zeigt, dass f (v) = fA (v) für alle v ∈ Rn und folglich ist f = fA . Seien A = (aij ) ∈ M(ℓ × m, R) und B = (ajk ) ∈ M(m × n, R). Wir definieren eine ℓ × n Matrix C = (cik ) ∈ M(ℓ × n, R) durch cik = ai1 b1k + ai2 b2k + · · · + aim bmk für alle i = 1, . . . , ℓ, k = 1, . . . , n. Diese Matrix C heißt das Produkt von A und B und wird mit AB bezeichnet. Zum Beispiel sei A ∈ M(3 × 4, R) und B ∈ M(4 × 2, R) gegeben durch 2 −2 2 3 1 −2 1 0 A = 1 0 7 3 und B = 4 −3 4 −3 0 −5 −5 6 und sei AB = (cik ). Dann ist c11 c21 c31 c12 c22 c32 = = = = = = 2 · 2 + 3 · 1 + 1 · 4 + (−2) · (−5) = 21 1 · 2 + 0 · 1 + 7 · 4 + 3 · (−5) = 15 4 · 2 + (−3) · 1 + 0 · 4 + (−5) · (−5) = 30 2 · (−2) + 3 · 0 + 1 · (−3) + (−2) · 6 = −19 1 · (−2) + 0 · 0 + 7 · (−3) + 3 · 6 = −5 4 · (−2) + (−3) · 0 + 0 · (−3) + (−5) · 6 = −38 35 4 Matrizen und folglich ist die 3 × 2 Matrix AB gegeben durch 21 −19 AB = 15 −5 . 30 −38 Sei A = (aij ) ∈ M(m × n, R). Für alle i = 1, . . . , m, k = 1, . . . , n gilt ai1 δ1k + ai2 δ2k + · · · + ain δnk = aik und dies zeigt, dass AEn = A. Ferner gilt für alle i = 1, . . . , m, k = 1, . . . , n δi1 a1k + δi2 a2k + · · · + δim amk = aik und damit ist ebenfalls Em A = A. Lemma 4.3 Seien A = (aij ) ∈ M(ℓ × m, R) und B = (ajk ) ∈ M(m × n, R). Die Spalten der Matrix AB sind Aw1 , . . . , Awn , wobei w1 , . . . , wn die Spalten von B sind. Beweis Für jedes k = 1, . . . , n ist die k-te Spalte von AB b1k a11 b1k + · · · + a1m bmk a11 · · · a1m . a21 b1k + · · · + a2m bmk .. .. .. .. = . . . . = Awk . .. .. . aℓ1 · · · aℓm aℓ1 b1k + · · · + aℓm bmk bmk Satz 4.3 Seien A = (aij ) ∈ M(ℓ × m, R), B = (ajk ) ∈ M(m × n, R). Dann gilt (AB)v = A(Bv) für alle v ∈ Rn . r1 Beweis Seien v = ... und w1 , . . . , wn die Spalten von B. Nach Lemma 4.3 rn sind Aw1 , . . . , Awn die Spalten von AB und folglich ist nach Lemma 4.1 r1 .. (AB)v = (AB) . = r1 Aw1 + · · · + rn Awn , rn r1 .. Bv = B . = r1 w1 + · · · + rn wn . rn 36 4 Matrizen Nach Satz 4.1 ist aber A(r1 w1 + · · · + rn wn ) = r1 Aw1 + · · · + rn Awn und daraus ergibt sich, dass (AB)v = r1 Aw1 + · · · + rn Awn = A(r1 w1 + · · · + rn wn ) = A(Bv) . Seien A = (aij ) ∈ M(ℓ × m, R) und B = (ajk ) ∈ M(m × n, R) Matrizen. Dann gibt es die Abbildungen fA : Rm → Rℓ , fB : Rn → Rm und fAB : Rn → Rℓ mit fA (u) = Au, fB (v) = Bv und fAB (w) = (AB)w für alle u ∈ Rm , v ∈ Rn , w ∈ Rn . Nach Satz 4.3 ist fAB (w) = (AB)w = A(Bw) = fA (Bw) = fA (fB (w)) für alle w ∈ Rn und damit ist fAB = fA ◦ fB . Satz 4.4 Seien A ∈ M(ℓ × m, R), B ∈ M(m × n, R) und C ∈ M(n × p, R) Matrizen. Dann gilt (AB)C = A(BC) . Beweis Sind w1 , . . . , wp die Spalten von C, so sind Bw1 , . . . , Bwp die Spalten von BC und damit sind A(Bw1 ), . . . , A(Bwp ) die Spalten von A(BC). Andererseits sind (AB)w1 , . . . , (AB)wp die Spalten von (AB)C und nach Satz 4.2 gilt A(Bwk ) = (AB)wk für jedes k = 1, . . . , p. Daraus ergibt sich, dass A(BC) und (AB)C die gleichen Spalten haben und folglich ist A(BC) = (AB)C. Da die Matrizen-Multiplikation assoziativ ist, können wir beim Produkt von drei oder mehr Matrizen auf die Klammern verzichten. Zum Beispiel wird meistens lediglich ABC statt (AB)C (oder A(BC)) geschrieben. Eine Matrix A heißt quadratisch, wenn sie genauso viele Zeilen wie Spalten hat, d.h., wenn A ∈ M(n × n, R) für ein n ≥ 1. Insbesondere ist En quadratisch. Lemma 4.4 Sei A ∈ M(n × n, R). Dann gibt es höchstens ein A′ ∈ M(n × n, R), so dass AA′ = A′ A = En . Beweis Seien B, C ∈ M(n × n, R) mit AB = BA = En = AC = CA. Dann gilt B = BEn = B(AC) = (BA)C = En C = C . Eine quadratische Matrix A ∈ M(n×n, R) heißt invertierbar, wenn es eine Matrix A′ ∈ M(n×n, K) gibt, so dass AA′ = A′ A = En . Nach Lemma 4.4 ist diese Matrix A′ eindeutig und sie wird mit A−1 bezeichnet, d.h., A−1 ist die eindeutige Matrix mit AA−1 = A−1 A = En . 4 Matrizen 37 Lemma 4.5 (1) Die Einheitsmatrix En ist invertierbar und En−1 = En . (2) Ist A ∈ M(n × n, R) invertierbar, so ist auch A−1 invertierbar und es gilt (A−1 )−1 = A. (3) Sind A, B ∈ M(n × n, R) invertierbar, so ist auch AB invertierbar und es gilt (AB)−1 = B −1 A−1 . Beweis (1) Dies ist klar, da En En = En En = En . (2) Dies ist auch klar, da A−1 A = AA−1 = En . (3) Dies folgt aus der Assoziativität der Matrizenmultiplikation, da (AB)(B −1 A−1 ) = A(BB −1 )A−1 = AEn A−1 = AA−1 = En und (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 En B = B −1 B = En . Bisher wurden unter elementaren Zeilenumformungen die folgenden Operationen verstanden: I Addition eines Vielfachen einer Zeile zu einer anderen Zeile. II Vertauschen zweier Zeilen. Es erweist sich aber als nützlich, eine dritte Art von elementarer Zeilenumformung zuzulassen, und zwar: III Multiplikation einer Zeile mit einem Skalar c ∈ R, c 6= 0. Satz 2.3 gilt auch für Umformungen der dritten Art: Wird (A, b) durch eine elementare Zeilenumformung vom Typ III zu einer Matrix (A′ , b′ ) verändert, so gilt Lös(A, b) = Lös(A′ , b′ ). Wir zeigen jetzt, dass jede elementare Zeilenumformung durch Multiplikation von links mit einer geeigneten Matrix bewirkt werden kann. 38 4 Matrizen Sei 1 ≤ i, j ≤ n mit i 6= j und c ∈ R mit c = 6 0. Seien Sn (i, c), Pn (i, j) und Qn (i, j, c) folgende Elemente von M(n × n, R): 1 .. . 1 ← i te Zeile c Sn (i, c) = 1 . .. . .. 1 1 .. . 1 ← i-te Zeile 0 1 1 . . Pn (i, j) = . 1 1 0 ← j-te Zeile 1 .. . 1 Qn (i, j, c) = i-te Spalte ↑ ↑ j-te Spalte 1 .. . 1 1 c 1 .. . 1 1 1 .. . 1 ↑ j-te Spalte ← i-te Zeile (Außer der eingetragenen oder der durch Punkte angedeuteten Komponenten sind dabei alle Komponenten gleich Null.) Solche Matrizen werden Elementarmatrizen genannt. 39 4 Matrizen Lemma 4.6 Elementarmatrizen sind invertierbar mit Sn (i, c)−1 = Sn (i, c−1 ), Pn (i, j)−1 = Pn (i, j) und Qn (i, j, c)−1 = Qn (i, j, −c). Beweis Übung. Lemma 4.7 Sei A ∈ M(m × n, R) und sei 1 ≤ i, j ≤ m mit i 6= j und c ∈ R mit c 6= 0. Dann gilt: (1) Die Matrix Sm (i, c)A erhält man durch Multiplikation der i-ten Zeile von A mit dem Skalar c. (2) Die Matrix Pm (i, j)A erhält man durch Vertauschung der i-ten und der j-ten Zeilen von A. (3) Die Matrix Qm (i, j, c)A erhält man durch Addition des c-fachen der j-ten Zeile zu der i-ten Zeile von A. Beweis Übung. Multiplikation von links mit einer Elementarmatrix bewirkt also eine elementare Zeilenumformung. Ferner entsteht jede elementare Zeilenumformung auf diese Weise. Eine n × n Matrix D = (dij ) ∈ M(n × n, R) heißt Diagonalmatrix, wenn dij = 0 für alle i, j mit i 6= j. Eine solche Matrix D hat also folgende Gestalt: D= d11 0 .. . 0 d22 .. . 0 0 ··· ··· .. . 0 0 .. . · · · dnn . Insbesondere sind die Einheitsmatrix En und die Nullmatrix 0 beide Diagonalmatrizen. Satz 4.5 Für eine quadratische Matrix A ∈ M(n × n, R) sind äquivalent: (1) Lös(A, 0) = {0}. (2) Das zu (A, b) gehörige Gleichungssystem ist lösbar für jedes b ∈ Rn . (3) Das zu (A, b) gehörige Gleichungssystem ist eindeutig lösbar für jedes b ∈ Rn . (4) A läßt sich durch eine endliche Folge von elementaren Zeilenumformungen in eine Matrix A′ = (a′ij ) folgender Gestalt überführen: 40 4 Matrizen ∗ · 0 ∗ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 · · ∗ 0 0 0 0 0 0 · · · · · · ∗ · 0 ∗ 0 0 0 0 0 0 0 0 · · · · · · · · · · ∗ · 0 ∗ 0 0 0 0 · · · · · · · · · · · · · · ∗ · 0 ∗ . (5) A läßt sich durch eine endliche Folge von elementaren Zeilenumformungen in eine Diagonalmatrix D = (dij ) mit dii 6= 0 für alle i = 1, . . . , n überführen. (6) A läßt sich durch eine endliche Folge von elementaren Zeilenumformungen in die Einheitsmatrix En überführen. (7) Die Matrix A ist invertierbar. (8) Es gibt eine Matrix B ∈ M(n × n, R), so dass BA = En . (9) Es gibt eine Matrix C ∈ M(n × n, R), so dass AC = En . Beweis Wir haben in Kapitel 2 gesehen, dass die Aussagen (1), (2), (3) und (4) äquivalent sind. (6) ⇒ (4): Dies ist klar, da En Zeilen-Stufen-Form hat. (6) ⇒ (7): Sei β1 , . . . , βp eine Folge von elementaren Zeilenumformungen, die A in die Einheitsmatrix En überführt. Für jedes j gibt es nach Lemma 4.7 eine Elementarmatrix Bj , die durch Multiplikation von links die Zeilenumformung βj bewirkt. Dann ist En = Bp · · · B2 B1 A. Setze B = Bp · · · B2 B1 und also ist En = BA. Nach Lemma 4.6 und Lemma 4.5 (2) ist aber B invertierbar und es gilt B −1 = B −1 En = B −1 BA = En A = A. Folglich ist nach Lemma 4.5 (2) A invertierbar (und A−1 = B). (8) ⇒ (1): Es gibt eine Matrix B ∈ M(n × n, R) mit BA = En . Sei v ∈ Lös(A, 0); nach Lemma 4.2 ist Av = 0 und damit ist nach Satz 4.3 v = En v = (BA)v = B(Av) = B0 = 0 und dies zeigt, dass Lös(A, 0) = {0}, d.h. dass (1) gilt. (9) ⇒ (2): Es gibt eine Matrix C ∈ M(n × n, R) mit AC = En . Sei b ∈ Rn und setze v = Cb. Dann ist nach Satz 4.3 Av = A(Cb) = (AC)b = En b = b und damit ist nach Lemma 4.2 v ∈ Lös(A, b) und folglich ist das zu (A, b) gehörige Gleichungssystem lösbar für jedes b ∈ Rn . Dies zeigt, dass (2) gilt. 41 4 Matrizen (7) ⇒ (8): Dies ist klar, da A−1 A = En . (7) ⇒ (9): Dies ist klar, da AA−1 = En . (4) ⇒ (5) ⇒ (6): Hier ist ein Beispiel, das deutet an, warum dies der Fall ist: Betrachte die 5 × 5 Matrix 1 0 A= 0 0 0 2 1 6 7 2 0 4 3 0 −1 0 4 0 0 −2 2 0 0 0 −1 Die Matrix A hat Zeilen-Stufen-Form und es gilt 1 0 A= 0 0 0 2 1 6 7 2 0 4 3 0 −1 0 4 0 0 −2 2 0 0 0 −1 ⇓ (4. ⇓ (3. ⇓ (2. ⇓ (1. Zeile ⇒ 4. Zeile ⇒ 3. Zeile ⇒ 2. Zeile ⇒ 1. 1 0 0 0 0 2 1 6 0 2 0 4 0 0 −1 0 0 0 0 −2 0 0 0 0 −1 2 1 0 0 2 0 0 0 0 −1 0 0 0 0 −2 0 0 0 0 −1 1 0 0 0 0 Zeile + 2 × 5. Zeile + 4 × 5. Zeile + 3 × 5. Zeile + 7 × 5. Zeile) Zeile) Zeile) Zeile) ⇓ (2. Zeile ⇒ 2. Zeile + 2 × 4. Zeile) ⇓ (1. Zeile ⇒ 1. Zeile + 3 × 4. Zeile) ⇓ (1. Zeile ⇒ 1. Zeile + 3. Zeile) 42 4 Matrizen 1 0 0 0 0 2 0 0 0 2 0 0 0 0 −1 0 0 0 0 −2 0 0 0 0 −1 0 0 0 0 2 0 0 0 0 −1 0 0 =D. 0 0 −2 0 0 0 0 −1 1 0 0 0 0 ⇓ (1. Zeile ⇒ 1. Zeile − 2. Zeile) Nun ist D eine Diagomalmatrix und es gilt 1 0 D= 0 0 0 1 0 0 0 0 0 0 0 0 2 0 0 0 0 −1 0 0 0 0 −2 0 0 0 0 −1 ⇓ (2. ⇓ (3. ⇓ (4. ⇓ (5. 0 1 0 0 0 0 0 1 0 0 Zeile ⇒ 12 × 2. Zeile) Zeile ⇒ (−1) × 3. Zeile) Zeile ⇒ (− 21 ) × 4. Zeile) Zeile ⇒ (−1) × 5. Zeile) 0 0 0 1 0 0 0 0 = E5 . 0 1 Satz 4.6 Sei A ∈ M(n × n, R) invertierbar und sei β1 , . . . , βp eine Folge von elementaren Zeilenumformungen, die A in die Einheitsmatrix En überführt. Dann überführt die Folge β1 , . . . , βp die Einheitsmatrix En in die Matrix A−1 . Beweis Für jedes j = 1, . . . , p gibt es nach Lemma 4.7 eine Elementarmatrix Bj , die durch Multiplikation von links die Zeilenumformung βj bewirkt. Dann 43 4 Matrizen ist En = Bp · · · B2 B1 A, und die Folge β1 , . . . , βp überführt die Matrix En in die Matrix Bp · · · B2 B1 En . Aber Bp · · · B2 B1 En = Bp · · · B2 B1 = A−1 , da (Bp · · · B2 B1 )A = En . 5 Diagonalisierbarkeit von Matrizen In diesem Kapitel betrachten wir nur quadratische Matrizen, d.h. n × n Matrizen für ein n ≥ 1. Eine n × n Matrix D = (dij ) heißt Diagonalmatrix, wenn dij = 0 für alle i, j mit i 6= j. Eine Diagonalmatrix hat also folgende Gestalt: λ1 0 · · · 0 0 λ2 · · · 0 .. .. . . .. . . . . 0 0 · · · λn Insbesondere sind En und die n × n Matrix 0 Diagonalmatrizen. Eine n × n Matrix A heißt diagonalisierbar, wenn es eine invertierbare n × n Matrix P gibt, so dass P −1 AP eine Diagonalmatrix ist. 5 −6 diagonalisierbar: Es gilt Zum Beispiel ist die 2 × 2 Matrix A = 3 −4 21 1 −1 10 = = E2 ; 11 −1 2 01 1 −1 21 −1 und invertierbar mit P = also ist die Matrix P = −1 2 11 2 0 21 5 −6 1 −1 −1 . = P AP = 0 −1 11 3 −4 −1 2 Folglich ist P −1AP eine Diagonalmatrix und damit ist A diagonalisierbar. (Wie man feststellen kann, dass A diagonalisierbar ist und die Matrix P bestimmt, wird später erklärt.) In vielen praktischen Anwendungen, in denen Matrizen vorkommen, wird die Analyse einfacher, wenn die Matrizen diagonalisierbar sind. Hier ist ein Beispiel: Sei A eine n×n Matrix; oft will man die Potenzen Am , m ≥ 1, von A untersuchen, wobei A1 = A, A2 = AA, A3 = AAA, A4 = AAAA, usw. Ist A diagonalisierbar mit P −1 AP = D, so ist D m = (P −1 AP )(P −1AP )(P −1AP ) · · · (P −1 AP ) = P −1 A(P P −1)A(P P −1)A(P · · · P −1 )AP = P −1 AEn AEn A · · · AP = P −1 AAgA · · · AP = P −1Am P und dann ist auch Am = P D m P −1 . Nun ist 44 45 5 Diagonalisierbarkeit von Matrizen λ1 0 .. . 0 λ2 .. . ··· ··· .. . 0 0 .. . 0 0 · · · λn µ1 0 .. . 0 µ2 .. . ··· ··· .. . 0 0 .. . λ1 µ 1 0 0 λ2 µ 2 = .. .. . . 0 0 · · · µn 0 0 ··· ··· .. . 0 0 .. . · · · λn µ n , d.h. das Produkt D1 D2 von Diagonalmatrizen D1 und D2 ist eine Diagonalmatrix, deren Diagonal-Einträge Produkte von den entsprechenden Diagonal-Einträgen aus D1 und D2 sind. Daraus folgt durch Induktion, dass λm 1 0 D m = .. . 0 λm 2 .. . 0 ··· ··· .. . 0 0 .. . 0 · · · λm n gilt für jedes m ≥ 1 für die Diagonalmatrix λ1 0 D = .. . 0 λ2 .. . ··· ··· .. . 0 0 .. . 0 0 · · · λn . Wenn man also die Zahlen λ1 , . . . , λn und die Matrix P kennt, ist es relativ leicht, die Matrix Am zu berechnen. Es gibt aber Matrizen, die nicht diagonalisierbar sind. Zum Beispiel ist die Matrix 01 N= 00 nicht diagonalisierbar. (Nehme an, es gäbe eine invertierbare 2 × 2 Matrix P , so λ 0 . Nun ist N 2 = 0, und damit gilt wie oben dass P −1 NP = D = 0ν 2 λ 0 = D 2 = (P −1NP )(P −1 NP ) = P −1 N 2 P = P −1 0P = 0 . 0 ν2 Also ist λ = µ = 0, d.h. D = 0. Dann wäre aber auch N = P DP −1 = P 0P −1 = 0, was nicht der Fall ist.) Die Klasse der diagonalisierbaren Matrizen ist doch sehr groß und wir untersuchen jetzt die folgende Frage: Wie kann man feststellen, ob eine gegebene Matrix A 5 Diagonalisierbarkeit von Matrizen 46 diagonalisierbar ist? Darüber hinaus wollen wir ein Verfahren haben, das eine invertierbare Matrix P und eine Diagonalmatrix D mit P −1 AP = D bestimmt, wenn A diagonalisierbar ist. Sei A eine diagonalisierbare Matrix, es gibt also eine Diagonalmatrix D und eine invertierbare Matrix P , so dass P −1 AP = D. Dann ist AP = P D, da AP = En AP = (P P −1)AP = P (P −1AP ) = P D . Lemma 5.1 Sei A und P beliebige n × n λ1 0 0 λ2 D = .. .. . . 0 0 Matrizen, sei ··· 0 ··· 0 . . .. . . · · · λn eine Diagonalmatrix. Es gilt AP = P D genau dann, wenn Awj = λj wj für jedes j = 1, . . . , n, wobei w1 , . . . , wn die Spalten von P sind. Beweis Nach Lemma 5.3 sind Aw1 , . . . , Awn die Spalten von AP . Ferner sind λ1 w1 , . . . , λn wn die Spalten von P D. (Nach Lemma 5.3 sind P u1, . . . , P un die Spalten von P D, wobei u1 , . . . , un die Spalten von D sind. Aber uj = λj ej und also ist P uj = P (λj ej ) = λj P ej = λj wj .) Daraus ergibt sich, dass AP = P D genau dann gilt, wenn Awj = λj wj für jedes j = 1, . . . , n. Sei nun A eine beliebige n × n Matrix; eine Zahl λ ∈ R heißt Eigenwert von A, wenn es einen Vektor v ∈ Rn mit v 6= 0 gibt, so dass Av = λv und dann heißt v ein Eigenvektor von A zum Eigenwert λ. Wichtige Bemerkung: 0 ist ein Eigenwert von A genau dann, wenn die Matrix A nicht invertierbar ist. (0 ist ein Eigenwert von A genau dann, wenn es ein v ∈ Rn mit v 6= 0 gibt, so dass Av = 0, d.h. (nach Lemma 5.2) genau dann, wenn Lös(A, 0) 6= {0}, und nach Satz 5.5 gilt Lös(A, 0) 6= {0} genau dann, wenn A nicht invertierbar ist.) Satz 5.1 Eine n × n Matrix A ist diagonalisierbar genau dann, wenn es eine aus Eigenvektoren von A bestehende Basis von Rn gibt. Ist ferner (w1 , . . . , wn ) eine aus Eigenvektoren von A bestehende Basis von Rn und ist P die n × n Matrix mit Spalten w1 , . . . , wn , so ist P invertierbar und λ1 0 · · · 0 0 λ2 · · · 0 P −1 AP = .. .. . . .. , . . . . 0 0 · · · λn wobei λ1 , . . . , λn die entsprechenden Eigenwerte sind (es gilt also Awj = λj wj für jedes j = 1, . . . , n. 5 Diagonalisierbarkeit von Matrizen 47 Beweis Nehme zunächst an, dass es eine aus Eigenvektoren von A bestehende Basis (w1 , . . . , wn ) von Rn gibt. Für jedes j = 1, . . . , n gibt es also ein λj ∈ R, so dass Awj = λj wj . Sei P die n×n Matrix mit Spalten w1 , . . . , wn ; nach Lemma 5.1 gilt dann AP = P D, wobei λ1 0 · · · 0 0 λ2 · · · 0 D = .. .. . . .. . . . . . 0 0 · · · λn Da nun (w1 , . . . , wn ) eine Basis von Rn ist, sind die Vektoren w1 , . . . , wn linear unabhängig und daher ist nach Satz 2.6 Lös(P, 0) = {0}. Daraus ergibt sich nach Satz 5.5, dass P invertierbar ist und folglich ist P −1 AP = P −1 P D = En D = D, d.h. A ist diagonalisierbar. Nehme umgekehrt an, dass A diagonalisierbar ist. Es gibt also eine invertierbare Matrix P , so dass λ1 0 · · · 0 0 λ2 · · · 0 −1 P AP = D = .. .. . . .. . . . . . 0 0 · · · λn Dann ist AP = P D und folglich ist nach Lemma 5.1 Awj = λj wj für jedes j = 1, . . . , n, wobei w1 , . . . , wn die Spalten von A sind. Da P invertierbar ist, ist nach Satz 5.5 Lös(P, 0) = {0} und daher sind nach Satz 2.6 w1 , . . . , wn linear unabhängig. Insbesondere ist wj 6= 0 und also ist wj ein Eigenvektor von A zum Eigenwert λj für jedes j = 1, . . . , n. Ferner ist (w1 , . . . , wn ) eine Basis von L(w1 , . . . , wn ), d.h. dim L(w1 , . . . , wn ) = n und daraus ergibt sich nach Satz 4.4, dass L(w1 , . . . , wn ) = Rn , d.h. (w1 , . . . , wn ) ist eine Basis von Rn , die aus Eigenvektoren von A besteht. Für jede n × n Matrix A = (aij ) und jedes λ ∈ R setze a11 − λ a12 · · · a1n a21 a22 − λ · · · a2n Aλ = A − λEn = . .. .. .. . . . . . . an1 an2 · · · ann − λ Also ist aij − λ falls i = j , (Aλ )ij = aij falls i 6= j . 7 11 Für die Matrix A = ist zum Beispiel 4 −5 −1 11 7 − 8 11 . = A8 = 4 −13 4 −5 − 8 5 Diagonalisierbarkeit von Matrizen 48 Lemma 5.2 Sei A eine n×n Matrix, λ ∈ R und v ∈ Rn ; dann ist Aλ v = Av−λv und insbesondere gilt Aλ v = 0 genau dann, wenn Av = λv. Beweis Seien w1 , . . . , wn die Spalten von A; dann sind w1 − λe1 , . . . , wn − λen die Spalten von Aλ . Ist c1 .. v= . , cn so ist nach Lemma 5.1 Av = c1 v1 + · · · + cn vn und Aλ v = c1 (v1 − λe1 ) + · · · + cn (vn − λen ) = c1 v1 + · · · + cn vn − λ(c1 e1 + · · · + cn en ) = Av − λv . Satz 5.2 Sei A eine n × n Matrix und λ ∈ R. Dann gilt: (1) Lös(Aλ , 0) = {v ∈ Rn : Av = λv}. (2) λ ist ein Eigenwert von A genau dann, wenn das zu Aλ gehörige homogene Gleichungssystem nicht eindeutig lösbar ist. (3) Ist λ ein Eigenwert von A, so sind die Eigenvektoren von A zum Eigenwert λ genau die Elemente in der Menge Lös(Aλ , 0), die nicht gleich 0 sind. Beweis (1) Nach Lemma 5.2 und Lemma 5.2 ist Lös(Aλ , 0) = {v ∈ Rn : Aλ v = 0} = {v ∈ Rn : Av = λv} . (2) Die Zahl λ ist ein Eigenwert von A genau dann, wenn es ein v ∈ Rn \ {0} mit Av = λv gibt. Folglich ist nach (1) λ ein Eigenwert von A genau dann, wenn Lös(Aλ , 0) 6= {0}. (3) Dies folgt unmittelbar aus (2). Sei A eine n × n Matrix; für jedes λ ∈ R setze E(A, λ) = {v ∈ Rn : Av = λv} . Nach Satz 5.2 (1) gilt E(A, λ) = Lös(Aλ , 0) und insbesondere ist E(A, λ) ein Untervektorraum von Rn . Nach Satz 5.2 (2) ist λ ein Eigenwert von A genau dann, wenn E(A, λ) 6= {0} und ist λ ein Eigenwert von A, so ist nach Satz 5.2 (3) E(A, λ) \ {0} die Menge der Eigenvektoren von A zum Eigenwert λ. Ist λ ein Eigenwert von A, so heißt E(A, λ) der Eigenraum von A zum Eigenwert λ. Für jedes λ ∈ R ist es leicht festzustellen, ob λ ein Eigenwert von A ist: Dies ist genau dann der Fall, wenn das zu Aλ gehörige homogene Gleichungssystem nicht 5 Diagonalisierbarkeit von Matrizen 49 eindeutig lösbar ist. Ist ferner λ ein Eigenwert von A, so kann man eine Basis von E(A, λ) = Lös(Aλ , 0) bestimmen und diese Basis besteht aus Eigenvektoren von A zum Eigenwert λ. (Die Vektoren in einer Basis sind linear unabhängig und damit alle verschieden von Null.) Es ist aber nicht so leicht, die Eigenwerte von A zu bestimmen. (Man kann nicht einfach für jedes λ ∈ R prüfen, ob λ ein Eigenwert ist, da es unendlich viele reelle Zahlen λ gibt.) Wir können aber zeigen, dass es für eine n × n Matrix höchstens n verschiedene Eigenwerte gibt und dafür wird das folgende Lemma gebraucht. Lemma 5.3 Seien λ1 , . . . , λm verschiedene Eigenwerte der n × n Matrix A (es gilt also λi 6= λj , falls i 6= j) und für j = 1, . . . , m sei vj Eigenvektor von A zum Eigenwert λj . Dann sind die Vektoren v1 , . . . , vm linear unabhängig. Beweis Nehme an, v1 , . . . , vm sind linear abhängig. Da v1 6= 0, gibt es nach Lemma 2.12 ein k mit 2 ≤ k ≤ m, so dass vk ∈ L(v1 , . . . , vk−1 ). Sei p der kleinste solche Index, es gilt also 2 ≤ p ≤ m, vp ∈ L(v1 , . . . , vp−1 ), aber vi ∈ / L(v1 , . . . , vi−1 ) für alle 2 ≤ i < p. Nach Lemma 2.12 sind v1 , . . . , vp−1 linear unabhängig. Da vp ∈ L(v1 , . . . , vp−1 ), gibt es c1 , . . . , cp−1 ∈ R, so dass vp = c1 v1 + · · · + cp−1 cp−1 . Dann ist 0 = Avp − λp vp = = = = A(c1 v1 + · · · + cp−1 vp−1 ) − λp (c1 v1 + · · · + cp−1vp−1 ) c1 Av1 + · · · + cp−1 Avp−1 − λp (c1 v1 + · · · + cp−1 vp−1 ) c1 λ1 v1 + · · · + cp−1 λp−1 vp−1 − (c1 λp v1 + · · · + cp−1 λp vp−1 ) c1 (λ1 − λp )v1 + · · · + cp−1 (λp−1 − λp )vp−1 , und daraus ergibt sich, dass cj (λj − λp ) = 0 für j = 1, . . . , p − 1, da v1 , . . . , vp−1 linear unabhängig sind. Aber λj − λp 6= 0 und also ist cj = 0 für j = 1, . . . , p − 1. Damit ist vp = c1 v1 + · · · + cp−1 vp−1 = 0 und dies ist ein Widerspruch, da vp ein Eigenvektor ist. Daher müssen v1 , . . . , vm linear unabhängig sein. Satz 5.3 Eine n × n Matrix A hat höchstens n verschiedene Eigenwerte. Beweis Seien λ1 , . . . , λm verschiedene Eigenwerte von A und für j = 1, . . . , m sei vj ein Eigenvektor von A zum Eigenwert λj . Nach Lemma 5.3 sind die Vektoren v1 , . . . , vm linear unabhängig. und daraus folgt nach Satz 2.7, dass m ≤ n. Also kann A höchstens n verschiedene Eigenwerte haben. Satz 5.4 Sei A eine n × n Matrix mit n verschiedenen Eigenwerten λ1 , . . . , λn . Dann ist A diagonalisierbar. Ist ferner vj ein Eigenvektor von A zum Eigenwert 50 5 Diagonalisierbarkeit von Matrizen λj für jedes j = 1, . . . , n, so ist (w1 , . . . , wn ) eine Basis von Rn und es gilt λ1 0 · · · 0 0 λ2 · · · 0 −1 P AP = D = .. .. . . .. , . . . . 0 0 · · · λn wobei P die Matrix mit Spalten w1 , . . . , wn ist. Beweis Nach Lemma 5.3 sind die Vektoren w1 , . . . , wn linear unabhängig und damit ist (genauso wie im Beweis für Satz 5.1) (w1 , . . . , wn ) eine Basis von Rn . Diese Basis besteht aus Eigenvektoren von A und folglich ist nach Satz 5.1 A diagonalisierbar. Ferner gilt nach Satz 5.1, dass P −1 AP = D, wobei P die Matrix mit Spalten w1 , . . . , wn ist. Satz 5.5 Seien λ1 , . . . , λm die verschiedenen Eigenwerte der n × n Matrix A. Dann ist dim E(A, λ1 ) + · · ·+ dim E(A, λm ) ≤ n, und A ist diagonalisierbar genau dann, wenn dim E(A, λ1 ) + · · · + dim E(A, λm ) = n . Ist ferner A diagonalisierbar und ist (uj1 , . . . , ujpj ) eine Basis von E(A, λj ) für jedes j = 1, . . . , m, so ist m (w1 , . . . , wn ) = (u11 , . . . , u1p1 , . . . , um 1 , . . . , upm ) eine aus Eigenvektoren von A bestehende Basis von Rn . Beweis Es ist relativ leicht, die Eigenwerte einer 2 × 2 Matrix zu bestimmen und wir betrachten nun diesen Fall. Für die 2 × 2 Matrix A= a11 a12 a21 a22 wird die Determinante det A definiert durch det A = a11 a22 − a12 a21 . Zum Beispiel ist det 53 26 = 5 · 6 − 3 · 2 = 30 − 6 = 24 , det 12 24 = 1·4−2·2 =4−4= 0. 51 5 Diagonalisierbarkeit von Matrizen Satz 5.6 Für eine 2 × 2 Matrix A gilt det A 6= 0 genau dann, wenn das zu A gehörige homogene Gleichungssystem eindeutig lösbar ist. Folglich gilt nach Satz 5.5, dass det A 6= 0 genau dann gilt, wenn A invertierbar ist. Beweis Sei A die 2 × 2 Matrix a11 a12 a21 a22 . Ist a11 6= 0, so gilt Lös(A, 0) = Lös(B, 0), wobei a11 a12 B= 0 b mit b = a22 − (a21 /a11 )a12 und Lös(B, 0) = {0} genau dann, wenn b 6= 0, d.h. genau dann, wenn det A 6= 0. Ist a21 6= 0, so gilt Lös(A, 0) = Lös(C, 0), wobei a21 a22 C= 0 c mit c = a12 −(a11 /a21 )a22 und Lös(C, 0) = {0} genau dann, wenn c 6= 0, d.h. genau dann, wenn det A 6= 0. Ist andererseits a11 = a21 = 0, so ist Lös(A, 0) 6= {0} und det A = 0. Damit gilt det A 6= 0 genau dann, wenn das zu A gehörige homogene Gleichungssystem eindeutig lösbar ist. Im Folgenden sei A die 2 × 2 Matrix a11 a12 . a21 a22 Für jedes λ ∈ R ist also Aλ = a11 − λ a12 a21 a22 − λ und nach Satz 5.2 und Satz 5.6 ist λ ein Eigenwert von A genau dann, wenn det Aλ = 0. Nun ist det Aλ = (a11 − λ)(a22 − λ) − a12 a21 = λ2 − (a11 + a22 )λ + (a11 a22 − a12 a21 ) und das Polynom χA = x2 − (a11 + a22 )x + (a11 a22 − a12 a21 ) , das durch Ersetzen von λ mit x entsteht, heißt das charakteristische Polynom von A; die Eigenwerte von A sind genau die Nullstellen von χA . 52 5 Diagonalisierbarkeit von Matrizen Ist A eine 2 ×2 Matrix mit zwei verschiedenen Eigenwerten λ1 und λ2 , so ist nach Satz 5.4 A diagonalisierbar. Ist ferner v1 (bzw. v2 ) ein Eigenvektor von A zum Eigenwert λ1 (bzw. zum Eigenwert λ2 ), so ist (v1 , v2 ) eine Basis von R2 und λ1 0 −1 , P AP = 0 λ2 wobei P die 2 × 2 Matrix mit Spalten v − 1 und v2 ist. Beispiel: Betrachte die Matrix A= 5 −6 3 −4 , die am Anfang des Kapitels vorkam. Hier ist χA = (5 − x)(−4 − x) + 18 = x2 − x − 2 = (x − 2)(x + 1) . Also sind 2 und −1 die Nullstellen von χA und damit sind 2 und −1 die Eigenwerte von A. Nun ist 5 − 2 −6 3 −6 A2 = = 3 −4 − 2 3 −6 und nach Satz 5.2 sind die Eigenvektoren von A zum Eigenwert 2 die Elemente von Lös(A2 , 0), die nicht gleich 0 sind. Hier ist das Gleichungssystem 3x − 6y = 0 3x − 6y = 0 2 ist eine Lösung, die nicht gleich 0 ist. Damit ist v1 ein Eigenvektor und v1 = 1 von A zum Eigenwert 2. Genauso ist 5 + 1 −6 6 −6 A−1 = = 3 −4 + 1 3 −3 und nach Satz 5.2 sind die Eigenvektoren von A zum Eigenwert −1 die Elemente von Lös(A−1 , 0), die nicht gleich 0 sind. Hier ist das Gleichungssystem 6x − 6y = 0 3x − 3y = 0 1 ist eine Lösung, die nicht gleich 0 ist. Damit ist v2 ein Eigenvektor und v2 = 1 von A zum Eigenwert −1. Wie im Satz 5.4 behauptet wird, ist (v1 , v2 ) eine Basis von R2 . Sei P die Matrix mit Spalten v1 und v2 , d.h. 21 . P = 11 53 5 Diagonalisierbarkeit von Matrizen Dann ist P invertierbar und es gilt P −1 AP = Dies kann man leicht nachprüfen: Es ist P P −1 AP = 1 −1 −1 2 2 0 0 −1 −1 5 −6 3 −4 = . 1 −1 und −1 2 1 2 0 = . 1 0 −1 2 1 Es gilt auch A = P DP −1 und An = P D n P −1 für jedes n ≥ 1. Zum Beispiel ist A9 = P D 9 P −1 9 1 −1 2 0 21 = −1 2 0 −1 11 9 1 −1 2 0 21 = −1 2 0 (−1)9 11 1025 −1026 1 −1 512 0 21 . = = 512 − 514 −1 2 0 −1 11 Wichtige Beispiele von 2 × 2 Matrizen sind die Dreh- und Spiegelungsmatrizen. Für jedes θ ∈ R seien Dθ und Sθ folgende Matrizen: cos θ − sin θ cos θ sin θ Dθ = , Sθ = . sin θ cos θ sin θ − cos θ Insbesondere ist D0 = E2 und Dπ = −E2 und S0 = S, wobei 1 0 S= . 0 −1 Für jedes θ ∈ R seien Vektoren uθ und u′θ in R2 definiert durch − sin θ cos θ ′ . und uθ = uθ = cos θ sin θ Also hat Dθ Spalten uθ und u′θ und Sθ hat Spalten uθ und −u′θ . Man beachte, dass u′θ = uθ+ 1 π und −u′θ = uθ− 1 π . 2 2 Satz 5.7 (1) Für alle θ, α ∈ R gilt Dθ uα = uθ+α , Dθ u′α = u′θ+α , Sθ uα = uθ−α und Sθ u′α = −u′θ−α . (2) Für alle ̺, θ ∈ R gilt D̺ Dθ = D̺+θ , S̺ Sθ = D̺−θ , D̺ Sθ = S̺+θ und S̺ Dθ = S̺−θ . 5 Diagonalisierbarkeit von Matrizen 54 Beweis p Für u = (p1 , p2 ), v = p (q1 , q2 ) ∈ R2 sei hu, vi = p1 q1 + p2 q2 und kuk = hu, ui (und damit ist kuk = p21 + p22 ). x Sei v = ∈ R2 ; Satz 5.7 kann benutzt werden, um die Vektoren Dθ v und Sθ v y zu berechnen und da Dθ 0 = Sθ 0 = 0, können wir annehmen, dass v 6= 0. Dann ist r = kvk > 0 und es gibt ein α ∈ R, so dass cos α = x/r und sin α = y/r. Also ist x = r cos α und y = r sin α. Damit ist v = ruα und nach Satz 5.7 ist Dθ (ruα ) = rDθ uα = ruθ+α . Die lineare Abbildung v 7→ Dθ v dreht also jeden Vektor um den Winkel θ. Daher heißt Dθ eine Drehmatrix. Ferner gilt Sθ (ruα ) = rSθ uα = ruθ−α . Setze σ = 21 θ und β = α − σ; dann ist α = σ + β und θ − α = σ − β und daher ist Sθ (ruσ+β ) = ruσ−β . Die lineare Abbildung v 7→ Sθ v spiegelt also jeden Vektor an der Geraden L(uσ ). Daher heißt Sθ eine Spiegelungsmatrix. Für die Spiegelungsmatrix Sθ gilt χSθ = x2 − (cos θ − cos θ)x + (− cos2 θ − sin2 θ) = x2 − 1 = (x − 1)(x + 1) und damit sind 1 und −1 die Eigenwerte von Sθ . Sei σ = 12 θ; nach Satz 5.7 ist Sθ uσ = uσ und Sθ u′σ = −u′σ und also ist uσ (bzw. u′σ ) ein Eigenwert von Sθ zum Eigenwert 1 (bzw. zum Eigenwert −1). Daraus folgt, dass 1 0 −1 , Dσ S θ Dσ = S = 0 −1 Für die Drehmatrix Dθ gilt χDθ = x2 − (cos θ + cos θ)x + (cos2 θ + sin2 θ) = x2 − 2 cos θ + 1 = x2 − 2 cos θ + cos2 θ + 1 − cos2 θ = (x − cos θ)2 + 1 − cos2 θ . Da nun (x − cos θ)2 ≥ 0 und 1 − cos2 θ ≥ 0, ist χDθ (x) = 0 genau dann, wenn cos2 θ = 1 und x = cos θ. Ist −1 < cos θ < 1 (und daher cos2 6= 1), so hat χDθ keine Nullstellen. In diesem Fall gibt es keinen Eigenwert und insbesondere ist Dθ nicht diagonalisierbar. 5 Diagonalisierbarkeit von Matrizen 55 Ist cos θ = 1, so ist sin θ = 0 und damit Dθ = E2 . Hier ist χDθ = χE2 = (x − 1)2 und folglich ist 1 der einzige Eigenwert. Ferner ist Dθ = E2 diagonalisierbar, da E2−1 E2 E2 = E2 E2 E2 = E2 und E2 eine Diagonalmatrix ist. Ist cos θ = −1, so ist sin θ = 0 und damit Dθ = −E2 . Hier ist χDθ = (x + 1)2 und daher ist −1 der einzige Eigenwert. Ferner ist Dθ = −E2 diagonalisierbar, da E2−1 (−E2 )E2 = E2 (−E2 )E2 = −E2 und −E2 eine Diagonalmatrix ist. Eine Matrix A = (aij ) heißt symmetrisch, wenn a12 = a21 . Die Matrix A ist also genau dann symmetrisch, wenn es a, b, c ∈ R gibt, so dass ac A= . cb Insbesondere sind die Spiegelungsmatrizen symmetrisch. Wir werden sehen, dass jede symmetrische Matrix diagonalisierbar ist und dafür brauchen wir Folgendes: Lemma 5.4 Sei A eine symmetrische Matrix. Für alle u, v ∈ R2 gilt dann hAu, vi = hu, Avi . Beweis Sei A = ac p1 q1 ,u= und v = . Dann ist cb p2 q2 hAu, vi = (ap1 + cp2 )q1 + (cp1 + bp2 )q2 = ap1 q1 + c(p2 q1 + p1 q2 ) + bp2 q2 = p1 (aq1 + cq2 ) + p2 (cq1 + bq2 ) = hu, Avi Man beachte, dass die Aussage in Lemma 5.4 im Allgemeinen falsch ist, wenn die Matrix A nicht symmetrisch ist. Zum Beispiel: Es gilt hAu, vi = 1 6= 0 = hu, Avi, 01 0 1 wenn A = ,u= und v = . 00 1 0 Lemma 5.5 Sei A eine Matrix und sei λ ein Eigenwert von A. Dann gibt es einen Eigenvektor v von A zum Eigenwert λ mit kvk = 1. Beweis Sei v ′ ein Eigenvektor von A zum Eigenwert λ. Da v ′ 6= 0, ist r = kv ′ k > 0 und v = (1/r)v ′ ist ebenfalls ein Eigenvektor von A zum Eigenwert λ, da Av = A((1/r)v ′) = (1/r)Av ′ = (1/r)v ′ = v , und kvk = k(1/r)v ′k = (1/r)kv ′k = 1. Lemma 5.6 Seien v1 , v2 ∈ R2 mit kv1 k = kv2 k = 1 und hv1 , v2 i = 0. Dann gibt es ein θ ∈ R, so dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ). 5 Diagonalisierbarkeit von Matrizen 56 Beweis Sei v = (x, y) ∈ R2 mit v 6= 0 und setze r = kvk (und also ist r > 0); dann gibt es ein α ∈ R, so dass cos α = x/r und sin α = y/r und folglich ist x = r cos α und y = r sin α. Ist kvk = 1, so ist r = 1 und in diesem Fall ist v = (cos α, sin α) = uα . Dies zeigt: Zu jedem v ∈ R2 mit kvk = 1 gibt es ein α ∈ R, so dass v = uα . Da kv1 k = kv2 k = 1, gibt es θ, σ ∈ R, so dass v1 = uθ und v2 = uσ und wir können θ und σ so wählen, dass |θ − σ| ≤ π. Nun ist hv1 , v2 i = 0 und damit ist huθ , uσ i = 0. Daraus ergibt sich, dass cos(θ − σ) = cos θ cos σ + sin θ sin σ = huθ , uσ i = 0 , d.h. cos(θ − σ) = 0. Ist aber α ∈ R mit |α| ≤ π und cos α = 0, so ist entweder α = 12 π oder α = − 21 π. Folglich ist entweder σ = θ + 12 π oder σ = θ − 21 π. Ist σ = θ + 21 π, so ist uσ = uθ+ 1 π = u′θ und ist σ = θ − 21 π, so ist uσ = uθ− 1 π = −u′θ . 2 2 Dies zeigt, dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ). Satz 5.8 Sei A eine symmetrische Matrix. Dann gibt es ein θ ∈ R, so dass D = Dθ−1 ADθ eine Diagonalmatrix ist. Beweis Sei A = ac cb und setze p = 21 (a + b), q = 12 (a − b); dann ist χA = (a − x)(b − x) − c2 = x2 − (a + b)x + ab − c2 = x2 − 2px + ab − c2 = x2 − 2px + p2 − p2 + ab − c2 = (x − p)2 − p2 + ab − c2 = (x − p)2 − q 2 − c2 , da p2 − ab = 41 (a + b)2 − ab = 14 ((a + b)2 − 4ab) = 41 (a − b)2 = q 2 . Damit ist x eine Nullstelle von χA genau dann, wenn (xp− p)2 = q 2 + c2 , d.h. genau dann, wenn x = p + ∆ und x = p − ∆, wobei ∆ = q 2 + c2 . Ist ∆ = 0, so ist c = 0 und a − b = q = 0, und hier ist A = aE2 , d.h. a0 A= . 0a In diesem Fall ist A selbst eine Diagonalmatrix und D0−1 AD0 = E2 AE2 = A. Wir können also annehmen, dass ∆ > 0 und damit gibt es zwei verschiedene Eigenwerte λ1 und λ2 . Nach Lemma 5.5 gibt es einen Eigenvektor v1 (bzw. v2 ) zum Eigenwert λ1 (bzw. zum Eigenwert λ2 ) mit kv1 k = kv2 k = 1. Nun ist Av1 = λ1 v1 und Av2 = λ2 v2 und folglich ist nach Lemma 5.4 λ1 hv1 , v2 i = hλ1 v1 , v2 i = hAv1 , v2 i = hv1 , Av2 i = hv1 , λ2 v2 i = λ2 hv1 , v2 i . 5 Diagonalisierbarkeit von Matrizen 57 Daher ist hv1 , v2 i = 0, da λ1 6= λ2 . Nach Lemma 5.6 gibt es dann ein θ ∈ R, so dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ). Da −v2 auch ein Eigenvektor zum Eigenvektor λ2 ist, ergibt sich daraus, dass uθ ein Eigenvektor zum Eigenwert λ1 und u′θ ein Eigenvektor zum Eigenwert λ2 ist. Aber Dθ ist die Matrix mit Spalten uθ und u′θ und also ist nach Satz 5.1 λ1 0 −1 . Dθ ADθ = 0 λ2 Hier ist eine wichtige Anwendung von Satz 5.8: Seien a, b, c, d, ∈ R; wir wollen feststellen, wie die Menge o n x 2 2 2 ∈ R : ax + 2cxy + by = d Q= y aussieht und dafür betrachten wir die symmetrische Matrix ac . A= cb Für v = (x, y) ∈ R2 gilt hAv, vi = (ax + cy)x + (cx + by)y = ax2 + 2cxy + by 2 und folglich ist Q = {v ∈ R2 : hAv, vi = d} . Nach Satz 5.7 gibt es ein θ, λ1 , λ2 ∈ R, so dass λ1 0 −1 , Dθ ADθ = D = 0 λ2 (und λ1 und λ2 sind die Eigenwerte von A). Dann ist auch A = Dθ DDσ , wobei σ = −θ, da Dσ = Dθ−1 . Lemma 5.7 Für alle u, v ∈ R gilt hDθ u, vi = hu, Dσ vi. Beweis Setze x = cos θ und y = sin θ; dann ist x −y xy Dθ = und Dσ = , y x −y x r p ist also ,v= da cos(−θ) = cos θ und sin(−θ) = − sin θ. Für u = s q hDθ u, vi = (xp − yq)r + (yp + xq)s = p(xr + ys) + q(−yr + xs) = hu, Dσ vi . 5 Diagonalisierbarkeit von Matrizen 58 Nach Lemma 5.6 gilt nun für jedes v ∈ R2 , dass hAv, vi = h(Dθ DDσ )v, vi = hDθ (DDσ )v, vi = h(DDσ )v, Dσ vi = hD(Dσ v), Dσ vi und daraus ergibt sich, dass Q = {v ∈ R2 : Dσ v ∈ Q′ }, wobei o n x ′ 2 Q = {u ∈ R : hDu, ui = d} = ∈ R2 : λ1 x2 + λ2 y 2 = d . y Dies bedeutet: Ein Vektor v liegt genau dann in Q, wenn Dσ v in Q′ liegt. Folglich erhält man die Menge Q durch Drehung der Menge Q′ um den Winkel −σ = θ. Daher sehen die Mengen Q und Q′ bis auf eine Drehung identisch aus. Wie aber die Menge Q′ aussieht, ist relativ leicht festzustellen. 6 Die Fibonacci-Zahlen Die Folge {fn }n≥0 der Fibonacci-Zahlen 0, 1, 1, 2, 3, 5, 8, 13, . . . wird definiert durch die Vorschrift: f0 = 0, f1 = 1 und fn = fn−1 + fn−2 für alle n ≥ 2 . Leonardo von Pisa wurde zwischen 1170 und 1180 geboren. Bekannt wurde er unter dem Namen Fibonacci, was eine Verkürzung von “Filius Bonacci” ist. Er lernte auf Handelsreisen nach Algerien, Ägypten, Syrien, Griechenland, Sizilien und in die Provence alle damals bekannten Rechenverfahren kennen. Sein 1202 erschienenes, 459 Seiten starkes Werk Liber Abaci machte in Europa die indische Rechenkunst bekannt und führte die heute übliche arabische Schreibweise der Zahlen ein. Ebenso wie sein Geburtsjahr ist auch sein Todesjahr nicht exakt bekannt. Die letzte Nachricht über ihn ist ein Dekret aus dem Jahr 1240, in dem ihm die Republik Pisa ein jährliches Gehalt aussetzte. Die Fibonacci-Zahlen tauchen im Zusammenhang mit dem folgenden berühmten Kaninchenproblem aus dem Liber Abaci auf: Ein Kaninchenpaar wirft vom zweiten Monat an ein junges Paar und in jedem folgenden Monat ein weiteres Paar. Die Nachkommen verhalten sich ebenso. Für jedes n ≥ 1 ist dann fn die Anzahl der Kaninchenpaare, die im n-ten Monat leben. (Aus der Internetseite von Prof. Udo Hebisch, TU Bergakademie, Freiberg). In 1843 veröffentlichte J.P.M. Binet folgende Formel für die direkte Berechnung der Fibonacci-Zahlen: Für alle n ≥ 0 gilt √ !n ! √ !n 1 1− 5 1+ 5 fn = √ . − 2 2 5 √ Die Zahl g = 12 (1 + 5), die hier vorkommt, heißt Goldener Schnitt. (Sie liegt √ zwischen 1,61 und 1,62.) Die andere Zahl 12 (1 − 5) ist dann gleich −(1/g), da √ √ 1+ 5 1− 5 1−5 · = = −1 . 2 2 4 Der Goldene Schnitt ist die eindeutige positive Zahl g mit 59 g 1 = . 1 g−1 60 6 Die Fibonacci-Zahlen - 1 6 6 g−1 ? g ? - 1 Aus der Formel für die Fibonacci-Zahlen folgt, dass √ !n 1 1 1+ 5 fn − √ = √ dn 2 5 5 √ für jedes n ≥ 0, wobei d = 12 ( 5 − 1) (also liegt d zwischen 0,61 und 0,62). Da d < 1, wird dn sehr schnell sehr klein, wenn n groß wird. √ √ Folglich lässt sich fn gut 1 n durch g / 5 approximieren (wieder mit g = 2 (1 + 5)). Dies zeigt die Tabelle auf der nächsten Seite. In diesem Kapitel wird die Formel für die Fibonacci-Zahlen hergeleitet. Dies folgt im Wesentlichen aus der Diagonalisierbarkeit der Matrix 01 A= . 11 Lemma 6.1 Für jedes n ≥ 0 ist Beweis Es gilt A fn fn+1 = 01 11 fn+1 fn+2 =A fn fn+1 = fn fn+1 . fn+1 fn + fn+1 = fn+1 . fn+2 61 6 Die Fibonacci-Zahlen √ gn / 5 fn 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 0 1 1 2 3 5 8 13 21 34 55 89 144 233 377 610 987 1597 2584 4181 6765 10946 17711 28657 46368 75025 0.4472135955 0.7236067977 1.1708203932 1.8944271910 3.0652475842 4.9596747752 8.0249223595 12.9845971347 21.0095194942 33.9941166290 55.0036361232 88.9977527522 144.001388875 232.999141628 377.000530503 609.999672131 987.000202634 1596.99987477 2584.00007740 4180.99995216 6765.00002956 10945.9999817 17711.0000113 28656.9999930 46368.0000043 75024.9999973 Lemma 6.2 Für jedes n ≥ 1 gilt fn fn+1 √ |fn − gn / 5| 0.4472135955 0.27639320225 0.17082039325 0.10557280900 0.0652475842499 0.0403252247502 0.0249223594996 0.0154028652506 0.00951949424901 0.00588337100159 0.00363612324742 0.00224724775417 0.001388875493260 0.000858372260893 0.000530503232369 0.000327869028524 0.000202634203902 0.000125234824736 0.000077399379279 0.000047835445002 0.000029563934731 0.000018271510271 0.000011292424460 0.000006979083991 0.000004313340468 0.000002665736246 0 = An e2 . =A 1 n Beweis Aus Lemma 6.1 mit n = 0 ist die Aussage richtig, wenn n = 1. Gilt fn = An e2 (⋆) fn+1 für ein n ≥ 1, so ist nach Lemma 6.1 und Satz 5.3 (⋆) fn fn+1 = A (An e2 ) = (AAn )e2 = An+1 e2 =A fn+1 fn+2 62 6 Die Fibonacci-Zahlen und daraus folgt durch Induktion, dass fn fn+1 = An e2 für jedes n ≥ 1. √ √ Setze λ1 = 12 (1 + 5) und λ2 = 12 (1 − 5) (der Goldene Schnitt wird nun also mit λ1 und nicht g bezeichnet). Lemma 6.3 Die Matrix A hat Eigenwerte λ1 und λ2 . Beweis Es gilt χA = (0 − x)(1 − x) − 1 = x2 − x − 1 und λ1 und λ2 sind die zwei Nullstellen von χA . (Es ist 4(x2 − x − 1) = 4x2 − 4x − 4 = 4x2 − 4x + 1 − 5 = (2x − 1)2 − 5 2 und damit gilt x√ − x − 1 = 0 genau dann,√wenn (2x − 1)2 = 5, d.h., genau dann, 1 wenn x = 2 (1 + 5) = λ1 oder x = 12 (1 − 5) = λ2 .) Daraus folgt nach Satz 5.2, dass λ1 und λ2 die Eigenwerte von A sind. Nun ist Aλ1 = −λ1 1 1 1 − λ1 und nach Satz 5.2 sind die Eigenvektoren von A zum Eigenwert λ1 die Elemente von Lös(Aλ1 , 0), die nicht gleich 0 sind. Hier ist das Gleichungssystem −λ1 x + 1y = 0 x + (1 − λ1 )y = 0 1 und v1 = ist eine Lösung, die nicht gleich 0 ist. (Man beachte: Da λ1 eine λ1 Nullstelle von χA = x2 − x − 1 ist, ist 1 + (1 − λ1 )λ1 = 1 + λ1 − λ21 = 0.) Damit ist v1 ein Eigenvektor von A zum Eigenwert λ−1 . Genauso ist −λ2 1 Aλ2 = 1 1 − λ2 und nach Satz 5.2 sind die Eigenvektoren von A zum Eigenwert λ2 die Elemente von Lös(Aλ2 , 0), die nicht gleich 0 sind. Hier ist das Gleichungssystem −λ2 x + 1y = 0 x + (1 − λ2 )y = 0 1 ist eine Lösung, die nicht gleich 0 ist. (Wieder ist λ2 eine Nullund v2 = λ2 stelle von χA = x2 − x − 1 und also ist 1 + (1 − λ2 )λ2 = 1 + λ2 − λ22 = 0.) Damit 6 Die Fibonacci-Zahlen 63 ist v2 ein Eigenvektor von A zum Eigenwert λ2 . Sei P die Matrix mit Spalten v1 und v2 , d.h. 1 1 . P = λ1 λ2 Nach Satz 5.3 ist P invertierbar und es gilt λ1 0 −1 P AP = D = . 0 λ2 Es gilt auch A = P DP −1 und An = P D n P −1 für jedes n ≥ 1. Setze √ √ −λ2 /√ 5 1/ √5 Q= ; λ1 / 5 −1/ 5 dann ist √ √ −λ2 /√ 5 1/ √5 PQ = λ1 / 5 −1/ 5 √ 0 √ 10 (λ1 − λ2 )/ 5 = E2 , = = 01 0 (λ1 − λ2 )/ 5 √ √ √ da λ1 − λ2 = 12 (1 + 5) − 12 (1 − 5) = 5, und dies zeigt, dass Q = P −1 . Folglich ist nach Lemma 6.2 fn = An e2 = (P D n P −1 )e2 fn+1 √ √ n −λ2 /√ 5 1/ √5 λ1 0 1 1 0 = n 0 λ2 λ1 λ2 1 λ1 / 5 −1/ 5 1 1 λ1 λ2 und mit etwas Mühe läßt sich daraus fn explizit berechnen. Es ist aber leichter, etwas anders zu verfahren. Wir wissen, dass v1 (bzw. v2 ) ein Eigenvektor von A zum Eigenwert λ1 (bzw. zum Eigenwert λ2 ) ist, es gilt also Av1 = λ1 v1 und Av2 = λ2 v2 . Lemma 6.4 Für alle n ≥ 1 gilt An v1 = λn1 v1 und An v2 = λn2 v2 . Beweis Dies gilt für n = 1, da Av1 = λ1 v1 und Av2 = λ2 v2 . Sei n ≥ 1 und nehme an, dass An v1 = λn1 v1 und An v2 = λn2 v2 . Dann ist nach Satz 5.1 und Satz 5.3 An+1 v1 = (AAn )v1 = A(An v1 ) = A(λn1 v1 ) v1 = λn1 Av1 = λn1 (λ1 v1 ) = (λn1 λ1 )v1 = λn+1 1 und genauso ist An+1 v2 = λn+1 v2 . Daraus folgt durch Induktion nach n, dass 2 An v1 = λn1 v1 und An v2 = λn2 v2 für alle n ≥ 1. 64 6 Die Fibonacci-Zahlen Nach Satz 5.3 ist (v1 , v2 ) eine Basis von R2 . Zu jedem v ∈ R2 gibt es also eindeutige Zahlen r und s, so dass v = rv1 + sv2 . Insbesondere gibt es eindeutige Zahlen√r und s, so dass e2 = rv1 + sv2 und in der Tat gilt e2 = σv1 − σv2 mit σ = 1/ 5, da 1 1 1 0 1 1 =√ . = − σv1 − σv2 = √ 1 λ2 λ1 5 5 λ1 − λ2 √ (Wie oben ist λ1 − λ2 = 5.) Daraus ergibt sich nach Lemma 6.2, Lemma 6.4 und Satz 5.1, dass fn = An e2 = An (σv1 − σv2 ) = σAn v1 − σAn v2 fn+1 = σ(An v1 − An v2 ) = σ(λn1 v1 − λn2 v2 ) n n 1 1 1 λ2 1 λ1 n n = √ λ1 =√ − − λ2 n+1 n+1 λ λ λ λ 2 1 5 5 2 1 n n 1 λ1 − λ2 . = √ n+1 n+1 5 λ1 − λ2 Dies zeigt also, dass 1 1 fn = √ (λn1 − λn2 ) = √ 5 5 für alle n ≥ 1. √ !n 1+ 5 − 2 √ !n ! 1− 5 2 7 Das Skalarprodukt Für Vektoren u = (x1 , . . . , xn ) und v = (y1 , . . . , yn ) aus Rn wird das Skalarprodukt hu, vi von u und v durch hu, vi = x1 y1 + · · · + xn yn definiert. Zum Beispiel ist für u = (5, 2, −2, 2, 1), v = (−4, 0, 1, 5, 3) ∈ R5 hu, vi = 5 · (−4) + 2 · 0 + (−2) · 1 + 2 · 5 + 1 · 3 = −20 + 0 − 2 + 10 + 3 = −9 . Satz 7.1 (1) Für alle u, v, w ∈ Rn und alle c, d ∈ R gilt hcu + dv, wi = chu, wi + dhv, wi . (2) Für alle u, v, w ∈ Rn und alle c, d ∈ R gilt hu, cv + dwi = chu, vi + dhu, wi . (3) Für alle u, v ∈ Rn gilt hu, vi = hv, ui. (4) Es gilt hv, vi ≥ 0 für alle v ∈ Rn und hv, vi = 0 gilt genau dann, wenn v = 0. Beweis (1) Für u = (x1 , . . . , xn ), v = (y1, . . . , yn ), w = (z1 , . . . , zn ) ∈ Rn und c, d ∈ R gilt hcu + dv, wi = = = = = = = hc(x1 , . . . , xn ) + d(y1 , . . . , yn ), (z1 , . . . , zn )i h(cx1 + dy1, . . . , cxn + dyn ), (z1 , . . . , zn )i (cx1 + dy1 )z1 + · · · + (cxn + dyn )zn (cx1 z1 + dy1z1 ) + · · · + (cxn zn + dyn zn ) (cx1 z1 + · · · + cxn zn ) + (dy1z1 + · · · + dyn zn ) c(x1 z1 + · · · + xn zn ) + d(y1z1 + · · · + yn zn ) chu, wi + dhv, wi . (2) Für u = (x1 , . . . , xn ), v = (y1 , . . . , yn ), w = (z1 , . . . , zn ) ∈ Rn und c, d ∈ R gilt hu, cv + dwi = = = = = = = h(x1 , . . . , xn ), c(y1 , . . . , yn ) + d(z1 , . . . , zn )i h(x1 , . . . , xn ), (cy1 + dz1 , . . . , cyn + dzn )i x1 (cy1 + dz1 ) + · · · + xn (cyn + dzn ) (cx1 y1 + dx1 z1 ) + · · · + (cxn yn + dxn zn ) (cx1 y1 + · · · + cxn yn ) + (dx1 z1 + · · · + dxn zn ) c(x1 y1 + · · · + xn yn ) + d(x1 z1 + · · · + xn zn ) chu, vi + dhu, wi . 65 66 7 Das Skalarprodukt (3) Für u = (x1 , . . . , xn ), v = (y1 , . . . , yn ) ∈ Rn gilt hu, vi = x1 y1 + · · · + xn yn = y1 x1 + · · · + yn xn = hv, ui . (4) Für v = (y1 , . . . , yn ) ∈ Rn gilt hv, vi = y1 y1 + · · · + yn yn = y12 + · · · + yn2 ≥ 0 . Ferner ist y12 + · · · + yn2 = 0 genau dann, wenn y1 = · · · = yn = 0 und folglich ist hv, vi = 0 genau dann, wenn v = 0. Nach Satz 7.1 (1) und (2) und durch Induktion nach m folgt, dass für alle m ≥ 2 hc1 u1 + · · · + cm um , vi = c1 hu1 , vi + · · · + cm hum , vi für alle u1 , . . . , um , v ∈ Rn , c1 , . . . , cm ∈ R, und hu, c1 v1 + · · · + cm vm i = c1 hu, v1i + · · · + cm hu, vm i für alle u1 , . . . , um , v ∈ Rn , c1 , . . . , cm ∈ R. Lemma 7.1 Für alle s, t ∈ R gilt hsu + tv, su + tvi = s2 hu, ui + 2sthu, vi + t2 hv, vi . Beweis Nach Satz 7.1 (1) ist hsu + tv, su + tvi = shu, su + tvi + thv, su + tvi und nach Satz 7.1 (2) gilt hu, su + tvi = shu, ui + thu, vi und hv, su + tvi = shv, ui + thv, vi . Ferner ist nach Satz 7.1 (3) hv, ui = hu, vi und folglich ist hsu + tv, su + tvi = = = = shu, su + tvi + thv, su + tvi s(shu, ui + thu, vi) + t(shv, ui + thv, vi) s(shu, ui + thu, vi) + t(shu, vi + thv, vi) s2 hu, ui + 2sthu, vi + t2 hv, vi . Sei v ∈ Rn ; nach Satz 7.1 (4) ist hv, vi ≥ 0 und folglich gibt es eine eindeutige Zahl kvk ∈ R+ (d.h. p mit kvk ≥ 0), so dass kvk2 = hv, vi, und wir schreiben natürlich dann kvk = hv, vi. Die Zahl p kvk heißt die Norm oder die Länge von v. Ist v = (x1 , . . . , xn ), so ist kvk = x21 + · · · + x2n . 67 7 Das Skalarprodukt Satz 7.2 (Cauchy-Schwarzsche Ungleichung) Für alle u, v ∈ Rn gilt |hu, vi| ≤ kukkvk . Beweis Die Ungleichung ist trivial richtig, wenn v = 0, da |hu, 0i| = 0 = kuk · 0 = kukk0k . Es kann also angenommen werden, dass v 6= 0, und dann ist kvk > 0. Nach Lemma 7.1 mit s = 1 ist ku + tvk2 = hu + tv, u + tvi = hu, ui + 2thu, vi + t2hv, vi = kuk2 + 2thu, vi + t2kvk2 für alle t ∈ R. Für jedes t ∈ R ist aber ku + tvk2 ≥ 0 und damit ist kuk2 + 2thu, vi + t2 kvk2 ≥ 0 . Also ist kuk2 +2thu, vi+t2kvk2 ≥ 0 für alle t ∈ R und ferner ist kvk2 > 0. Folglich ist hu, vi2 ≤ kuk2kvk2 . (Seien a, b, c ∈ R mit a > 0 und mit at2 + 2bt + c ≥ 0 für alle t ∈ R. Dann ist at2 + 2bt + c = a(t2 + 2(b/a)t + (b/a)2 ) − b2 /a + c = a(t + b/a)2 − b2 /a + c ≥ 0 für alle t ∈ R und insbesondere mit t = −b/a2 (und daher mit at + b/a = 0). Daraus ergibt sich, dass b2 ≤ ac.) Da hu, vi2 ≤ kuk2 kvk2 , ist p p |hu, vi| = hu, vi2 ≤ kuk2kvk2 = |kukkvk| = kukkvk . √ √ √ (Für alle a ∈ R ist a2 = |a|, und sind b, c ∈ R+ mit b ≤ c, so ist b ≤ c.) Dies zeigt, dass |hu, vi| ≤ kukkvk. Satz 7.3 Die Norm hat folgende Eigenschaften: (1) Es gilt kvk = 0 genau dann, wenn v = 0. (2) Für alle v ∈ Rn , t ∈ R gilt ktvk = |t|kvk. (3) (Dreiecksungleichung) Für alle u, v ∈ Rn gilt ku + vk ≤ kuk + kvk. Beweis (1) Sei v = (x1 , . . . , xn ) ∈ Rn ; dann ist kvk2 = hv, vi = x21 + · · · + x2n , und x21 + · · · + x2n = 0 gilt genau dann, wenn x1 = · · · = xn = 0, d.h., genau dann, wenn v = 0. Aber a2 = 0 gilt genau dann, wenn a = 0 und folglich ist kvk = 0 genau dann, wenn v = 0. (2) Sei v = (x1 , . . . , xn ) ∈ Rn und sei t ∈ R; dann ist tv = (tx1 , . . . , txn ) und damit ist ktvk2 = (tx1 )2 + · · · + (txn )2 = t2 x21 + · · · + t2 x2n = t2 (x21 + · · · + x2n ) = t2 kvk2 = (tkvk)2 . 7 Das Skalarprodukt Da √ 68 a2 = |a| für all a ∈ R, ergibt sich nun daraus, dass p p ktvk = |ktvk| = ktvk2 = (tkvk)2 = |tkvk| = |t||kvk| = |t|kvk . (3) Nach Lemma 7.1 (mit s = t = 1) ist ku + vk2 = hu + v, u + vi = hu, ui + 2hu, vi + hv, vi = kuk2 + 2hu, vi + kvk2 und ferner ist (kuk + kvk)2 = kuk2 + 2kukkvk + kvk2 . Nach Satz 7.2 ist aber |hu, vi| ≤ kukkvk und insbesondere ist dann auch hu, vi ≤ kukkvk. Damit ist ku + vk2 = kuk2 + 2hu, vi + kvk2 ≤ kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2 und daraus ergibt sich, dass ku + vk ≤ kuk + kvk. (Sind a, b ∈ R+ mit a2 ≤ b2 , so ist a ≤ b.) Lemma 7.2 Für Vektoren u, v ∈ Rn gilt ku − vk = ku + vk genau dann, wenn hu, vi = 0. Beweis Nach Lemma 7.1 mit s = 1 und t = −1 gilt ku − vk2 = hu + v, u + vi = hu, ui − 2hu, vi + (−1)2 hv, vi = kuk2 − 2hu, vi + kvk2 und genauso gilt mit s = t = 1, dass ku + vk2 = hu + v, u + vi = hu, ui + 2hu, vi + hv, vi = kuk2 + 2hu, vi + kvk2 . Daraus ergibt sich, dass ku − vk2 = ku + vk2 genau dann gilt, wenn hu, vi = 0. Aber ku − vk2 = ku + vk2 gilt genau dann, wenn ku − vk = ku + vk. Satz 7.4 Es gilt ku + vk2 + ku − vk2 = 2(kuk2 + kvk2) für alle u, v ∈ Rn . Beweis Wie im Beweis für Lemma 7.2 gilt ku − vk2 = kuk2 − 2hu, vi + kvk2 und ku + vk2 = kuk2 + 2hu, vi + kvk2 und daraus ergibt sich, dass ku + vk2 + ku − vk2 = kuk2 + 2hu, vi + kvk2 + kuk2 − 2hu, vi + kvk2 = kuk2 + kvk2 + kuk2 + kvk2 = 2(kuk2 + kvk2 ) . 7 Das Skalarprodukt 69 Lemma 7.3 (Polarisierungsidentitäten) Für alle u, v ∈ Rn gilt hu, vi = 12 (kuk2 + kvk2 − ku − vk2 ) = 14 (ku + vk2 − ku − vk2 ) . Beweis Übung. Vektoren u, v ∈ Rn heißen orthogonal oder senkrecht zueinander (geschrieben u ⊥ v), wenn hu, vi = 0. Vektoren v1 , . . . , vm ∈ Rn heißen orthonormal, wenn 1 falls i = j , hvi , vj i = 0 falls i 6= j , d.h., wenn kvj k = 1 für j = 1, . . . , m und vi ⊥ vj für alle i 6= j. Lemma 7.4 Orthonormale Vektoren sind linear unabhängig. Beweis Seien v1 , . . . , vm orthonormale Vektoren und seien λ1 , . . . , λm ∈ R mit λ1 v1 + · · · + λm vm = 0. Für jedes j = 1, . . . , m ist dann 0 = h0, vj i = hλ1 v1 + · · · + λm vm , vj i = λ1 hv1 , vj i + · · · + λm hvm , vj i = λj hvj , vj i = λj , d.h., λj = 0 für j = 1, . . . , m und damit sind v1 , . . . , vm linear unabhängig. Sei U ein Untervektorraum von Rn ; dann heißt eine Basis (u1 , . . . , um ) von U orthonormal, wenn die Vektoren u1 , . . . , um orthonormal sind. Sind u1 , . . . , um orthonormale Vektoren aus U, so ist nach Lemma 7.4 (u1 , . . . , um ) immer eine orthonormale Basis von L(u1, . . . , um ). Daraus ergibt sich, dass (u1 , . . . , um ) genau dann eine orthonormale Basis von U ist, wenn dim U = m. Bemerkung: Die kanonische Basis (e1 , . . . , en ) von Rn ist orthonormal. Satz 7.5 Sei (u1 , . . . , um) eine orthonormale Basis eines Untervektorraumes U von Rn . Für alle u ∈ U gilt dann u = hu, u1iu1 + · · · + hu, umium . (Mit anderen Worten ist hu, u1iu1 + · · · + hu, umium die eindeutige Darstellung von u als Linearkombination der Vektoren u1 , . . . , um .) Beweis Sei u ∈ U; da (u1, . . . , um ) eine Basis von U ist, gibt es nach Satz 4.5 eindeutige Elemente λ1 , . . . , λm ∈ R, so dass u = λ1 u1 + · · · + λm um . Dann gilt hu, uj i = hλ1 u1 + · · ·+ λm um , uj i = λ1 hu1 , uj i + · · ·+ λm hum , uj i = λj huj , uj i = λj 70 7 Das Skalarprodukt für jedes j = 1, . . . , m. Für jedes v ∈ Rn setze ∗ v = kvk−1 v falls v = 6 0, 0 falls v = 0 , also gilt kv ∗ k = 1 für alle v 6= 0. Satz 7.6 (Gram-Schmidtsches Orthonormalisierungsverfahren) Es sei U ein Untervektorraum von Rn und sei (u1 , . . . , um ) eine Basis von U. Definiere v1 , . . . , vm ∈ Rn v1 = u∗1 ∗ v2 = u2 − hu2, v1 iv1 .. . ∗ vk = uk − huk , v1 iv1 − huk , v2 iv2 − · · · − huk , vk−1 ivk−1 , .. . ∗ vm = um − hum , v1 iv1 − hum , v2 i v2 − · · · − hum , vm−1 ivm−1 . Dann ist (v1 , . . . , vm ) eine orthonormale Basis von U mit L(v1 , . . . , vk ) = L(u1 , . . . , uk ) für jedes k. Insbesondere besitzt jeder Untervektorraum von Rn eine orthonormale Basis. Beweis Es wird durch Induktion nach k bewiesen, dass v1 , . . . , vk orthonormal sind und L(v1 , . . . , vk ) = L(u1, . . . , uk ) für jedes k = 1, . . . , m. Induktionsanfang: Da u1 6= 0, ist kv1 k = 1 und L(v1 ) = L(u1 ). Induktionsschritt: Sei 1 ≤ k < m und nehme an, dass v1 , . . . , vk orthonormal sind und L(v1 , . . . , vk ) = L(u1, . . . , uk ). Setze wk+1 = uk+1 − huk+1 , v1 iv1 − huk+1, v2 iv2 − · · · − huk+1 , vk ivk . Dann ist wk+1 ∈ L(v1 , . . . , vk , uk+1) und uk+1 ∈ L(v1 , . . . , vk , wk+1 ), und daraus ergibt sich nach Satz 2.3, dass L(v1 , . . . , vk , wk+1) = L(v1 , . . . , vk , uk+1). Aber ∗ vk+1 = wk+1 und L(v1 , . . . , vk ) = L(u1 , . . . , uk ) und damit ist L(v1 , . . . , vk+1 ) = L(v1 , . . . , vk , vk+1 ) = L(v1 , . . . , vk , wk+1 ) = L(v1 , . . . , vk , uk+1) = L(u1 , . . . , uk , uk+1) = L(u1 , . . . , uk+1) . 7 Das Skalarprodukt 71 Da u1 , . . . , uk+1 linear unabhängig sind, gilt auch uk+1 ∈ / L(u1 , . . . , uk ) = L(v1 , . . . , vk ) , und daher ist wk+1 6= 0, d.h. kvk+1k = 1. Für jedes j = 1, . . . , k ist nun hvk+1 , vj i = = = = = kwk+1 k−1 hwk+1, vj i kwk+1 k−1 h uk+1 − huk+1 , v1 iv1 − · · · − huk+1, vk ivk , vj i kwk+1 k−1 huk+1, vj i − huk+1, v1 ihv1 , vj i − · · · − huk+1, vk ihvk , vj i kwk+1 k−1 huk+1, vj i − huk+1, vj ihvj , vj i kwk+1 k−1 huk+1, vj i − huk+1, vj i = 0 , und damit sind v1 , . . . , vk+1 orthonormal, da nach Induktionsannahme v1 , . . . , vk schon orthonormal sind. Dies zeigt, dass die Vektoren v1 , . . . , vk+1 orthonormal sind und L(v1 , . . . , vk+1 ) = L(u1 , . . . , uk+1). Es gibt den folgenden Basisergänzungssatz für orthonormale Basen: Satz 7.7 Seien U und V Untervektorräume von Rn mit {0} = 6 U ⊂ V und sei (u1 , . . . , um) eine orthonormale Basis von U. Dann gibt es k ≥ 0 und Vektoren v1 , . . . , vk ∈ V , so dass (u1 , . . . , um , v1 , . . . , vk ) eine orthonormale Basis von V ist Beweis Nach dem Basisergänzungssatz (Satz 4.3) gibt es w1 , . . . , wk ∈ V (mit k ≥ 0), so dass (u1, . . . , um , w1 , . . . , wk ) eine Basis von V ist. Wende nun das Gram-Schmidtsche Orthonormalisierungsverfahren auf diese Basis an und erhalte eine orthonormale Basis (u′1 , . . . , u′m , v1 , . . . , vk ) von V . Man sieht aber leicht, dass u′j = uj für j = 1, . . . , m, da die Vektoren u1, . . . , um schon orthonormal sind. Also ist (u1 , . . . , um , v1 , . . . , vk ) eine orthonormale Basis von V . Sei V ein Untervektorraum von Rn mit dim V = m und U ein Untervektorraum von Rn mit U ⊂ V und dim U = ℓ ≥ 1. Nach Satz 7.7 gibt es eine orthonormale Basis (v1 , . . . , vm ) von V , so dass (v1 , . . . , vℓ ) eine orthonormale Basis von U ist. Für jede nichtleere Teilmenge M von Rn setzen wir M ⊥ = {v ∈ Rn : v ⊥ u für alle u ∈ M} . M ⊥ heißt das orthogonale Komplement von M. Offensichtlich ist {0}⊥ = Rn und (Rn )⊥ = {0}. Lemma 7.5 M ⊥ ist ein Untervektorraum von Rn . 7 Das Skalarprodukt 72 Beweis Da h0, ui = 0 für alle u ∈ M, ist 0 ∈ M ⊥ . Seien nun v1 , v2 ∈ M ⊥ und λ1 , λ2 ∈ R; für jedes u ∈ M ⊥ ist dann hv1 , ui = hv2 , ui = 0 und damit auch hλ1 v1 + λ2 v2 , ui = λ1 hv1 , ui + λ2 hv2 , ui = 0 , d.h., λ1 v1 + λ2 v2 ∈ M ⊥ . Folglich ist M ⊥ ein Untervektorraum von Rn . Lemma 7.6 Sei U ein Untervektorraum von Rn mit {0} = 6 U 6= Rn und sei (v1 , . . . , vn ) eine orthonormale Basis von Rn , so dass (v1 , . . . , vm ) orthonormale Basis von U ist, wobei m = dim U. Dann ist (vm+1 , . . . , vn ) eine orthonormale Basis von U ⊥ . Beweis Sei v ∈ U ⊥ ; dann gilt hv, vj i = 0 für j = 1, . . . , m, da v1 , . . . , vm ∈ U, und daraus folgt nach Satz 7.5, dass v = hv, v1 iv1 + · · · + hv, vn ivn = hv, vm+1 ivm+1 + · · · + hv, vn ivn ∈ L(vm+1 , . . . , vn ) , d.h., U ⊥ ⊂ L(vm+1 , . . . , vn ). Andererseits ist hλm+1 vm+1 + · · · + λn vn , λ1 v1 + · · · + λm vm i = 0 für alle λ1 , . . . , λn ∈ R, und damit ist hλm+1 vm+1 + · · · + λn vn , ui = 0 für alle λm+1 , . . . , λn ∈ R, u ∈ U, da (v1 , . . . , vm ) eine Basis von U ist. Folglich gilt auch L(vm+1 , . . . , vn ) ⊂ U ⊥ , d.h., U ⊥ = L(vm+1 , . . . , vn ). Aber vm+1 , . . . , vn sind orthonormal, und also ist (vm+1 , . . . , vn ) eine orthonormale Basis von U ⊥ . Satz 7.8 Sei U ein Untervektorraum von Rn . Dann ist (U ⊥ )⊥ = U und es gilt dim U + dim U ⊥ = n. Beweis Dies ist trivial richtig, wenn U = {0} oder U = Rn ; nehme also an, dass {0} = 6 U 6= Rn . Nach Satz 7.7 gibt es eine orthonormale Basis (v1 , . . . , vn ) von Rn , so dass (v1 , . . . , vm ) eine orthonormale Basis von U ist, wobei m = dim U, und nach Lemma 7.6 ist dann (vm+1 , . . . , vn ) eine orthonormale Basis von U ⊥ . Nun ist (v1 , . . . , vn ) eine orthonormale Basis von Rn , so dass (vm+1 , . . . , vn ) eine orthonormale Basis von U ⊥ ist. Daraus folgt nach Lemma 7.6, dass (v1 , . . . , vm ) eine orthonormale Basis von (U ⊥ )⊥ ist, und damit ist (U ⊥ )⊥ = U. Ferner ist dim U + dim U ⊥ = m + (n − m) = n. Untervektorräume U1 und U2 von Rn sind orthogonal, und man schreibt U1 ⊥ U2 , wenn u1 ⊥ u2 für alle u1 ∈ U1 , u2 ∈ U2 . 73 7 Das Skalarprodukt Wir brauchen nun die folgenden Eigenschaften von sin und cos: Es gilt sin(α + β) = sin α cos β + cos α sin β , cos(α + β) = cos α cos β − sin α sin β für alle α, β ∈ R. Da sin(−β) = − sin β und cos(−β) = cos β, gilt dann auch sin(α − β) = sin α cos β − cos α sin β , cos(α − β) = cos α cos β + sin α sin β für alle α, β ∈ R. Insbesondere gilt sin(α + 12 π) = sin α cos 12 π + cos α sin 21 π = sin α · 0 + cos α · 1 = cos α , cos(α + 12 π) = cos α cos 12 π − sin α sin 21 π = cos α · 0 − sin α · 1 = − sin α ; d.h. sin(α + 21 π) = cos α und cos(α + 21 π) = − sin α für alle α ∈ R. Für jedes θ ∈ R definieren wir Vektoren uθ und u′θ durch cos θ − sin θ ′ uθ = und uθ = . sin θ cos θ Man beachte, dass u′θ = uθ+ 1 π und −u′θ = uθ− 1 π . 2 2 2 2 Nun ist huθ , uθ i = cos θ + sin θ = 1 und ist kuθ k = ku′θ k = 1. Ferner ist hu′θ , u′θ i = sin2 θ + cos2 θ = 1 und damit huθ , u′θ i = cos θ(− sin θ) + sin θ cos θ = 0 und folglich ist (uθ , u′θ ) eine orthonormale Basis von R2 . Aber (uθ , −u′θ ) ist auch eine orthonormale Basis von R2 , da huθ , −u′θ i = −huθ , u′θ i = −0 = 0. Für jedes θ ∈ R haben wir also zwei orthonormale Basen (uθ , u′θ ) und (uθ , −u′θ ) und in der Tat gibt es keine anderen orthonormalen Basen von R2 : Satz 7.9 Sei (v1 , v2 ) eine orthonormale Basis von R2 . Dann gibt es ein θ ∈ R, so dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ). Beweis Sei v = (x, y) ∈ R2 mit v 6= 0 und setze r = kvk (und also ist r > 0); dann gibt es ein α ∈ R, so dass cos α = x/r und sin α = y/r und folglich ist x = r cos α und y = r sin α. (r und α sind die Polar-Koordinaten von v.) Man beachte, dass der Winkel α nicht eindeutig durch v bestimmt ist, da zum Beispiel cos α = cos(α + 2π) und sin α = sin(α + 2π). Man kann aber Eindeutigkeit erreichen, indem man verlangt, dass 0 ≤ α < 2π. Ist kvk = 1, so ist r = 1 und in diesem Fall ist v = (cos α, sin α) = uα . Dies zeigt: Zu jedem v ∈ R2 mit kvk = 1 gibt es ein α ∈ R, so dass v = uα . 7 Das Skalarprodukt 74 Da kv1 k = kv2 k = 1, gibt es θ, σ ∈ R, so dass v1 = uθ und v2 = uσ und wir können θ und σ so wählen, dass |θ − σ| ≤ π. Nun ist hv1 , v2 i = 0 und damit ist huθ , uσ i = 0. Daraus ergibt sich, dass cos(θ − σ) = cos θ cos σ + sin θ sin σ = huθ , uσ i = 0 , d.h. cos(θ − σ) = 0. Ist aber α ∈ R mit |α| ≤ π und cos α = 0, so ist entweder α = 12 π oder α = − 21 π. Folglich ist entweder σ = θ + 12 π oder σ = θ − 21 π. Ist σ = θ + 21 π, so ist uσ = uθ+ 1 π = u′θ und ist σ = θ − 21 π, so ist uσ = uθ− 1 π = −u′θ . 2 2 Dies zeigt, dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ).