Vorlesungsskript

Transcrição

Vorlesungsskript
Ein Skript für Lineare Algebra
(Spezielle Aspekte der Mathematik)
Chris Preston
Sommersemester 2008
Inhaltsverzeichnis
1 Lineare Gleichungssysteme
2
2 Untervektorräume
16
3 Basen
25
4 Matrizen
31
5 Diagonalisierbarkeit von Matrizen
44
6 Die Fibonacci-Zahlen
59
7 Das Skalarprodukt
65
1
Lineare Gleichungssysteme
Sei n ≥ 1; mit Rn wird die Menge aller n-Tupel reeller Zahlen bezeichnet. Ein
Element von Rn hat also die Form (x1 , . . . , xn ) mit x1 , . . . , xn Elemente aus R.
Die Elemente von Rn werden Vektoren genannt. Zum Beispiel sind (3, −4, 6),
(1, 0, 42) und (−1, −1, −2) Vektoren in R3 , (3, 4, 5, 1) ist ein Vektor in R4 und
(1, 2, 3, 4, 5, 6, 7, 8, 9) ein Vektor in R9 .
Ist v = (x1 , . . . , xn ) ∈ Rn ein Vektor und ist 1 ≤ k ≤ n, so heißt xk die k-te
Komponente von v. Per Definition gilt (x1 , . . . , xn ) = (y1 , . . . , yn ) genau dann,
wenn xk = yk für jedes k = 1, . . . , n. Zwei Vektoren u, v ∈ Rn sind also genau
dann gleich, wenn für jedes k = 1, . . . , n ihre k-ten Komponenten gleich sind.
Der Vektor (0, . . . , 0) ∈ Rn heißt Null-Vektor und wird mit 0 bezeichnet. Die
Vektoren e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . ., en = (0, . . . , 0, 1) heißen die
Einheitsvektoren in Rn .
Eine Addition auf Rn wird erklärt durch
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
und eine Multiplikation eines Elements von Rn mit einer reellen Zahl durch
c (x1 , . . . , xn ) = (cx1 , . . . , cxn ) .
Zum Beispiel ist in R3
(2, 3, 4) + (4, 8, 1)
(4, −2, 0) + (−4, −5, 4)
4(2, 3, −7)
(−3)(4, −2, 5)
=
=
=
=
(2 + 4, 3 + 8, 4 + 1) = (6, 11, 5) ,
(4 + −4, −2 + −5, 0 + 4) = (0, −7, 4) ,
(4 · 2, 4 · 3, 4 · (−7)) = (8, 12, −28) ,
(−3 · 4, −3 · (−2), −3 · 5) = (−12, 6, −15)
=
=
=
=
=
(1 + −7, 2 + 4, 3 + 8, 4 + 1) = (−6, 6, 11, 5) ,
(6 + 2, 4 + −4, −2 + −5, 0 + 4) = (8, 0, −7, 4) ,
(4 · 8, 4 · 2, 4 · 3, 4 · (−7)) = (32, 8, 12, −28) ,
((−3) · 2, −3 · 4, −3 · (−2), −3 · 5)
(−6, −12, 6, −15) .
und in R4
(1, 2, 3, 4) + (−7, 4, 8, 1)
(6, 4, −2, 0) + (2, −4, −5, 4)
4(8, 2, 3, −7)
(−3)(2, 4, −2, 5)
Aus den entsprechenden Regeln für die Addition und Multiplikation von reellen
Zahlen sieht man leicht, dass die Addition und die Skalar-Multiplikation von
Vektoren in Rn den folgenden Regeln unterliegen:
2
3
1 Lineare Gleichungssysteme
(A1) Für alle u, v, w ∈ Rn gilt (u + v) + w = u + (v + w).
(A2) Für alle u, v ∈ Rn gilt u + v = v + u.
(A3) Für alle v ∈ Rn ist 0 + v = v.
(A4) Zu jedem v ∈ Rn gibt es ein eindeutiges −v ∈ Rn mit (−v) + v = 0. Ist
v = (x, y), so ist −v = (−x, −y).
(M1) Für alle c, d ∈ R und alle v ∈ Rn gilt (cd)v = c(dv).
(M2) Für alle v ∈ Rn ist 1v = v.
(D1) Für alle c ∈ R und alle u, v ∈ Rn gilt c(u + v) = cu + cv.
(D2) Für alle c, d ∈ R und alle v ∈ Rn gilt (c + d)v = cv + dv.
Man beachte: Für alle v ∈ Rn , c ∈ R ist cv 6= 0 genau dann, wenn c 6= 0 und
v 6= 0. Insbesondere ist c0 = 0v = 0.
Seien u, v ∈ Rn ; dann wird der Vektor v + −u meistens mit v − u bezeichnet. Ist
u = (x1 , . . . , xn ) und v = (y1 , . . . , yn ), so ist v − u = (x1 − y1 , . . . , xn − yn ). Ferner
ist v − u der eindeutige Vektor mit v = u + (v − u).
Seien u, v ∈ Rn ; dann heißt v ein Vielfaches von u, wenn es ein t ∈ R mit v = tu
gibt. Für jedes u ∈ Rn ist der Null-Vektor 0 ein Vielfaches von u, da 0 = 0u.
Andererseits ist 0 das einzige Vielfache von 0, da t 0 = 0 für alle t ∈ R.
Da die Addition in Rn assoziativ ist (d.h. (A1) gilt), können wir eine Summe
v1 + · · · + vm
von m Vektoren v1 , . . . , vm ohne Klammern schreiben. Genauso schreiben wir
c1 v1 + · · · + cm vm
für eine Summe von Vielfachen der Vektoren v1 , . . . , vm . Zum Beispiel ist
2(2, 3, 4) + 3(4, 8, 1) + 4(2, 1, 6)
= (2 · 2, 2 · 3, 2 · 4) + (3 · 4, 3 · 8, 3 · 1) + (4 · 2, 4 · 1, 4 · 6)
= (4, 6, 8) + (12, 24, 3) + (8, 4, 24) = (4 + 12 + 8, 6 + 24 + 4, 8 + 3 + 24)
= (24, 34, 35) .
Seien m, n ≥ 1; eine m × n Matrix ist
R nach folgendem Schema

a11 a12
 a21 a22

 ..
..
 .
.
am1 am2
eine Anordnung von mn Elementen von
· · · a1n
· · · a2n
..
.
· · · amn



 .

4
1 Lineare Gleichungssysteme
Zum Beispiel sind




1 2 3 4
−1 −4 3 4
 0 4 5 3  und  2 4 −5 −3 
3 3 3 3
−1 3 −3 3
3 × 4 Matrizen und

sind 4 × 3 Matrizen.
2
4

8
3
3
5
7
3



−4 3 4
4


3
 und  4 −5 −3 


3 −8 −9 
4
3 −3 3
3
Die Menge der m × n Matrizen wird mit M(m × n, R) bezeichnet. Sei


a11 · · · a1n

..  ∈ M(m × n, R) ;
A =  ...
. 
am1 · · · amn
eine m × n Matrix; dann schreibt man auch A = (aij )1≤i≤m, 1≤j≤n oder nur
A = (aij ). Seien 1 ≤ i ≤ m, 1 ≤ j ≤ n; der waagerecht geschriebene n-Tupel
(ai1 , . . . , ain ) wird die i-te Zeile von A und der senkrecht geschriebene m-Tupel


a1j
 .. 
 . 
amj
die j-te Spalte von A genannt. Die Zeilen von A werden als Elemente von Rn und
die Spalten von A als Elemente von Rm betrachtet. Zum Beispiel ist
 
3
5
2
die 3-te Spalte und (0, 4, 5, 3) die 2-te Zeile der 3 × 4 Matrix


1 2 3 4
0 4 5 3 .
3 3 2 3
Die Matrix

0 ···
 ..
.

0
..  ∈ M(m × n, R)
.
0 ··· 0
1 Lineare Gleichungssysteme
5
wird mit 0 bezeichnet.
Da die Spalten von A ∈ M(m × n, R) als Elemente von Rm betrachtet werden,
können wir die Spalten addieren und mit Elementen von R multilplizieren. Zum
Beispiel ist
 
 
  
 
 

3
4
1
4·3
2·4
3·1
45 + 23 + 30 = 4 · 5 + 2 · 3 + 3 · 0
2
3
3
4·2
2·3
3·3
     
12
8
3





= 20 + 6 + 0 
8
6
9

  
12 + 8 + 3
23
=  20 + 6 + 0  =  26  .
8+6+9
23
Seien m, n ≥ 1 und A = (aij ) ∈ M(m × n, R), b = (b1 , . . . , bm ) ∈ Rm ; dann heißt
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm
das zu A und b gehörige lineare Gleichungssystem.
Ein Vektor (y1 , . . . , yn ) ∈ Rn heißt Lösung des zu A und b gehörigen linearen
Gleichungssystems, wenn y1 , . . . , yn die m Gleichungen erfüllen, d.h., wenn
a11 y1 + a12 y2 + · · · + a1n yn = b1
a21 y1 + a22 y2 + · · · + a2n yn = b2
..
.
am1 y1 + am2 y2 + · · · + amn yn = bm
Die Menge aller Lösungen des Systems wird mit Lös(A, b) bezeichnet.
Beispiel: Betrachte die 3 × 4 Matrix


4 2 3 4
A = 2 4 5 3 .
3 3 2 3
und den Vektor b = (9, 3, 7) ∈ R3 . Dann ist
4x1 + 2x2 + 3x3 + 4x4 = 9
2x1 + 4x2 + 5x3 + 3x4 = 3
3x1 + 3x2 + 2x3 + 3x4 = 7
6
1 Lineare Gleichungssysteme
das zu A und b gehörige lineare Gleichungssystem und der Vektor (1, 0, −1, 2) ist
eine Lösung, da
4 · 1 + 2 · 0 + 3 · (−1) + 4 · 2 = 9
2 · 1 + 4 · 0 + 5 · (−1) + 3 · 2 = 3
3 · 1 + 3 · 0 + 2 · (−1) + 3 · 2 = 7 .
Satz 1.1 Seien A ∈ M(m × n, R), b ∈ Rm ; seien v1 , . . . , vn ∈ Rm die Spalten
von A. Dann ist (y1 , . . . , yn ) ∈ Rn eine Lösung des zu A und b gehörigen linearen
Gleichungssystems genau, wenn
y1 v1 + · · · + yn vn = b .
Beweis Sei A = (aij ), und insbesondere ist


a1j
 a2j 


vj =  .. 
 . 
amj
die j-te Spalte von A für jedes j = 1, . . . , n; sei b = (b1 , . . . , bm ). Nun ist




a11
a1n




y1 v1 + · · · + yn vn = y1  ...  + · · · + yn  ... 
am1


=

y1 a11
..
.
y1 am1
amn

yn a1n

 . 
 + · · · +  .. 


yn amn
 

y1 a11 + · · · + yn a1n
a11 y1 + · · · + a1n yn

 

..
..
=
=

.
.
y1 am1 + · · · + yn amn
am1 y1 + · · · + amn yn
und folglich gilt y1 v1 + · · · + yn vn = b genau dann, wenn
a11 y1 + · · · + a1n yn = b1
..
.
am1 y1 + · · · + amn yn = bm ,
d.h. genau dann, wenn (y1 , . . . , yn ) eine Lösung des zu A und b gehörigen linearen
Gleichungssystems ist.
1 Lineare Gleichungssysteme
7
Beispiel: Betrachte wieder die 3 × 4 Matrix


4 2 3 4
A = 2 4 5 3 .
3 3 2 3
und den Vektor b = (9, 3, 7) ∈ R3 . Seien
 
 
 
 
4
2
3
4
v1 =  2  , v2 =  4  , v3 =  5  , v4 =  3 
3
3
2
3
die Spalten von A. Dann ist
 
 
 
 
4
2
3
4







1 · v1 + 0 · v2 + (−1) · v3 + 2 · v4 = 1 2 + 0 4 + (−1) 5 + 2 3 
3
3
2
3


1 · 4 + 0 · 2 + (−1) · 3 + 2 · 4

= 1 · 2 + 0 · 4 + (−1) · 5 + 2 · 3 
1 · 3 + 0 · 3 + (−1) · 2 + 2 · 3
 
9

= 3 = b
7
und damit ist der Vektor (1, 0, −1, 2) eine Lösung.
Das Gleichungssystem heißt lösbar, wenn Lös(A, b) mindestens ein Element von
Rn enthält. Es heißt eindeutig lösbar, wenn Lös(A, b) aus genau einem Element
von Rn besteht.
Das zu A und b gehörige lineare Gleichungssystem heißt homogen, wenn b = 0,
d.h., wenn bj = 0 für jedes j = 1, . . . , m. Ein homogenes Gleichungssystem
besitzt stets die triviale Lösung 0 = (0, . . . , 0). (Insbesondere ist ein homogenes
Gleichungssystem stets lösbar.)
Satz 1.2 Seien A ∈ M(m × n, R), b ∈ Rm , u ∈ Lös(A, b) und u′ ∈ Rn . Dann gilt
u′ ∈ Lös(A, b) genau, wenn u′ − u ∈ Lös(A, 0).
Beweis Sei u = (y1 , . . . , yn ), u′ = (y1′ , . . . , yn′ ) und seien v1 , . . . , vn ∈ Rm die
Spalten von A. Da u ∈ Lös(A, b), ist nach Satz 1.1 y1 v1 + · · · + yn vn = b und
folglich ist
y1′ v1 + · · · + yn′ vn = (y1 v1 + · · · + yn vn ) + ((y1 − yn′ )v1 + · · · + (yn − yn′ )vn )
= b + ((y1 − yn′ )v1 + · · · + (yn − yn′ )vn ) .
1 Lineare Gleichungssysteme
8
Nach Satz 1.1 gilt also u′ ∈ Lös(A, b) genau dann, wenn
(y1 − yn′ )v1 + · · · + (yn − yn′ )vn = 0
und wieder nach Satz 1.1 gilt (y1 −yn′ )v1 + · · ·+ (yn −yn′ )vn = 0 genau dann, wenn
(y1 − y1′ , . . . , yn − yn′ ) ∈ Lös(A, 0), d.h. genau dann, wenn u′ − u ∈ Lös(A, 0).
Nach Satz 1.2 erhält man alle Lösungen des zu A und b gehörigen Gleichungssystems, indem man zu einer speziellen Lösung dieses Systems alle Lösungen des
homogenen Gleichungssystems addiert: Sei u ∈ Lös(A, b); ist w ∈ Lös(A, 0), so
ist u′ = u + w ∈ Lös(A, b), da w = u′ − u. Ist umgekehrt u′ ∈ Lös(A, b), so ist
u′ = u + w mit w = u′ − u und u′ − u ∈ Lös(A, 0).
Beispiel: Betrachte die 3 × 4 Matrix


1 2 1 4
A = 2 1 4 5 .
1 3 6 5
und den Vektor b = (8, 12, 15) ∈ R3 . Dann ist
1x1 + 2x2 + 1x3 + 4x4 = 8
2x1 + 1x2 + 4x3 + 5x4 = 12
1x1 + 3x2 + 6x3 + 54 = 15
das zu A und b gehörige lineare Gleichungssystem und der Vektor (1, 1, 1, 1) ist
eine Lösung, da
1·1+2·1+1·1+4·1 = 8
2 · 1 + 1 · 1 + 4 · 1 + 5 · 1 = 12
1 · 1 + 3 · 1 + 6 · 1 + 5 · 1 = 15 .
Ferner ist (−2, −1, 0, 1) eine Lösung des homogenen Gleichungssytems, da
1 · (−2) + 2 · (−1) + 1 · 0 + 4 · 1 = 0
2 · (−2) + 1 · (−1) + 4 · 0 + 5 · 1 = 0
1 · (−2) + 3 · (−1) + 6 · 0 + 5 · 1 = 0 ,
und damit ist (1, 1, 1, 1) + (−2, −1, 0, 1) = (−1, 0, 1, 2) auch eine Lösung des zu
A und b gehörigen Gleichungssystems.
1 Lineare Gleichungssysteme
9
Unter elementaren Zeilenumformungen einer Matrix versteht man die folgenden
Operationen:
I Addition eines Vielfachen einer Zeile zu einer anderen Zeile.
II Vertauschen zweier Zeilen.
Zu jeder dieser Umformungen gibt es eine entsprechende Umkehr-Umformung:
– Entsteht A′ durch Addition des c-fachen der p-ten Zeile zu der q-ten Zeile
von A, (wobei c ∈ R und p 6= q), so erhält man A wieder durch Addition des
−c-fachen der p-ten Zeile zu der q-ten Zeile von A′ .
– Entsteht A′ durch Vertauschen der p-ten und der q-ten Zeile von A, so erhält
man A wieder durch Vertauschen der p-ten und der q-ten Zeile von A′ .
Wird eine Matrix A durch eine elementare Zeilenumformung zu einer Matrix A′
verändert, so gilt A′ = 0 genau dann, wenn A = 0.
Seien m, n ≥ 1 und A = (aij ) ∈ M(m × n, R), b = (b1 , . . . , bm ) ∈ Rm ; dann wird
die m × (n + 1) Matrix


a11 · · · a1n b1
 ..
.. .. 
 .
. . 
am1 · · · amn bm
mit (A, b) bezeichnet.
Satz 1.3 Wird (A, b) durch eine elementare Zeilenumformung zu einer Matrix
(A′ , b′ ) verändert, so gilt Lös(A, b) = Lös(A′ , b′ ).
Beweis Entsteht (A′ , b′ ) aus (A, b) durch Vertauschen zweier Zeilen, so ist es klar,
dass Lös(A, b) = Lös(A′ , b′ ). Nehme also an, dass (A′ , b′ ) aus (A, b) durch eine
Zeilenumformung vom Typ I entsteht. Genauer wird angenommen, dass (A′ , b′ )
durch Addition des c-fachen der p-ten Zeile zu der q-ten Zeile von (A, b) entsteht,
(wobei c ∈ R und p 6= q). Seien A′ = (a′ij ), b′ = (b′1 , . . . , b′m ); dann gilt
– a′ij = aij für alle j = 1, . . . , n, i 6= q,
– a′qj = aqj + capj für alle j = 1, . . . , n,
– b′i = bi für i 6= q,
– b′q = bq + cbp .
Sei y = (y1 , . . . , yn ) ∈ Lös(A, b); d.h., ai1 y1 + ai2 y2 + · · · + ain yn = bi für jedes
i = 1, . . . , m. Dann gilt
a′i1 y1 + a′i2 y2 + · · · + a′in yn = ai1 y1 + ai2 y2 + · · · + ain yn = bi = b′i
10
1 Lineare Gleichungssysteme
für jedes i 6= q und
a′q1 y1 + a′q2 y2 + · · · + a′qn yn
= (aq1 + cap1 )y1 + (aq2 + caq2 )y2 + · · · + (aqn + capn )yn
= aq1 y1 + aq2 y2 + · · · + aqn yn + c(ap1 y1 + ap2 y2 + · · · + apn yn )
= bq + cbp = b′q ,
und damit ist y ∈ Lös(A′ , b′ ). Sei umgekehrt y = (y1 , . . . , yn ) ∈ Lös(A′ , b′ ); d.h.,
a′i1 y1 + a′i2 y2 + · · · + a′in yn = b′i
für jedes i = 1, . . . , m. Dann gilt
ai1 y1 + ai2 y2 + · · · + ain yn = a′i1 y1 + a′i2 y2 + · · · + a′in yn = b′i = bi
für jedes i 6= q und
aq1 y1 + aq2 y2 + · · · + aqn yn
= (a′q1 − cap1 )y1 + (a′q2 − caq2 )y2 + · · · + (a′qn − capn )yn
= a′q1 y1 + a′q2 y2 + · · · + a′qn yn − c(ap1 y1 + ap2 y2 + · · · + apn yn )
= b′q − cbp = bq ;
folglich ist y ∈ Lös(A, b). Dies zeigt also, dass Lös(A, b) = Lös(A′ , b′ ).
Beispiel: Betrachte die 2 × 2 Matrix
A=
1 2
2 5
und den Vektor b = (3, 7) ∈ R2 . Dann ist
1x1 + 2x2 = 3
2x1 + 5x2 = 7
das zu A und b gehörige lineare Gleichungssystem. Sei (A′ , b′ ) die Matrix, die aus
(A, b) durch Addition des −2-fachen der 1-ten Zeile zu der 2-ten Zeile von (A, b)
entsteht. Folglich ist
1 2
′
A =
0 1
und b′ = (3, 1) und das zu A′ und b′ gehörige lineare Gleichungssystem ist
1x1 + 2x2 = 3
x2 = 1
Es ist klar, dass dieses System eindeutig lösbar ist mit Lös(A′ , b′ ) = {(1, 1)}.
Damit ist nach Satz 1.3 das zu A und b gehörige lineare Gleichungssystem auch
eindeutig lösbar mit Lös(A, b) = {(1, 1)}.
11
1 Lineare Gleichungssysteme
Eine Matrix A ∈ M(m × n, R) hat Zeilen-Stufen-Form, wenn für jede Zeile der
Matrix folgende zwei Bedingungen erfüllt sind:
– Sind die ersten p Elemente der Zeile Null für ein p mit p < n, so sind für alle
folgenden Zeilen mindestens die ersten p + 1 Elemente Null.
– Sind alle Elemente der Zeile Null, so ist jedes Element von jeder der folgenden
Zeilen Null.
(Eine solche Matrix sieht

0 0 ∗ ·
 0 0 0 0

 0 0 0 0

 0 0 0 0

 0 0 0 0

 0 0 0 0

 0 0 0 0

 0 0 0 0

 0 0 0 0
0 0 0 0
etwa so aus:
·
∗
0
0
0
0
0
0
0
0
·
·
∗
0
0
0
0
0
0
0
·
·
·
∗
0
0
0
0
0
0
·
·
·
·
0
0
0
0
0
0
· ·
· ·
· ·
· ·
0 ∗
0 0
0 0
0 0
0 0
0 0
· ·
· ·
· ·
· ·
· ·
∗ ·
0 ∗
0 0
0 0
0 0
· · ·
· · ·
· · ·
· · ·
· · ·
· · ·
· · ·
0 0 ∗
0 0 0
0 0 0
·
·
·
·
·
·
·
·
0
0
















Dabei sind die mit einem Stern angedeuteten Elemente verschieden von Null
und die mit einem Punkt angedeuteten Elemente beliebig. Die mit einem Stern
angedeuteten Elemente bezeichnen also, soweit vorhanden, in jeder Zeile das erste
nicht-verschwindende Element.)
Insbesondere hat die Null-Matrix 0 Zeilen-Stufen-Form.
Sei A = (aij ) ∈ M(m × n, R) mit A 6= 0 und für i = 1, . . . , m sei
min{1 ≤ j ≤ n : aij 6= 0} falls (ai1 , . . . , ain ) 6= 0 ,
pi =
0
sonst .
Die Matrix A (mit A 6= 0) hat also Zeilen-Stufen-Form genau dann, wenn
1 ≤ p 1 < p2 < · · · < pr ,
wobei r der Index der letzten von Null verschiedenen Zeile von A ist. Hat A
Zeilen-Stufen-Form, so nennt man p1 , . . . , pr die Treppen-Folge von A. Da r der
Index einer Zeile ist, ist 1 ≤ r ≤ m. Da aber 1 ≤ p1 < p2 < · · · < pr , ist auch
r ≤ n. Daher ist 1 ≤ r ≤ max{m, n}.
Satz 1.4 Seien A = (aij ) ∈ M(m × n, R), b = (b1 , . . . , bm ) ∈ Rm mit (A, b) 6= 0.
Nehme an, dass (A, b) Zeilen-Stufen-Form hat, und sei p1 , . . . , pr die TreppenFolge von (A, b). Dann ist das zu A und b gehörige lineare Gleichungssystem
lösbar genau, wenn pr 6= n + 1. Ferner ist das Gleichungssystem eindeutig lösbar
genau dann, wenn r = n und pj = j für jedes j = 1, . . . , n.
12
1 Lineare Gleichungssysteme
Beweis
































0
0
0
0
0
0
0
0
0
0
0 ∗
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
· ·
0 ∗
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
·
·
∗
0
0
0
0
0
0
0
·
·
·
∗
0
0
0
0
0
0
·
·
·
·
0
0
0
0
0
0
· ·
· ·
· ·
· ·
0 ∗
0 0
0 0
0 0
0 0
0 0
· ·
· ·
· ·
· ·
· ·
∗ ·
0 ∗
0 0
0 0
0 0

· · · ·
· · · · 

· · · · 

· · · · 

· · · · 

· · · · 

· · · · 

0 0 0 ∗ 

0 0 0 0 
0 0 0 0
· ·
· ·
· ·
· ·
· ·
∗ ·
0 ∗
0 0
0 0
0 0
· ·
· ·
· ·
· ·
· ·
· ·
· ·
0 ∗
0 0
0 0
nicht lösbar
0
0
0
0
0
0
0
0
0
0
0 ∗
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
· ·
0 ∗
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
·
·
∗
0
0
0
0
0
0
0
·
·
·
∗
0
0
0
0
0
0
·
·
·
·
0
0
0
0
0
0
· ·
· ·
· ·
· ·
0 ∗
0 0
0 0
0 0
0 0
0 0
lösbar
















∗ ·
0 ∗
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
· ·
· ·
∗ ·
0 ∗
0 0
0 0
0 0
0 0
0 0
0 0
· · ·
· · ·
· · ·
· · ·
∗ · ·
0 ∗ ·
0 0 ∗
0 0 0
0 0 0
0 0 0
eindeutig lösbar
· ·
· ·
· ·
· ·
· ·
· ·
· ·
∗ ·
0 0
0 0
·
·
·
·
·
·
·
·
0
0
·
·
·
·
·
·
·
·
0
0
































Satz 1.5 Jede Matrix in M(m×n, R) läßt sich durch eine Folge von elementaren
Zeilenumformungen in eine Matrix mit Zeilen-Stufen-Form überführen.
1 Lineare Gleichungssysteme
13
Beweis Der Beweis besteht in der Angabe des Gaußschen Algorithmus, der die
gesuchte Folge von elementaren Zeilenumformungen bestimmt. Der Hauptschritt
dieses Algorithmus wird nun beschrieben.
Sei A = (aij ) ∈ M(m × n, R); für jedes j = 1, . . . , n bezeichne mit bj (A) die
m × j reelle Matrix, die aus den ersten j Spalten von A besteht. Sei
max{j : bj (A) hat Zeilen-Stufen-Form} falls es ein solches j gibt ,
′
q =
0
sonst ,
und definiere p′ ≥ 0 wie folgt:
— p′ = 0, falls q ′ = 0 oder q ′ > 0 und bq′ (A) = 0,
— p′ sei der Index der letzten von Null verschiedenen Zeile von bq′ (A), falls
q ′ > 0 und bq′ (A) 6= 0.
Setze p = p′ + 1 und q = q ′ + 1. Nehme jetzt an, dass A nicht Zeilen-StufenForm hat. Dann ist q ≤ n; ferner ist p ≤ m und es gibt mindestens ein i mit
p ≤ i ≤ m und aiq 6= 0 (sonst hätte bq (A) Zeilen-Stufen-Form). Der Hauptschritt
des Gaußschen Algorithmus besteht in der Ausführung der folgenden elementaren
Zeilenumformungen:
— Gegebenenfalls die Vertauschung der p-ten und der i-ten Zeilen für ein i mit
p < i ≤ m, um ein von Null verschiedenes Element in die pq-te Stelle der
Matrix zu bringen.
— Für i = p + 1, . . . , m die Addition des geeigneten Vielfachen der p-ten Zeile
zu der i-ten Zeile, um eine Null in die iq-te Stelle der Matrix zu bringen.
Diese Folge von elementaren Umformungen überführt A in eine Matrix A′ mit
folgenden Eigenschaften:
— Für i = 1, . . . , p′ ist die i-te Zeile von A′ gleich die i-te Zeile von A, d.h.,
a′ij = aij für alle i = 1, . . . , p′ , j = 1, . . . , m.
— bq′ (A′ ) = bq′ (A).
— a′pq 6= 0.
— a′iq = 0 für i = p + 1, . . . , m.
Insbesondere hat dann bp (A′ ) Zeilen-Stufen-Form und damit ist die Matrix A′
“näher” an der Zeilen-Stufen-Form als A.
Nach höchstens n-maliger Wiederholung dieses Hauptschrittes wird jede Matrix
in M(m × n, R) in eine Matrix mit Zeilen-Stufen-Form überführt.
Seien m, n ≥ 1 und A = (aij ) ∈ M(m × n, R), b = (b1 , . . . , bm ) ∈ Rm . Es ist klar,
dass Lös(0, 0) = Rn ; nehme also an, dass (A, b) 6= 0. Mit Hilfe des Gaußschen
14
1 Lineare Gleichungssysteme
Algorithmus kann die Matrix (A, b) in eine Matrix (A′ , b′ ) mit Zeilen-Stufen-Form
überführt werden und nach Satz 1.3 gilt dann Lös(A, b) = Lös(A′ , b′ ). Ferner
ist (A′ , b′ ) 6= 0, da (A, b) 6= 0. Folglich kann Satz 1.4 verwendet werden, um
festzustellen, ob das zu A und b gehörige lineare Gleichungssystem lösbar bzw.
eindeutig lösbar ist.
Beispiel: Sei b = (1, 3, 9) und sei A die 3 × 3 Matrix


1 −2 2
 −1 3 1  .
1 0 8
Dann gilt:

1 −2
(A, b) =  −1 3
1 0

2 1
1 3
8 9
⇓ (2. Zeile ⇒ 2. Zeile + 1. Zeile)

1 −2
0 1
1 0

2 1
3 4
8 9

1 −2
0 1
0 2

2 1
3 4
6 8


2 1
3 4  = (A′ , b′ )
0 0
⇓ (3. Zeile ⇒ 3. Zeile − 1. Zeile)
⇓ (3. Zeile ⇒ 3. Zeile − 2 × 2. Zeile)
wobei b′ = (1, 4, 0) und
1 −2
0 1
0 0

1 −2
A′ =  0 1
0 0

2
3 ,
0
und es gilt Lös(A, b) = Lös(A′ , b′ ). Das zu A′ und b′ gehörige Gleichungssystem
ist lösbar, aber nicht eindeutig lösbar. (Zum Beispiel sind (1, 1, 1) und (9, 4, 0)
beide Lösungen.) Folglich ist das zu A und b gehörige Gleichungssystem ebenfalls
lösbar, aber nicht eindeutig lösbar.
1 Lineare Gleichungssysteme
15
Satz 1.6 Sei A ∈ M(m × n, R) mit m < n und sei b ∈ Rm . Dann ist das zu A
und b gehörige lineare Gleichungssystem nicht eindeutig lösbar. Insbesondere ist
das zu A und 0 gehörige Gleichungssystem lösbar, aber nicht eindeutig lösbar.
Beweis Da das zu 0 und 0 gehörige lineare Gleichungssystem nicht eindeutig
lösbar ist, können wir annehmen, dass (A, b) 6= 0. Nun läßt sich die Matrix
(A, b) nach Satz 1.5 durch eine Folge von elementaren Zeilenumformungen in
eine Matrix (A′ , b′ ) mit Zeilen-Stufen-Form überführen und nach Satz 1.3 ist
Lös(A, b) = Lös(A′ , b′ ). Ferner ist (A′ , b′ ) 6= 0, da (A, b) 6= 0. Sei p1 , . . . , pr die
Treppen-Folge von (A′ , b′ ). Dann ist r ≤ m < n und insbesondere ist r 6= n.
Nach Satz 1.4 ist also das zu A′ und b′ gehörige lineare Gleichungssystem nicht
eindeutig lösbar und daraus ergibt sich, dass das zu A und b gehörige lineare
Gleichungssystem ebenfalls nicht eindeutig lösbar ist.
2
Untervektorräume
Eine Teilmenge U von Rn heißt Untervektorraum von Rn , wenn gilt:
(U1) 0 ∈ U,
(U2) u + v ∈ U für alle u, v ∈ U,
(U3) cu ∈ U für alle c ∈ R, u ∈ U.
Lemma 2.1 (1) Sei U ein Untervektorraum von Rn . Dann gilt bu + cv ∈ U für
alle u, v ∈ U und alle b, c ∈ R.
(2) Sei U eine Teilmenge von Rn . Ist 0 ∈ U und gilt bu+cv ∈ U für alle u, v ∈ U
und alle b, c ∈ R, so ist U ein Untervektorraum von Rn .
Beweis (1) Seien u, v ∈ U und alle b, c ∈ R. Nach (U3) gilt bu ∈ U, cv ∈ U und
also ist nach (U2) bu + cv ∈ U.
(2) Seien u, v ∈ U; da w = 1w für alle w ∈ Rn , ist dann u + v = 1u + 1v ∈ U.
Ferner ist cu = cu + 0 = cu + 0u ∈ U für alle u ∈ U, c ∈ R. Dies zeigt, dass U
ein Untervektorraum von Rn ist.
Lemma 2.2 Sei U ein Untervektorraum von Rn und seien u1 , . . . , um Elemente
von U (mit m ≥ 1). Für alle c1 , . . . , cm ∈ R ist dann c1 u1 + · · · + cm um wieder
ein Element von U.
Beweis Es wird durch Induktion nach ℓ gezeigt, dass c1 u1 +· · ·+cℓ uℓ ein Element
von U ist für jedes ℓ = 1, . . . , m. Nach (U2) ist c1 u1 ein Element von U. Sei nun
ℓ mit 1 ≤ ℓ < m und nehme an, dass c1 u1 + · · · + cℓ uℓ ein Element von U ist.
Nach (U2) ist cℓ+1 uℓ+1 ein Element von U, und daraus folgt nach (U1), dass
c1 u1 + · · · + cℓ+1 uℓ+1 = (c1 u1 + · · · + cℓ uℓ ) + cℓ+1 uℓ+1
auch ein Element von U ist. Damit ist c1 u1 + · · · + cℓ uℓ ein Element von U für
jedes ℓ = 1, . . . , m. Insbesondere ist c1 u1 + · · · + cm um ein Element von U.
Satz 2.1 Sei A = (aij ) ∈ M(m × n, R); dann ist Lös(A, 0) ein Untervektorraum
von Rn . (Die Lösungsmenge eines homogenen linearen Gleichungssytems für n
Unbekannte ist ein Untervektorraum von Rn .)
16
17
2 Untervektorräume
Beweis Seien v1 , . . . , vn ∈ Rm die Spalten von A. Nach Satz 2.1 gilt also, dass
(y1 , . . . , yn ) ∈ Lös(A, 0) genau dann, wenn y1 v1 + · · · + yn vn = 0.
(U1): Da 0v1 + · · · + 0vn = 0, ist 0 = (0, . . . , 0) ∈ Lös(A, 0).
(U2): Seien u = (y1 , . . . , yn ), u′ = (y1′ , . . . , yn′ ) ∈ Lös(A, 0); dann ist
(y1 + y1′ )v1 + · · · + (yn + yn′ )vn
= (y1 v1 + · · · + yn vn ) + (y1′ v1 + · · · + yn′ vn ) = 0 + 0 = 0
und damit ist u + u′ = (y1 + y1′ , . . . , yn + yn′ ) ∈ Lös(A, 0).
(U3): Seien u = (y1 , . . . , yn ) ∈ Lös(A, 0), y ∈ R; dann gilt
(yy1)v1 + · · · + (yyn )vn = y(y1v1 + · · · + yn vn ) = y0 = 0 .
Folglich ist auch yu = (yy1, . . . , yyn) ∈ Lös(A, 0).
Seien v1 , . . . , vm ∈ Rn (mit m ≥ 1). Ein Vektor v ∈ Rn heißt Linearkombination
von v1 , . . . , vm , wenn es c1 , . . . , cm ∈ R gibt, so dass
v = c1 v1 + · · · + cm vm .
Die Menge aller Linearkombinationen von v1 , . . . , vm nennt man die lineare Hülle
von v1 , . . . , vm ; sie wird mit L(v1 , . . . , vm ) bezeichnet.
Wichtiges Beispiel: Für j = 1, . . . , n sei
ej = (0, . . . , 0, 1, 0, . . . , 0)
mit der Eins in der j-ten Komponente. Dann gilt
c1 e1 + · · · + cn en = (c1 , . . . , cn )
für alle c1 , . . . , cn ∈ R und daraus ergibt sich, dass L(e1 , . . . , en ) = Rn .
Seien nun v1 , . . . , vm ∈ Rn (mit m ≥ 1).
Satz 2.2 L(v1 , . . . , vm ) ist ein Untervektorraum von Rn mit vj ∈ L(v1 , . . . , vm )
für jedes j = 1, . . . , m.
Beweis Nach Lemma 2.2 ist 0 = 0v1 + · · · + 0vm ∈ L(v1 , . . . , vm ). Seien nun
u, v ∈ L(v1 , . . . , vm ); dann gibt es Elemente c1 , . . . , cm , d1 , . . . , dm ∈ R, so dass
u = c1 v1 + · · · + cm vm und v = d1 v1 + · · · + dm vm . Folglich gilt
u + v = c1 v1 + · · · + cm vm + d1 v1 + · · · + dm vm = (c1 + d1 )v1 + · · · + (cm + dm )vm ,
2 Untervektorräume
18
und damit ist u + v ∈ L(v1 , . . . , vm ). Für jedes c ∈ R gilt ferner
cu = c(c1 v1 + · · · + cm vm ) = (cc1 )v1 + · · · + (ccm )vm ,
und folglich ist auch cu ∈ L(v1 , . . . , vm ). Dies zeigt also, dass L(v1 , . . . , vm ) ein
Untervektorraum von Rn ist.
Sei nun j mit 1 ≤ j ≤ m und definiere c1 , . . . , cm ∈ R durch
1 falls i = j ,
ci =
0 falls i 6= j .
Dann ist vj = 0 + · · · + 0 + 1vj + 0 + · · · + 0 = c1 v1 + · · · + cm vm , und damit ist
vj ∈ L(v1 , . . . , vm ).
Satz 2.3 Sei U ein Untervektorraum von Rn mit vj ∈ U für jedes j. Dann gilt
L(v1 , . . . , vm ) ⊂ U. Damit ist L(v1 , . . . , vm ) der kleinste Untervektorraum von Rn ,
der die Elemente v1 , . . . , vm enthält.
Beweis Sei v ∈ L(v1 , . . . , vm ); dann gibt es Elemente c1 , . . . , cm ∈ R, so dass
v = c1 v1 + · · · + cm vm und nach Lemma 2.2 ist c1 v1 + · · · + cm vm ein Element von
U, d.h., v ∈ U. Folglich ist L(v1 , . . . , vm ) ⊂ U.
In den folgenden Lemmas sei m ≥ 1 und seien v1 , . . . , vm ∈ Rn .
Lemma 2.3 Es gilt L(v1 , . . . , vm ) = {0} genau dann, wenn vj = 0 für jedes
j = 1, . . . , m.
Beweis Nach Satz 2.2 enthält L(v1 , . . . , vm ) die Elemente v1 , . . . , vm und folglich
ist L(v1 , . . . , vm ) 6= {0}, wenn vj 6= 0 für ein j. Ist andererseits vj = 0 für jedes
j = 1, . . . , m, dann gilt c1 v1 + · · · + cm vm = 0 für alle c1 , . . . , cm ∈ R und damit
ist L(v1 , . . . , vm ) = {0}.
Lemma 2.4 Seien c1 , . . . , cm ∈ R mit cj 6= 0 für jedes j = 1, . . . , m. Dann gilt
L(c1 v1 , . . . , cm vm ) = L(v1 , . . . , vm ).
Beweis Nach Satz 2.2 ist cj vj ∈ L(v1 , . . . , vm ) für jedes j = 1, . . . , m und daraus
folgt nach Satz 2.3, dass L(c1 v1 , . . . , cm vm ) ⊂ L(v1 , . . . , vm ). Umgekehrt ist
−1
vj = 1vj = (c−1
j cj )vj = cj (cj vj ) ∈ L(c1 v1 , . . . , cm vm )
für jedes j und damit ist auch L(v1 , . . . , vm ) ⊂ L(c1 v1 , . . . , cm vm ).
2 Untervektorräume
19
Lemma 2.5 Für jede Permutation {i1 , . . . , im } von {1, . . . , m} gilt
L(vi1 , . . . , vim ) = L(v1 , . . . , vm ) .
Beweis Nach Satz 2.2 ist vij ∈ L(v1 , . . . , vm ) für jedes j = 1, . . . , m und daraus
folgt nach Satz 2.3, dass L(vi1 , . . . , vim ) ⊂ L(v1 , . . . , vm ). Genauso gilt dann auch
L(v1 , . . . , vm ) ⊂ L(vi1 , . . . , vim ).
Lemma 2.6 Sei u ∈ Rn . Dann gilt L(v1 , . . . , vm ) ⊂ L(v1 , . . . , vm , u). Ferner gilt
L(v1 , . . . , vm ) = L(v1 , . . . , vm , u) genau dann, wenn u ∈ L(v1 , . . . , vm ).
Beweis Nach Satz 2.2 ist vj ∈ L(v1 , . . . , vm , u) für jedes j und daraus ergibt sich
nach Satz 2.3, dass L(v1 , . . . , vm ) ⊂ L(v1 , . . . , vm , u).
Gilt L(v1 , . . . , vm ) = L(v1 , . . . , vm , u), so ist u ∈ L(v1 , . . . , vm ), da nach Satz 2.2
u in L(v1 , . . . , vm , u) liegt. Ist umgekehrt u ∈ L(v1 , . . . , vm ), so ist nach Satz 2.3
L(v1 , . . . , vm , u) ⊂ L(v1 , . . . , vm ) und damit L(v1 , . . . , vm ) = L(v1 , . . . , vm , u), da
nach Satz 2.2 vj ∈ L(v1 , . . . , vm ) für jedes j.
Lemma 2.7 Seien u, w ∈ Rn . Es gilt u ∈ L(v1 , . . . , vm , w) \ L(v1 , . . . , vm ) genau
dann, wenn w ∈ L(v1 , . . . , vm , u) \ L(v1 , . . . , vm ).
Beweis Nehme zunächst an, dass w ∈ L(v1 , . . . , vm , u) \ L(v1 , . . . , vm ). Dann ist
insbesondere L(v1 , . . . , vm , u) 6= L(v1 , . . . , vm ) und daraus folgt nach Lemma 2.6,
dass u ∈
/ L(v1 , . . . , vm ). Da w ∈ L(v1 , . . . , vm , u), gibt es c1 , . . . , cm+1 ∈ R, so
dass w = c1 v1 + · · · + cm vm + cm+1 u. Ferner ist cm+1 6= 0, sonst würde w in
L(v1 , . . . , vm ) liegen. Damit ist
u = d1 v1 + · · · + dm vm + dm+1 w ,
−1
wobei dj = (−1)c−1
m+1 cj für j = 1, . . . , m und dm+1 = cm+1 . Dies zeigt also, dass
u ∈ L(v1 , . . . , vm , w) \ L(v1 , . . . , vm ).
Der Beweis für die Umkehrung ist identisch, die Rollen von u und w müssen
lediglich getauscht werden.
Satz 2.4 Seien v1 , . . . , vm ∈ Rn und sei A ∈ M(n × m, R) die Matrix, in der
die Vektoren v1 , . . . , vm als Spalten vorkommen. (Man beachte: A ist eine n × m
und nicht eine m × n Matrix.) Für v ∈ Rn gilt v ∈ L(v1 , . . . , vm ) genau dann,
wenn das zu A und v gehörige lineare Gleichungssystem lösbar ist. Mit anderen
Worten: L(v1 , . . . , vm ) besteht aus genau denen Vektoren v ∈ Rn , für die das zu
A und v gehörige lineare Gleichungssystem lösbar ist.
20
2 Untervektorräume
Beweis Nehme zunächst an, dass das zu A und v gehörige lineare Gleichungssystem lösbar ist. Es gibt also u = (c1 , . . . , cm ) ∈ Lös(A, v) und nach Satz 2.1 ist
v = c1 v1 + · · · + cm vm , d.h. v ∈ L(v1 , . . . , vm ). Nehme nun umgekehrt an, dass
v ∈ L(v1 , . . . , vm ). Dann gibt es c1 , . . . , cm ∈ R, so dass v = c1 v1 + · · · + cm vm
und folglich ist nach Satz 2.1 (c1 , . . . , cm ) ∈ Lös(A, v); insbesondere ist das zu A
und v gehörige lineare Gleichungssystem lösbar.
Seien v1 , . . . , vm ∈ Rn (mit m ≥ 1). Die Vektoren v1 , . . . , vm heißen linear
abhängig, wenn es c1 , . . . , cm ∈ R mit cj 6= 0 für mindestens ein j gibt, so dass
c1 v1 + · · · + cm vm = 0 .
Die Vektoren v1 , . . . , vm sind linear unabhängig, wenn sie nicht linear abhängig
sind. Mit anderen Worten sind die Vektoren v1 , . . . , vm linear unabhängig genau
dann, wenn aus c1 v1 + · · · + cm vm = 0 stets folgt, dass c1 = · · · = cm = 0, d.h.,
wenn eine Linearkombination von v1 , . . . , vm nur dann Null sein kann, wenn alle
“Koeffizienten” verschwinden.
Wichtiges Beispiel: Für j = 1, . . . , n sei wieder
ej = (0, . . . , 0, 1, 0, . . . , 0)
mit der Eins in der j-ten Komponenten. Dann sind e1 , . . . , en linear unabhängig:
Sind c1 , . . . , cn ∈ R mit c1 e1 + · · · + cn en = 0, so ist (c1 , . . . , cn ) = 0, d.h., cj = 0
für jedes j = 1, . . . , n, da c1 e1 + · · · + cn en = (c1 , . . . , cn ).
In den folgenden Lemmas sei m ≥ 1 und seien v1 , . . . , vm ∈ Rn .
Lemma 2.8 Sind v1 , . . . , vm linear unabhängig, so ist vj 6= 0 für jedes j und
ferner ist vj 6= vk , falls j 6= k.
Beweis Nehme an, dass vj = 0 für ein j, und definiere c1 , . . . , cm ∈ R durch
1 falls i = j ,
ci =
0 falls i 6= j .
Dann ist ci 6= 0 für mindestens ein i und nach Lemma 2.2 ist
c1 v1 + · · · + cm vm = 0v1 + · · · + 0vj−1 + 1vj + 0vj+1 + · · · + 0vm
= 0 + · · · + 0 + 1vj + 0 + · · · + 0 = 1vj = vj = 0 .
Damit wären v1 , . . . , vm linear abhängig. Folglich ist vj 6= 0 für jedes j.
Nehme nun an, dass es j, k mit j 6= k und vj = vk gibt, und definiere diesmal

 −1 falls i = j ,
1 falls i = k ,
ci =

0 sonst .
2 Untervektorräume
21
Dann ist ci 6= 0 für mindestens ein i und nach Lemma 2.1 und Lemma 2.2 ist
c1 v1 + · · · + cm vm = (−1)vj + 1vk = (−vj ) + vj = 0 ,
und wieder wären v1 , . . . , vm linear abhängig. Folglich ist vj 6= vk , falls j 6= k.
Lemma 2.9 Seien c1 , . . . , cm ∈ R mit cj 6= 0 für jedes j = 1, . . . , m. Die
Vektoren c1 v1 , . . . , cm vm sind genau dann linear unabhängig, wenn v1 , . . . , vm
linear unabhängig sind.
Beweis Es wird gezeigt, dass v1 , . . . , vm genau dann linear abhängig sind, wenn
c1 v1 , . . . , cm vm linear abhängig sind. Nehme zunächst an, dass c1 v1 , . . . , cm vm
linear abhängig sind. Dann gibt es d1 , . . . , dm ∈ R mit dj 6= 0 für mindestens ein
j, so dass d1 (c1 v1 ) + · · · + dm (cm vm ) = 0. Für j = 1, . . . , m sei d′j = dj cj ; dann
ist d′j 6= 0 für mindestens ein j, da d′j = 0 genau dann, wenn dj = 0, und
d′1 v1 + · · · + d′m vm = (d1 c1 )v1 + · · · + (dm cm )vm = d1 (c1 v1 ) + · · · + dm (cm vm ) = 0 .
Damit sind v1 , . . . , vm linear abhängig.
Nehme nun umgekehrt an, dass v1 , . . . , vm linear abhängig sind. Dann gibt es
d1 , . . . , dm ∈ R mit dj 6= 0 für mindestens ein j, so dass d1 v1 + · · · + dm vm = 0.
′
′
Für j = 1, . . . , m sei d′j = dj c−1
j ; dann ist dj 6= 0 für mindestens ein j, da dj = 0
genau dann, wenn dj = 0. Ferner gilt d′j cj = dj c−1
j cj = dj 1 = dj für jedes j und
daraus ergibt sich, dass
d′1 (c1 v1 ) + · · · + d′m (cm vm ) = (d′1 c1 )v1 + · · · + (d′m cm )vm
= d1 (c1 v1 ) + · · · + dm (cm vm ) = 0 .
Folglich sind c1 v1 , . . . , cm vm linear abhängig.
Lemma 2.10 Seien i1 , . . . , in (mit n ≥ 1) paarweise verschiedene Elemente aus
der Menge {1, 2, . . . , m}. (Es gilt also n ≤ m, 1 ≤ ij ≤ m für j = 1, . . . , n und
ij 6= ik , falls j 6= k.) Sind v1 , . . . , vm linear unabhängig, so sind auch vi1 , . . . , vin
linear unabhängig.
Beweis Nehme an, dass vi1 , . . . , vin linear abhängig sind. Es gibt also Elemente
ci1 , . . . , cin ∈ R mit cij 6= 0 für mindestens ein j, so dass ci1 vi1 + · · · + cin vin = 0.
Definiere d1 , . . . , dm ∈ R durch
cij falls k = ij für ein j = 1, . . . , n ,
dk =
0 sonst .
2 Untervektorräume
22
Dann ist dk 6= 0 für mindestens ein k und nach Lemma 2.2 ist
d1 v1 + · · · + dm vm = ci1 vi1 + · · · + cin vin = 0 .
Aber dies ist nicht möglich, da dann v1 , . . . , vm linear abhängig wären. Also sind
vi1 , . . . , vin linear unabhängig.
Seien v1 , . . . , vm linear unabhängig. Dann gibt es folgende spezielle Fälle von
Lemma 2.10:
— Für jedes n = 1, . . . , m sind v1 , . . . , vn linear unabhängig.
— Ist m ≥ 2, so sind v1 , . . . , vj−1 , vj+1 , . . . , vm linear unabhängig für jedes
j = 1, . . . , m.
— Für jede Permutation {i1 , . . . , im } von {1, . . . , m} sind vi1 , . . . , vim linear
unabhängig.
Satz 2.5 (1) Sei v ∈ Rn ; dann ist v linear unabhängig genau, wenn v 6= 0.
(2) Seien v1 , . . . , vm ∈ Rn mit m ≥ 2. Dann sind v1 , . . . , vm linear unabhängig
genau, wenn vk ∈
/ L(v1 , . . . , vk−1, vk+1 , . . . , vm ) für jedes k = 1, . . . , m.
Beweis (1) Ist c ∈ R mit c 6= 0, so ist cv = 0 genau dann, wenn v = 0. Folglich
ist v linear abhängig genau dann, wenn v = 0, d.h., v ist linear unabhängig genau
dann, wenn v 6= 0,
(2) Es wird gezeigt, dass vk ∈ L(v1 , . . . , vk−1 , vk+1, . . . , vm ) für ein k genau dann
gilt, wenn v1 , . . . , vm linear abhängig sind.
Nehme zunächst an, dass vk ∈ L(v1 , . . . , vk−1 , vk+1, . . . , vm ) für ein k. Dann gibt
es c1 , . . . , ck−1 , ck+1, . . . , cm ∈ R, so dass
vk = c1 v1 + · · · + ck−1 vk−1 + ck+1 vk+1 + · · · + cm vm .
Setze ck = −1; dann ist ck 6= 0 und
c1 v1 + · · · + cm vm = c1 v1 + · · · + ck−1 vk−1 + (−1)vk + ck+1vk+1 + · · · + cm vm
= (−1)vk + c1 v1 + · · · + ck−1vk−1 + ck+1vk+1 + · · · + cm vm
= (−1)vk + vk = (−vk ) + vk = 0 ,
(da −v = (−1)v für jedes v ∈ Rn ). Damit sind v1 , . . . , vm linear abhängig.
Nehme nun umgekehrt an, dass v1 , . . . , vm linear abhängig sind. Dann gibt es
c1 , . . . , cm ∈ R mit cj 6= 0 für mindestens ein j, so dass c1 v1 + · · · + cm vm = 0.
2 Untervektorräume
23
Wähle k mit ck 6= 0 und für jedes j mit j 6= k sei dj = bcj , wobei b = −c−1
k . Dann
ist bck = −(c−1
c
)
=
−1
und
k
k
vk =
=
=
=
=
0 + vk = b0 + vk = b(c1 v1 + · · · + cm vm ) + vk
(bc1 )v1 + · · · + (bcm )vm + vk
d1 v1 + · · · + dk−1 vk−1 + dk+1vk+1 + · · · + dm vm + (bck )vk + vk
d1 v1 + · · · + dk−1 vk−1 + dk+1vk+1 + · · · + dm vm + (−1)vk + vk
d1 v1 + · · · + dk−1 vk−1 + dk+1vk+1 + · · · + dm vm
und damit ist vk ∈ L(v1 , . . . , vk−1 , vk+1, . . . , vm ).
Lemma 2.11 Seien v1 , . . . , vm ∈ Rn linear unabhängig und sei u ∈ Rn . Dann
sind v1 , . . . , vm , u linear unabhängig genau, wenn u ∈
/ L(v1 , . . . , vm ).
Beweis Sind v1 , . . . , vm , u linear unabhängig, dann gilt nach Satz 2.5 (2), dass
insbesondere u ∈
/ L(v1 , . . . , vm ). Es bleibt also zu zeigen, dass u ∈ L(v1 , . . . , vm ),
wenn v1 , . . . , vm , u linear abhängig sind.
Sind die Vektoren v1 , . . . , vm , u linear abhängig, dann gibt es c1 , . . . , cm+1 ∈ R
mit cj 6= 0 für mindestens ein j, so dass c1 v1 + · · · + cm vm + cm+1 u = 0. Nehme
an, dass cm+1 = 0; dann ist cj 6= 0 für mindestens ein j mit 1 ≤ j ≤ m und
c1 v1 + · · · + cm vm = 0. Dies steht aber im Widerspruch zu der Annahme, dass
v1 , . . . , vm linear unabhängig sind, und daraus ergibt sich, dass cm+1 6= 0. Für
j = 1, . . . , m setze dj = bcj , wobei b = −c−1
m+1 . Dann ist bcm+1 = −1 und
u=0+u =
=
=
=
b0 + u = b(c1 v1 + · · · + cm vm + cm+1 u) + u
(bc1 )v1 + · · · + (bcm )vm + (bcm+1 )u + u
d1 v1 + · · · + dm vm + (−1)u + u
d1 v1 + · · · + dm vm + 0 = d1 v1 + · · · + dm vm ;
d.h., u ∈ L(v1 , . . . , vm ).
Lemma 2.12 Die Vektoren v1 , . . . , vm sind linear unabhängig genau dann, wenn
v1 6= 0 und vn ∈
/ L(v1 , . . . , vn−1 ) für jedes n = 2, . . . , m.
Beweis Sind v1 , . . . , vm linear unabhängig, dann ist nach Lemma 2.8 v1 6= 0 und
nach Satz 2.5 (2) gilt vn ∈
/ L(v1 , . . . , vn−1 ) für jedes n = 2, . . . , m. Nehme nun
umgekehrt an, dass die Vektoren v1 , . . . , vm linear abhängig sind. Dann gibt es
c1 , . . . , cm ∈ R mit cj 6= 0 für mindestens ein j, so dass c1 v1 + · · · + cm vm = 0.
Sei n = max{1 ≤ j ≤ m : cj 6= 0}; also ist cn 6= 0 und c1 v1 + · · · + cn vn = 0. Falls
n = 1, so ist c1 6= 0 und c1 v1 = 0, und damit ist v1 = 0. Wenn aber n ≥ 2, so ist
vn = d1 v1 + · · · + dn−1 vn−1 , wobei dj = (−1)c−1
n cj für j = 1, . . . , n − 1, und hier
ist vn ∈ L(v1 , . . . , vn−1 ). Daraus ergibt sich, dass v1 , . . . , vm linear unabhängig
sein müssen, wenn v1 6= 0 und vn ∈
/ L(v1 , . . . , vn−1 ) für jedes n = 2, . . . , m.
2 Untervektorräume
24
Satz 2.6 Seien v1 , . . . , vm ∈ Rn und sei A ∈ M(n × m, R) die Matrix, in der
die Vektoren v1 , . . . , vm als Spalten vorkommen. (Man beachte: A ist eine n × m
und nicht eine m × n Matrix.) Die Vektoren v1 , . . . , vm sind linear unabhängig
genau dann, wenn das zu A und 0 gehörige lineare Gleichungssystem eindeutig
lösbar ist (d.h., genau dann, wenn Lös(A, 0) = {0}).
Beweis Genau wie im Beweis für Satz 2.4 gilt c1 v1 + · · · + cn vn = 0 genau dann,
wenn (c1 , . . . , cn ) ∈ Lös(A, 0). Damit sind v1 , . . . , vn linear unabhängig genau
dann, wenn Lös(A, v) = {0}.
Satz 2.7 Sind die Vektoren v1 , . . . , vm ∈ Rn linear unabhängig, so ist m ≤ n.
Beweis Seien v1 , . . . , vm ∈ Rn linear unabhängig und sei A ∈ M(n × m, R) die
Matrix, in der die Vektoren v1 , . . . , vm als Spalten vorkommen. Nach Satz 2.6
ist also das zu A und 0 gehörige lineare Gleichungssystem eindeutig lösbar und
daraus ergibt sich nach Satz 2.6, dass m ≤ n.
3
Basen
Sei U ein Untervektorraum von Rn und seien v1 , . . . , vm ∈ Rn (mit m ≥ 1). Das
m-Tupel (v1 , . . . , vm ) heißt dann Basis von U, wenn gilt:
(B1) Die Vektoren v1 , . . . , vm sind linear unabhängig,
(B2) L(v1 , . . . , vm ) = U.
Sei (v1 , . . . , vm ) eine Basis eines Untervektorraumes U von Rn . Nach Lemma 2.8
ist dann vj 6= 0 für jedes j, und daraus folgt nach Satz 2.2, dass U 6= {0}.
Der triviale Untervektorraum {0} von Rn kann also im obigen Sinn keine Basis
besitzen. Es erweist sich aber als nützlich, die leere Menge ∅ als Basis von {0}
anzusehen.
Wichtiges Beispiel: Für j = 1, . . . , n sei wieder
ej = (0, . . . , 0, 1, 0, . . . , 0)
mit der Eins in der j-ten Komponenten. Dann sind e1 , . . . , en linear unabhängig
und es gilt auch L(e1 , . . . , en ) = Rn . Damit ist (e1 , . . . , en ) eine Basis von Rn . Sie
wird die kanonische Basis von Rn genannt.
Satz 3.1 Jeder Untervektorraum U von Rn besitzt eine Basis.
Beweis Da {0} die Basis ∅ besitzt, können wir annehmen, dass U 6= {0}.
Da U 6= {0}, gibt es u1 ∈ U mit u1 6= 0 und nach Satz 2.5 (1) ist u1 linear
unabhängig. Gilt U = L(u1 ), dann ist (u1 ) schon eine Basis von U.
Ist dagegen U 6= L(u1 ), so gibt es u2 ∈ U \ L(u1) und nach Lemma 2.11 sind dann
u1 , u2 linear unabhängig. Gilt U = L(u1, u2 ), dann ist (u1, u2 ) eine Basis von U.
Ist dagegen U 6= L(u1 , u2), so gibt es u3 ∈ U \L(u1, u2 ) und nach Lemma 2.11 sind
dann u1 , u2 , u3 linear unabhängig. Gilt U = L(u1, u2 , u3 ), dann ist (u1, u2 , u3 ) eine
Basis von U.
Ist dagegen U 6= L(u1 , u2, u3 ), so gibt es u4 ∈ U \ L(u1 , u2, u3 ) und . . . .
Entweder hört dieses Verfahren auf, indem U = L(v1 , . . . , vm ) für ein m ≥ 1, und
damit ist (v1 , . . . , vm ) eine Basis von U, oder das Verfahren hört nie auf, und
in diesem Fall ist {vk }k≥1 eine Folge von Elementen aus U mit der Eigenschaft,
dass für jedes m ≥ 1 die Vektoren v1 , . . . , vm linear unabhängig sind. Aber nach
Satz 2.7 sind die Vektoren v1 , . . . , vn+1 linear abhängig und daraus ergibt sich,
dass (v1 , . . . , vm ) eine Basis von U ist für ein m ≤ n.
25
26
3 Basen
Lemma 3.1 Sei U 6= {0} ein Untervektorraum von Rn und sei (v1 , . . . , vm ) eine
Basis von U.
(1) Seien c1 , . . . , cm ∈ R mit cj 6= 0 für jedes j; dann ist (c1 v1 , . . . , cm vm ) auch
eine Basis von U.
(2) Sei {i1 , . . . , im } eine Permutation von {1, . . . , m}; dann ist (vi1 , . . . , vim ) auch
eine Basis von U.
Beweis (1) Nach Lemma 2.4 ist L(c1 v1 , . . . , cm vm ) = U und nach Lemma 2.9
sind c1 v1 , . . . , cm vm linear unabhängig. Damit ist (c1 v1 , . . . , cm vm ) eine Basis von
U.
(2) Nach Lemma 2.10 sind vi1 , . . . , vim linear unabhängig und nach Lemma 2.5
ist L(vi1 , . . . , vim ) = U. Damit ist (vi1 , . . . , vim ) eine Basis von U.
Satz 3.2 Seien (v1 , . . . , vp ), (w1 , . . . , wq ) zwei Basen eines Untervektorraumes U
von Rn mit U 6= {0}. Dann ist p = q.
Beweis Für den Beweis wird folgendes Austauschlemma gebraucht:
Lemma 3.2 Sei U 6= {0} ein Untervektorraum von Rn und seien (v1 , . . . , vp ),
(w1 , . . . , wq ) zwei Basen von U mit p ≥ 2 und q ≥ 1. Dann gibt es zu jedem
j = 1, . . . , p ein k mit 1 ≤ k ≤ q, so dass (v1 , . . . , vj−1, vj+1 , . . . , vp , wk ) wieder
eine Basis von U ist.
Beweis Sei j mit 1 ≤ j ≤ p fest. Nehme an, wk ∈ L(v1 , . . . , vj−1, vj+1 , . . . , vp ) für
jedes k = 1, . . . , q. Dann gilt nach (B2) und Satz 2.2, dass
U = L(w1 , . . . , wq ) ⊂ L(v1 , . . . , vj−1 , vj+1, . . . , vp ) ,
und nach Satz 2.1 ist vj ∈ U; d.h., vj ∈ L(v1 , . . . , vj−1 , vj+1, . . . , vp ). Dies steht
aber im Widerspruch zu Satz 2.5 (2), da v1 , . . . , vp linear unabhängig sind. Damit
gibt es ein k mit 1 ≤ k ≤ q, so dass wk ∈
/ L(v1 , . . . , vj−1 , vj+1 , . . . , vp ). Es wird
nun gezeigt, dass {v1 , . . . , vj−1 , vj+1, . . . , vp , wk } eine Basis von U ist.
Nach Lemma 2.10 sind v1 , . . . , vj−1 , vj+1, . . . , vp linear unabhängig, und folglich
sind nach Lemma 2.11 v1 , . . . , vj−1 , vj+1 , . . . , vp , wk auch linear unabhängig.
Es bleibt zu zeigen, dass L(v1 , . . . , vj−1, vj+1 , . . . , vp , wk ) = U. Nach (B2), Satz 2.1
und Lemma 2.5 ist
wk ∈ U = L(v1 , . . . , vp ) = L(v1 , . . . , vj−1, vj+1 , . . . , vp , vj ) .
3 Basen
27
Aber wk ∈
/ L(v1 , . . . , vj−1 , vj+1, . . . , vp ), d.h.,
wk ∈ L(v1 , . . . , vj−1, vj+1 , . . . , vp , vj ) \ L(v1 , . . . , vj−1, vj+1 , . . . , vp ) ,
und daraus folgt nach Lemma 2.7, dass vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vp , wk ). Nach
Satz 2.2 ist also U = L(v1 , . . . , vp ) ⊂ L(v1 , . . . , vj−1 , vj+1 , . . . , vp , wk ); und daher
ist U = L(v1 , . . . , vj−1 , vj+1, . . . , vp , wk ).
Nun zum Beweis für Satz 3.2, und ohne Beschränkung der Allgemeinheit kann
man annehmen, dass p ≥ q ≥ 1. Ist p = 1, dann ist p = q trivial richtig; es kann
also weiter angenommen werden, dass p ≥ 2. Nun wird Lemma 3.2 wiederholt
angewendet.
Zuerst gibt es nach Lemma 3.2 ein k1 mit 1 ≤ k1 ≤ q, so dass (v2 , . . . , vp , wk1 ) eine
Basis von U ist. Nun sind (v2 , . . . , vp , wk1 ) und (w1 , . . . , wq ) Basen von U; also gibt
es nach Lemma 3.2 ein k2 mit 1 ≤ k2 ≤ q, so dass (v3 , . . . , vp , wk1 , wk2 ) eine Basis
von U ist. Nach p-maliger Anwendung dieses Verfahrens erhält man eine Basis
(wk1 , . . . , wkp ) von U. Insbesondere sind dann wk1 , . . . , wkp linear unabhängig
und daraus folgt nach Lemma 2.8, dass wki 6= wkj und damit ki 6= kj , falls i 6= j.
Da aber 1 ≤ kj ≤ q für jedes j = 1, . . . , p, ist dies nur möglich, wenn p = q.
Sei U 6= {0} ein Untervektorraum von Rn ; nach Satz 3.1 besitzt U eine Basis
und nach Satz 3.2 gibt es ein m ≥ 1, so dass jede Basis von U aus genau m
Elementen besteht. Diese Zahl m wird die Dimension von U gennant und wird
mit dim U abgekürzt. Per Definition wird der Untervektorraum {0} die Dimension
0 zugeordnet (dim{0} = 0).
Insbesondere ist dim Rn = n, da (e1 , . . . , en ) eine Basis von Rn ist.
Satz 3.3 (Basisergänzungssatz) Seien U, V Untervektorräume von Rn mit
{0} =
6 U ⊂ V ; sei (u1 , . . . , um ) eine Basis von U. Dann gibt es k ≥ 0 und
v1 , . . . , vk ∈ V , so dass (u1 , . . . , um, v1 , . . . , vk ) eine Basis von V ist.
Beweis Dies ist sehr ähnlich zum Beweis für Satz 3.1. Da (u1 , . . . , um) eine Basis
von U ist, ist U = L(u1 , . . . , um ) und insbesondere ist L(u1 , . . . , um ) ⊂ V .
Gilt V = L(u1 , . . . , um ), dann ist (u1 , . . . , um ) schon eine Basis von V (und hier
ist k = 0).
Ist dagegen V 6= L(u1 , . . . , um), so gibt es ein v1 ∈ V \ L(u1 , . . . , um ) und nach
Lemma 2.11 sind u1 , . . . , um , v1 linear unabhängig. Gilt V = L(u1 , . . . , um , v1 ),
dann ist (u1 , . . . , um, v1 ) eine Basis von V .
Ist dagegen V 6= L(u1, . . . , um , v1 ), so gibt es ein v2 ∈ V \ L(u1, . . . , um , v1 ) und
nach Lemma 2.11 sind die Vektoren u1 , . . . , um , v1 , v2 linear unabhängig. Gilt
V = L(u1 , . . . , um , v1 , v2 ), dann ist (u1 , . . . , um , v1 , v2 ) eine Basis von V .
28
3 Basen
Ist dagegen V 6= L(u1 , . . . , um , v1 , v2 ), so gibt es ein v3 ∈ V \ L(u1 , . . . , um, v1 , v2 )
und . . . .
Entweder hört dieses Verfahren auf, indem V = L(v1 , . . . , vm , v1 , . . . , vk ) für ein
k ≥ 0, und damit ist (v1 , . . . , vm , v1 , . . . , vk ) eine Basis von V , oder das Verfahren
hört nie auf, und in diesem Fall ist {vj }j≥1 eine Folge von Elementen aus V mit
der Eigenschaft, dass für jedes j ≥ 1 die Vektoren u1 , . . . , um , v1 , . . . , vj linear
unabhängig sind. Aber nach Satz 2.7 sind u1 , . . . , um , v1 , . . . , vj linear abhängig,
falls m + j > n und daraus ergibt sich, dass (u1 , . . . , um , v1 , . . . , vk ) eine Basis
von V ist für ein k ≥ 0 mit m + k ≤ n.
Satz 3.4 Seien U und V Untervektorräume von Rn mit U ⊂ V . Dann gilt
dim U ≤ dim V und es gilt dim U = dim V genau dann, wenn U = V .
Beweis Dies ist trivial richtig, wenn U = {0}, und also können wir annehmen,
dass U 6= {0}. Sei (u1, . . . , um ) eine Basis von U; dann gibt es nach Satz 3.3 k ≥ 0
und v1 , . . . , vk ∈ V , so dass (u1 , . . . , um, v1 , . . . , vk ) eine Basis von V ist. Damit
ist dim U = m ≤ m + k = dim V . Ist ferner dim U = dim V , so ist k = 0 und in
diesem Fall gilt U = L(u1 , . . . , um ) = V . Ist umgekehrt U = V , so ist natürlich
dim U = dim V .
Nach Satz 3.4 gilt insbesondere, dass dim U ≤ n für jeden Untervektorraum U
von Rn .
Satz 3.5 Sei U 6= {0} ein Untervektorraum von Rn und sei (u1 , . . . , um ) eine
Basis von U. Dann gibt es zu jedem u ∈ U genau ein (c1 , . . . , cm ) ∈ Rm , so dass
u = c1 u 1 + · · · + cm u m .
Beweis Sei u ∈ U; da U = L(u1 , . . . , um ), gibt es mindestens ein m-Tupel
(c1 , . . . , cm ) ∈ Rm , so dass u = c1 u1 + · · · + cm um . Nehme also an, dass auch
u = d1 u1 + · · · + dm um für ein (d1 , . . . , dm ) ∈ Rm . Dann ist
(d1 − c1 )u1 + · · · + (dm − cm )um
= (d1 u1 + · · · + dm um ) − (c1 u1 + · · · + cm um )
= u−u=0,
und daraus folgt, dass dj − cj = 0 für jedes j = 1, . . . , m, da u1 , . . . , um linear
unabhängig sind. Damit ist cj = dj für jedes j = 1, . . . , m.
Für Untervektorräume U, V von Rn bezeichne mit U +V die Menge aller Vektoren
in Rn , die eine Darstellung der Form u + v haben mit u ∈ U und v ∈ V .
29
3 Basen
Lemma 3.3 Für alle Untervektorräume U, V von Rn sind U + V und U ∩ V
auch Untervektorräume von Rn .
Beweis Man sieht leicht, dass U ∩ V ein Untervektorraum von Rn ist. Wir zeigen
also lediglich, dass U + V ein Untervektorraum ist.
(U1): Da 0 ∈ U, 0 ∈ V und 0 = 0 + 0, ist 0 ∈ U + V .
(U2): Seien w, w ′ ∈ U +V ; es gibt also u, u′ ∈ U und v, v ′ ∈ V mit w = u+v und
w ′ = u′ + v ′ und dann ist w + w ′ = (u + v) + (u′ + v ′) = (u + u′) + (v + v ′) ∈ U + V ,
da u + u′ ∈ U und v + v ′ ∈ V .
(U3): Sei w ∈ U + V , es gibt also u ∈ U und v ∈ V mit w = u + v. Für alle c ∈ R
ist dann cw = c(u + v) = cu + cv ∈ U + V , da cu ∈ U und cv ∈ V .
Damit ist U + V ein Untervektorraum von Rn .
Satz 3.6 Für alle Untervektorräume U, V von Rn gilt
dim(U + V ) + dim(U ∩ V ) = dim U + dim V .
Beweis Sei (w1 , . . . , wm ) eine Basis von U ∩V (mit m = 0, falls U ∩V = {0}). Da
U ∩ V ⊂ U und U ∩ V ⊂ V , gibt es nach Satz 3.3 Vektoren u1, . . . , up ∈ U (mit
p ≥ 0) und Vektoren v1 , . . . , vq ∈ V (mit q ≥ 0), so dass (w1 , . . . , wm , u1, . . . , up )
eine Basis von U und (w1 , . . . , wm , v1 , . . . , vq ) eine Basis von V ist. Dann ist
dim(U ∩ V ) = m, dim U = m + p und dim V = m + q, und also genügt es zu
zeigen, dass (w1 , . . . , wm , u1 , . . . , up, v1 , . . . , vq ) eine Basis von U + V ist.
Sei w ∈ U + V ; dann gibt es u ∈ U und v ∈ V , so dass w = u + v. Ferner gibt
es b1 , . . . , bm , c1 , . . . , cp ∈ R mit u = b1 w1 + · · · + bm wm + c1 u1 + · · · + cp up , da
(w1 , . . . , wm , u1 , . . . , up ) eine Basis von U ist, und b′1 , . . . , b′m , d1 , . . . , dq ∈ R mit
v = b′1 w1 + · · · + b′m wm + d1 v1 + · · · + dq vq , da (w1 , . . . , wm , v1 , . . . , vq ) eine Basis
von V ist. Daraus folgt, dass
w = u + v = b′′1 w1 + · · · + b′′m wm + c1 u1 + · · · + cp up + d1 v1 + · · · + dq vq ,
wobei b′′j = bj + b′j für jedes j, d.h., w ∈ L(w1 , . . . , wm , u1, . . . , up , v1 , . . . , vq ).
Damit ist U + V ⊂ L(w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq ). Andererseits folgt
L(w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq ) ⊂ U + V
unmittelbar aus Satz 2.2, da w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq ∈ U + V , d.h.,
es gilt L(w1 , . . . , wm , u1, . . . , up , v1 , . . . , vq ) = U + V .
Es wird nun gezeigt, dass w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq linear unabhängig
sind. Seien b1 , . . . , bm , c1 , . . . , cp , d1 , . . . , dq ∈ R mit
b1 w1 + · · · + bm wm + c1 u1 + · · · + cp up + d1 v1 + · · · + dq vq = 0 .
3 Basen
30
Setze u = b1 w1 + · · · + bm wm + c1 u1 + · · · + cp up und v = d1 v1 + · · · + dq vq . Dann
ist u ∈ L(w1 , . . . , wm , u1 , . . . , up ) = U und v ∈ L(v1 , . . . , vq ) ⊂ V . Aber u + v = 0,
d.h., v = −u = (−1)u und damit ist auch v ∈ U, d.h., v ∈ U ∩V . Da (w1 , . . . , wm )
eine Basis von U ∩ V ist, gibt es b′1 , . . . , b′m ∈ R, so dass v = b′1 w1 + · · · + b′m wm .
Es gilt also
0 = u+v
= b1 w1 + · · · + bm wm + c1 u1 + · · · + cp up + b′1 w1 + · · · + b′m wm
= (b1 + b′1 )w1 + · · · + (bm + b′m )wm + c1 u1 + · · · + cp up
und w1 , . . . , wm , u1 , . . . , up sind linear unabhängig. Insbesondere ist dann ci = 0
für jedes i = 1, . . . , p und folglich ist b1 w1 + · · · + bm wm + d1 v1 + · · · + dq vq = 0.
Aber w1 , . . . , wm , v1 , . . . , vq sind linear unabhängig und daraus ergibt sich, dass
auch bj = 0 für j = 1, . . . , m und dk = 0 für k = 1, . . . , q. Dies zeigt, dass
w1 , . . . , wm , u1 , . . . , up , v1 , . . . , vq linear unabhängig sind.
4
Matrizen
Für jedes n ≥ 1 sei En ∈ M(n × n, R)

1
 0

En =  ..
 .
0
folgende Matrix:

0 ··· 0
1 ··· 0 

.. . .
..  .
. . 
.
0 ··· 1
1 falls i = j ,
En heißt Einheitsmatrix.
0 sonst .
Man schreibt oft einfach E statt En , wenn es klar ist, was n ist. Sei wieder
Es gilt also En = (δij ), wobei δij =
ej = (0, . . . , 0, 1, 0, . . . , 0)
mit der Eins in der j-ten Komponente; es gilt
c1 e1 + · · · + cn en = (c1 , . . . , cn )
für alle c1 , . . . , cn ∈ R.
Sei A ∈ M(m × n, R) eine m × n Matrix und v ∈ Rn ; dann wird ein Vektor
Av ∈ Rm definiert durch die Vorschrift
 

 b1


a11 · · · a1n  b 
a11 b1 + · · · + a1n bn
 a21 · · · a2n   .2   a21 b1 + · · · + a2n bn 

  

 .. .. ..   ..  = 
 .
..
 . . .  .  

.
 .. 
am1 · · · amn
am1 b1 + · · · + amn bn
bn
Zum Beispiel ist

2
1
4

 


6
2 · 6 + 3 · (−5) + 1 · 1 + (−2) · 2
−6
3 1 −2 

−5  
 =  19 
1 · 6 + 0 · (−5) + 7 · 1 + 3 · 2
0 7 3
 1 =
4 · 6 + (−3) · (−5) + 0 · 1 + (−5) · 2
29
−3 0 −5
2
  



5
1 · 4 + 2 · (−2) + 1 · 5
1 2 1 





3 1 6
4
 3 · 4 + 1 · (−2) + 6 · 5   40 


 2 −3 2   −2  =  2 · 4 + (−3) · (−2) + 2 · 5  =  24  .
  



 4 · 4 + (−8) · (−2) + 7 · 5   67 
 4 −8 7 
5
30
6 · 4 + (−3) · (−2) + 0 · 5
6 −3 0


Für alle v ∈ Rn gilt En v = v. Für die m × n Matrix 0 gilt 0v = 0 für alle v ∈ Rn .
31
32
4 Matrizen
Lemma 4.1 Sei A ∈ M(m × n, R) eine Matrix mit Spalten w1 , . . . , wn ∈ Rm .
Dann gilt
 
b1
 .. 
A  .  = b1 w1 + · · · + bn wn
bn
für alle b1 , . . . , bn ∈ R. Insbesondere ist Aek = wk für k = 1, . . . , n.
Beweis Sei A = (aij ); dann gilt

 



 
a11 b1 + · · · + a1n bn
a11 b1
a1n bn
b1

 

 a2n bn 
 ..   a21 b1 + · · · + a2n bn   a21 b1 


A .  = 
=
+
·
·
·
+
  .. 
 .. 
..





.
.
. 
bn
am1 b1 + · · · + amn bn
am1 b1
amn bn








b1 a11
bn a1n
a11
a1n
 b1 a21 
 bn a2n 
 a21 
 a2n 








=  ..  + · · · +  ..  = b1  ..  + · · · + bn  .. 
 . 
 . 
 . 
 . 
b1 am1
bn amn
am1
amn
= b1 w1 + · · · + bn wn .
Lemma 4.2 Sei A ∈ M(m × n, R) eine m × n Matrix und b ∈ Rm . Dann ist
Lös(A, b) = {v ∈ Rn : Av = b} .
Mit anderen Worten: Ein Vektor v ∈ Rn ist eine Lösung des zu A und b gehörigen
linearen Gleichungssystems genau dann, wenn Av = b.
Beweis Seien w1 , . . . , wn die Spalten von A. Nach Satz 2.1 ist (r1 , . . . , rn ) in
Lös(A, b) genau dann, wenn r1 w1 + · · · + rn wn = b. Nach Lemma 4.1 ist aber
 
r1
 .. 
r1 w 1 + · · · + rn w n = A  . 
rn
und folglich ist Lös(A, b) = {v ∈ Rn : Av = b}.
Die Operation v 7→ Av hat folgende wichtige Eigenschaft:
Satz 4.1 Sei A ∈ M(m × n, R) eine m × n Matrix. Dann gilt
A(bu + cv) = bAu + cAv
für alle u, v ∈ Rn und alle b, c ∈ R.
33
4 Matrizen

 

p1
q1
 .. 
 .. 
Beweis Sei u =  . , v =  .  und b, c ∈ R; also ist
pn
qn


  

p1
q1
bp1 + cq1
 
  

..
bu + cv = b  ...  + c  ...  = 
 .
.
pn
qn
bpn + cqn
Seien nun w1 , . . . , wn die Spalten von A; dann ist nach Lemma 4.1
A(bu + cv) =
=
=
=
(bp1 + cq1 )w1 + · · · + (bpn + cqn )wn
bp1 w1 + cq1 w1 + · · · + bpn wn + cqn wn
bp1 w1 + · · · + bpn wn + cq1 w1 + · · · + cqn wn
b(p1 w1 + · · · + pn wn ) + c(q1 w1 + · · · + qn wn ) = bAu + cAv .
Sei A ∈ M(m × n, R). Durch Induktion nach p folgt aus Satz 4.1, dass
A(c1 v1 + · · · + cp vp ) = c1 Av1 + · · · + cp Avp
für alle v1 , . . . , vp ∈ Rn und alle c1 , . . . , cp ∈ R für jedes p ≥ 2.
Eine Abbildung f : Rn → Rm heißt linear, wenn
f (c1 v1 + c2 v2 ) = c1 f (v1 ) + c2 f (v2 )
für alle v1 , v2 ∈ Rn und alle c1 , c2 ∈ R gilt. Ist f : Rn → Rm linear, so folgt
wieder durch Induktion nach p, dass
f (c1 v1 + · · · + cp vp ) = c1 f (v1 ) + · · · + cp f (vp )
für alle v1 , . . . , vp ∈ Rn und alle c1 , . . . , cp ∈ R für jedes p ≥ 2. Für jede Matrix
A ∈ M(m × n, R) definieren wir eine Abbildung fA : Rn → Rm durch
fA (v) = Av
für alle v ∈ Rn . Nach Satz 4.1 ist die Abbildung fA linear. Man beachte, dass
nach Lemma 4.1 fA (ek ) = wk für k = 1, . . . , n, wobei w1 , . . . , wn die Spalten
von A sind.
Satz 4.2 Sei f : Rn → Rm linear und setze uk = f (ek ) für k = 1, . . . , n. Sei
A ∈ M(m × n, R) die Matrix, die u1 , . . . , un als Spalten hat. Dann gilt f = fA .
34
4 Matrizen


r1
 
Beweis Sei v ∈ Rn mit v =  ... ; dann gilt
rn
     
 
r1
r1
0
0
 r2   0   r2 
0
     
 
v =  ..  =  ..  +  ..  + · · · +  .. 
 .   .   . 
 . 
rn
0
0
rn
 
 
 
0
0
1
0
1
0
 
 
 
= r1  ..  + r2  ..  + · · · + rn  ..  = r1 e1 + · · · + rn en
.
.
.
1
0
0
und daraus ergibt sich nach Lemma 4.1, dass
f (v) = f (r1 e1 + · · · + rn en ) = r1 f (e1 ) + · · · + rn f (en )


r1
 
= r1 u1 + · · · + rn un = A  ...  = Av = fA (v) .
rn
Dies zeigt, dass f (v) = fA (v) für alle v ∈ Rn und folglich ist f = fA .
Seien A = (aij ) ∈ M(ℓ × m, R) und B = (ajk ) ∈ M(m × n, R). Wir definieren eine
ℓ × n Matrix C = (cik ) ∈ M(ℓ × n, R) durch
cik = ai1 b1k + ai2 b2k + · · · + aim bmk
für alle i = 1, . . . , ℓ, k = 1, . . . , n. Diese Matrix C heißt das Produkt von A und
B und wird mit AB bezeichnet.
Zum Beispiel sei A ∈ M(3 × 4, R) und B ∈ M(4 × 2, R) gegeben durch




2 −2
2 3 1 −2
 1 0

A =  1 0 7 3  und B = 
 4 −3 
4 −3 0 −5
−5 6
und sei AB = (cik ). Dann ist
c11
c21
c31
c12
c22
c32
=
=
=
=
=
=
2 · 2 + 3 · 1 + 1 · 4 + (−2) · (−5) = 21
1 · 2 + 0 · 1 + 7 · 4 + 3 · (−5) = 15
4 · 2 + (−3) · 1 + 0 · 4 + (−5) · (−5) = 30
2 · (−2) + 3 · 0 + 1 · (−3) + (−2) · 6 = −19
1 · (−2) + 0 · 0 + 7 · (−3) + 3 · 6 = −5
4 · (−2) + (−3) · 0 + 0 · (−3) + (−5) · 6 = −38
35
4 Matrizen
und folglich ist die 3 × 2 Matrix AB gegeben durch


21 −19
AB =  15 −5  .
30 −38
Sei A = (aij ) ∈ M(m × n, R). Für alle i = 1, . . . , m, k = 1, . . . , n gilt
ai1 δ1k + ai2 δ2k + · · · + ain δnk = aik
und dies zeigt, dass AEn = A. Ferner gilt für alle i = 1, . . . , m, k = 1, . . . , n
δi1 a1k + δi2 a2k + · · · + δim amk = aik
und damit ist ebenfalls Em A = A.
Lemma 4.3 Seien A = (aij ) ∈ M(ℓ × m, R) und B = (ajk ) ∈ M(m × n, R). Die
Spalten der Matrix AB sind Aw1 , . . . , Awn , wobei w1 , . . . , wn die Spalten von B
sind.
Beweis Für jedes k = 1, . . . , n ist die k-te Spalte von AB




 b1k

a11 b1k + · · · + a1m bmk
a11 · · · a1m  . 
 a21 b1k + · · · + a2m bmk 

  .. .. ..   .. 

 =  . . .   .  = Awk .
..
 .. 


.
aℓ1 · · · aℓm
aℓ1 b1k + · · · + aℓm bmk
bmk
Satz 4.3 Seien A = (aij ) ∈ M(ℓ × m, R), B = (ajk ) ∈ M(m × n, R). Dann gilt
(AB)v = A(Bv)
für alle v ∈ Rn .


r1
 
Beweis Seien v =  ...  und w1 , . . . , wn die Spalten von B. Nach Lemma 4.3
rn
sind Aw1 , . . . , Awn die Spalten von AB und folglich ist nach Lemma 4.1
 
r1
 .. 
(AB)v = (AB)  .  = r1 Aw1 + · · · + rn Awn ,
rn
 
r1
 .. 
Bv = B  .  = r1 w1 + · · · + rn wn .
rn
36
4 Matrizen
Nach Satz 4.1 ist aber A(r1 w1 + · · · + rn wn ) = r1 Aw1 + · · · + rn Awn und daraus
ergibt sich, dass
(AB)v = r1 Aw1 + · · · + rn Awn = A(r1 w1 + · · · + rn wn ) = A(Bv) .
Seien A = (aij ) ∈ M(ℓ × m, R) und B = (ajk ) ∈ M(m × n, R) Matrizen. Dann
gibt es die Abbildungen fA : Rm → Rℓ , fB : Rn → Rm und fAB : Rn → Rℓ mit
fA (u) = Au, fB (v) = Bv und fAB (w) = (AB)w für alle u ∈ Rm , v ∈ Rn , w ∈ Rn .
Nach Satz 4.3 ist
fAB (w) = (AB)w = A(Bw) = fA (Bw) = fA (fB (w))
für alle w ∈ Rn und damit ist fAB = fA ◦ fB .
Satz 4.4 Seien A ∈ M(ℓ × m, R), B ∈ M(m × n, R) und C ∈ M(n × p, R)
Matrizen. Dann gilt
(AB)C = A(BC) .
Beweis Sind w1 , . . . , wp die Spalten von C, so sind Bw1 , . . . , Bwp die Spalten
von BC und damit sind A(Bw1 ), . . . , A(Bwp ) die Spalten von A(BC). Andererseits sind (AB)w1 , . . . , (AB)wp die Spalten von (AB)C und nach Satz 4.2 gilt
A(Bwk ) = (AB)wk für jedes k = 1, . . . , p. Daraus ergibt sich, dass A(BC) und
(AB)C die gleichen Spalten haben und folglich ist A(BC) = (AB)C.
Da die Matrizen-Multiplikation assoziativ ist, können wir beim Produkt von drei
oder mehr Matrizen auf die Klammern verzichten. Zum Beispiel wird meistens
lediglich ABC statt (AB)C (oder A(BC)) geschrieben.
Eine Matrix A heißt quadratisch, wenn sie genauso viele Zeilen wie Spalten hat,
d.h., wenn A ∈ M(n × n, R) für ein n ≥ 1. Insbesondere ist En quadratisch.
Lemma 4.4 Sei A ∈ M(n × n, R). Dann gibt es höchstens ein A′ ∈ M(n × n, R),
so dass AA′ = A′ A = En .
Beweis Seien B, C ∈ M(n × n, R) mit AB = BA = En = AC = CA. Dann gilt
B = BEn = B(AC) = (BA)C = En C = C .
Eine quadratische Matrix A ∈ M(n×n, R) heißt invertierbar, wenn es eine Matrix
A′ ∈ M(n×n, K) gibt, so dass AA′ = A′ A = En . Nach Lemma 4.4 ist diese Matrix
A′ eindeutig und sie wird mit A−1 bezeichnet, d.h., A−1 ist die eindeutige Matrix
mit AA−1 = A−1 A = En .
4 Matrizen
37
Lemma 4.5 (1) Die Einheitsmatrix En ist invertierbar und En−1 = En .
(2) Ist A ∈ M(n × n, R) invertierbar, so ist auch A−1 invertierbar und es gilt
(A−1 )−1 = A.
(3) Sind A, B ∈ M(n × n, R) invertierbar, so ist auch AB invertierbar und es
gilt (AB)−1 = B −1 A−1 .
Beweis (1) Dies ist klar, da En En = En En = En .
(2) Dies ist auch klar, da A−1 A = AA−1 = En .
(3) Dies folgt aus der Assoziativität der Matrizenmultiplikation, da
(AB)(B −1 A−1 ) = A(BB −1 )A−1 = AEn A−1 = AA−1 = En
und (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 En B = B −1 B = En .
Bisher wurden unter elementaren Zeilenumformungen die folgenden Operationen
verstanden:
I Addition eines Vielfachen einer Zeile zu einer anderen Zeile.
II Vertauschen zweier Zeilen.
Es erweist sich aber als nützlich, eine dritte Art von elementarer Zeilenumformung
zuzulassen, und zwar:
III Multiplikation einer Zeile mit einem Skalar c ∈ R, c 6= 0.
Satz 2.3 gilt auch für Umformungen der dritten Art: Wird (A, b) durch eine
elementare Zeilenumformung vom Typ III zu einer Matrix (A′ , b′ ) verändert, so
gilt Lös(A, b) = Lös(A′ , b′ ).
Wir zeigen jetzt, dass jede elementare Zeilenumformung durch Multiplikation von
links mit einer geeigneten Matrix bewirkt werden kann.
38
4 Matrizen
Sei 1 ≤ i, j ≤ n mit i 6= j und c ∈ R mit c =
6 0. Seien Sn (i, c), Pn (i, j) und
Qn (i, j, c) folgende Elemente von M(n × n, R):


1


..
.






1



 ← i te Zeile
c


Sn (i, c) = 

1


.


..




.
..


1


1


..
.






1


 ← i-te Zeile

0
1




1


.


.
Pn (i, j) = 
.



1




1
0


 ← j-te Zeile

1




..


.
1










Qn (i, j, c) = 









i-te Spalte ↑
↑ j-te Spalte
1
..

.
1
1
c
1
..
.
1
1
1
..
.
1
↑ j-te Spalte




 ← i-te Zeile














(Außer der eingetragenen oder der durch Punkte angedeuteten Komponenten sind
dabei alle Komponenten gleich Null.) Solche Matrizen werden Elementarmatrizen
genannt.
39
4 Matrizen
Lemma 4.6 Elementarmatrizen sind invertierbar mit Sn (i, c)−1 = Sn (i, c−1 ),
Pn (i, j)−1 = Pn (i, j) und Qn (i, j, c)−1 = Qn (i, j, −c).
Beweis Übung.
Lemma 4.7 Sei A ∈ M(m × n, R) und sei 1 ≤ i, j ≤ m mit i 6= j und c ∈ R
mit c 6= 0. Dann gilt:
(1) Die Matrix Sm (i, c)A erhält man durch Multiplikation der i-ten Zeile von A
mit dem Skalar c.
(2) Die Matrix Pm (i, j)A erhält man durch Vertauschung der i-ten und der j-ten
Zeilen von A.
(3) Die Matrix Qm (i, j, c)A erhält man durch Addition des c-fachen der j-ten
Zeile zu der i-ten Zeile von A.
Beweis Übung.
Multiplikation von links mit einer Elementarmatrix bewirkt also eine elementare
Zeilenumformung. Ferner entsteht jede elementare Zeilenumformung auf diese
Weise.
Eine n × n Matrix D = (dij ) ∈ M(n × n, R) heißt Diagonalmatrix, wenn dij = 0
für alle i, j mit i 6= j. Eine solche Matrix D hat also folgende Gestalt:



D=

d11
0
..
.
0
d22
..
.
0
0
···
···
..
.
0
0
..
.
· · · dnn



 .

Insbesondere sind die Einheitsmatrix En und die Nullmatrix 0 beide Diagonalmatrizen.
Satz 4.5 Für eine quadratische Matrix A ∈ M(n × n, R) sind äquivalent:
(1) Lös(A, 0) = {0}.
(2) Das zu (A, b) gehörige Gleichungssystem ist lösbar für jedes b ∈ Rn .
(3) Das zu (A, b) gehörige Gleichungssystem ist eindeutig lösbar für jedes b ∈ Rn .
(4) A läßt sich durch eine endliche Folge von elementaren Zeilenumformungen
in eine Matrix A′ = (a′ij ) folgender Gestalt überführen:
40
4 Matrizen














∗ ·
0 ∗
0 0
0 0
0 0
0 0
0 0
0 0
0 0
·
·
∗
0
0
0
0
0
0
· ·
· ·
· ·
∗ ·
0 ∗
0 0
0 0
0 0
0 0
· ·
· ·
· ·
· ·
· ·
∗ ·
0 ∗
0 0
0 0
· ·
· ·
· ·
· ·
· ·
· ·
· ·
∗ ·
0 ∗







 .






(5) A läßt sich durch eine endliche Folge von elementaren Zeilenumformungen
in eine Diagonalmatrix D = (dij ) mit dii 6= 0 für alle i = 1, . . . , n überführen.
(6) A läßt sich durch eine endliche Folge von elementaren Zeilenumformungen
in die Einheitsmatrix En überführen.
(7) Die Matrix A ist invertierbar.
(8) Es gibt eine Matrix B ∈ M(n × n, R), so dass BA = En .
(9) Es gibt eine Matrix C ∈ M(n × n, R), so dass AC = En .
Beweis Wir haben in Kapitel 2 gesehen, dass die Aussagen (1), (2), (3) und (4)
äquivalent sind.
(6) ⇒ (4): Dies ist klar, da En Zeilen-Stufen-Form hat.
(6) ⇒ (7): Sei β1 , . . . , βp eine Folge von elementaren Zeilenumformungen, die
A in die Einheitsmatrix En überführt. Für jedes j gibt es nach Lemma 4.7 eine
Elementarmatrix Bj , die durch Multiplikation von links die Zeilenumformung
βj bewirkt. Dann ist En = Bp · · · B2 B1 A. Setze B = Bp · · · B2 B1 und also ist
En = BA. Nach Lemma 4.6 und Lemma 4.5 (2) ist aber B invertierbar und es
gilt B −1 = B −1 En = B −1 BA = En A = A. Folglich ist nach Lemma 4.5 (2) A
invertierbar (und A−1 = B).
(8) ⇒ (1): Es gibt eine Matrix B ∈ M(n × n, R) mit BA = En . Sei v ∈ Lös(A, 0);
nach Lemma 4.2 ist Av = 0 und damit ist nach Satz 4.3
v = En v = (BA)v = B(Av) = B0 = 0
und dies zeigt, dass Lös(A, 0) = {0}, d.h. dass (1) gilt.
(9) ⇒ (2): Es gibt eine Matrix C ∈ M(n × n, R) mit AC = En . Sei b ∈ Rn und
setze v = Cb. Dann ist nach Satz 4.3 Av = A(Cb) = (AC)b = En b = b und
damit ist nach Lemma 4.2 v ∈ Lös(A, b) und folglich ist das zu (A, b) gehörige
Gleichungssystem lösbar für jedes b ∈ Rn . Dies zeigt, dass (2) gilt.
41
4 Matrizen
(7) ⇒ (8): Dies ist klar, da A−1 A = En .
(7) ⇒ (9): Dies ist klar, da AA−1 = En .
(4) ⇒ (5) ⇒ (6): Hier ist ein Beispiel, das deutet an, warum dies der Fall ist:
Betrachte die 5 × 5 Matrix

1
0

A=
0
0
0

2 1 6 7
2 0 4 3

0 −1 0 4 

0 0 −2 2 
0 0 0 −1
Die Matrix A hat Zeilen-Stufen-Form und es gilt

1
0

A=
0
0
0

2 1 6 7
2 0 4 3

0 −1 0 4 

0 0 −2 2 
0 0 0 −1
⇓ (4.
⇓ (3.
⇓ (2.
⇓ (1.
Zeile ⇒ 4.
Zeile ⇒ 3.
Zeile ⇒ 2.
Zeile ⇒ 1.
1
0

0

0
0

2 1 6 0
2 0 4 0

0 −1 0 0 

0 0 −2 0 
0 0 0 −1


2 1 0 0
2 0 0 0

0 −1 0 0 

0 0 −2 0 
0 0 0 −1

1
0

0

0
0
Zeile + 2 × 5.
Zeile + 4 × 5.
Zeile + 3 × 5.
Zeile + 7 × 5.
Zeile)
Zeile)
Zeile)
Zeile)
⇓ (2. Zeile ⇒ 2. Zeile + 2 × 4. Zeile)
⇓ (1. Zeile ⇒ 1. Zeile + 3 × 4. Zeile)
⇓ (1. Zeile ⇒ 1. Zeile + 3. Zeile)
42
4 Matrizen
1
0

0

0
0

2 0 0 0
2 0 0 0

0 −1 0 0 

0 0 −2 0 
0 0 0 −1


0 0 0 0
2 0 0 0

0 −1 0 0 
=D.
0 0 −2 0 
0 0 0 −1

1
0

0

0
0
⇓ (1. Zeile ⇒ 1. Zeile − 2. Zeile)
Nun ist D eine Diagomalmatrix und es gilt

1
0

D=
0
0
0

1
0

0

0
0

0 0 0 0
2 0 0 0

0 −1 0 0 

0 0 −2 0 
0 0 0 −1
⇓ (2.
⇓ (3.
⇓ (4.
⇓ (5.
0
1
0
0
0
0
0
1
0
0
Zeile ⇒ 12 × 2. Zeile)
Zeile ⇒ (−1) × 3. Zeile)
Zeile ⇒ (− 21 ) × 4. Zeile)
Zeile ⇒ (−1) × 5. Zeile)
0
0
0
1
0

0
0

0
 = E5 .
0
1
Satz 4.6 Sei A ∈ M(n × n, R) invertierbar und sei β1 , . . . , βp eine Folge von
elementaren Zeilenumformungen, die A in die Einheitsmatrix En überführt. Dann
überführt die Folge β1 , . . . , βp die Einheitsmatrix En in die Matrix A−1 .
Beweis Für jedes j = 1, . . . , p gibt es nach Lemma 4.7 eine Elementarmatrix
Bj , die durch Multiplikation von links die Zeilenumformung βj bewirkt. Dann
43
4 Matrizen
ist En = Bp · · · B2 B1 A, und die Folge β1 , . . . , βp überführt die Matrix En in die
Matrix Bp · · · B2 B1 En . Aber
Bp · · · B2 B1 En = Bp · · · B2 B1 = A−1 ,
da (Bp · · · B2 B1 )A = En .
5
Diagonalisierbarkeit von Matrizen
In diesem Kapitel betrachten wir nur quadratische Matrizen, d.h. n × n Matrizen
für ein n ≥ 1.
Eine n × n Matrix D = (dij ) heißt Diagonalmatrix, wenn dij = 0 für alle i, j mit
i 6= j. Eine Diagonalmatrix hat also folgende Gestalt:


λ1 0 · · · 0
 0 λ2 · · · 0 


 .. .. . . .. 
 . .
. . 
0 0 · · · λn
Insbesondere sind En und die n × n Matrix 0 Diagonalmatrizen.
Eine n × n Matrix A heißt diagonalisierbar, wenn es eine invertierbare n × n
Matrix P gibt, so dass P −1 AP eine Diagonalmatrix ist.
5 −6
diagonalisierbar: Es gilt
Zum Beispiel ist die 2 × 2 Matrix A =
3 −4
21
1 −1
10
=
= E2 ;
11
−1 2
01
1 −1
21
−1
und
invertierbar mit P =
also ist die Matrix P =
−1 2
11
2 0
21
5 −6
1 −1
−1
.
=
P AP =
0 −1
11
3 −4
−1 2
Folglich ist P −1AP eine Diagonalmatrix und damit ist A diagonalisierbar. (Wie
man feststellen kann, dass A diagonalisierbar ist und die Matrix P bestimmt,
wird später erklärt.)
In vielen praktischen Anwendungen, in denen Matrizen vorkommen, wird die
Analyse einfacher, wenn die Matrizen diagonalisierbar sind. Hier ist ein Beispiel:
Sei A eine n×n Matrix; oft will man die Potenzen Am , m ≥ 1, von A untersuchen,
wobei A1 = A, A2 = AA, A3 = AAA, A4 = AAAA, usw. Ist A diagonalisierbar
mit P −1 AP = D, so ist
D m = (P −1 AP )(P −1AP )(P −1AP ) · · · (P −1 AP )
= P −1 A(P P −1)A(P P −1)A(P · · · P −1 )AP
= P −1 AEn AEn A · · · AP = P −1 AAgA · · · AP = P −1Am P
und dann ist auch Am = P D m P −1 . Nun ist
44
45
5 Diagonalisierbarkeit von Matrizen

λ1
0

 ..
 .
0
λ2
..
.
···
···
..
.
0
0
..
.
0 0 · · · λn

µ1
 0

  ..
 .
0
µ2
..
.
···
···
..
.
0
0
..
.


λ1 µ 1 0
  0 λ2 µ 2
 
 =  ..
..
  .
.
0 0 · · · µn
0
0
···
···
..
.
0
0
..
.
· · · λn µ n



 ,

d.h. das Produkt D1 D2 von Diagonalmatrizen D1 und D2 ist eine Diagonalmatrix,
deren Diagonal-Einträge Produkte von den entsprechenden Diagonal-Einträgen
aus D1 und D2 sind. Daraus folgt durch Induktion, dass

λm
1
 0

D m =  ..
 .
0
λm
2
..
.
0
···
···
..
.
0
0
..
.
0 · · · λm
n





gilt für jedes m ≥ 1 für die Diagonalmatrix

λ1
0

D =  ..
 .
0
λ2
..
.
···
···
..
.
0
0
..
.
0 0 · · · λn



 .

Wenn man also die Zahlen λ1 , . . . , λn und die Matrix P kennt, ist es relativ
leicht, die Matrix Am zu berechnen.
Es gibt aber Matrizen, die nicht diagonalisierbar sind. Zum Beispiel ist die Matrix
01
N=
00
nicht diagonalisierbar. (Nehme
an, es gäbe eine invertierbare 2 × 2 Matrix P , so
λ
0
. Nun ist N 2 = 0, und damit gilt wie oben
dass P −1 NP = D =
0ν
2 λ 0
= D 2 = (P −1NP )(P −1 NP ) = P −1 N 2 P = P −1 0P = 0 .
0 ν2
Also ist λ = µ = 0, d.h. D = 0. Dann wäre aber auch N = P DP −1 = P 0P −1 = 0,
was nicht der Fall ist.)
Die Klasse der diagonalisierbaren Matrizen ist doch sehr groß und wir untersuchen
jetzt die folgende Frage: Wie kann man feststellen, ob eine gegebene Matrix A
5 Diagonalisierbarkeit von Matrizen
46
diagonalisierbar ist? Darüber hinaus wollen wir ein Verfahren haben, das eine
invertierbare Matrix P und eine Diagonalmatrix D mit P −1 AP = D bestimmt,
wenn A diagonalisierbar ist.
Sei A eine diagonalisierbare Matrix, es gibt also eine Diagonalmatrix D und eine
invertierbare Matrix P , so dass P −1 AP = D. Dann ist AP = P D, da
AP = En AP = (P P −1)AP = P (P −1AP ) = P D .
Lemma 5.1 Sei A und P beliebige n × n

λ1 0
 0 λ2

D =  .. ..
 . .
0 0
Matrizen, sei

··· 0
··· 0 

. . .. 
. . 
· · · λn
eine Diagonalmatrix. Es gilt AP = P D genau dann, wenn Awj = λj wj für jedes
j = 1, . . . , n, wobei w1 , . . . , wn die Spalten von P sind.
Beweis Nach Lemma 5.3 sind Aw1 , . . . , Awn die Spalten von AP . Ferner sind
λ1 w1 , . . . , λn wn die Spalten von P D. (Nach Lemma 5.3 sind P u1, . . . , P un die
Spalten von P D, wobei u1 , . . . , un die Spalten von D sind. Aber uj = λj ej und
also ist P uj = P (λj ej ) = λj P ej = λj wj .) Daraus ergibt sich, dass AP = P D
genau dann gilt, wenn Awj = λj wj für jedes j = 1, . . . , n.
Sei nun A eine beliebige n × n Matrix; eine Zahl λ ∈ R heißt Eigenwert von A,
wenn es einen Vektor v ∈ Rn mit v 6= 0 gibt, so dass Av = λv und dann heißt v
ein Eigenvektor von A zum Eigenwert λ.
Wichtige Bemerkung: 0 ist ein Eigenwert von A genau dann, wenn die Matrix
A nicht invertierbar ist. (0 ist ein Eigenwert von A genau dann, wenn es ein
v ∈ Rn mit v 6= 0 gibt, so dass Av = 0, d.h. (nach Lemma 5.2) genau dann, wenn
Lös(A, 0) 6= {0}, und nach Satz 5.5 gilt Lös(A, 0) 6= {0} genau dann, wenn A
nicht invertierbar ist.)
Satz 5.1 Eine n × n Matrix A ist diagonalisierbar genau dann, wenn es eine aus
Eigenvektoren von A bestehende Basis von Rn gibt.
Ist ferner (w1 , . . . , wn ) eine aus Eigenvektoren von A bestehende Basis von Rn
und ist P die n × n Matrix mit Spalten w1 , . . . , wn , so ist P invertierbar und


λ1 0 · · · 0
 0 λ2 · · · 0 


P −1 AP =  .. .. . . ..  ,
 . .
. . 
0 0 · · · λn
wobei λ1 , . . . , λn die entsprechenden Eigenwerte sind (es gilt also Awj = λj wj
für jedes j = 1, . . . , n.
5 Diagonalisierbarkeit von Matrizen
47
Beweis Nehme zunächst an, dass es eine aus Eigenvektoren von A bestehende
Basis (w1 , . . . , wn ) von Rn gibt. Für jedes j = 1, . . . , n gibt es also ein λj ∈ R, so
dass Awj = λj wj . Sei P die n×n Matrix mit Spalten w1 , . . . , wn ; nach Lemma 5.1
gilt dann AP = P D, wobei


λ1 0 · · · 0
 0 λ2 · · · 0 


D =  .. .. . . ..  .
 . .
. . 
0 0 · · · λn
Da nun (w1 , . . . , wn ) eine Basis von Rn ist, sind die Vektoren w1 , . . . , wn linear
unabhängig und daher ist nach Satz 2.6 Lös(P, 0) = {0}. Daraus ergibt sich nach
Satz 5.5, dass P invertierbar ist und folglich ist P −1 AP = P −1 P D = En D = D,
d.h. A ist diagonalisierbar.
Nehme umgekehrt an, dass A diagonalisierbar ist. Es gibt also eine invertierbare
Matrix P , so dass


λ1 0 · · · 0
 0 λ2 · · · 0 


−1
P AP = D =  .. .. . . ..  .
 . .
. . 
0 0 · · · λn
Dann ist AP = P D und folglich ist nach Lemma 5.1 Awj = λj wj für jedes
j = 1, . . . , n, wobei w1 , . . . , wn die Spalten von A sind. Da P invertierbar ist,
ist nach Satz 5.5 Lös(P, 0) = {0} und daher sind nach Satz 2.6 w1 , . . . , wn linear
unabhängig. Insbesondere ist wj 6= 0 und also ist wj ein Eigenvektor von A zum
Eigenwert λj für jedes j = 1, . . . , n.
Ferner ist (w1 , . . . , wn ) eine Basis von L(w1 , . . . , wn ), d.h. dim L(w1 , . . . , wn ) = n
und daraus ergibt sich nach Satz 4.4, dass L(w1 , . . . , wn ) = Rn , d.h. (w1 , . . . , wn )
ist eine Basis von Rn , die aus Eigenvektoren von A besteht.
Für jede n × n Matrix A = (aij ) und jedes λ ∈ R setze


a11 − λ a12 · · · a1n
 a21 a22 − λ · · · a2n 


Aλ = A − λEn = 
 .
..
..
..
.
.


.
.
.
.
an1
an2 · · · ann − λ
Also ist
aij − λ falls i = j ,
(Aλ )ij =
aij
falls i 6= j .
7 11
Für die Matrix A =
ist zum Beispiel
4 −5
−1 11
7 − 8 11
.
=
A8 =
4 −13
4 −5 − 8
5 Diagonalisierbarkeit von Matrizen
48
Lemma 5.2 Sei A eine n×n Matrix, λ ∈ R und v ∈ Rn ; dann ist Aλ v = Av−λv
und insbesondere gilt Aλ v = 0 genau dann, wenn Av = λv.
Beweis Seien w1 , . . . , wn die Spalten von A; dann sind w1 − λe1 , . . . , wn − λen
die Spalten von Aλ . Ist
 
c1
 .. 
v= .  ,
cn
so ist nach Lemma 5.1 Av = c1 v1 + · · · + cn vn und
Aλ v = c1 (v1 − λe1 ) + · · · + cn (vn − λen )
= c1 v1 + · · · + cn vn − λ(c1 e1 + · · · + cn en ) = Av − λv .
Satz 5.2 Sei A eine n × n Matrix und λ ∈ R. Dann gilt:
(1) Lös(Aλ , 0) = {v ∈ Rn : Av = λv}.
(2) λ ist ein Eigenwert von A genau dann, wenn das zu Aλ gehörige homogene
Gleichungssystem nicht eindeutig lösbar ist.
(3) Ist λ ein Eigenwert von A, so sind die Eigenvektoren von A zum Eigenwert
λ genau die Elemente in der Menge Lös(Aλ , 0), die nicht gleich 0 sind.
Beweis (1) Nach Lemma 5.2 und Lemma 5.2 ist
Lös(Aλ , 0) = {v ∈ Rn : Aλ v = 0} = {v ∈ Rn : Av = λv} .
(2) Die Zahl λ ist ein Eigenwert von A genau dann, wenn es ein v ∈ Rn \ {0}
mit Av = λv gibt. Folglich ist nach (1) λ ein Eigenwert von A genau dann, wenn
Lös(Aλ , 0) 6= {0}.
(3) Dies folgt unmittelbar aus (2).
Sei A eine n × n Matrix; für jedes λ ∈ R setze
E(A, λ) = {v ∈ Rn : Av = λv} .
Nach Satz 5.2 (1) gilt E(A, λ) = Lös(Aλ , 0) und insbesondere ist E(A, λ) ein
Untervektorraum von Rn . Nach Satz 5.2 (2) ist λ ein Eigenwert von A genau
dann, wenn E(A, λ) 6= {0} und ist λ ein Eigenwert von A, so ist nach Satz 5.2 (3)
E(A, λ) \ {0} die Menge der Eigenvektoren von A zum Eigenwert λ. Ist λ ein
Eigenwert von A, so heißt E(A, λ) der Eigenraum von A zum Eigenwert λ.
Für jedes λ ∈ R ist es leicht festzustellen, ob λ ein Eigenwert von A ist: Dies ist
genau dann der Fall, wenn das zu Aλ gehörige homogene Gleichungssystem nicht
5 Diagonalisierbarkeit von Matrizen
49
eindeutig lösbar ist. Ist ferner λ ein Eigenwert von A, so kann man eine Basis
von E(A, λ) = Lös(Aλ , 0) bestimmen und diese Basis besteht aus Eigenvektoren
von A zum Eigenwert λ. (Die Vektoren in einer Basis sind linear unabhängig und
damit alle verschieden von Null.)
Es ist aber nicht so leicht, die Eigenwerte von A zu bestimmen. (Man kann nicht
einfach für jedes λ ∈ R prüfen, ob λ ein Eigenwert ist, da es unendlich viele reelle
Zahlen λ gibt.) Wir können aber zeigen, dass es für eine n × n Matrix höchstens
n verschiedene Eigenwerte gibt und dafür wird das folgende Lemma gebraucht.
Lemma 5.3 Seien λ1 , . . . , λm verschiedene Eigenwerte der n × n Matrix A (es
gilt also λi 6= λj , falls i 6= j) und für j = 1, . . . , m sei vj Eigenvektor von A zum
Eigenwert λj . Dann sind die Vektoren v1 , . . . , vm linear unabhängig.
Beweis Nehme an, v1 , . . . , vm sind linear abhängig. Da v1 6= 0, gibt es nach
Lemma 2.12 ein k mit 2 ≤ k ≤ m, so dass vk ∈ L(v1 , . . . , vk−1 ). Sei p der kleinste
solche Index, es gilt also 2 ≤ p ≤ m, vp ∈ L(v1 , . . . , vp−1 ), aber vi ∈
/ L(v1 , . . . , vi−1 )
für alle 2 ≤ i < p. Nach Lemma 2.12 sind v1 , . . . , vp−1 linear unabhängig. Da
vp ∈ L(v1 , . . . , vp−1 ), gibt es c1 , . . . , cp−1 ∈ R, so dass vp = c1 v1 + · · · + cp−1 cp−1 .
Dann ist
0 = Avp − λp vp =
=
=
=
A(c1 v1 + · · · + cp−1 vp−1 ) − λp (c1 v1 + · · · + cp−1vp−1 )
c1 Av1 + · · · + cp−1 Avp−1 − λp (c1 v1 + · · · + cp−1 vp−1 )
c1 λ1 v1 + · · · + cp−1 λp−1 vp−1 − (c1 λp v1 + · · · + cp−1 λp vp−1 )
c1 (λ1 − λp )v1 + · · · + cp−1 (λp−1 − λp )vp−1 ,
und daraus ergibt sich, dass cj (λj − λp ) = 0 für j = 1, . . . , p − 1, da v1 , . . . , vp−1
linear unabhängig sind. Aber λj − λp 6= 0 und also ist cj = 0 für j = 1, . . . , p − 1.
Damit ist vp = c1 v1 + · · · + cp−1 vp−1 = 0 und dies ist ein Widerspruch, da vp ein
Eigenvektor ist. Daher müssen v1 , . . . , vm linear unabhängig sein.
Satz 5.3 Eine n × n Matrix A hat höchstens n verschiedene Eigenwerte.
Beweis Seien λ1 , . . . , λm verschiedene Eigenwerte von A und für j = 1, . . . , m
sei vj ein Eigenvektor von A zum Eigenwert λj . Nach Lemma 5.3 sind die Vektoren
v1 , . . . , vm linear unabhängig. und daraus folgt nach Satz 2.7, dass m ≤ n. Also
kann A höchstens n verschiedene Eigenwerte haben.
Satz 5.4 Sei A eine n × n Matrix mit n verschiedenen Eigenwerten λ1 , . . . , λn .
Dann ist A diagonalisierbar. Ist ferner vj ein Eigenvektor von A zum Eigenwert
50
5 Diagonalisierbarkeit von Matrizen
λj für jedes j = 1, . . . , n, so ist (w1 , . . . , wn ) eine Basis von Rn und es gilt


λ1 0 · · · 0
 0 λ2 · · · 0 


−1
P AP = D =  .. .. . . ..  ,
 . .
. . 
0 0 · · · λn
wobei P die Matrix mit Spalten w1 , . . . , wn ist.
Beweis Nach Lemma 5.3 sind die Vektoren w1 , . . . , wn linear unabhängig und
damit ist (genauso wie im Beweis für Satz 5.1) (w1 , . . . , wn ) eine Basis von Rn .
Diese Basis besteht aus Eigenvektoren von A und folglich ist nach Satz 5.1 A
diagonalisierbar. Ferner gilt nach Satz 5.1, dass P −1 AP = D, wobei P die Matrix
mit Spalten w1 , . . . , wn ist.
Satz 5.5 Seien λ1 , . . . , λm die verschiedenen Eigenwerte der n × n Matrix A.
Dann ist dim E(A, λ1 ) + · · ·+ dim E(A, λm ) ≤ n, und A ist diagonalisierbar genau
dann, wenn
dim E(A, λ1 ) + · · · + dim E(A, λm ) = n .
Ist ferner A diagonalisierbar und ist (uj1 , . . . , ujpj ) eine Basis von E(A, λj ) für
jedes j = 1, . . . , m, so ist
m
(w1 , . . . , wn ) = (u11 , . . . , u1p1 , . . . , um
1 , . . . , upm )
eine aus Eigenvektoren von A bestehende Basis von Rn .
Beweis
Es ist relativ leicht, die Eigenwerte einer 2 × 2 Matrix zu bestimmen und wir
betrachten nun diesen Fall.
Für die 2 × 2 Matrix
A=
a11 a12
a21 a22
wird die Determinante det A definiert durch
det A = a11 a22 − a12 a21 .
Zum Beispiel ist
det
53
26
= 5 · 6 − 3 · 2 = 30 − 6 = 24 ,
det
12
24
= 1·4−2·2 =4−4= 0.
51
5 Diagonalisierbarkeit von Matrizen
Satz 5.6 Für eine 2 × 2 Matrix A gilt det A 6= 0 genau dann, wenn das zu
A gehörige homogene Gleichungssystem eindeutig lösbar ist. Folglich gilt nach
Satz 5.5, dass det A 6= 0 genau dann gilt, wenn A invertierbar ist.
Beweis Sei A die 2 × 2 Matrix
a11 a12
a21 a22
.
Ist a11 6= 0, so gilt Lös(A, 0) = Lös(B, 0), wobei
a11 a12
B=
0 b
mit b = a22 − (a21 /a11 )a12 und Lös(B, 0) = {0} genau dann, wenn b 6= 0, d.h.
genau dann, wenn det A 6= 0. Ist a21 6= 0, so gilt Lös(A, 0) = Lös(C, 0), wobei
a21 a22
C=
0 c
mit c = a12 −(a11 /a21 )a22 und Lös(C, 0) = {0} genau dann, wenn c 6= 0, d.h. genau
dann, wenn det A 6= 0. Ist andererseits a11 = a21 = 0, so ist Lös(A, 0) 6= {0} und
det A = 0. Damit gilt det A 6= 0 genau dann, wenn das zu A gehörige homogene
Gleichungssystem eindeutig lösbar ist.
Im Folgenden sei A die 2 × 2 Matrix
a11 a12
.
a21 a22
Für jedes λ ∈ R ist also
Aλ =
a11 − λ a12
a21 a22 − λ
und nach Satz 5.2 und Satz 5.6 ist λ ein Eigenwert von A genau dann, wenn
det Aλ = 0. Nun ist
det Aλ = (a11 − λ)(a22 − λ) − a12 a21 = λ2 − (a11 + a22 )λ + (a11 a22 − a12 a21 )
und das Polynom
χA = x2 − (a11 + a22 )x + (a11 a22 − a12 a21 ) ,
das durch Ersetzen von λ mit x entsteht, heißt das charakteristische Polynom
von A; die Eigenwerte von A sind genau die Nullstellen von χA .
52
5 Diagonalisierbarkeit von Matrizen
Ist A eine 2 ×2 Matrix mit zwei verschiedenen Eigenwerten λ1 und λ2 , so ist nach
Satz 5.4 A diagonalisierbar. Ist ferner v1 (bzw. v2 ) ein Eigenvektor von A zum
Eigenwert λ1 (bzw. zum Eigenwert λ2 ), so ist (v1 , v2 ) eine Basis von R2 und
λ1 0
−1
,
P AP =
0 λ2
wobei P die 2 × 2 Matrix mit Spalten v − 1 und v2 ist.
Beispiel: Betrachte die Matrix
A=
5 −6
3 −4
,
die am Anfang des Kapitels vorkam. Hier ist
χA = (5 − x)(−4 − x) + 18 = x2 − x − 2 = (x − 2)(x + 1) .
Also sind 2 und −1 die Nullstellen von χA und damit sind 2 und −1 die Eigenwerte
von A. Nun ist
5 − 2 −6
3 −6
A2 =
=
3 −4 − 2
3 −6
und nach Satz 5.2 sind die Eigenvektoren von A zum Eigenwert 2 die Elemente
von Lös(A2 , 0), die nicht gleich 0 sind. Hier ist das Gleichungssystem
3x − 6y = 0
3x − 6y = 0
2
ist eine Lösung, die nicht gleich 0 ist. Damit ist v1 ein Eigenvektor
und v1 =
1
von A zum Eigenwert 2. Genauso ist
5 + 1 −6
6 −6
A−1 =
=
3 −4 + 1
3 −3
und nach Satz 5.2 sind die Eigenvektoren von A zum Eigenwert −1 die Elemente
von Lös(A−1 , 0), die nicht gleich 0 sind. Hier ist das Gleichungssystem
6x − 6y = 0
3x − 3y = 0
1
ist eine Lösung, die nicht gleich 0 ist. Damit ist v2 ein Eigenvektor
und v2 =
1
von A zum Eigenwert −1. Wie im Satz 5.4 behauptet wird, ist (v1 , v2 ) eine Basis
von R2 . Sei P die Matrix mit Spalten v1 und v2 , d.h.
21
.
P =
11
53
5 Diagonalisierbarkeit von Matrizen
Dann ist P invertierbar und es gilt
P
−1
AP =
Dies kann man leicht nachprüfen: Es ist P
P
−1
AP =
1 −1
−1 2
2 0
0 −1
−1
5 −6
3 −4
=
.
1 −1
und
−1 2
1
2 0
=
.
1
0 −1
2
1
Es gilt auch A = P DP −1 und An = P D n P −1 für jedes n ≥ 1. Zum Beispiel ist
A9 = P D 9 P −1
9 1 −1
2 0
21
=
−1 2
0 −1
11
9
1 −1
2
0
21
=
−1 2
0 (−1)9
11
1025 −1026
1 −1
512 0
21
.
=
=
512 − 514
−1 2
0 −1
11
Wichtige Beispiele von 2 × 2 Matrizen sind die Dreh- und Spiegelungsmatrizen.
Für jedes θ ∈ R seien Dθ und Sθ folgende Matrizen:
cos θ − sin θ
cos θ sin θ
Dθ =
, Sθ =
.
sin θ cos θ
sin θ − cos θ
Insbesondere ist D0 = E2 und Dπ = −E2 und S0 = S, wobei
1 0
S=
.
0 −1
Für jedes θ ∈ R seien Vektoren uθ und u′θ in R2 definiert durch
− sin θ
cos θ
′
.
und uθ =
uθ =
cos θ
sin θ
Also hat Dθ Spalten uθ und u′θ und Sθ hat Spalten uθ und −u′θ . Man beachte,
dass u′θ = uθ+ 1 π und −u′θ = uθ− 1 π .
2
2
Satz 5.7 (1) Für alle θ, α ∈ R gilt
Dθ uα = uθ+α ,
Dθ u′α = u′θ+α ,
Sθ uα = uθ−α
und
Sθ u′α = −u′θ−α .
(2) Für alle ̺, θ ∈ R gilt
D̺ Dθ = D̺+θ , S̺ Sθ = D̺−θ , D̺ Sθ = S̺+θ und S̺ Dθ = S̺−θ .
5 Diagonalisierbarkeit von Matrizen
54
Beweis
p
Für u = (p1 , p2 ), v = p
(q1 , q2 ) ∈ R2 sei hu, vi = p1 q1 + p2 q2 und kuk = hu, ui
(und damit ist kuk = p21 + p22 ).
x
Sei v =
∈ R2 ; Satz 5.7 kann benutzt werden, um die Vektoren Dθ v und Sθ v
y
zu berechnen und da Dθ 0 = Sθ 0 = 0, können wir annehmen, dass v 6= 0. Dann
ist r = kvk > 0 und es gibt ein α ∈ R, so dass cos α = x/r und sin α = y/r. Also
ist x = r cos α und y = r sin α. Damit ist v = ruα und nach Satz 5.7 ist
Dθ (ruα ) = rDθ uα = ruθ+α .
Die lineare Abbildung v 7→ Dθ v dreht also jeden Vektor um den Winkel θ. Daher
heißt Dθ eine Drehmatrix. Ferner gilt
Sθ (ruα ) = rSθ uα = ruθ−α .
Setze σ = 21 θ und β = α − σ; dann ist α = σ + β und θ − α = σ − β und daher ist
Sθ (ruσ+β ) = ruσ−β .
Die lineare Abbildung v 7→ Sθ v spiegelt also jeden Vektor an der Geraden L(uσ ).
Daher heißt Sθ eine Spiegelungsmatrix.
Für die Spiegelungsmatrix Sθ gilt
χSθ = x2 − (cos θ − cos θ)x + (− cos2 θ − sin2 θ) = x2 − 1 = (x − 1)(x + 1)
und damit sind 1 und −1 die Eigenwerte von Sθ . Sei σ = 12 θ; nach Satz 5.7 ist
Sθ uσ = uσ und Sθ u′σ = −u′σ und also ist uσ (bzw. u′σ ) ein Eigenwert von Sθ zum
Eigenwert 1 (bzw. zum Eigenwert −1). Daraus folgt, dass
1 0
−1
,
Dσ S θ Dσ = S =
0 −1
Für die Drehmatrix Dθ gilt
χDθ = x2 − (cos θ + cos θ)x + (cos2 θ + sin2 θ) = x2 − 2 cos θ + 1
= x2 − 2 cos θ + cos2 θ + 1 − cos2 θ = (x − cos θ)2 + 1 − cos2 θ .
Da nun (x − cos θ)2 ≥ 0 und 1 − cos2 θ ≥ 0, ist χDθ (x) = 0 genau dann, wenn
cos2 θ = 1 und x = cos θ.
Ist −1 < cos θ < 1 (und daher cos2 6= 1), so hat χDθ keine Nullstellen. In diesem
Fall gibt es keinen Eigenwert und insbesondere ist Dθ nicht diagonalisierbar.
5 Diagonalisierbarkeit von Matrizen
55
Ist cos θ = 1, so ist sin θ = 0 und damit Dθ = E2 . Hier ist χDθ = χE2 = (x − 1)2
und folglich ist 1 der einzige Eigenwert. Ferner ist Dθ = E2 diagonalisierbar, da
E2−1 E2 E2 = E2 E2 E2 = E2 und E2 eine Diagonalmatrix ist.
Ist cos θ = −1, so ist sin θ = 0 und damit Dθ = −E2 . Hier ist χDθ = (x + 1)2
und daher ist −1 der einzige Eigenwert. Ferner ist Dθ = −E2 diagonalisierbar,
da E2−1 (−E2 )E2 = E2 (−E2 )E2 = −E2 und −E2 eine Diagonalmatrix ist.
Eine Matrix A = (aij ) heißt symmetrisch, wenn a12 = a21 . Die Matrix A ist also
genau dann symmetrisch, wenn es a, b, c ∈ R gibt, so dass
ac
A=
.
cb
Insbesondere sind die Spiegelungsmatrizen symmetrisch. Wir werden sehen, dass
jede symmetrische Matrix diagonalisierbar ist und dafür brauchen wir Folgendes:
Lemma 5.4 Sei A eine symmetrische Matrix. Für alle u, v ∈ R2 gilt dann
hAu, vi = hu, Avi .
Beweis Sei A =
ac
p1
q1
,u=
und v =
. Dann ist
cb
p2
q2
hAu, vi = (ap1 + cp2 )q1 + (cp1 + bp2 )q2 = ap1 q1 + c(p2 q1 + p1 q2 ) + bp2 q2
= p1 (aq1 + cq2 ) + p2 (cq1 + bq2 ) = hu, Avi
Man beachte, dass die Aussage in Lemma 5.4 im Allgemeinen falsch ist, wenn die
Matrix A nicht
symmetrisch
ist. Zum Beispiel:
Es gilt hAu, vi = 1 6= 0 = hu, Avi,
01
0
1
wenn A =
,u=
und v =
.
00
1
0
Lemma 5.5 Sei A eine Matrix und sei λ ein Eigenwert von A. Dann gibt es
einen Eigenvektor v von A zum Eigenwert λ mit kvk = 1.
Beweis Sei v ′ ein Eigenvektor von A zum Eigenwert λ. Da v ′ 6= 0, ist r = kv ′ k > 0
und v = (1/r)v ′ ist ebenfalls ein Eigenvektor von A zum Eigenwert λ, da
Av = A((1/r)v ′) = (1/r)Av ′ = (1/r)v ′ = v ,
und kvk = k(1/r)v ′k = (1/r)kv ′k = 1.
Lemma 5.6 Seien v1 , v2 ∈ R2 mit kv1 k = kv2 k = 1 und hv1 , v2 i = 0. Dann gibt
es ein θ ∈ R, so dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ).
5 Diagonalisierbarkeit von Matrizen
56
Beweis Sei v = (x, y) ∈ R2 mit v 6= 0 und setze r = kvk (und also ist r > 0);
dann gibt es ein α ∈ R, so dass cos α = x/r und sin α = y/r und folglich ist
x = r cos α und y = r sin α. Ist kvk = 1, so ist r = 1 und in diesem Fall ist
v = (cos α, sin α) = uα . Dies zeigt: Zu jedem v ∈ R2 mit kvk = 1 gibt es ein
α ∈ R, so dass v = uα .
Da kv1 k = kv2 k = 1, gibt es θ, σ ∈ R, so dass v1 = uθ und v2 = uσ und wir
können θ und σ so wählen, dass |θ − σ| ≤ π. Nun ist hv1 , v2 i = 0 und damit ist
huθ , uσ i = 0. Daraus ergibt sich, dass
cos(θ − σ) = cos θ cos σ + sin θ sin σ = huθ , uσ i = 0 ,
d.h. cos(θ − σ) = 0. Ist aber α ∈ R mit |α| ≤ π und cos α = 0, so ist entweder
α = 12 π oder α = − 21 π. Folglich ist entweder σ = θ + 12 π oder σ = θ − 21 π. Ist
σ = θ + 21 π, so ist uσ = uθ+ 1 π = u′θ und ist σ = θ − 21 π, so ist uσ = uθ− 1 π = −u′θ .
2
2
Dies zeigt, dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ).
Satz 5.8 Sei A eine symmetrische Matrix. Dann gibt es ein θ ∈ R, so dass
D = Dθ−1 ADθ
eine Diagonalmatrix ist.
Beweis Sei A =
ac
cb
und setze p = 21 (a + b), q = 12 (a − b); dann ist
χA = (a − x)(b − x) − c2 = x2 − (a + b)x + ab − c2
= x2 − 2px + ab − c2 = x2 − 2px + p2 − p2 + ab − c2
= (x − p)2 − p2 + ab − c2 = (x − p)2 − q 2 − c2 ,
da p2 − ab = 41 (a + b)2 − ab = 14 ((a + b)2 − 4ab) = 41 (a − b)2 = q 2 . Damit ist x eine
Nullstelle von χA genau dann, wenn (xp− p)2 = q 2 + c2 , d.h. genau dann, wenn
x = p + ∆ und x = p − ∆, wobei ∆ = q 2 + c2 .
Ist ∆ = 0, so ist c = 0 und a − b = q = 0, und hier ist A = aE2 , d.h.
a0
A=
.
0a
In diesem Fall ist A selbst eine Diagonalmatrix und D0−1 AD0 = E2 AE2 = A.
Wir können also annehmen, dass ∆ > 0 und damit gibt es zwei verschiedene
Eigenwerte λ1 und λ2 . Nach Lemma 5.5 gibt es einen Eigenvektor v1 (bzw. v2 ) zum
Eigenwert λ1 (bzw. zum Eigenwert λ2 ) mit kv1 k = kv2 k = 1. Nun ist Av1 = λ1 v1
und Av2 = λ2 v2 und folglich ist nach Lemma 5.4
λ1 hv1 , v2 i = hλ1 v1 , v2 i = hAv1 , v2 i = hv1 , Av2 i = hv1 , λ2 v2 i = λ2 hv1 , v2 i .
5 Diagonalisierbarkeit von Matrizen
57
Daher ist hv1 , v2 i = 0, da λ1 6= λ2 . Nach Lemma 5.6 gibt es dann ein θ ∈ R,
so dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ). Da −v2 auch ein
Eigenvektor zum Eigenvektor λ2 ist, ergibt sich daraus, dass uθ ein Eigenvektor
zum Eigenwert λ1 und u′θ ein Eigenvektor zum Eigenwert λ2 ist. Aber Dθ ist die
Matrix mit Spalten uθ und u′θ und also ist nach Satz 5.1
λ1 0
−1
.
Dθ ADθ =
0 λ2
Hier ist eine wichtige Anwendung von Satz 5.8: Seien a, b, c, d, ∈ R; wir wollen
feststellen, wie die Menge
o
n x 2
2
2
∈ R : ax + 2cxy + by = d
Q=
y
aussieht und dafür betrachten wir die symmetrische Matrix
ac
.
A=
cb
Für v = (x, y) ∈ R2 gilt hAv, vi = (ax + cy)x + (cx + by)y = ax2 + 2cxy + by 2
und folglich ist
Q = {v ∈ R2 : hAv, vi = d} .
Nach Satz 5.7 gibt es ein θ, λ1 , λ2 ∈ R, so dass
λ1 0
−1
,
Dθ ADθ = D =
0 λ2
(und λ1 und λ2 sind die Eigenwerte von A). Dann ist auch A = Dθ DDσ , wobei
σ = −θ, da Dσ = Dθ−1 .
Lemma 5.7 Für alle u, v ∈ R gilt hDθ u, vi = hu, Dσ vi.
Beweis Setze x = cos θ und y = sin θ; dann ist
x −y
xy
Dθ =
und Dσ =
,
y x
−y x
r
p
ist also
,v=
da cos(−θ) = cos θ und sin(−θ) = − sin θ. Für u =
s
q
hDθ u, vi = (xp − yq)r + (yp + xq)s = p(xr + ys) + q(−yr + xs) = hu, Dσ vi .
5 Diagonalisierbarkeit von Matrizen
58
Nach Lemma 5.6 gilt nun für jedes v ∈ R2 , dass
hAv, vi = h(Dθ DDσ )v, vi = hDθ (DDσ )v, vi = h(DDσ )v, Dσ vi = hD(Dσ v), Dσ vi
und daraus ergibt sich, dass Q = {v ∈ R2 : Dσ v ∈ Q′ }, wobei
o
n x
′
2
Q = {u ∈ R : hDu, ui = d} =
∈ R2 : λ1 x2 + λ2 y 2 = d .
y
Dies bedeutet: Ein Vektor v liegt genau dann in Q, wenn Dσ v in Q′ liegt. Folglich
erhält man die Menge Q durch Drehung der Menge Q′ um den Winkel −σ = θ.
Daher sehen die Mengen Q und Q′ bis auf eine Drehung identisch aus. Wie aber
die Menge Q′ aussieht, ist relativ leicht festzustellen.
6
Die Fibonacci-Zahlen
Die Folge {fn }n≥0 der Fibonacci-Zahlen 0, 1, 1, 2, 3, 5, 8, 13, . . . wird definiert
durch die Vorschrift:
f0 = 0, f1 = 1 und fn = fn−1 + fn−2 für alle n ≥ 2 .
Leonardo von Pisa wurde zwischen 1170 und 1180 geboren. Bekannt wurde er
unter dem Namen Fibonacci, was eine Verkürzung von “Filius Bonacci” ist. Er
lernte auf Handelsreisen nach Algerien, Ägypten, Syrien, Griechenland, Sizilien
und in die Provence alle damals bekannten Rechenverfahren kennen.
Sein 1202 erschienenes, 459 Seiten starkes Werk Liber Abaci machte in Europa die
indische Rechenkunst bekannt und führte die heute übliche arabische Schreibweise
der Zahlen ein.
Ebenso wie sein Geburtsjahr ist auch sein Todesjahr nicht exakt bekannt. Die
letzte Nachricht über ihn ist ein Dekret aus dem Jahr 1240, in dem ihm die
Republik Pisa ein jährliches Gehalt aussetzte.
Die Fibonacci-Zahlen tauchen im Zusammenhang mit dem folgenden berühmten
Kaninchenproblem aus dem Liber Abaci auf:
Ein Kaninchenpaar wirft vom zweiten Monat an ein junges Paar und in jedem
folgenden Monat ein weiteres Paar. Die Nachkommen verhalten sich ebenso.
Für jedes n ≥ 1 ist dann fn die Anzahl der Kaninchenpaare, die im n-ten Monat
leben.
(Aus der Internetseite von Prof. Udo Hebisch, TU Bergakademie, Freiberg).
In 1843 veröffentlichte J.P.M. Binet folgende Formel für die direkte Berechnung
der Fibonacci-Zahlen: Für alle n ≥ 0 gilt
√ !n !
√ !n
1
1− 5
1+ 5
fn = √
.
−
2
2
5
√
Die Zahl g = 12 (1 + 5), die hier vorkommt, heißt Goldener Schnitt. (Sie liegt
√
zwischen 1,61 und 1,62.) Die andere Zahl 12 (1 − 5) ist dann gleich −(1/g), da
√
√
1+ 5 1− 5
1−5
·
=
= −1 .
2
2
4
Der Goldene Schnitt ist die eindeutige positive Zahl g mit
59
g
1
=
.
1
g−1
60
6 Die Fibonacci-Zahlen
-
1
6
6
g−1
?
g
?
-
1
Aus der Formel für die Fibonacci-Zahlen folgt, dass
√ !n 1
1
1+ 5 fn − √
= √ dn
2
5
5
√
für jedes n ≥ 0, wobei d = 12 ( 5 − 1) (also liegt d zwischen 0,61 und 0,62). Da
d < 1, wird
dn sehr schnell sehr klein, wenn n groß wird.
√
√ Folglich lässt sich fn gut
1
n
durch g / 5 approximieren (wieder mit g = 2 (1 + 5)). Dies zeigt die Tabelle
auf der nächsten Seite.
In diesem Kapitel wird die Formel für die Fibonacci-Zahlen hergeleitet. Dies folgt
im Wesentlichen aus der Diagonalisierbarkeit der Matrix
01
A=
.
11
Lemma 6.1 Für jedes n ≥ 0 ist
Beweis Es gilt A
fn
fn+1
=
01
11
fn+1
fn+2
=A
fn
fn+1
=
fn
fn+1
.
fn+1
fn + fn+1
=
fn+1
.
fn+2
61
6 Die Fibonacci-Zahlen
√
gn / 5
fn
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
0
1
1
2
3
5
8
13
21
34
55
89
144
233
377
610
987
1597
2584
4181
6765
10946
17711
28657
46368
75025
0.4472135955
0.7236067977
1.1708203932
1.8944271910
3.0652475842
4.9596747752
8.0249223595
12.9845971347
21.0095194942
33.9941166290
55.0036361232
88.9977527522
144.001388875
232.999141628
377.000530503
609.999672131
987.000202634
1596.99987477
2584.00007740
4180.99995216
6765.00002956
10945.9999817
17711.0000113
28656.9999930
46368.0000043
75024.9999973
Lemma 6.2 Für jedes n ≥ 1 gilt
fn
fn+1
√
|fn − gn / 5|
0.4472135955
0.27639320225
0.17082039325
0.10557280900
0.0652475842499
0.0403252247502
0.0249223594996
0.0154028652506
0.00951949424901
0.00588337100159
0.00363612324742
0.00224724775417
0.001388875493260
0.000858372260893
0.000530503232369
0.000327869028524
0.000202634203902
0.000125234824736
0.000077399379279
0.000047835445002
0.000029563934731
0.000018271510271
0.000011292424460
0.000006979083991
0.000004313340468
0.000002665736246
0
= An e2 .
=A
1
n
Beweis Aus Lemma 6.1 mit n = 0 ist die Aussage richtig, wenn n = 1. Gilt
fn
= An e2
(⋆)
fn+1
für ein n ≥ 1, so ist nach Lemma 6.1 und Satz 5.3
(⋆)
fn
fn+1
= A (An e2 ) = (AAn )e2 = An+1 e2
=A
fn+1
fn+2
62
6 Die Fibonacci-Zahlen
und daraus folgt durch Induktion, dass
fn
fn+1
= An e2 für jedes n ≥ 1.
√
√
Setze λ1 = 12 (1 + 5) und λ2 = 12 (1 − 5) (der Goldene Schnitt wird nun also
mit λ1 und nicht g bezeichnet).
Lemma 6.3 Die Matrix A hat Eigenwerte λ1 und λ2 .
Beweis Es gilt
χA = (0 − x)(1 − x) − 1 = x2 − x − 1
und λ1 und λ2 sind die zwei Nullstellen von χA . (Es ist
4(x2 − x − 1) = 4x2 − 4x − 4 = 4x2 − 4x + 1 − 5 = (2x − 1)2 − 5
2
und damit gilt x√
− x − 1 = 0 genau dann,√wenn (2x − 1)2 = 5, d.h., genau dann,
1
wenn x = 2 (1 + 5) = λ1 oder x = 12 (1 − 5) = λ2 .) Daraus folgt nach Satz 5.2,
dass λ1 und λ2 die Eigenwerte von A sind.
Nun ist
Aλ1 =
−λ1 1
1 1 − λ1
und nach Satz 5.2 sind die Eigenvektoren von A zum Eigenwert λ1 die Elemente
von Lös(Aλ1 , 0), die nicht gleich 0 sind. Hier ist das Gleichungssystem
−λ1 x +
1y = 0
x + (1 − λ1 )y = 0
1
und v1 =
ist eine Lösung, die nicht gleich 0 ist. (Man beachte: Da λ1 eine
λ1
Nullstelle von χA = x2 − x − 1 ist, ist 1 + (1 − λ1 )λ1 = 1 + λ1 − λ21 = 0.) Damit
ist v1 ein Eigenvektor von A zum Eigenwert λ−1 . Genauso ist
−λ2 1
Aλ2 =
1 1 − λ2
und nach Satz 5.2 sind die Eigenvektoren von A zum Eigenwert λ2 die Elemente
von Lös(Aλ2 , 0), die nicht gleich 0 sind. Hier ist das Gleichungssystem
−λ2 x +
1y = 0
x + (1 − λ2 )y = 0
1
ist eine Lösung, die nicht gleich 0 ist. (Wieder ist λ2 eine Nullund v2 =
λ2
stelle von χA = x2 − x − 1 und also ist 1 + (1 − λ2 )λ2 = 1 + λ2 − λ22 = 0.) Damit
6 Die Fibonacci-Zahlen
63
ist v2 ein Eigenvektor von A zum Eigenwert λ2 . Sei P die Matrix mit Spalten v1
und v2 , d.h.
1 1
.
P =
λ1 λ2
Nach Satz 5.3 ist P invertierbar und es gilt
λ1 0
−1
P AP = D =
.
0 λ2
Es gilt auch A = P DP −1 und An = P D n P −1 für jedes n ≥ 1. Setze
√ √
−λ2 /√ 5 1/ √5
Q=
;
λ1 / 5 −1/ 5
dann ist
√ √
−λ2 /√ 5 1/ √5
PQ =
λ1 / 5 −1/ 5
√
0 √
10
(λ1 − λ2 )/ 5
= E2 ,
=
=
01
0
(λ1 − λ2 )/ 5
√
√
√
da λ1 − λ2 = 12 (1 + 5) − 12 (1 − 5) = 5, und dies zeigt, dass Q = P −1 . Folglich
ist nach Lemma 6.2
fn
= An e2 = (P D n P −1 )e2
fn+1
√
√ n
−λ2 /√ 5 1/ √5
λ1 0
1 1
0
=
n
0 λ2
λ1 λ2
1
λ1 / 5 −1/ 5
1 1
λ1 λ2
und mit etwas Mühe läßt sich daraus fn explizit berechnen.
Es ist aber leichter, etwas anders zu verfahren. Wir wissen, dass v1 (bzw. v2 ) ein
Eigenvektor von A zum Eigenwert λ1 (bzw. zum Eigenwert λ2 ) ist, es gilt also
Av1 = λ1 v1 und Av2 = λ2 v2 .
Lemma 6.4 Für alle n ≥ 1 gilt An v1 = λn1 v1 und An v2 = λn2 v2 .
Beweis Dies gilt für n = 1, da Av1 = λ1 v1 und Av2 = λ2 v2 . Sei n ≥ 1 und nehme
an, dass An v1 = λn1 v1 und An v2 = λn2 v2 . Dann ist nach Satz 5.1 und Satz 5.3
An+1 v1 = (AAn )v1 = A(An v1 ) = A(λn1 v1 )
v1
= λn1 Av1 = λn1 (λ1 v1 ) = (λn1 λ1 )v1 = λn+1
1
und genauso ist An+1 v2 = λn+1
v2 . Daraus folgt durch Induktion nach n, dass
2
An v1 = λn1 v1 und An v2 = λn2 v2 für alle n ≥ 1.
64
6 Die Fibonacci-Zahlen
Nach Satz 5.3 ist (v1 , v2 ) eine Basis von R2 . Zu jedem v ∈ R2 gibt es also eindeutige Zahlen r und s, so dass v = rv1 + sv2 . Insbesondere gibt es eindeutige
Zahlen√r und s, so dass e2 = rv1 + sv2 und in der Tat gilt e2 = σv1 − σv2 mit
σ = 1/ 5, da
1
1 1
0
1
1
=√
.
=
−
σv1 − σv2 = √
1
λ2
λ1
5
5 λ1 − λ2
√
(Wie oben ist λ1 − λ2 = 5.) Daraus ergibt sich nach Lemma 6.2, Lemma 6.4
und Satz 5.1, dass
fn
= An e2 = An (σv1 − σv2 ) = σAn v1 − σAn v2
fn+1
= σ(An v1 − An v2 ) = σ(λn1 v1 − λn2 v2 )
n n 1
1
1
λ2
1
λ1
n
n
= √ λ1
=√
−
− λ2
n+1
n+1
λ
λ
λ
λ
2
1
5
5
2
1
n
n
1
λ1 − λ2
.
= √
n+1
n+1
5 λ1 − λ2
Dies zeigt also, dass
1
1
fn = √ (λn1 − λn2 ) = √
5
5
für alle n ≥ 1.
√ !n
1+ 5
−
2
√ !n !
1− 5
2
7
Das Skalarprodukt
Für Vektoren u = (x1 , . . . , xn ) und v = (y1 , . . . , yn ) aus Rn wird das Skalarprodukt
hu, vi von u und v durch
hu, vi = x1 y1 + · · · + xn yn
definiert. Zum Beispiel ist für u = (5, 2, −2, 2, 1), v = (−4, 0, 1, 5, 3) ∈ R5
hu, vi = 5 · (−4) + 2 · 0 + (−2) · 1 + 2 · 5 + 1 · 3 = −20 + 0 − 2 + 10 + 3 = −9 .
Satz 7.1 (1) Für alle u, v, w ∈ Rn und alle c, d ∈ R gilt
hcu + dv, wi = chu, wi + dhv, wi .
(2) Für alle u, v, w ∈ Rn und alle c, d ∈ R gilt
hu, cv + dwi = chu, vi + dhu, wi .
(3) Für alle u, v ∈ Rn gilt hu, vi = hv, ui.
(4) Es gilt hv, vi ≥ 0 für alle v ∈ Rn und hv, vi = 0 gilt genau dann, wenn v = 0.
Beweis (1) Für u = (x1 , . . . , xn ), v = (y1, . . . , yn ), w = (z1 , . . . , zn ) ∈ Rn und
c, d ∈ R gilt
hcu + dv, wi =
=
=
=
=
=
=
hc(x1 , . . . , xn ) + d(y1 , . . . , yn ), (z1 , . . . , zn )i
h(cx1 + dy1, . . . , cxn + dyn ), (z1 , . . . , zn )i
(cx1 + dy1 )z1 + · · · + (cxn + dyn )zn
(cx1 z1 + dy1z1 ) + · · · + (cxn zn + dyn zn )
(cx1 z1 + · · · + cxn zn ) + (dy1z1 + · · · + dyn zn )
c(x1 z1 + · · · + xn zn ) + d(y1z1 + · · · + yn zn )
chu, wi + dhv, wi .
(2) Für u = (x1 , . . . , xn ), v = (y1 , . . . , yn ), w = (z1 , . . . , zn ) ∈ Rn und c, d ∈ R
gilt
hu, cv + dwi =
=
=
=
=
=
=
h(x1 , . . . , xn ), c(y1 , . . . , yn ) + d(z1 , . . . , zn )i
h(x1 , . . . , xn ), (cy1 + dz1 , . . . , cyn + dzn )i
x1 (cy1 + dz1 ) + · · · + xn (cyn + dzn )
(cx1 y1 + dx1 z1 ) + · · · + (cxn yn + dxn zn )
(cx1 y1 + · · · + cxn yn ) + (dx1 z1 + · · · + dxn zn )
c(x1 y1 + · · · + xn yn ) + d(x1 z1 + · · · + xn zn )
chu, vi + dhu, wi .
65
66
7 Das Skalarprodukt
(3) Für u = (x1 , . . . , xn ), v = (y1 , . . . , yn ) ∈ Rn gilt
hu, vi = x1 y1 + · · · + xn yn = y1 x1 + · · · + yn xn = hv, ui .
(4) Für v = (y1 , . . . , yn ) ∈ Rn gilt
hv, vi = y1 y1 + · · · + yn yn = y12 + · · · + yn2 ≥ 0 .
Ferner ist y12 + · · · + yn2 = 0 genau dann, wenn y1 = · · · = yn = 0 und folglich ist
hv, vi = 0 genau dann, wenn v = 0.
Nach Satz 7.1 (1) und (2) und durch Induktion nach m folgt, dass für alle m ≥ 2
hc1 u1 + · · · + cm um , vi = c1 hu1 , vi + · · · + cm hum , vi
für alle u1 , . . . , um , v ∈ Rn , c1 , . . . , cm ∈ R, und
hu, c1 v1 + · · · + cm vm i = c1 hu, v1i + · · · + cm hu, vm i
für alle u1 , . . . , um , v ∈ Rn , c1 , . . . , cm ∈ R.
Lemma 7.1 Für alle s, t ∈ R gilt
hsu + tv, su + tvi = s2 hu, ui + 2sthu, vi + t2 hv, vi .
Beweis Nach Satz 7.1 (1) ist
hsu + tv, su + tvi = shu, su + tvi + thv, su + tvi
und nach Satz 7.1 (2) gilt
hu, su + tvi = shu, ui + thu, vi und hv, su + tvi = shv, ui + thv, vi .
Ferner ist nach Satz 7.1 (3) hv, ui = hu, vi und folglich ist
hsu + tv, su + tvi =
=
=
=
shu, su + tvi + thv, su + tvi
s(shu, ui + thu, vi) + t(shv, ui + thv, vi)
s(shu, ui + thu, vi) + t(shu, vi + thv, vi)
s2 hu, ui + 2sthu, vi + t2 hv, vi .
Sei v ∈ Rn ; nach Satz 7.1 (4) ist hv, vi ≥ 0 und folglich gibt es eine eindeutige
Zahl kvk ∈ R+ (d.h. p
mit kvk ≥ 0), so dass kvk2 = hv, vi, und wir schreiben
natürlich dann kvk = hv, vi. Die Zahl
p kvk heißt die Norm oder die Länge von
v. Ist v = (x1 , . . . , xn ), so ist kvk = x21 + · · · + x2n .
67
7 Das Skalarprodukt
Satz 7.2 (Cauchy-Schwarzsche Ungleichung) Für alle u, v ∈ Rn gilt
|hu, vi| ≤ kukkvk .
Beweis Die Ungleichung ist trivial richtig, wenn v = 0, da
|hu, 0i| = 0 = kuk · 0 = kukk0k .
Es kann also angenommen werden, dass v 6= 0, und dann ist kvk > 0. Nach
Lemma 7.1 mit s = 1 ist
ku + tvk2 = hu + tv, u + tvi = hu, ui + 2thu, vi + t2hv, vi = kuk2 + 2thu, vi + t2kvk2
für alle t ∈ R. Für jedes t ∈ R ist aber ku + tvk2 ≥ 0 und damit ist
kuk2 + 2thu, vi + t2 kvk2 ≥ 0 .
Also ist kuk2 +2thu, vi+t2kvk2 ≥ 0 für alle t ∈ R und ferner ist kvk2 > 0. Folglich
ist hu, vi2 ≤ kuk2kvk2 . (Seien a, b, c ∈ R mit a > 0 und mit at2 + 2bt + c ≥ 0 für
alle t ∈ R. Dann ist
at2 + 2bt + c = a(t2 + 2(b/a)t + (b/a)2 ) − b2 /a + c = a(t + b/a)2 − b2 /a + c ≥ 0
für alle t ∈ R und insbesondere mit t = −b/a2 (und daher mit at + b/a = 0).
Daraus ergibt sich, dass b2 ≤ ac.) Da hu, vi2 ≤ kuk2 kvk2 , ist
p
p
|hu, vi| = hu, vi2 ≤ kuk2kvk2 = |kukkvk| = kukkvk .
√
√
√
(Für alle a ∈ R ist a2 = |a|, und sind b, c ∈ R+ mit b ≤ c, so ist b ≤ c.)
Dies zeigt, dass |hu, vi| ≤ kukkvk.
Satz 7.3 Die Norm hat folgende Eigenschaften:
(1) Es gilt kvk = 0 genau dann, wenn v = 0.
(2) Für alle v ∈ Rn , t ∈ R gilt ktvk = |t|kvk.
(3) (Dreiecksungleichung) Für alle u, v ∈ Rn gilt ku + vk ≤ kuk + kvk.
Beweis (1) Sei v = (x1 , . . . , xn ) ∈ Rn ; dann ist kvk2 = hv, vi = x21 + · · · + x2n , und
x21 + · · · + x2n = 0 gilt genau dann, wenn x1 = · · · = xn = 0, d.h., genau dann,
wenn v = 0. Aber a2 = 0 gilt genau dann, wenn a = 0 und folglich ist kvk = 0
genau dann, wenn v = 0.
(2) Sei v = (x1 , . . . , xn ) ∈ Rn und sei t ∈ R; dann ist tv = (tx1 , . . . , txn ) und
damit ist
ktvk2 = (tx1 )2 + · · · + (txn )2
= t2 x21 + · · · + t2 x2n = t2 (x21 + · · · + x2n ) = t2 kvk2 = (tkvk)2 .
7 Das Skalarprodukt
Da
√
68
a2 = |a| für all a ∈ R, ergibt sich nun daraus, dass
p
p
ktvk = |ktvk| = ktvk2 = (tkvk)2 = |tkvk| = |t||kvk| = |t|kvk .
(3) Nach Lemma 7.1 (mit s = t = 1) ist
ku + vk2 = hu + v, u + vi = hu, ui + 2hu, vi + hv, vi = kuk2 + 2hu, vi + kvk2
und ferner ist (kuk + kvk)2 = kuk2 + 2kukkvk + kvk2 . Nach Satz 7.2 ist aber
|hu, vi| ≤ kukkvk und insbesondere ist dann auch hu, vi ≤ kukkvk. Damit ist
ku + vk2 = kuk2 + 2hu, vi + kvk2 ≤ kuk2 + 2kukkvk + kvk2 = (kuk + kvk)2
und daraus ergibt sich, dass ku + vk ≤ kuk + kvk. (Sind a, b ∈ R+ mit a2 ≤ b2 ,
so ist a ≤ b.)
Lemma 7.2 Für Vektoren u, v ∈ Rn gilt ku − vk = ku + vk genau dann, wenn
hu, vi = 0.
Beweis Nach Lemma 7.1 mit s = 1 und t = −1 gilt
ku − vk2 = hu + v, u + vi = hu, ui − 2hu, vi + (−1)2 hv, vi = kuk2 − 2hu, vi + kvk2
und genauso gilt mit s = t = 1, dass
ku + vk2 = hu + v, u + vi = hu, ui + 2hu, vi + hv, vi = kuk2 + 2hu, vi + kvk2 .
Daraus ergibt sich, dass ku − vk2 = ku + vk2 genau dann gilt, wenn hu, vi = 0.
Aber ku − vk2 = ku + vk2 gilt genau dann, wenn ku − vk = ku + vk.
Satz 7.4 Es gilt ku + vk2 + ku − vk2 = 2(kuk2 + kvk2) für alle u, v ∈ Rn .
Beweis Wie im Beweis für Lemma 7.2 gilt
ku − vk2 = kuk2 − 2hu, vi + kvk2 und ku + vk2 = kuk2 + 2hu, vi + kvk2
und daraus ergibt sich, dass
ku + vk2 + ku − vk2 = kuk2 + 2hu, vi + kvk2 + kuk2 − 2hu, vi + kvk2
= kuk2 + kvk2 + kuk2 + kvk2
= 2(kuk2 + kvk2 ) .
7 Das Skalarprodukt
69
Lemma 7.3 (Polarisierungsidentitäten) Für alle u, v ∈ Rn gilt
hu, vi = 12 (kuk2 + kvk2 − ku − vk2 ) = 14 (ku + vk2 − ku − vk2 ) .
Beweis Übung.
Vektoren u, v ∈ Rn heißen orthogonal oder senkrecht zueinander (geschrieben
u ⊥ v), wenn hu, vi = 0. Vektoren v1 , . . . , vm ∈ Rn heißen orthonormal, wenn
1 falls i = j ,
hvi , vj i =
0 falls i 6= j ,
d.h., wenn kvj k = 1 für j = 1, . . . , m und vi ⊥ vj für alle i 6= j.
Lemma 7.4 Orthonormale Vektoren sind linear unabhängig.
Beweis Seien v1 , . . . , vm orthonormale Vektoren und seien λ1 , . . . , λm ∈ R mit
λ1 v1 + · · · + λm vm = 0. Für jedes j = 1, . . . , m ist dann
0 = h0, vj i = hλ1 v1 + · · · + λm vm , vj i
= λ1 hv1 , vj i + · · · + λm hvm , vj i = λj hvj , vj i = λj ,
d.h., λj = 0 für j = 1, . . . , m und damit sind v1 , . . . , vm linear unabhängig.
Sei U ein Untervektorraum von Rn ; dann heißt eine Basis (u1 , . . . , um ) von U
orthonormal, wenn die Vektoren u1 , . . . , um orthonormal sind. Sind u1 , . . . , um
orthonormale Vektoren aus U, so ist nach Lemma 7.4 (u1 , . . . , um ) immer eine
orthonormale Basis von L(u1, . . . , um ). Daraus ergibt sich, dass (u1 , . . . , um ) genau
dann eine orthonormale Basis von U ist, wenn dim U = m.
Bemerkung: Die kanonische Basis (e1 , . . . , en ) von Rn ist orthonormal.
Satz 7.5 Sei (u1 , . . . , um) eine orthonormale Basis eines Untervektorraumes U
von Rn . Für alle u ∈ U gilt dann
u = hu, u1iu1 + · · · + hu, umium .
(Mit anderen Worten ist hu, u1iu1 + · · · + hu, umium die eindeutige Darstellung
von u als Linearkombination der Vektoren u1 , . . . , um .)
Beweis Sei u ∈ U; da (u1, . . . , um ) eine Basis von U ist, gibt es nach Satz 4.5
eindeutige Elemente λ1 , . . . , λm ∈ R, so dass u = λ1 u1 + · · · + λm um . Dann gilt
hu, uj i = hλ1 u1 + · · ·+ λm um , uj i = λ1 hu1 , uj i + · · ·+ λm hum , uj i = λj huj , uj i = λj
70
7 Das Skalarprodukt
für jedes j = 1, . . . , m.
Für jedes v ∈ Rn setze
∗
v =
kvk−1 v falls v =
6 0,
0
falls v = 0 ,
also gilt kv ∗ k = 1 für alle v 6= 0.
Satz 7.6 (Gram-Schmidtsches Orthonormalisierungsverfahren) Es sei U
ein Untervektorraum von Rn und sei (u1 , . . . , um ) eine Basis von U. Definiere
v1 , . . . , vm ∈ Rn
v1 = u∗1
∗
v2 = u2 − hu2, v1 iv1
..
.
∗
vk = uk − huk , v1 iv1 − huk , v2 iv2 − · · · − huk , vk−1 ivk−1 ,
..
.
∗
vm = um − hum , v1 iv1 − hum , v2 i v2 − · · · − hum , vm−1 ivm−1 .
Dann ist (v1 , . . . , vm ) eine orthonormale Basis von U mit
L(v1 , . . . , vk ) = L(u1 , . . . , uk )
für jedes k. Insbesondere besitzt jeder Untervektorraum von Rn eine orthonormale
Basis.
Beweis Es wird durch Induktion nach k bewiesen, dass v1 , . . . , vk orthonormal
sind und L(v1 , . . . , vk ) = L(u1, . . . , uk ) für jedes k = 1, . . . , m.
Induktionsanfang: Da u1 6= 0, ist kv1 k = 1 und L(v1 ) = L(u1 ).
Induktionsschritt: Sei 1 ≤ k < m und nehme an, dass v1 , . . . , vk orthonormal
sind und L(v1 , . . . , vk ) = L(u1, . . . , uk ). Setze
wk+1 = uk+1 − huk+1 , v1 iv1 − huk+1, v2 iv2 − · · · − huk+1 , vk ivk .
Dann ist wk+1 ∈ L(v1 , . . . , vk , uk+1) und uk+1 ∈ L(v1 , . . . , vk , wk+1 ), und daraus
ergibt sich nach Satz 2.3, dass L(v1 , . . . , vk , wk+1) = L(v1 , . . . , vk , uk+1). Aber
∗
vk+1 = wk+1
und L(v1 , . . . , vk ) = L(u1 , . . . , uk ) und damit ist
L(v1 , . . . , vk+1 ) = L(v1 , . . . , vk , vk+1 ) = L(v1 , . . . , vk , wk+1 )
= L(v1 , . . . , vk , uk+1) = L(u1 , . . . , uk , uk+1) = L(u1 , . . . , uk+1) .
7 Das Skalarprodukt
71
Da u1 , . . . , uk+1 linear unabhängig sind, gilt auch
uk+1 ∈
/ L(u1 , . . . , uk ) = L(v1 , . . . , vk ) ,
und daher ist wk+1 6= 0, d.h. kvk+1k = 1. Für jedes j = 1, . . . , k ist nun
hvk+1 , vj i =
=
=
=
=
kwk+1 k−1 hwk+1, vj i
kwk+1 k−1 h uk+1 − huk+1 , v1 iv1 − · · · − huk+1, vk ivk , vj i
kwk+1 k−1 huk+1, vj i − huk+1, v1 ihv1 , vj i − · · · − huk+1, vk ihvk , vj i
kwk+1 k−1 huk+1, vj i − huk+1, vj ihvj , vj i
kwk+1 k−1 huk+1, vj i − huk+1, vj i = 0 ,
und damit sind v1 , . . . , vk+1 orthonormal, da nach Induktionsannahme v1 , . . . , vk
schon orthonormal sind. Dies zeigt, dass die Vektoren v1 , . . . , vk+1 orthonormal
sind und L(v1 , . . . , vk+1 ) = L(u1 , . . . , uk+1).
Es gibt den folgenden Basisergänzungssatz für orthonormale Basen:
Satz 7.7 Seien U und V Untervektorräume von Rn mit {0} =
6 U ⊂ V und sei
(u1 , . . . , um) eine orthonormale Basis von U. Dann gibt es k ≥ 0 und Vektoren
v1 , . . . , vk ∈ V , so dass (u1 , . . . , um , v1 , . . . , vk ) eine orthonormale Basis von V
ist
Beweis Nach dem Basisergänzungssatz (Satz 4.3) gibt es w1 , . . . , wk ∈ V (mit
k ≥ 0), so dass (u1, . . . , um , w1 , . . . , wk ) eine Basis von V ist. Wende nun das
Gram-Schmidtsche Orthonormalisierungsverfahren auf diese Basis an und erhalte
eine orthonormale Basis (u′1 , . . . , u′m , v1 , . . . , vk ) von V . Man sieht aber leicht, dass
u′j = uj für j = 1, . . . , m, da die Vektoren u1, . . . , um schon orthonormal sind.
Also ist (u1 , . . . , um , v1 , . . . , vk ) eine orthonormale Basis von V .
Sei V ein Untervektorraum von Rn mit dim V = m und U ein Untervektorraum
von Rn mit U ⊂ V und dim U = ℓ ≥ 1. Nach Satz 7.7 gibt es eine orthonormale
Basis (v1 , . . . , vm ) von V , so dass (v1 , . . . , vℓ ) eine orthonormale Basis von U ist.
Für jede nichtleere Teilmenge M von Rn setzen wir
M ⊥ = {v ∈ Rn : v ⊥ u für alle u ∈ M} .
M ⊥ heißt das orthogonale Komplement von M. Offensichtlich ist {0}⊥ = Rn und
(Rn )⊥ = {0}.
Lemma 7.5 M ⊥ ist ein Untervektorraum von Rn .
7 Das Skalarprodukt
72
Beweis Da h0, ui = 0 für alle u ∈ M, ist 0 ∈ M ⊥ . Seien nun v1 , v2 ∈ M ⊥ und
λ1 , λ2 ∈ R; für jedes u ∈ M ⊥ ist dann hv1 , ui = hv2 , ui = 0 und damit auch
hλ1 v1 + λ2 v2 , ui = λ1 hv1 , ui + λ2 hv2 , ui = 0 ,
d.h., λ1 v1 + λ2 v2 ∈ M ⊥ . Folglich ist M ⊥ ein Untervektorraum von Rn .
Lemma 7.6 Sei U ein Untervektorraum von Rn mit {0} =
6 U 6= Rn und sei
(v1 , . . . , vn ) eine orthonormale Basis von Rn , so dass (v1 , . . . , vm ) orthonormale
Basis von U ist, wobei m = dim U. Dann ist (vm+1 , . . . , vn ) eine orthonormale
Basis von U ⊥ .
Beweis Sei v ∈ U ⊥ ; dann gilt hv, vj i = 0 für j = 1, . . . , m, da v1 , . . . , vm ∈ U,
und daraus folgt nach Satz 7.5, dass
v = hv, v1 iv1 + · · · + hv, vn ivn = hv, vm+1 ivm+1 + · · · + hv, vn ivn ∈ L(vm+1 , . . . , vn ) ,
d.h., U ⊥ ⊂ L(vm+1 , . . . , vn ). Andererseits ist
hλm+1 vm+1 + · · · + λn vn , λ1 v1 + · · · + λm vm i = 0
für alle λ1 , . . . , λn ∈ R, und damit ist hλm+1 vm+1 + · · · + λn vn , ui = 0 für alle
λm+1 , . . . , λn ∈ R, u ∈ U, da (v1 , . . . , vm ) eine Basis von U ist. Folglich gilt
auch L(vm+1 , . . . , vn ) ⊂ U ⊥ , d.h., U ⊥ = L(vm+1 , . . . , vn ). Aber vm+1 , . . . , vn sind
orthonormal, und also ist (vm+1 , . . . , vn ) eine orthonormale Basis von U ⊥ .
Satz 7.8 Sei U ein Untervektorraum von Rn . Dann ist (U ⊥ )⊥ = U und es gilt
dim U + dim U ⊥ = n.
Beweis Dies ist trivial richtig, wenn U = {0} oder U = Rn ; nehme also an, dass
{0} =
6 U 6= Rn . Nach Satz 7.7 gibt es eine orthonormale Basis (v1 , . . . , vn ) von
Rn , so dass (v1 , . . . , vm ) eine orthonormale Basis von U ist, wobei m = dim U,
und nach Lemma 7.6 ist dann (vm+1 , . . . , vn ) eine orthonormale Basis von U ⊥ .
Nun ist (v1 , . . . , vn ) eine orthonormale Basis von Rn , so dass (vm+1 , . . . , vn ) eine
orthonormale Basis von U ⊥ ist. Daraus folgt nach Lemma 7.6, dass (v1 , . . . , vm )
eine orthonormale Basis von (U ⊥ )⊥ ist, und damit ist (U ⊥ )⊥ = U. Ferner ist
dim U + dim U ⊥ = m + (n − m) = n.
Untervektorräume U1 und U2 von Rn sind orthogonal, und man schreibt U1 ⊥ U2 ,
wenn u1 ⊥ u2 für alle u1 ∈ U1 , u2 ∈ U2 .
73
7 Das Skalarprodukt
Wir brauchen nun die folgenden Eigenschaften von sin und cos: Es gilt
sin(α + β) = sin α cos β + cos α sin β ,
cos(α + β) = cos α cos β − sin α sin β
für alle α, β ∈ R. Da sin(−β) = − sin β und cos(−β) = cos β, gilt dann auch
sin(α − β) = sin α cos β − cos α sin β ,
cos(α − β) = cos α cos β + sin α sin β
für alle α, β ∈ R. Insbesondere gilt
sin(α + 12 π) = sin α cos 12 π + cos α sin 21 π = sin α · 0 + cos α · 1 = cos α ,
cos(α + 12 π) = cos α cos 12 π − sin α sin 21 π = cos α · 0 − sin α · 1 = − sin α ;
d.h. sin(α + 21 π) = cos α und cos(α + 21 π) = − sin α für alle α ∈ R.
Für jedes θ ∈ R definieren wir Vektoren uθ und u′θ durch
cos θ
− sin θ
′
uθ =
und uθ =
.
sin θ
cos θ
Man beachte, dass u′θ = uθ+ 1 π und −u′θ = uθ− 1 π .
2
2
2
2
Nun ist huθ , uθ i = cos θ + sin θ = 1 und
ist kuθ k = ku′θ k = 1. Ferner ist
hu′θ , u′θ i
= sin2 θ + cos2 θ = 1 und damit
huθ , u′θ i = cos θ(− sin θ) + sin θ cos θ = 0
und folglich ist (uθ , u′θ ) eine orthonormale Basis von R2 . Aber (uθ , −u′θ ) ist auch
eine orthonormale Basis von R2 , da huθ , −u′θ i = −huθ , u′θ i = −0 = 0. Für jedes
θ ∈ R haben wir also zwei orthonormale Basen (uθ , u′θ ) und (uθ , −u′θ ) und in der
Tat gibt es keine anderen orthonormalen Basen von R2 :
Satz 7.9 Sei (v1 , v2 ) eine orthonormale Basis von R2 . Dann gibt es ein θ ∈ R,
so dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ).
Beweis Sei v = (x, y) ∈ R2 mit v 6= 0 und setze r = kvk (und also ist r > 0);
dann gibt es ein α ∈ R, so dass cos α = x/r und sin α = y/r und folglich ist
x = r cos α und y = r sin α. (r und α sind die Polar-Koordinaten von v.) Man
beachte, dass der Winkel α nicht eindeutig durch v bestimmt ist, da zum Beispiel
cos α = cos(α + 2π) und sin α = sin(α + 2π). Man kann aber Eindeutigkeit
erreichen, indem man verlangt, dass 0 ≤ α < 2π. Ist kvk = 1, so ist r = 1 und in
diesem Fall ist v = (cos α, sin α) = uα . Dies zeigt: Zu jedem v ∈ R2 mit kvk = 1
gibt es ein α ∈ R, so dass v = uα .
7 Das Skalarprodukt
74
Da kv1 k = kv2 k = 1, gibt es θ, σ ∈ R, so dass v1 = uθ und v2 = uσ und wir
können θ und σ so wählen, dass |θ − σ| ≤ π. Nun ist hv1 , v2 i = 0 und damit ist
huθ , uσ i = 0. Daraus ergibt sich, dass
cos(θ − σ) = cos θ cos σ + sin θ sin σ = huθ , uσ i = 0 ,
d.h. cos(θ − σ) = 0. Ist aber α ∈ R mit |α| ≤ π und cos α = 0, so ist entweder
α = 12 π oder α = − 21 π. Folglich ist entweder σ = θ + 12 π oder σ = θ − 21 π. Ist
σ = θ + 21 π, so ist uσ = uθ+ 1 π = u′θ und ist σ = θ − 21 π, so ist uσ = uθ− 1 π = −u′θ .
2
2
Dies zeigt, dass entweder (v1 , v2 ) = (uθ , u′θ ) oder (v1 , v2 ) = (uθ , −u′θ ).

Documentos relacionados